CN113366836A - 尺寸相关的跨分量线性模型 - Google Patents

尺寸相关的跨分量线性模型 Download PDF

Info

Publication number
CN113366836A
CN113366836A CN202080008152.XA CN202080008152A CN113366836A CN 113366836 A CN113366836 A CN 113366836A CN 202080008152 A CN202080008152 A CN 202080008152A CN 113366836 A CN113366836 A CN 113366836A
Authority
CN
China
Prior art keywords
samples
cclm
block
video
luma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080008152.XA
Other languages
English (en)
Inventor
张凯
张莉
刘鸿彬
王悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of CN113366836A publication Critical patent/CN113366836A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

描述了用于数字视频编解码的设备、系统和方法,包括简化的跨分量预测。在代表性方面,一种用于视频编解码的方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是通过对至少一个亮度分量的样本进行子采样而选择的;以及基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。在另一代表性方面,第二样本集合为当前块的临近样本并用于至少一个亮度分量的帧内预测模式。

Description

尺寸相关的跨分量线性模型
相关申请的交叉引用
根据适用的专利法和/或依据巴黎公约的规则,本申请是为了及时要求于2019年1月11日提交的国际专利申请No.PCT/CN2019/071382的优先权和利益。出于根据美国法律的所有目的,国际专利申请No.PCT/CN2019/071382的全部公开通过引用而并入,作为本申请的公开的一部分。
技术领域
本专利文档涉及视频编解码技术、设备和系统。
背景技术
尽管视频压缩技术有所进步,但数字视频仍然占互联网和其他数字通信网络上的最大带宽使用。随着能够接收和显示视频的连接用户设备的数量增加,预计对数字视频使用的带宽需求将继续增长。
发明内容
描述了与数字视频编解码相关的设备、系统和方法,特别是视频编解码中的跨分量线性模型(Cross-Component Linear Model,CCLM)预测模式的低复杂性实施方式。所描述的方法可以应用于现有视频编解码标准(例如,高效视频编解码(High EfficiencyVideo Coding,HEVC))和未来视频编解码标准(例如,多功能视频编解码(Versatile VideoCoding,VVC))或编解码器。
在一个示例方面,公开了一种视频处理的方法。该方法包括:使用亮度块的训练样本来确定用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定第一色度块的样本;其中训练样本或样本集合在不使用多抽头降采样滤波器的情况下确定。
在另一示例方面,公开了另一种视频处理方法。该方法包括:使用亮度块的训练样本来确定用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定第一色度块的样本;其中训练亮度样本被限制为与亮度块临近的、在用于帧内预测过程的位置处的亮度样本。
在另一示例方面,公开了另一种视频处理方法。该方法包括:对于当前视频块和当前视频块的比特流表示之间的转换,基于与包括亮度块和第一色度块的当前视频块相关的规则来选择性地确定用于从亮度块的样本集合生成第一色度块的样本的跨分量预测方案;以及根据跨分量预测方案来生成第一色度块的样本,其中跨分量预测方案是以下中的一个:第一跨分量预测方案,其使用根据亮度块的训练样本生成的线性模型,使得训练样本和样本集合在不使用多抽头降采样滤波器的情况下确定;或者第二跨分量预测方案,在该第二跨分量预测方案中训练亮度样本被限制为与当前视频块临近的、在用于帧内预测过程的位置处的亮度样本;其中规则指定根据当前视频块所属的视频区域来选择跨分量预测方案。
在另一示例方面,公开了另一种视频处理方法。该方法包括:为视频的视频块和视频块的编解码表示之间的转换,从视频块的亮度块确定视频块的第一色度块的样本;其中第一色度块的样本对应于第一中间色度块和N个第二中间色度块的加权组合,其中第一中间色度块是使用第一跨分量线性模型根据亮度块的第一样本集合生成的,其中第一跨分量线性模型是使用亮度样本的第一训练序列生成的;并且其中N个第二中间色度块是使用N个第二跨分量线性模型根据亮度块的N个第二样本集合生成的,其中N个第二跨分量线性模型是使用亮度样本的N个第二训练序列生成的,其中N为整数。
在另一示例方面,公开了另一种视频处理方法。该方法包括:使用降采样过程对亮度块的样本集合进行降采样,其中在降采样过程中使用的降采样滤波器取决于被降采样以生成亮度块的降采样样本集合的亮度样本的位置;使用线性模型从亮度块的降采样样本集合确定第一色度块的样本。
在另一示例方面,公开了另一种视频处理方法。该方法包括:为视频的视频块和视频块的编解码表示之间的转换,基于视频块的大小或尺寸来确定用于该转换的一个或多个跨分量线性模型(CCLM);以及使用跨分量线性模型来执行转换,其中跨分量线性模型是以下中的一个:仅从视频块的顶部临近值推导的CCLM(CCLM-T);仅从视频块的左侧临近值推导的CCLM(CCLM-L);或者仅从视频块的左侧和顶部临近值推导的CCLM(CCLM-TL)。
在另一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是通过对至少一个亮度分量的样本进行子采样而选择的;以及基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在另一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是临近样本并且用于至少一个亮度分量的帧内预测模式;以及基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在又一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括多个块的图片段的比特流表示,其中多个块包括当前块,并且其中多个块中的每一个包括色度分量和亮度分量;对多个块中的每一个执行预测步骤;以及基于相应的第一样本集合和第二样本集合来处理比特流表示,以生成多个块的相应块。
在又一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;对当前块执行预定次数的预测步骤;基于预定数量的第一样本集合中的每一个来生成最终的第一样本集合;以及至少基于最终的第一样本集合来处理比特流表示,以生成当前块。
在又一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:确定第一视频块的大小;基于对第一视频块的大小的确定来确定关于跨分量线性模型(CCLM)预测模式的应用的参数;以及根据参数使用CCLM预测模式来执行对第一视频块的进一步处理。
在又一代表性方面,上述方法以处理器可执行代码的形式体现,并且存储在计算机可读程序介质中。
在又一代表性方面,公开了一种被配置为或可操作来执行上述方法的设备。该设备可以包括被编程为实施该方法的处理器。
在又一代表性方面,视频解码器装置可以实施如本文描述的方法。
在附图、说明书和权利要求中更详细地描述了所公开技术的上述以及其他方面和特征。
附图说明
图1示出了用于推导用于跨分量预测的线性模型的权重的样本的位置的示例。
图2示出了将临近样本分类为两组的示例。
图3A示出了色度样本及其对应的亮度样本的示例。
图3B示出了用于联合探索模型(Joint Exploration Model,JEM)中的跨分量线性模型(CCLM)的降滤波的示例。
图4示出了与单个色度样本相对应的四个亮度样本的示例性排列。
图5A和图5B示出了具有临近样本的4×4色度块的样本、以及对应的亮度样本的示例。
图6A-图6J示出了没有亮度样本降滤波的CCLM的示例。
图7A-图7D示出了仅需要在正常帧内预测中使用的临近亮度样本的CCLM的示例。
图8A和图8B示出了编解码树单元(Coding Tree Unit,CTU)的边界处的编解码单元(Coding Unit,CU)的示例。
图9示出了根据所公开技术的用于跨分量预测的示例方法的流程图。
图10示出了根据所公开技术的用于跨分量预测的另一示例方法的流程图。
图11示出了根据所公开技术的用于跨分量预测的又一示例方法的流程图。
图12示出了根据所公开技术的用于跨分量预测的又一示例方法的流程图。
图13是用于实施本文档中描述的视觉媒体解码或视觉媒体编码技术的硬件平台的示例的框图。
图14-图19是视频处理的各种方法的流程图。
图20A-图20B描绘了当前块内部和外部的亮度样本的降采样位置。假设当前块尺寸为WxH。图20A展示了当涉及W个上侧临近样本和H个左侧临近样本时的情况。图20B展示了当涉及2W个上侧临近样本和2H个左侧临近样本时的情况。
图21是可以在其中实施所公开技术的示例视频处理系统的框图。
具体实施方式
由于对更高分辨率视频的日益增长的需求,视频编解码方法和技术在现代技术中无处不在。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且不断被改进以提供更高的编解码效率。视频编解码器将未压缩的视频转换为压缩格式,反之亦然。视频质量、用于表示视频的数据量(由比特率确定)、编码和解码算法的复杂性、对数据丢失和错误的敏感性、编辑的简易性、随机访问和端到端延迟(时延)之间存在复杂关系。压缩格式通常符合标准视频压缩规范,例如,高效视频编解码(HEVC)标准(也已知为H.265或MPEG-H部分2)、要完成的多功能视频编解码标准(VVC)、或其他当前和/或未来视频编解码标准。
所公开技术的实施例可以应用于现有视频编解码标准(例如,HEVC、H.265)和未来标准以改进运行时性能。在本文档中使用章节标题以提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实施方式)限制为仅相应的章节。
1.跨分量预测的实施例
跨分量预测是在复杂性和压缩效率改进之间具有良好平衡的权衡的色度到亮度(chroma-to-luma)预测方法的形式。
1.1跨分量线性模型(CCLM)的示例
在一些实施例中,为了减少跨分量冗余,在JEM中使用跨分量线性模型(CCLM)预测模式(也称为LM),针对其通过使用如下线性模型,基于相同CU的重构亮度样本来预测色度样本:
predC(i,j)=α·recL′(i,j)+β (1)
这里,predC(i,j)表示CU中的预测色度样本,对于颜色格式4:2:0或4:2:2,recL′(i,j)表示相同CU的降采样的重构亮度样本,而对于颜色格式4:4:4,recL′(i,j)表示相同CU的重构亮度样本。CCLM参数α和β通过最小化当前块周围的临近重构亮度和色度样本之间的回归误差而推导,如下所示:
Figure BDA0003149816370000051
以及
Figure BDA0003149816370000052
这里,L(n)表示降采样(对于颜色格式4:2:0或4:2:2)或原始(对于颜色格式4:4:4)的顶部和左侧临近重构亮度样本,C(n)表示顶部和左侧临近重构色度样本,N的值等于当前色度编解码块的宽度和高度中的最小一个的两倍。
在一些实施例中,对于正方形的编解码块,直接应用上述两个等式。在其他实施例中,对于非正方形编解码块,首先对更长边界的临近样本进行子采样,以具有与更短边界相同数量的样本。图1示出了CCLM模式中涉及的当前块的样本以及左侧和上侧重构样本的位置。
在一些实施例中,该回归误差最小化计算是作为解码过程的一部分执行的,而不仅仅是作为编码器搜索操作,所以不使用语法来传达α值和β值。
在一些实施例中,CCLM预测模式还包括两个色度分量之间的预测,例如,从Cb(蓝差(blue-difference))分量预测Cr(红差(red-difference))分量。代替使用重构样本信号,CCLM Cb到Cr(Cb-to-Cr)预测应用于残差域。这是通过将加权重构Cb残差添加到原始Cr帧内预测以形成最终Cr预测而实施的:
Figure BDA0003149816370000061
这里,resiCb′(i,j)呈现位置(i,j)处的重构Cb残差样本。
在一些实施例中,缩放因子α可以以与CCLM亮度到色度预测中相似的方式推导。唯一的差异是相对于误差函数中的默认α值添加了回归成本,使得推导的缩放因子如下所示偏向默认值-0.5:
Figure BDA0003149816370000062
这里,Cb(n)表示临近的重构Cb样本,Cr(n)表示临近的重构Cr样本,λ等于∑(Cb(n)·Cb(n))>>9。
在一些实施例中,CCLM亮度到色度预测模式被添加作为一个附加色度帧内预测模式。在编码器侧,添加了针对色度分量的再一个RD成本检查,以用于选择色度帧内预测模式。当除了CCLM亮度到色度预测模式的帧内预测模式用于CU的色度分量时,CCLM Cb到Cr预测用于Cr分量预测。
1.2多模型CCLM的示例
在JEM中,有两个CCLM模式:单模型CCLM模式和多模型CCLM模式(Multiple ModelCCLM Mode,MMLM)。如名称所指示的,对于整个CU,单模型CCLM模式采用用于从亮度样本预测色度样本的一个线性模型,而在MMLM中,可以有两个模型。
在MMLM中,当前块的临近亮度样本和临近色度样本被分类为两组,每组被用作训练集以推导线性模型(即,针对特定组推导特定的α和β)。此外,当前亮度块的样本也基于对临近亮度样本进行分类的相同规则分类。
图2示出了将临近样本分类为两组的示例。阈值Threshold被计算为临近的重构亮度样本的平均值。Rec′L[x,y]<=Threshold的临近样本被分类为组1;而Rec′L[x,y]>Threshold的临近样本被分类为组2。
Figure BDA0003149816370000071
1.3CCLM降采样滤波器的示例
在一些实施例中,为了执行跨分量预测,对于其中4个亮度样本与1个色度样本相对应的4:2:0色度格式,重构亮度块需要被降采样以匹配色度信号的尺寸。CCLM模式中使用的默认降采样滤波器如下:
Rec'L[x,y]={2×RecL[2x,2y]+2×RecL[2x,2y+1]+
RecL[2x-1,2y]+RecL[2x+1,2y]+
RecL[2x-1,2y+1]+RecL[2x+1,2y+1]+4}>>3 (7)
这里,对于色度样本相对于亮度样本的位置的位置,降采样假定如图3A所示的“类型0”相位关系,例如,水平并置采样和垂直间隙采样。
(6)中定义的示例性6抽头降采样滤波器被用作单模型CCLM模式和多模型CCLM模式的默认滤波器。
在一些实施例中,对于MMLM模式,编码器可以可替换地选择四个附加亮度降采样滤波器中的一个来应用于CU中的预测,并且发送滤波器索引以指示这些滤波器中的哪一个被使用。如图3B所示,MMLM模式的四个可选亮度降采样滤波器如下:
Rec'L[x,y]=(RecL[2x,2y]+RecL[2x+1,2y]+1)>>1 (8)
Rec'L[x,y]=(RecL[2x+1,2y]+RecL[2x+1,2y+1]+1)>>1 (9)
Rec'L[x,y]=(RecL[2x,2y+1]+RecL[2x+1,2y+1]+1)>>1 (10)
Rec'L[x,y]=(RecL[2x,2y]+RecL[2x,2y+1]+RecL[2x+1,2y]+RecL[2x+1,2y+1]+2)>>2 (11)
JVET-M0098中的多模型CCLM的扩展
在JVET-M0098中,MM-CCLM被扩展。命名为CCLM-L和CCLM-T模式的两个附加模式被添加到原始MM-CCLM,命名为CCLM-TL。利用CCLM-L,两个模型的线性参数仅用左侧临近样本推导。利用CCLM-T,两个模型的线性参数仅用顶部临近样本推导。
2现有实施方式中的缺点的示例
至少由于以下问题,当前CCLM实施方式不容易适合于高效的硬件实施方式:
●需要比正常帧内预测中使用的临近亮度样本更多的临近亮度样本。CCLM需要两个上侧临近行的亮度样本和三个左侧临近列的亮度样本。MM-CCLM需要四个上侧临近行的亮度样本和四个左侧临近列的亮度样本。
●亮度样本(针对用于参数推导的临近亮度样本和共位的亮度重构样本)需要用6抽头滤波器来降采样,这增加了计算复杂性。
3用于视频编解码中的简化的跨分量预测的示例性方法
目前公开的技术的实施例克服了现有实施方式的缺点,从而提供了编解码效率更高但计算复杂性更低的视频编解码。基于所公开的技术,简化的跨分量预测可以增强现有视频编解码标准和未来视频编解码标准,在针对各种实施方式描述的以下示例中被阐述。下面提供的所公开技术的示例解释了一般概念,并且不意味着被解释为限制。在示例中,除非明确相反指示,否则这些示例中描述的各种特征可以被组合。
所建议的简化的CCLM方法包括但不限于:
●仅需要在正常帧内预测中使用的临近亮度样本;以及
●不需要对亮度样本进行降采样,或者降采样通过简单的双样本平均来执行。
下面描述的示例假定颜色格式为4:2:0。如图3A所示,一个色度(Cb或Cr)样本(由三角形表示)对应于四个亮度(Y)样本(由圆圈表示):如图4所示的A、B、C和D。图5示出了具有临近样本的4×4色度块的样本、以及对应的亮度样本的示例。
示例1.在一个示例中,建议在不对亮度样本进行降采样滤波的情况下完成CCLM。
(a)在一个示例中,在CCLM参数(例如,α和β)推导过程中移除临近亮度样本的降采样过程。相反,降采样过程由其中利用非连续亮度样本的子采样过程取代。
(b)在一个示例中,在CCLM色度预测过程中移除共位的亮度块中的样本的降采样过程。相反,仅共位的亮度块中的部分亮度样本用于推导色度样本的预测块。
(c)图6A-图6J示出了关于对应于4×4色度块的8×8亮度块的示例。
(d)在如图6A所示的一个示例中,图4中的位置“C”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧临近样本来推导线性模型。
(e)在如图6B所示的一个示例中,图4中的位置“C”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧临近样本和右上方临近样本来推导线性模型。
(f)在如图6C所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧临近样本来推导线性模型。
(g)在如图6D所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧临近样本和右上方临近样本来推导线性模型。
(h)在如图6E所示的一个示例中,图4中的位置“B”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧临近样本来推导线性模型。
(i)在如图6F所示的一个示例中,图4中的位置“B”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧临近样本和左下方临近样本来推导线性模型。
(j)在如图6G所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧临近样本来推导线性模型。
(k)在如图6H所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧临近样本和左下方临近样本来推导线性模型。
(1)在如图6I所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧临近样本和左侧临近样本来推导线性模型。
(m)在如图6J所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧临近样本、左侧临近样本、右上方临近样本和左下方临近样本来推导线性模型。
示例2.在一个示例中,建议CCLM仅需要在正常帧内预测过程中使用的临近亮度样本,也就是说,不允许其他临近亮度样本用于CCLM过程中。在一个示例中,通过对亮度样本进行2抽头滤波来完成CCLM。图7A-图7D示出了关于对应于4×4色度块的8×8亮度块的示例。
(a)在如图7A所示的一个示例中,图4中的位置“C”和位置“D”处的亮度样本被滤波为F(C,D),以用于与色度样本相对应。在训练过程中使用上侧临近样本来推导线性模型。
(b)在如图7B所示的一个示例中,图4中的位置“C”和位置“D”处的亮度样本被滤波为F(C,D),以用于与色度样本相对应。在训练过程中使用上侧临近样本和右上方临近样本来推导线性模型。
(c)在如图7C所示的一个示例中,图4中的位置“B”和位置“D”处的亮度样本被滤波为F(B,D),以用于与色度样本相对应。在训练过程中使用左侧临近样本来推导线性模型。
(d)在如图7D所示的一个示例中,图4中的位置“B”和位置“D”处的亮度样本被滤波为F(B,D),以用于与色度样本相对应。在训练过程中使用左侧临近样本和左下方临近样本来推导线性模型。
(e)在一个示例中,F被定义为F(X,Y)=(X+Y)>>1。可替换地,F(X,Y)=(X+Y+1)>>1。
示例3.在一个示例中,建议可以以选择性方式应用所建议的简化的CCLM方法(例如,示例1和示例2)。也就是说,区域/条带/图片/序列内的不同块可以选择不同种类的简化的CCLM方法。
(a)在一个实施例中,编码器从预定义的候选集中选择一个种类的简化的CCLM方法并将其信令通知给解码器。
(i)例如,编码器可以在示例1(a)和示例1(e)之间进行选择。可替换地,编码器可以在示例1(b)和示例1(f)之间进行选择。可替换地,编码器可以在示例1(c)和示例1(g)之间进行选择。可替换地,编码器可以在示例1(d)和示例1(h)之间进行选择。可替换地,编码器可以在示例2(a)和示例2(c)之间进行选择。可替换地,编码器可以在示例2(b)和示例2(d)之间进行选择。
(ii)要从其选择的候选集和信令可以取决于块的形状或尺寸。假设W和H表示色度块的宽度和高度,T1和T2为整数。
(1)在一个示例中,如果W<=T1且H<=T2,则没有候选,例如,CCLM被禁用。例如,T1=T2=2。
(2)在一个示例中,如果W<=T1或H<=T2,则没有候选,例如,CCLM被禁用。例如,T1=T2=2。
(3)在一个示例中,如果W×H<=T1,则没有候选,例如,CCLM被禁用。例如,T1=4。
(4)在一个示例中,如果W<=T1且H<=T2,则只有一个候选,诸如示例1(i)。没有信令通知CCLM方法选择信息。例如,T1=T2=4。
(5)在一个示例中,如果W<=T1或H<=T2,则只有一个候选,诸如示例1(i)。没有信令通知CCLM方法选择信息。例如,T1=T2=4。
(6)在一个示例中,如果W×H<=T1,则只有一个候选,诸如示例1(i)。没有信令通知CCLM方法选择信息。例如,T1=16。
(7)在一个示例中,如果W>H,则只有一个候选,诸如示例1(a)。没有信令通知CCLM方法选择信息。可替换地,如果W>H(或W>N*H,其中N是正整数),则仅在推导CCLM参数时使用上侧或/和右上方临近重构样本的候选(或一些候选)被包括在候选集中。
(8)在一个示例中,如果W<H,则只有一个候选,诸如示例1(e)。没有信令通知CCLM方法选择信息。可替换地,如果W<H(或N*W<H),则仅在推导CCLM参数时使用左侧或/和左下方临近重构样本的候选(或一些候选)被包括在候选集中。
(b)在一个实施例中,编码器和解码器两者都基于相同规则选择简化的CCLM方法。编码器不将其信令通知给解码器。例如,选择可以取决于块的形状或尺寸。在一个示例中,如果宽度大于高度,则选择示例1(a),否则,选择示例1(e)。
(c)可以在序列参数集/图片参数集/条带标头/CTU/CTB/CTU组中信令通知一个或多个简化的CCLM候选集合。
示例4.在一个示例中,建议将多种CCLM方法(例如,示例1和示例2)应用于相同色度块。也就是说,区域/条带/图片/序列内的一个块可以选择不同种类的简化的CCLM方法来推导多个中间色度预测块,并且最终色度预测块是从多个中间色度预测块推导的。
(a)可替换地,CCLM参数的多个集合(例如,α和β)可以首先根据多个选择的CCLM方法推导。CCLM参数的一个最终集合可以从多个集合推导并用于色度预测块生成过程。
(b)可以以与示例3描述的方式类似的方式(隐式地或显式地)信令通知对多种CCLM方法的选择。
(c)可以在序列参数集/图片参数集/条带标头/CTU组/CTU/编解码块中信令通知对所建议的方法的使用的指示。
示例5.在一个示例中,是否以及如何应用所建议的简化的CCLM方法可以取决于当前块的位置。
(a)在一个示例中,如图8A所示,对位于当前CTU的上边界处的CU应用所建议的方法中的一种或多种。
(b)在一个示例中,如图8B所示,对位于当前CTU的左边界处的CU应用所建议的方法中的一种或多种。
(c)在一个示例中,在上述两种情况下应用所建议的方法中的一种或多种。
示例6.在一个示例中,当亮度样本在当前块内部或在当前块外部时,亮度样本以不同方式被降采样来与色度样本相对应。此外,当外部亮度样本在当前块左侧或在当前块上侧时,外部亮度样本以不同方式被降采样来与色度样本相对应。
a.在一个示例中,亮度样本如下指定被降采样,如图20A-图20B所示:
i.当前块内部的亮度样本以与JEM中的方式相同的方式被降采样。
ii.在当前块外部并且在当前块上侧的亮度样本被降采样到位置C或D。
1.可替换地,用滤波器将亮度样本降采样到位置C。假设在上侧与当前块邻近的亮度样本被表示为a[i],那么d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示降采样的亮度样本。
a.如果样本a[2i-1]不可用,则d[i]=(3*a[2i]+a[2i+1]+2)>>2;
b.如果样本a[2i+1]不可用,则d[i]=(a[2i-1]+3*a[2i]+2)>>2;
iii.在当前块外部且在当前块左侧的亮度样本被降采样到位置B或D,
1.可替换地,亮度样本被降采样到B和D之间的一半位置。
假设在左侧与当前块邻近的亮度样本被表示为a[j],那么d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示降采样的亮度样本。
示例7.在一个示例中,所建议的亮度降采样方法可以应用于JEM或VTM中的LM模式,并且也可以应用于JEM中的MMLM模式。除此之外,它还可以应用于仅使用左侧临近样本来推导线性模型的左LM(left-LM)模式、或仅使用上侧临近样本来推导线性模型的上LM(above-LM)模式。
示例8.无论哪个种类的降采样滤波器被应用,边界滤波都可以应用于LM模式、MMLM模式、左LM模式或上LM模式。
a.假设在上侧与当前块邻近的重构色度样本被表示为a[-1][j],在第i行和第j列处的LM预测的样本为a[i][j],则边界滤波后的预测样本被计算为a’[i][j]=(w1*a[i][j]+w2*a[-1][i]+2N-1)>>N,其中w1+w2=2N。
i.在一个示例中,仅当i<=K时才应用边界滤波。K为整数,诸如0或1。例如,K=0,w1=w2=1。在另一示例中,K=0,w1=3,w2=1。
ii.在一个示例中,w1和w2取决于行索引(i)。例如,对于样本a[0][j],K=1,w1=w2=1,但是对于样本a[1][j],w1=3,w2=1。
b.假设在左侧与当前块邻近的重构色度样本被表示为a[i][-1],在第i行和第j列的LM预测的样本为a[i][j],则边界滤波后的预测样本被计算为a’[i][j]=(w1*a[i][j]+w2*a[i][-1]+2N-1)>>N,其中w1+w2=2N。
i.在一个示例中,仅当j<=K时才应用边界滤波。K为整数,诸如0或1。例如,K=0,w1=w2=1。在另一示例中,K=0,w1=3,w2=1。
ii.在一个示例中,w1和w2取决于列索引(i)。例如,对于样本a[0][j],K=1,w1=w2=1,但是对于样本a[1][j],w1=3,w2=1。
示例9.在一个示例中,如何应用CCLM-TL、CCLM-T和CCLM-L可以取决于当前块的大小(由W表示块宽度并且由H表示块高度)。
(a)在一个示例中,如果W<=T,则不能应用CCLM-T。T为整数,诸如2;
(b)在一个示例中,如果H<=T,则不能应用CCLM-L。T为整数,诸如2;
(c)在一个示例中,如果H<=T1且W<=T2,则不能应用CCLM-TL。T1和T2为整数,诸如2;
(d)在一个示例中,如果H<=T1或W<=T2,则不能应用CCLM-TL。T1和T2为整数,诸如2;
(e)在一个示例中,如果W*H<=T,则不能应用CCLM-TL。T为整数,诸如4;
(f)在一个示例中,如果不能应用CCLM-T,则信令通知是否应用CCLM-T的标志不被信令通知并被推断为0。
(g)在一个示例中,如果不能应用CCLM-L,则信令通知是否应用CCLM-L的标志不被信令通知并被推断为0。
(h)在一个示例中,如果不能应用CCLM-TL,则信令通知是否应用CCLM-TL的标志不被信令通知并被推断为0。
(i)是否应用上述方法还可以取决于颜色格式(例如,4:2:0、4:2:2或4:4:4)。
示例10.在一个示例中,CCLM-T可以被称为仅利用上侧参考样本来推导线性模型参数的那些CCLM方法。
(a)可替换地,CCLM-L可以被称为仅利用左侧参考样本来推导线性模型参数的那些CCLM方法。
(b)在一个示例中,CCLM-T还可以表示从上侧参考样本推导多个线性模型的多模型CCLM-T方法。
(c)在一个示例中,CCLM-L还可以表示从左侧参考样本推导多个线性模型的多模型CCLM-T方法。
上面描述的示例可以并入下面描述的例如可以在视频编码器和/或解码器处实施的方法900和方法100的方法的上下文中。
图9示出了用于跨分量预测的示例性方法的流程图。方法900包括,在步骤910处,接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示。
方法900包括,在步骤920处,使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是通过对至少一个亮度分量的样本进行子采样而选择的。
方法900包括,在步骤930处,基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在一些实施例中,方法900还包括基于训练样本来推导线性模型的参数。例如,在示例1的上下文中,训练样本包括与作为当前块的邻域(neighbor)的色度样本相关联的亮度样本块的一个或多个样本。在一些实施例中,亮度样本块为2×2亮度样本块。在其他实施例中,它的尺寸可以为2N×2N
在一些实施例中,亮度样本中的至少一个与色度样本相对应,并且训练样本可以如示例1(d)至1(m)所述而选择。例如,在一些实施例中,亮度样本块为2×2亮度样本块。在一些实施例中,亮度样本块的左下方样本与色度样本相对应,并且训练样本包括左下方样本的上侧临近样本。在一些实施例中,亮度样本块的左下方样本与色度样本相对应,并且训练样本包括左下方样本的上侧临近样本和右上方临近样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的上侧临近样本和右上方临近样本。在一些实施例中,亮度样本块的右上方样本与色度样本相对应,并且训练样本包括右上方样本的左侧临近样本。在一些实施例中,亮度样本块的右上方样本与色度样本相对应,并且训练样本包括右上方样本的左侧临近样本和左下方临近样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的左侧临近样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的左侧临近样本和左下方临近样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的左侧临近样本和上侧临近样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的上侧临近样本、左侧临近样本、右上方临近样本和左下方临近样本。
图10示出了用于跨分量预测的另一示例性方法的流程图。该示例包括类似于图9中示出的上述特征和/或步骤的一些特征和/或步骤。在本章节中可能不会单独描述这些特征和/或组件中的至少一些。方法1000包括,在步骤1010处,接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示。
方法1000包括,在步骤1020处,使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是临近样本并且用于至少一个亮度分量的帧内预测模式。
方法1000包括,在步骤1030处,基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在一些实施例中,方法1000还包括基于训练样本来推导线性模型的参数。例如,在示例2的上下文中,训练样本包括与作为当前块的邻域的色度样本相关联的亮度样本块的一个或多个样本。在一些实施例中,亮度样本块为2×2亮度样本块。在其他实施例中,它的尺寸可以为2N×2N
在一些实施例中,基于亮度样本中的两个亮度样本的滤波样本与色度样本相对应,并且训练样本可以如示例2(a)-2(d)所述而选择。例如,在一些实施例中,亮度样本块为2×2亮度样本块。在一些实施例中,使用两抽头滤波器对亮度样本块的左下方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括左下方样本和右下方样本中的每一个的上侧临近样本。在一些实施例中,使用两抽头滤波器对亮度样本块的左下方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括左下方样本和右下方样本中的每一个的上侧临近样本和右上方临近样本。在一些实施例中,使用两抽头滤波器对亮度样本块的右上方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括右上方样本和右下方样本中的每一个的左侧临近样本。在一些实施例中,使用两抽头滤波器对亮度样本块的右上方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括右上方样本和右下方样本中的每一个的左侧临近样本和左下方临近样本。
图11示出了用于跨分量预测的另一示例性方法的流程图。该示例包括类似于图9和图10中示出的上述特征和/或步骤的一些特征和/或步骤。在本章节中可能不会单独描述这些特征和/或组件中的至少一些。方法1100包括,在步骤1110处,接收包括多个块的图片段的比特流表示,多个块包括当前块,并且多个块中的每一个包括色度分量和亮度分量。
方法1100包括,在步骤1120处,对多个块中的每一个执行预测步骤。
方法1100包括,在步骤1130处,基于相应的第一样本集合和第二样本集合来处理比特流表示,以生成多个块的相应块。
在一些实施例中,并且在示例3的上下文中,预测步骤可以从方法900中描述的预测步骤中选择,而在其他实施例中,预测步骤可以从方法1000中描述的预测步骤中选择。
图12示出了用于跨分量预测的另一示例性方法的流程图。该示例包括类似于图9-图11中示出的上述特征和/或步骤的一些特征和/或步骤。在本章节中可能不会单独描述这些特征和/或组件中的至少一些。方法1200包括,在步骤1210处,接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示。
方法1200包括,在步骤1220处,对当前块执行预定次数的预测步骤。
方法1200包括,在步骤1230处,基于预定数量的第一样本集合中的每一个来生成最终的第一样本集合。
方法1200包括,在步骤1240处,至少基于最终的第一样本集合来处理比特流表示,以生成当前块。
在一些实施例中,并且在示例4的上下文中,预测步骤可以从方法900中描述的预测步骤中选择,而在其他实施例中,预测步骤可以从方法1000中描述的预测步骤中选择。
在一些实施例中,并且在示例5的上下文中,执行预测步骤是基于当前块在当前CTU中的位置。在一个示例中,当前块的位置在上边界处,而在另一示例中,当前块的位置在当前CTU的左边界处。
在一些实施例中,视频编解码的方法包括:确定第一视频块的大小;基于对大小的确定来确定关于CCLM预测模式的应用的参数;以及根据参数使用CCLM预测模式来执行对第一视频块的进一步处理。在各种实施例中,CCLM模式可以包括CCLM-TL、CCLM-T或CCLM-L中的一个或多个。
在一些实施例中,基于大小的宽度小于或等于阈值,CCLM预测模式排除CCLM-T。
在一些实施例中,基于大小的高度小于或等于阈值,CCLM预测模式排除CCLM-L。
在一些实施例中,基于大小的高度小于第一阈值并且基于大小的宽度小于第二阈值,CCLM预测模式排除CCLM-TL。
在一些实施例中,基于大小的宽度乘以大小的高度小于或等于阈值,CCLM预测模式排除CCLM-TL。
在一些实施例中,基于CCLM-T不能被应用,信令通知CCLM预测模式为CCLM-T的标志不被信令通知并被推断为0。
在一些实施例中,基于CCLM-T不能被应用,信令通知CCLM预测模式为CCLM-L的标志不被信令通知并被推断为0。
在一些实施例中,基于CCLM-T不能被应用,信令通知CCLM预测模式为CCLM-TL的标志不被信令通知并被推断为0。
在一些实施例中,该方法还包括:确定第一视频块的颜色格式,并且其中确定参数是基于对颜色格式的确定。
在一些实施例中,CCLM预测模式为CCLM-T,并且CCLM-T使用上侧参考样本来推导线性模型参数。
在一些实施例中,CCLM预测模式为CCLM-L,并且CCLM-L使用左侧参考样本来推导线性模型参数。
在一些实施例中,CCLM预测模式为CCLM-T,并且CCLM-T用于从上侧参考样本推导多个线性模型。
在一些实施例中,CCLM预测模式为CCLM-L,并且CCLM-T用于从左侧参考样本推导多个线性模型。
在一些实施例中,以下技术解决方案的列表可能是优选的实施方式。
1.一种用于视频处理的方法(例如,图14中示出的方法1400),包括:使用亮度块的训练样本来确定(1402)用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定(1404)第一色度块的样本;其中训练样本或样本集合在不使用多抽头降采样滤波器的情况下确定。
2.根据解决方案1所述的方法,其中,线性模型包括第一参数α和第二参数β,并且其中α和β是通过对训练样本进行子采样而从训练样本推导的。
3.根据解决方案2所述的方法,其中,子采样使用非连续亮度样本。
4.根据解决方案1所述的方法,其中,样本集合对应于与第一色度块的样本共位的亮度样本。
5.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧临近样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
6.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和右上方的临近样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
7.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
8.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和右上方的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
9.根据解决方案1-4中任一项所述的方法,其中训练样本对应于亮度块的左侧临近样本,并且其中亮度块的样本集合对应于亮度块的右上方像素。
10.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧临近样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
11.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的左侧临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
12.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块左侧和左下方的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
13.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和左侧的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
14.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧、左侧、右上方和左下方的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
前一章节提供了上述解决方案的附加特征(例如,第1项)。
15.一种用于视频处理的方法(例如,图15中示出的方法1500),包括:使用亮度块的训练样本来确定(1502)用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定(1504)第一色度块的样本;其中训练亮度样本被限制为与亮度块临近的、在用于帧内预测过程的位置处的亮度样本。
16.根据解决方案15所述的方法,其中,第一色度块中的色度样本通过将2抽头滤波器应用于亮度块的样本集合中的第一样本和第二样本而确定,该亮度块在与色度块的位置相对应的位置处。
17.根据解决方案16所述的方法,其中,第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧临近样本。
18.根据解决方案16所述的方法,其中,第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧和右上方临近样本。
19.根据解决方案16所述的方法,其中,第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧临近样本。
20.根据解决方案16所述的方法,其中,第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧和左下方临近样本。
21.根据解决方案16至20中任一项所述的方法,其中,两抽头滤波器为平均滤波器。
22.根据解决方案16至21中任一项所述的方法,其中,两抽头滤波器对一加第一样本加第二样本的和进行平均。
前一章节提供了上述解决方案的附加特征(例如,第1项)。
23.一种视频处理的方法(例如,图16中描绘的方法1600),包括:对于当前视频块和当前视频块的比特流表示之间的转换,基于与包括亮度块和第一色度块的当前视频块相关的规则来选择性地确定(1602)用于从亮度块的样本集合生成第一色度块的样本的跨分量预测方案;以及根据跨分量预测方案来生成(1604)第一色度块的样本,其中跨分量预测方案是以下中的一个:第一跨分量预测方案,其使用根据亮度块的训练样本生成的线性模型,使得训练样本和样本集合在不使用多抽头降采样滤波器的情况下确定;或者第二跨分量预测方案,在该第二跨分量预测方案中训练亮度样本被限制为与当前视频块临近的、在用于帧内预测过程的位置处的亮度样本;其中规则指定根据当前视频块所属的视频区域来选择跨分量预测方案。
24.根据解决方案23所述的方法,其中,针对当前视频块选择的跨分量预测方案不同于针对视频区域中的另一视频块选择的另一跨分量预测方案。
25.根据解决方案24所述的方法,其中,视频区域包括视频条带。
26.根据解决方案24所述的方法,其中,视频区域包括视频图片。
27.根据解决方案24所述的方法,其中,视频区域包括视频图片序列。
28.根据解决方案23所述的方法,其中,编解码条件在当前视频块的编解码表示中信令通知。
29.根据解决方案23所述的方法,其中,编解码条件没有在当前视频块的编解码表示中显式地信令通知。
30.根据解决方案28或29所述的方法,其中,规则指定基于当前视频块的形状或尺寸来选择跨分量预测方案。
31.根据解决方案28或29中任一项所述的方法,其中:训练样本从以下中选择:
亮度块的上侧临近样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块上侧和右上方的临近样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块的上侧临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块上侧和右上方的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块的左侧临近样本,并且其中亮度块的样本集合对应于亮度块的右上方像素;
亮度块的上侧临近样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块左侧和左下方的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
训练样本对应于亮度块上侧和左侧的临近样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;或者
亮度块上侧、左侧、右上方和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;和/或
其中第一色度块通过将2抽头滤波器应用于亮度块的样本集合中的第一样本和第二样本而确定,该亮度块在与第一色度块的位置相对应的位置处;其中第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧临近样本;其中第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧和右上方临近样本;其中第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧临近样本;或者其中第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧和左下方临近样本。
32.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而禁用跨分量预测方案,其中T1和T2为整数。
33.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W*H<=T1而禁用跨分量预测方案。
34.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而选择特定的跨分量预测方案,其中T1和T2为整数,并且其中特定的跨分量预测方案在编解码表示中信令通知。
35.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而选择特定的跨分量预测方案,其中T1和T2为整数,并且其中特定的跨分量预测方案没有在编解码表示中信令通知。
36.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W*H<=T1而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案在编解码表示中信令通知。
37.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案没有在编解码表示中信令通知,其中N为整数。
38.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案仅使用来自上侧或右上方临近样本的像素,并且其中特定的跨分量预测方案在编解码表示中信令通知。
39.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于N*W<H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案在编解码表示中信令通知,其中N为整数。
40.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案仅使用来自左侧或左下方临近样本的像素。
41.根据解决方案34至40中任一项所述的方法,其中,T1=2。
42.根据解决方案10至17中任一项所述的方法,其中,T2=2。
43.根据解决方案10至17中任一项所述的方法,其中,T1=4。
44.根据解决方案10至17中任一项所述的方法,其中,T2=4。
45.根据解决方案10至17中任一项所述的方法,其中,T2=16。
前一章节提供了上述解决方案的附加特征(例如,第3项)。
46.一种视频处理的方法(例如,图17中描绘的方法1700),包括:为视频的视频块和视频块的编解码表示之间的转换,从视频块的亮度块确定(1702)视频块的第一色度块的样本;其中第一色度块的样本对应于第一中间色度块和N个第二中间色度块的加权组合,其中第一中间色度块是使用第一跨分量线性模型根据亮度块的第一样本集合生成的,其中第一跨分量线性模型是使用亮度样本的第一训练序列生成的;并且其中N个第二中间色度块是使用N个第二跨分量线性模型根据亮度块的N个第二样本集合生成的,其中N个第二跨分量线性模型是使用亮度样本的N个第二训练序列生成的,其中N为整数。
47.根据解决方案46所述的方法,其中,第一跨分量线性模型和N个第二跨分量线性模型中的至少一些在视频的区域内彼此不同,其中视频的区域对应于条带、或图片、或视频序列。
48.根据解决方案46-47中任一项所述的方法,其中,编解码表示包括第一跨分量线性模型和N个第二跨分量线性模型的标识。
49.根据解决方案47所述的方法,其中,该标识被包括在序列参数集级别,或图片参数集级别,或条带标头,或编解码树单元组、或编解码树单元、或编解码单元级别中。
50.根据解决方案46-49中任一项所述的方法,其中,编解码表示包括对基于取决于视频块的宽度W或视频块的高度H的规则的第一跨分量线性模型和/或N个第二跨分量线性模型的指示。
51.根据解决方案50所述的方法,其中,该指示被包括在序列参数集级别、或图片参数集级别、或条带标头级别、或编解码树单元组级别、或编解码树单元级别、或编解码块级别中。
前一章节提供了上述解决方案的附加特征(例如,第4项)。
52.根据解决方案1-51中任一项所述的方法,其中,该方法基于应用性规则而选择性地应用于当前视频块,该应用性规则与当前视频块在当前图片内满足位置条件相关。
53.根据解决方案52所述的方法,其中,由于视频块位于编解码树单元的上边界,应用性规则指定应用上述解决方案的方法。
54.根据解决方案52或53所述的方法,其中,由于当前视频块位于编解码树单元的左边界,应用性规则指定应用上述解决方案的方法。
前一章节提供了上述解决方案的附加特征(例如,第5项)。
55.根据解决方案1-54中任一项所述的方法,其中,亮度块的样本集合是使用降采样过程生成的,其中第一降采样滤波器用于对视频块内部的亮度样本进行降采样,第二降采样滤波器应用于视频块外部的亮度样本以生成亮度块的样本集合。
56.根据解决方案55所述的方法,其中,第一降采样滤波器对应于联合探索模型(JEM)使用的传统滤波器。
57.根据解决方案55-56中任一项所述的方法,其中,第二降采样滤波器将视频块上侧的亮度样本降采样到左下方和右下方位置。
58.根据解决方案55所述的方法,其中,在上侧与视频块邻近的亮度样本被表示为a[i],然后d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示降采样的亮度样本,其中i为表示水平样本偏移的变量。
59.根据解决方案58所述的方法,其中,如果样本a[2i-1]不可用,则d[i]被确定为d[i]=(3*a[2i]+a[2i+1]+2)>>2。
60.根据解决方案58所述的方法,其中,如果样本a[2i+1]不可用,则d[i]=(a[2i-1]+3*a[2i]+2)>>2。
61.根据解决方案55-56中任一项所述的方法,其中,第二降采样滤波器将外部左侧的亮度样本降采样到右上方和右下方位置。
62.根据解决方案55-56中任一项所述的方法,其中,第二降采样滤波器将外部左侧的亮度样本降采样到右上方和右下方位置之间的中间,使得如果当前块的左侧邻近样本被表示为a[j],则d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示降采样的亮度样本。
前一章节提供了上述解决方案的附加特征(例如,第5项)。
63.一种视频处理的方法(例如,图18中描绘的方法1800),包括:使用降采样过程对亮度块的样本集合进行降采样(1802),其中在降采样过程中使用的降采样滤波器取决于被降采样以生成亮度块的降采样样本集合的亮度样本的位置;以及使用线性模型从亮度块的降采样样本集合确定(1804)第一色度块的样本。
64.根据解决方案63所述的方法,其中,线性模型由第一参数α和第二参数β定义,并且其中从亮度样本recL(i,j)将位置(i,j)处的色度样本predc(i,j)确定为:
predc(i,j)=α*recL(i,j)+β。
前一章节提供了上述解决方案的附加特征(例如,第7项)。
65.根据解决方案63-64中任一项所述的方法,还包括将边界滤波器应用于作为当前视频块的区域的第一色度块的样本。
66.根据解决方案65所述的方法,其中,在上侧与视频块邻近的样本被表示为a[-1][j],第一色度块的第i行和第j列中的样本为a[i][j],然后基于值i选择性地执行应用边界滤波器,并且应用边界滤波器包括计算a’[i][j]=(w1*a[i][j]+w2*a[-1][i]+2N-1)>>N,其中w1+w2=2N表示权重。
67.根据解决方案66所述的方法,其中,应用边界滤波仅针对i<=K执行。
68.根据解决方案66所述的方法,其中,w1和w2为行索引i的函数。
69.根据解决方案65所述的方法,其中,视频块的左侧邻近样本被表示为a[i[[-1],第一色度块的第i行和第j列中的样本为a[i][j],然后基于值j选择性地执行应用边界滤波器,并且应用边界滤波器包括计算a’[i][j]=(w1*a[i][j]+w2*a[i][-1]+2N-1)>>N,其中w1+w2=2N
70.根据解决方案69所述的方法,其中,应用边界滤波仅针对j<=K执行。
71.根据解决方案70所述的方法,其中,w1和w2为列索引j的函数。
72.根据解决方案67或70所述的方法,其中,K=0,w1=w2=1。
73.根据解决方案67或70所述的方法,其中,K=0,w1=3,w2=1。
前一章节提供了上述解决方案的附加特征(例如,第8项)。
74.一种视频处理的方法(例如,图19中描绘的方法1900),包括:为视频的视频块和视频块的编解码表示之间的转换,基于视频块的大小或尺寸来确定(1902)用于该转换的一个或多个跨分量线性模型(CCLM);以及使用跨分量线性模型来执行(1904)转换,其中跨分量线性模型是以下中的一个:仅从视频块的顶部临近值推导的CCLM(CCLM-T);仅从视频块的左侧临近值推导的CCLM(CCLM-L);或者仅从视频块的左侧和顶部临近值推导的CCLM(CCLM-TL)。
75.根据解决方案74所述的方法,其中,由于视频块的宽度小于阈值,该确定排除使用CCLM-T。
76.根据解决方案75所述的方法,其中,阈值为2。
77.根据解决方案74所述的方法,其中,由于视频块的宽度小于阈值,该确定排除使用CCLM-L。
78.根据解决方案77所述的方法,其中,阈值为2。
79.根据解决方案74所述的方法,其中,由于视频块的高度H和宽度W满足H<=T1且W<=T2,该确定排除使用CCLM-T或CCLM-L,其中T1和T2为整数。
80.根据解决方案79所述的方法,其中,T1=2且T2=2。
81.根据解决方案74所述的方法,其中,由于视频块的高度H和宽度W满足W*H<=T,该确定排除使用CCLM-T或CCLM-L,其中T为整数。
82.根据解决方案81所述的方法,其中,T=4。
83.根据解决方案74至82中任一项所述的方法,其中,编解码表示包括标识用于该转换的CCLM的字段。
84.根据解决方案74至82中任一项所述的方法,其中,编解码表示不包括标识用于该转换的CCLM的字段。
85.根据解决方案74至84中任一项所述的方法,其中,该确定还基于视频的颜色格式,其中颜色格式包括4:2:0格式、或4:2:2格式、或4:4:4颜色格式。
在上述解决方案中,在编码或转码设备处,转换可以包括从视频的像素值生成编解码表示(例如,符合预定义语法的比特流)。
在这些解决方案中,在解码设备处或者在由编码或转码设备执行的解码步骤处,转换可以包括例如通过对编解码表示进行解码和解压缩以生成像素值来从编解码表示生成像素值。由此通过转换生成的视频可以随后在显示器上显示给用户。
前一章节提供了上述解决方案的附加特征(例如,第9项和第10项)。
86.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中该指令在由处理器运行时使得处理器实施根据解决方案1至85中任一项所述的方法。
87.一种存储在非暂时性计算机可读介质上的计算机程序产品,该计算机程序产品包括用于执行根据解决方案1至85中任一项所述的方法的程序代码。
88.一种包括处理器的视频解码装置,该处理器被配置为实施根据解决方案1至85中一项或多项所述的方法。
89.一种包括处理器的视频编码装置,该处理器被配置为实施根据解决方案1至85中一项或多项所述的方法。
90.一种本文档中描述的方法、装置或系统。
4.所公开技术的示例实施方式
图13是视频处理装置1300的框图。装置1300可以用于实施本文描述的方法中的一种或多种。装置1300可以体现在智能手机、平板电脑、计算机、物联网(Internet ofThings,IoT)接收器等中。装置1300可以包括一个或多个处理器1302、一个或多个存储器1304、以及视频处理硬件1306。(多个)处理器1302可以被配置为实施本文档中描述的一种或多种方法(包括但不限于方法900、1000、1100和1200)。存储器(多个存储器)1304可以用于存储用于实施本文描述的方法和技术的数据和代码。视频处理硬件1306可以用于在硬件电路中实施本文档中描述的一些技术。
在一些实施例中,视频编解码方法可以使用如参考图13描述的在硬件平台上实施的装置而实施。
图21是示出可以在其中实施本文公开的各种技术的示例视频处理系统2100的框图。各种实施方式可以包括系统2100的一些或所有组件。系统2100可以包括用于接收视频内容的输入端2102。视频内容可以以原始或未压缩格式(例如,8或10比特多分量像素值)而接收,或者可以是压缩或编码格式。输入端2102可以表示网络接口、外围总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(Passive Optical Network,PON)等的有线接口和诸如Wi-Fi或蜂窝接口的无线接口。
系统2100可以包括可以实施本文档中描述的各种编解码或编码方法的编解码组件2104。编解码组件2104可以将来自输入端2102的视频的平均比特率减小到编解码组件2104的输出,以产生视频的编解码表示。编解码技术因此有时被称为视频压缩或视频转码技术。编解码组件2104的输出可以存储,或者经由如由组件2106表示的连接的通信而发送。在输入端2102处接收的视频的存储或通信传送的比特流(或编解码)表示可以由组件2108用于生成像素值或被发送到显示接口2110的可显示视频。从比特流表示生成用户可视视频的过程有时被称为视频解压缩。此外,虽然特定视频处理操作被称为“编解码”操作或工具,但是应当理解,编解码工具或操作在编码器处被使用,并且反转编解码结果的对应解码工具或操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(Universal SerialBus,USB)、或高清多媒体接口(High Definition Multimedia Interface,HDMI)、或显示端口(Displayport)等。存储接口的示例包括SATA(serial advanced technologyattachment,串行高级技术附件)、PCI、IDE接口等。本文档中描述的技术可以体现在诸如移动电话、膝上型电脑、智能电话、或能够执行数字数据处理和/或视频显示的其他设备的各种电子设备中。
模拟结果的示例
在VTM-2.0.1上实施各种CCLM方法。为了测试所建议的方法的有效性,测试了两种解决方案。
这两种解决方案的不同在于使用不同的临近亮度样本集合。假设一个块的宽度和高度分别表示为W和H。在解决方案#1中,训练过程涉及W个上侧临近样本和H个左侧临近样本,以用于推导α和β参数。在解决方案#2中,2W个上侧临近样本和2H个左侧临近样本用于训练。
测试#1和测试#2分别针对解决方案#1和解决方案#2而进行。在表1和表2中分别概述了测试1和测试2的所有帧内(All Intra,AI)和随机接入(Random Access,RA)配置的仿真结果。
表1:测试1的结果
Figure BDA0003149816370000281
Figure BDA0003149816370000291
表2:测试2的结果
Figure BDA0003149816370000292
根据前述内容,可以理解本文已经出于说明的目的描述了本公开技术的具体实施方案,但是在不脱离本发明范围的情况下可以进行各种修改。因此,本公开技术不受除了所附权利要求之外的限制。
本专利文档中描述的主题和功能操作的实施方式可以在各种系统、数字电子电路或计算机软件、固件或硬件(包括本说明书中公开的结构及其结构等同物、或者它们中的一个或多个的组合)中实施。本说明书中描述的主题的实施方式可以实施为一个或多个计算机程序产品,即编码在有形和非暂时性计算机可读介质上的计算机程序指令的一个或多个模块,该计算机程序指令用于由数据处理装置运行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质的组合、或它们中的一个或多个的组合。术语“数据处理单元”或“数据处理装置”包括用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机、或多个处理器或计算机。除了硬件之外,装置还可以包括为所讨论的计算机程序创建运行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统、或它们中的一个或多个的组合的代码。
计算机程序(也已知为程序、软件、软件应用、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且其可以以任何形式部署,包括作为独立程序或作为适合在计算环境中使用的模块、组件、子例程或其他单元。计算机程序不一定对应于文件系统中的文件。程序可以存储在保存其他程序或数据(例如,存储在标记语言文档中的一个或多个脚本)的文件的一部分中,存储在专用于所讨论的程序的单个文件中,或存储在多个协调文件中(例如,存储一个或多个模块、子程序或代码部分的文件)。计算机程序可以被部署以在一个计算机上或在位于一个站点上或跨多个站点分布并通过通信网络互连的多个计算机上运行。
本说明书中描述的过程和逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程处理器执行,以通过对输入数据进行操作并生成输出来执行功能。过程和逻辑流程也可以由专用逻辑电路执行,并且装置也可以实施为专用逻辑电路,例如,FPGA(FieldProgrammable Gate Array,现场可编程门阵列)或ASIC(Application SpecificIntegrated Circuit,专用集成电路)。
适合于运行计算机程序的处理器包括例如通用和专用微处理器、以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘或光盘),或可操作地耦合以从该一个或多个大容量存储设备接收数据或向该一个或多个大容量存储设备传递数据、或者从其接收数据并向其传递数据。然而,计算机不需要这样的设备。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
说明书与附图一起旨在被视为是示例性的,其中示例性意味着示例。如本文所使用的,除非上下文另有清楚说明,否则单数形式“一”、“一个”和“该”旨在也包括复数形式。另外,除非上下文另有清楚说明,否则使用“或”旨在包括“和/或”。
虽然本专利文档包含许多细节,但这些细节不应被解释为对任何发明或可能要求保护的范围的限制,而是作为特定于特定发明的特定实施例的特征的描述。在单独的实施例的上下文中在本专利文档中描述的某些特征也可以在单个实施例中组合实施。相反,在单个实施例的上下文中描述的各种特征也可以分别在多个实施例中或以任何合适的子组合实施。此外,尽管特征可以在上面描述为以某些组合起作用并且甚至最初如此要求保护,但是在一些情况下可以从组合排除来自所要求保护的组合的一个或多个特征,并且所要求保护的组合可以针对子组合或子组合的变化。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应该被理解为要求以所示的特定顺序或以先后顺序执行这样的操作或者执行所有示出的操作以实现期望的结果。此外,在本专利文档中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这样的分离。
仅描述了一些实施方式和示例,并且可以基于本专利文档中描述和示出的内容来进行其他实施方式、增强和变化。

Claims (17)

1.一种视频处理的方法,包括:
为视频的视频块和视频块的编解码表示之间的转换,基于视频块的大小或尺寸来确定用于所述转换的一个或多个跨分量线性模型(CCLM);以及
使用所述跨分量线性模型来执行所述转换,
其中,所述跨分量线性模型是以下中的一个:
仅从视频块的顶部临近值推导的CCLM(CCLM-T);
仅从视频块的左侧临近值推导的CCLM(CCLM-L);或者
仅从视频块的左侧和顶部临近值推导的CCLM(CCLM-TL)。
2.根据权利要求1所述的方法,其中,由于视频块的宽度小于阈值,所述确定排除使用CCLM-T。
3.根据权利要求2所述的方法,其中,所述阈值为2。
4.根据权利要求1所述的方法,其中,由于视频块的宽度小于阈值,所述确定排除使用CCLM-L。
5.根据权利要求4所述的方法,其中,所述阈值为2。
6.根据权利要求1所述的方法,其中,由于视频块的高度H和宽度W满足H<=T1且W<=T2,所述确定排除使用CCLM-T或CCLM-L,其中T1和T2为整数。
7.根据权利要求6所述的方法,其中,T1=2且T2=2。
8.根据权利要求1所述的方法,其中,由于视频块的高度H和宽度W满足W*H<=T,所述确定排除使用CCLM-T或CCLM-L,其中T为整数。
9.根据权利要求8所述的方法,其中,T=4。
10.根据权利要求1至9中任一项所述的方法,其中,编解码表示包括标识用于所述转换的CCLM的字段。
11.根据权利要求1至9中任一项所述的方法,其中,编解码表示不包括标识用于所述转换的CCLM的字段。
12.根据权利要求1至9中任一项所述的方法,其中,所述确定还基于视频的颜色格式,其中所述颜色格式包括4:2:0格式、或4:2:2格式、或4:4:4颜色格式。
13.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中所述指令在由处理器运行时使得所述处理器实施根据权利要求1至85中任一项所述的方法。
14.一种存储在非暂时性计算机可读介质上的计算机程序产品,所述计算机程序产品包括用于执行根据权利要求1至13中任一项所述的方法的程序代码。
15.一种包括处理器的视频解码装置,所述处理器被配置为实施根据权利要求1至13中一项或多项所述的方法。
16.一种包括处理器的视频编码装置,所述处理器被配置为实施根据权利要求1至13中一项或多项所述的方法。
17.一种本文档中描述的方法、装置或系统。
CN202080008152.XA 2019-01-11 2020-01-13 尺寸相关的跨分量线性模型 Pending CN113366836A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2019071382 2019-01-11
CNPCT/CN2019/071382 2019-01-11
PCT/CN2020/071659 WO2020143825A1 (en) 2019-01-11 2020-01-13 Size dependent cross-component linear model

Publications (1)

Publication Number Publication Date
CN113366836A true CN113366836A (zh) 2021-09-07

Family

ID=71521011

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080008152.XA Pending CN113366836A (zh) 2019-01-11 2020-01-13 尺寸相关的跨分量线性模型

Country Status (2)

Country Link
CN (1) CN113366836A (zh)
WO (1) WO2020143825A1 (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071778A1 (en) * 2021-10-29 2023-05-04 Mediatek Singapore Pte. Ltd. Signaling cross component linear model
WO2024055940A1 (en) * 2022-09-15 2024-03-21 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11638019B2 (en) * 2020-07-29 2023-04-25 Alibaba Group Holding Limited Methods and systems for prediction from multiple cross-components
CN117121481A (zh) * 2021-03-17 2023-11-24 抖音视界有限公司 单独树编解码限制
WO2024132468A1 (en) * 2022-12-19 2024-06-27 Interdigital Ce Patent Holdings, Sas Reference sample selection for cross-component intra prediction

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106664425A (zh) * 2014-06-20 2017-05-10 高通股份有限公司 视频译码中的跨分量预测
US20180063531A1 (en) * 2016-08-26 2018-03-01 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US20180063527A1 (en) * 2016-08-31 2018-03-01 Qualcomm Incorporated Cross-component filter
US20180077426A1 (en) * 2016-09-15 2018-03-15 Qualcomm Incorporated Linear model chroma intra prediction for video coding
CN108293130A (zh) * 2015-11-27 2018-07-17 联发科技股份有限公司 通过帧内预测的视频编解码的装置及方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7036628B2 (ja) * 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106664425A (zh) * 2014-06-20 2017-05-10 高通股份有限公司 视频译码中的跨分量预测
CN108293130A (zh) * 2015-11-27 2018-07-17 联发科技股份有限公司 通过帧内预测的视频编解码的装置及方法
US20180063531A1 (en) * 2016-08-26 2018-03-01 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US20180063527A1 (en) * 2016-08-31 2018-03-01 Qualcomm Incorporated Cross-component filter
US20180077426A1 (en) * 2016-09-15 2018-03-15 Qualcomm Incorporated Linear model chroma intra prediction for video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ADARSH K. RAMASUBRAMONIAN: "CE3: On MMLM (Test 2.1)", JOINT VIDEO EXPERTS TEAM (JVET) OF ITU-T SG 16 WP 3 AND ISO/IEC JTC 1/SC 29/WG 11 13TH MEETING: MARRAKECH, MA, 9–18 JAN. 2019,JVET-M0097, 3 January 2019 (2019-01-03), pages 1 - 4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023071778A1 (en) * 2021-10-29 2023-05-04 Mediatek Singapore Pte. Ltd. Signaling cross component linear model
WO2024055940A1 (en) * 2022-09-15 2024-03-21 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Also Published As

Publication number Publication date
WO2020143825A1 (en) 2020-07-16

Similar Documents

Publication Publication Date Title
CN110839153B (zh) 一种处理视频数据的方法和装置
US11765345B2 (en) Multiple prediction blocks for one intra-coded block
CN110896478B (zh) 交叉分量线性建模中的下采样
US11943444B2 (en) Restricted upsampling process in matrix-based intra prediction
WO2020207492A1 (en) Interaction between matrix-based intra prediction and other coding tools
WO2020143825A1 (en) Size dependent cross-component linear model
US11659185B2 (en) Matrix-based intra prediction using upsampling
US11463729B2 (en) Matrix-based intra prediction using filtering
US20220417503A1 (en) Matrix derivation in intra coding mode
WO2019244118A1 (en) Component-dependent sub-block dividing
US20240048762A1 (en) Context coding for matrix-based intra prediction
JP2024009223A (ja) マトリクスベースイントラ予測のためのコンテキスト決定
US20230057982A1 (en) Matrix-based intra prediction using filtering
WO2020233711A1 (en) Linear model mode parameter derivation with multiple lines

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination