CN110839153A - 简化的跨分量预测 - Google Patents

简化的跨分量预测 Download PDF

Info

Publication number
CN110839153A
CN110839153A CN201910765291.6A CN201910765291A CN110839153A CN 110839153 A CN110839153 A CN 110839153A CN 201910765291 A CN201910765291 A CN 201910765291A CN 110839153 A CN110839153 A CN 110839153A
Authority
CN
China
Prior art keywords
samples
block
luma
sample
luma block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910765291.6A
Other languages
English (en)
Other versions
CN110839153B (zh
Inventor
张凯
张莉
刘鸿彬
王悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202310308740.0A priority Critical patent/CN116347109A/zh
Publication of CN110839153A publication Critical patent/CN110839153A/zh
Application granted granted Critical
Publication of CN110839153B publication Critical patent/CN110839153B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/167Position within a video image, e.g. region of interest [ROI]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Networks Using Active Elements (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Amplifiers (AREA)

Abstract

描述了用于数字视频编码的设备、系统和方法,包括简化的跨分量预测。在代表性方面,一种用于视频编码的方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是通过对至少一个亮度分量的样本进行子采样而选择的;以及基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。在另一代表性方面,第二样本集合为当前块的相邻样本并用于至少一个亮度分量的帧内预测模式。

Description

简化的跨分量预测
相关申请的交叉引用
根据适用的专利法和/或依据巴黎公约的规则,本申请是为了及时要求于2019年1月11日提交的国际专利申请No.PCT/CN2019/071382和2018年8月17日提交的国际专利申请No.PCT/CN2018/100965的优先权和利益。出于根据美国法律的所有目的,国际专利申请No.PCT/CN2019/071382和No.PCT/CN2018/100965的全部公开通过引用而并入,作为本申请的公开的一部分。
技术领域
本专利文档涉及视频编码技术、设备和系统。
背景技术
尽管视频压缩技术有所进步,但数字视频仍然占互联网和其他数字通信网络上的最大带宽使用。随着能够接收和显示视频的连接用户设备的数量增加,预计对数字视频使用的带宽需求将继续增长。
发明内容
描述了与数字视频编码相关的设备、系统和方法,特别是视频编码中的跨分量线性模型(Cross-Component Linear Model,CCLM)预测模式的低复杂性实施方式。所描述的方法可以应用于现有视频编码标准(例如,高效视频编码(High Efficiency VideoCoding,HEVC))和未来视频编码标准(例如,多功能视频编码(Versatile Video Coding,VVC))或编解码器。
在一个示例方面,公开了一种视频处理的方法。该方法包括:使用亮度块的训练样本来确定用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定第一色度块的样本;其中训练样本或样本集合在不使用多抽头降采样滤波器的情况下确定。
在另一示例方面,公开了另一种视频处理方法。该方法包括:使用亮度块的训练样本来确定用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定第一色度块的样本;其中训练亮度样本被限制为与亮度块相邻的、在用于帧内预测过程的位置处的亮度样本。
在另一示例方面,公开了另一种视频处理方法。该方法包括:对于当前视频块和当前视频块的比特流表示之间的转换,基于与包括亮度块和第一色度块的当前视频块相关的规则来选择性地确定用于从亮度块的样本集合生成第一色度块的样本的跨分量预测方案;以及根据跨分量预测方案来生成第一色度块的样本,其中跨分量预测方案是以下中的一个:第一跨分量预测方案,其使用根据亮度块的训练样本生成的线性模型,使得训练样本和样本集合在不使用多抽头降采样滤波器的情况下确定;或者第二跨分量预测方案,在该第二跨分量预测方案中训练亮度样本被限制为与当前视频块相邻的、在用于帧内预测过程的位置处的亮度样本;其中规则指定根据当前视频块所属的视频区域来选择跨分量预测方案。
在另一示例方面,公开了另一种视频处理方法。该方法包括:对于视频的视频块和视频块的编码表示之间的转换,从视频块的亮度块确定视频块的第一色度块的样本;其中第一色度块的样本对应于第一中间色度块和N个第二中间色度块的加权组合,其中第一中间色度块是使用第一跨分量线性模型根据亮度块的第一样本集合生成的,其中第一跨分量线性模型是使用亮度样本的第一训练序列生成的;并且其中N个第二中间色度块是使用N个第二跨分量线性模型根据亮度块的N个第二样本集合生成的,其中N个第二跨分量线性模型是使用亮度样本的N个第二训练序列生成的,其中N为整数。
在另一示例方面,公开了另一种视频处理方法。该方法包括:使用降采样过程对亮度块的样本集合进行降采样,其中在降采样过程中使用的降采样滤波器取决于被降采样以生成亮度块的降采样样本集合的亮度样本的位置;使用线性模型从亮度块的降采样样本集合确定第一色度块的样本。
在另一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是通过对至少一个亮度分量的样本进行子采样而选择的;以及基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在另一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是相邻样本并且用于至少一个亮度分量的帧内预测模式;以及基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在又一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括多个块的图片段的比特流表示,其中多个块包括当前块,并且其中多个块中的每一个包括色度分量和亮度分量;对多个块中的每一个执行预测步骤;以及基于相应的第一样本集合和第二样本集合来处理比特流表示,以生成多个块的相应块。
在又一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示;对当前块执行预定次数的预测步骤;基于预定数量的第一样本集合中的每一个来生成最终的第一样本集合;以及至少基于最终的第一样本集合来处理比特流表示,以生成当前块。
在又一代表性方面,所公开的技术可以用于提供用于简化的跨分量预测的方法。该方法包括:确定第一视频块的大小;基于对第一视频块的大小的确定来确定关于跨分量线性模型(CCLM)预测模式的应用的参数;以及根据参数使用CCLM预测模式来执行对第一视频块的进一步处理。
在又一代表性方面,上述方法以处理器可执行代码的形式体现,并且存储在计算机可读程序介质中。
在又一代表性方面,公开了一种被配置为或可操作来执行上述方法的设备。该设备可以包括被编程为实施该方法的处理器。
在又一代表性方面,视频解码器装置可以实施如本文描述的方法。
在附图、说明书和权利要求中更详细地描述了所公开技术的上述以及其他方面和特征。
附图说明
图1示出了用于推导用于跨分量预测的线性模型的权重的样本的位置的示例。
图2示出了将相邻样本分类为两组的示例。
图3A示出了色度样本及其对应的亮度样本的示例。
图3B示出了用于联合探索模型(Joint Exploration Model,JEM)中的跨分量线性模型(CCLM)的降滤波的示例。
图4示出了与单个色度样本相对应的四个亮度样本的示例性排列。
图5A和图5B示出了具有相邻样本的4×4色度块的样本、以及对应的亮度样本的示例。
图6A-图6J示出了没有亮度样本降滤波的CCLM的示例。
图7A-图7D示出了仅需要在正常帧内预测中使用的相邻亮度样本的CCLM的示例。
图8A和图8B示出了编码树单元(Coding Tree Unit,CTU)的边界处的编码单元(Coding Unit,CU)的示例。
图9示出了根据所公开技术的用于跨分量预测的示例方法的流程图。
图10示出了根据所公开技术的用于跨分量预测的另一示例方法的流程图。
图11示出了根据所公开技术的用于跨分量预测的又一示例方法的流程图。
图12示出了根据所公开技术的用于跨分量预测的又一示例方法的流程图。
图13是用于实施本文档中描述的视觉媒体解码或视觉媒体编码技术的硬件平台的示例的框图。
图14-图18是视频处理的各种方法的流程图。
图19A-图19B描绘了当前块内部和外部的亮度样本的降采样位置。假设当前块尺寸为WxH。图19A展示了当涉及W个上侧相邻样本和H个左侧相邻样本时的情况。图19B展示了当涉及2W个上侧相邻样本和2H个左侧相邻样本时的情况。
图20是可以在其中实施所公开技术的示例视频处理系统的框图。
具体实施方式
由于对更高分辨率视频的日益增长的需求,视频编码方法和技术在现代技术中无处不在。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且不断被改进以提供更高的编码效率。视频编解码器将未压缩的视频转换为压缩格式,反之亦然。视频质量、用于表示视频的数据量(由比特率确定)、编码和解码算法的复杂性、对数据丢失和错误的敏感性、编辑的简易性、随机访问和端到端延迟(时延)之间存在复杂关系。压缩格式通常符合标准视频压缩规范,例如,高效视频编码(HEVC)标准(也已知为H.265或MPEG-H部分2)、要完成的多功能视频编码标准(VVC)、或其他当前和/或未来视频编码标准。
所公开技术的实施例可以应用于现有视频编码标准(例如,HEVC、H.265)和未来标准以改进运行时性能。在本文档中使用章节标题以提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实施方式)限制为仅相应的章节。
1.跨分量预测的实施例
跨分量预测是在复杂性和压缩效率改进之间具有良好平衡的权衡的色度到亮度(chroma-to-luma)预测方法的形式。
1.1跨分量线性模型(CCLM)的示例
在一些实施例中,为了减少跨分量冗余,在JEM中使用跨分量线性模型(CCLM)预测模式(也称为LM),针对其通过使用如下线性模型,基于相同CU的重构亮度样本来预测色度样本:
predC(i,j)=α·recL′(i,j)+β (1)
这里,predC(i,j)表示CU中的预测色度样本,对于颜色格式4:2:0或4:2:2,recL′(i,j)表示相同CU的降采样的重构亮度样本,而对于颜色格式4:4:4,recL′(i,j)表示相同CU的重构亮度样本。CCLM参数α和β通过最小化当前块周围的相邻重构亮度和色度样本之间的回归误差而推导,如下所示:
Figure BDA0002171737540000051
以及
Figure BDA0002171737540000052
这里,L(n)表示降采样(对于颜色格式4:2:0或4:2:2)或原始(对于颜色格式4:4:4)的顶部和左侧相邻重构亮度样本,C(n)表示顶部和左侧相邻重构色度样本,N的值等于当前色度编码块的宽度和高度中的最小一个的两倍。
在一些实施例中,对于正方形的编码块,直接应用上述两个等式。在其他实施例中,对于非正方形编码块,首先对更长边界的相邻样本进行子采样,以具有与更短边界相同数量的样本。图1示出了CCLM模式中涉及的当前块的样本以及左侧和上侧重构样本的位置。
在一些实施例中,该回归误差最小化计算是作为解码过程的一部分执行的,而不仅仅是作为编码器搜索操作,所以不使用语法来传达α值和β值。
在一些实施例中,CCLM预测模式还包括两个色度分量之间的预测,例如,从Cb(蓝差(blue-difference))分量预测Cr(红差(red-difference))分量。代替使用重构样本信号,CCLM Cb到Cr(Cb-to-Cr)预测应用于残差域。这是通过将加权重构Cb残差添加到原始Cr帧内预测以形成最终Cr预测而实施的:
Figure BDA0002171737540000062
这里,resiCb′(i,j)呈现位置(i,j)处的重构Cb残差样本。
在一些实施例中,缩放因子α可以以与CCLM亮度到色度预测中相似的方式推导。唯一的差异是相对于误差函数中的默认α值添加了回归成本,使得推导的缩放因子如下所示偏向默认值-0.5:
这里,Cb(n)表示相邻的重构Cb样本,Cr(n)表示相邻的重构Cr样本,λ等于∑(Cb(n)·Cb(n))>>9。
在一些实施例中,CCLM亮度到色度预测模式被添加作为一个附加色度帧内预测模式。在编码器侧,添加了针对色度分量的再一个RD成本检查,以用于选择色度帧内预测模式。当除了CCLM亮度到色度预测模式的帧内预测模式用于CU的色度分量时,CCLM Cb到Cr预测用于Cr分量预测。
1.2多模型CCLM的示例
在JEM中,有两个CCLM模式:单模型CCLM模式和多模型CCLM模式(Multiple ModelCCLM Mode,MMLM)。如名称所指示的,对于整个CU,单模型CCLM模式采用用于从亮度样本预测色度样本的一个线性模型,而在MMLM中,可以有两个模型。
在MMLM中,当前块的相邻亮度样本和相邻色度样本被分类为两组,每组被用作训练集以推导线性模型(即,针对特定组推导特定的α和β)。此外,当前亮度块的样本也基于对相邻亮度样本进行分类的相同规则分类。
图2示出了将相邻样本分类为两组的示例。阈值Threshold被计算为相邻的重构亮度样本的平均值。Rec′L[x,y]<=Threshold的相邻样本被分类为组1;而Rec′L[x,y]>Threshold的相邻样本被分类为组2。
1.3CCLM降采样滤波器的示例
在一些实施例中,为了执行跨分量预测,对于其中4个亮度样本与1个色度样本相对应的4:2:0色度格式,重构亮度块需要被降采样以匹配色度信号的尺寸。CCLM模式中使用的默认降采样滤波器如下:
Rec'L[x,y]={2×RecL[2x,2y]+2×RecL[2x,2y+1]+
RecL[2x-1,2y]+RecL[2x+1,2y]+
RecL[2x-1,2y+1]+RecL[2x+1,2y+1]+4}>>3 (7)
这里,对于色度样本相对于亮度样本的位置的位置,降采样假定如图3A所示的“类型0”相位关系,例如,水平并置采样和垂直间隙采样。
(6)中定义的示例性6抽头降采样滤波器被用作单模型CCLM模式和多模型CCLM模式的默认滤波器。
在一些实施例中,对于MMLM模式,编码器可以可替换地选择四个附加亮度降采样滤波器中的一个来应用于CU中的预测,并且发送滤波器索引以指示这些滤波器中的哪一个被使用。如图3B所示,MMLM模式的四个可选亮度降采样滤波器如下:
Rec'L[x,y]=(RecL[2x,2y]+RecL[2x+1,2y]+1)>>1 (8)
Rec'L[x,y]=(RecL[2x+1,2y]+RecL[2x+1,2y+1]+1)>>1 (9)
Rec'L[x,y]=(RecL[2x,2y+1]+RecL[2x+1,2y+1]+1)>>1 (10)
Rec'L[x,y]=(RecL[2x,2y]+RecL[2x,2y+1]+RecL[2x+1,2y]+RecL[2x+1,2y+1]+2)>>2 (11)
JVET-M0098中的多模型CCLM的扩展
在JVET-M0098中,MM-CCLM被扩展。命名为CCLM-L和CCLM-T模式的两个附加模式被添加到原始MM-CCLM,命名为CCLM-TL。利用CCLM-L,两个模型的线性参数仅用左侧相邻样本推导。利用CCLM-T,两个模型的线性参数仅用顶部相邻样本推导。
2现有实施方式中的缺点的示例
至少由于以下问题,当前CCLM实施方式不容易适合于高效的硬件实施方式:
·需要比正常帧内预测中使用的相邻亮度样本更多的相邻亮度样本。CCLM需要两个上侧相邻行的亮度样本和三个左侧相邻列的亮度样本。MM-CCLM需要四个上侧相邻行的亮度样本和四个左侧相邻列的亮度样本。
·亮度样本(针对用于参数推导的相邻亮度样本和共位的亮度重构样本)需要用6抽头滤波器来降采样,这增加了计算复杂性。
3用于视频编码中的简化的跨分量预测的示例性方法
目前公开的技术的实施例克服了现有实施方式的缺点,从而提供了编码效率更高但计算复杂性更低的视频编码。基于所公开的技术,简化的跨分量预测可以增强现有视频编码标准和未来视频编码标准,在针对各种实施方式描述的以下示例中被阐述。下面提供的所公开技术的示例解释了一般概念,并且不意味着被解释为限制。在示例中,除非明确相反指示,否则这些示例中描述的各种特征可以被组合。
所建议的简化的CCLM方法包括但不限于:
·仅需要在正常帧内预测中使用的相邻亮度样本;以及
·不需要对亮度样本进行降采样,或者降采样通过简单的双样本平均来执行。
下面描述的示例假定颜色格式为4:2:0。如图3A所示,一个色度(Cb或Cr)样本(由三角形表示)对应于四个亮度(Y)样本(由圆圈表示):如图4所示的A、B、C和D。图5A和图5B示出了具有相邻样本的4×4色度块的样本、以及对应的亮度样本的示例。
示例1.在一个示例中,建议在不对亮度样本进行降采样滤波的情况下完成CCLM。
(a)在一个示例中,在CCLM参数(例如,α和β)推导过程中移除相邻亮度样本的降采样过程。相反,降采样过程由其中利用非连续亮度样本的子采样过程取代。
(b)在一个示例中,在CCLM色度预测过程中移除共位的亮度块中的样本的降采样过程。相反,仅共位的亮度块中的部分亮度样本用于推导色度样本的预测块。
(c)图6A-图6J示出了关于对应于4×4色度块的8×8亮度块的示例。
(d)在如图6A所示的一个示例中,图4中的位置“C”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧相邻样本来推导线性模型。
(e)在如图6B所示的一个示例中,图4中的位置“C”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧相邻样本和右上方相邻样本来推导线性模型。
(f)在如图6C所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧相邻样本来推导线性模型。
(g)在如图6D所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧相邻样本和右上方相邻样本来推导线性模型。
(h)在如图6E所示的一个示例中,图4中的位置“B”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧相邻样本来推导线性模型。
(i)在如图6F所示的一个示例中,图4中的位置“B”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧相邻样本和左下方相邻样本来推导线性模型。
(j)在如图6G所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧相邻样本来推导线性模型。
(k)在如图6H所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用左侧相邻样本和左下方相邻样本来推导线性模型。
(1)在如图6I所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧相邻样本和左侧相邻样本来推导线性模型。
(m)在如图6J所示的一个示例中,图4中的位置“D”处的亮度样本用于与色度样本相对应。在训练过程中使用上侧相邻样本、左侧相邻样本、右上方相邻样本和左下方相邻样本来推导线性模型。
示例2.在一个示例中,建议CCLM仅需要在正常帧内预测过程中使用的相邻亮度样本,也就是说,不允许其他相邻亮度样本用于CCLM过程中。在一个示例中,通过对亮度样本进行2抽头滤波来完成CCLM。图7A-图7D示出了关于对应于4×4色度块的8×8亮度块的示例。
(a)在如图7A所示的一个示例中,图4中的位置“C”和位置“D”处的亮度样本被滤波为F(C,D),以用于与色度样本相对应。在训练过程中使用上侧相邻样本来推导线性模型。
(b)在如图7B所示的一个示例中,图4中的位置“C”和位置“D”处的亮度样本被滤波为F(C,D),以用于与色度样本相对应。在训练过程中使用上侧相邻样本和右上方相邻样本来推导线性模型。
(c)在如图7C所示的一个示例中,图4中的位置“B”和位置“D”处的亮度样本被滤波为F(B,D),以用于与色度样本相对应。在训练过程中使用左侧相邻样本来推导线性模型。
(d)在如图7D所示的一个示例中,图4中的位置“B”和位置“D”处的亮度样本被滤波为F(B,D),以用于与色度样本相对应。在训练过程中使用左侧相邻样本和左下方相邻样本来推导线性模型。
(e)在一个示例中,F被定义为F(X,Y)=(X+Y)>>1。可替换地,F(X,Y)=(X+Y+1)>>1。
示例3.在一个示例中,建议可以以选择性方式应用所建议的简化的CCLM方法(例如,示例1和示例2)。也就是说,区域/条带/图片/序列内的不同块可以选择不同种类的简化的CCLM方法。
(a)在一个实施例中,编码器从预定义的候选集中选择一个种类的简化的CCLM方法并将其信令通知给解码器。
(i)例如,编码器可以在示例1(a)和示例1(e)之间进行选择。可替换地,编码器可以在示例1(b)和示例1(f)之间进行选择。可替换地,编码器可以在示例1(c)和示例1(g)之间进行选择。可替换地,编码器可以在示例1(d)和示例1(h)之间进行选择。可替换地,编码器可以在示例2(a)和示例2(c)之间进行选择。可替换地,编码器可以在示例2(b)和示例2(d)之间进行选择。
(ii)要从其选择的候选集和信令可以取决于块的形状或尺寸。假设W和H表示色度块的宽度和高度,T1和T2为整数。
(1)在一个示例中,如果W<=T1且H<=T2,则没有候选,例如,CCLM被禁用。例如,T1=T2=2。
(2)在一个示例中,如果W<=T1或H<=T2,则没有候选,例如,CCLM被禁用。例如,T1=T2=2。
(3)在一个示例中,如果W×H<=T1,则没有候选,例如,CCLM被禁用。例如,T1=4。
(4)在一个示例中,如果W<=T1且H<=T2,则只有一个候选,诸如示例1(i)。没有信令通知CCLM方法选择信息。例如,T1=T2=4。
(5)在一个示例中,如果W<=T1或H<=T2,则只有一个候选,诸如示例1(i)。没有信令通知CCLM方法选择信息。例如,T1=T2=4。
(6)在一个示例中,如果W×H<=T1,则只有一个候选,诸如示例1(i)。没有信令通知CCLM方法选择信息。例如,T1=16。
(7)在一个示例中,如果W>H,则只有一个候选,诸如示例1(a)。没有信令通知CCLM方法选择信息。可替换地,如果W>H(或W>N*H,其中N是正整数),则仅在推导CCLM参数时使用上侧或/和右上方相邻重构样本的候选(或一些候选)被包括在候选集中。
(8)在一个示例中,如果W<H,则只有一个候选,诸如示例1(e)。没有信令通知CCLM方法选择信息。可替换地,如果W<H(或N*W<H),则仅在推导CCLM参数时使用左侧或/和左下方相邻重构样本的候选(或一些候选)被包括在候选集中。
(b)在一个实施例中,编码器和解码器两者都基于相同规则选择简化的CCLM方法。编码器不将其信令通知给解码器。例如,选择可以取决于块的形状或尺寸。在一个示例中,如果宽度大于高度,则选择示例1(a),否则,选择示例1(e)。
(c)可以在序列参数集/图片参数集/条带标头/CTU/CTB/CTU组中信令通知一个或多个简化的CCLM候选集合。
示例4.在一个示例中,建议将多种CCLM方法(例如,示例1和示例2)应用于相同色度块。也就是说,区域/条带/图片/序列内的一个块可以选择不同种类的简化的CCLM方法来推导多个中间色度预测块,并且最终色度预测块是从多个中间色度预测块推导的。
(a)可替换地,CCLM参数的多个集合(例如,α和β)可以首先根据多个选择的CCLM方法推导。CCLM参数的一个最终集合可以从多个集合推导并用于色度预测块生成过程。
(b)可以以与示例3描述的方式类似的方式(隐式地或显式地)信令通知对多种CCLM方法的选择。
(c)可以在序列参数集/图片参数集/条带标头/CTU组/CTU/编码块中信令通知对所建议的方法的使用的指示。
示例5.在一个示例中,是否以及如何应用所建议的简化的CCLM方法可以取决于当前块的位置。
(a)在一个示例中,如图8A所示,对位于当前CTU的上边界处的CU应用所建议的方法中的一种或多种。
(b)在一个示例中,如图8B所示,对位于当前CTU的左边界处的CU应用所建议的方法中的一种或多种。
(c)在一个示例中,在上述两种情况下应用所建议的方法中的一种或多种。
示例6.在一个示例中,当亮度样本在当前块内部或在当前块外部时,亮度样本以不同方式被降采样来与色度样本相对应。此外,当外部亮度样本在当前块左侧或在当前块上侧时,外部亮度样本以不同方式被降采样来与色度样本相对应。
a.在一个示例中,亮度样本如下指定被降采样,如图19A-图19B所示:
i.当前块内部的亮度样本以与JEM中的方式相同的方式被降采样。
ii.在当前块外部并且在当前块上侧的亮度样本被降采样到位置C或D。
1.可替换地,用滤波器将亮度样本降采样到位置C。假设在上侧与当前块邻近的亮度样本被表示为a[i],那么d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示降采样的亮度样本。
a.如果样本a[2i-1]不可用,则d[i]=(3*a[2i]+a[2i+1]+2)>>2;
b.如果样本a[2i+1]不可用,则d[i]=(a[2i-1]+3*a[2i]+2)>>2;
iii.在当前块外部且在当前块左侧的亮度样本被降采样到位置B或D,
1.可替换地,亮度样本被降采样到B和D之间的一半位置。假设在左侧与当前块邻近的亮度样本被表示为a[j],那么d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示降采样的亮度样本。
示例7.在一个示例中,所建议的亮度降采样方法可以应用于JEM或VTM中的LM模式,并且也可以应用于JEM中的MMLM模式。除此之外,它还可以应用于仅使用左侧相邻样本来推导线性模型的左LM(left-LM)模式、或仅使用上侧相邻样本来推导线性模型的上LM(above-LM)模式。
示例8.无论哪个种类的降采样滤波器被应用,边界滤波都可以应用于LM模式、MMLM模式、左LM模式或上LM模式。
a.假设在上侧与当前块邻近的重构色度样本被表示为a[-1][j],在第i行和第j列处的LM预测的样本为a[i][j],则边界滤波后的预测样本被计算为a’[i][j]=(w1*a[i][j]+w2*a[-1][i]+2N-1)>>N,其中w1+w2=2N。
i.在一个示例中,仅当i<=K时才应用边界滤波。K为整数,诸如0或1。例如,K=0,w1=w2=1。在另一示例中,K=0,w1=3,w2=1。
ii.在一个示例中,w1和w2取决于行索引(i)。例如,对于样本a[0][j],K=1,w1=w2=1,但是对于样本a[1][j],w1=3,w2=1。
b.假设在左侧与当前块邻近的重构色度样本被表示为a[i][-1],在第i行和第j列的LM预测的样本为a[i][j],则边界滤波后的预测样本被计算为a’[i][j]=(w1*a[i][j]+w2*a[i][-1]+2N-1)>>N,其中w1+w2=2N。
i.在一个示例中,仅当j<=K时才应用边界滤波。K为整数,诸如0或1。例如,K=0,w1=w2=1。在另一示例中,K=0,w1=3,w2=1。
ii.在一个示例中,w1和w2取决于列索引(i)。例如,对于样本a[0][j],K=1,w1=w2=1,但是对于样本a[1][j],w1=3,w2=1。
图9示出了用于跨分量预测的示例性方法的流程图。方法900包括,在步骤910处,接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示。
方法900包括,在步骤920处,使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是通过对至少一个亮度分量的样本进行子采样而选择的。
方法900包括,在步骤930处,基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在一些实施例中,方法900还包括基于训练样本来推导线性模型的参数。例如,在示例1的上下文中,训练样本包括与作为当前块的邻域(neighbor)的色度样本相关联的亮度样本块的一个或多个样本。在一些实施例中,亮度样本块为2×2亮度样本块。在其他实施例中,它的尺寸可以为2N×2N
在一些实施例中,亮度样本中的至少一个与色度样本相对应,并且训练样本可以如示例1(d)至1(m)所述而选择。例如,在一些实施例中,亮度样本块为2×2亮度样本块。在一些实施例中,亮度样本块的左下方样本与色度样本相对应,并且训练样本包括左下方样本的上侧相邻样本。在一些实施例中,亮度样本块的左下方样本与色度样本相对应,并且训练样本包括左下方样本的上侧相邻样本和右上方相邻样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的上侧相邻样本和右上方相邻样本。在一些实施例中,亮度样本块的右上方样本与色度样本相对应,并且训练样本包括右上方样本的左侧相邻样本。在一些实施例中,亮度样本块的右上方样本与色度样本相对应,并且训练样本包括右上方样本的左侧相邻样本和左下方相邻样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的左侧相邻样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的左侧相邻样本和左下方相邻样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的左侧相邻样本和上侧相邻样本。在一些实施例中,亮度样本块的右下方样本与色度样本相对应,并且训练样本包括右下方样本的上侧相邻样本、左侧相邻样本、右上方相邻样本和左下方相邻样本。
图10示出了用于跨分量预测的另一示例性方法的流程图。该示例包括类似于图9中示出的上述特征和/或步骤的一些特征和/或步骤。在本章节中可能不会单独描述这些特征和/或组件中的至少一些。方法1000包括,在步骤1010处,接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示。
方法1000包括,在步骤1020处,使用线性模型基于第二样本集合来预测至少一个色度分量的第一样本集合,该第二样本集合是相邻样本并且用于至少一个亮度分量的帧内预测模式。
方法1000包括,在步骤1030处,基于第一样本集合和第二样本集合来处理比特流表示,以生成当前块。
在一些实施例中,方法1000还包括基于训练样本来推导线性模型的参数。例如,在示例2的上下文中,训练样本包括与作为当前块的邻域的色度样本相关联的亮度样本块的一个或多个样本。在一些实施例中,亮度样本块为2×2亮度样本块。在其他实施例中,它的尺寸可以为2N×2N
在一些实施例中,基于亮度样本中的两个亮度样本的滤波样本与色度样本相对应,并且训练样本可以如示例2(a)-2(d)所述而选择。例如,在一些实施例中,亮度样本块为2×2亮度样本块。在一些实施例中,使用两抽头滤波器对亮度样本块的左下方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括左下方样本和右下方样本中的每一个的上侧相邻样本。在一些实施例中,使用两抽头滤波器对亮度样本块的左下方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括左下方样本和右下方样本中的每一个的上侧相邻样本和右上方相邻样本。在一些实施例中,使用两抽头滤波器对亮度样本块的右上方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括右上方样本和右下方样本中的每一个的左侧相邻样本。在一些实施例中,使用两抽头滤波器对亮度样本块的右上方样本和右下方样本进行滤波,以生成与色度样本相对应的滤波样本,并且其中训练样本包括右上方样本和右下方样本中的每一个的左侧相邻样本和左下方相邻样本。
图11示出了用于跨分量预测的另一示例性方法的流程图。该示例包括类似于图9和图10中示出的上述特征和/或步骤的一些特征和/或步骤。在本章节中可能不会单独描述这些特征和/或组件中的至少一些。方法1100包括,在步骤1110处,接收包括多个块的图片段的比特流表示,多个块包括当前块,并且多个块中的每一个包括色度分量和亮度分量。
方法1100包括,在步骤1120处,对多个块中的每一个执行预测步骤。
方法1100包括,在步骤1130处,基于相应的第一样本集合和第二样本集合来处理比特流表示,以生成多个块的相应块。
在一些实施例中,并且在示例3的上下文中,预测步骤可以从方法900中描述的预测步骤中选择,而在其他实施例中,预测步骤可以从方法1000中描述的预测步骤中选择。
图12示出了用于跨分量预测的另一示例性方法的流程图。该示例包括类似于图9-图11中示出的上述特征和/或步骤的一些特征和/或步骤。在本章节中可能不会单独描述这些特征和/或组件中的至少一些。方法1200包括,在步骤1210处,接收包括至少一个亮度分量和至少一个色度分量的视频数据的当前块的比特流表示。
方法1200包括,在步骤1220处,对当前块执行预定次数的预测步骤。
方法1200包括,在步骤1230处,基于预定数量的第一样本集合中的每一个来生成最终的第一样本集合。
方法1200包括,在步骤1240处,至少基于最终的第一样本集合来处理比特流表示,以生成当前块。
在一些实施例中,并且在示例4的上下文中,预测步骤可以从方法900中描述的预测步骤中选择,而在其他实施例中,预测步骤可以从方法1000中描述的预测步骤中选择。
在一些实施例中,并且在示例5的上下文中,执行预测步骤是基于当前块在当前CTU中的位置。在一个示例中,当前块的位置在上边界处,而在另一示例中,当前块的位置在当前CTU的左边界处。
在一些实施例中,视频编码的方法包括:确定第一视频块的大小;基于对大小的确定来确定关于CCLM预测模式的应用的参数;以及根据参数使用CCLM预测模式来执行对第一视频块的进一步处理。在各种实施例中,CCLM模式可以包括CCLM-TL、CCLM-T或CCLM-L中的一个或多个。
在一些实施例中,基于大小的宽度小于或等于阈值,CCLM预测模式排除CCLM-T。
在一些实施例中,基于大小的高度小于或等于阈值,CCLM预测模式排除CCLM-L。
在一些实施例中,基于大小的高度小于第一阈值并且基于大小的宽度小于第二阈值,CCLM预测模式排除CCLM-TL。
在一些实施例中,基于大小的宽度乘以大小的高度小于或等于阈值,CCLM预测模式排除CCLM-TL。
在一些实施例中,基于CCLM-T不能被应用,信令通知CCLM预测模式为CCLM-T的标志不被信令通知并被推断为0。
在一些实施例中,基于CCLM-T不能被应用,信令通知CCLM预测模式为CCLM-L的标志不被信令通知并被推断为0。
在一些实施例中,基于CCLM-T不能被应用,信令通知CCLM预测模式为CCLM-TL的标志不被信令通知并被推断为0。
在一些实施例中,该方法还包括:确定第一视频块的颜色格式,并且其中确定参数是基于对颜色格式的确定。
在一些实施例中,CCLM预测模式为CCLM-T,并且CCLM-T使用上侧参考样本来推导线性模型参数。
在一些实施例中,CCLM预测模式为CCLM-L,并且CCLM-L使用左侧参考样本来推导线性模型参数。
在一些实施例中,CCLM预测模式为CCLM-T,并且CCLM-T用于从上侧参考样本推导多个线性模型。
在一些实施例中,CCLM预测模式为CCLM-L,并且CCLM-L用于从左侧参考样本推导多个线性模型。
在一些实施例中,以下技术解决方案的列表可能是优选的实施方式。
1.一种用于视频处理的方法(例如,图14中示出的方法1400),包括:使用亮度块的训练样本来确定(1402)用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定(1404)第一色度块的样本;其中训练样本或样本集合在不使用多抽头降采样滤波器的情况下确定。
2.根据解决方案1所述的方法,其中,线性模型包括第一参数α和第二参数β,并且其中α和β是通过对训练样本进行子采样而从训练样本推导的。
3.根据解决方案2所述的方法,其中,子采样使用非连续亮度样本。
4.根据解决方案1所述的方法,其中,样本集合对应于与第一色度块的样本共位的亮度样本。
5.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
6.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
7.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
8.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
9.根据解决方案1-4中任一项所述的方法,其中训练样本对应于亮度块的左侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素。
10.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素。
11.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块的左侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
12.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
13.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和左侧的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
14.根据解决方案1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧、左侧、右上方和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
前一章节提供了上述解决方案的附加特征(例如,第1项)。
15.一种用于视频处理的方法(例如,图15中示出的方法1500),包括:使用亮度块的训练样本来确定(1502)用于预测第一色度块的线性模型;以及使用亮度块的样本集合和线性模型来确定(1504)第一色度块的样本;其中训练亮度样本被限制为与亮度块相邻的、在用于帧内预测过程的位置处的亮度样本。
16.根据解决方案15所述的方法,其中,第一色度块中的色度样本通过将2抽头滤波器应用于亮度块的样本集合中的第一样本和第二样本而确定,该亮度块在与色度块的位置相对应的位置处。
17.根据解决方案16所述的方法,其中,第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧相邻样本。
18.根据解决方案16所述的方法,其中,第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧和右上方相邻样本。
19.根据解决方案16所述的方法,其中,第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧相邻样本。
20.根据解决方案16所述的方法,其中,第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧和左下方相邻样本。
21.根据解决方案16至20中任一项所述的方法,其中,两抽头滤波器为平均滤波器。
22.根据解决方案16至21中任一项所述的方法,其中,两抽头滤波器对一加第一样本加第二样本的和进行平均。
前一章节提供了上述解决方案的附加特征(例如,第1项)。
23.一种视频处理的方法(例如,图16中描绘的方法1600),包括:对于当前视频块和当前视频块的比特流表示之间的转换,基于与包括亮度块和第一色度块的当前视频块相关的规则来选择性地确定(1602)用于从亮度块的样本集合生成第一色度块的样本的跨分量预测方案;以及根据跨分量预测方案来生成(1604)第一色度块的样本,其中跨分量预测方案是以下中的一个:第一跨分量预测方案,其使用根据亮度块的训练样本生成的线性模型,使得训练样本和样本集合在不使用多抽头降采样滤波器的情况下确定;或者第二跨分量预测方案,在该第二跨分量预测方案中训练亮度样本被限制为与当前视频块相邻的、在用于帧内预测过程的位置处的亮度样本;其中规则指定根据当前视频块所属的视频区域来选择跨分量预测方案。
24.根据解决方案23所述的方法,其中,针对当前视频块选择的跨分量预测方案不同于针对视频区域中的另一视频块选择的另一跨分量预测方案。
25.根据解决方案24所述的方法,其中,视频区域包括视频条带。
26.根据解决方案24所述的方法,其中,视频区域包括视频图片。
27.根据解决方案24所述的方法,其中,视频区域包括视频图片序列。
28.根据解决方案23所述的方法,其中,编码条件在当前视频块的编码表示中信令通知。
29.根据解决方案23所述的方法,其中,编码条件没有在当前视频块的编码表示中显式地信令通知。
30.根据解决方案28或29所述的方法,其中,规则指定基于当前视频块的形状或尺寸来选择跨分量预测方案。
31.根据解决方案28或29中任一项所述的方法,其中:训练样本从以下中选择:
亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块的左侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素;
亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素;
亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块上侧和左侧的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;或者
亮度块上侧、左侧、右上方和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;和/或
其中第一色度块通过将2抽头滤波器应用于亮度块的样本集合中的第一样本和第二样本而确定,该亮度块在与第一色度块的位置相对应的位置处;其中第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧相邻样本;其中第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧和右上方相邻样本;其中第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧相邻样本;或者其中第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧和左下方相邻样本。
32.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而禁用跨分量预测方案,其中T1和T2为整数。
33.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W*H<=T1而禁用跨分量预测方案。
34.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而选择特定的跨分量预测方案,其中T1和T2为整数,并且其中特定的跨分量预测方案在编码表示中信令通知。
35.根据解决方案30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而选择特定的跨分量预测方案,其中T1和T2为整数,并且其中特定的跨分量预测方案没有在编码表示中信令通知。
36.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W*H<=T1而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案在编码表示中信令通知。
37.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案没有在编码表示中信令通知,其中N为整数。
38.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案仅使用来自上侧或右上方相邻样本的像素,并且其中特定的跨分量预测方案在编码表示中信令通知。
39.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于N*W<H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案在编码表示中信令通知,其中N为整数。
40.根据解决方案32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案仅使用来自左侧或左下方相邻样本的像素。
41.根据解决方案34至40中任一项所述的方法,其中,T1=2。
42.根据解决方案10至17中任一项所述的方法,其中,T2=2。
43.根据解决方案10至17中任一项所述的方法,其中,T1=4。
44.根据解决方案10至17中任一项所述的方法,其中,T2=4。
45.根据解决方案10至17中任一项所述的方法,其中,T2=16。
前一章节提供了上述解决方案的附加特征(例如,第3项)。
46.一种视频处理的方法(例如,图17中描绘的方法1700),包括:对于视频的视频块和视频块的编码表示之间的转换,从视频块的亮度块确定(1702)视频块的第一色度块的样本;其中第一色度块的样本对应于第一中间色度块和N个第二中间色度块的加权组合,其中第一中间色度块是使用第一跨分量线性模型根据亮度块的第一样本集合生成的,其中第一跨分量线性模型是使用亮度样本的第一训练序列生成的;并且其中N个第二中间色度块是使用N个第二跨分量线性模型根据亮度块的N个第二样本集合生成的,其中N个第二跨分量线性模型是使用亮度样本的N个第二训练序列生成的,其中N为整数。
47.根据解决方案46所述的方法,其中,第一跨分量线性模型和N个第二跨分量线性模型中的至少一些在视频的区域内彼此不同,其中视频的区域对应于条带、或图片、或视频序列。
48.根据解决方案46-47中任一项所述的方法,其中,编码表示包括第一跨分量线性模型和N个第二跨分量线性模型的标识。
49.根据解决方案47所述的方法,其中,该标识被包括在序列参数集级别,或图片参数集级别,或条带标头,或编码树单元组、或编码树单元、或编码单元级别中。
50.根据解决方案46-49中任一项所述的方法,其中,编码表示包括对基于取决于视频块的宽度W或视频块的高度H的规则的第一跨分量线性模型和/或N个第二跨分量线性模型的指示。
51.根据解决方案50所述的方法,其中,该指示被包括在序列参数集级别、或图片参数集级别、或条带标头级别、或编码树单元组级别、或编码树单元级别、或编码块级别中。
前一章节提供了上述解决方案的附加特征(例如,第4项)。
52.根据解决方案1-51中任一项所述的方法,其中,该方法基于应用性规则而选择性地应用于当前视频块,该应用性规则与当前视频块在当前图片内满足位置条件相关。
53.根据解决方案52所述的方法,其中,由于视频块位于编码树单元的上边界,应用性规则指定应用上述解决方案的方法。
54.根据解决方案52或53所述的方法,其中,由于当前视频块位于编码树单元的左边界,应用性规则指定应用上述解决方案的方法。
前一章节提供了上述解决方案的附加特征(例如,第5项)。
55.根据解决方案1-54中任一项所述的方法,其中,亮度块的样本集合是使用降采样过程生成的,其中第一降采样滤波器用于对视频块内部的亮度样本进行降采样,第二降采样滤波器应用于视频块外部的亮度样本以生成亮度块的样本集合。
56.根据解决方案55所述的方法,其中,第一降采样滤波器对应于联合探索模型(JEM)使用的传统滤波器。
57.根据解决方案55-56中任一项所述的方法,其中,第二降采样滤波器将视频块上侧的亮度样本降采样到左下方和右下方位置。
58.根据解决方案55所述的方法,其中,在上侧与视频块邻近的亮度样本被表示为a[i],然后d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示降采样的亮度样本,其中i为表示水平样本偏移的变量。
59.根据解决方案58所述的方法,其中,如果样本a[2i-1]不可用,则d[i]被确定为d[i]=(3*a[2i]+a[2i+1]+2)>>2。
60.根据解决方案58所述的方法,其中,如果样本a[2i+1]不可用,则d[i]=(a[2i-1]+3*a[2i]+2)>>2。
61.根据解决方案55-56中任一项所述的方法,其中,第二降采样滤波器将外部左侧的亮度样本降采样到右上方和右下方位置。
62.根据解决方案55-56中任一项所述的方法,其中,第二降采样滤波器将外部左侧的亮度样本降采样到右上方和右下方位置之间的中间,使得如果当前块的左侧邻近样本被表示为a[j],则d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示降采样的亮度样本。
前一章节提供了上述解决方案的附加特征(例如,第5项)。
63.一种视频处理的方法(例如,图18中描绘的方法1800),包括:使用降采样过程对亮度块的样本集合进行降采样(1802),其中在降采样过程中使用的降采样滤波器取决于被降采样以生成亮度块的降采样样本集合的亮度样本的位置;以及使用线性模型从亮度块的降采样样本集合确定(1804)第一色度块的样本。
64.根据解决方案63所述的方法,其中,线性模型由第一参数α和第二参数β定义,并且其中从亮度样本recL(i,j)将位置(i,j)处的色度样本predc(i,j)确定为:
predc(i,j)=α*recL(i,j)+β。
前一章节提供了上述解决方案的附加特征(例如,第7项)。
65.根据解决方案63-64中任一项所述的方法,还包括将边界滤波器应用于作为当前视频块的区域的第一色度块的样本。
66.根据解决方案65所述的方法,其中,在上侧与视频块邻近的样本被表示为a[-1][j],第一色度块的第i行和第j列中的样本为a[i][j],然后基于值i选择性地执行应用边界滤波器,并且应用边界滤波器包括计算a’[i][j]=(w1*a[i][j]+w2*a[-1][i]+2N-1)>>N,其中w1+w2=2N表示权重。
67.根据解决方案66所述的方法,其中,应用边界滤波仅针对i<=K执行。
68.根据解决方案66所述的方法,其中,w1和w2为行索引i的函数。
69.根据解决方案65所述的方法,其中,视频块的左侧邻近样本被表示为a[i[[-1],第一色度块的第i行和第j列中的样本为a[i][j],然后基于值j选择性地执行应用边界滤波器,并且应用边界滤波器包括计算a’[i][j]=(w1*a[i][j]+w2*a[i][-1]+2N-1)>>N,其中w1+w2=2N
70.根据解决方案69所述的方法,其中,应用边界滤波仅针对j<=K执行。
71.根据解决方案70所述的方法,其中,w1和w2为列索引j的函数。
72.根据解决方案67或70所述的方法,其中,K=0,w1=w2=1。
73.根据解决方案67或70所述的方法,其中,K=0,w1=3,w2=1。
前一章节提供了上述解决方案的附加特征(例如,第8项)。
74.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中该指令在由处理器运行时使得处理器实施根据解决方案1至73中任一项所述的方法。
75.一种存储在非暂时性计算机可读介质上的计算机程序产品,该计算机程序产品包括用于执行根据解决方案1至73中任一项所述的方法的程序代码。
76.一种包括处理器的视频解码装置,该处理器被配置为实施根据解决方案1至73中一项或多项所述的方法。
77.一种包括处理器的视频编码装置,该处理器被配置为实施根据解决方案1至73中一项或多项所述的方法。
78.一种本文档中描述的方法、装置或系统。
4.所公开技术的示例实施方式
图13是视频处理装置1300的框图。装置1300可以用于实施本文描述的方法中的一种或多种。装置1300可以体现在智能手机、平板电脑、计算机、物联网(Internet ofThings,IoT)接收器等中。装置1300可以包括一个或多个处理器1302、一个或多个存储器1304、以及视频处理硬件1306。(多个)处理器1302可以被配置为实施本文档中描述的一种或多种方法(包括但不限于方法900、1000、……至1800)。存储器(多个存储器)1304可以用于存储用于实施本文描述的方法和技术的数据和代码。视频处理硬件1306可以用于在硬件电路中实施本文档中描述的一些技术。
在一些实施例中,视频编码方法可以使用如参考图13描述的在硬件平台上实施的装置而实施。
图20是示出可以在其中实施本文公开的各种技术的示例视频处理系统2000的框图。各种实施方式可以包括系统2000的一些或所有组件。系统2000可以包括用于接收视频内容的输入端2002。视频内容可以以原始或未压缩格式(例如,8或10比特多分量像素值)而接收,或者可以是压缩或编码格式。输入端2002可以表示网络接口、外围总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(Passive Optical Network,PON)等的有线接口和诸如Wi-Fi或蜂窝接口的无线接口。
系统2000可以包括可以实施本文档中描述的各种编码或编码方法的编码组件2004。编码组件2004可以将来自输入端2002的视频的平均比特率减小到编码组件2004的输出,以产生视频的编码表示。编码技术因此有时被称为视频压缩或视频转码技术。编码组件2004的输出可以存储,或者经由如由组件2006表示的连接的通信而发送。在输入端2002处接收的视频的存储或通信传送的比特流(或编码)表示可以由组件2008用于生成像素值或被发送到显示接口2010的可显示视频。从比特流表示生成用户可视视频的过程有时被称为视频解压缩。此外,虽然特定视频处理操作被称为“编码”操作或工具,但是应当理解,编码工具或操作在编码器处被使用,并且反转编码结果的对应解码工具或操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(Universal SerialBus,USB)、或高清多媒体接口(High Definition Multimedia Interface,HDMI)、或显示端口(Displayport)等。存储接口的示例包括SATA(serial advanced technologyattachment,串行高级技术附件)、PCI、IDE接口等。本文档中描述的技术可以体现在诸如移动电话、膝上型电脑、智能电话、或能够执行数字数据处理和/或视频显示的其他设备的各种电子设备中。
模拟结果的示例
在VTM-2.0.1上实施各种CCLM方法。为了测试所建议的方法的有效性,测试了两种解决方案。
这两种解决方案的不同在于使用不同的相邻亮度样本集合。假设一个块的宽度和高度分别表示为W和H。在解决方案#1中,训练过程涉及W个上侧相邻样本和H个左侧相邻样本,以用于推导α和β参数。在解决方案#2中,2W个上侧相邻样本和2H个左侧相邻样本用于训练。
测试#1和测试#2分别针对解决方案#1和解决方案#2而进行。在表1和表2中分别概述了测试1和测试2的所有帧内(All Intra,AI)和随机接入(Random Access,RA)配置的仿真结果。
表1:测试1的结果
Figure BDA0002171737540000261
表2:测试2的结果
Figure BDA0002171737540000262
Figure BDA0002171737540000271
根据前述内容,可以理解本文已经出于说明的目的描述了本公开技术的具体实施方案,但是在不脱离本发明范围的情况下可以进行各种修改。因此,本公开技术不受除了所附权利要求之外的限制。
本专利文档中描述的主题和功能操作的实施方式可以在各种系统、数字电子电路或计算机软件、固件或硬件(包括本说明书中公开的结构及其结构等同物、或者它们中的一个或多个的组合)中实施。本说明书中描述的主题的实施方式可以实施为一个或多个计算机程序产品,即编码在有形和非暂时性计算机可读介质上的计算机程序指令的一个或多个模块,该计算机程序指令用于由数据处理装置运行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质的组合、或它们中的一个或多个的组合。术语“数据处理单元”或“数据处理装置”包括用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机、或多个处理器或计算机。除了硬件之外,装置还可以包括为所讨论的计算机程序创建运行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统、或它们中的一个或多个的组合的代码。
计算机程序(也已知为程序、软件、软件应用、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且其可以以任何形式部署,包括作为独立程序或作为适合在计算环境中使用的模块、组件、子例程或其他单元。计算机程序不一定对应于文件系统中的文件。程序可以存储在保存其他程序或数据(例如,存储在标记语言文档中的一个或多个脚本)的文件的一部分中,存储在专用于所讨论的程序的单个文件中,或存储在多个协调文件中(例如,存储一个或多个模块、子程序或代码部分的文件)。计算机程序可以被部署以在一个计算机上或在位于一个站点上或跨多个站点分布并通过通信网络互连的多个计算机上运行。
本说明书中描述的过程和逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程处理器执行,以通过对输入数据进行操作并生成输出来执行功能。过程和逻辑流程也可以由专用逻辑电路执行,并且装置也可以实施为专用逻辑电路,例如,FPGA(FieldProgrammable Gate Array,现场可编程门阵列)或ASIC(Application SpecificIntegrated Circuit,专用集成电路)。
适合于运行计算机程序的处理器包括例如通用和专用微处理器、以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘或光盘),或可操作地耦合以从该一个或多个大容量存储设备接收数据或向该一个或多个大容量存储设备传递数据、或者从其接收数据并向其传递数据。然而,计算机不需要这样的设备。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
说明书与附图一起旨在被视为是示例性的,其中示例性意味着示例。如本文所使用的,除非上下文另有清楚说明,否则单数形式“一”、“一个”和“该”旨在也包括复数形式。另外,除非上下文另有清楚说明,否则使用“或”旨在包括“和/或”。
虽然本专利文档包含许多细节,但这些细节不应被解释为对任何发明或可能要求保护的范围的限制,而是作为特定于特定发明的特定实施例的特征的描述。在单独的实施例的上下文中在本专利文档中描述的某些特征也可以在单个实施例中组合实施。相反,在单个实施例的上下文中描述的各种特征也可以分别在多个实施例中或以任何合适的子组合实施。此外,尽管特征可以在上面描述为以某些组合起作用并且甚至最初如此要求保护,但是在一些情况下可以从组合排除来自所要求保护的组合的一个或多个特征,并且所要求保护的组合可以针对子组合或子组合的变化。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应该被理解为要求以所示的特定顺序或以先后顺序执行这样的操作或者执行所有示出的操作以实现期望的结果。此外,在本专利文档中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这样的分离。
仅描述了一些实施方式和示例,并且可以基于本专利文档中描述和示出的内容来进行其他实施方式、增强和变化。

Claims (78)

1.一种用于视频处理的方法,包括:
使用亮度块的训练样本来确定用于预测第一色度块的线性模型;以及
使用亮度块的样本集合和线性模型来确定第一色度块的样本;
其中训练样本或样本集合在不使用多抽头降采样滤波器的情况下确定。
2.根据权利要求1所述的方法,其中,线性模型包括第一参数α和第二参数β,并且其中α和β是通过对训练样本进行子采样而从训练样本推导的。
3.根据权利要求2所述的方法,其中,子采样使用非连续亮度样本。
4.根据权利要求1所述的方法,其中,样本集合对应于与第一色度块的样本共位的亮度样本。
5.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
6.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素。
7.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
8.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
9.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块的左侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素。
10.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素。
11.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块的左侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
12.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
13.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧和左侧的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
14.根据权利要求1-4中任一项所述的方法,其中,训练样本对应于亮度块上侧、左侧、右上方和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素。
15.一种用于视频处理的方法,包括:
使用亮度块的训练样本来确定用于预测第一色度块的线性模型;以及
使用亮度块的样本集合和线性模型来确定第一色度块的样本;
其中训练亮度样本被限制为与亮度块相邻的、在用于帧内预测过程的位置处的亮度样本。
16.根据权利要求15所述的方法,其中,第一色度块中的色度样本通过将两抽头滤波器应用于亮度块的样本集合中的第一样本和第二样本而确定,所述亮度块在与色度块的位置相对应的位置处。
17.根据权利要求16所述的方法,其中,第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧相邻样本。
18.根据权利要求16所述的方法,其中,第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧和右上方相邻样本。
19.根据权利要求16所述的方法,其中,第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧相邻样本。
20.根据权利要求16所述的方法,其中,第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧和左下方相邻样本。
21.根据权利要求16至20中任一项所述的方法,其中,两抽头滤波器为平均滤波器。
22.根据权利要求16至21中任一项所述的方法,其中,两抽头滤波器对一加第一样本加第二样本的和进行平均。
23.一种视频处理的方法,包括:
对于当前视频块和当前视频块的比特流表示之间的转换,基于与包括亮度块和第一色度块的当前视频块相关的规则来选择性地确定用于从亮度块的样本集合生成第一色度块的样本的跨分量预测方案;以及
根据跨分量预测方案来生成第一色度块的样本,
其中跨分量预测方案是以下中的一个:
第一跨分量预测方案,其使用根据亮度块的训练样本生成的线性模型,使得训练样本和样本集合在不使用多抽头降采样滤波器的情况下确定;或者
第二跨分量预测方案,在所述第二跨分量预测方案中训练亮度样本被限制为与当前视频块相邻的、在用于帧内预测过程的位置处的亮度样本;
其中规则指定根据当前视频块所属的视频区域来选择跨分量预测方案。
24.根据权利要求23所述的方法,其中,针对当前视频块选择的跨分量预测方案不同于针对视频区域中的另一视频块选择的另一跨分量预测方案。
25.根据权利要求24所述的方法,其中,视频区域包括视频条带。
26.根据权利要求24所述的方法,其中,视频区域包括视频图片。
27.根据权利要求24所述的方法,其中,视频区域包括视频图片序列。
28.根据权利要求23所述的方法,其中,编码条件在当前视频块的编码表示中信令通知。
29.根据权利要求23所述的方法,其中,编码条件没有在当前视频块的编码表示中显式地信令通知。
30.根据权利要求28或29所述的方法,其中,规则指定基于当前视频块的形状或尺寸来选择跨分量预测方案。
31.根据权利要求28或29所述的方法,其中:
训练样本从以下中选择:
亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的左下方像素;
亮度块的上侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块上侧和右上方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
亮度块的左侧相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素;
亮度块的左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右上方像素;
亮度块左侧和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;
训练样本对应于亮度块上侧和左侧的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;或者
亮度块上侧、左侧、右上方和左下方的相邻样本,并且其中亮度块的样本集合对应于亮度块的右下方像素;和/或
其中第一色度块通过将两抽头滤波器应用于亮度块的样本集合中的第一样本和第二样本而确定,所述亮度块在与第一色度块的位置相对应的位置处;
其中第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧相邻样本;
其中第一样本为左下方样本,第二样本为右下方样本,并且其中训练样本对应于上侧和右上方相邻样本;
其中第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧相邻样本;或者
其中第一样本为右上方样本,第二样本为右下方样本,并且其中训练样本对应于左侧和左下方相邻样本。
32.根据权利要求30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而禁用跨分量预测方案,其中T1和T2为整数。
33.根据权利要求30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W*H<=T1而禁用跨分量预测方案。
34.根据权利要求30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而选择特定的跨分量预测方案,其中T1和T2为整数,并且其中特定的跨分量预测方案在编码表示中信令通知。
35.根据权利要求30所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W<=T1且H<=T2而选择特定的跨分量预测方案,其中T1和T2为整数,并且其中特定的跨分量预测方案没有在编码表示中信令通知。
36.根据权利要求32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W*H<=T1而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案在编码表示中信令通知。
37.根据权利要求32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案没有在编码表示中信令通知,其中N为整数。
38.根据权利要求32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案仅使用来自上侧或右上方相邻样本的像素,并且其中特定的跨分量预测方案在编码表示中信令通知。
39.根据权利要求32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于N*W<H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案在编码表示中信令通知,其中N为整数。
40.根据权利要求32所述的方法,其中,当前视频块的宽度为W个像素并且高度为H个像素,并且其中规则指定由于W>N*H而选择特定的跨分量预测方案,并且其中特定的跨分量预测方案仅使用来自左侧或左下方相邻样本的像素。
41.根据权利要求34至40中任一项所述的方法,其中,T1=2。
42.根据权利要求10至17中任一项所述的方法,其中,T2=2。
43.根据权利要求10至17中任一项所述的方法,其中,T1=4。
44.根据权利要求10至17中任一项所述的方法,其中,T2=4。
45.根据权利要求10至17中任一项所述的方法,其中,T2=16。
46.一种视频处理的方法,包括:
对于视频的视频块和视频块的编码表示之间的转换,从视频块的亮度块确定视频块的第一色度块的样本;
其中第一色度块的样本对应于第一中间色度块和N个第二中间色度块的加权组合,
其中第一中间色度块是使用第一跨分量线性模型根据亮度块的第一样本集合生成的,其中第一跨分量线性模型是使用亮度样本的第一训练序列生成的;并且
其中N个第二中间色度块是使用N个第二跨分量线性模型根据亮度块的N个第二样本集合生成的,其中N个第二跨分量线性模型是使用亮度样本的N个第二训练序列生成的,其中N为整数。
47.根据权利要求46所述的方法,其中,第一跨分量线性模型和N个第二跨分量线性模型中的至少一些在视频的区域内彼此不同,其中视频的区域对应于条带、或图片、或视频序列。
48.根据权利要求46-47中任一项所述的方法,其中,编码表示包括第一跨分量线性模型和N个第二跨分量线性模型的标识。
49.根据权利要求47所述的方法,其中,所述标识被包括在序列参数集级别,或图片参数集级别,或条带标头,或编码树单元组、或编码树单元、或编码单元级别中。
50.根据权利要求46-49中任一项所述的方法,其中,编码表示包括对基于取决于视频块的宽度W或视频块的高度H的规则的第一跨分量线性模型和/或N个第二跨分量线性模型的指示。
51.根据权利要求50所述的方法,其中,所述指示被包括在序列参数集级别、或图片参数集级别、或条带标头级别、或编码树单元组级别、或编码树单元级别、或编码块级别中。
52.根据上述权利要求中任一项所述的方法,其中,所述方法基于应用性规则而选择性地应用于当前视频块,所述应用性规则与当前视频块在当前图片内满足位置条件相关。
53.根据权利要求52所述的方法,其中,由于视频块位于编码树单元的上边界,应用性规则指定应用根据上述权利要求所述的方法。
54.根据权利要求52或53所述的方法,其中,由于当前视频块位于编码树单元的左边界,应用性规则指定应用根据上述权利要求所述的方法。
55.根据权利要求1至54中任一项所述的方法,其中,亮度块的样本集合是使用降采样过程生成的,其中第一降采样滤波器用于对视频块内部的亮度样本进行降采样,第二降采样滤波器应用于视频块外部的亮度样本以生成亮度块的样本集合。
56.根据权利要求55所述的方法,其中,第一降采样滤波器对应于联合探索模型(JEM)使用的传统滤波器。
57.根据权利要求55-56中任一项所述的方法,其中,第二降采样滤波器将视频块上侧的亮度样本降采样到左下方和右下方位置。
58.根据权利要求55所述的方法,其中,在上侧与视频块邻近的亮度样本被表示为a[i],然后d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示降采样的亮度样本,其中i为表示水平样本偏移的变量。
59.根据权利要求58所述的方法,其中,如果样本a[2i-1]不可用,则d[i]被确定为d[i]=(3*a[2i]+a[2i+1]+2)>>2。
60.根据权利要求58所述的方法,其中,如果样本a[2i+1]不可用,则d[i]=(a[2i-1]+3*a[2i]+2)>>2。
61.根据权利要求55-56中任一项所述的方法,其中,第二降采样滤波器将外部左侧的亮度样本降采样到右上方和右下方位置。
62.根据权利要求55-56中任一项所述的方法,其中,第二降采样滤波器将外部左侧的亮度样本降采样到右上方和右下方位置之间的中间,使得如果当前块的左侧邻近样本被表示为a[j],则d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示降采样的亮度样本。
63.一种视频处理的方法,包括:
使用降采样过程对亮度块的样本集合进行降采样,其中在降采样过程中使用的降采样滤波器取决于被降采样以生成亮度块的降采样样本集合的亮度样本的位置;
使用线性模型从亮度块的降采样样本集合确定第一色度块的样本。
64.根据权利要求63所述的方法,其中,线性模型由第一参数α和第二参数β定义,并且其中从亮度样本recL(i,j)将位置(i,j)处的色度样本predc(i,j)确定为:
predc(i,j)=α*recL(i,j)+β。
65.根据权利要求63-64中任一项所述的方法,还包括:
将边界滤波器应用于作为当前视频块的区域的第一色度块的样本。
66.根据权利要求65所述的方法,其中,在上侧与视频块邻近的样本被表示为a[-1][j],第一色度块的第i行和第j列中的样本为a[i][j],然后基于值i选择性地执行应用边界滤波器,并且应用边界滤波器包括计算a’[i][j]=(w1*a[i][j]+w2*a[-1][i]+2N-1)>>N,其中w1+w2=2N表示权重。
67.根据权利要求66所述的方法,其中,应用边界滤波仅针对i<=K执行。
68.根据权利要求66所述的方法,其中,w1和w2为行索引i的函数。
69.根据权利要求65所述的方法,其中,视频块的左侧邻近样本被表示为a[i[[-1],第一色度块的第i行和第j列中的样本为a[i][j],然后基于值j选择性地执行应用边界滤波器,并且应用边界滤波器包括计算a’[i][j]=(w1*a[i][j]+w2*a[i][-1]+2N-1)>>N,其中w1+w2=2N
70.根据权利要求69所述的方法,其中,应用边界滤波仅针对j<=K执行。
71.根据权利要求70所述的方法,其中,w1和w2为列索引j的函数。
72.根据权利要求67或70所述的方法,其中,K=0,w1=w2=1。
73.根据权利要求67或70所述的方法,其中,K=0,w1=3,w2=1。
74.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中所述指令在由处理器运行时使得处理器实施根据权利要求1至73中任一项所述的方法。
75.一种存储在非暂时性计算机可读介质上的计算机程序产品,所述计算机程序产品包括用于执行根据权利要求1至73中任一项所述的方法的程序代码。
76.一种包括处理器的视频解码装置,所述处理器被配置为实施根据权利要求1至73中一项或多项所述的方法。
77.一种包括处理器的视频编码装置,所述处理器被配置为实施根据权利要求1至73中一项或多项所述的方法。
78.一种本文档中描述的方法、装置或系统。
CN201910765291.6A 2018-08-17 2019-08-19 一种处理视频数据的方法和装置 Active CN110839153B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310308740.0A CN116347109A (zh) 2018-08-17 2019-08-19 一种处理视频数据的方法和装置

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CNPCT/CN2018/100965 2018-08-17
CN2018100965 2018-08-17
CN2019071382 2019-01-11
CNPCT/CN2019/071382 2019-01-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202310308740.0A Division CN116347109A (zh) 2018-08-17 2019-08-19 一种处理视频数据的方法和装置

Publications (2)

Publication Number Publication Date
CN110839153A true CN110839153A (zh) 2020-02-25
CN110839153B CN110839153B (zh) 2023-04-07

Family

ID=68104692

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910765291.6A Active CN110839153B (zh) 2018-08-17 2019-08-19 一种处理视频数据的方法和装置
CN202310308740.0A Pending CN116347109A (zh) 2018-08-17 2019-08-19 一种处理视频数据的方法和装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202310308740.0A Pending CN116347109A (zh) 2018-08-17 2019-08-19 一种处理视频数据的方法和装置

Country Status (5)

Country Link
US (2) US11218702B2 (zh)
CN (2) CN110839153B (zh)
GB (1) GB2590844B (zh)
TW (1) TWI814890B (zh)
WO (1) WO2020035837A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021185008A1 (zh) * 2020-03-20 2021-09-23 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器以及电子设备
WO2021238540A1 (zh) * 2020-05-29 2021-12-02 Oppo广东移动通信有限公司 图像编码方法、图像解码方法及相关装置
CN113873263A (zh) * 2020-06-30 2021-12-31 阿里巴巴集团控股有限公司 自适应环路滤波方法及装置
CN114080806A (zh) * 2020-06-03 2022-02-22 北京达佳互联信息技术有限公司 在多跨分量预测(pmc)模式下的色度编解码增强
CN114503570A (zh) * 2020-04-07 2022-05-13 腾讯美国有限责任公司 视频编解码的方法和装置
CN115002485A (zh) * 2020-06-05 2022-09-02 Oppo广东移动通信有限公司 图像编码方法、图像解码方法及相关装置
WO2024153069A1 (en) * 2023-01-16 2024-07-25 Mediatek Inc. Method and apparatus of default model derivation for cross-component model merge mode in video coding system

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020053805A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Single-line cross component linear model prediction mode
GB2589769B (en) 2018-07-15 2023-02-15 Beijing Bytedance Network Tech Co Ltd Cross-component coding order derivation
WO2020035837A1 (en) 2018-08-17 2020-02-20 Beijing Bytedance Network Technology Co., Ltd. Simplified cross component prediction
EP3843391A4 (en) 2018-08-24 2022-06-01 Samsung Electronics Co., Ltd. VIDEO DECODING METHOD AND APPARATUS, AND VIDEO CODING METHOD AND APPARATUS
CN113261291B (zh) 2018-12-22 2024-07-26 北京字节跳动网络技术有限公司 基于多个参数的两步交叉分量预测模式
KR20200083319A (ko) * 2018-12-28 2020-07-08 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
CN113545070B (zh) 2019-03-08 2023-10-03 北京字节跳动网络技术有限公司 视频处理中整形信息的信令通知
MX2021012472A (es) 2019-04-18 2021-11-12 Beijing Bytedance Network Tech Co Ltd Restriccion de la aplicabilidad del modo de componentes cruzados.
BR112021019675A2 (pt) 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
WO2020216302A1 (en) 2019-04-23 2020-10-29 Beijing Bytedance Network Technology Co., Ltd. Intra Prediction and Residual Coding
CN113826393B (zh) * 2019-05-03 2024-08-23 韩国电子通信研究院 图像编码/解码方法和装置以及存储比特流的记录介质
CN117221558A (zh) 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
KR20220024006A (ko) 2019-06-22 2022-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 스케일링을 위한 신택스 요소
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
CN114287131A (zh) 2019-08-19 2022-04-05 北京字节跳动网络技术有限公司 基于计数器的帧内预测模式的更新
GB2586484B (en) * 2019-08-20 2023-03-08 Canon Kk A filter
EP4042692A4 (en) 2019-10-29 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. COMPONENT ADAPTIVE LOOP FILTER
JP7534399B2 (ja) 2019-11-01 2024-08-14 北京字節跳動網絡技術有限公司 クロス成分映像コーディングにおける線形パラメータの導出
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
WO2021115362A1 (en) 2019-12-11 2021-06-17 Beijing Bytedance Network Technology Co., Ltd. Sample padding for cross-component adaptive loop filtering
WO2021136504A1 (en) * 2019-12-31 2021-07-08 Beijing Bytedance Network Technology Co., Ltd. Cross-component prediction with multiple-parameter model
CN115606177A (zh) * 2020-03-21 2023-01-13 抖音视界有限公司(Cn) 在跨分量视频编解码中使用相邻样点
KR20230002433A (ko) 2020-04-18 2023-01-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 교차 성분 비디오 코딩 시그널링 신택스
EP4173290A4 (en) 2020-06-30 2024-01-10 Beijing Bytedance Network Technology Co., Ltd. BOUNDARY LOCATION FOR ADAPTIVE LOOP FILTERING
KR20240122515A (ko) * 2022-01-10 2024-08-12 베이징 다지아 인터넷 인포메이션 테크놀로지 컴퍼니 리미티드 비디오 코딩을 위한 교차-컴포넌트 예측을 위한 방법 및 장치
EP4262206A1 (en) * 2022-04-14 2023-10-18 FG Innovation Company Limited Method for determining specific linear model and video processing device
US20230336748A1 (en) * 2022-04-19 2023-10-19 Tencent America LLC Chroma from luma prediction using mapping and different types
WO2024006409A1 (en) * 2022-06-29 2024-01-04 Beijing Dajia Internet Information Technology Co., Ltd Method and apparatus for cross-component prediction for video coding
US20240031566A1 (en) * 2022-07-20 2024-01-25 Tencent America LLC Signaling of downsampling filters for chroma from luma intra prediction mode
US20240179304A1 (en) * 2022-11-29 2024-05-30 Tencent America LLC Systems and methods for signaling of downsampling filters for chroma from luma intra prediction mode

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107079166A (zh) * 2014-10-28 2017-08-18 联发科技(新加坡)私人有限公司 用于视频编码的引导交叉分量预测的方法
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
CN107409209A (zh) * 2015-03-20 2017-11-28 高通股份有限公司 用于线性模型预测模式的降取样处理
WO2018053293A1 (en) * 2016-09-15 2018-03-22 Qualcomm Incorporated Linear model chroma intra prediction for video coding

Family Cites Families (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259738B1 (en) * 1996-10-31 2001-07-10 Kabushiki Kaisha Toshiba Video encoding apparatus and video decoding apparatus
US9288500B2 (en) * 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
WO2012175003A1 (en) 2011-06-20 2012-12-27 Mediatek Singapore Pte. Ltd. Method and apparatus of chroma intra prediction with reduced line memory
US9693070B2 (en) * 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US8724711B2 (en) * 2011-07-12 2014-05-13 Intel Corporation Luma-based chroma intra prediction
GB2495942B (en) 2011-10-25 2014-09-03 Canon Kk Method and apparatus for processing components of an image
CN103096055B (zh) 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
US9344722B2 (en) * 2011-11-18 2016-05-17 Futurewei Technologies, Inc. Scanning of prediction residuals in high efficiency video coding
WO2013109898A1 (en) 2012-01-19 2013-07-25 Futurewei Technologies, Inc. Reference pixel reduction for intra lm prediction
US9225984B2 (en) * 2012-01-24 2015-12-29 Futurewei Technologies, Inc. Simplification of LM mode
WO2013155662A1 (en) * 2012-04-16 2013-10-24 Mediatek Singapore Pte. Ltd. Methods and apparatuses of simplification for intra chroma lm mode
WO2014154094A1 (en) * 2013-03-26 2014-10-02 Mediatek Inc. Method of cross color intra prediction
JP2017501599A (ja) * 2013-10-07 2017-01-12 ヴィド スケール インコーポレイテッド マルチレイヤビデオコーディングのコンバインドスケーラビリティ処理
US10200700B2 (en) 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
KR102051193B1 (ko) 2014-09-12 2019-12-02 브이아이디 스케일, 인크. 비디오 코딩을 위한 성분간 탈상관
CN107211121B (zh) * 2015-01-22 2020-10-23 联发科技(新加坡)私人有限公司 视频编码方法与视频解码方法
US9998742B2 (en) * 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
WO2016154963A1 (en) 2015-04-01 2016-10-06 Mediatek Inc. Methods for chroma coding in video codec
JP2017538381A (ja) * 2015-10-09 2017-12-21 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ビデオ符号化における成分間予測
US20170150156A1 (en) * 2015-11-25 2017-05-25 Qualcomm Incorporated Illumination compensation with non-square predictive blocks in video coding
US20190306516A1 (en) * 2016-05-24 2019-10-03 Sharp Kabushiki Kaisha Systems and methods for intra prediction coding
WO2017205648A1 (en) * 2016-05-26 2017-11-30 Vid Scale, Inc. Geometric conversion for 360-degree video coding
US10484712B2 (en) 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
US10326986B2 (en) * 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10368107B2 (en) * 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10390015B2 (en) * 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
CN109792516B (zh) 2016-10-04 2021-05-25 联发科技股份有限公司 图像和视频编解码中用于帧内色度编解码的方法及装置
US10477240B2 (en) * 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US10694181B2 (en) 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
JP7036628B2 (ja) * 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
KR20200005539A (ko) 2017-04-11 2020-01-15 브이아이디 스케일, 인크. 면 연속성을 사용하는 360 도 비디오 코딩
CN114422780A (zh) * 2017-04-28 2022-04-29 夏普株式会社 图像解码装置以及图像编码装置
WO2018236028A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
US11190799B2 (en) * 2017-06-21 2021-11-30 Lg Electronics Inc. Intra-prediction mode-based image processing method and apparatus therefor
WO2019010267A1 (en) * 2017-07-05 2019-01-10 Arris Enterprises Llc POST-FILTERING FOR WEIGHTED ANGULAR PREDICTION
JP2021005741A (ja) 2017-09-14 2021-01-14 シャープ株式会社 画像符号化装置及び画像復号装置
GB2567249A (en) 2017-10-09 2019-04-10 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
US10965941B2 (en) * 2017-10-09 2021-03-30 Qualcomm Incorporated Position-dependent prediction combinations in video coding
WO2020053805A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Single-line cross component linear model prediction mode
GB2571313B (en) 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
US10609402B2 (en) * 2018-05-02 2020-03-31 Tencent America LLC Method and apparatus for prediction and transform for small blocks
US20190342546A1 (en) * 2018-05-03 2019-11-07 FG Innovation Company Limited Device and method for coding video data based on different reference sets in linear model prediction
WO2020009357A1 (ko) * 2018-07-02 2020-01-09 엘지전자 주식회사 Cclm에 기반한 인트라 예측 방법 및 그 장치
WO2020035837A1 (en) 2018-08-17 2020-02-20 Beijing Bytedance Network Technology Co., Ltd. Simplified cross component prediction
WO2020094061A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Multi-models for intra prediction
CA3121671C (en) 2018-12-07 2024-06-18 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
US11095921B2 (en) * 2018-12-18 2021-08-17 Tencent America LLC Method and apparatus for video encoding or decoding
AU2020226565C1 (en) 2019-02-22 2024-01-11 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
AU2020226566A1 (en) 2019-02-24 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
US11115658B2 (en) 2019-06-25 2021-09-07 Qualcomm Incorporated Matrix intra prediction and cross-component linear model prediction harmonization for video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107079166A (zh) * 2014-10-28 2017-08-18 联发科技(新加坡)私人有限公司 用于视频编码的引导交叉分量预测的方法
CN107409209A (zh) * 2015-03-20 2017-11-28 高通股份有限公司 用于线性模型预测模式的降取样处理
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
WO2018053293A1 (en) * 2016-09-15 2018-03-22 Qualcomm Incorporated Linear model chroma intra prediction for video coding

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JIANLE CHEN 等: "JCTVC-E266:CE6.a.4: Chroma intra prediction by reconstructed luma samples", 《JOINT COLLABORATIVE TEAM ON VIDEO CODING (JCT-VC)OF ITU-T SG16 WP3 AND ISO/IEC JTC1/SC29/WG11 5TH MEETING: GENEVA, 16-23 MARCH, 2011》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021185008A1 (zh) * 2020-03-20 2021-09-23 Oppo广东移动通信有限公司 编码方法、解码方法、编码器、解码器以及电子设备
CN113497937A (zh) * 2020-03-20 2021-10-12 Oppo广东移动通信有限公司 图像编码方法、图像解码方法及相关装置
CN113497937B (zh) * 2020-03-20 2023-09-05 Oppo广东移动通信有限公司 图像编码方法、图像解码方法及相关装置
CN114503570A (zh) * 2020-04-07 2022-05-13 腾讯美国有限责任公司 视频编解码的方法和装置
WO2021238540A1 (zh) * 2020-05-29 2021-12-02 Oppo广东移动通信有限公司 图像编码方法、图像解码方法及相关装置
US11985309B2 (en) 2020-05-29 2024-05-14 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Picture coding method, picture decoding method, and related apparatuses
CN114080806A (zh) * 2020-06-03 2022-02-22 北京达佳互联信息技术有限公司 在多跨分量预测(pmc)模式下的色度编解码增强
CN114080806B (zh) * 2020-06-03 2022-11-11 北京达佳互联信息技术有限公司 在多跨分量预测(pmc)模式下的色度编解码增强
CN115002485A (zh) * 2020-06-05 2022-09-02 Oppo广东移动通信有限公司 图像编码方法、图像解码方法及相关装置
CN113873263A (zh) * 2020-06-30 2021-12-31 阿里巴巴集团控股有限公司 自适应环路滤波方法及装置
WO2024153069A1 (en) * 2023-01-16 2024-07-25 Mediatek Inc. Method and apparatus of default model derivation for cross-component model merge mode in video coding system

Also Published As

Publication number Publication date
TWI814890B (zh) 2023-09-11
US20220124341A1 (en) 2022-04-21
US11677956B2 (en) 2023-06-13
CN116347109A (zh) 2023-06-27
GB202102253D0 (en) 2021-03-31
GB2590844A (en) 2021-07-07
GB2590844B (en) 2023-05-03
CN110839153B (zh) 2023-04-07
TW202017376A (zh) 2020-05-01
US20210092395A1 (en) 2021-03-25
US11218702B2 (en) 2022-01-04
WO2020035837A1 (en) 2020-02-20

Similar Documents

Publication Publication Date Title
CN110839153B (zh) 一种处理视频数据的方法和装置
US11812026B2 (en) Single-line cross component linear model prediction mode
US11765345B2 (en) Multiple prediction blocks for one intra-coded block
US11943444B2 (en) Restricted upsampling process in matrix-based intra prediction
WO2020143825A1 (en) Size dependent cross-component linear model
US11659185B2 (en) Matrix-based intra prediction using upsampling
US11463729B2 (en) Matrix-based intra prediction using filtering
US20240048762A1 (en) Context coding for matrix-based intra prediction
CN112997500B (zh) 对基于区域的自适应环路滤波器的改进
US20230057982A1 (en) Matrix-based intra prediction using filtering
WO2020233711A1 (en) Linear model mode parameter derivation with multiple lines
WO2024078635A1 (en) Down-sampling methods and ratios for super-resolution based video coding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant