CN110896478B - 交叉分量线性建模中的下采样 - Google Patents

交叉分量线性建模中的下采样 Download PDF

Info

Publication number
CN110896478B
CN110896478B CN201910866496.3A CN201910866496A CN110896478B CN 110896478 B CN110896478 B CN 110896478B CN 201910866496 A CN201910866496 A CN 201910866496A CN 110896478 B CN110896478 B CN 110896478B
Authority
CN
China
Prior art keywords
block
sample points
luma
chroma
cclm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910866496.3A
Other languages
English (en)
Other versions
CN110896478A (zh
Inventor
张凯
张莉
刘鸿彬
王悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of CN110896478A publication Critical patent/CN110896478A/zh
Application granted granted Critical
Publication of CN110896478B publication Critical patent/CN110896478B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/59Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial sub-sampling or interpolation, e.g. alteration of picture size or resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Amplifiers (AREA)
  • Superconductors And Manufacturing Methods Therefor (AREA)
  • Powder Metallurgy (AREA)

Abstract

本发明涉及交叉分量线性建模中的下采样。描述了包括交叉分量预测的用于数字视频编码的设备、系统和方法。在典型的方面,一种用于视频编码的方法包括:接收包含亮度分量和色度分量的视频数据的当前块的比特流表示,基于通过对亮度分量的第二组样本点进行下采样生成的第一组样本点来确定线性模型的参数,以及基于线性模型的参数,处理比特流以生成当前块。

Description

交叉分量线性建模中的下采样
相关申请的交叉引用
根据适用的《专利法》和/或《巴黎公约》的规定,本申请及时要求于2018年9月12日提交的国际专利申请号PCT/CN2018/105182、2018年9月29日提交的PCT/CN2018/108681和2019年5月22日提交的PCT/CN2019/088005的优先权和利益。将上述申请的全部公开以引用方式并入本文,作为本申请公开的一部分。
技术领域
本申请文件涉及视频编码和解码技术、设备和系统。
背景技术
尽管视频压缩有所进步,数字视频在互联网和其它数字通信网络上使用的带宽仍然最大。随着能够接收和显示视频的连接用户设备数量的增加,预计数字视频使用的带宽需求将继续增长。
发明内容
描述了与数字视频编码相关的设备、系统和方法,具体地说,描述了视频编码中交叉分量线性模型(CCLM)预测模式的低复杂度实现。所述方法可应用于现有视频编码标准(例如,高效视频编码(HEVC))和未来视频编码标准(例如,多功能视频编码(VVC))或编解码器。
在一个示例方面,公开了一种视频处理方法。该方法包括:对于视频和视频的编码表示之间的转换,至少使用亮度(luma)块外的下采样亮度样本点,确定用于预测与亮度块共位的视频的第一色度(chroma)块的线性模型;使用亮度块内的下采样亮度样本点和线性模型,确定第一色度块的样本点的预测值;以及基于第一色度块的样本点的预测值执行转换;其中,通过对亮度块外的亮度样本点应用外部滤波器来获得亮度块外的下采样亮度样本点;并且其中,通过对亮度块内的亮度样本点应用内部滤波器获得亮度块内的下采样亮度样本点。
在另一示例方面,公开了一种视频处理方法。该方法包括:对于视频和视频的编码表示之间的转换,基于使用可用相邻样本点的数量或第一分量块的尺寸的规则,在转换期间确定用于从第二分量块预测第一分量块的一个或多个交叉分量线性模型(CCLM);以及使用交叉分量线性模型执行转换,其中交叉分量线性模型是以下中的一个:从第一分量块的上方和/或右上相邻值导出的CCLM(CCLM-A);从第一分量块的左侧和/或左下相邻值导出的CCLM(CCLM-T);或仅从第一个分量块的左侧和上方相邻值导出的CCLM(CCLM-TL)。
在另一示例方面,公开了一种视频处理方法。该方法包括:使用第一下采样方案生成与视频的色度块外的色度样本点相对应的下采样外亮度样本点;使用第二下采样方案生成与色度块内的色度样本点相对应的下采样内亮度样本点;至少使用下采样外亮度样本点来导出交叉分量预测的线性模型;使用线性模型和下采样内亮度样本点确定色度块的预测样本点;以及使用色度块的预测样本点执行视频和视频的编码表示之间的转换。
在另一示例方面,公开了一种视频处理方法。该方法包括:为视频的色度块和视频的编码表示之间的转换确定线性模型;基于线性模型从与色度块相对应的亮度块生成色度块的预测值;以及使用线性模型执行转换;其中,从亮度块预测色度块包括:通过第一滤波方法下采样亮度块上方的亮度样本点,以及通过第二滤波方法下采样亮度块左侧的亮度样本点,并且其中至少基于下采样亮度样本点确定线性模型。
在另一示例方面,公开了一种视频处理方法。该方法包括:基于视频的色度块的高度(H)和宽度(W),为视频和视频的比特流之间的转换确定线性模型的参数,其中线性模型的参数基于与色度块外的色度样本点相对应的下采样亮度样本点,并且其中H和W是正整数;基于线性模型的参数和与色度块相对应的亮度块内的一组下采样亮度样本点生成色度块的一组样本点;以及基于生成执行视频和比特流表示之间的转换。
在另一示例方面,公开了一种视频处理方法。该方法包括:基于视频的色度块的高度(H)和宽度(W),为视频和视频的比特流表示之间的转换确定线性模型的参数,其中线性模型的参数基于通过对与色度块外的色度样本点相对应的第二组亮度样本点进行下采样生成的第一组亮度样本点,并且其中第一组亮度样本点的数量基于高度或宽度,并且其中H和W是正整数;基于线性模型的参数和与色度块相对应的亮度块内的一组下采样亮度样本点生成色度块的一组样本点;以及基于生成执行视频和比特流表示之间的转换。
在一个典型方面中,所公开的技术可用于提供用于交叉分量预测的方法。该视频编码的示例性方法包括:接收包含亮度分量和色度分量的视频数据的当前块的比特流表示,基于通过对亮度分量的第二组样本点进行下采样生成的第一组样本点来确定线性模型的参数,以及基于线性模型的参数,处理比特流以生成当前块。
在另一个典型方面,公开了一种视频编码方法。该方法包括:在视频的当前块和当前块的比特流表示之间的转换期间,基于通过对亮度分量的第二组样本点进行下采样生成的第一组样本点使用线性模型的参数;以及基于线性模型的参数执行比特流表示和当前块之间的转换。
在另一典型方面,公开了一种视频处理方法。该方法包括:使用交叉分量线性模型在当前视频块和当前视频块的比特流表示之间执行转换,其中使用交叉分量线性模型的转换使用多行亮度样本点,至少一行与当前视频块不相邻。
在又一典型方面,上述方法以处理器可执行代码的形式实现并存储在计算机可读程序介质中。
在又一典型方面,公开了一种被配置或可操作以执行上述方法的设备。该设备可以包括被编程以实现该方法的处理器。
在又一典型方面,视频解码器装置可以实现本文所述的方法。
在附图、说明书和权利要求中更详细地描述了所公开技术的上述和其他方面及特征。
附图说明
图1示出了用于推导用于交叉分量预测的线性模型的权重的样本点的位置的示例。
图2示出了将相邻样本点分类为两组的示例。
图3A示出了色度样本点及其对应的亮度样本点的示例。
图3B示出了联合探索模型(JEM)中交叉分量线性模型(CCLM)的下滤波的示例。
图4示出了对应于单个色度样本点的四个亮度样本点的示例性布置。
图5A和5B示出了具有相邻样本点的4×4色度块的样本点以及相应的亮度样本点的示例。
图6A至6J示出了没有亮度样本点下滤波的CCLM的示例。
图7A至7D示出了仅要求用于正常帧内预测的相邻亮度样本点的CCLM的示例。
图8A和8B示出了在编码树单元(CTU)的边界处的编码单元(CU)的示例。
图9示出67个帧内预测模式的示例。
图10A和10B示出了非正方形块的广角帧内预测模式的参考样本点的示例。
图11示出了使用广角帧内预测时的不连续的示例。
图12A至12D示出了由位置相关帧内预测组合(PDPC)方法使用的样本点的示例。
图13A和13B示出了当前块内和当前块外的下采样亮度样本点位置的示例。
图14示出了根据所公开的技术的交叉分量预测的又一示例方法的流程图。
图15是用于实现本文所述的视觉媒体解码或视觉媒体编码技术的硬件平台的示例的框图。
图16示出了将不同的亮度下采样方法组合在一起的示例。
图17A和17B示出了具有单行相邻亮度样本点的LM预测的示例。
图18A至18C示出了具有相邻亮度样本点的LM预测的示例。
图19是视频处理的示例方法的流程图。
图20是视频处理的示例方法的流程图。
图21是视频处理的示例方法的流程图。
图22是视频处理的示例方法的流程图。
图23是视频处理的示例方法的流程图。
图24是视频处理的示例方法的流程图。
图25是可以实现所公开的技术的示例性视频处理系统的框图。
具体实施方式
由于对高分辨率视频的需求日益增加,视频编码方法和技术在现代技术中无处不在。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且不断地被改进以提供更高的编码效率。视频编解码器将未压缩的视频转换为压缩格式,或反之亦然。视频质量、用于表示视频的数据量(由比特率决定)、编码和解码算法的复杂度、对数据丢失和错误的敏感度、易于编辑、随机访问和端到端延迟(时延)之间存在复杂的关系。压缩格式通常符合标准视频压缩规范,例如,高效视频编码(HEVC)标准(也称为H.265或MPEG-H第2部分)、待定案多功能视频编码标准(VVC)或其它当前和/或未来的视频编码标准。
所公开技术的实施例可以应用于现有的视频编码标准(例如,HEVC,H.265)和未来的标准,以改进运行时间性能。本文中使用章节标题以提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实现)仅限于各个章节。
1.交叉分量预测的实施例
交叉分量预测是在复杂度和压缩效率提高之间有很好的平衡的色度-亮度预测方法的一种形式。
1.1交叉分量线性模型(CCLM)的示例
在一些实施例中,为了降低交叉分量冗余,在JEM中使用交叉分量线性模型(CCLM)预测模式(也称为LM),其中,使用如下线性模型基于相同CU的重构亮度样本点预测色度样本点:
predC(i,j)=α·recL′(i,j)+β (1)
这里,predC(i,j)表示CU中的预测色度样本点,并且recL′(i,j)表示色彩格式为4:2:0或4:2:2的相同CU的下采样重构亮度样本点,而recL′(i,j)表示色彩格式为4:4:4的相同CU的重构亮度样本点。CCLM参数α和β通过最小化当前块周围的相邻重构的亮度和色度样本点之间的回归误差如下导出:
Figure GDA0003851526030000061
Figure GDA0003851526030000062
这里,L(n)表示向下采样(对于色彩格式4:2:0或4:2:2)或原始(对于色彩格式4:4:4)顶部和左侧相邻的重构亮度样本点,C(n)表示顶部和左侧相邻重构色度样本点,并且N的值等于当前色度编码块的宽度和高度的最小值的两倍。
在一些实施例中,并且对于正方形形状的编码块,直接应用上述两个等式。在其他实施例中,对于非正方形编码块,首先对较长边界的相邻样本点进行子采样,以具有与较短边界相同的样本点数。图1示出了在CCLM模式中所涉及的左、上重构样本点和当前块的样本点的位置。
在一些实施例中,这种回归误差最小化计算是作为解码处理的一部分执行的,不仅仅是作为编码器搜索操作执行的,因此不使用语法来传递α和β值。
在一些实施例中,CCLM预测模式还包括两个色度分量之间的预测,例如,从Cb(蓝差)分量预测Cr(红差)分量。在残差域中采用CCLM Cb到Cr预测方法,而不是使用重构样本点信号。这是通过将加权重构的Cb残差加到原始Cr帧内预测以形成最终Cr预测来实现的:
Figure GDA0003851526030000064
这里,resiCb′(i,j)表示位置(i,j)处的重构Cb残差样本点。
在一些实施例中,比例因子α可以与CCLM亮度到色度预测类似的方式导出。唯一的区别在于误差函数中增加了相对于默认α值的回归成本,以便导出的比例因子偏向于默认值-0.5,如下所示:
Figure GDA0003851526030000063
这里,Cb(n)表示相邻的重构Cb样本点,Cr(n)表示相邻的重构Cr样本点,并且λ等于∑(Cb(n)·Cb(n))>>9。
在一些实施例中,CCLM亮度到色度预测模式被添加为一个附加的色度帧内预测模式。在编码器侧,增加了对色度分量的一个或多个RD成本检查用于选择色度帧内预测模式。当除CCLM亮度到色度预测模式以外的帧内预测模式用于CU的色度分量时,CCLM Cb到Cr预测用于Cr分量预测。
在JEM和VTM-2.0中,CCLM中的训练样本点的总数必须是2N的形式。假设当前块尺寸为W×H,如果W不等于H,则抽取样本点数较多的下采样亮度样本点集,以匹配样本点数较少的下采样亮度样本点集。
1.2多模型CCLM的示例
在JEM中,有两种CCLM模式:单模型CCLM模式和多模型CCLM模式(MMLM)。顾名思义,单模型CCLM模式采用一个线性模型来从整个CU的亮度样本点预测色度样本点,而在MMLM模型中,可以有两个模型。
在MMLM中,将当前块的相邻亮度样本点和相邻色度样本点分为两组,每组用作训练集以导出线性模型(即,为特定组导出特定α和β)。此外,当前亮度块的样本点也基于与相邻亮度样本点相同的分类规则进行分类。
图2示出了将相邻样本点分类为两组的示例。Threshold计算为相邻重构亮度样本点的平均值。将Rec′L[x,y]<=Threshold的相邻样本点分类为组1,将Rec′L[x,y]>Threshold的相邻样本点分类为组2。
Figure GDA0003851526030000071
1.3CCLM中的下采样滤波器的示例
在一些实施例中,为了执行交叉分量预测,对于4:2:0色度格式(其中4个亮度样本点对应于1个色度样本点),需要对重构亮度块进行下采样以匹配色度信号的尺寸。CCLM模式中使用的默认下采样滤波器如下:
Figure GDA0003851526030000072
这里,下采样将“类型0”假设为如图3A所示的色度样本点的位置相对于亮度样本点的位置的相位关系,例如水平共位采样和垂直间隙采样。
在(7)中定义的示例性6抽头下采样滤波器用作单模型CCLM模式和多模型CCLM模式的默认滤波器。
在一些实施例中,对于MMLM模式,编码器可以或者选择要应用于CU中的预测的四个附加亮度下采样滤波器中的一个,并发送滤波器索引索引以指示使用这些滤波器中的哪一个。如图3B所示,MMLM模式的四个可选亮度下采样滤波器如下:
Rec′L[x,y]=(RecL[2x,2y]+RecL[2x+1,2y]+1)>>1 (8)
Rec′L[x,y]=(RecL[2x+1,2y]+RecL[2x+1,2y+1]+1)>>1 (9)
Rec′L[x,y]=(RecL[2x,2y+1]+RecL[2x+1,2y+1]+1)>>1 (10)
Rec′L[x,y]=(RecL[2x,2y]+RecL[2x,2y+1]+RecL[2x+1,2y]+RecL[2x+1,2y+1]+2)>>2 (11)
1.4与交叉分量预测相关的示例性实施例
先前提出的CCLM方法包括但不限于:
-仅要求在正常帧内预测中使用的相邻亮度样本点;以及
-不需要对亮度样本点进行下采样,或通过简单的两个样本点的平均进行下采样。
下面描述的先前提出的示例假定色彩格式为4:2:0。如图3A所示,一个色度(Cb或Cr)样本点(用三角形表示)对应于四个亮度(Y)样本点(用圆圈表示):A、B、C和D,如图4所示。图5A-5B示出了具有相邻样本点的4×4色度块的样本点和对应的亮度样本点的示例。
示例1.在一个示例中,提出了在不对亮度样本点进行下采样滤波的情况下做出CCLM。
(a)在一个示例中,在CCLM参数(例如,α和β)导出处理中移除相邻亮度样本点的下采样处理。相反,下采样处理被其中使用非连续亮度样本点的子采样处理所代替。
(b)在一个示例中,在CCLM色度预测处理中移除共位亮度块中的样本点的下采样处理。相反,仅使用共位亮度块中的部分亮度样本点来导出色度样本点的预测块。
(c)图6A至6J示出对应于4×4色度块的8×8亮度块上的示例。
(d)在如图6A所示的一个示例中,使用图4中位置“C”处的亮度样本点来对应色度样本点。在训练处理中使用上方相邻样本点来推导线性模型。
(e)在如图6B所示的一个示例中,使用图4中位置“C”处的亮度样本点来对应色度样本点。在训练处理中使用上方相邻样本点和右上方相邻样本点来推导线性模型。
(f)在如图6C所示的一个示例中,使用图4中位置“D”处的亮度样本点来对应色度样本点。在训练处理中使用上方相邻样本点来推导线性模型。
(g)在如图6D所示的一个示例中,使用图4中位置“D”处的亮度样本点来对应色度样本点。在训练处理中使用上方相邻样本点和右上方相邻样本点来推导线性模型。
(h)在如图6E所示的一个示例中,使用图4中位置“B”处的亮度样本点来对应色度样本点。在训练处理中使用左侧相邻样本点来推导线性模型。
(i)在如图6F所示的一个示例中,使用图4中位置“B”处的亮度样本点来对应色度样本点。在训练处理中使用左侧相邻样本点和左下相邻样本点来推导线性模型。
(j)在如图6G所示的一个示例中,使用图4中位置“D”处的亮度样本点来对应色度样本点。在训练处理中使用左侧相邻样本点来推导线性模型。
(k)在如图6H所示的一个示例中,使用图4中位置“D”处的亮度样本点来对应色度样本点。在训练处理中使用左侧相邻样本点和左下相邻样本点来推导线性模型。
(l)在如图6I所示的一个示例中,使用图4中位置“D”处的亮度样本点来对应色度样本点。在训练处理中使用上方相邻样本点和左侧相邻样本点来推导线性模型。
(m)在如图6J所示的一个示例中,使用图4中位置“D”处的亮度样本点来对应色度样本点。在训练处理中使用上方相邻样本点、左侧相邻样本点、右上方相邻样本点和左下相邻样本点来推导线性模型。
示例2.在一个示例中,提出CCLM只需要在正常帧内预测处理中使用的相邻亮度样本点,即不允许在CCLM处理中使用其他相邻亮度样本点。在一个示例中,CCLM是通过对亮度样本点进行2抽头滤波做出的。图7A-7D示出了对应于4×4色度块的8×8亮度块上的示例。
(a)在如图7A所示的一个示例中,将图4中位置“C”和位置“D”处的亮度样本点滤波为F(C,D)以用于对应色度样本点。在训练处理中使用上方相邻样本点来推导线性模型。
(b)在如图7B所示的一个示例中,将图4中位置“C”和位置“D”处的亮度样本点滤波为F(C,D)以用于对应色度样本点。在训练处理中使用上方相邻样本点和右上方相邻样本点来推导线性模型。
(c)在如图7C所示的一个示例中,将图4中位置“B”和位置“D”处的亮度样本点滤波为F(B,D)以用于对应色度样本点。在训练处理中使用左侧相邻样本点来推导线性模型。
(d)在如图7D所示的一个示例中,将图4中位置“B”和位置“D”处的亮度样本点滤波为F(B,D)以用于对应色度样本点。在训练处理中使用左侧相邻样本点和左下相邻样本点来推导线性模型。
(e)在一个示例中,F被定义为F(X,Y)=(X+Y)>>1。或者,F(X,Y)=(X+Y+1)>>1。
示例3.在一个示例中,可以以选择性的方式应用先前提出的CCLM方法(例如,本章节中的示例1和2)。也就是说,区域、条带、图片或序列中的不同块可以选择不同种类的先前提出的CCLM方法。
a)在一个实施例中,编码器从预定义的候选集中选择一种先前提出的CCLM方法,并将其发送给解码器。
(i)例如,编码器可以在示例1(a)和示例1(e)之间进行选择。或者,可以在示例1(b)和示例1(f)之间进行选择。或者,可以在示例1(c)和示例1(g)之间进行选择。或者,可以在示例1(d)和示例1(h)之间进行选择。或者,可以在示例2(a)和示例2(c)之间进行选择。或者,可以在示例2(b)和示例2(d)之间进行选择。
(ii)从中选择的候选集和信令方式可取决于块的形状或尺寸。假设W和H表示色度块的宽度和高度,T1和T2是整数。
(1)在一个示例中,如果W<=T1且H<=T2,则没有候选,例如,CCLM被禁用。例如,T1=T2=2。
(2)在一个示例中,如果W<=T1或H<=T2,则没有候选,例如,CCLM被禁用。例如,T1=T2=2。
(3)在一个示例中,如果W×H<=T1,则没有候选,例如,CCLM被禁用。例如,T1=4。
(4)在一个示例中,如果W<=T1且H<=T2,则只有一个候选,例如示例1(i)。不信令通知CCLM方法选择信息。例如,T1=T2=4。
(5)在一个示例中,如果W<=T1或H<=T2,则只有一个候选,例如,示例1(i)。不信令通知CCLM方法选择信息。例如,T1=T2=4。
(6)在一个示例中,如果W×H<=T1,则只有一个候选,例如,示例1(i)。不信令通知CCLM方法选择信息。例如,T1=16。
(7)在一个示例中,如果W>H,则只有一个候选,例如,示例1(a)。不信令通知CCLM方法选择信息。或者,如果W>H(或W>N*H,其中N是正整数),则候选集中仅包括在推导CCLM参数时使用上方或/和右上相邻重构样本点的候选(或一些候选)。
(8)在一个示例中,如果W<H,则只有一个候选,例如,示例1(e)。不信令通知CCLM方法选择信息。或者,如果W<H(或N*W<H),则候选集中仅包括在推导CCLM参数时使用左侧或/和左下相邻重构样本点的候选(或一些候选)。
(b)在一个实施例中,编码器和解码器都基于相同规则选择先前提出的CCLM方法。编码器不将其向解码器信令通知。例如,选择可以取决于块的形状或尺寸。在一个示例中,如果宽度大于高度,则选择示例1(a),否则选择示例1(e)。
(c)可在序列参数集/图片参数集/条带报头/CTU/CTB/CTU组中信令通知一个或多个先前提出的CCLM候选集。
示例4.在一个示例中,提出可将多个CCLM方法(例如,示例1和2)应用于同一色度块。也就是说,区域/条带/图片/序列中的一个块可以选择不同种类的先前提出的CCLM方法,来导出多个中间色度预测块,并且从多个中间色度预测块导出最终色度预测块。
(a)或者,可以首先从多个选定的CCLM方法导出多组CCLM参数(例如,α和β)。可从多组中导出最后一组CCLM参数并用于色度预测块生成处理。
(b)可以(隐式地或显式地)以与示例3中描述的类似的方式来信令通知多个CCLM方法的选择。
(c)可在序列参数集/图片参数集/条带报头/CTU/组/CTU/编码块中信令通知提出的方法的使用指示。
示例5.在一个示例中,是否以及如何应用先前提出的CCLM方法可取决于当前块的位置。
(a)在一个示例中,在如图8A所示的位于当前CTU的上边界的CU上应用一个或多个所提出的方法。
(b)在一个示例中,在如图8B所示的位于当前CTU的左边界的CU上应用一个或多个所提出的方法。
(c)在一个示例中,在上述两种情况中均应用一种或多种所提出的方法。
1.5VVC中的CCLM的示例
在一些实施例中,VTM-2.0中采用如JEM中的CCLM,但VTM-2.0中不采用JEM中的MM-CCLM。
VTM-5.0中的CCLM
在VTM-5.0中,除了LM模式外,还采用JVET-L0338中提出的另外两种CCLM模式(LM-A和LM-T)。LM-A仅使用当前块上方或右上方的相邻样本点,并且LM-T仅使用当前块左侧或左下方的相邻样本点来导出CCLM参数。
CCLM的解码处理
在VTM-5.0中,LM推导处理简化为JVET-N0271中提出的4点最大-最小(max-min)方法。相应的工作草案如下所示。
INTRA_LT_CCLM、INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范
该处理的输入包括:
–帧内预测模式predModeIntra,
–当前变换块的左上样本点相对于当前图片的左上样本点的采样位置(xTbC,yTbC);
–指定变换块宽度的变量nTbW,
–指定变换块高度的变量nTbH,
–色度相邻样本点p[x][y],其中x=-1,y=0..2*nTbH–1和x=0..2*nTbW-1,y=-1。
该处理的输出为预测样本点predSamples[x][y],其中
x=0..nTbW-1,y=0..nTbH-1。
当前亮度位置(xTbY,yTbY)推导如下:
(xTbY,yTbY)=(xTbC<<1,yTbC<<1) (8-156)
变量availL,availT和availTL推导如下:
–在当前色度位置(xCUrr,yCUrr)设置为等于(xTbC,yTbC)并且相邻色度位置(xTbC-1,yTbC)作为输入的情况下,调用第6.4.X条[Ed.(BB):相邻块可用性检查处理待定]中指定的块的左侧相邻样本点的推导处理的可用性,并且将输出被分配给availL。
–在当前色度位置(xCUrr,yCUrr)设置为等于(xTbC,yTbC)并且相邻色度位置(xTbC,yTbC-1)作为输入的情况下,调用第6.4.X条[Ed.(BB):相邻块可用性检查处理待定]中指定的块的上方相邻样本点的推导处理的可用性,并且将输出被分配给availT。
–在当前色度位置(xCUrr,yCUrr)设置为等于(xTbC,yTbC)并且相邻色度位置(xTbC-1,yTbC-1)作为输入的情况下,调用第6.4.X条[Ed.(BB):相邻块可用性检查处理待定]中指定的块的左上方相邻样本点的推导处理的可用性,并且将输出被分配给availTL。
–可用的右上相邻色度样本点的数量numTopRight推导如下:
–变量numTopRight设置为等于0,availTR设置为TRUE。
–当predModeIntra等于INTRA_T_CCLM时,以下情况适用于x=nTbW..2*nTbW-1,直到availTR等于假(FALSE)或x等于2*nTbW-1:
–在当前色度位置(xCUrr,yCUrr)设置为等于(xTbC,yTbC)并且相邻色度位置(xTbC+x,yTbC-1)作为输入的情况下,调用第6.4.X条[Ed.(BB):相邻块可用性检查处理待定]中指定的块的推导处理的可用性,并且将输出被分配给availableTR。
–当availableTR等于真(TRUE)时,numTopRight增加1。
–可用的左下相邻色度样本点的数量numLeftBelow导出如下:
–变量numLeftBelow设置为0,且availLB设置为真。
-当predModeIntra等于INTRA_L_CCLM时,以下情况适用于y=nTbH..2*nTbH-1,直到availLB等于假(FALSE)或y等于2*nTbH-1:
–在当前色度位置(xCUrr,yCUrr)设置为等于(xTbC,yTbC)并且相邻色度位置(xTbC-1,yTbC+y)作为输入的情况下,调用第6.4.X条[Ed.
(BB):相邻块可用性检查处理待定]中指定的块的推导处理的可用性,并且将输出被分配给availableLB。
–当availableLB等于真时,numLeftBelow增加1。
-上方和右上可用相邻色度样本点的数量numTopSamp、以及左侧和左下可用相邻色度样本点的数量nLeftSamp导出如下:
–如果predModeIntra等于INTRA_LT_CCLM,则以下适用:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
–否则,以下适用:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0(8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary导出如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE. (8-161)
变量cntN和数组pickPosN(N替换为L和T)导出如下:
–变量numIs4N设置为等于((availT&&availL&&predModeIntra==INTRA_LT_CCLM)?0:1).
–变量startPosN设置为等于numSampN>>(2+numIs4N).
–变量pickStepN设置为等于Max(1,numSampN>>(1+numIs4N)).
–如果availN等于TRUE并且predModeIntra等于INTRA_LT_CCLM或者INTRA_N_CCLM,则做出如下分配:
–cntN设置为等于Min(numSampN,(1+numIs4N)<<1)
–pickPosN[pos]设置为等于(startPosN+pos*pickStepN),其中pos=0..cntN–1
–否则,cntN设置为等于0。
预测样本点predSamples[x][y]其中x=0..nTbW-1,y=0..nTbH-1导出如下:
–如果numSampL和numSampT二者都等于0,则以下适用:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
–否则,以下顺序步骤适用:
1.共位亮度样本点pY[x][y]其中x=0..nTbW*2-1,y=0..nTbH*2-1设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
2.相邻亮度样本点pY[x][y]导出如下:
–当numSampL大于0时,相邻左侧亮度样本点pY[x][y](其中x=-1..-3,y=0..2*numSampL-1)设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
–当numSampT大于0时,相邻上方亮度样本点pY[x][y](其中x=0..2*numSampT-1,y=-1,-2)设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
–当availTL等于TRUE时,相邻左上亮度样本点pY[x][y](其中x=-1,y=-1,-2)设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
3.下采样共位亮度样本点pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)导出如下:
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–pDsY[x][y](其中x=1..nTbW-1,y=1..nTbH-1)导出如下:
pDsY[x][y]=(pY[2*x][2*y-1]+
pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+
pY[2*x][2*y+1]+4)>>3 (8-163)
–如果availL等于TRUE,则pDsY[0][y](其中y=1..nTbH-1)导出如下:
pDsY[0][y]=(pY[0][2*y-1]+
pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+
pY[0][2*y+1]+4)>>3 (8-164)
–否则,pDsY[0][y](其中y=1..nTbH-1)导出如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
–如果availT等于TRUE,则pDsY[x][0](其中x=1..nTbW-1)导出如下:
pDsY[x][0]=(pY[2*x][-1]+
pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+
pY[2*x][1]+4)>>3 (8-166)
–否则,pDsY[x][0](其中x=1..nTbW-1)导出如下:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
–如果availL等于TRUE并且availT等于TRUE,则pDsY[0][0]
导出如下:
pDsY[0][0]=(pY[0][-1]+
pY[-1][0]+4*pY[0][0]+pY[1][0]+
pY[0][1]+4)>>3 (8-168)
–否则如果availL等于TRUE并且availT等于FALSE,则pDsY[0][0]导出如下:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
–否则如果availL等于FALSE并且availT等于TRUE,则pDsY[0][0]导出如下:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
–否则(availL等于FALSE并且availT等于FALSE),则pDsY[0][0]导出如下:
pDsY[0][0]=pY[0][0] (8-171)
–否则,以下适用:
–pDsY[x][y](其中x=1..nTbW-1,y=0..nTbH-1)导出如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+
2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+
pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
–如果availL等于TRUE,则pDsY[0][y](其中y=0..nTbH-1)导出如下:
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+
2*pY[0][2*y]+2*pY[0][2*y+1]+
pY[1][2*y]+pY[1][2*y+1]+4)>>3 (8-173)
–否则,pDsY[0][y](其中y=0..nTbH-1)导出如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4.当numSampL大于0时,所选择的相邻左侧色度样本点pSelC[idx]设置为等于p[-1][pickPosL[idx]],其中idx=0..cntL–1,并且所选择的下采样相邻左侧亮度样本点pSelDsY[idx](其中idx=0..cntL-1)导出如下:
–变量y设置为等于pickPosL[idx]。
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–如果y大于0或者availTL等于TRUE,则pSelDsY[idx]导出如下:
pSelDsY[idx]=(pY[-2][2*y-1]+
pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+
pY[-2][2*y+1]+4)>>3 (8-175)
–否则:
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
–否则,以下适用:
pSelDsY[idx]=(pY[-1][2*y]+
pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5.当numSampT大于0时,所选择的相邻上方色度样本点pSelC[idx]设置为等于p[pickPosT[idx–cntL]][-1]其中idx=cntL..cntL+cntT–1,并且下采样相邻上方亮度样本点pSelDsY[idx](其中idx=0..cntL+cntT-1)如下规定:
–变量x设置为等于pickPosT[idx–cntL]
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–如果x大于0,则以下适用:
–如果bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[2*x][-3]+
pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+
pY[2*x][-1]+4)>>3 (8-179)
–否则(bCTUboundary等于TRUE),则以下适用:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-180)
–否则:
–如果availTL等于TRUE并且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[0][-3]+
pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+
pY[0][-1]+4)>>3 (8-181)
–否则如果availTL等于TRUE并且bCTUboundary等于TRUE,则以下适用:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-182)
–否则如果availTL等于FALSE并且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
–否则(availTL等于FALSE并且bCTUboundary等于TRUE),则以下适用:
pSelDsY[idx]=pY[0][-1] (8-184)
–否则,以下适用:
–如果x大于0,则以下适用:
–如果bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+
2*pY[2*x][-2]2*pY[2*x][-1]+
pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
–否则(bCTUboundary等于TRUE),则以下适用:
pSelDsY[idx]=(pY[2*x-1][-1]+
2*pY[2*x][-1]+
pY[2*x+1][-1]+2)>>2 (8-186)
–否则:
–如果availTL等于TRUE并且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+
2*pY[0][-2]+2*pY[0][-1]+
pY[1][-2]+pY[1][-1]+4)>>3 (8-187)
–否则如果availTL等于TRUE并且bCTUboundary等于TRUE,则以下适用:
pSelDsY[idx]=(pY[-1][-1]+
2*pY[0][-1]+
pY[1][-1]+2)>>2 (8-188)
–否则如果availTL等于FALSE并且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
–否则(availTL等于FALSE并且bCTUboundary等于TRUE),则以下适用:
pSelDsY[idx]=pY[0][-1] (8-190)
6.当cntT+cntL不等于0时,变量minY,maxY,minC和maxC导出如下:
–当cntT+cntL等于2时,设置pSelComp[3]等于pSelComp[0],pSelComp[2]等于pSelComp[1],pSelComp[0]等于pSelComp[1],并且pSelComp[1]等于pSelComp[3],其中Comp由DsY替代并且C..
–数组minGrpIdx和maxGrpIdx设置如下:
–minGrpIdx[0]=0
–minGrpIdx[1]=2
–maxGrpIdx[0]=1
–maxGrpIdx[1]=3
–当pSelDsY[minGrpIdx[0]]大于pSelDsY[minGrpIdx[1]]时,minGrpIdx[0]和minGrpIdx[1]交换为(minGrpIdx[0],minGrpIdx[1])=交换(minGrpIdx[0],minGrpIdx[1])。
–当pSelDsY[maxGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,maxGrpIdx[0]和maxGrpIdx[1]交换为(maxGrpIdx[0],maxGrpIdx[1])=交换(maxGrpIdx[0],maxGrpIdx[1])。
–当pSelDsY[minGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,数组minGrpIdx和maxGrpIdx交换为(minGrpIdx,maxGrpIdx)=交换(minGrpIdx,maxGrpIdx)。
–当pSelDsY[minGrpIdx[1]]大于pSelDsY[maxGrpIdx[0]]时,minGrpIdx[1]和maxGrpIdx[0]交换为(minGrpIdx[1],maxGrpIdx[0])=交换(minGrpIdx[1],maxGrpIdx[0])。
–maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
–maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
–minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
–minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a、b和k导出如下:
–如果numSampL等于0,并且numSampT等于0,则以下适用:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
–否则,以下适用:
diff=maxY–minY (8-211)
–如果diff不等于0,则以下适用:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]规定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
–否则(diff等于0),以下适用:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样本点predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)导出如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
JVET-L0893
本文提出了多参考行帧内预测(MRLIP),其中,可以通过使用与当前块相邻或非相邻的多个相邻样本点的参考行来生成定向帧内预测。
1.6 VVC中的帧内预测的示例
1.6.1具有67种帧内预测模式的帧内模式编码
为了捕获自然视频中呈现的任意边缘方向,定向帧内模式的数量从HEVC中使用的33个扩展到65个。在图9中,附加的定向模式被描绘为虚线箭头,并且平面模式和DC模式保持相同。这些更密集的定向帧内预测模式适用于所有块尺寸以及亮度和色度帧内预测。
如图9所示,传统的角帧内预测方向被定义为在顺时针方向上从45度到-135度。在VTM2中,对于非正方形块,适应性地用广角帧内预测模式替换几个传统的角帧内预测模式。用原方法信令通知替换后的模式,并在解析后将其重新映射到广角模式的索引。帧内预测模式的总数保持不变(例如,67),并且帧内模式编码保持不变。
在HEVC中,每个帧内编码块都具有正方形形状,并且其每个边的长度都是2的幂。因此,使用DC模式生成帧内预测器不需要划分操作。在VTV2中,块可以具有矩形形状,在一般情况下需要对每个块使用划分操作。为了避免DC预测的划分操作,只使用较长的边来计算非正方形块的平均值。
1.6.2帧内模式编码的示例
在一些实施例中,为了保持MPM列表生成的复杂性低,使用具有3个最可能模式(MPM)的帧内模式编码方法。MPM列表考虑了以下三个方面:
--相邻帧内模式;
--导出帧内模式;以及
--默认帧内模式。
对于相邻帧内模式(A和B),考虑位于左侧和上方的两个相邻块。通过对两个相邻帧内模式执行修剪处理形成初始MPM列表。如果两个相邻模式彼此不同,则在对现有的两个MPM进行修剪检查之后,将其中一个默认模式(例如PLANA(0)、DC(1)、ANGULAR50(例如50))添加到MPM列表中。当两个相邻模式相同时,在修剪检查之后将默认模式或导出模式添加到MPM列表中。三个MPM列表的详细生成过程推导如下:
如果两个相邻候选模式相同(即A==B),
如果A小于2,则candModeList[3]={0,1,50}。
否则,candModeList[0]={A,2+((A+61)%64),2+((A-1)%64)
否则,
如果A和B都不等于0,则candModeList[3]={A,B,0}。
否则,如果A和B都不等于1,则candModeList[3]={A,B,1}。
否则,candModeList[3]={A,B,50}。
附加修剪处理被用于移除重复模式,以便只有唯一的模式才能包含在MPM列表中。对于64个非MPM模式的熵编码,使用6位定长码(FLC)。
1.6.3非正方形块的广角帧内预测
在一些实施例中,传统的角帧内预测方向被定义为在顺时针方向上从45度到-135度。在VTM2中,对于非正方形块,适应性地用广角帧内预测模式替换几个传统的角帧内预测模式。用原方法信令通知替换后的模式,并在解析后将其重新映射到广角模式的索引。特定块的帧内预测模式的总数保持不变(例如,67),并且帧内模式编码保持不变。
为了支持这些预测方向,如图10A和10B中的示例所示,定义了长度为2W+1的顶部参考和长度为2H+1的左侧参考。
在一些实施例中,广角方向模式中替换模式的模式数取决于块的宽高比。替换的帧内预测模式如表1所示。
表1:用广角模式替换帧内预测模式
条件 被替换的帧内预测模式
W/H==2 模式2,3,4,5,6,7
W/H>2 模式2,3,4,5,6,7,8,9,10,11
W/H==1
H/W==1/2 模式61,62,63,64,65,66
H/W<1/2 模式57,58,59,60,61,62,63,64,65,66
如图11所示,在广角帧内预测的情况下,两个垂直相邻的预测样本点可以使用两个非相邻的参考样本点。因此,低通参考样本点滤波器和侧平滑被应用于广角预测以减少增加的间隙Δpα的负面影响。
1.6.4位置相关帧内预测组合(PDPC)的示例
在VTM2中,用位置相关的帧内预测组合(PDPC)方法还修正平面模式的帧内预测结果。PDPC是一种帧内预测方法,其调用未滤波的边界参考样本点和HEVC样式帧内预测与滤波的边界参考样本点的组合。PDPC应用于以下无信令的帧内模式:平面、DC、水平、垂直、左下角模式及其八个相邻角模式、右上角模式及其八个相邻角模式。
使用帧内预测模式(DC、平面、角)和参考样本点的线性组合根据以下等式对预测样本点pred(x,y)进行预测:
pred(x,y)=(wL×R-1,y+wT×Rx,-1–wTL×R-1,-1+(64–wL–wT+wTL)×pred(x,y)+32)>>shift
这里,Rx,-1,R-1,y分别表示位于当前样本点(x,y)的顶部和左侧的参考样本点,并且R-1,-1表示位于当前块的左上角的参考样本点。
在一些实施例中,如果PDPC应用于DC、平面、水平和垂直帧内模式,则不需要额外的边界滤波器,而在HEVC的情况下需要DC模式边界滤波器或水平/垂直模式边缘滤波器。
图12A至12D说明了应用于各种预测模式的PDPC的参考样本点(Rx,-1,R-1,y和R-1,-1)的定义。预测样本点pred(x’,y’)位于预测块内的(x′,y′)处。参考样本点Rx,-1的坐标x由x=x’+y’+1给出,参考样本点R-1,y的坐标y类似地由y=x’+y’+1给出。
在一些实施例中,PDPC权重取决于预测模式,并且如表2所示,其中S=移位(shift)。
表2:根据预测模式的PDPC权重的示例
预测模式 wT wL wTL
右上对角 16>>((y’<<1)>>S) 16>>((x’<<1)>>S) 0
左下对角 16>>((y’<<1)>>S) 16>>((x’<<1)>>S) 0
右上相邻对角 32>>((y’<<1)>>S) 0 0
左下相邻对角 0 32>>((x’<<1)>>S) 0
2.通过所述技术解决的现有实现中的缺点的示例
JEM或VTM中的当前CCLM实现至少显示出以下问题:
-在JEM的当前CCLM设计中,它需要比正常帧内预测更多的相邻亮度样本点。CCLM需要两行上相邻的亮度样本点和三列左相邻的亮度样本点。MM-CCLM需要四行上相邻的亮度样本点和四列左相邻的亮度样本点。这在硬件设计中是不希望的。
-其他相关方法仅使用一行相邻的亮度样本点,但会带来一些编码性能损失。
-相邻的色度样本点仅用于推导LM参数。在生成色度块的预测块时,仅使用亮度样本点和导出的LM参数。因此,未利用当前色度块与其相邻色度块之间的空间相关性。
在VTM-5.0中,CCLM(包括LM、LM-L、LM-T模式)只能找到两个可用的相邻色度样本点(以及其对应的可以是下采样亮度样本点)。这是4点最大最小CCLM参数推导处理中的不希望的特殊情况。
3.视频编码中交叉分量预测的示例方法
本公开技术的实施例克服了现有实现的缺点,从而提供具有更高编码效率但更低计算复杂度的视频编码。在以下针对各种实现描述的示例中阐述了基于所公开的技术的可以增强现有和未来的视频编码标准的交叉分量预测。下面提供的公开技术的示例解释了一般概念,并不意图被解释为限制性的。在示例中,除非明确地相反指示,否则可以组合这些示例中描述的各种特征。
在下面的示例和方法中,术语“LM方法”包括但不限于JEM或VTM中的LM模式、JEM中的MMLM模式、仅使用左侧相邻样本点来导出线性模型的左LM模式、仅使用上方相邻样本点来导出线性模型的上LM模式或其他类型的利用亮度重构样本点来导出色度预测块的方法。
示例1.在一个示例中,考虑如何根据亮度样本点是在当前块内还是在当前块外来下采样亮度样本点的方法。
(a)下采样亮度样本点可用于导出LM参数。这里,亮度块是一个色度块的对应亮度块。
(b)下采样亮度样本点可用于导出其他类型的色度预测块。这里,亮度块是一个色度块的对应亮度块。
(c)例如,使用与JEM中相同的方法对当前块内的亮度样本点进行下采样,但使用不同的方法对当前块外的亮度样本点进行下采样。
示例2.在一个示例中,考虑如何根据位置下采样外部亮度样本点的方法。
(a)在一个示例中,下采样亮度样本点可用于导出预测块。这里,外部亮度样本点可以是相对于要编码的当前亮度块的相邻亮度样本点或非相邻亮度样本点。
(b)下采样亮度样本点可用于导出LM参数。这里,外部亮度样本点是那些不位于当前色度块的对应亮度块中的样本点。
(c)在一个示例中,以不同的方式对当前块的左侧或当前块的上方的亮度样本点进行下采样。
(d)在一个示例中,如图13A和13B所示,按以下规定对亮度样本点进行下采样。
(i)以与JEM相同的方式对当前块内的亮度样本点进行下采样。
(ii)当前块外部和当前块上方的亮度样本点被下采样到图4中的位置C或D。或者,使用滤波器将亮度样本点下采样到图4中的位置C。假设与当前块相邻的上述亮度样本点表示为a[i],则d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示下采样亮度样本点。
(1)如果样本点a[2i-1]不可用,则d[i]=(3*a[2i]+a[2i+1]+2)>>2
(2)如果样本点a[2i+1]不可用,则d[i]=(a[2i-1]+3*a[2i]+2)>>2
(iii)将当前块外部和当前块左侧的亮度样本点向下采样到图4中的位置B或D。或者,将亮度样本点下采样到B和D之间的一半位置处。假设与当前块相邻的亮度样本点被表示为a[j],则d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示下采样亮度样本点。
(iv)在一个示例中,生成W个亮度下采样样本点,其中W是如图13A所示的当前色度块的宽度。
(1)或者,从上述相邻亮度样本点生成N×W个亮度下采样样本点,其中N是诸如2的整数,如图13B所示。
(2)或者,从上述相邻亮度样本点生成W+K个亮度下采样样本点,其中K是正整数。
(3)或者,从上述相邻亮度样本点生成W/N个亮度下采样样本点,其中N是诸如2的整数。
(v)在一个示例中,从左侧相邻亮度样本点生成H个亮度下采样样本点,其中H是如图13A所示的当前色度块的高度。
(1)或者,生成N×H个亮度下采样样本点,其中N是诸如2的整数,如图13B所示。
(2)或者,生成H+K个亮度下采样样本点,其中K是正整数。
(3)或者,生成H/N个亮度下采样样本点,其中N是诸如2的整数。
示例3.在一个示例中,考虑如何根据块尺寸/块形状为外部亮度/内部亮度样本点选择样本点以及下采样多少样本点的方法。
示例4.在一个示例中,在用作色度块的预测器之前,可以还细化从LM方法生成的预测块。
(a)在一个示例中,重构的色度样本点(相邻或非相邻色度样本点)还可与来自LM方法的预测块一起使用。
(i)在一个示例中,可以应用线性函数,其中,相邻的重构色度样本点和来自LM方法的预测块作为输入,并且细化的的预测样本点作为输出。
(ii)在一个示例中,对于某些位置,可以细化来自LM方法的预测块,并且对于其余位置,可以不经细化而直接继承来自LM方法的预测块。
(b)在一个示例中,可以生成两个预测块(例如,一个来自LM方法,并且另一个来自色度帧内预测块)。然而,对于某些位置,可以从两个预测块生成最终预测块,并且对于其余位置,最终预测块可以从来自LM的预测块直接复制。
(i)在一个示例中,色度帧内预测模式可以被信令通知或从亮度帧内预测模式导出。
(ii)在一个示例中,可以联合使用两个预测块的“某些位置”包括顶部的几行和/或左侧的几列。
(c)例如,无论采用何种下采样滤波器,边界滤波可应用于LM模式、MMLM模式、左LM模式或上LM模式。
(d)在一个示例中,可以将来自LM方法的预测块和当前块上方的重构色度样本点的函数一起使用以从LM方法来细化预测块。
(i)假设与当前块上相邻的重构色度样本点表示为a[-1][j],第i行和第j列的LM预测样本点为a[i][j],则边界滤波后的预测样本点计算为a[-1][j]和a[i][j]的函数。在一个示例中,(i,j)位置处的最终预测被定义为a′[i][j]=(w1*a[i][j]+w2*a[-1][i]+2N -1)>>N,其中w1+w2=2N
(ii)仅当上方相邻样本点可用时,才能应用边界滤波。
(iii)在一个示例中,仅当i<=K(K是诸如0或1的整数)时才应用边界滤波。例如,K=0,w1=w2=1。在另一个示例中,K=0,w1=3,w2=1。
(iv)在一个示例中,w1和w2取决于行索引(i)。例如,对于样本点a[0][j],K=1,w1=w2=1,而对于样本点a[1][j],w1=3,w2=1。
(e)在一个示例中,可以将来自LM方法的预测块和当前块左侧的重构色度样本点的函数一起使用以从LM方法细化预测块。
(i)假设与当前块左相邻的重构色度样本点表示为a[i][-1],第i行和第j列的LM预测样本点为a[i][j],则边界滤波后的预测样本点计算为a[i][-1]和a[i][j]的函数。在一个示例中,(i,j)位置的最终预测被定义为a′[i][j]=(w1*a[i][j]+w2*a[i][1]+2N-1)>>N,其中w1+w2=2N
(ii)在一个示例中,仅当左侧相邻样本点可用时,才能应用边界滤波。
(iii)在一个示例中,仅当j<=K(K是诸如0或1的整数)时才应用边界滤波。例如,K=0,w1=w2=1。在另一个示例中,K=0,w1=3,w2=1。
(iv)在一个示例中,w1和w2取决于列索引(i)。例如,对于样本点a[0][j],K=1,w1=w2=1,而对于样本点a[1][j],w1=3,w2=1。
(f)在一个示例中,可以将来自LM方法的预测块和当前块左上的重构色度样本点的函数一起使用以从LM方法细化预测块。
(i)假设与当前块上相邻的重构色度样本点表示为a[-1][j],与当前块左相邻的重构色度样本点表示为a[i][1],并且第i行和第j列的LM预测样本点为a[i][j],则边界滤波后的预测样本点计算为a′[i][j]=(w1*a[i][j]+w2*a[i][1]+w3*a[-1][j]+2N-1)>>N,其中w1+w2+w3=2N
(ii)在一个示例中,边界滤波只能在左侧相邻样本点和上方相邻样本点都可用时应用。
(iii)在一个示例中,仅当i<=K且j<=P时才应用该边界滤波。在另一个示例中,仅当i<=K或j<=P时才应用该边界滤波。
(iv)在一个示例中,该边界滤波仅应用于w1=2,w2=w3=1的a[0][0]。
示例5.在一个示例中,考虑是否应用以及如何应用LM方法可能取决于当前块的尺寸或形状。假设W和H分别表示当前色度块的宽度和高度,T1和T2是阈值。
(a)在一个示例中,当W<=T1且H<=T2时,LM模式(或MMLM模式、或左LM模式、或上LM模式)不适用。例如,T1=T2=4。
(b)在一个示例中,当W<=T1或H<=T2时,LM模式(或MMLM模式、或左LM模式、或上LM模式)不适用。例如,T1=T2=2。
(c)在一个示例中,当W<=T1或H<=T2时,LM模式(或MMLM模式、或左LM模式、或上LM模式)不适用。例如,T1=T2=4。
(d)在一个示例中,当W+H<=T1时,LM模式(或MMLM模式、或左LM模式、或上LM模式)不适用。例如,T1=6。
(e)在一个示例中,当W×H<=T1时,LM模式(或MMLM模式、或左LM模式、或上LM模式)不适用。例如,T1=16。
(f)在一个示例中,当H<=T1时,左LM模式不适用。例如,T1=4。
(g)在一个示例中,当W<=T1时,上LM模式不适用。例如,T1=4。
(h)可以在SPS、序列报头、PPS、图片报头、VPS、条带报头、CTU、CU或CTU组中预先定义或信令通知T1和/或T2。
示例6.在一个示例中,考虑是否以及如何应用所提出的单行LM方法可取决于当前块的位置。
(a)在一个示例中,如图8A所示,一个或多个所提出的方法被应用于位于当前CTU的上边界的CU上。
(b)在一个示例中,如图8B所示,一个或多个所提出的方法被应用于位于当前CTU的左边界的CU上。
(c)在一个示例中,上述两种情况均采用一种或多种所提出的方法。
(d)在一个示例中,一个或多个所提出的方法被应用于位于诸如64×64块的区域的上边界的CU上。
(e)在一个示例中,一个或多个所提出的方法被应用于位于诸如64×64块的区域的左边界的CU上。
上面描述的示例可以并入下面描述的方法的上下文中,例如方法1400,其可以在视频编码器和/或解码器处实现。
示例7.使用一种滤波方法(例如,第2.d.ii条中定义的方法)对上方LM相邻样本点进行下采样,并且使用那些可用于正常帧内预测处理的亮度样本点(例如,VVC中的2W样本点(当前块的上方和右上方)。而用不同的滤波方法(例如,JEM或VTM-2.0中定义的方法)对左侧LM相邻样本点进行下采样。
(a)图16示出了如何将不同的下采样方法组合在一起的示例。
示例8.在2.d.ii.1条的另一个示例中,使用滤波器将亮度样本点下采样到图4中的位置C。假设与当前块上相邻的亮度样本点表示为a[i],则如果i>0,则d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+offset0)>>2;否则(如果i==0),d[i]=(3*a[2i]+a[2i+1]+offset1)>>2。
(a)或者,如果i==0,则d[i]=a[2i]。
(b)或者,如果i==0,则d[i]=(a[2i]+a[2i+1]+offset2)>>1。
(c)在一个示例中,offset0=offset1=2;offset2=1。
示例9.在一些实施例中,位于当前块上方或左侧的下采样亮度样本点的数量可取决于当前块的维度。假设当前色度块的宽度和高度表示为W和H:
(a)例如,如果W==H,则对当前块上方的W个亮度样本点进行下采样,并且对当前块左侧的H个亮度样本点进行下采样;
(b)例如,如果W==H,则对当前块上方的2*W个亮度样本点进行下采样,并且对当前块左侧的2*H个亮度样本点进行下采样;
(c)例如,如果W<H,则对当前块上方的2*W个亮度样本点进行下采样,对当前块左侧的H个亮度样本点进行下采样;
(d)例如,如果W<=H,则对当前块上方的2*W个亮度样本点进行下采样,对当前块左侧的H个亮度样本点进行下采样;
(e)例如,如果W>H,则对当前块上方的2*W个亮度样本点进行下采样,对当前块左侧的H个亮度样本点进行下采样;
(f)例如,如果W>=H,则对当前块上方的2*W个亮度样本点进行下采样,对当前块左侧的H个亮度样本点进行下采样;
(g)例如,如果W<H,则对当前块上方的W个亮度样本点进行下采样,对当前块左侧的2*H个亮度样本点进行下采样;
(h)例如,如果W<=H,则对当前块上方的W个亮度样本点进行下采样,对当前块左侧的2*H个亮度样本点进行下采样;
(i)例如,如果W>H,则对当前块上方的W个亮度样本点进行下采样,对当前块左侧的2*H个亮度样本点进行下采样;
(j)例如,如果W>=H,则对当前块上方的W个亮度样本点进行下采样,对当前块左侧的2*H个亮度样本点进行下采样;
(k)例如,仅当上方相邻块和右上方相邻块都可用时,对当前块上方的2*W个亮度样本点进行下采样。否则,对当前块上方的W个亮度样本点进行向下采样。
(l)例如,仅当左侧相邻块和左下相邻块都可用时,对当前块左侧的2*H个亮度样本点进行下采样。否则,对当前块上方的H个亮度样本点进行下采样。
(m)假设在当前块上方有W′个(W′等于W或2*W)下采样亮度样本点,在当前块左侧有H′(H′等于H或2*H)向下采样亮度样本点。如果W′不等于H′,则抽取具有更多样本点的下采样亮度样本点集,以匹配具有更少样本点的下采样亮度样本点集中的样本点数,如JEM或VTM-2.0中定义的。
(n)在一个示例中,当前块的上方和左侧的下采样亮度样本点的数量设置为max(W,H)。
(i)或者,当前块的上方和左侧的下采样亮度样本点的数量设置为min(W,H)和max(W,H)之间的值。
(ii)当前块的上方和左侧的下采样亮度样本点的数量设置为min(W,H)和max(W,H)*SCALEDVALUE之间的值。例如,SCALEDVALUE设置为2。
示例10.在一些实施例中,当W不等于H时的抽取处理不同于JEM或VTM-2.0中的抽取处理。
(a)例如,如果W>H,则在训练处理中涉及H个最左侧的上方相邻样本点和H个左侧相邻样本点。
(b)例如,如果W>H,则在训练处理中涉及H个最右的上方相邻样本点和H个左侧相邻样本点。
(c)例如,如果W>H,并且W=H*n,则在训练处理中涉及W个上方相邻样本点和H个左侧相邻样本点,并且每个左侧相邻样本点在训练处理中出现n次。
(d)例如,如果W<H,则在训练处理中涉及W个最上方的左侧相邻样本点和W个上方相邻样本点。
(e)例如,如果W<H,则在训练处理中涉及W个最下的左侧相邻样本点和W个上方相邻样本点。
(f)例如,如果W<H,并且H=W*n,则在训练处理中涉及W个上方相邻样本点和H个左侧相邻样本点,并且在训练处理中每个上方相邻样本点出现n次。
示例11.是否和/或如何将CCLM模式(例如LM、LM-A、LM-T)应用于块可取决于可用相邻样本点的数量和/或块的尺寸。
(a)在一个示例中,块可指色度编码块。
(b)在一个示例中,如果一个或多个特定CCLM模式(例如LM、LM-A、LM-T)不适用于块(例如,根据可用相邻样本点的数量和/或维度),则用于指示特定CCLM模式的语法元素(例如,标志或模式表示)可不被信令通知,并且推断不应用特定的CCLM模式。
(c)在一个示例中,如果一个或多个特定CCLM模式(例如LM、LM-A、LM-T)不适用于块(例如,根据可用相邻样本点的数量和/或维度),则用于指示特定CCLM模式的语法元素(例如,标志或模式表示)可被信令通知,并且应该指示不在一致性比特流中应用CCLM模式。
(d)在一个示例中,在一个示例中,如果一个或多个特定CCLM模式(例如LM、LM-A、LM-T)不适用于块(例如,根据可用相邻样本点的数量和/或维度),则用于指示特定CCLM模式的语法元素(例如,标志或模式表示)可被信令通知,但该信令可被解码器忽略,并且推断不应用特定的CCLM模式。
(e)在一个示例中,相邻样本点可指色度相邻样本点。
(i)或者,相邻样本点可指可被下采样(例如,根据色彩格式)的对应的亮度相邻样本点。
(f)在一个示例中,在一个示例中,如果一个或多个特定CCLM模式(例如LM、LM-A、LM-T)不适用于块(例如,根据可用相邻样本点的数量和/或维度),但是信令通知了特定的CCLM模式,则以特定方式完成CCLM的参数推导处理。
(i)在一个示例中,参数a被设置为0,并且参数b被设置为固定数,例如1<<(比特深度-1)。
(g)在一个示例中,当可用相邻样本点的数量小于T时,LM模式和/或LM-A模式和/或LM-T模式不适用,其中T是诸如4的整数。
(h)在一个示例中,如果块的宽度等于2并且左侧不可用,则LM模式不适用。
(i)在一个示例中,如果块的高度等于2并且上方相邻块不可用,则LM模式不适用。
(j)在一个示例中,如果块的宽度等于2,则LM-T模式不适用。
(i)或者,如果块的宽度等于2并且右上方相邻块不可用,则LM-T模式不适用。
(k)在一个示例中,如果块的高度等于2,则LM-L模式不适用。
(i)或者,如果块的高度等于2并且左下相邻块不可用,则LM-L模式不适用。
(l)在一个示例中,如果LM模式不适用,则LM-L模式不适用。
(m)在一个示例中,如果LM模式不适用,则LM-T模式不适用。
(n)在一个示例中,“可用相邻样本点”可以是根据所选参考行来自现有的上和/或左样本点的样本点。
(o)在一个示例中,“可用相邻样本点”可以是根据所选参考行和CCLM参数推导规则来自所选位置的样本点(例如,pSelcomp[])。
(p)上述方法也可适用于局部照明补偿(LIC)处理,其中根据可用相邻样本点的数量,LIC可被禁用。
(i)或者,根据可用相邻样本点的数量,可以启用LIC,但是使用特定的线性模型参数(例如,a=1,b=0),而不管相邻样本点的值如何。
图14示出了交叉分量预测的示例性方法的流程图。方法1400包括:在步骤1410中,接收包含亮度分量和色度分量的视频数据的当前块的比特流表示。
在一些实施例中,步骤1410包括:从视频编码器或解码器中的存储器位置或缓冲器接收比特流表示。在其他实施例中,步骤1410包括:在视频解码器处通过无线或有线信道接收比特流表示。在另一个实施例中,步骤1410包括:从可实现包括但不限于本文的实施例所述的一个或多个方法或算法的不同模块、单元或处理器接收比特流表示。
方法1400包括:在步骤1420中,基于通过对亮度分量的第二组样本点进行下采样而生成的第一组样本点来确定线性模型的参数。在一些实施例中,第二组样本点位于当前块内,并且确定参数还基于通过对位于当前块外的第四组样本点进行下采样而生成的第三组样本点。
在一些实施例中,并且在第4章节的示例2的上下文中,对第二组样本点进行下采样基于第一下采样方法,而对第四组样本点进行下采样基于不同于第一下采样方法的第二下采样方法。
在一些实施例中,第四组样本点包括当前块的相邻亮度样本点。在其他实施例中,第四组样本点包括相对于当前块的非相邻亮度样本点。在一些实施例中,基于当前块的尺寸选择第二和/或第四组样本点。
方法1400包括:在步骤1430中,基于线性模型的参数处理比特流表示以生成当前块。
在一些实施例中,方法1400还可以包括步骤:基于线性模型的参数和第一组样本点预测色度分量的第五组样本点,并且处理还基于第五组样本点。
在一些实施例中,并且在第4章节的实施例4的上下文中,方法1400还可以包括步骤:基于线性模型的参数和第一组样本点预测色度分量的第五组样本点,并且细化第五组样本点以生成第六组样本点。在一个示例中,该处理还可基于第六组样本点。
在一些实施例中,上述细化步骤可包括:将线性函数应用于一组相邻的重构色度样本点和第五组样本点以生成第六组样本点。在一个示例中,相邻的重构色度样本点集基于当前块左侧的样本点。在另一示例中,相邻的重构色度样本点集还基于当前块上方的样本点。
在一些实施例中,并且在第4章节的实施例2的上下文中,下采样第二组样本点基于根据当前块中第一组样本点的位置选择的下采样方法,并且第一组样本点是亮度样本点的2×2块的一部分(例如,如图4所示)。在一个示例中,第一组样本点包括亮度样本点的块的左下样本点。在另一示例中,第一组样本点包括亮度样本点的块的右上样本点或右下样本点。
在一些实施例中,并且在第4章节的示例5的上下文中,当前块的高度大于第一阈值,并且当前块的宽度大于第二阈值。在一些实施例中,当前块的高度和当前块的宽度之和大于第一阈值。在一些实施例中,当前块的高度和当前块的宽度的乘积大于第一阈值。在一些实施例中,当前块的高度大于第一阈值或当前块的宽度大于第二阈值。在这些实施例中,可以在序列参数集(SPS)、图片参数集(PPS)、条带报头、图片报头、编码树单元(CTU)、编码单元(CU)或CTU组中信令通知第一阈值和/或第二阈值。
在一些实施例中,并且在第4章节的示例6的上下文中,处理比特流表示还基于当前块在当前CTU中的位置。在一个示例中,当前块的位置在当前CTU的顶部边界处。在另一个示例中,当前块的位置在当前CTU的左侧边界处。
可以使用以下基于条款的描述来描述一些附加技术。
1.一种视频编码方法,包括:在视频的当前块和当前块的比特流表示之间的转换期间,基于通过对亮度分量的第二组样本点进行下采样生成的第一组样本点使用线性模型的参数;以及基于线性模型的参数执行比特流表示和当前块之间的转换。
2.根据条款1所述的方法,其中来自当前块的上方或左侧的第二组中的下采样亮度样本点的数量取决于当前块的尺寸。
3.根据条款2所述的方法,其中当前块是具有W个样本点的宽度和H个样本点的高度的色度块,其中W和H是整数,并且其中在当前块上方的W个亮度样本点被向下采样,并且当前块左侧的H个亮度样本点被向下采样,其中W等于H。
4.根据条款1所述的方法,其中当前块为正方形和当前块为矩形的情况下使用两种不同的下采样方案。
5.根据条款4所述的方法,其中当前块具有W个样本点的宽度和H个样本点的高度,其中W和H是整数,并且其中W>H,并且其中训练处理使用H个最左侧的上方相邻样本点和H个左侧相邻样本点。
6.根据条款4所述的方法,其中当前块具有W个样本点的宽度和H个样本点的高度,其中W和H是整数,并且其中W>H,并且其中训练处理中涉及H个最右的上方相邻样本点和H个左侧相邻样本点。
在上述条款中,转换可包括视频解码或解压缩,其中从其比特流表示生成当前块的像素值。在上述条款中,转换可以包括视频编码或压缩操作,其中从当前块生成比特流表示。
在一些实施例中,视频处理的方法包括:使用交叉分量线性模型在当前视频块和当前视频块的比特流表示之间执行转换,其中使用交叉分量线性模型的转换使用多行亮度样本点,至少一行与当前视频块不相邻。
技术解决方案和实施例的一些示例
基于所公开的技术的一些解决方案可以如下。
1.一种用于视频编码方法,包括:接收包含亮度分量和色度分量的视频数据的当前块的比特流表示,基于通过对亮度分量的第二组样本点进行下采样生成的第一组样本点来确定线性模型的参数,以及基于线性模型的参数,处理比特流以生成当前块。
2.根据解决方案1所述的方法,其中第二组样本点位于当前块内,并且其中确定参数还基于通过对位于当前块外的第四组样本点进行下采样而生成的第三组样本点。
3.根据解决方案2所述的方法,其中对第二组样本点进行下采样基于第一下采样方法,并且其中对第四组样本点下采样基于第二下采样方法。
4.根据解决方案2或3所述的方法,其中第四组样本点包括当前块的相邻亮度样本点。
5.根据解决方案2或3所述的方法,其中第四组样本点包括相对于当前块的非相邻亮度样本点。
6.根据解决方案2所述的方法,其中根据当前块的尺寸选择第四组样本点。
7.根据解决方案1所述的方法,其中下采样基于滤波操作。
8.根据解决方案1所述的方法,其中基于当前块的尺寸选择第二组样本点。
9.根据解决方案1至8中任一项所述的方法,还包括:基于线性模型的参数和第一组样本点预测色度分量的第五组样本点,该处理还基于第五组样本点。
10.根据解决方案1至8中任一项所述的方法,还包括:基于线性模型的参数和第一组样本点预测色度分量的第五组样本点;以及细化第五组样本点以生成第六组样本点,其中处理还基于第六组样本点。
11.根据解决方案10所述的方法,其中细化第五组样本点包括:将线性函数应用于一组相邻的重构色度样本点和第五组样本点以生成第六组样本点。
12.根据解决方案11所述的方法,其中相邻的重构色度样本点集基于当前块左侧的样本点。
13.根据解决方案12所述的方法,其中相邻的重构色度样本点集还基于当前块上方的样本点。
14.根据解决方案1所述的方法,其中对第二组样本点进行下采样基于根据当前块中第一组样本点的位置选择的下采样方法,并且其中亮度样本点的2×2块包括第一组样本点。
15.根据解决方案14所述的方法,其中第一组样本点包括亮度样本点的块的左下样本点。
16.根据解决方案14所述的方法,其中第一组样本点包括亮度样本点的块的右上样本点或右下样本点。
17.根据解决方案1所述的方法,其中第一组样本点包括W个样本点,其中W是色度分量的宽度。
18.根据解决方案1所述的方法,其中第一组样本点包括H个样本点,其中第二组样本点是相对于当前块的左侧相邻亮度样本点,其中H是色度分量的高度。
19.根据解决方案1所述的方法,其中当前块的高度大于第一阈值,并且当前块的宽度大于第二阈值。
20.根据解决方案1所述的方法,其中当前块的高度和宽度之和大于第一阈值。
21.根据解决方案1所述的一种方法,其中当前块的高度和宽度的乘积大于第一阈值。
22.根据解决方案1所述的方法,其中当前块的高度大于第一阈值或当前块的宽度大于第二阈值。
23.根据解决方案19至22中任一项所述的方法,其中在序列参数集(SPS)、图片参数集(PPS)、条带报头、图片报头、编码树单元(CTU)、编码单元(CU)或CTU组中信令通知第一阈值。
24.根据解决方案1所述的方法,其中处理比特流表示还基于当前块在当前编码树单元(CTU)中的位置。
25.根据解决方案24所述的方法,其中当前块的位置在当前CTU的上边界处。
26.根据解决方案24所述的方法,其中当前块的位置在当前CTU的左侧边界处。
27.一种视频编码方法,包括:在视频的当前块和当前块的比特流表示之间的转换期间,基于通过对亮度分量的第二组样本点进行下采样生成的第一组样本点使用线性模型的参数;以及基于线性模型的参数执行比特流表示和当前块之间的转换。
28.根据解决方案27所述的方法,其中来自当前块的上方或左侧的第二组中的下采样亮度样本点的数量取决于当前块的尺寸。
29.根据解决方案28所述的方法,其中当前块是具有W个样本点的宽度和H个样本点的高度的色度块,其中W和H是整数,并且其中在当前块上方的W个亮度样本点被向下采样,并且当前块左侧的H个亮度样本点被向下采样,其中W等于H。
30.根据解决方案27所述的方法,其中当前块为正方形和当前块为矩形的情况下使用两种不同的下采样方案。
31.根据解决方案30所述的方法,其中当前块具有W个样本点的宽度和H个样本点的高度,其中W和H是整数,并且其中W>H,并且其中训练处理使用H个最左侧的上方相邻样本点和H个左侧相邻样本点。
32.根据解决方案30所述的方法,其中当前块具有W个样本点的宽度和H个样本点的高度,其中W和H是整数,并且其中W>H,并且其中训练处理中涉及H个最右的上方相邻样本点和H个左侧相邻样本点。
33.一种视频处理方法,包括:使用交叉分量线性模型在当前视频块和当前视频块的比特流表示之间执行转换,其中使用交叉分量线性模型的转换使用多行亮度样本点,至少一行与当前视频块不相邻。
34.根据解决方案33所述的方法,其中转换使用包含多方向线性模型的交叉分量线性模型模式。
35.根据解决方案33至34中任意项所述的方法,其中多行中的至少一行不包括满足排除标准的行或包括满足包含标准的行。
36.根据解决方案35所述的方法,其中排除标准包括:排除不用于定向帧内预测和多参考行帧内预测的亮度样本点。
37.根据解决方案35所述的方法,其中包含标准包括当前视频块上方的两条线。
38.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中,在处理器执行指令时,使处理器实现解决方案1至37中的任一项所述的方法。
39.一种存储在非暂时性计算机可读介质上的计算机程序产品,所述计算机程序产品包括用于实现解决方案1至37中的任一项所述的方法的程序代码。
4.交叉分量预测的附加实施例
实施例1
在一些实施例中,以与JEM中相同的方式对当前块内的亮度样本点进行下采样。
在一些实施例中,使用滤波器将在当前块外部且在当前块上方的亮度样本点下采样到图4中的位置C。假设与当前块上相邻的亮度样本点表示为a[i],则d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,其中d[i]表示下采样亮度样本点。如果样本点a[2i-1]不可用,则d[i]=(3*a[2i]+a[2i+1]+2)>>2。
在一些实施例中,在当前块外部且在当前块左侧的亮度样本点被下采样到如图4所示的B和D之间的一半位置。假设与当前块相邻的亮度样本点表示为a[j],则d[j]=(a[2j]+a[2j+1]+1)>>1,其中d[j]表示下采样亮度样本点。
在一些实施例中,生成来自上相邻亮度样本点的W个下采样亮度样本点和来自左侧相邻亮度样本点的H个下采样亮度样本点,其中W和H是如图13A所示的当前色度块的宽度和高度。
在一些实施例中,生成来自上相邻亮度样本点的2W个下采样亮度样本点和来自左侧相邻亮度样本点的2H个下采样亮度样本点,其中W和H是如图13B所示的当前色度块的宽度和高度。
为了将训练处理所需的相邻亮度样本点约束在一条直线上,应用如图3A所示的具有较少抽头的下采样滤波器:
-对于上方相邻亮度样本点:
Rec′L[x,y]=(2×RecL[2x,2y+1]+RecL[2x-1,2y+1]+RecL[2x+1,2y+1]+2)>>2. (2)
·对于左侧相邻亮度样本点:
Rec′L[x,y]=(RecL[2x+1,2y]+RecL[2x+1,2y+1]+1)>>1. (3)
仍然使用六抽头滤波器对块内的亮度样本点进行下采样。
利用不同组的相邻亮度样本点,本文给出了两种解决方案。假设一个块的宽度和高度分别表示为W和H。在解决方案1中,图17A中的训练处理设计W个上方相邻样本点和H个左侧相邻样本点。在解决方案2中,涉及2W个上方相邻样本点和2H个左侧相邻样本点,如图17B所示。应当注意的是,解决方案2中的扩展相邻样本点已经被广角帧内预测使用。
此外,如图18A至18C所示的解决方案3是基于解决方案2提供的。如果W<=H,则涉及2W个上方相邻样本点;否则,涉及W个上方相邻样本点。如果H<=W,则涉及2H个左侧相邻样本点;否则,涉及H个左侧相邻样本点。
作为进一步的研究,提供了解决方案1A、解决方案2A和解决方案3A,它们分别采用解决方案1、解决方案2和解决方案3的相同方法,但仅在上述相邻样本点上使用。在解决方案1A、2A和3A中,如VTM-2.0中那样对左相邻的亮度样本点进行下采样,即用6抽头滤波器对左侧相邻亮度样本点进行下采样。
实施例2
关于工作草案中CCLM样本点数限制的实施例(示例更改被标记:删除的内容包含在双括号{{}}中)。
INTRA_LT_CCLM、INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范
该处理的输入包括:
该处理的输出为预测样本点predSamples[x][y],其中
x=0..nTbW-1,y=0..nTbH-1。
当前亮度位置(xTbY,yTbY)推导如下:
(xTbY,yTbY)=(xTbC<<1,yTbC<<1) (8-156)
变量availL,availT和availTL推导如下:
–可用的右上相邻色度样本点的数量numTopRight推导如下:
–变量numTopRight设置为等于0,availTR设置为TRUE。
–当predModeIntra等于INTRA_T_CCLM时,以下情况适用于x=nTbW..2*nTbW-1,直到availTR等于假(FALSE)或x等于2*nTbW-1:
–可用的左下相邻色度样本点的数量numLeftBelow导出如下:
-上方和右上可用相邻色度样本点的数量numTopSamp、以及左侧和左下可用相邻色度样本点的数量nLeftSamp导出如下:
–如果predModeIntra等于INTRA_LT_CCLM,则以下适用:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
–否则,以下适用:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary导出如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE. (8-161)
变量cntN和数组pickPosN(N替换为L和T)导出如下:
–变量numIs4N设置为等于((availT&&availL&&predModeIntra==INTRA_LT_CCLM)?0:1).
–变量startPosN设置为等于numSampN>>(2+numIs4N).
–变量pickStepN设置为等于Max(1,numSampN>>(1+numIs4N)).
–如果availN等于TRUE并且predModeIntra等于INTRA_LT_CCLM或者INTRA_N_CCLM,则做出如下分配:
–cntN设置为等于Min(numSampN,(1+numIs4N)<<1)
–pickPosN[pos]设置为等于(startPosN+pos*pickStepN),其中pos=0..cntN–1
–否则,cntN设置为等于0。
预测样本点predSamples[x][y]其中x=0..nTbW-1,y=0..nTbH-1导出如下:
–如果numSampL和numSampT二者都等于0,则以下适用:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
–否则,以下顺序步骤适用:
1.共位亮度样本点pY[x][y]其中x=0..nTbW*2-1,y=0..nTbH*2-1设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
2.相邻亮度样本点pY[x][y]导出如下:
–当numSampL大于0时,相邻左侧亮度样本点pY[x][y](其中x=-1..-3,y=0..2*numSampL-1)设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
–当numSampT大于0时,相邻上方亮度样本点pY[x][y](其中x=0..2*numSampT-1,y=-1,-2)设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
–当availTL等于TRUE时,相邻左上亮度样本点pY[x][y](其中x=-1,y=-1,-2)设置为等于位置(xTbY+x,yTbY+y)处的去块滤波处理之前的重构亮度样本点。
3.下采样共位亮度样本点pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)导出如下:
4.当numSampL大于0时,所选择的相邻左侧色度样本点pSelC[idx]设置为等于p[-1][pickPosL[idx]],其中idx=0..cntL–1,并且所选择的下采样相邻左侧亮度样本点pSelDsY[idx](其中idx=0..cntL-1)导出如下:
–变量y设置为等于pickPosL[idx]。
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
–否则,以下适用:
pSelDsY[idx]=(pY[-1][2*y]+
pY[-1][2*y+1]+
2*pY[-2][2*y]+2*pY[-2][2*y+1]+
pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5.当numSampT大于0时,所选择的相邻上方色度样本点pSelC[idx]设置为等于p[pickPosT[idx–cntL]][-1]其中idx=cntL..cntL+cntT–1,并且下采样相邻上方亮度样本点pSelDsY[idx](其中idx=0..cntL+cntT-1)如下规定:
–变量x设置为等于pickPosT[idx–cntL]
–如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
6.当cntT+cntL不{{等于0}}小于阈值1时,变量minY,maxY,minC和maxC导出如下:
–{{当cntT+cntL等于2时,设置pSelComp[3]等于pSelComp[0],pSelComp[2]等于pSelComp[1],pSelComp[0]等于pSelComp[1],并且pSelComp[1]等于pSelComp[3],其中Comp由DsY替代并且C..}}
–数组minGrpIdx和maxGrpIdx设置如下:
–minGrpIdx[0]=0
–minGrpIdx[1]=2
–maxGrpIdx[0]=1
–maxGrpIdx[1]=3
–当pSelDsY[minGrpIdx[0]]大于pSelDsY[minGrpIdx[1]]时,minGrpIdx[0]和minGrpIdx[1]交换为(minGrpIdx[0],minGrpIdx[1])=交换(minGrpIdx[0],minGrpIdx[1])。
–当pSelDsY[maxGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,maxGrpIdx[0]和maxGrpIdx[1]交换为(maxGrpIdx[0],maxGrpIdx[1])=交换(maxGrpIdx[0],maxGrpIdx[1])。
–当pSelDsY[minGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,数组minGrpIdx和maxGrpIdx交换为(minGrpIdx,maxGrpIdx)=交换(minGrpIdx,maxGrpIdx)。
–当pSelDsY[minGrpIdx[1]]大于pSelDsY[maxGrpIdx[0]]时,minGrpIdx[1]和maxGrpIdx[0]交换为(minGrpIdx[1],maxGrpIdx[0])=交换(minGrpIdx[1],maxGrpIdx[0])。
–maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
–maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
–minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
–minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a、b和k导出如下:
–如果{{numSampL等于0,并且numSampT等于0}}cntT+cntL小于阈值1时,则以下适用:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
–否则,以下适用:
8.预测样本predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)导出如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
在一个示例中,阈值1设置为4。
在一些实施例中,可以实现以下技术解决方案:
1.一种视频处理方法(例如,图21所示的方法2100),包括:对于视频和视频的编码表示之间的转换,至少使用亮度块外的下采样亮度样本点,确定(2102)用于预测与亮度块共位的视频的第一色度块的线性模型;使用亮度块内的下采样亮度样本点和线性模型来确定(2104)第一色度块的样本点的预测值;以及基于第一色度块的样本点的预测值执行(2106)转换;其中,通过对亮度块外的亮度样本点应用外部滤波器来获得亮度块外的下采样亮度样本点;并且其中,通过对亮度块内的亮度样本点应用内部滤波器获得亮度块内的下采样亮度样本点。
2.根据解决方案1所述的方法,其中亮度块内的下采样亮度样本点位于与第一色度块外的色度样本点位置相对应的位置。
3.根据解决方案1至2中任一项所述的方法,其中亮度块内的下采样亮度样本点和亮度块外的下采样亮度样本点进一步用于第一色度块的第二预测。
4.根据解决方案1至3中任一项所述的方法,其中内部滤波器对应于传统滤波器。
5.根据解决方案1至3中任一项所述的方法,其中外部滤波器与内部滤波器不同。
6.根据解决方案1至5中任一项所述的方法,其中亮度块外的亮度样本点包括相邻亮度样本点或非相邻亮度样本点。
7.根据解决方案6所述的方法,其中亮度块外的下采样亮度样本点也用于确定第一色度块的样本点的预测值。
8.根据解决方案1至7中任一项所述的方法,其中外部滤波器的滤波器抽头或滤波器系数取决于外部滤波器是应用于亮度块的左侧还是上方。
9.根据解决方案1至8的所述的方法,其中内部滤波器的长度或外部滤波器的长度取决于第一色度块或亮度块的形状或尺寸。
10.根据解决方案1至9中任一项所述的方法,其中在亮度块外或亮度块内的亮度样本点的位置是第一色度块或亮度块的尺寸或形状的函数。
11.根据解决方案1至10中任一项所述方法,其中,确定第一色度块的样本点包括:使用细化预测块预测第一色度块的样本点,所述细化是通过将线性模型应用于亮度块内的下采样亮度样本点而生成的中间预测块的细化。
12.根据解决方案11所述的方法,其中,中间预测块的细化使用与第一色度块相邻的重构色度样本点。
13.根据解决方案11所述的方法,其中,中间预测块的细化使用与第一色度块不相邻的重构色度样本点。
14.根据解决方案11至13中任一项所述的方法,其中,将细化预测块确定为中间预测块和相邻或非相邻重构色度样本点的线性函数。
15.根据解决方案11至14中任一项所述的方法,其中,所述细化包括:将中间预测块的样本点复制为第一色度块的一些位置中的细化预测块。
16.根据解决方案11所述的方法,其中,从中间预测块和从先前的重构色度块生成的另一个色度预测块生成细化预测块。
17.根据解决方案16所述的方法,其中另一个色度预测块是帧内预测色度块。
18.根据解决方案16至17中任一项所述的方法,其中第一色度块的样本点被确定为中间预测块和另一个色度预测块的线性加权。
19.根据解决方案18所述的方法,其中,在第一色度块的一些像素位置处,给另一个色度预测块0%的权重,并且给中间预测块100%的权重。
20.根据解决方案17至19所述的方法,其中帧内预测色度块使用亮度块的帧内预测模式。
21.根据解决方案19所述的方法,其中一些像素位置包括第一色度块的上k行或第一色度块的左m列,其中k和m是整数。
22.根据解决方案1至21中任一项所述的方法,其中转换还包括:对亮度块和/或第一色度块执行边界滤波。
23.根据解决方案22所述的方法,其中,仅当上方或左侧相邻样本点可用或上方和左侧样本点都可用时才应用边界滤波。
24.根据解决方案12所述的方法,其中,与第一色度块相邻的重构色度样本点包括上方、左侧或上方和左侧色度样本点。
25.根据解决方案24所述的方法,其中上方色度样本点表示为a[-1][j],并且其中中间预测块的第i行和第j列中的样本点为a[i][j],则第一色度块的第(i,j)个位置处的样本点计算为a′[i][j]=(w1*a[i][j]+w2*a[-1][j]+2N-1)>>N,其中w1+w2=2N,其中N为整数。
26.根据解决方案22所述的方法,其中边界滤波仅适用于行i<=K,其中K是等于零或1的整数。
27.根据解决方案25至26中任一项所述的方法,其中K=0,w1=3,w2=1。
28.根据解决方案25所述的方法,其中w1和w2是行索引i的函数。
29.根据解决方案28所述的方法,其中i=0时K=1,w1=w2=1,i=1时K=1,w1=3,w2=1。
30.根据解决方案24所述的方法,其中左侧色度样本点表示为a[i][-1],并且其中中间预测块的第i行和第j列中的样本点为a[i][j],则将第一色度块中第(i,j)个位置处的样本点计算为a′[i][j]=(w1*a[i][j]+w2*a[i][[-1]+2N-1)>>N,其中w1+w2=2N,其中N是整数。
31.根据解决方案22所述的方法,其中边界滤波仅适用于列j<=K,其中K是等于零或1的整数。
32.根据解决方案25至26中任一项所述的方法,其中K=0,w1=3,w2=1。
33.根据解决方案25所述的方法,其中w1和w2是列索引j的函数。
34.根据解决方案28所述的方法,其中当j=0时K=1,w1=w2=1,当j=1时K=1,w1=3,w2=1。
35.根据解决方案24所述的方法,其中左侧色度样本点表示为a[i][-1],上方样本点表示为a[-1][j],并且其中中间预测块的第i行第j列的样本点为a[i][j],则将第一色度块的第(i,j)个位置处的样本点计算为a′[i][j]=(w1*a[i][j]+w2*a[i][-1]+w3*a[-1][j]+2N-1)>>N,其中w1+w2+w3=2N,其中N是整数。
36.根据解决方案22所述的方法,其中边界滤波仅适用于列i<=K、列j<=P,其中K和P是等于零或1的整数。
37.根据解决方案25至27中任一项所述的方法,其中K=0,w1=3,w2=1。
38.根据解决方案25所述的方法,其中w1和w2是列索引j的函数。
39.根据解决方案28所述的方法,其中对w1=2且w2=w3=1的a[0][0]应用边界滤波。
40.一种视频处理方法(例如,图22所示的方法2200),包括:基于使用可用相邻样本点的数量或第一分量块的尺寸的规则,在转换期间为视频和视频的编码表示之间的转换确定(2202)用于从第二分量块预测第一分量块的一个或多个交叉分量线性模型(CCLM);以及使用交叉分量线性模型执行(2204)转换,其中交叉分量线性模型是以下中的一个:从第一分量块的上方和/或右上相邻值导出的CCLM(CCLM-A);从第一分量块的左侧和/或左下相邻值导出的CCLM(CCLM-T);或仅从第一个分量块的左侧和上方相邻值导出的CCLM(CCLM-TL)。
41.根据解决方案40所述的方法,其中第一分量块对应于色度块。
42.根据解决方案40至41中任一项所述的方法,其中第二分量块对应于亮度块。
43.根据解决方案40至42中任一项所述的方法,其中,如果规则禁止CCLM的使用,则编码表示省略使用语法元素信令通知CCLM。
44.根据解决方案40至42中任一项所述的方法,其中,如果规则禁止CCLM的使用,则编码表示通过编码表示中的语法元素来信令通知CCLM被禁用。
45.根据解决方案40至42中任一项所述的方法,其中,如果规则禁止CCLM的使用,则编码表示信令包括CCLM的语法元素,其中预计解码器忽略该语法元素。
46.根据解决方案40至45中任一项所述的方法,其中可用相邻样本点包括色度相邻样本点。
47.根据解决方案40至46中任一项所述的方法,其中可用相邻样本点包括亮度相邻样本点。
48.根据解决方案40至46中任一项所述的方法,其中可用相邻样本点包括下采样亮度相邻样本点。
49.根据解决方案40至48中任一项所述的方法,其中编码表示信令通知特定CCLM,其中特定CCLM使用斜率α为零且截距β为固定数的线性模型。
50.根据解决方案49所述的方法,其中固定数是比特深度的函数。
51.根据解决方案40至50中任一项所述的方法,其中规则禁止由于可用相邻样本点的数量小于阈值的CCLM或CCLM-A或CCLM-T的使用。
52.根据解决方案40至50中任一项所述的方法,其中规则禁止由于色度块的宽度为二或左侧相邻样本点不可用的CCLM的使用。
53.根据解决方案40至50中任一项所述的方法,其中规则禁止由于色度块的宽度为二或上方相邻样本点不可用的CCLM的使用。
54.根据解决方案40至50中任一项所述的方法,其中规则禁止由于色度块的宽度为二的CCLM-T的使用。
55.根据解决方案40至50中任一项所述的方法,其中规则禁止由于色度块的宽度为二且右上方相邻块不可用的CCLM-T的使用。
56.根据解决方案40至50中任一项所述的方法,其中规则禁止由于色度块的高度为二的CCLM-L的使用。
57.根据解决方案40至50中任一项所述的方法,其中规则禁止由于色度块的高度为二且右上方相邻块不可用的CCLM-L的使用。
58.根据解决方案40至57中任一项所述的方法,其中规则规定由于CCLM不可用而禁用CCLM-L。
59.根据解决方案40至57中任一项所述的方法,其中规则规定由于CCLM不可用而禁用CCLM-T。
60.根据解决方案40至59中任一项所述的方法,其中可用相邻样本点是相对于为色度块选择的一个或多个参考行的左侧或上方的样本点。
61.根据解决方案40至59中任一项所述的方法,其中可用相邻样本点是相对于为色度块选择的一个或多个参考行以及CCLM的参数推导规则的左侧或上方的样本点。
62.根据解决方案40至61中任一项所述的方法,其中转换还包括:基于可用相邻样本点的数量,在第一分量块的转换期间解码以选择性地禁用或限制局部照明补偿。
63.根据解决方案40至61中任一项所述的方法,其中选择性地限制局部照明补偿包括:强制CCLM使用特定线性参数值。
64.根据解决方案1至63中任一项所述的方法,其中转换包括:从编码表示生成视频。
65.根据解决方案1至63中任一项所述的方法,其中转换包括:从视频生成编码表示。
66.一种视频处理装置,包括处理器,其被配置为实现解决方案1至65中任一项或多项中所述的方法。
67.一种其上存储代码的计算机可读程序介质,当该代码由处理器执行时,使处理器实现解决方案1至65中任一项或多项中所述的方法。
除上述解决方案外,在一些实施例中,可以实现以下解决方案。
1.一种视频处理方法(例如,图19所示的方法1900),包括:使用第一下采样方案生成(1902)与视频的色度块外的色度样本点相对应的下采样外亮度样本点;使用第二下采样方案生成(1904)与色度块内的色度样本点相对应的下采样内亮度样本点;至少使用(1906)下采样外亮度样本点来导出交叉分量预测的线性模型;使用线性模型和下采样内亮度样本点确定(1908)色度块的预测样本点;以及使用色度块的预测样本点执行(1910)视频和视频的编码表示之间的转换。
2.根据解决方案1所述的方法,其中第一下采样方案对应于将外上方亮度样本点下采样到左下和/或右下位置。
3.根据解决方案1或2所述的方法,其中第一下采样方案对应于将外部亮度样本点下采样到左下位置。
4.根据解决方案3所述的方法,其中第一下采样方案从上相邻亮度样本点a[i]计算下采样亮度样本点d[i]:
在所有样本点都可用的情况下,d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+2)>>2,或者
在a[2i-1]不可用的情况下,d[i]=(3*a[2i]+a[2i+1]+2)>>2,或者
在a[2i+1]不可用的情况下,d[i]=(3*a[2i]+a[2i-1]+2)>>2。
5.根据解决方案3所述的方法,其中第一下采样方案从上相邻亮度样本点a[i]计算下采样亮度样本点d[i]:
当i>0时,d[i]=(a[2i-1]+2*a[2i]+a[2i+1]+offset0)>>2,
当i=0时,d[i]=(3*a[2i]+a[2i+1]+offset1)>>2,或
d[i]=a[2i],或
d[i]=(a[2i]+a[2i+1]+offset2)>>1中的一个,
其中offset0、offset1和offset2是分数。
6.根据解决方案5所述的方法,其中offset0=offset1=2,offset2=1。
7.根据解决方案1所述的方法,其中第一下采样方案对应于将外左侧亮度样本点下采样到右下和/或右上位置。
8.根据解决方案1所述的方法,其中第一下采样方案对应于将外左侧亮度样本点下采样到右下和右上位置之间的中间。
9.根据解决方案8所述的方法,其中下采样亮度样本点d[i]计算为:
d[j]=(a[2j]+a[2j+1]+1)>>2。
10.根据解决方案1所述的方法,其中色度块具有W个像素的宽度和H个像素的高度,并且其中第一下采样方案生成N*W个亮度样本点,其中N是整数。
11.根据解决方案10所述的方法,其中N=2,并且其中第一下采样方案从上相邻亮度样本点生成亮度样本点。
12.根据解决方案1所述的方法,其中色度块具有W个像素的宽度和H个像素的高度,并且其中第一下采样方案从上相邻亮度样本点生成W+K个亮度下采样样本点,其中K是正整数。
13.根据解决方案1所述的方法,其中色度块具有W个像素的宽度和H个像素的高度,并且其中第一下采样方案从上方相邻样本点生成W/N个亮度下采样样本点,其中N是正整数。
14.根据解决方案1所述的方法,其中色度块具有W个像素的宽度和H个像素的高度,并且其中第一下采样方案从左侧相邻亮度样本点生成W*N个亮度下采样样本点,其中N是正整数。
15.根据解决方案1所述的方法,其中色度块具有W个像素的宽度和H个像素的高度,并且其中第一下采样方案从左侧相邻亮度样本点生成W+K个亮度下采样样本点,其中K是正整数。
16.根据解决方案1所述的方法,其中色度块具有W个像素的宽度和H个像素的高度,并且其中第一下采样方案从左侧相邻亮度样本点生成W/N个亮度下采样样本点,其中N是正整数。
17.根据解决方案1所述的方法,其中,基于满足位置标准的视频的色度块的位置来确定第一下采样方案或第二下采样方案。
18.根据解决方案1至16中任一项所述的方法,其中位置标准规定仅对视频的编码树单元的顶部边界的视频块使用该方法。
19.根据解决方案1至16中任一项所述的方法,其中位置标准规定仅对视频的编码树单元的左侧边界处的视频块使用该方法。
20.根据解决方案1至16中任一项所述的方法,其中位置标准规定仅对视频的编码树单元的上边界处的视频块或视频的编码树单元的左侧边界处的视频块使用该方法。
21.根据解决方案1至20中任一项所述的方法,其中第一下采样方案仅使用一个上相邻亮度样本点行来导出下采样外亮度样本点。
22.根据解决方案21所述的方法,其中一个上相邻亮度样本点行包括上方相邻样本点和右上方相邻样本点。
23.一种视频处理方法(例如,图20所示的方法2000),包括:为视频的色度块和视频的编码表示之间的转换确定(2002)线性模型;基于线性模型从与色度块相对应的亮度块生成(2004)色度块的预测值;以及使用线性模型执行(2006)转换;其中,从亮度块预测色度块包括:通过第一滤波方法下采样亮度块上方的亮度样本点,以及通过第二滤波方法下采样亮度块左侧的亮度样本点,并且其中至少基于下采样亮度样本点确定线性模型。
24.根据解决方案23所述的方法,其中第一滤波方法在视频的转换期间仅使用单个上相邻亮度行的亮度样本点。
25.根据解决方案23所述的方法,其中第一滤波方法和第二滤波方法不同。
26.根据解决方案23至25中任一项所述的方法,其中第一种滤波方法使用水平3抽头滤波器。
27.根据解决方案23至26中任一项所述的方法,其中第二滤波方法使用二维6抽头滤波器。
28.根据解决方案1至27中任一项所述的方法,其中转换包括:从编码表示生成视频。
29.根据解决方案1至27中任一项所述的方法,其中转换包括:从视频生成编码表示。
30.一种视频处理装置,包括处理器,其被配置为实现解决方案1至29中任一项或多项中所述的方法。
31.一种其上存储了代码的计算机可读程序介质,当该代码由处理器执行时,使处理器实现解决方案1至29中任一项或多项中所述的方法。
本文描述的各种视频处理解决方案可以在视频编码或压缩、视频解码或解压缩、视频转码或将视频表示从一种编码格式转换为另一种编码格式期间实现。
此外,尽管详述了属于视频的第一色度分量的第一色度块,类似的技术也可用于属于视频的第二色度分量的第二色度块(例如,Cr和Cb或U或V或另一类型的色度表示)。
除了上述解决方案之外,在一些实施例中,可以实现以下解决方案。
1.一种视频处理方法(例如,图23所示的方法2300),包括:基于视频的色度块的高度(H)和宽度(W),为视频和视频的比特流之间的转换确定(2302)线性模型的参数,其中线性模型的参数基于与色度块外的色度样本点相对应的下采样亮度样本点,并且其中H和W是正整数;基于线性模型的参数和与色度块相对应的亮度块内的一组下采样亮度样本点生成(2304)色度块的一组样本点;以及基于生成执行(2306)视频和比特流表示之间的转换。
2.根据解决方案1所述的方法,还包括:应用第一下采样方案以生成亮度块外的下采样亮度样本点。
3.根据解决方案2所述的方法,还包括:应用不同于第一下采样方案的第二下采样方案,以生成亮度块内的下采样亮度样本点。
4.根据解决方案1至3中任一项所述的方法,其中W>T1或H>T2,其中T1和T2是整数。
5.根据解决方案4所述的方法,其中T1=T2=4。
6.根据解决方案4所述的方法,其中T1=T2=2。
7.根据解决方案1至3中任一项所述的方法,其中H+W>T1,并且其中T1是整数。
8.根据解决方案7所述的方法,其中T1=6。
9.根据解决方案1至3中任一项所述的方法,其中W×H>T1,其中T1是整数。
10.根据解决方案9所述的方法,其中T1=16。
11.根据解决方案4至10中任一项所述的方法,其中在序列参数集(SPS)、序列报头、图片参数集(PPS)、图片报头、视频参数集(VPS)、条带报头、编码树单元(CTU)、编码单元(CU)或CTU组中预先定义或信令通知T1。
12.根据解决方案1至11中任一项所述的方法,其中线性模型包括多模型线性模式(MMLM)或单模型线性模式(LM)。
13.根据解决方案12所述的方法,其中亮度块外的下采样亮度样本点仅由左侧相邻样本点或仅由上方相邻样本点组成。
14.根据解决方案13所述的方法,其中在确定H>T1时应用仅使用左侧相邻样本点(左LM)的线性模型,其中T1是整数。
15.根据解决方案13所述的方法,其中在确定W>T1时应用仅使用上方相邻样本点(上LM)的线性模型,其中T1是整数。
16.根据解决方案14或15所述的方法,其中T1=4。
17.一种视频处理方法(例如,图24所示的方法2400),包括:基于视频的色度块的高度(H)和宽度(W),为视频和视频的比特流表示之间的转换确定(2402)线性模型的参数,其中线性模型的参数基于通过对与色度块外的色度样本点相对应的第二组亮度样本点进行下采样生成的第一组亮度样本点,并且其中第一组亮度样本点的数量基于高度或宽度,并且其中H和W是正整数;基于线性模型的参数和与色度块相对应的亮度块内的一组下采样亮度样本点生成(2404)色度块的一组样本点;以及基于生成执行(2406)视频和比特流表示之间的转换。
18.根据解决方案17所述的方法,其中在确定W等于H时,第一组亮度样本点包括亮度块上方的m×W个样本点和亮度块左侧的m×H个亮度样本点,并且其中m是正整数。
19.根据解决方案17所述的方法,其中在确定W≤H时,第一组亮度样本点包括亮度块上方的2×W个样本点和亮度块左侧的H个亮度样本点。
20.根据解决方案17所述的方法,其中在确定W≥H时,第一组亮度样本点包括亮度块上方的2×W个样本点和亮度块左侧的H个亮度样本点。
21.根据解决方案17所述的方法,其中在确定W≤H时,第一组亮度样本点包括亮度块上方的W个样本点和亮度块左侧的2×H个亮度样本点。
22.根据解决方案17所述的方法,其中在确定W≥H时,第一组亮度样本点包括亮度块上方的W个样本点和亮度块左侧的2×H个亮度样本点。
23.根据解决方案17所述的方法,其中在确定上方相邻块和右上方相邻块均可用时,第一组亮度样本点包括亮度块上方的2×W个亮度样本点,否则第一组亮度样本点包括亮度块上方的W个亮度样本点。
24.根据解决方案17所述的方法,其中在确定左侧相邻块和左下相邻块均可用时,第一组亮度样本点包括亮度块上方的2×H个亮度样本点,否则第一组亮度样本点包括亮度块上方的H个亮度样本点。
25.根据解决方案17所述的方法,其中第一组亮度样本点由当前视频块上方的样本点组成,并且其中线性模型的参数还基于通过对亮度块左侧的第四组亮度样本点进行下采样生成的第三组亮度样本点。
26.根据解决方案25所述的方法,其中在确定第三组亮度样本点的数量大于第一组亮度样本点的数量时抽取第三组亮度样本点。
27.根据解决方案25所述的方法,其中在确定第一组亮度样本点的数量大于第三组亮度样本点的数量时抽取第一组亮度样本点。
28.根据解决方案17所述的方法,其中第一组亮度样本点的数量小于预定值或在值的范围内。
29.根据解决方案28所述的方法,其中预定值为max(W,H)。
30.根据解决方案28所述的方法,其中值的范围是从min(W,H)到s×max(W,H),其中s是正整数。
31.根据解决方案30所述的方法,其中s=1或s=2。
32.根据解决方案17所述的方法,其中线性模型的参数还基于对应于色度块的亮度块的训练样本点。
33.根据解决方案32所述的方法,其中训练样本点包括最上方的预定数量的左侧相邻样本点和最左侧的预定数量的上方相邻样本点。
34.根据解决方案33所述的方法,其中预定数量为min(W,H)。
35.根据解决方案32所述的方法,其中亮度块外的第二组亮度样本点包括W个上方相邻样本点和H个左侧相邻样本点,并且其中在确定H=n×W时重复上方相邻样本点n次。
36.根据解决方案32所述的方法,其中亮度块外的第二组亮度样本点包括W个上方相邻样本点和H个左侧相邻样本点,并且其中在确定W=n×H时重复左侧相邻样本n次。
37.根据解决方案1至36中任一项所述的方法,其中执行转换包括:从当前视频块生成比特流表示。
38.根据解决方案1至36中任一项所述的方法,其中执行转换包括:从比特流表示生成当前视频块。
5.所公开技术的实施例
图15是视频处理组织1500的框图。组织1500可用于实现本文描述的一个或多个方法。装置1500可以实施在智能手机、平板电脑、计算机、物联网(IoT)接收器等中。装置1500可以包括一个或多个处理器1502、一个或多个存储器1504和视频处理硬件1506。处理器1502可以被配置为实现本文中描述的一个或多个方法(包括但不限于,方法1400)。存储器1504可以用于存储用于实现本文所述方法和技术的数据和代码。视频处理硬件1506可用于在硬件电路中实现本文所述的一些技术。
在一些实施例中,可以使用如关于图15所述的在硬件平台上实现的装置来实现视频编码方法。
图25是示出其中可以实施本文公开的各种技术的示例视频处理系统2500的框图。各种实现可能包括系统2500的部分或全部组件。系统2500可包括用于接收视频内容的输入2502。视频内容可以原始或未压缩格式接收,例如8位或10位多分量像素值,或者可以压缩或编码格式接收。输入2502可以表示网络接口、外围总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(PON)等的有线接口,以及诸如Wi-Fi或蜂窝接口的无线接口。
系统2500可包括可实现本文中所描述的各种编码或编码方法的编码组件2504。编码组件2504可以降低从输入2502到编码组件2504的输出的视频的平均比特率,以产生视频的编码表示。因此,编码技术有时被称为视频压缩或视频转码技术。编码组件2504的输出可以被存储,也可以通过连接的通信进行传输,如组件2506所示。输入2502处接收的视频的存储或通信比特流(或编码)表示可由组件2508用于生成像素值或发送到显示接口2510的可显示视频。从比特流表示生成用户可观看视频的处理有时称为视频解压缩。此外,尽管某些视频处理操作被称为“编码”操作或工具,但应当理解的是,编码工具或操作被用于编码器处,并且逆向编码结果的相应的解码工具或操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(USB)或高清晰度多媒体接口(HDMI)或显示端口等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等。本文中所述的技术可实施在各种电子设备中,例如移动电话、笔记本电脑、智能手机或其他能够执行数字数据处理和/或视频显示的设备。
从上述来看,应当理解的是,为了便于说明,本发明公开的技术的具体实施例已经在本文中进行了描述,但是可以在不偏离本发明范围的情况下进行各种修改。因此,除了所附权利要求所限制的之外,本发明公开的技术不受限制。
本文中公开的和其他描述的实施例、模块和功能操作可以在数字电子电路、或计算机软件、固件或硬件中实现,包括本文中所公开的结构及其结构等效体,或其中一个或多个的组合。公开的实施例和其他实施例可以实现为一个或多个计算机程序产品,即一个或多个编码在计算机可读介质上的计算机程序指令的模块,以供数据处理装置执行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储设备、影响机器可读传播信号的物质组成或其中一个或多个的组合。术语“数据处理单元”或“数据处理装置”包括用于处理数据的所有装置、设备和机器,包括例如可编程处理器、计算机或多处理器或计算机组。除硬件外,该装置还可以包括为计算机程序创建执行环境的代码,例如,构成处理器固件的代码、协议栈、数据库管理系统、操作系统或其中一个或多个的组合。
计算机程序(也称为程序、软件、软件应用、脚本或代码)可以用任何形式的编程语言(包括编译语言或解释语言)编写,并且可以以任何形式部署,包括作为独立程序或作为模块、组件、子程序或其他适合在计算环境中使用的单元。计算机程序不一定与文件系统中的文件对应。程序可以存储在保存其他程序或数据的文件的部分中(例如,存储在标记语言文档中的一个或多个脚本)、专用于该程序的单个文件中、或多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)中。计算机程序可以部署在一台或多台计算机上来执行,这些计算机位于一个站点上或分布在多个站点上,并通过通信网络互连。
本文中描述的处理和逻辑流可以通过一个或多个可编程处理器执行,该处理器执行一个或多个计算机程序,通过在输入数据上操作并生成输出来执行功能。处理和逻辑流也可以通过特殊用途的逻辑电路来执行,并且装置也可以实现为特殊用途的逻辑电路,例如,FPGA(现场可编程门阵列)或ASIC(专用集成电路)。
例如,适于执行计算机程序的处理器包括通用和专用微处理器,以及任何类型数字计算机的任何一个或多个。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是执行指令的处理器和存储指令和数据的一个或多个存储设备。通常,计算机还将包括一个或多个用于存储数据的大容量存储设备,例如,磁盘、磁光盘或光盘,或通过操作耦合到一个或多个大容量存储设备来从其接收数据或将数据传输到一个或多个大容量存储设备,或两者兼有。然而,计算机不一定具有这样的设备。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内硬盘或可移动磁盘;磁光磁盘;以及CDROM和DVD-ROM光盘。处理器和存储器可以由专用逻辑电路来补充,或合并到专用逻辑电路中。
本说明书连同附图仅被视为示例性的,其中示例性是指示例。如本文所用,“或”的使用意欲包括“和/或”,除非上下文另有明确指示。
虽然本专利文件包含许多细节,但不应将其解释为对任何发明或权利要求范围的限制,而应解释为对特定发明的特定实施例的特征的描述。本专利文件在单独实施例的上下文描述的一些特征也可以在单个实施例中组合实施。相反,在单个实施例的上下文中描述的各种功能也可以在多个实施例中单独实施,或在任何合适的子组合中实施。此外,尽管上述特征可以描述为在一些组合中起作用,甚至最初要求是这样,但在一些情况下,可以从组合中移除权利要求组合中的一个或多个特征,并且权利要求的组合可以指向子组合或子组合的变体。
同样,尽管附图中以特定顺序描述了操作,但这不应理解为要获得想要的结果必须按照所示的特定顺序或顺序执行此类操作,或执行所有说明的操作。此外,本专利文件所述实施例中各种系统组件的分离不应理解为在所有实施例中都需要这样的分离。
仅描述了一些实现和示例,其他实现、增强和变体可以基于本专利文件中描述和说明的内容做出。

Claims (62)

1.一种视频处理方法,包括:
对于视频和所述视频的编码表示之间的转换,至少使用亮度块外的下采样亮度样本点,确定用于预测与所述亮度块共位的所述视频的第一色度块的线性模型;
使用所述亮度块内的下采样亮度样本点和所述线性模型,确定所述第一色度块的样本点的预测值;以及
基于所述第一色度块的所述样本点的预测值执行所述转换;
其中,通过对所述亮度块外的亮度样本点应用外部滤波器来获得所述亮度块外的所述下采样亮度样本点;并且
其中,通过对所述亮度块内的亮度样本点应用内部滤波器来获得所述亮度块内的所述下采样亮度样本点;以及
其中,所述亮度块内的所述下采样亮度样本点和所述亮度块外的所述下采样亮度样本点进一步用于所述第一色度块的第二预测。
2.根据权利要求1所述的方法,其中所述亮度块内的所述下采样亮度样本点位于与所述第一色度块的色度样本点位置相对应的位置。
3.根据权利要求1至2中任一项所述的方法,其中所述内部滤波器对应于传统滤波器。
4.根据权利要求1至2中任一项所述的方法,其中所述外部滤波器与所述内部滤波器不同。
5.根据权利要求1至4中任一项所述的方法,其中所述亮度块外的所述亮度样本点包括相邻亮度样本点或非相邻亮度样本点。
6.根据权利要求5所述的方法,其中所述亮度块外的所述下采样亮度样本点也用于确定所述第一色度块的样本点的预测值。
7.根据权利要求1至6中任一项所述的方法,其中所述外部滤波器的滤波器抽头或滤波器系数取决于所述外部滤波器是应用于所述亮度块的左侧还是上方。
8.根据权利要求1至7中任一项所述的方法,其中所述内部滤波器的长度或所述外部滤波器的长度取决于所述第一色度块或所述亮度块的形状或尺寸。
9.根据权利要求1至8中任一项所述的方法,其中在所述亮度块外或所述亮度块内的所述亮度样本点的位置是所述第一色度块或所述亮度块的尺寸或形状的函数。
10.根据权利要求1至9中任一项所述方法,其中,所述确定所述第一色度块的样本点包括:使用细化预测块预测所述第一色度块的样本点,所述细化预测块是通过将所述线性模型应用于所述亮度块内的所述下采样亮度样本点而生成的中间预测块的细化。
11.根据权利要求10所述的方法,其中,所述中间预测块的所述细化使用与所述第一色度块相邻的重构色度样本点。
12.根据权利要求10所述的方法,其中,所述中间预测块的所述细化使用与所述第一色度块不相邻的重构色度样本点。
13.根据权利要求10至12中任一项所述的方法,其中,将所述细化预测块确定为所述中间预测块和相邻或非相邻重构色度样本点的线性函数。
14.根据权利要求10至13中任一项所述的方法,其中,所述细化包括:将所述中间预测块的样本点复制为所述第一色度块的特定位置中的所述细化预测块。
15.根据权利要求10所述的方法,其中,从所述中间预测块和从先前的重构色度块生成的另一个色度预测块生成所述细化预测块。
16.根据权利要求15所述的方法,其中所述另一个色度预测块是帧内预测色度块。
17.根据权利要求15至16中任一项所述的方法,其中所述第一色度块的所述样本点被确定为所述中间预测块和所述另一个色度预测块的线性加权。
18.根据权利要求17所述的方法,其中,在所述第一色度块的一些像素位置处,给所述另一个色度预测块0%的权重,并且给所述中间预测块100%的权重。
19.根据权利要求16所述的方法,其中所述帧内预测色度块使用所述亮度块的帧内预测模式。
20.根据权利要求18所述的方法,其中所述一些像素位置包括所述第一色度块的上k行或所述第一色度块的左m列,其中k和m是整数。
21.根据权利要求1至20中任一项所述的方法,其中所述转换还包括:对所述亮度块和/或所述第一色度块执行边界滤波。
22.根据权利要求21所述的方法,其中,仅在上方或左侧相邻样本点可用或上方和左侧样本点都可用的情况下才应用所述边界滤波。
23.根据权利要求11所述的方法,其中,与所述第一色度块相邻的所述重构色度样本点包括上方色度样本点、左侧或上方色度样本点和左侧色度样本点。
24.根据权利要求23所述的方法,其中所述上方色度样本点表示为a[-1][j],并且其中所述中间预测块的第i行和第j列中的样本点为a[i][j],则所述第一色度块的第(i,j)个位置处的样本点计算为a'[i][j]=(w1*a[i][j]+w2*a[-1][j]+2N-1)>>N,其中w1+w2=2N,其中N为整数。
25.根据权利要求21所述的方法,其中所述边界滤波仅适用于行i<=K,其中K是等于零或1的整数。
26.根据权利要求24至25中任一项所述的方法,其中K=0,w1=3并且w2=1。
27.根据权利要求24所述的方法,其中w1和w2是行索引i的函数。
28.根据权利要求27所述的方法,其中i=0时K=1,w1=w2=1,并且i=1时K=1,w1=3,w2=1。
29.根据权利要求23所述的方法,其中所述左侧色度样本点表示为a[i][-1],并且其中所述中间预测块的第i行和第j列中的样本点为a[i][j],则将所述第一色度块中第(i,j)个位置处的样本点计算为a'[i][j]=(w1*a[i][j]+w2*a[i][[-1]+2N-1)>>N,其中w1+w2=2N,其中N是整数。
30.根据权利要求21所述的方法,其中所述边界滤波仅适用于列j<=K,其中K是等于零或1的整数。
31.根据权利要求24所述的方法,其中w1和w2是列索引j的函数。
32.根据权利要求27所述的方法,其中当j=0时K=1,w1=w2=1,并且当j=1时K=1,w1=3,w2=1。
33.根据权利要求23所述的方法,其中所述左侧色度样本点表示为a[i][-1],上方样本点表示为a[-1][j],并且其中所述中间预测块的第i行第j列的样本点为a[i][j],则将所述第一色度块的第(i,j)个位置处的样本点计算为a'[i][j]=(w1*a[i][j]+w2*a[i][-1]+w3*a[-1][j]+2N-1)>>N,其中w1+w2+w3=2N,其中N是整数。
34.根据权利要求21所述的方法,其中所述边界滤波仅适用于列i<=K、列j<=P,其中K和P是等于零或1的整数。
35.根据权利要求27所述的方法,其中对w1=2且w2=w3=1的a[0][0]应用边界滤波。
36.一种视频处理方法,包括:
对于视频和所述视频的编码表示之间的转换,基于使用可用相邻样本点的数量的规则,在转换期间确定用于从第二分量块预测第一分量块的一个或多个交叉分量线性模型(CCLM);以及
使用所述交叉分量线性模型执行所述转换,其中所述交叉分量线性模型是以下中的一个:
从所述第一分量块的上方和/或右上相邻值导出的CCLM(CCLM-A);
从所述第一分量块的左侧和/或左下相邻值导出的CCLM(CCLM-T);或
仅从第一个分量块的左侧和上方相邻值导出的CCLM(CCLM-TL);以及
其中所述可用相邻样本点包括色度相邻样本点。
37.根据权利要求36所述的方法,其中所述第一分量块对应于色度块。
38.根据权利要求36至37中任一项所述的方法,其中所述第二分量块对应于亮度块。
39.根据权利要求36至38中任一项所述的方法,其中,如果所述规则禁止CCLM的使用,则所述编码表示省略使用语法元素信令通知所述CCLM。
40.根据权利要求36至38中任一项所述的方法,其中,如果所述规则禁止CCLM的使用,则所述编码表示通过所述编码表示中的语法元素来信令通知所述CCLM被禁用。
41.根据权利要求36至38中任一项所述的方法,其中,如果所述规则禁止CCLM的使用,则所述编码表示信令包括所述CCLM的语法元素,其中预计解码器忽略所述语法元素。
42.根据权利要求36至41中任一项所述的方法,其中所述可用相邻样本点包括亮度相邻样本点。
43.根据权利要求36至41中任一项所述的方法,其中所述可用相邻样本点包括下采样亮度相邻样本点。
44.根据权利要求36至43中任一项所述的方法,其中所述编码表示信令通知特定CCLM,其中所述特定CCLM使用斜率α为零且截距β为固定数的线性模型。
45.根据权利要求44所述的方法,其中所述固定数是比特深度的函数。
46.根据权利要求36至45中任一项所述的方法,其中由于所述可用相邻样本点的数量小于阈值所述规则禁止CCLM或CCLM-A或CCLM-T的使用。
47.根据权利要求36至45中任一项所述的方法,其中由于所述第一分量块的宽度为二或左侧相邻样本点不可用所述规则禁止CCLM的使用。
48.根据权利要求36至45中任一项所述的方法,其中由于所述第一分量块的宽度为二或上方相邻样本点不可用所述规则禁止CCLM的使用。
49.根据权利要求36至45中任一项所述的方法,其中由于所述第一分量块的宽度为二所述规则禁止CCLM-T的使用。
50.根据权利要求36至45中任一项所述的方法,其中由于所述第一分量块的宽度为二且右上相邻块不可用所述规则禁止CCLM-T的使用。
51.根据权利要求36至45中任一项所述的方法,其中由于所述第一分量块的高度为二所述规则禁止CCLM-L的使用。
52.根据权利要求36至45中任一项所述的方法,其中由于所述第一分量块的高度为二且右上相邻块不可用所述规则禁止CCLM-L的使用。
53.根据权利要求36至52中任一项所述的方法,其中所述规则规定由于CCLM不可用而禁用CCLM-L。
54.根据权利要求36至52中任一项所述的方法,其中所述规则规定由于CCLM不可用而禁用CCLM-T。
55.根据权利要求36至54中任一项所述的方法,其中所述可用相邻样本点是相对于为所述第一分量块选择的一个或多个参考行的左侧或上方的样本点。
56.根据权利要求36至54中任一项所述的方法,其中所述可用相邻样本点是相对于为所述第一分量块选择的一个或多个参考行以及所述CCLM的参数推导规则的左侧或上方的样本点。
57.根据权利要求36至56中任一项所述的方法,其中所述转换还包括:基于所述可用相邻样本点的数量,在所述第一分量块的所述转换期间解码以选择性地禁用或限制局部照明补偿。
58.根据权利要求57所述的方法,其中所述选择性地限制局部照明补偿包括:强制CCLM使用特定线性参数值。
59.根据权利要求1至58中任一项所述的方法,其中所述转换包括:从所述编码表示生成所述视频。
60.根据权利要求1至58中任一项所述的方法,其中所述转换包括:从所述视频生成所述编码表示。
61.一种视频处理装置,包括处理器,其被配置为实现权利要求1至60中任一项或多项中所述的方法。
62.一种其上存储代码的计算机可读程序介质,当所述代码由处理器执行时,使所述处理器实现权利要求1至60中任一项或多项中所述的方法。
CN201910866496.3A 2018-09-12 2019-09-12 交叉分量线性建模中的下采样 Active CN110896478B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
CN2018105182 2018-09-12
CNPCT/CN2018/105182 2018-09-12
CNPCT/CN2018/108681 2018-09-29
CN2018108681 2018-09-29
CN2019088005 2019-05-22
CNPCT/CN2019/088005 2019-05-22

Publications (2)

Publication Number Publication Date
CN110896478A CN110896478A (zh) 2020-03-20
CN110896478B true CN110896478B (zh) 2023-02-17

Family

ID=68242778

Family Applications (4)

Application Number Title Priority Date Filing Date
CN201910866496.3A Active CN110896478B (zh) 2018-09-12 2019-09-12 交叉分量线性建模中的下采样
CN201910866520.3A Active CN110896479B (zh) 2018-09-12 2019-09-12 单行交叉分量线性模型预测模式
CN202311412324.1A Pending CN117478883A (zh) 2018-09-12 2019-09-12 交叉分量线性模型中的尺寸相关的下采样
CN201910867329.0A Active CN110896480B (zh) 2018-09-12 2019-09-12 交叉分量线性模型中的尺寸相关的下采样

Family Applications After (3)

Application Number Title Priority Date Filing Date
CN201910866520.3A Active CN110896479B (zh) 2018-09-12 2019-09-12 单行交叉分量线性模型预测模式
CN202311412324.1A Pending CN117478883A (zh) 2018-09-12 2019-09-12 交叉分量线性模型中的尺寸相关的下采样
CN201910867329.0A Active CN110896480B (zh) 2018-09-12 2019-09-12 交叉分量线性模型中的尺寸相关的下采样

Country Status (4)

Country Link
US (3) US11172202B2 (zh)
CN (4) CN110896478B (zh)
TW (3) TWI824006B (zh)
WO (3) WO2020053804A1 (zh)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019194484A1 (ko) 2018-04-01 2019-10-10 김기백 인트라 예측을 이용한 영상 부호화/복호화 방법 및 장치
CN110719479B (zh) 2018-07-15 2023-01-10 北京字节跳动网络技术有限公司 跨分量编码信息导出
PT3815377T (pt) * 2018-07-16 2023-03-30 Huawei Tech Co Ltd Codificador de vídeo, decodificador de vídeo e métodos de codificação e decodificação correspondentes
CN116347109A (zh) 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
TWI824006B (zh) 2018-09-12 2023-12-01 大陸商北京字節跳動網絡技術有限公司 交叉分量線性建模中的下採樣
KR102608366B1 (ko) * 2018-10-05 2023-11-29 후아웨이 테크놀러지 컴퍼니 리미티드 인트라 예측 방법 및 디바이스
JP7518065B2 (ja) 2018-10-12 2024-07-17 オッポ広東移動通信有限公司 ビデオ画像成分予測方法および装置、コンピュータ記憶媒体
US11197005B2 (en) * 2018-11-08 2021-12-07 Qualcomm Incorporated Cross-component prediction for video coding
KR20210113188A (ko) * 2018-12-21 2021-09-15 브이아이디 스케일, 인크. 템플릿 기반 비디오 코딩을 위한 개선된 선형 모델 추정에 관한 방법들, 아키텍처들, 장치들 및 시스템들
WO2020125794A1 (en) 2018-12-22 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Two step cross-component prediction mode
WO2020182091A1 (en) 2019-03-08 2020-09-17 Beijing Bytedance Network Technology Co., Ltd. Reshaping model in video processing
AU2020260285B2 (en) 2019-04-18 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
BR112021019675A2 (pt) 2019-04-23 2021-12-07 Beijing Bytedance Network Tech Co Ltd Método para processamento de mídia visual, aparelho codificador de vídeo, aparelho decodificador de vídeo, e, mídia legível por computador
CN117221558A (zh) 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
CN113875244A (zh) * 2019-05-22 2021-12-31 北京字节跳动网络技术有限公司 利用多行的线性模型模式参数推导
KR20220024006A (ko) 2019-06-22 2022-03-03 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로마 잔차 스케일링을 위한 신택스 요소
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
US11451834B2 (en) * 2019-09-16 2022-09-20 Tencent America LLC Method and apparatus for cross-component filtering
EP4042684A4 (en) 2019-10-29 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. SIGNALING AN ADAPTIVE CROSS-COMPONENT LOOP FILTER
CN114667730A (zh) 2019-11-01 2022-06-24 北京字节跳动网络技术有限公司 交叉分量视频编解码的块尺寸限制
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
JP7393550B2 (ja) 2019-12-11 2023-12-06 北京字節跳動網絡技術有限公司 クロス成分適応ループフィルタリングのためのサンプルパディング
WO2021136508A1 (en) 2019-12-31 2021-07-08 Beijing Bytedance Network Technology Co., Ltd. Inter-prediction with multiple-parameter model
US11575909B2 (en) * 2020-04-07 2023-02-07 Tencent America LLC Method and apparatus for video coding
KR20230002432A (ko) * 2020-04-18 2023-01-05 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 교차 성분 예측을 위한 사용 제한
CN115834912A (zh) 2020-06-03 2023-03-21 北京达佳互联信息技术有限公司 对视频进行编码的方法和装置
CN111669585B (zh) * 2020-06-12 2022-10-28 浙江大华技术股份有限公司 帧内预测方法、视频编码方法以及相关设备、装置
CN116325728A (zh) 2020-06-30 2023-06-23 抖音视界有限公司 自适应环路滤波的边界位置
WO2022067805A1 (zh) * 2020-09-30 2022-04-07 Oppo广东移动通信有限公司 图像预测方法、编码器、解码器以及计算机存储介质
CN113365067B (zh) * 2021-05-21 2023-03-14 中山大学 基于位置加权的色度线性预测方法、装置、设备及介质
CN113992913B (zh) * 2021-12-29 2022-05-17 康达洲际医疗器械有限公司 一种可适用于vvc编码标准的帧内跨分量预测方法与系统
WO2023182751A1 (ko) * 2022-03-21 2023-09-28 주식회사 케이티 영상 부호화/복호화 방법 및 장치
WO2024022325A1 (en) * 2022-07-27 2024-02-01 Mediatek Inc. Method and apparatus of improving performance of convolutional cross-component model in video coding system
US20240080443A1 (en) * 2022-09-02 2024-03-07 Tencent America LLC Selecting downsampling filters for chroma from luma prediction
WO2024072945A1 (en) * 2022-09-29 2024-04-04 Beijing Dajia Internet Information Technology Co., Ltd Method and apparatus for cross-component prediction for video coding
WO2024081291A1 (en) * 2022-10-12 2024-04-18 Beijing Dajia Internet Information Technology Co., Ltd Method and apparatus for cross-component prediction for video coding
WO2024078551A1 (en) * 2022-10-13 2024-04-18 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing
WO2024114701A1 (en) * 2022-11-30 2024-06-06 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing
WO2024124188A1 (en) * 2022-12-09 2024-06-13 Beijing Dajia Internet Information Technology Co., Ltd Method and apparatus for cross-component prediction for video coding
WO2024137862A1 (en) * 2022-12-22 2024-06-27 Bytedance Inc. Method, apparatus, and medium for video processing
WO2024148016A1 (en) * 2023-01-02 2024-07-11 Bytedance Inc. Method, apparatus, and medium for video processing
CN115834897B (zh) * 2023-01-28 2023-07-25 深圳传音控股股份有限公司 处理方法、处理设备及存储介质
WO2024182720A1 (en) * 2023-03-02 2024-09-06 Bytedance Inc. Method, apparatus, and medium for video processing
WO2024182735A1 (en) * 2023-03-02 2024-09-06 Bytedance Inc. Method, apparatus, and medium for video processing

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104718759A (zh) * 2012-01-24 2015-06-17 华为技术有限公司 Lm模式的简化
GB201716538D0 (en) * 2017-10-09 2017-11-22 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
WO2017214420A1 (en) * 2016-06-08 2017-12-14 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
WO2018140587A1 (en) * 2017-01-27 2018-08-02 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity

Family Cites Families (54)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6259738B1 (en) 1996-10-31 2001-07-10 Kabushiki Kaisha Toshiba Video encoding apparatus and video decoding apparatus
US9288500B2 (en) 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
US9565428B2 (en) * 2011-06-20 2017-02-07 Mediatek Singapore Pte. Ltd. Method and apparatus of chroma intra prediction with reduced line memory
US9693070B2 (en) 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
KR101588144B1 (ko) 2011-07-12 2016-01-22 인텔 코포레이션 루마 기반 크로마 인트라 예측
GB2495942B (en) * 2011-10-25 2014-09-03 Canon Kk Method and apparatus for processing components of an image
CN103096055B (zh) 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
US9344722B2 (en) 2011-11-18 2016-05-17 Futurewei Technologies, Inc. Scanning of prediction residuals in high efficiency video coding
US9307237B2 (en) 2012-01-19 2016-04-05 Futurewei Technologies, Inc. Reference pixel reduction for intra LM prediction
WO2013155662A1 (en) 2012-04-16 2013-10-24 Mediatek Singapore Pte. Ltd. Methods and apparatuses of simplification for intra chroma lm mode
WO2014154094A1 (en) 2013-03-26 2014-10-02 Mediatek Inc. Method of cross color intra prediction
TWI652937B (zh) 2013-10-07 2019-03-01 Vid衡器股份有限公司 多層視訊編碼組合可調能力處理方法
US10200700B2 (en) 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
JP2017531382A (ja) 2014-09-12 2017-10-19 ヴィド スケール インコーポレイテッド ビデオ符号化のための成分間相関解除
KR20200051831A (ko) 2014-10-28 2020-05-13 미디어텍 싱가폴 피티이. 엘티디. 비디오 코딩을 위한 가이드된 크로스-컴포넌트 예측 방법
WO2016115981A1 (en) 2015-01-22 2016-07-28 Mediatek Singapore Pte. Ltd. Method of video coding for chroma components
US9998742B2 (en) 2015-01-27 2018-06-12 Qualcomm Incorporated Adaptive cross component residual prediction
US10455249B2 (en) 2015-03-20 2019-10-22 Qualcomm Incorporated Downsampling process for linear model prediction mode
WO2016154963A1 (en) * 2015-04-01 2016-10-06 Mediatek Inc. Methods for chroma coding in video codec
US10045023B2 (en) 2015-10-09 2018-08-07 Telefonaktiebolaget Lm Ericsson (Publ) Cross component prediction in video coding
US20170150156A1 (en) * 2015-11-25 2017-05-25 Qualcomm Incorporated Illumination compensation with non-square predictive blocks in video coding
WO2017139937A1 (en) * 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
EP3466071A4 (en) 2016-05-24 2019-04-24 Sharp Kabushiki Kaisha INTRA PREDICTION CODING SYSTEMS AND METHODS
US11778231B2 (en) 2016-05-26 2023-10-03 Vid Scale, Inc. Geometric conversion for 360-degree video coding
US10326986B2 (en) 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10368107B2 (en) 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10390015B2 (en) * 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) * 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10652575B2 (en) * 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
WO2018064948A1 (en) * 2016-10-04 2018-04-12 Mediatek Inc. Method and apparatus for intra chroma coding in image and video coding
US10477240B2 (en) * 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US11025903B2 (en) * 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
JP7036628B2 (ja) 2017-03-10 2022-03-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US20200120359A1 (en) * 2017-04-11 2020-04-16 Vid Scale, Inc. 360-degree video coding using face continuities
CN114430486A (zh) * 2017-04-28 2022-05-03 夏普株式会社 图像解码装置以及图像编码装置
US11190762B2 (en) * 2017-06-21 2021-11-30 Lg Electronics, Inc. Intra-prediction mode-based image processing method and apparatus therefor
WO2018236031A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN116781893A (zh) 2017-07-05 2023-09-19 艾锐势有限责任公司 对视频编码、解码的方法和计算机可读存储器或存储装置
JP2021005741A (ja) * 2017-09-14 2021-01-14 シャープ株式会社 画像符号化装置及び画像復号装置
US10965941B2 (en) 2017-10-09 2021-03-30 Qualcomm Incorporated Position-dependent prediction combinations in video coding
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
US10609402B2 (en) 2018-05-02 2020-03-31 Tencent America LLC Method and apparatus for prediction and transform for small blocks
US20190342546A1 (en) 2018-05-03 2019-11-07 FG Innovation Company Limited Device and method for coding video data based on different reference sets in linear model prediction
CN116708837A (zh) 2018-07-02 2023-09-05 Lg电子株式会社 编解码设备和数据发送设备
CN116347109A (zh) * 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
TWI824006B (zh) 2018-09-12 2023-12-01 大陸商北京字節跳動網絡技術有限公司 交叉分量線性建模中的下採樣
WO2020094057A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Position based intra prediction
BR112021010428A2 (pt) * 2018-12-07 2021-08-24 Beijing Bytedance Network Technology Co., Ltd. Método para processamento de vídeo, aparelho em um sistema de vídeo, e, produto de programa de computador
US11095921B2 (en) 2018-12-18 2021-08-17 Tencent America LLC Method and apparatus for video encoding or decoding
WO2020169101A1 (en) * 2019-02-22 2020-08-27 Beijing Bytedance Network Technology Co., Ltd. Neighbouring sample selection for intra prediction
CN113491121B (zh) 2019-02-24 2022-12-06 北京字节跳动网络技术有限公司 对视频数据进行编解码的方法、设备及计算机可读介质
AU2020260285B2 (en) * 2019-04-18 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Restriction on applicability of cross component mode
CN117221558A (zh) * 2019-05-08 2023-12-12 北京字节跳动网络技术有限公司 跨分量编解码的适用性条件
US11115658B2 (en) * 2019-06-25 2021-09-07 Qualcomm Incorporated Matrix intra prediction and cross-component linear model prediction harmonization for video coding

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104718759A (zh) * 2012-01-24 2015-06-17 华为技术有限公司 Lm模式的简化
WO2017214420A1 (en) * 2016-06-08 2017-12-14 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
WO2018140587A1 (en) * 2017-01-27 2018-08-02 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
GB201716538D0 (en) * 2017-10-09 2017-11-22 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Description of Core Experiment 3 Intra Prediction and Mode Coding;Geert Van der Auwera;《Description of Core Experiment 3 Intra Prediction and Mode Coding》;20180718;第29.2节 *

Also Published As

Publication number Publication date
TWI824006B (zh) 2023-12-01
CN117478883A (zh) 2024-01-30
US20210092396A1 (en) 2021-03-25
US11812026B2 (en) 2023-11-07
WO2020053804A1 (en) 2020-03-19
WO2020053805A1 (en) 2020-03-19
TWI827675B (zh) 2024-01-01
US20240015298A1 (en) 2024-01-11
TWI820212B (zh) 2023-11-01
US20220053192A1 (en) 2022-02-17
CN110896479B (zh) 2023-10-03
CN110896480B (zh) 2024-09-10
TW202025729A (zh) 2020-07-01
TW202025728A (zh) 2020-07-01
CN110896479A (zh) 2020-03-20
CN110896478A (zh) 2020-03-20
US11172202B2 (en) 2021-11-09
CN110896480A (zh) 2020-03-20
WO2020053806A1 (en) 2020-03-19
TW202025756A (zh) 2020-07-01

Similar Documents

Publication Publication Date Title
CN110896478B (zh) 交叉分量线性建模中的下采样
CN110839153B (zh) 一种处理视频数据的方法和装置
CN113491121B (zh) 对视频数据进行编解码的方法、设备及计算机可读介质
JP2022521698A (ja) イントラ予測のための隣接サンプル選択
CN110933412A (zh) 用于帧内块复制的基于历史的运动矢量预测值
CN113767631B (zh) 用于帧内预测的参数推导中的条件
CN114287133B (zh) 帧内模式中的预测样点滤波的加权因子
WO2020143825A1 (en) Size dependent cross-component linear model
CN113632474B (zh) 用于帧间预测的参数推导
CN114223200A (zh) 位置相关帧内预测样点滤波
WO2020233711A1 (en) Linear model mode parameter derivation with multiple lines
CN118921457A (zh) 帧内模式中的预测样点滤波的加权因子

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant