CN113491121B - 对视频数据进行编解码的方法、设备及计算机可读介质 - Google Patents

对视频数据进行编解码的方法、设备及计算机可读介质 Download PDF

Info

Publication number
CN113491121B
CN113491121B CN202080016185.9A CN202080016185A CN113491121B CN 113491121 B CN113491121 B CN 113491121B CN 202080016185 A CN202080016185 A CN 202080016185A CN 113491121 B CN113491121 B CN 113491121B
Authority
CN
China
Prior art keywords
samples
chroma
luma
sample
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080016185.9A
Other languages
English (en)
Other versions
CN113491121A (zh
Inventor
张凯
张莉
刘鸿彬
许继征
王悦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Priority to CN202211461592.8A priority Critical patent/CN115967810A/zh
Publication of CN113491121A publication Critical patent/CN113491121A/zh
Application granted granted Critical
Publication of CN113491121B publication Critical patent/CN113491121B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding

Abstract

提供了一种视频处理方法。所述方法包括,为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点确定跨分量线性模型(CCLM)的参数;并且基于所述确定进行所述转换。

Description

对视频数据进行编解码的方法、设备及计算机可读介质
相关申请的交叉引用
本申请基于2020年2月24日提交的国际专利申请PCT/CN2020/076362,并要求于2019年2月24日提交的国际专利申请No.PCT/CN2019/075993,于2019年2月26日提交的国际专利申请No.PCT/CN2019/076195,于2019年3月24日提交的国际专利申请No.PCT/CN2019/079396,于2019年3月25日提交的国际专利申请No.PCT/CN2019/079431,以及于2019年3月26日提交的国际专利申请No.PCT/CN2019/079769的优先权和利益。上述申请的全部公开内容作为本申请公开内容的一部分通过引用并入。
技术领域
本专利文档涉及视频处理技术、装置和系统。
背景技术
尽管视频压缩有所进步,数字视频在互联网和其他数字通信网络上仍占最大的带宽使用量。随着能够接收和显示视频的连接用户设备的数量增加,预计数字视频使用所需的带宽将继续增长。
发明内容
本公开描述了装置、系统和方法,其涉及数字视频处理,以及例如视频编解码中的跨分量线性模型(cross-component linear model,CCLM)预测模式的简化线性模型推导。所描述的方法可以应用于现有视频编解码标准(例如,高效视频编解码(HEVC))和未来视频编解码标准(例如,多功能视频编解码(VVC)),或编解码器。
在一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型(CCLM)的参数,所述色度样点基于W个可用的上方邻近样点选择,W是整数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点确定跨分量线性模型(CCLM)预测模式的参数,所述色度样点基于当前视频块的H个可用的左侧邻样点选择;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于位置规则,选择用于推导跨分量线性模型(CCLM)的参数的色度样点;以及基于所述确定进行转换,其中,所述位置规则指定选择位于当前视频块的上方行和/或左侧列内的色度样点。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和该视频的编解码表示之间的转换,确定向下采样的亮度样点的位置,其中向下采样的亮度样点被用于基于色度样点和向下采样的亮度样点确定跨分量线性模型(CCLM)的参数,其中向下采样的亮度样点位于与用于推导CCLM的参数的色度样点的位置对应的位置;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定一种方法,该方法使用色度样点和亮度样点,基于与当前视频块相关联的编解码条件,推导跨分量线性模型(CCLM)的参数;以及基于所述确定进行转换。
在另一个代表性方面中,本公开技术可以用于提供视频处理的方法。该方法包括:为视频的作为色度块的当前视频块和该视频的编解码表示之间的转换,基于当前视频块的左邻近块和上邻近块的可用性,确定是否推导用于推导跨分量线性模型(CCLM)的参数的亮度分量和色度分量的最大值和/或最小值;以及基于所述确定进行转换。
在又一个代表性方面中,上述方法实现为处理器可执行代码的形式并存储在计算机可读程序介质中。
在又一个代表性方面中,公开了配置为或可操作为执行上述方法的装置。该装置可以包括被编程为实现该方法的处理器。
在又一个代表性方面中,视频解码器设备可以实现如本文所述的方法。
附图、说明书和权利要求中更详细描述了本公开技术的以上和其他方面和特征。
附图说明
图1示出了用于推导线性模型的权重的样点的位置的示例,该线性模型用于跨分量预测。
图2示出了将相邻样点分类为两组的示例。
图3A示出了色度样点及其对应的亮度样点的示例。
图3B示出了联合探索模型(JEM)中的跨分量线性模型(CCLM)的向下滤波的示例。
图4A和图4B分别示出了用于基于线性模型的预测的仅上邻近和仅左邻近样点的示例。
图5示出了作为对应的色度样点的函数的最大和最小亮度值之间的直线的示例。
图6示出了当前色度块及其相邻样点的示例。
图7示出了由仅使用左邻近样点(LM-L)的线性模型和仅使用上邻近样点(LM-A)的线性模型预测的色度块的不同部分的示例。
图8示出了左上邻近块的示例。
图9示出了要用于推导线性模型的样点的示例。
图10示出了相对于当前块的左和左下列以及上和右上行的示例。
图11示出了当前块及其参考样点的示例。
图12示出了当左和上邻近参考样点可用时两个邻近样点的示例。
图13示出了当仅上邻近参考样点可用时两个邻近样点的示例。
图14示出了当仅左邻近参考样点可用时两个邻近样点的示例。
图15示出了当左和上邻近参考样点可用时四个邻近样点的示例。
图16示出了LM推导中使用的查找表的示例。
图17示出了具有64个条目的LM参数推导过程的示例。
图18A和18B示出了基于本公开技术的一些实现方式的视频处理的示例方法的流程图。
图19A和19B示出基于所公开技术的一些实施方案的视频处理的示例方法的流程图。
图20A-图20C示出基于所公开技术的一些实施方案的视频处理的另一示例方法的流程图。
图21A和21B是用于实现本文档中描述的视觉媒体解码或视觉媒体编码技术的硬件平台的示例的框图。
图22A和22B显示了具有四个条目的LM参数推导过程的示例。图22A示出了上方和左侧的邻近样点均可用的示例,图22B给出了仅上邻近样点可用且右上邻近样点不可用的示例。
图23显示了用于推导LIC参数的相邻样点的示例。
具体实施方式
由于对更高分辨率视频的需求的增加,在现代技术中普遍存在视频编解码方法和技术。视频编解码器通常包括压缩或解压缩数字视频的电子电路或软件,并且不断改进以提供更高的编解码效率。视频编解码器将未压缩视频转换为压缩格式,反之亦然。视频质量、用于表示视频的数据量(由比特率确定)、编码和解码算法的复杂度、对数据丢失和错误的敏感性、编辑的简易性、随机访问和端到端时延(延迟)之间存在复杂的关系。压缩格式通常符合标准视频压缩规范,例如,高效视频编解码(HEVC)标准(也称为H.265或MPEG-H第2部分)、要完成的通用视频编解码标准、或其他当前和/或未来的视频编解码标准。
所公开的技术的实施例可以应用于现有视频编解码标准(例如,HEVC、H.265)和未来标准以改进压缩性能。在本文档中使用章节标题以提高描述的可读性,并且不以任何方式将讨论或实施例(和/或实现)限制于仅相应的部分。
1跨分量预测的实施例
跨分量预测是一种色度到亮度(chroma-to-luma)预测方案,其具有复杂度和压缩效率改善之间的良好平衡的权衡。
1.1跨分量线性模型(CCLM)的示例
在一些实施例中,为了减少跨分量冗余,在JEM中使用CCLM预测模式(也称为LM),对于该模式,通过使用以下线性模型基于相同CU的重建亮度样点来预测色度样点:
predC(i,j)=α·recL′(i,j)+β (1)
这里,predC(i,j)表示CU中预测的色度样点,recL′(i,j)表示相同CU对颜色格式4:2:0或4:2:2的向下采样的重建亮度样点,而recL′(i,j)表示相同CU对颜色格式4:4:4的重建亮度样点。通过将当前块周围的相邻重建亮度和色度样点之间的回归误差最小化来得出CCLM参数α和β,如下所示:
Figure GDA0003535587760000051
以及
Figure GDA0003535587760000052
这里,L(n)表示向下采样的(对于颜色格式4:2:0或4:2:2)或原始(对于颜色格式4:4:4)上和左邻近重建亮度样点,C(n)表示上和左邻近重建色度样点,并且N的值等于当前色度编解码块的宽度和高度的最小值的二倍。
在一些实施例中,对于正方形的编解码块,直接应用上述两个公式。对于非正方形编解码块,首先对较长边界的相邻样点进行子采样,以具有与较短边界相同数量的样点。图1示出了左和上重建样点和CCLM模式中涉及的当前块的样点的位置。
在一些实施例中,这个回归误差最小化计算作为解码过程的一部分执行,而不仅仅是编码器搜索操作,因此不使用语法来传达α和β值。
在一些实施例中,CCLM预测模式还包括两个色度分量之间的预测,例如,从Cb(蓝差异)分量预测Cr(红差异)分量。CCLM Cb到Cr的预测在残差域中应用,而不是使用重建的样点信号。这通过将加权的重建Cb残差添加到原始Cr帧内预测上以形成最终Cr预测来实现的:
Figure GDA0003535587760000053
这里,resiCb′(i,j)表示位置(i,j)处的重建Cb残差样点。
在一些实施例中,可以以与CCLM亮度到色度预测中相似的方式推导缩放因子α。仅有的差异是相对于误差函数中的默认α值增加了回归成本,使得推导的缩放因子偏向-0.5的默认值,如下:
Figure GDA0003535587760000061
这里,Cb(n)表示相邻的重建Cb样点,Cr(n)表示相邻的重建Cr样点,并且λ等于∑(Cb(n)·Cb(n))>>9。
在一些实施例中,CCLM亮度到色度预测模式被添加作为一种附加色度帧内预测模式。在编码器侧,为选择色度帧内预测模式增加了针对色度分量的另一RD成本检查。当将除CCLM亮度到色度预测模式之外的帧内预测模式用于CU的色度分量时,CCLM Cb到Cr预测将被用于Cr分量预测。
1.2 Examples of多模型CCLM
在JEM中,存在两个CCLM模式:单模型CCLM模式和多模型CCLM模式(MMLM)。如名称所表示的,单模型CCLM模式采用一个线性模型以从整个CU的亮度样点预测色度样点,而在MMLM中,可以存在两个模型。
在MMLM中,当前块的相邻亮度样点和相邻色度样点被分类为两组,每个组被用作训练集,以推导线性模型(即,对特定的组推导特定的α和β)。此外,对当前亮度块的样点也基于对相邻亮度样点进行分类的相同的规则进行分类。
图2示出了将相邻样点分类为两组的示例。Threshold被计算作为相邻重建亮度样点的平均值。具有Rec′L[x,y]<=Threshold的相邻样点被分类为组1;而具有Rec′L[x,y]>Threshold的相邻样点被分类为组2。
Figure GDA0003535587760000062
1.3 CCLM中的向下采样滤波器的示例
在一些实施例中,为进行跨分量预测,对于4:2:0色度格式,其中4个亮度样点对应于1个色度样点,重建亮度块需要被向下采样,以匹配色度信令的尺寸。CCLM模式中使用的默认向下采样滤波器如下:
Figure GDA0003535587760000063
这里,向下采样对相对于亮度样点的位置的色度样点的位置假设如图3A中所示的“类型0”相位关系,例如,水平并置采样和垂直间插(interstitial)采样。
公式(6)中限定的示例性6抽头(6-tap)向下采样滤波器被用作单模型CCLM模式和多模型CCLM模式两者的默认滤波器。
在一些实施例中,对于MMLM模式,编码器可以选择性地选择四种附加亮度向下采样滤波器之一以应用于CU中的预测,并且发送滤波器索引,以指示使用这些滤波器中的哪个。MMLM模式的四个可选择亮度向下采样滤波器,如图3B中所示,如下:
Rec′L[x,y]=(RecL[2x,2y]+RecL[2x+1,2y]+1)>>1 (8)
Rec′L[x,y]=(RecL[2x+1,2y]+RecL[2x+1,2y+1]+1)>>1 (9)
Rec′L[x,y]=(RecL[2x,2y+1]+RecL[2x+1,2y+1]+1)>>1 (10)
Rec′L[x,y]=(RecL[2x,2y]+RecL[2x,2y+1]+RecL[2x+1,2y]+RecL[2x+1,2y+1]+2)>>2 (11)
1.4多方向LM(MDLM)
该现有实现方式提出了多方向LM(MDLM)。在MDLM中,提出了两种附加CCLM模式:LM-A,其中线性模型参数仅基于上邻近(或上方相邻)样点推导,如图4A中所示;LM-L,其中线性模型参数仅基于左邻近样点推导,如图4B中所示。
1.5跨分量线性模型简化
该现有实现方式提出用直线等式替换线性模型参数α和β的LMS算法,所谓的两点法。这2个点(亮度和色度的对)(A,B)是相邻亮度样点的集合内的最小值和最大值,如图5中所示。
本文中,线性模型参数α和β根据以下等式获得:
Figure GDA0003535587760000071
且β=yA-αxA
在一些实施例中,避免了推导α所需的除法运算,并由以下的乘法和移位来代替:
Figure GDA0003535587760000072
Figure GDA0003535587760000081
本文中,S设定为等于iShift,α设定为等于a,且β设定为等于b。此外,g_aiLMDivTableLow和g_aiLMDivTableHigh是各自具有512个条目的两个表,其中每个条目储存16比特(16-bit)整数。
为推导色度预测符,对于当前VTM实现方式,乘法被替换为如下的整数运算:
Figure GDA0003535587760000082
该实现方式也比当前VTM实现方式更简单,因为移位S总是具有相同的值。
1.6 VVC中的CCLM的示例
如JEM中的CCLM在VTM-2.0中被采用,但JEM中的MM-CCLM在VTM-2.0中不被采用。MDLM和简化CCLM已经被采用到VTM-3.0中。
1.7 JEM中的局部照明补偿的示例
局部照明补偿(LIC)是基于照明变化的线性模型,使用缩放因子a和偏移b,并且对于每个帧间模式编解码的编解码单元(CU)被适应性地启用或禁用。
当LIC应用于CU时,采用最小均方差法,通过使用当前CU的相邻样点及其对应的参考样点来推导参数a和b。更具体地,如图23所示,使用了CU的子采样(2:1子采样)的相邻样点和参考图片中的对应的像素(由当前CU或子CU的运动信息标识)。IC参数被推导并分别应用于每个预测方向。
当CU以2Nx2N merge模式编解码时,以与merge模式中的运动信息复制相似的方式从相邻块复制LIC标志;否则,对CU信令通知LIC标志,以指示是否应用LIC。
当针对一图片启用LIC时,需要附加的CU级RD校验,以确定LIC是否应用于CU。当对CU启用LIC时,对于整数像素运动搜索和分数像素运动搜索分别使用绝对差分的均值去除和(mean-removed sum of absolute diffefference,MR-SAD)和绝对Hadamard变换差分的均值去除和(mean-removed sum of absolute Hadamard-transformed difference,MR-SATD),而不使用SAD和SATD。
为了降低编码复杂度,在JEM中应用了以下编码方案:在当前图片与其参考图片之间没有明显的照明变化时,对整个图片禁用LIC。为了识别这种情况,在编码器处计算当前图片和当前图片的每个参考图片的直方图。如果当前图片和当前图片的每个参考图片之间的直方图差异小于给定阈值,则对当前图片禁用LIC;否则,将为当前图片启用LIC。
2现有实现方式中的缺陷的示例
当前实现方式引入两点法,以替换JEM中的LM模式的LMS方法。尽管新方法减少了CCLM中的加法和乘法的数目,但引入了以下问题:
1)引入了比较,以找到最小和最大亮度值,其对于单指令、多数据(SIMD)软件设计不友好。
2)引入了具有总共1024个条目的两个查找表,每个条目储存16比特数,具有2KROM存储器要求,这在硬件设计中是不希望的。
3视频编解码中的跨分量预测的示例性方法
本公开技术的实施例克服了现有实现方式的缺点,从而提供具有更高编解码效率和更低计算复杂度的视频编解码。在以下针对各种实现方式而描述的示例中阐明了基于本公开技术的用于跨分量预测的简化线性模型推导,可以增强现有和未来的视频编解码标准。下面提供的本公开技术的示例解释了一般概念,其不应被解释为限制性的。在一个示例中,除非明确地指出不能组合,否则这些示例中描述的各种特征可以被组合。
在以下示例和方法中,术语“LM方法”包括但不限于JEM或VTM中的LM模式,JEM中的MMLM模式,仅使用左邻近样点推导线性模型的左LM模式,仅使用上邻近样点推导线性模型的上方LM模式,或者使用亮度重建样点来推导色度预测块的其他种类的方法。所有不是LM-L也不是LM-A的LM模式都称为普通LM模式。
在以下示例和方法中,Shift(x,s)被定义为Shift(x,s)=(x+off)>>s,并且SignShift(x,s)被定义为
Figure GDA0003535587760000101
本文中,off是诸如0或2s-1的整数。
当前色度块的高度和宽度分别表示为H和W。
图6示出了当前色度块的相邻样点的示例。将当前色度块的左上样点的坐标表示为(x,y),则相邻色度样点(如图6中所示)表示为:
A:左侧的顶部样点:[x-1,y],
B:左侧的中间的上方样点:[x-1,y+H/2-1],
C:左侧的中间的下方样点:[x-1,y+H/2],
D:左侧的底部样点:[x-1,y+H-1],
E:左侧的延长底部的顶部样点:[x-1,y+H],
F:左侧的延长底部的中间的上方样点:[x-1,y+H+H/2-1],
G:左侧的延长底部的中间的下方样点:[x-1,y+H+H/2],
I:左侧的延长底部的底部样点:[x-1,y+H+H-1],
J:上方的左侧样点:[x,y-1],
K:上方的中间的左侧样点:[x+W/2-1,y-1],
L:上方的中间的右侧样点:[x+W/2,y-1],
M:上方的右侧样点:[x+W-1,y-1],
N:上方的延长上方的左侧样点:[x+W,y-1],
O:上方的延长上方的中间的左侧样点:[x+W+W/2-1,y-1],
P:上方的延长上方的中间的右侧样点:[x+W+W/2,y-1],以及
Q:上方的延长上方的右侧样点:[x+W+W-1,y-1]。
示例1.从两个或更多个特定位置处的色度样点推导LM方法中的参数α和β。
a)推导也取决于所选的色度样点的对应的向下采样的亮度样点。可替代地,推导也取决于所选的色度样点的对应的亮度样点,诸如当为4:4:4颜色格式时。
b)例如,从2S(例如,S=2或3)位置处的色度样点推导CCLM中的参数α和β,诸如:
i.位置{A,D,J,M};
ii.位置{A,B,C,D,J,K,L,M};
iii.位置{A,I,J,Q};
iv.位置{A,B,D,I,J,K,M,Q};
v.位置{A,B,D,F,J,K,M,O};
vi.位置{A,B,F,I,J,K,O,Q};
vii.位置{A,C,E,I,J,L,N,Q};
viii.位置{A,C,G,I,J,L,P,Q};
ix.位置{A,C,E,G,J,L,N,P};
x.位置{A,B,C,D};
xi.位置{A,B,D,I};
xii.位置{A,B,D,F};
xiii.位置{A,C,E,I};
xiv.位置{A,C,G,I};
xv.位置{A,C,E,G};
xvi.位置{J,K,L,M};
xvii.位置{J,K,M,Q};
xviii.位置{J,K,M,O};
xix.位置{J,K,O,Q};
xx.位置{J,L,N,Q};
xxi.位置{J,L,P,Q};
xxii.位置{J,L,N,P};
xxiii.位置{A,B,C,E,E,F,G,I};
xxiv.位置{J,K,L,M,N,O,P,Q};
c)从以下位置处的色度样点推导CCLM中的参数α和β,如:
i.{A,B,C,D,E,F,G,I}与{J,K,L,M,N,O,P,Q}之间的任意组合,诸如
(a)位置A和J;
(b)位置B和K;
(c)位置C和L;
(d)位置D和M;
(e)位置E和N;
(f)位置F和O;
(g)位置G和P;
(h)位置I和Q;
ii.取自{A,B,C,D,E,F,G,}的任意两个不同位置
(a)位置A和B;
(b)位置A和C;
(c)位置A和D;
(d)位置A和E;
(e)位置A和F;
(f)位置A和G;
(g)位置A和I;
(h)位置D和B;
(i)位置D和C;
(j)位置E和B;
(k)位置E和C;
(l)位置I和B;
(m)位置I和C;
(n)位置I和D;
(o)位置I和E;
(p)位置I和F;
(q)位置I和G;
iii.取自{J,K,L,M,N,O,P,Q}的任意两个不同位置
(a)位置J和K;
(b)位置J和L;
(c)位置J和M;
(d)位置J和N;
(e)位置J和O;
(f)位置J和P;
(g)位置J和Q;
(h)位置M和K;
(i)位置M和L;
(j)位置N和K;
(k)位置N和L;
(l)位置Q和K;
(m)位置Q和L;
(n)位置Q和M;
(o)位置Q和N;
(p)位置Q和O;
(q)位置Q和P;
(r)位置Q和Q;
iv.在一个示例中,如果两个所选的位置具有相同的亮度值,则更多的位置可以被进一步检查。
d)例如,不是全部可用色度样点都被搜索以找到最大和最小亮度值来用两点法推导CCLM中的参数α和β。
i.出自K个色度样点(及其对应的向下采样的亮度样点)的一个色度样点被包含在搜索集合中。K可以是2、4、6或8。
(a)例如,如果Rec[x,y]是上邻近样点,则只有在x%K==0的情况下,其才被包括在搜索集合中。如果Rec[x,y]是左邻近样点,则只有在y%K==0的情况下,其才被包括在搜索集合中。
ii.仅在特定位置(诸如1.a.i~1.a.xxiv中所定义)处的色度样点被包括在搜索集合中。
e)对于模式LM-L,全部所选的样点必须是左邻近样点。
f)对于模式LM-A,全部所选的样点必须是上邻近样点。
g)所选的位置可以固定,或者它们可以是适应性的。
i.在一个示例中,选择哪些位置可以取决于当前色度块的宽度和高度;
ii.在一个示例中,选择哪些位置可以被从编码器信令通知到解码器,诸如在VPS/SPS/PPS/条带标头(slice header)/片组头(tile group header)/片/CTU/CU/PU。
h)所选择的色度样点用于以等式(2)和等式(3)中所示的最小均方差法推导参数α和β。在等式(2)和等式(3),N被设定为所选择的样点的数目。
i)一对所选择的色度样点用于以两点法推导参数α和β。
j)在一个示例中,如何选择样点可以取决于相邻块的可用性。
i.例如,如果左邻近块和上邻近块都是可用的,则选择位置A、D、J和M;如果仅左邻近块是可用的,则选择位置A和D;并且如果仅上邻近块是可用的,则选择位置J和M。
示例2.CCLM模式中的参数集可以首先被推导,然后被组合以形成用于编解码一个块的最终线性模型参数。假设α1和β1由特定位置处的用组1表示的一组色度样点推导,α2和β2由特定位置处的用组2表示的一组色度样点推导,…,αN和βN由特定位置处的用组N表示的一组色度样点推导,则最终α和β可以由(α1,β1),…(αN,βN)推导。
a)在一个示例中,α被计算为α1,…αN的平均值,且β被计算为
β1,…βN的平均值。
i.在一个示例中,α=SignShift(α12,1),β=SignShift(β12,1)。
ii.在一个示例中,α=Shift(α12,1),β=Shift(β12,1)。
iii.如果(α1,β1)和(α2,β2)具有不同精度,例如,为从其对应的向下采样的亮度样点LR得到色度预测CP,其计算为
使用(α1,β1),CP=SignShift(α1×LR+β1,Sh1),但
使用(α2,β2),CP=SignShift(α2×LR+β2,Sh2),Sh1不等于Sh2,则参数需要在组合之前被移位。假设Sh1>Sh2,则在组合之前,参数应移位为:
(a)α1=SignShift(α1,Sh1-Sh2),β1=SignShift(β1,Sh1-Sh2)。则最终精度为(α2,β2)。
(b)α1=Shift(α1,Sh1-Sh2),β1=Shift(β1,Sh1-Sh2)。则最终精度为(α2,β2)。
(c)α2=α2<<(Sh1-Sh2),β2=β2<<(Sh1-Sh2)。则最终精度为(α1,β1)。
b)组1和组2中的位置的一些示例:
i.组1:位置A和D,组2:位置J和M。
ii.组1:位置A和I,组2:位置J和Q。
iii.组1:位置A和D,组2:位置E和I,其中存在两组用于模式LM-L。
iv.组1:位置J和M,组2:位置N和Q,其中存在两组用于模式LM-A。
v.组1:位置A和B,组2:位置C和D,其中存在两组用于模式LM-L。
vi.组1:位置J和K,组2:位置L和M,其中存在两组用于模式LM-A。
示例3.假设两个色度样点值被表示为C0和C1,及其对应的亮度样点值被表示为L0和L1(L0<L1)是输入。两点法可以利用输入推导α和β如下
Figure GDA0003535587760000151
且β=C0-αL0。
亮度样点和色度样点的比特深度表示为BL和BC。该实现方式的一个或多个简化包括:
a)如果L1等于L0,则α被输出为0。可替代地,当L1等于L0,使用某种帧内预测模式(例如,DM模式,DC或平面模式)而非使用CCLM模式来推导预测块。
b)除法运算被没有查找表的其他运算替换。log2运算可以通过检查最高有效位的位置实现。
i.α=Shift(C1-C0,Floor(log2(L1-L0))或
α=SignShift(C1-C0,Floor(log2(L1-L0))
ii.α=Shift(C1-C0,Ceiling(log2(L1-L0))或
α=SignShift(C1-C0,Ceiling(log2(L1-L0))
iii.可以基于L1-L0的值选择示例i或示例ii。
(a)例如,如果L1-L0<T,则使用示例i,否则使用示例ii。例如,T可以为
(Floor(log2(L1-L0))+Ceiling(log2(L1-L0)))/2
(b)例如,如果
Figure GDA0003535587760000161
则使用示例i,否则使用示例ii。
(c)例如,如果
Figure GDA0003535587760000162
则使用示例i,否则使用示例ii。
c)用表示为M[k]的一个查找表替换除法运算。
i.表示为V的查找表的尺寸小于2P,其中P是整数,诸如5、6或7。
ii.查找表的每个条目储存F比特(F-bit)整数,例如,F=8或16。
(a)在一个示例中,M[k-Z]=((1<<S)+Off)/k,其中S是定义精度的整数,例如,S=F。Off是偏移,例如,Off=(k+Z)>>1。Z定义表的起始值,例如,Z=1,或Z=8,或Z=32。有效关键字(valid key)k要求表必须满足k>=Z。
iii.k=Shift(L1-L0,W)被用作查询查找表的关键字。
(a)在一个示例中,W取决于BL,V和Z。
(b)在一个示例中,W还取决于L1-L0的值。
iv.如果k不是查询查找表的有效关键字(k-Z<0或k-Z>=V),则α被输出为0。
v.例如,
α=Shift((C1-C0)×M[k-Z],D),或
α=SignShift((C1-C0)×M[k-Z],D)
vi.为从其对应的(例如,对4:2:0向下采样)亮度样点LR得到色度预测CP,其被计算为
CP=SignShift(α×LR+β,Sh),或
CP=Shift(α×LR+β,Sh)
vii.Sh可以为固定数,或可以取决于用于计算α和β的C0、C1、L0、L1的值。
(d)Sh可以取决于BL、BC、V、S和D。
(e)D可以取决于Sh。
viii.用V表示的查找表的尺寸等于2P,其中P是整数,诸如5、6、7或8。替代地,V设定为2P-M(例如,M等于0)。
ix.假设α=P/Q(例如,Q=L1-L0,P=C1-C0,或它们被以其他方式推导),则用查找表计算α为α=Shift(P×M[k-Z],D)或α=SignShift(P×M[k-Z],D),其中k是查询查找表中的条目的键(索引)。
(a)在一个示例中,由Q用函数k=f(Q)推导k。
(b)在一个示例中,由Q和P用函数k=f(Q,P)推导k。
(c)在一个示例中,k在特定范围[kMin,kMax]内有效。例如,kMin=Z且kMax=V+Z。
(d)在一个示例中,k=Shift(Q,W),
a.W可以取决于BL、V和Z。
b.W可以取决于Q的值。
c.在一个示例中,当k计算为Shift(Q,W)时,则α被用查找表计算为
α=(Shift(P×M[k-Z],D))<<W或
α=(SignShift(P×M[k-Z],D))<<W
(e)在一个示例中,用Q的不同值以不同方式推导k。
a)例如,当Q<=kMax时k=Q,并且当Q>kMax时k=Shift(Q,W)。例如,W选择为使Shift(Q,W)不大于kMax的最小正整数。
b)例如,k=Min(kMax,Q)。
c)例如,k=Max(kMin,Min(kMax,Q))。
(f)在一个示例中,当Q<0时,-Q用于在计算中替换Q。然后输出–α。
(g)在一个示例中,当Q等于0时,则α设定为默认值,诸如0或1。
(h)在一个示例中,当Q等于2E E>=0,则α=Shift(P,E)或α=SignShift(P,E)。
d)推导LM参数的全部运算必须在K比特内,K可以为8、10、12、16、24或32。
i.如果中间变量可能超出由约束比特表示的范围,其应当被修剪或右移,以在约束比特内。
示例4.一个单个色度块可以使用多个线性模型,并且多个线性模型的选择取决于色度样点在色度块内的位置。
a)在一个示例中,LM-L和LM-A模式可以在单个色度块中组合。
b)在一个示例中,由LM-L模式预测一些样点,并且由LM-A模式预测其他样点。
i.图7示出了示例。假设左上样点在位置(0,0)处。位置(x,y)处的样点(x>y(或x>=y))由LM-A预测,并且其他样点由LM-L预测。
c)假设位置(x,y)处的样点的使用LM-L和LM-A的预测分别表示为P1(x,y)和P2(x,y),则最终预测P(x,y)计算为P1(x,y)和
P2(x,y)的加权和。
i.P(x,y)=w1*P1(x,y)+w2*P2(x,y)
(d)w1+w2=1。
ii.P(x,y)=(w1*P1(x,y)+w2*P2(x,y)+Offset)>>shift,其中shift可以为0或1<<(shift-1),并且shift是整数,诸如1,2,3…。
(a)w1+w2=1<<shift。
iii.P(x,y)=(w1*P1(x,y)+((1<<shift)-w1)*P2(x,y)+Offset)>>shift,其中shift可以为0或1<<(shift-1),并且shift是整数,诸如1,2,3…。
iv.w1和w2可以取决于位置(x,y)
(e)例如,如果x<y,则w1>w2(例如,w1=3,w2=1),
(f)例如,如果x>y,则w1<w2(例如,w1=1,w2=3),
(g)例如,如果x==y,则w1=w2(例如,w1=2,w2=2),
(h)例如,当x<y时,如果y-x增大,则w1–w2增大,
(i)例如,当x>y时,如果x-y增大,则w2–w1增大。
示例5.提出将相邻样点(包括色度样点及其对应的亮度样点,其可以向下采样)分割为N组。第k组(k=0,1,…,N-1)的最大亮度值和最小亮度值表示为MaxLk和MinLk,及其对应的色度值分别表示为MaxCk和MinCk
a.在一个示例中,MaxL计算为MaxL=f1(MaxLS0,MaxLS1,…,MaxLSm);MaxC计算为MaxC=f2(MaxCS0,MaxCS1,…MaxCSm);MinL计算为MinL=f3(MinLS0,MinLS1,…MinLSm)。MinC计算为MinC=f3(MinCS0,MinCS1,…,MinCSm)。f1,f2,f3和f4为函数。两点法以输入推导α和β如下
Figure GDA0003535587760000191
β=MinC-αMinL
i.在一个示例中,f1,f2,f3,f4全部表示平均函数。
ii.S0,S1,…Sm为所选择的组的索引,其用于计算α和β。
(1)例如,使用全部组,例如,S0=0,S1=1,…Sm=N-1。
(2)例如,使用两组,例如,m=1,S0=0,S1=N-1。
(3)例如,不使用全部组,例如,m<N-1,S0=0,S1=2,S3=4,…。
b.在一个示例中,位于上方行的样点(或向下采样的样点)可以分类为一组,并且位于块的左列的样点(或向下采样的样点)可以分类为另一组。
c.在一个示例中,样点(或向下采样的样点)基于它们的位置或坐标被分类,例如,样点可以分类为两组。
i.例如,样点可以分类为两组。
(1)对于具有位于上方行的坐标(x,y)的样点,如果x%P=Q,其被分类为组S0,其中P和Q为整数,例如,P=2,Q=1,P=2,Q=0或P=4,Q=0;否则,其被分类为组S1。
(2)对于具有位于左列的坐标(x,y)的样点,如果y%P=Q,其被分类为组S0,其中P和Q为整数,例如,P=2,Q=1,P=2,Q=0或P=4,Q=0;否则,其被分类为组S1。
(3)仅在一组(诸如S0)中的样点,用于找到MaxC和MaxL。例如,MaxL=MaxLS0和MaxC=MaxCS0
d.在一个示例中,相邻样点(或向下采样的样点)的仅部分用于分割为N组。
e.组的数目(例如,N)和/或所选择的组索引和/或函数(f1/f2/f3/f4)可以预定或在SPS/VPS/PPS/图片头/条带标头/片组头/LCU/LCU/CU中被信令通知。
f.在一个示例中,如何为每组选择样点可以取决于相邻块的可用性。
i.例如,MaxL0/MaxC0和MinL0/MinC0从位置A和D找到;MaxL1/MaxC1和MinL1/MinC1从位置J和M找到,当左邻近块和上邻近块两者都可用时,则MaxL=(MaxL0+MaxL1)/2,MaxC=(MaxC0+MaxC1)/2,MinL=(MinL0+MinL1)/2,MinC=(MinC0+MinC1)/2。
ii.例如,当仅左邻近块可用时,MaxL/MaxC和MinL/MinC直接从位置A和D找到。
(1)替代地,如果上邻近块不可用,则α和β设定为等于一些默认值。例如,α=0且β=1<<(bitDepth-1),其中bitDepth是色度样点的比特深度。
iii.例如,当仅上邻近块可用时,MaxL/MaxC and MinL/MinC直接从位置J和M找到。
(1)替代地,如果左邻近块不可用,则α和β设定为等于一些默认值。例如,α=0且β=1<<(bitDepth-1),其中bitDepth是色度样点的比特深度。
g.在一个示例中,如何对每组选择样点可以取决于块的宽度和高度。
h.在一个示例中,如何对每组选择样点可以取决于样点的值。
i.在一个示例中,具有最大亮度值和最小亮度值的两个样点被挑出为在第一组中。并且全部其他样点在第二组中。
示例6.提出是否和如何应用LM-L和LM-A模式可以取决于当前块的宽度(W)和高度(H)。
(a)例如,如果W>K×H,则LM-L无法被应用。例如,K=2。
(b)例如,如果H>K×W,则LM-A无法被应用。例如,K=2。
(c)如果LM-L和LM-A之一无法被应用,指示是否使用LM-L或LM-A的标志不应被信令通知。
示例7.标志被信令通知,以指示是否应用CCLM模式。对标志进行编解码的算术编解码中使用的上下文可以取决于图8中所示的左上邻近块是否应用CCLM模式。
(a)在一个示例中,如果左上邻近块应用CCLM模式,则使用第一上下文;并且,如果左上邻近块不应用CCLM模式,则使用第二上下文。
(b)在一个示例中,如果左上邻近块不可用,则其被视为不应用CCLM模式。
(c)在一个示例中,如果左上邻近块不可用,则其被视为应用CCLM模式。
(d)在一个示例中,如果左上邻近块不是帧内编解码的,则其被视为不应用CCLM模式。
(e)在一个示例中,如果左上邻近块不是帧内编解码的,则其被视为应用CCLM模式。
示例8.DM和LM模式的指示或码字可以以与序列到序列/图片到图片/片到片/块到块不同的顺序编解码。
(a)LM和DM的指示的编解码顺序(例如,首先编解码是否是LM模式,如果不是,则编解码是否是DM模式;或首先编解码是否是DM模式,如果不是,则编解码是否是LM模式)可以取决于一个或多个相邻块的模式信息。
(b)在一个示例中,在当前块的左上块可用且用LM模式编解码时,则首先编解码LM模式的指示。
(c)替代地,在当前块的左上块可用且用DM模式编解码时,则首先编解码DM模式的指示。
(d)替代地,在当前块的左上块可用且用非LM(例如,DM模式或除LM之外的其他帧内预测模式)编解码时,则首先编解码DM模式的指示。
(e)在一个示例中,顺序的指示可以在SPS/VPS/PPS/图片头/条带标头/片组头/LCU/LCU/CU中被信令通知。
示例9.在以上示例中,样点(或向下采样的样点)可以位于2×W上邻近样点或2×H左邻近样点之外,如图6中所示。
(a)在LM模式或LM-L模式情况下,其可以使用相邻样点RecC[x-1,y+d],其中d在[T,S]的范围内。T可以小于0,并且S可以大于2H-1。例如,T=-4且S=3H。在另一示例中,T=0,S=max(2H,W+H)。在又一示例中,T=0且S=4H。
(b)在LM模式或LM-A模式情况下,其可以使用相邻样点RecC[x+d,y],其中d在[T,S]的范围内。T可以小于0,并且S可以大于2W-1。例如,T=-4且S=3W。在另一示例中,T=0,S=max(2W,W+H)。在又一示例中,T=0且S=4W。
示例10.在一个示例中,色度相邻样点及其对应的亮度样点(可以被向下采样)在如示例1-7中所公开推导线性模型参数α和β之前被向下采样。假设当前色度块的宽度和高度是W和H。
(a)在一个示例中,是否和如何进行向下采样可以取决于W和H。
(b)在一个示例中,用于推导参数的当前块的左邻近样点的数目,以及用于推导参数的当前块的上邻近样点的数目在向下采样过程之后应该是相同。
(c)在一个示例中,如果W等于H,则色度相邻样点及其对应的亮度样点(可以被向下采样)不被向下采样。
(d)在一个示例中,如果W<H,则当前块的左侧的色度相邻样点及其对应的亮度样点(可以被向下采样)被向下采样。
(i)在一个示例中,每个H/W色度样点中的一个色度样点被挑出,以用于推导α和β。将其他色度样点丢弃。例如,假设R[0,0]表示当前块的左上样点,则R[-1,K*H/W],K从0到W-1,被挑出用于推导α和β。
(e)在一个示例中,如果W>H,则当前块上方的色度相邻样点及其对应的亮度样点(可以被向下采样)被向下采样。
(ii)在一个示例中,每个W/H色度样点中的一个色度样点被挑出用于推导α和β。其他色度样点被丢弃。例如,假设R[0,0]表示当前块的左上样点,则R[K*W/H,-1],K从0到H-1,被挑出用于推导α和β。
(ii)图9示出了当图6中的位置D和位置M用于推导α和β时要挑出的样点的示例,以及当W>H时进行的向下采样。
示例11.相邻向下采样的/原始地重建的样点和/或向下采样的/原始地重建的样点在被用于线性模型预测过程或跨色彩分量预测过程之前可以被进一步细化。
(a)“要细化”可以指滤波处理。
(b)“要细化”可以指任意非线性处理
(c)提出若干相邻样点(包括色度样点及其对应的亮度样点,其可以被向下采样)被挑出以计算C1,C0,L1和L0,以便推导α和β,诸如α=(C1-C0)/(L1-L0)且β=C0-αL0。
(d)在一个示例中,表示为Lx1,Lx2,…,LxS的S个相邻亮度样点(可以被向下采样),以及表示为Cx1,Cx2,…CxS的对应的色度样点用于推导C0和L0,并且表示为Ly1,Ly2,…,LyT的T个相邻亮度样点(可以被向下采样),及其表示为Cy1,Cy2,…CyT的对应的色度样点用于推导C1和L1,如下:
(i)C0=f0(Cx1,Cx2,…CxS),L0=f1(Lx1,Lx2,…LxS),C1=f2(Cy1,Cy2,…CyT),L1=f4(Ly1,Ly2,…LyT)。f0,f1,f2和f3为任意函数。
(ii)在一个示例中,f0相同于f1。
(iii)在一个示例中,f2相同于f3。
(iv)在一个示例中,f0f1f2f3是相同的。
1.例如,它们全部是平均函数。
(v)在一个示例中,S等于T。
1.在一个示例中,集合{x1,x2,…xS}相同于集合{y1,y2,…,yT}。
(vi)在一个示例中,Lx1,Lx2,…,LxS被选择为一组亮度样点的最小S个亮度样点。
1.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的全部相邻样点。
2.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的部分相邻样点。
a.例如,亮度样点的组包括四个样点,如图2-5中所示。
(vii)在一个示例中,Ly1,Ly2,…,LyS被选择为一组亮度样点的最大S个亮度样点。
1.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的全部相邻样点。
2.例如,亮度样点的组包括VTM-3.0中用于推导CCLM线性参数的部分相邻样点。
a.例如,亮度样点的组包括四个样点,如图2-5中所示。
示例12.提出基于最大相邻或向下采样的相邻样点在相邻或向下采样的相邻样点的给定集合中选择其他相邻或向下采样的相邻样点。
(a)在一个示例中,指代最大相邻或向下采样的相邻样点位于位置(x0,y0)。则区域(x0-d1,y0),(x0,y0-d2),(x0+d3,y0),(x0,y0+d4)中的样点可以用于选择其他样点。整数{d1,d2,d3,d4}可以取决于位置(x0,y0)。例如,如果(x0,y0)在当前块左侧,则d1=d3=1且d2=d4=0。如果(x0,y0)在当前块上方,则d1=d3=0且d2=d4=1。
(b)在一个示例中,指代最小相邻或向下采样的相邻样点位于位置(x1,y1)。则区域(x1-d1,y1),(x1,y1-d2),(x1+d3,y1),(x1,y1+d4)中的样点可以用于选择其他样点。整数{d1,d2,d3,d4}可以取决于位置(x1,y1)。例如,如果(x1,y1)在当前块左侧,则d1=d3=1且d2=d4=0。如果(x1,y1)在当前块上方,则d1=d3=0且d2=d4=1。
(c)在一个示例中,上方样点表示一个色彩分量(例如,亮度色彩分量)的样点。CCLM/跨色彩分量过程中使用的样点可以由第二色彩分量的对应的坐标推导。
(d)相似方式可以用于推导最小样点。
示例13.在以上示例中,亮度和色度可以切换。替代地,亮度色彩分量可以由主色彩分量(例如,G)替换,并且色度色彩分量可以由从色彩分量(例如,B或R)替换。
示例14.色度样点(和/或对应的亮度样点)的位置的选择可以取决于编解码的模式信息。
(a)替代地,另外,其可以取决于相邻样点的可用性,诸如左列或上方行或右上行或左下列是否可用。图10绘示了相对于块的左列/上方行/右上行/左下列的概念。
(b)替代地,另外,其可以取决于位于某位置的样点的可用性,诸如第1右上样点和/或第1左下样点是否可用。
(c)替代地,另外,其可以取决于块维度。
(i)替代地,另外,其可以取决于当前色度(和/或亮度)块的宽度和高度之间的比例。
(ii)替代地,另外,其可以取决于宽度和/或高度是否等于K(例如,K=2)。
(d)在一个示例中,在当前模式是普通LM模式时,以下方式可以应用于选择色度样点(和/或向下采样的或非向下采样的亮度样点):
(i)如果左列和上方行两者都可用,则左列的两个样点和上方行中的两个可以被选择。它们可以位于(假设当前块的左上坐标是(x,y)):
1.(x-1,y),(x,y-1),(x-1,y+H-1)和(x+W-1,y-1)
2.(x-1,y),(x,y-1),(x-1,y+H-H/W-1)和(x+W-1,y-1)。例如,当H大于W时。
3.(x-1,y),(x,y-1),(x-1,y+H-1)和(x+W-W/H-1,y-1)。例如,当H小于W时。
4.(x-1,y),(x,y-1),(x-1,y+H–max(1,H/W))和(x+W-max(1,W/H),y-1)。
(ii)如果仅上方行可用,则仅从上方行选择样点。
1.例如,可以选择上方行的四个样点。
2.例如,可以选择两个样点。
3.如何选择样点可以取决于宽度/高度。例如,当W>2时选择四个样点,并且当W=2时选择两个样点。
4.所选择的样点可以位于(假设当前块的左上坐标是(x,y)):
a.(x,y-1),(x+W/4,y-1),(x+2*W/4,y-1),(x+3*W/4,y–1)
b.(x,y-1),(x+W/4,y-1),(x+3*W/4,y–1),(x+W-1,y-1)
c.(x,y-1),(x+(2W)/4,y-1),(x+2*(2W)/4,y-1),(x+3*(2W)/4,y–1)。
例如,当右上行可用时,或当第1右上样点可用时。
d.(x,y-1),(x+(2W)/4,y-1),(x+3*(2W)/4,y–1),(x+(2W)-1,y-1)。
例如,当右上行可用时,或当第1右上样点可用时。
(iii)如果仅左列可用,则仅从左列选择样点。
1.例如,可以选择左列的四个样点;
2.例如,可以选择左列的两个样点;
3.如何选择样点可以取决于宽度/高度。例如,当H>2时选择四个样点,并且当H=2时选择两个样点。
4.所选择的样点可以位于:
a.(x-1,y),(x-1,y+H/4),(x-1,y+2*H/4),(x-1,y+3*H/4)
b.(x-1,y),(x-1,y+2*H/4),(x-1,y+3*H/4),(x-1,y+H-1)
c.(x-1,y),(x-1,y+(2H)/4),(x-1,y+2*(2H)/4),(x-1,y+3*(2H)/4)。
例如,当左下列可用时,或当第1左下样点可用时。
d.(x-1,y),(x-1,y+2*(2H)/4),(x-1,y+3*(2H)/4),(x-1,y+(2H)-1)。
例如,当左下列可用时,或当第1左下样点可用时。
(iv)对于以上示例,可以选择四个样点中的仅两个。
(e)在一个示例中,在当前模式是LM-A模式时,其可以根据示例11(d)(ii)选择样点。
(f)在一个示例中,在当前模式是LM-L模式时,其可以根据示例11(d)(iii)选择样点。
(g)亮度选择的样点(例如,根据所选择的色度位置)可以分组为2组,一组具有全部所选择的样点的最大值和最小值,另一组具有全部其余样点。
(i)2组的两个最大值被平均为2点方法中的最大值;2组的两个最小值被平均为2点方法中的最小值,以推导LM参数。
(ii)当仅存在4个选择的样点时,两个较大样点值被平均,两个较小样点值被平均,并且平均的值被用作对2点方法的输入,以推导LM参数。
示例15.在以上示例中,亮度和色度可以切换。替代地,亮度色彩分量可以由主色彩分量(例如,G)替换,并且色度色彩分量可以由从色彩分量(例如,B或R)替换。
示例16.提出基于第一位置偏移值(表示为F)和步长值(表示为S)选择上邻近色度样点(和/或它们的对应的亮度样点,其可以被向下采样)。假设要使用的可用上邻近样点的宽度为W。
a)在一个示例中,W可以设定为当前块的宽度。
b)在一个示例中,W可以设定为(L*当前块的宽度)其中L是整数值。
c)在一个示例中,当上方和左侧块两者都可用时,W可以设定为当前块的宽度。
i.替代地,当左侧块不可用时,W可以设定为(L*当前块的宽度)其中L是整数值。
ii.在一个示例中,L可以取决于右上块的可用性。替代地,L可以取决于一个左上样点的可用性。
d)在一个示例中,W可以取决于编解码的模式。
i.在一个示例中,如果当前块以LM模式被编解码,则W可以设定为当前块的宽度;
ii.如果当前块以LM-A模式被编解码,则W可以设定为(L*当前块的宽度),其中L是整数值。
(a)L可以取决于右上块的可用性。替代地,L可以取决于一个左上样点的可用性。
e)假设当前块的左上坐标是(x0,y0),则选择位置(x0+F+K×S,y0-1)处的上邻近样点,K=0,1,2,…kMax。
f)在一个示例中,F=W/P。P是整数。
i.例如,P=2i,其中i是整数,诸如1或2。
ii.替代地,F=W/P+offset。
g)在一个示例中,S=W/Q。Q是整数。
i.例如,Q=2j,其中j是整数,诸如1或2。
h)在一个示例中,F=S/R。R是整数。
i.例如,R=2m,其中m是整数,诸如1或2。
i)在一个示例中,S=F/Z。Z是整数。
i.例如,Z=2n,其中n是整数,诸如1或2。
j)kMax和/或F和/或S和/或offset可以取决于当前块的预测模式(诸如LM,LM-A或LM-L);
k)kMax和/或F和/或S和/或offset可以取决于当前块的宽度和/或高度。
l)kMax和/或F和/或S和/或offset可以取决于相邻样点的可用性。
m)kMax和/或F和/或S和/或offset可以取决于W。
n)例如,kMax=1,F=W/4,S=W/2,offset=0。替代地,另外,如果当前块是LM编解码的,左邻近样点和上邻近样点两者都可用,且W>=4,则进行设定。
o)例如,kMax=3,F=W/8,S=W/4,offset=0。替代地,另外,如果当前块是LM编解码的,仅上邻近样点可用,且W>=4,则进行设定。
p)例如,kMax=3,F=W/8,S=W/4,offset=0。替代地,另外,如果当前块是LM-A编解码的,且W>=4,则进行设定。
q)例如,kMax=1,F=0,S=1,offset=0。替代地,另外,如果W等于2,则进行。
示例17.提出基于第一位置偏移值(表示为F)和步长值(表示为S)选择左邻近色度样点(和/或它们的对应的亮度样点,其可以被向下采样)。假设要使用的可用左邻近样点的高度为H。
a)在一个示例中,H可以设定为当前块的高度。
b)在一个示例中,H可以设定为(L*当前块的高度),其中L是整数值。
c)在一个示例中,当上方和左侧块两者都可用时,H可以设定为当前块的高度。
i.替代地,当上方块不可用时,H可以设定为(L*当前块的高度)其中L是整数值。
ii.在一个示例中,L可以取决于左下块的可用性。替代地,L可以取决于一个左下样点的可用性。
iii.替代地,如果所要求的右上邻近块可用,则H可以设定为(当前块的高度+当前块的宽度)。
(a)在一个示例中,当左邻近样点不可用时,相同的H上邻近样点被挑选用于LM-A模式和LM模式。
d)在一个示例中,H可以取决于编解码的模式。
i.在一个示例中,如果当前块以LM模式被编解码,则H可以设定为当前块的高度;
ii.如果当前块以LM-L模式被编解码,则W可以设定为(L*当前块的高度),其中L是整数值。
(a)L可以取决于左下块的可用性。替代地,L可以取决于一个左上样点的可用性。
(b)替代地,如果所要求的左下邻近块可用,则W可以设定为(当前块的高度+当前块的宽度)。
(c)在一个示例中,当上邻近样点不可用时,相同的W左邻近样点被挑选用于LM-L模式和LM模式。
e)假设当前块的左上坐标是(x0,y0),则选择位置(x0-1,y0+F+K×S)处的左邻近样点,K=0,1,2,…kMax。
f)在一个示例中,F=H/P。P是整数。
i.例如,P=2i,其中i是整数,诸如1或2。
ii.替代地,F=H/P+offset。
g)在一个示例中,S=H/Q。Q是整数。
i.例如,Q=2j,其中j是整数,诸如1或2。
h)在一个示例中,F=S/R。R是整数。
i.例如,R=2m,其中m是整数,诸如1或2。
i)在一个示例中,S=F/Z。Z是整数。
i.例如,Z=2n,其中n是整数,诸如1或2。
j)kMax和/或F和/或S和/或offset可以取决于当前块的预测模式(诸如LM,LM-A或LM-L);
k)kMax和/或F和/或S和/或offset可以取决于当前块的宽度和/或高度。
l)kMax和/或F和/或S和/或offset可以取决于H。
m)kMax和/或F和/或S和/或offset可以取决于相邻样点的可用性。
n)例如,kMax=1,F=H/4,S=H/2,offset=0。替代地,另外,如果当前块是LM编解码的,左和上邻近样点两者都可用,且H>=4,则进行设定。
o)例如,kMax=3,F=H/8,S=H/4,offset=0。替代地,另外,如果当前块是LM编解码的,仅上邻近样点可用,且H>=4,则进行设定。
p)例如,kMax=3,F=H/8,S=H/4,offset=0。替代地,另外,如果当前块是LM-L编解码的,且H>=4,则进行设定。
q)例如,如果H等于2,则kMax=1,F=0,S=1,offset=0。
示例18.提出选择两个或四个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)以推导线性模型参数。
a)在一个示例中,maxY/maxC和minY/minC由两个或四个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)被推导,并且然后被用于以2点方案推导线性模型参数。
b)在一个示例中,如果存在两个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)被选择以推导maxY/maxC和minY/minC,则minY设定为较小亮度样点值,并且minC是其对应的色度样点值;maxY设定为较大亮度样点值,并且maxC是其对应的色度样点值。
c)在一个示例中,如果存在四个相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)被选择以推导maxY/maxC和minY/minC,则亮度样点及其对应的色度样点被分割为两个数组G0和G1,其各自含有两个亮度样点及其对应的亮度样点。
i.假设四个亮度样点及其对应的色度样点表示为S0,S1,S2,S3,则它们可以以任意顺序被分割为两组。
例如:
(a)G0={S0,S1},G1={S2,S3};
(b)G0={S1,S0},G1={S3,S2};
(c)G0={S0,S2},G1={S1,S3};
(d)G0={S2,S0},G1={S3,S1};
(e)G0={S1,S2},G1={S0,S3};
(f)G0={S2,S1},G1={S3,S0};
(g)G0={S0,S3},G1={S1,S2};
(h)G0={S3,S0},G1={S2,S1};
(i)G0={S1,S3},G1={S0,S2};
(j)G0={S3,S1},G1={S2,S0};
(k)G0={S3,S2},G1={S0,S1};
(l)G0={S2,S3},G1={S1,S0};
(m)G0和G1可以互换。
ii.在一个示例中,G0[0]和G0[1]的亮度样点值被比较,如果G0[0]的亮度样点值大于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
(a)替代地,如果G0[0]的亮度样点值大于或等于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
(b)替代地,如果G0[0]的亮度样点值小于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
(c)替代地,如果G0[0]的亮度样点值小于或等于G0[1]的亮度样点值,则G0[0]的亮度样点及其对应的色度样点与G0[1]的亮度样点及其对应的色度样点互换。
iii.在一个示例中,G1[0]和G1[1]的亮度样点值被比较,如果G1[0]的亮度样点值大于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
(a)替代地,如果G1[0]的亮度样点值大于或等于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
(b)替代地,如果G1[0]的亮度样点值小于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
(c)替代地,如果G1[0]的亮度样点值小于或等于G1[1]的亮度样点值,则G1[0]的亮度样点及其对应的色度样点与G1[1]的亮度样点及其对应的色度样点互换。
iv.在一个示例中,G0[0]和G1[1]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0和G1互换。
(a)在一个示例中,G0[0]和G1[0]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0和G1互换。
(b)在一个示例中,G0[1]和G1[0]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0和G1互换。
(c)在一个示例中,G0[1]和G1[1]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0和G1互换。
v.在一个示例中,G0[0]和G1[1]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0[0]和G1[1]互换。
(a)在一个示例中,G0[0]和G1[0]的亮度样点值被比较,如果G0[0]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0[0]和G1[0]互换。
(b)在一个示例中,G0[1]和G1[0]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[0]的亮度样点值,则将G0[1]和G1[0]互换。
(c)在一个示例中,G0[1]和G1[1]的亮度样点值被比较,如果G0[1]的亮度样点值大于(或小于,或不大于,或不小于)G1[1]的亮度样点值,则将G0[1]和G1[1]互换。
vi.在一个示例中,maxY计算为G0[0]和G0[1]的亮度样点值的平均,maxC计算为G0[0]和G0[1]的色度样点值的平均。
(a)替代地,maxY计算为G1[0]和G1[1]的亮度样点值的平均,maxC计算为G1[0]和G1[1]的色度样点值的平均。
vii.在一个示例中,minY计算为G0[0]和G0[1]的亮度样点值的平均,minC计算为G0[0]和G0[1]的色度样点值的平均。
替代地,minY计算为G1[0]和G1[1]的亮度样点值的平均,minC计算为G1[0]和G1[1]的色度样点值的平均。
d)在一个示例中,如果仅存在两个可用的相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样),它们可以首先被填充为四个色度样点(和/或它们的对应的亮度样点),则四个色度样点(和/或它们的对应的亮度样点)用于推导CCLM参数。
i.在一个示例中,两个填充色度样点(和/或它们的对应的亮度样点)被从两个可用相邻色度样点(和/或它们的对应的亮度样点,其可以被向下采样)复制。
示例19.在全部以上示例中,所选择的色度样点应位于上方行内(即,具有W个样点),如图10中所示,和/或左列(即,具有H个样点)内,其中W和H为当前块的宽度和高度。
a)替代地,在当前块用普通LM模式编解码时,可以应用以上限制。
b)替代地,所选择的色度样点应位于上方行内(即,具有W个样点),以及右上行内,具有H个样点。
i.替代地,另外,在当前块用LM-A模式编解码时,可以应用以上限制。
ii.替代地,另外,在当前块用LM-A模式或普通LM模式且上方行可用但左列不可用时,可以应用以上限制。
c)替代地,所选择的色度样点应位于左列内(即,具有H个样点),以及左下列内,具有W个样点。
i.替代地,另外,在当前块用LM-L模式编解码时,可以应用以上限制。
ii.替代地,另外,在当前块用LM-L模式或普通LM模式编解码,且上方行不可用但左列可用时,可以应用以上限制。
示例20
在一个示例中,仅在推导CCLM参数需要的对应的色度样点的位置处的相邻亮度样点需要被向下采样。
示例21
如何进行本文档中公开的方法可以取决于颜色格式(诸如4:2:0或4:4:4)。
a)替代地,如何进行本文档中公开的方法可以取决于比特深度(诸如8比特或10比特)。
b)替代地,如何进行本文档中公开的方法可以取决于色彩表示方法(诸如RGB或YCbCr)。
c)替代地,如何进行本文档中公开的方法可以取决于色彩表示方法(诸如RGB或YCbCr)。
d)替代地,如何进行本文档中公开的方法可以取决于色度向下采样位置。
示例22
是否推导用于推导CCLM参数的亮度和色度分量的最大值/最小值可以取决于左和上邻域的可用性。例如,如果左和上邻近块两者都不可用,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。
a)是否推导用于推导CCLM参数的亮度和色度分量的最大值/最小值可以取决于可用相邻样点的数目。例如,如果numSampL==0且numSampT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在另一示例中,如果numSampL+numSampT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在两个示例中,numSampL和numSampT是来自左和上邻近块的可用相邻样点的数目。
b)是否推导用于推导CCLM参数的亮度和色度分量的最大值/最小值可以取决于挑选的用于推导参数的样点的数目。例如,如果cntL==0且cntT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在另一示例中,如果cntL+cntT==0,则可以不推导用于推导CCLM参数的亮度和色度分量的最大值/最小值。在两个示例中,cntL和cntT是挑选的来自左和上邻近块的样点的数目。
示例23
在一个示例中,提出的推导用于CCLM中的参数的方法可以用于推导用于LIC或依赖于线性模型的其他编解码工具中的参数。
a)以上公开的示例可以应用于LIC,诸如通过由“当前块的相邻样点”替换“色度相邻样点”,并且由“参考块的相邻样点”替换“对应的亮度样点”。
b)在一个示例中,用于LIC参数推导的样点可以排除上方行和/或左列中的样点某些位置。
i.在一个示例中,用于LIC参数推导的样点可以排除上方行中的第一个。
(a)假设左上样点的坐标是(x0,y0),提出对使用LIC参数排除(x0,y0-1)。
ii.在一个示例中,用于LIC参数推导的样点可以排除左列中的第一个。
(b)假设左上样点的坐标是(x0,y0),提出对于使用LIC参数排除(x0-1,y0)。
iii.是否应用以上方法和/或如何定义某些位置可以取决于左列/上方行的可用性。
iv.是否应用以上方法和/或如何定义某些位置可以取决于块维度。
c)在一个示例中,当前块的N个相邻样点(其可以被向下采样)和参考块的N个对应的相邻样点(其可以相应地被向下采样)可以用于推导用于LIC的参数。
i.例如,N为4。
ii.在一个示例中,N个相邻样点可以定义为来自上方行的N/2个样点;以及来自左列的N/2个样点。
(a)替代地,N个相邻样点可以定义为来自上方行或左列的N个样点。
iii.在另一示例中,N等于min(L,T),其中T是当前块的可用相邻样点(其可以被向下采样)的总数。
(a)在一个示例中,L设定为4
iv.在一个示例中,N个样点的坐标的选择可以遵循在CCLM中选择N个样点的规则。
v.在一个示例中,N个样点的坐标的选择可以遵循在LM-A中选择N个样点的规则。
vi.在一个示例中,N个样点的坐标的选择可以遵循在LM-L中选择N个样点的规则。
vii.在一个示例中,如何选择N个样点可以取决于上方行/左列的可用性。
d)在一个示例中,用于推导用于LIC中的参数的当前块的N个相邻样点(其可以被向下采样)和参考块的N个对应的相邻样点(其可以相应地被向下采样)可以基于样点位置挑选。
i.挑选方法可以取决于当前块的宽度和高度。
ii.挑选方法可以取决于相邻块的可用性。
iii.例如,如果上邻近样点和左邻近样点两者都可用,则可以从左邻近样点挑选K1个相邻样点,并且从上邻近样点挑选K2个相邻样点。例如,K1=K2=2。
iv.例如,如果仅左邻近样点可用,则可以从左邻近样点挑选K1个相邻样点。例如,K1=4。
v.例如,如果上邻近样点可用,则可以从上邻近样点挑选K2个相邻样点。例如,K2=4。
vi.例如,可以用第一位置偏移值(表示为F)和步长值(表示为S)挑选上方样点,步长值可以取决于当前块的维度和相邻块的可用性。
(a)例如,示例13中所公开的方法可以应用于推导F和S。
vii.例如,可以用第一位置偏移值(表示为F)和步长值(表示为S)挑选左侧样点,步长值可以取决于当前块的维度和相邻块的可用性。
(a)例如,示例17中所公开的方法可以应用于推导F和S。
e)在一个示例中,在当前块是仿射编解码的时,提出的推导用于CCLM中的参数的方法还可以用于推导用于LIC中的参数。
f)以上方法可以用于推导用于依赖于线性模型的其他编解码工具中的参数。
在另一示例中,提出了跨分量预测模式,其中根据预测模型以对应的重建的亮度样点预测色度样点,如等式12中所示。在等式12中,PredC(x,y)指代色度的预测样点。α和β是两个模型参数。Rec’L(x,y)是向下采样的亮度样点。
PredC(x,y)=α×Rec′L(x,y)+β, (12)
为图11中的块A的亮度向下采样的过程引入六抽头滤波,如等式13所示。
Rec′L(x,y)=(2×RecL(2x,2y)+2×RecL(2x,2y+1)+RecL(2x-1,2y)+RecL(2x+1,2y)+RecL(2x-1,2y+1)+RecL(2x+1,2y+1)+4)>>3. (13)
以上图11中阴影的周围亮度参考样点被以3抽头滤波向下采样,如等式14中所示。左周围亮度参考样点被根据等式15向下采样。如果左侧或上方样点不可用,则将使用等式16和等式17中定义的2抽头滤波。
Rec′L(x,y)=(2×RecL(2x,2y)+RecL(2x-1,2y)+RecL(2x+1,2y))>>2 (14)
Rec′L(x,y)=(2×RecL(2x,2y)+RecL(2x,2y+1)+RecL(2x,2y-1))>>2 (15)
Rec′L(x,y)=(3×RecL(2x,2y)+RecL(2x+1,2y)+2)>>2 (16)
Rec′L(x,y)=(3×RecL(2x,2y)+RecL(2x,2y+1)+2)>>2 (17)
特别地,周围亮度参考样点被向下采样为与色度参考样点相等尺寸。尺寸用宽度和高度表示。为推导α和β,仅涉及两个或四个相邻样点。应用查找表,以避免推导α和β时的除法运算。推导方法在以下说明。
3.1具有多至两个样点的示例性方法
(1)如等式18所示计算宽度和高度的比例r。
Figure GDA0003535587760000391
(2)如果上方和左侧块都可用,则选择位于第一上方行的posA和第一左侧行的posL的两个样点。为了简化描述,宽度假设为较长边。posA和posL的推导在等式19中示出(位置索引开始于0)。图12示出了不同宽度和高度比例的一些示例(分别为1、2、4和8)。所选择的样点被加阴影。
posA=width-r
posL=height (19)
(3)如果上方块可用而左侧块不可用,则上方行的第一和posA点被选择,如图13中所示。
(4)如果左侧块可用而上方块不可用,则左侧行的第一和posL点被选择,如图14中所示。
(5)根据所选择的样点辉度(luminance)和彩度(chrominance)值推导色度预测模型。
(6)如果左侧和上方块都不可用,则使用默认预测模型,α等于0,β等于1<<(BitDepth-1),其中BitDepth表示色度样点的比特深度。
3.2具有多至四个样点的示例性方法
(1)如等式18计算宽度和高度的比例r。
(2)如果上方和左侧块都可用,则选择位于第一上方行的第一和posA、第一左侧行的第一和posL的四个样点。posA和posL的推导在等式19中说明。图15示出了不同宽度和高度比例的一些示例(分别为1、2、4和8)。所选择的样点被加阴影。
(3)如果上方块可用而左侧块不可用,则选择上方行的第一和posA点,如图13中所示。
(4)如果左侧块可用而上方块不可用,则选择左侧行的第一和posL点,如图14中所示。
(5)如果左侧和上方块都不可用,则使用默认预测模型,α等于0,β等于1<<(BitDepth-1),其中BitDepth表示色度样点的比特深度。
3.3在LM推导中使用查找表的示例性方法
图16示出了具有128、64和32个条目的查找表的示例,并且每个条目由16比特表示。2点LM推导过程被简化为如表1和图17中所示,具有64个条目。应注意,第一条目可以不储存在表中。
还应注意,尽管示例性表中的每个条目被设计为具有16比特,但其可以容易地转换为具有更少比特的数(诸如8比特或12比特)。例如,具有8比特的条目的表可以实现为:
g_aiLMDivTableHighSimp_64_8[i]=(g_aiLMDivTableHighSimp_64[i]+128)>>8。
例如,具有12比特的条目的表可以实现为:
g_aiLMDivTableHighSimp_64_12[i]=(g_aiLMDivTableHighSimp_64[i]+8)>>4。
表1:简化的LM推导过程
Figure GDA0003535587760000401
Figure GDA0003535587760000411
应注意,maxLuma和minLuma可以指示所选择的位置的最大和最小亮度样点值。替代地,它们可以指示所选择的位置的最大和最小亮度样点值的函数,诸如平均。当仅存在4个所选择的位置时,它们还可以指示两个较大的亮度值的平均和两个较小的亮度值的平均。还注意到,在图17中,maxChroma和minChroma表示对应于maxLuma和minLuma的色度值。
3.3具有多至四个样点的方法#4
假设当前色度块的块宽度和高度分别是W和H。并且当前色度块的左上坐标是[0,0]。
如果上方块和左侧块都可用,并且当前模式是普通LM模式(排除LM-A和LM-L),则选择位于上方行的2个色度样点,以及位于左列的2个色度样点。
两个上方样点的坐标为[floor(W/4),-1]和[floor(3*W/4),-1]。
两个左侧样点的坐标是[-1,floor(H/4)]和[-1,floor(3*H/4)]。
所选择的样点在图22A中绘示为红色。
随后,4个样点被根据亮度样点强度排序并分类为2组。两个较大的样点和两个较小的样点分别被平均。用2个平均的点推导跨分量预测模型。替代地,四个样点的最大值和最小值被用于推导LM参数。
如果上方块可用而左侧块不可用,则当W>2时选择来自上方块的四个色度样点,并且当W=2时选择2个色度样点。
四个所选择的上方样点的坐标为[W/8,-1],[W/8+W/4,-1],[W/8+2*W/4,-1],和[W/8+3*W/4,-1]。
所选择的样点在图22B中绘示为红色。
如果左侧块可用而上方块不可用,则当H>2时选择来自左侧块的四个色度样点,并且当H=2时选择2个色度样点。
四个所选择的左侧样点的坐标为[-1,H/8],[-1,H/8+H/4],[-1,H/8+2*H/4,-1],和[-1,H/8+3*H/4]。
如果左侧块和上方块都不可用,则使用默认预测。α等于0,β等于1<<(BitDepth-1),其中BitDepth表示色度样点的比特深度。
如果当前模式是LM-A模式,则当W’>2时选择来自上方块的四个色度样点,并且当W’=2时选择2个色度样点。W’是上邻近样点的可用数目,其可以为2*W。
四个所选择的上方样点的坐标为[W’/8,-1],[W’/8+W’/4,-1],[W’/8+2*W’/4,-1],和[W’/8+3*W’/4,-1]。
如果当前模式是LM-L模式,则当H’>2时选择来自左侧块的四个色度样点,并且当H’=2时选择2个色度样点。H’是左邻近样点的可用数目,其可以为2*H。
四个所选择的左侧样点的坐标为[-1,H’/8],[-1,H’/8+H’/4],[-1,H’/8+2*H’/4,-1],和[-1,H’/8+3*H’/4]。
3.5修改使用CCLM预测的当前VVC标准的示例性实施例。
8.3.4.2.8 INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范
本章节中使用与VVC标准的当前草案中的等式编号相对应的等式编号描述等式。
输入到此过程中的是:
–帧内预测模式predModeIntra,
–相对于当前图片的左上样点的当前变换块的左上样点的样点位置(xTbC,yTbC),
–变量nTbW,指定变换块宽度,
–变量nTbH,指定变换块高度,
–色度相邻样点p[x][y],x=-1,y=0..2*nTbH–1且x=0..2*nTbW-1,y=-1。
此过程的输出是所预测的样点predSamples[x][y],x=0…nTbW-1,y=0…nTbH-1。
当前亮度位置(xTbY,yTbY)推导如下:
(xTbY,yTbY)=(xTbC<<1,yTbC<<1) (8-155)
变量availL,availT和availTL推导如下:
–如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-156)
numSampL=availL?nTbH:0 (8-157)
–否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+numTopRight):0 (8-158)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+numLeftBelow):0 (8-159)
变量bCTUboundary推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。 (8-160)
预测样点predSamples[x][y],x=0...nTbW-1,y=0...nTbH–1,推导如下:
–如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-161)
–否则,应用以下顺序的步骤:
1.…[对当前规范没有改变]
2.…
3.…
4.…
5.…
6.……[对当前规范没有改变]
7.变量minY,maxY,minC和maxC推导如下:
–变量minY设定为等于1<<(BitDepthY)+1,并且变量maxY设定为等于-1。
–如果availL等于TRUE且predModeIntra等于INTRA_LT_CCLM,则变量aboveIs4设定为等于0;否则,其设定为等于1。
–如果availT等于TRUE且predModeIntra等于INTRA_LT_CCLM,变量LeftIs4设定为等于0;否则,其设定为等于1。
–变量数组startPos[]和pickStep[]推导如下:
–startPos[0]=actualTopTemplateSampNum>>(2+aboveIs4);
–pickStep[0]=std::max(1,actualTopTemplateSampNum>>(1+aboveIs4));
–startPos[1]=actualLeftTemplateSampNum>>(2+leftIs4);
–pickStep[1]=std::max(1,actualLeftTemplateSampNum>>(1+leftIs4));
–变量cnt设定为等于0。
–如果predModeIntra等于INTRA_LT_CCLM,则变量nSX设定为等于nTbW,nSY设定为等于nTbH;否则,nSX设定为等于numSampLT,并且nSY设定为等于numSampL。
–如果availT等于TRUE且predModeIntra不等于INTRA_L_CCLM,则变量selectLumaPix,selectChromaPix推导如下:
–在startPos[0]+cnt*pickStep[0]<nSX且cnt<4时,应用以下:
–selectLumaPix[cnt]=pTopDsY[startPos[0]+cnt*pickStep[0]];
–selectChromaPix[cnt]=p[startPos[0]+cnt*pickStep[0]][-1];
–cnt++;
–如果availL等于TRUE且predModeIntra不等于INTRA_T_CCLM,变量selectLumaPix,selectChromaPix推导如下:
–在startPos[1]+cnt*pickStep[1]<nSY且cnt<4时,应用以下:
–selectLumaPix[cnt]=pLeftDsY[startPos[1]+cnt*pickStep[1]];
–selectChromaPix[cnt]=p[-1][startPos[1]+cnt*pickStep[1]];
–cnt++;
–如果cnt等于2,则应用以下:
–如果selectLumaPix[0]>selectLumaPix[1],则minY设定为等于selectLumaPix[1],minC设定为等于selectChromaPix[1],maxY设定为等于selectLumaPix[0],并且maxC设定为等于selectChromaPix[0];否则,maxY设定为等于selectLumaPix[1],maxC设定为等于selectChromaPix[1],minY设定为等于selectLumaPix[0],并且minC设定为等于selectChromaPix[0]
–否则,如果cnt等于4,则应用以下:
–变量数组minGrpIdx和maxGrpIdx初始化为:
–minGrpIdx[0]=0,minGrpIdx[1]=1,maxGrpIdx[0]=2,maxGrpIdx[1]=3;
–应用以下
–如果selectLumaPix[minGrpIdx[0]]>selectLumaPix[minGrpIdx[1]],则互换minGrpIdx[0]和minGrpIdx[1];
–如果selectLumaPix[maxGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]],则互换maxGrpIdx[0]和maxGrpIdx[1];
–如果selectLumaPix[minGrpIdx[0]]>selectLumaPix[maxGrpIdx[1]],则互换minGrpIdx和maxGrpIdx;
–如果selectLumaPix[minGrpIdx[1]]>selectLumaPix[maxGrpIdx[0]],则互换minGrpIdx[1]和maxGrpIdx[0];
–maxY,maxC,minY和minC推导如下:
–maxY=(selectLumaPix[maxGrpIdx[0]]+selectLumaPix[maxGrpIdx[1]]+1)>>1;
–maxC=(selectChromaPix[maxGrpIdx[0]]+selectChromaPix[maxGrpIdx[1]]+1)>>1;
–maxY=(selectLumaPix[minGrpIdx[0]]+selectLumaPix[minGrpIdx[1]]+1)>>1;
–maxC=(selectChromaPix[minGrpIdx[0]]+selectChromaPix[minGrpIdx[1]]+1)>>1;
8.变量a,b和k推导如下:
[改变结束]
3.6提出的CCLM预测上的另一示例性工作草案
在此章节中,描述了示出可以对VVC标准的当前工作草案进行修改的另一示例性实施例。此处的等式编解码是指VVC标准中对应的等式编号。
INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范。
[添加到当前VVC工作草案如下]
上和右的可用相邻色度样点的数目numTopSamp和左和左下的可用相邻色度样点的数目nLeftSamp推导如下:
–如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
–否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。 (8-161)
变量cntN和数组pickPosN[],N被L和T替换,推导如下:
–变量numIs4N设定为等于((availN&&predModeIntra==INTRA_LT_CCLM)?0:1)。
–变量startPosN设定为等于numSampN>>(2+numIs4N)。
–变量pickStepN设定为等于Max(1,numSampN>>(1+numIs4N))。
–如果availN等于TRUE且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则cntN设定为等于(1+numIs4N)<<1,并且pickPosN[pos]设定为等于(startPosN+pos*pickStepN),pos=0…(cntN–1)。
–否则,cntN设定为等于0。
预测样点predSamples[x][y],x=0...nTbW-1,y=0...nTbH-1推导如下:
–如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
–否则,应用以下顺序的步骤:
1.并置亮度样点pY[x][y],x=0...nTbW*2-1,y=0...nTbH*2-1,设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
2.相邻亮度样点pY[x][y]推导如下:
–当numSampL大于0时,左邻近亮度样点pY[x][y],x=-1…-3,y=0...2*numSampL-1,被设定为等于在位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
–当numSampT大于0时,上邻近亮度样点pY[x][y],x=0…2*numSampT-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
–当availTL等于TRUE时,左邻近上亮度样点pY[x][y],x=-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
3.向下采样的并置亮度样点pDsY[x][y],其中
x=0...nTbW-1,y=0...nTbH–1,推导如下:
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–pDsY[x][y],x=1..nTbW-1,y=1..nTbH-1,推导如下:pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3(8-163)
–如果availL等于TRUE,则pDsY[0][y],y=1...nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3 (8-164)
–否则,pDsY[0][y],y=1…nTbH-1,推导如下:pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
–如果availT等于TRUE,pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3 (8-166)
–否则,pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
–如果availL等于TRUE且availT等于TRUE,则pDsY[0][0]推导如下:
Figure GDA0003535587760000481
–否则如果availL等于TRUE且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
–否则如果availL等于FALSE且availT等于TRUE,则pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
–否则(availL等于FALSE且availT等于FALSE),则pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
–否则,应用以下:
–pDsY[x][y],x=1..nTbW-1,y=0..nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
–如果availL等于TRUE,则pDsY[0][y],y=0..nTbH-1,推导如下:
Figure GDA0003535587760000491
–否则,pDsY[0][y],y=0…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4.当numSampL大于0时,所选择的左邻近色度样点pSelC[idx]设定为等于p[-1][pickPosL[idx]],idx=0…(cntL–1),并且所选择的向下采样的左邻近亮度样点pSelDsY[idx],idx=0...(cntL-1)推导如下:
–变量y设定为等于pickPosL[idx]。
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–如果y>0||availTL==TRUE,则
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY[-2][2*y+1]+4)>>3 (8-175)
–否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
–否则,应用以下:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5.当numSampT大于0时,所选择的上邻近色度样点pSelC[idx]设定为等于p[pickPosT[idx]][-1],idx=0…(cntT–1),并且向下采样的上邻近亮度样点pSelDsY[idx],idx=cntL…(cntL+cntT–1)指定如下:
–变量x设定为等于pickPosT[idx-cntL]。
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–如果x>0:
–如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3 (8-179)
–否则(bCTUboundary等于TRUE),则应用以下:
Figure GDA0003535587760000501
–否则:
–如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3 (8-181)
–否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-182)
–否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
–否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-184)
–否则,应用以下:
–如果x>0:
–如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
–否则(bCTUboundary等于TRUE),则应用以下:
Figure GDA0003535587760000511
–否则:
–如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
Figure GDA0003535587760000512
–否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-188)
–否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
–否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-190)
6.变量s minY,maxY,minC和maxC推导如下:
–当cntT+cntL等于2时,设定pSelC[idx+2]=pSelC[idx]和pSelDsY[idx+2]=pSelDsY[idx],idx=0和1。
–数组minGrpIdx[]和maxGrpIdx[]设定为:minGrpIdx[0]=0,minGrpIdx[1]=1,maxGrpIdx[0]=2,maxGrpIdx[1]=3。
–如果pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]],则Swap(minGrpIdx[0],minGrpIdx[1])。
–如果pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(maxGrpIdx[0],maxGrpIdx[1])。
–如果pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(minGrpIdx,maxGrpIdx)。
–如果pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]],则Swap(minGrpIdx[1],maxGrpIdx[0])。
–maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
–maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
–minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
–minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a,b和k推导如下:
–如果numSampL等于0,并且numSampT等于0,则应用以下:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
–否则,应用以下:
diff=maxY-minY (8-211)
–如果diff不等于0,则应用以下:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
–否则(diff等于0),则应用以下:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],x=0..nTbW-1,y=0..nTbH-1推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
[实施例示例结束]
3.7提出的CCLM预测上的另一示例性工作草案
在此章节中,描述了示出可以对VVC标准的当前工作草案进行修改的另一示例性实施例。此处的等式编解码是指VVC标准中对应的等式编号。
INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范
可用的上邻近和右上邻近色度样点的数目numTopSamp和可用的左邻近和左下邻近色度样点的数目nLeftSamp推导如下:
–如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
–否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary,推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。 (8-161)
变量cntN和数组pickPosN[],N被L和T替换,推导如下:
–变量numIs4N设定为等于((availN&&predModeIntra==INTRA_LT_CCLM)?0:1)。
–变量startPosN设定为等于numSampN>>(2+numIs4N)。
–变量pickStepN设定为等于Max(1,numSampN>>(1+numIs4N))。
–如果availN等于TRUE且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则cntN设定为等于Min(numSampN,(1+numIs4N)<<1),并且pickPosN[pos]设定为等于(startPosN+pos*pickStepN),pos=0…(cntN–1)。
–否则,cntN设定为等于0。
预测样点predSamples[x][y],x=0…nTbW-1,y=0...nTbH–1,推导如下:
–如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
–否则,应用以下顺序的步骤:
1.并置亮度样点pY[x][y],x=0...nTbW*2-1,y=0...nTbH*2–1,设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
2.相邻亮度样点pY[x][y]推导如下:
–当numSampL大于0时,左邻近亮度样点pY[x][y],x=-1…-3,y=0…2*numSampL-1,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
–当numSampT大于0时,上邻近亮度样点pY[x][y],x=0…2*numSampT-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
–当availTL等于TRUE时,左上邻近亮度样点pY[x][y],x=-1,y=-1,-2,被设定为等于在位置(xTbY+x,yTbY+y)处去方块滤波过程之前的重建的亮度样点。
3.向下采样的并置亮度样点pDsY[x][y],x=0...nTbW-1,y=0...nTbH–1,推导如下:
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–pDsY[x][y],x=1..nTbW-1,y=1..nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3 (8-163)
–如果availL等于TRUE,则pDsY[0][y],y=1..nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3 (8-164)
–否则,pDsY[0][y],y=1…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2 (8-165)
–如果availT等于TRUE,则pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3 (8-166)
–否则,pDsY[x][0],x=1…nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
–如果availL等于TRUE且availT等于TRUE,pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+pY[-1][0]+4*pY[0][0]+pY[1][0]+pY[0][1]+4)>>3(8-168)
–否则如果availL等于TRUE且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
–否则如果availL等于FALSE且availT等于TRUE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
–否则(availL等于FALSE且availT等于FALSE),则pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
–否则,应用以下:
–pDsY[x][y],x=1..nTbW-1,y=0...nTbH-1,推导如下:
Figure GDA0003535587760000561
–如果availL等于TRUE,则pDsY[0][y],y=0...nTbH-1,推导如下:
Figure GDA0003535587760000562
–否则,pDsY[0][y],y=0..nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4.当numSampL大于0时,所选择的左邻近色度样点pSelC[idx]设定为等于p[-1][pickPosL[idx]],idx=0...(cntL–1),并且所选择的向下采样的左邻近亮度样点pSelDsY[idx],idx=0…(cntL-1)推导如下:
–变量y设定为等于pickPosL[idx]。
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–如果y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY[-2][2*y+1]+4)>>3 (8-175)
–否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
–否则,应用以下:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5.当numSampT大于0时,所选择的上邻近色度样点pSelC[idx]设定为等于p[pickPosT[idx]][-1],idx=0…(cntT–1),并且向下采样的上邻近亮度样点pSelDsY[idx],idx=cntL...(cntL+cntT–1),指定如下:
–变量x设定为等于pickPosT[idx-cntL]。
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–如果x>0:
–如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3 (8-179)
–否则(bCTUboundary等于TRUE),则应用以下:
Figure GDA0003535587760000581
–否则:
–如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3 (8-181)
–否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-182)
–否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
–否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-184)
–否则,应用以下:
–如果x>0:
–如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
–否则(bCTUboundary等于TRUE),则应用以下:
Figure GDA0003535587760000582
–否则:
–如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
Figure GDA0003535587760000591
–否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-188)
–否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
–否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-190)
6.当cntT+cntL不等于0时,变量s minY,maxY,minC和maxC推导如下:
–当cntT+cntL等于2,设定pSelComp[3]等于pSelComp[0],pSelComp[2]等于pSelComp[1],pSelComp[0]等于pSelComp[1],并且pSelComp[1]等于pSelComp[3],Comp被DsY和C替换。
–数组minGrpIdx[]和maxGrpIdx[]设定为:minGrpIdx[0]=0,minGrpIdx[1]=1,maxGrpIdx[0]=2,maxGrpIdx[1]=3。
–如果pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]],则Swap(minGrpIdx[0],minGrpIdx[1])。
–如果pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(maxGrpIdx[0],maxGrpIdx[1])。
–如果pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(minGrpIdx,maxGrpIdx)。
–如果pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]],则Swap(minGrpIdx[1],maxGrpIdx[0])。
–maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
–maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
–minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
–minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a,b和k推导如下:
–如果numSampL等于0,并且numSampT等于0,则应用以下:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
–否则,应用以下:
diff=maxY–minY (8-211)
–如果diff不等于0,则应用以下:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
–否则(diff等于0),则应用以下:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],x=0..nTbW-1,y=0..nTbH–1,推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
3.8提出的CCLM预测上的替代工作草案
在此章节中,描述了可以对VVC标准的当前工作草案进行的另一修改的替代示例性实施例。此处的等式编号是指VVC标准中对应的等式编号。
INTRA_LT_CCLM,INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式的规范。
可用的上邻近和右上邻近色度样点的数目numTopSamp和可用的左邻近和左下邻近色度样点的数目nLeftSamp推导如下:
–如果predModeIntra等于INTRA_LT_CCLM,则应用以下:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
–否则,应用以下:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
变量bCTUboundary,推导如下:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE。 (8-161)
变量cntN和数组pickPosN[],N被L和T替换,推导如下:
–变量numIs4N设定为等于((availT&&availL&&predModeIntra==INTRA_LT_CCLM)?0:1)。
–变量startPosN设定为等于numSampN>>(2+numIs4N)。
–变量pickStepN设定为等于Max(1,numSampN>>(1+numIs4N))。
–如果availN等于TRUE且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则cntN设定为等于Min(numSampN,(1+numIs4N)<<1),并且pickPosN[pos]设定为等于(startPosN+pos*pickStepN),pos=0...(cntN–1)。
–否则,cntN设定为等于0。
预测样点predSamples[x][y],x=0…nTbW-1,y=0…nTbH–1,推导如下:
–如果numSampL和numSampT都等于0,则应用以下:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
–否则,应用以下顺序的步骤:
1.并置亮度样点pY[x][y],x=0...nTbW*2-1,y=0...nTbH*2–1,设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
2.相邻亮度样点pY[x][y]推导如下:
–当numSampL大于0时,左邻近亮度样点pY[x][y],x=-1...-3,y=0...2*numSampL-1,被设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
–当numSampT大于0时,上邻近亮度样点pY[x][y],x=0...2*numSampT-1,y=-1,-2,被设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
–当availTL等于TRUE时,左上邻近亮度样点pY[x][y],x=-1,y=-1,-2,被设定为等于位置(xTbY+x,yTbY+y)处在去方块滤波过程之前的重建的亮度样点。
3.向下采样的并置亮度样点pDsY[x][y],x
=0..nTbW-1,y=0..nTbH–1,推导如下:
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–pDsY[x][y],x=1...nTbW-1,y=1…nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3 (8-163)
–如果availL等于TRUE,则pDsY[0][y],y=1…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3 (8-164)
–否则,pDsY[0][y],y=1...nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+
pY[0][2*y+1]+2)>>2 (8-165)
–如果availT等于TRUE,则pDsY[x][0],x=1...nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3 (8-166)
–否则,pDsY[x][0],x=1…nTbW-1,推导如下:
pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2 (8-167)
–如果availL等于TRUE且availT等于TRUE,则pDsY[0][0]推导如下:
Figure GDA0003535587760000631
–否则如果availL等于TRUE且availT等于FALSE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2 (8-169)
–否则如果availL等于FALSE且availT等于TRUE,则pDsY[0][0]推导如下:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2 (8-170)
–否则(availL等于FALSE且availT等于FALSE),pDsY[0][0]推导如下:
pDsY[0][0]=pY[0][0] (8-171)
–否则,应用以下:
–pDsY[x][y],x=1...nTbW-1,y=0…nTbH-1,推导如下:
pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3 (8-172)
–如果availL等于TRUE,pDsY[0][y],y=0...nTbH-1,推导如下:
Figure GDA0003535587760000641
–否则,pDsY[0][y],y=0…nTbH-1,推导如下:
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1 (8-174)
4.当numSampL大于0时,所选择的左邻近色度样点pSelC[idx]设定为等于p[-1][pickPosL[idx]],idx=0...(cntL–1),并且所选择的向下采样的左邻近亮度样点pSelDsY[idx],idx=0…(cntL-1)推导如下:
–变量y设定为等于pickPosL[idx]。
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–如果y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY[-2][2*y+1]+4)>>3 (8-175)
–否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2 (8-177)
–否则,应用以下:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3 (8-178)
5.当numSampT大于0时,所选择的上邻近色度样点pSelC[idx]设定为等于p[pickPosT[idx–cntL]][-1],idx=cntL...(cntL+cntT–1),并且向下采样的上邻近亮度样点pSelDsY[idx],idx=cntL...(cntL+cntT–1),指定如下:
–变量x设定为等于pickPosT[idx–cntL]。
–如果sps_cclm_colocated_chroma_flag等于1,则应用以下:
–如果x>0:
–如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3 (8-179)
–否则(bCTUboundary等于TRUE),则应用以下:
Figure GDA0003535587760000651
–否则:
–如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3 (8-181)
–否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-182)
–否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2 (8-183)
–否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-184)
–否则,应用以下:
–如果x>0:
–如果bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3 (8-185)
–否则(bCTUboundary等于TRUE),则应用以下:
Figure GDA0003535587760000661
–否则:
–如果availTL等于TRUE且bCTUboundary等于FALSE,则应用以下:
Figure GDA0003535587760000662
–否则如果availTL等于TRUE且bCTUboundary等于TRUE,则应用以下:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2 (8-188)
–否则如果availTL等于FALSE且bCTUboundary等于FALSE,则应用以下:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1 (8-189)
–否则(availTL等于FALSE且bCTUboundary等于TRUE),则应用以下:
pSelDsY[idx]=pY[0][-1] (8-190)
6.当cntT+cntL不等于0时,变量minY,maxY,minC和maxC推导如下:
–当cntT+cntL等于2时,设定pSelComp[3]等于pSelComp[0],pSelComp[2]等于pSelComp[1],pSelComp[0]等于pSelComp[1],并且pSelComp[1]等于pSelComp[3],Comp被DsY和C替换。
–数组minGrpIdx[]和maxGrpIdx[]设定为:minGrpIdx[0]=0,minGrpIdx[1]=2,maxGrpIdx[0]=1,maxGrpIdx[1]=3。
–如果pSelDsY[minGrpIdx[0]]>pSelDsY[minGrpIdx[1]],则Swap(minGrpIdx[0],minGrpIdx[1])。
–如果pSelDsY[maxGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(maxGrpIdx[0],maxGrpIdx[1])。
–如果pSelDsY[minGrpIdx[0]]>pSelDsY[maxGrpIdx[1]],则Swap(minGrpIdx,maxGrpIdx)。
–如果pSelDsY[minGrpIdx[1]]>pSelDsY[maxGrpIdx[0]],则Swap(minGrpIdx[1],maxGrpIdx[0])。
–maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
–maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
–minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
–minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.变量a,b和k推导如下:
–如果numSampL等于0,并且numSampT等于0,则应用以下:
k=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
–否则,应用以下:
diff=maxY-minY (8-211)
–如果diff不等于0,则应用以下:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y (8-217)
k=((3+x-y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC-((a*minY)>>k) (8-220)
其中divSigTable[]指定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0} (8-221)
–否则(diff等于0),则应用以下:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.预测样点predSamples[x][y],x=0…nTbW-1,y=0...nTbH-1推导如下:
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b) (8-225)
以上描述的示例可以整合中以下描述的方法(例如,方法1800、1900和2000)的上下文中,其可以在视频编码器和/或解码器实现。
图18A示出了视频处理的示例性方法的流程图。方法1810包括,在步骤1812中,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点,确定跨分量线性模型(CCLM)的参数,所述色度样点基于W个可用上邻近样点来选择,其中W是整数。方法1810还包括,在步骤1814,基于所述确定来进行转换。
图18B示出了视频处理的示例性方法的流程图。方法1820包括,在步骤1822,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于色度样点,确定跨分量线性模型(CCLM)预测模式的参数,所述色度样点基于当前视频块的H个可用的左邻近样点来选择。方法1820还包括,在步骤1824,基于所述确定来进行转换。
图19A示出了视频处理的示例性方法的流程图。方法1910包括,在步骤1912中,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数。方法1910还包括,在步骤1914,基于所述确定来进行转换。
图19B示出了视频处理的示例性方法的流程图。方法1920包括,在步骤1922,为视频的作为色度块的当前视频块与视频的编解码表示之间的转换,基于位置规则选择色度样点,所述色度样点用于推导跨分量线性模型(CCLM)的参数。方法1920还包括,在步骤1924,基于所述确定来进行转换。在该示例中,位置规则指定选择位于当前视频块的上方行和/或左侧列内的色度样点。
图20A示出了视频处理的示例性方法的流程图。方法2010包括,在步骤2012,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定亮度样点被向下采样的位置,其中使用向下采样的亮度样点基于色度样点和向下采样的亮度样点来确定跨分量线性模型(CCLM)的参数,其中向下采样的亮度样点位于与用于推导CCLM的参数的色度样点的位置相对应的位置。方法2010还包括,在步骤2014,基于所述确定来进行转换。
图20B示出了视频处理的示例性方法的流程图。方法2020包括,在步骤2022,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,确定一种使用色度样点和亮度样点基于与当前视频块相关联的编解码条件来推导跨分量线性模型(CCLM)的参数的方法。方法2020还包括,在步骤2024,基于所述确定来进行转换。
图20C示出了视频处理的示例性方法的流程图。方法2030包括,在步骤2032,为视频的作为色度块的当前视频块和视频的编解码表示之间的转换,基于当前视频块的左邻近块和上邻近块的可用性,确定是否推导亮度分量和色度分量的最大值和/或最小值,所述亮度分量和色度分量用于推导跨分量线性模型(CCLM)的参数。方法2030还包括,在步骤2034,基于所述确定来进行转换。
4本公开技术的示例性实现方式
图21A是视频处理设备3000的框图。设备3000可以用于实现本文所描述的方法中的一个或多个。设备3000可以实现为智能电话、平板电脑、计算机、物联网(IoT)接收器等等。设备3000可以包括一个或多个处理器3002、一个或多个存储器3004和视频处理硬件3006。(一个或多个)处理器3002可以配置为实现本文档中描述的一个或多个方法(包括但不限于图18至29C所示的方法)。(一个或多个)存储器3004可以用于储存用于实现本文中所描述的方法和技术的数据和代码。视频处理硬件3006可以用于在硬件电路中实现本文档中描述的一些技术。
图21B是可以实现公开的技术的视频处理系统的框图的另一示例。图21B是示出可以实现本文中公开的技术的示例性视频处理系统3100的框图。各种实现方式可以包括系统3100的组件中的一些或全部。系统3100可以包括输入3102,以接收视频内容。视频内容可以以原始或未压缩格式(例如,8或10比特多分量像素值)接收,也可以以压缩的或编码的格式接收。输入3102可以表示网络接口、外围总线接口或储存接口。网络接口的示例包括诸如以太网、无源光学网络(PON)等的有线接口和诸如Wi-Fi或蜂窝接口的无线接口。
系统3100可以包括可以实现本文档中描述的各种编解码或编码方法的编解码组件3104。编解码组件3104可以将视频的平均比特率从输入3102减少到编解码组件3104的输出,以产生视频的编解码表示。因此,编解码技术有时称为视频压缩或视频转码技术。如组件3106所表示的,编解码组件3104的输出可以被存储或经由所连接的通信来传输。在输入3102处接收的视频的存储的或传输的比特流表示(或编解码表示)可以被组件3108用于生成像素值或可显示视频,该像素值或可显示视频被发送到显示接口3110。从比特流表示生成用户可观看视频的过程有时称为视频解压缩。此外,尽管某些视频处理操作被称为“编码”操作或工具,但是应当理解,编码工具或编码操作在编码器处使用,并且逆向操作编码结果的对应的解码工具或解码操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(USB)或高清多媒体接口(HDMI)或Displayport等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等等。本文档中描述的技术可以实现在各种电子装置中,诸如移动电话、膝上型计算机、智能电话或能够执行数字数据处理和/或视频显示的其他设备。
在一些实施例中,视频编解码方法可以使用在关于图21A或21B所描述的硬件平台上实现的装置来实现。
可以使用以下基于条款的格式描述的结合在一些实施例中的各种技术。
第一套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例16和17。
1.一种视频处理方法,包括:为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,根据基于W个可用的上邻近样点选择的色度样点,确定跨分量线性模型(CCLM)预测模式的参数,W为整数;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述CCLM预测模式使用线性模式来从另一分量推导色度分量的预测值。
3.如条款1所述的方法,其中W设定为:i)所述当前视频块的宽度,ii)L乘以所述当前视频块的宽度,L为整数,iii)所述当前视频块的高度与所述当前视频块的宽度之和,或iv)所述当前视频块的宽度与可用右上邻近样点的数目之和。
4.如条款1所述的方法,其中W取决于所述当前视频块的上邻近块或左邻近块中的至少一者的可用性。
5.如条款1所述的方法,其中W取决于所述当前视频块的编解码模式。
6.如条款3所述的方法,其中L的值取决于与所述当前视频块邻近的右上块或左上样点的可用性。
7.如条款1所述的方法,其中基于第一位置偏移值(F)和取决于W的步长值(S)来选择所述色度样点。
8.如条款7所述的方法,其中左上样点具有坐标(x0,y0),并且所选择的色度样点具有坐标(x0+F+K×S,y0-1),K为0和kMax之间的整数。
9.如条款7所述的方法,其中F=W/P或F=W/P+offset,P为整数。
10.如条款9所述的方法,其中F=W>>(2+numIs4T),其中在存在从上邻近行中选择的四个相邻样点的情况下,numIs4T等于1,否则numIs4T等于0,其中符号>>被定义为算术右移符号。
11.如条款7所述的方法,其中S=W/Q,Q为整数。
12.如条款7所述的方法,其中S不小于1。
13.如条款11或12所述的方法,其中S=Max(1,W>>(1+numIs4T)),其中在存在从上邻近行中选择的四个相邻样点的情况下,numIs4T等于1,否则numIs4T等于0,其中符号>>被定义为算术右移符号。
14.如条款10或13所述的方法,其中在以下情况下numIs4T等于1:上邻近样点可用,左邻近样点可用,并且所述当前视频块用普通CCLM编解码,所述普通CCLM不同于仅使用左邻近样点的第一CCLM,并且不同于仅使用上邻近样点的第二CCLM。
15.如条款7所述的方法,其中F=S/R,R为整数。
16.如条款7所述的方法,其中S=F/Z,Z为整数。
17.如条款8-16中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于所述当前视频块的预测模式,所述当前视频块的预测模式是以下模式之一:仅使用左邻近样点的第一CCLM,仅使用上邻近样点的第二CCLM,使用左邻近样点和上邻近样点两者的普通CCLM,或与所述第一CCLM、所述第二CCLM和所述普通CCLM不同的其他模式。
18.如条款8-16中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于所述当前视频块的宽度和/或高度。
19.如条款8-16中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于邻近样点的可用性。
20.如条款8-16中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于W。
21.一种视频处理方法,包括:
为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,根据基于所述当前视频块的H个可用左邻近样点选择的色度样点,确定跨分量线性模型(CCLM)预测模式的参数;以及
基于所述确定进行所述转换。
22.如条款21所述的方法,其中所述CCLM预测模式使用线性模式从另一分量推导色度分量的预测值。
23.如条款21所述的方法,其中H设定为以下之一:i)所述当前视频块的高度,ii)L乘以所述当前视频块的高度,L为整数,iii)所述当前视频块的高度与所述当前视频块的宽度之和,或iv)所述当前视频块的高度与可用左下邻近样点的数目之和。
24.如条款21所述的方法,其中H取决于所述当前视频块的上邻近块或左邻近块中的至少一者的可用性。
25.如条款21所述的方法,其中H取决于所述当前视频块的编解码模式。
26.如条款23所述的方法,其中L的值取决于邻近所述当前视频块的左下块或左下样点的可用性。
27.如条款21所述的方法,其中基于第一位置偏移值(F)和取决于H的步长值(S)来选择所述色度样点。
28.如条款27所述的方法,其中左上样点具有坐标(x0,y0),并且所选择的色度样点具有坐标(x0-1,y0+F+K×S),K为0和kMax之间的整数。
29.如条款27所述的方法,其中F=H/P或F=H/P+offset,P为整数。
30.如条款29所述的方法,其中F=H>>(2+numIs4L),其中在存在从所述左邻近列中选择的四个相邻样点的情况下numIs4L等于1;否则其等于0。
31.如条款27所述的方法,其中S=H/Q,Q为整数。
32.如条款27所述的方法,其中S不小于1。
33.如条款31或32所述的方法,其中S=Max(1,H>>(1+numIs4L)),其中在存在从左邻近列中选择的四个相邻样点的情况下,numIs4L等于1,否则numIs4L等于0。
34.如条款30或33所述的方法,其中在以下情况下numIs4L等于1:上邻近样点可用,左邻近样点可用,并且所述当前视频块用普通CCLM编解码,所述普通CCLM不同于仅使用左邻近样点的第一CCLM,并且不同于仅使用上邻近样点的第二CCLM。
35.如条款27所述的方法,其中F=S/R,R为整数。
36.如条款27所述的方法,其中S=F/Z,Z为整数。
37.如条款28-36中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于所述当前视频块的预测模式,所述当前视频块的预测模式是以下模式之一:仅使用左邻近样点的第一CCLM,仅使用上邻近样点的第二CCLM,使用左邻近和上邻近样点两者的普通CCLM,或与所述第一CCLM、所述第二CCLM和所述普通CCLM不同的其他模式。
38.如条款28-36中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于所述当前视频块的宽度和/或高度。
39.如条款28-36中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于H。
40.如条款28-36中任一项所述的方法,其中Kmax、F、S或offset中的至少一者取决于相邻样点的可用性。
41.如条款21所述的方法,其中在所述当前视频块的右上邻近块可用的情况下,H被设定为所述当前视频块的高度与所述当前视频块的宽度之和。
42.如条款21所述的方法,其中在左邻近样点不可用的情况下,无论所述当前视频块是否具有仅使用上邻近样点的第一CCLM,所选择的色度样点的高度为H。
43.如条款1所述的方法,其中在所述当前视频块的左下邻近块可用的情况下,W被设定为所述当前视频块的高度与所述当前视频块的宽度之和。
44.如条款1所述的方法,其中在上邻近样点不可用的情况下,无论所述当前视频块是否具有仅使用左邻近样点的第一CCLM,所选择的色度样点的数目为W。
45.如条款1-44中任一项所述的方法,其中进行所述转换包括由所述当前块生成所述编解码表示。
46.如条款1-44中任一项所述的方法,其中进行所述转换包括由所述编解码表示生成所述当前块。
47.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至46中一者或多者所述的方法。
48.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至46中的一项或多项所述的方法的程序代码。
第二套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例18和19。
1.一种视频处理方法,包括:为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中所述对应的亮度样点通过向下采样获得。
3.如条款1所述的方法,其中maxY、maxC、minY和minC被首先推导并被用于推导所述参数。
4.如条款3所述的方法,其中基于两点法推导所述参数。
5.如条款3所述的方法,其中选择所述两个色度样点以推导所述maxY、maxC、minY和minC,并且其中所述minY被设定为较小亮度样点值,所述minC是其对应的色度样点值,所述maxY被设定为较大亮度样点值,并且所述maxC是其对应的色度样点值。
6.如条款3所述的方法,其中选择所述四个色度样点以推导所述maxY、maxC、minY和minC,并且其中所述四个色度样点和所述对应的亮度样点被划分为两个数组G0和G1,每个数组包括两个色度样点和它们对应的亮度样点。
7.如条款6所述的方法,其中所述两个数组G0和G1包括以下集合之一:
i)G0={S0,S1},G1={S2,S3},
ii)G0={S1,S0},G1={S3,S2},
iii)G0={S0,S2},G1={S1,S3},
iv)G0={S2,S0},G1={S3,S1},
v)G0={S1,S2},G1={S0,S3},
vi)G0={S2,S1},G1={S3,S0},
vii)G0={S0,S3},G1={S1,S2},
viii)G0={S3,S0},G1={S2,S1},
ix)G0={S1,S3},G1={S0,S2},
x)G0={S3,S1},G1={S2,S0},
xi)G0={S3,S2},G1={S0,S1},或
xii)G0={S2,S3},G1={S1,S0},并且
其中S0、S1、S2、S3分别包括所述四个色度样点,并且还分别包括对应的亮度样点。
8.如条款7所述的方法,其中在比较G0[0]和G0[1]的两个亮度样点值后,G0[0]的色度样点及其对应的亮度样点被与G0[1]的色度样点及其对应的亮度样点互换。
9.如条款8所述的方法,其中在G0[0]的亮度样点值大于G0[1]的亮度样点值的情况下,G0[0]的所述色度样点及其对应的亮度样点被与G0[1]的所述色度样点及其对应的亮度样点互换。
10.如条款7所述的方法,其中在比较G1[0]和G1[1]的两个亮度样点值后,G1[0]到色度样点及其对应的亮度样点被与G1[1]的色度样点及其对应的亮度样点互换。
11.如条款10所述的方法,其中在G1[0]的亮度样点值大于G1[1]的亮度样点值的情况下,G1[0]的所述色度样点及其对应的亮度样点被与G1[1]的所述色度样点及其对应的亮度样点互换。
12.如条款6所述的方法,其中在比较G0[0]和G1[1]的两个亮度样点值后,G0的色度样点及其对应的亮度样点被与G1的色度样点及其对应的亮度样点互换。
13.如条款12所述的方法,其中在G0[0]的亮度样点值大于G1[1]的亮度样点值的情况下,所述G0的色度样点及其对应的亮度样点被与G1的色度样点及其对应的亮度样点互换。
14.如条款7所述的方法,其中在比较G0[1]和G1[0]的两个亮度样点值后,G0[1]的色度样点及其对应的亮度样点被与G1[0]的色度样点及其对应的亮度样点互换。
15.如条款14所述的方法,其中在G0[1]的亮度样点值大于G1[0]的亮度样点值的情况下,所述G0[1]的色度样点及其对应的亮度样点被与G1[0]的色度样点及其对应的亮度样点互换。
16.如条款7所述的方法,其中在比较G0[0]、G0[1]、G1[0]和G1[1]的两个亮度样点值后,选择性地按顺序进行以下互换操作:i)G0[0]的色度样点及其对应的亮度样点与G0[1]的色度样点及其对应的亮度样点的互换操作,ii)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,iii)G0的色度样点及其对应的亮度样点与G1的色度样点及其对应的亮度样点的互换操作,以及iv)G0[1]的色度样点及其对应的亮度样点与G1[0]的色度样点及其对应的亮度样点的互换操作。
17.如条款7或16所述的方法,其中基于G1[0]与G1[1]的亮度样点值之和来计算maxY,并且基于G1[0]和G1[1]的色度样点值之和来计算maxC。
18.如条款7或16所述的方法,其中基于G1[0]和G1[1]的亮度样点值的平均值来计算maxY,并且基于G1[0]和G1[1]的色度样点值的平均值来计算maxC。
19.如条款7或16所述的方法,其中基于G0[0]和G0[1]的亮度样点值之和计算minY,并且基于G0[0]和G0[1]的色度样点值之和计算minC。
20.如条款7或16所述的方法,其中基于G0[0]和G0[1]的亮度样点值的平均值来计算minY,并且基于G0[0]和G0[1]的色度样点值的平均值来计算minC。
21.如条款17至20中任一项所述的方法,其中在比较G0[0]、G0[1]、G1[0]和G1[1]的两个亮度样点值后进行的任一互换操作之后,执行maxY和maxC的计算或minY和minC的计算,其中所述互换操作包括:i)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,ii)G0的色度样点和对应的亮度样点与G1的色度样点和对应的亮度样点的互换操作,iii)G0[1]的色度样点及其对应的亮度样点与G1[0]的色度样点及其对应的亮度样点的互换操作,或iv)G0[0]的色度样点和对应的亮度样点与G0[1]的色度样点和对应的亮度样点的互换操作。
22.如条款1所述的方法,其中在仅存在两个可用的色度样点的情况下,对所述两个可用的色度样点进行填充以提供所述四个色度样点,并且还对两个对应的可用的亮度样点进行填充以提供所述四个亮度样点。
23.如条款22所述的方法,其中所述四个色度样点包括所述两个可用的色度样点和从所述两个可用的色度样点复制的两个填充色度样点,并且所述四个对应的亮度样点包括所述两个可用的亮度样点和从所述两个可用的亮度样点复制的两个填充亮度样点。
24.如条款7所述的方法,其中S0、S1、S2、S3是在所述当前视频块的上方行和/或左侧列内以给定顺序选择的色度样点和对应的亮度样点。
25.一种视频处理方法,包括:为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于位置规则选择色度样点,所述色度样点用于推导跨分量线性模型(CCLM)的参数;以及基于所述确定进行所述转换,其中所述位置规则规定选择位于所述当前视频块的上方行和/或左侧列内的所述色度样点。
26.如条款25所述的方法,其中所述上方行和所述左侧列分别具有W个样点和H个样点,W和H分别是所述当前视频块的宽度和高度。
27.如条款26所述的方法,其中所述位置规则应用于用普通CCLM模式编解码的所述当前视频块,所述普通CCLM模式不同于仅使用上邻近样点来推导所述跨分量线性模型的参数的第一CCLM模式且不同于仅使用左邻近样点来推导所述跨分量线性模型的参数的第二CCLM模式。
28.如条款26所述的方法,其中所述位置规则规定选择位于所述当前视频块的上方行和右上行内的所述色度样点。
29.如条款28所述的方法,其中所述上方行和所述右上行分别具有W个样点和H个样点,W和H分别是所述当前视频块的宽度和高度。
30.如条款28所述的方法,其中仅选择所述上方行和所述右上行内的可用的样点。
31.如条款28所述的方法,其中所述位置规则应用于通过第一CCLM模式编解码的所述当前视频块,所述第一CCLM模式仅使用上邻近样点来推导所述跨分量线性模型的参数。
32.如条款28所述的方法,其中所述位置规则应用于以下情况:所述上方行可用且所述左侧列不可用,并且所述当前视频块用普通CCLM模式编解码,所述普通CCLM模式不同于仅使用上邻近样点来推导所述CCLM的参数的第一CCLM模式且不同于仅使用左邻近样点来推导所述跨分量线性模型的参数的第二CCLM模式。
33.如条款26-32中任一项所述的方法,其中基于规则设定numSampT,所述规则规定,在上邻近样点可用的情况下设定numSampT等于nTbW且在所述上邻近样点不可用的情况下设定numSampT等于0,并且其中numSampT表示上邻近行内用于推导所述跨分量线性模型的参数的色度样点的数目,并且nTbW表示所述当前视频块的宽度。
34.如条款33所述的方法,其中所述规则应用于通过普通CCLM模式编解码的所述当前视频块,所述普通CCLM模式不同于仅使用上邻近样点来推导所述CCLM的第一CCLM模式且不同于仅使用左邻近样点来推导所述跨分量线性模型的参数的第二CCLM模式。
35.如条款26-32中任一项所述的方法,其中基于规则来设定numSampT,所述规则规定,在上邻近样点可用且所述当前视频块通过第一CCLM模式编解码的情况下设定numSampT等于nTbW+Min(numTopRight,nTbH),否则设定numSampT等于0,其中所述第一CCLM模式仅使用上邻近样点来推导所述跨分量线性模型的参数,并且其中numSampT表示上邻近行内用于推导所述跨分量线性模型的参数的色度样点的数目,nTbW和nTbH分别表示所述当前块的宽度和高度,并且numTopRight表示可用右上邻近样点的数目。
36.如条款25所述的方法,其中所述位置规则规定选择位于所述当前视频块的左侧列和左下列内的所述色度样点。
37.如条款36所述的方法,其中所述左侧列和所述左下列分别具有H个样点和W个样点,W和H分别是所述当前视频块的宽度和高度。
38.如条款36所述的方法,其中仅选择所述左侧列和所述左下列内的可用的样点。
39.如条款36所述的方法,其中所述位置规则应用于通过第二CCLM模式编解码的所述当前视频块,所述第二CCLM模式仅使用左邻近样点来推导所述跨分量线性模型的参数。
40.如条款36所述的方法,其中所述位置规则应用于以下情况:所述上方行不可用且所述左侧列可用,并且所述当前视频块用普通CCLM模式编解码,所述普通CCLM模式不同于仅使用上邻近样点来推导所述CCLM的参数的第一CCLM模式且不同于仅使用左邻近样点来推导所述跨分量线性模型的参数的第二CCLM模式。
41.如条款36-40中任一项所述的方法,其中基于规则来设定numSampL,所述规则规定,在左邻近样点可用的情况下设定numSampL等于nTbH,否则设定numSampL等于0,并且其中numSampL表示左邻近列内用于推导所述跨分量线性模型的参数的色度样点的数目,并且nTbH表示所述当前视频块的高度。
42.如条款41所述的方法,其中所述规则应用于通过普通CCLM模式编解码的所述当前视频块,所述普通CCLM模式不同于仅使用上邻近样点来推导所述跨分量线性模型的参数的第一CCLM模式且不同于仅使用左邻近样点来推导所述跨分量线性模型的参数的第二CCLM模式。
43.如条款36-40中任一项所述的方法,其中基于规则来设定numSampL,所述规则规定,在左邻近样点可用且所述当前视频块用第二CCLM模式编解码的情况下设定numSampL等于nTbH+Min(numLeftBelow,nTbW),否则设定numSampL等于0,所述第二CCLM模式仅使用左邻近样点来推导所述跨分量线性模型的参数,并且其中numSampL表示左邻近列内用于推导所述跨分量线性模型的参数的色度样点的数目,nTbW和nTbH分别表示所述当前块的宽度和高度,并且numLeftBelow表示可用的左下相邻样点的数目。
44.如条款25-43中任一项所述的方法,其中对应于选择的色度样点的亮度样点被用于推导所述跨分量线性模型的参数。
45.如条款44所述的方法,其中通过向下采样推导所述亮度样点。
46.如条款1-45中任一项所述的方法,其中所述转换的进行包括由所述当前块生成所述编解码表示。
47.如条款1-45中任一项所述的方法,其中所述转换的进行包括由所述编解码表示生成所述当前块。
48.如条款1-47中任一项所述的方法,其中所述CCLM基于包括所述跨分量线性模型的参数的线性模型,使用向下采样的共位亮度分量样点来推导所述当前块的色度分量样点的预测值。
49.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至48中一者或多者所述的方法。
50.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至48中的一项或多项所述的方法的程序代码。
第三套条款描述本公开技术的在之前章节中列举的某些特征和方面,包括例如示例20、21和22。
1.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定亮度样点被向下采样的位置,其中所述向下采样的亮度样点被用于基于色度样点和向下采样的亮度样点确定跨分量线性模型(CCLM)的参数,其中所述向下采样的亮度样点在与被用于推导所述CCLM的参数的所述色度样点的位置相对应的位置处;以及基于所述确定进行所述转换。
2.如条款1所述的方法,其中亮度样点在所述当前视频块之外的位置不被向下采样,并且不被用于确定所述CCLM的参数。
3.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,确定使用色度样点和亮度样点,基于与所述当前视频块相关联的编解码条件,推导跨分量线性模型(CCLM)的参数的方法;以及基于所述确定进行所述转换。
4.如条款3所述的方法,其中所述编解码条件对应于所述当前视频块的颜色格式。
5.如条款4所述的方法,其中所述颜色格式是4:2:0或4:4:4。
6.如条款3所述的方法,其中编解码条件对应于所述当前视频块的色彩表示方法。
7.如条款6所述的方法,其中所述色彩表示方法是RGB或YCbCr。
8.如条款3所述的方法,其中所述色度样点被向下采样,并且所述确定取决于向下采样的色度样点的位置。
9.如条款3所述的方法,其中所述推导参数的方法包括基于所述色度样点和所述亮度样点确定所述CCLM的参数,所述色度样点和所述亮度样点基于位置规则选自一组相邻色度样点。
10.如条款3所述的方法,其中所述推导参数的方法包括基于所述色度样点和所述亮度样点的最大值和最小值确定所述CCLM的参数。
11.如条款3所述的方法,其中所述推导参数的方法包括确定所述CCLM的参数,所述CCLM的参数由两个色度样点和对应的两个亮度样点完全可确定。
12.如条款3所述的方法,其中所述推导参数的方法包括使用参数表确定所述CCLM的参数,所述参数表的条目根据两个色度样点值和两个亮度样点值被取回。
13.一种视频处理的方法,包括:为视频的作为色度块的当前视频块与所述视频的编解码表示之间的转换,基于左邻近块和所述当前视频块的上邻近块的可用性,确定是否推导被用于推导跨分量线性模型(CCLM)的参数的亮度分量和色度分量的最大值和/或最小值;以及基于所述确定进行所述转换。
14.如条款13所述的方法,其中在所述左邻近块和所述上邻近块不可用的情况下,不推导所述最大值和/或所述最小值。
15.如条款13所述的方法,其中所述确定基于所述当前视频块的可用相邻样点的数目而确定,并且其中所述可用相邻样点被用于推导所述跨分量线性模型的参数。
16.如条款15所述的方法,其中在numSampL==0且numSampT==0的情况下,不推导所述最大值和/或所述最小值,所述numSampL和所述numSampT分别指示来自所述左邻近块的数目和来自所述上邻近块的可用相邻样点的数目,并且其中来自所述左邻近块的所述可用相邻样点和来自所述上邻近块的所述可用相邻样点被用于推导所述跨分量线性模型的参数。
17.如条款15所述的方法,其中在numSampL+numSampT==0的情况下,不推导所述最大值和/或所述最小值,所述numSampL和所述numSampT分别指示来自所述左邻近块的可用相邻样点的数目和来自所述上邻近块的可用相邻样点的数目,并且其中来自所述左邻近块的所述可用相邻样点和来自所述上邻近块的所述可用相邻样点被用于推导所述跨分量线性模型的参数。
18.如条款1-17中任一项所述的方法,其中进行所述转换包括从所述当前块生成所述编解码表示。
19.如条款1-17中任一项所述的方法,其中进行所述转换包括从所述编解码表示生成所述当前块。
20.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至19中任一项所述的方法。
21.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至19中任一项所述的方法的程序代码。
第四套条款描述本公开技术的在之前章节中列举的某些特征和方面。
1.一种视频处理的方法,包括:为包括色度块且基于两个或更多个色度样点的当前视频块,确定线性模型的参数的值的集合,其中所述两个或更多个色度样点选自所述色度块的一组相邻色度样点;以及基于所述线性模型重构所述当前视频块。
2.如条款1所述的方法,其中所述色度块的左上样点为(x,y),其中所述色度块的宽度和高度分别为W和H,并且其中所述一组相邻色度样点包括:
样点A,具有坐标(x-1,y),
样点D,具有坐标(x-1,y+H-1),
样点J,具有坐标(x,y-1),以及
样点M,具有坐标(x+W-1,y-1)。
3.如条款2所述的方法,其中所述当前视频块的左上邻近块和上邻近块可用,并且其中所述两个或更多个色度样点包括所述样点A、D、J和M。
4.如条款2所述的方法,其中所述当前视频块的左上邻近块可用,并且其中所述两个或更多个色度样点包括所述样点A和D。
5.如条款2所述的方法,其中所述当前视频块的上邻近块可用,并且其中所述两个或更多个色度样点包括所述样点J和M。
6.一种视频处理的方法,包括:对包括色度块的当前视频块,生成包括所述当前视频块的相邻块的色度和亮度样点的多个组;基于所述多个组,确定所述色度和亮度样点的最大和最小值;基于所述最大和最小值,确定线性模型的参数的值的集合;以及,基于所述线性模型,重构所述当前视频块。
7.如条款6所述的方法,其中生成所述多个组是基于所述当前视频块的相邻块的可用性。
8.如条款6所述的方法,其中所述多个组包括S0和S1,其中最大亮度值被计算为maxL=f1(maxLS0,maxLS1,…,maxLSm),其中f1是第一函数且maxLSi是所述多个组中的组Si的最大亮度值,其中最大色度值被计算为maxC=f2(maxCS0,maxCS1,…,maxCSm),其中f2是第二函数且maxCSi是所述组Si的最大色度值,其中最小亮度值被计算为minL=f3(minLS0,minLS1,…,minLSm),其中f3是第三函数且minLSi是所述组Si的最小亮度值,其中最小色度值被计算为minC=f4(minCS0,minCS1,…,minCSm),其中f4是第四函数且minCSi是所述组Si的最大色度值,并且其中所述线性模型的参数包括α和β,其计算为α=(maxC-minC)/(maxL-minL)和β=minC-α×minL。
9.如条款8所述的方法,其中所述色度块的左上样点为(x,y),其中所述色度块的宽度和高度分别为W和H,并且其中所述一组相邻色度样点包括:
样点A,具有坐标(x-1,y),
样点D,具有坐标(x-1,y+H-1),
样点J,具有坐标(x,y-1),以及
样点M,具有坐标(x+W-1,y-1)。
10.如条款9所述的方法,其中所述当前视频块的左上邻近块和上邻近块可用,其中所述组S0的最大亮度和色度值与最小亮度和色度值(分别为maxLS0、maxCS0、minLS0和minLS0)是基于所述样点A和D,其中所述组S1的最大亮度和色度值与最小亮度和色度值(分别为maxLS1、maxCS1、minLS1和minLS1)是基于样点J和M,并且其中maxL=(maxLS0+maxLS1)/2,maxC=(maxCS0+maxCS1)/2,minL=(minLS0+minLS1)/2且minC=(minCS0+minCS1)/2。
11.如条款9所述的方法,其中所述当前视频块的左上邻近块可用,并且其中maxL、maxC、minL和minC是基于所述样点A和D。
12.如条款9所述的方法,其中所述当前视频块的上邻近块可用,并且其中maxL、maxC、minL和minC是基于所述样点J和M。
13.如条款6所述的方法,其中所述线性模型的参数包括α和β,其计算为α=0且β=1<<(bitDepth-1),其中bitDepth是所述色度样点的比特深度。
14.如条款6所述的方法,其中生成多个组是基于所述当前视频块的高度或宽度。
15.一种视频处理的方法,包括:通过下采样具有高度(H)和宽度(W)的当前视频块的相邻块的色度和亮度样点生成下采样色度和亮度样点;基于所述下采样色度和亮度样点,确定所述当前视频块的线性模型的参数的值的集合;以及基于所述线性模型,重构所述当前视频块。
16.如条款15所述的方法,其中所述下采样是基于所述高度或所述宽度。
17.如条款16所述的方法,其中W<H。
18.如条款16所述的方法,其中W>H。
19.如条款15所述的方法,其中所述当前视频块的左上样点是R[0,0],其中所述下采样色度样点包括样点R[-1,K×H/W],并且其中K是范围从0至W-1的非负整数。
20.如条款15所述的方法,其中所述当前视频块的左上样点为R[0,0],其中所述下采样色度样点包括样点R[K×H/W,-1],并且其中K是范围从0至H-1的非负整数。
21.如条款15所述的方法,其中在所述下采样色度和亮度样点被用于确定所述当前视频块的线性模型的参数的值的集合之前,对所述下采样色度和亮度样点进行细化过程。
22.如条款21所述的方法,其中所述细化过程包括滤波过程。
23.如条款21所述的方法,其中所述细化过程包括非线性过程。
24.如条款15所述的方法,其中所述线性模型的参数为α和β,其中α=(C1-C0)/(L1-L0)且β=C0-αL0,其中C0和C1是色度样点,并且其中L0和L1是亮度样点。
25.如条款24所述的方法,其中C0和L0是基于S个下采样色度和亮度样点,分别指代为{Lx1,Lx2,…,LxS}和{Cx1,Cx2,…,CxS},其中C1和L1是基于T个下采样色度和亮度样点,分别指代为{Ly1,Ly2,…,LyT}和{Cy1,Cy2,…,CyT},其中C0=f0(Cx1,Cx2,…,CxS),L0=f1(Lx1,Lx2,…,LxS),C1=f2(Cy1,Cy2,…,CyT)且L1=f1(Ly1,Ly2,…,LyT),并且其中f0、f1、f2和f3为函数。
26.如条款25所述的方法,其中f0和f1为第一函数。
27.如条款25所述的方法,其中f2和f3为第二函数。
28.如条款25所述的方法,其中f0、f1、f2和f3为第三函数。
29.如条款28所述的方法,其中所述第三函数是平均函数。
30.如条款25所述的方法,其中S=T。
31.如条款25所述的方法,其中{Lx1,Lx2,…,LxS}是一组亮度样点中的最小样点。
32.如条款25所述的方法,其中{Lx1,Lx2,…,LxS}是一组亮度样点中的最大样点。
33.如条款31或32所述的方法,其中所述亮度样点的组包括VTM-3.0中使用的全部相邻样点以推导所述线性模型的参数。
34.如条款31或32所述的方法,其中所述亮度样点的组包括VTM-3.0中使用的相邻样点的子集以推导所述线性模型的参数,并且其中所述子集排除全部所述相邻样点。
35.如条款1所述的方法,其中所述两个或更多个色度样点选自相对于所述当前视频块的左侧列、上方行、右上行或左侧下列中的一个或多个。
36.如条款1所述的方法,其中所述两个或更多个色度样点基于所述当前视频块的高度与所述当前视频块的宽度的比例选择。
37.如条款1所述的方法,其中所述两个或更多个色度样点基于所述当前视频块的编解码模式形状。
38.如条款37所述的方法,其中所述当前视频块的编解码模式是第一线性模式,其与第二线性模式和第三线性模式不同,第二线性模式仅使用左邻近样点而第三线性模式仅使用上邻近样点,其中所述当前视频块的左上样点的坐标为(x,y),并且其中所述当前视频块的宽度和高度分别为W和H。
39.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x,y-1)、(x-1,y+H-1)和(x+W-1,y-1)的样点。
40.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x,y-1)、(x-1,y+H-H/W-1)和(x+W-1,y-1)的样点,并且其中H>W。
41.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x,y-1)、(x-1,y+H-1)和(x+W-W/H-1,y-1)的样点,并且其中H<W。
42.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x,y-1)、(x-1,y+H–max(1,H/W))和(x+W-max(1,W/H),y-1)的样点。
43.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1)、(x+W/4,y-1)、(x+2*W/4,y-1)和(x+3*W/4,y–1)的样点。
44.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1)、(x+W/4,y-1)、(x+3*W/4,y–1)和(x+W-1,y-1)的样点。
45.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1)、(x+(2W)/4,y-1)、(x+2*(2W)/4,y-1)和(x+3*(2W)/4,y–1)的样点。
46.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x,y-1)、(x+(2W)/4,y-1)、(x+3*(2W)/4,y–1)和(x+(2W)-1,y-1)的样点。
47.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x-1,y+H/4)、(x-1,y+2*H/4)和(x-1,y+3*H/4)的样点。
48.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x-1,y+2*H/4)、(x-1,y+3*H/4)和(x-1,y+H-1)的样点。
49.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x-1,y+(2H)/4)、(x-1,y+2*(2H)/4)和(x-1,y+3*(2H)/4)的样点。
50.如条款38所述的方法,其中所述两个或更多个色度样点包括具有坐标(x-1,y)、(x-1,y+2*(2H)/4)、(x-1,y+3*(2H)/4)和(x-1,y+(2H)-1)的样点。
51.如条款39至50中任一项所述的方法,其中选择所述四个样点中的恰两个以确定所述线性模型的参数的值的集合。
52.一种视频解码装置,包括配置成执行条款1-51中任一项或多项所述的方法的处理器。
53.一种视频编解码装置,包括配置成执行条款1-51中任一项或多项所述的方法的处理器。
54.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现条款1至51中一者或多者所述的方法。
55.一种计算机程序产品,储存在非瞬态计算机可读介质上,所述计算机程序产品包括用于执行条款1至51中的一项或多项所述的方法的程序代码。
根据前述内容,将理解的是,出于说明的目的已经在本文中描述了本公开技术的特定实施例,但是可以进行各种修改而不背离本发明的范围。因此,除了所附权利要求外,当前公开的技术不受限制。
本专利文档中描述的主题和功能操作的实现方式可以实现为各种系统、数字电子电路或计算机软件、固件或硬件,包括在本说明书中公开的结构及其等同结构,或实现为其中一种或多种的组合。本说明书中描述的主题的实现方式可以实现为一个或多个计算机程序产品,即,编码在有形和非瞬态计算机可读介质上的计算机程序指令的一个或多个模块,以由数据处理设备执行或控制数据处理设备的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器装置、实现机器可读传播信号的物质组成,或它们中的一个或多个的组合。术语“数据处理单元”或“数据处理设备”涵盖用于处理数据的所有设备、装置和机器,包括例如可编程处理器、计算机或多个处理器或计算机。除了硬件之外,设备还可以包含为所讨论的计算机程序创建执行环境的代码,例如,构成处理器固件、协议堆栈、数据库管理系统、操作系统或它们中的一项或多项的组合的代码。
计算机程序(也称为程序、软件、软件应用程序、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且可以以任何形式进行部署,包括独立程序或适合在计算环境中使用的模块、组件、子例程或其他单元。计算机程序不一定与文件系统中的文件相对应。程序可以存储在保存其他程序或数据的文件的一部分中(例如,存储在标记语言文档中的一个或多个脚本),存储在专用于所讨论程序的单个文件中或多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)。可以部署计算机程序,以在一台计算机或位于一个位置上或分布在多个位置上并通过通信网络互连的多台计算机上执行。
本说明书中描述的过程和逻辑流程可以由一个或多个可编程处理器来执行,以执行一个或多个计算机程序,从而通过对输入数据进行操作并生成输出来执行功能。处理和逻辑流程也可以由专用逻辑电路执行,并且也可以实现为专用逻辑电路,例如FPGA(现场可编程门阵列)或ASIC(应用专用集成电路)。
例如,适合于执行计算机程序的处理器包括通用和专用微处理器,以及任何种类的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器装置。通常,计算机还将包括或可操作地耦合到一个或多个用于存储数据的大容量存储设备,例如,磁盘、磁光盘或光盘,以从中接收数据,或将数据传输到一个或多个大容量存储设备,或两者。但是,计算机不必具有这样的装置。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器装置,包括例如半导体存储设备,例如,EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
旨在将说明书与附图一起仅视为示例性的,其中示例性是指作为示例。如本文所用,“或”的使用旨在包括“和/或”,除非上下文另外明确指出。
尽管本专利文档包含许多细节,但是这些细节不应解释为对任何发明或可要求保护的范围的限制,而应解释为对特定发明的特定实施例可能特定的特征的描述。在单独的实施例的上下文中在本专利文档中描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以分别在多个实施例中或以任何合适的子组合来实现。此外,尽管以上可以将特征描述为以某些组合起作用并且甚至最初如此要求保护,但是在某些情况下,可以从组合中剔除所要求保护的组合中的一个或多个特征,并且所要求保护的组合可以涉及子组合或子组合的变体。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应理解为要求以所示的特定顺序或以连续的顺序执行这样的操作,或者执行所有示出的操作以实现期望的效果。此外,在该专利文档中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这种分离。
仅描述了一些实施方式和示例,并且可以基于本专利文档中描述和示出的内容进行其他实施方式、增强和变化。

Claims (45)

1.一种对视频数据进行编解码的方法,包括:
为作为色度块的视频的当前视频块与所述视频的比特流之间的转换,基于maxY、maxC、minY和minC确定跨分量线性模型(CCLM)的参数,其中所述maxY、maxC、minY和minC是从两个或四个索引导出的,其中索引映射到色度样本和对应的亮度样本;和
基于所述确定执行所述转换。
2.如权利要求1所述的方法,其中,在所述当前视频块的颜色格式为4:2:0或4:2:2的情况下,通过下采样获得对应的亮度样本,在所述当前视频块的颜色格式为4:4:4的情况下,在不进行下采样的情况下获得对应的亮度样本。
3.如权利要求1所述的方法,其中,响应于两个原始索引映射的两个色度样本和两个对应的亮度样本被用于导出所述maxY、maxC、minY和minC,应用填充操作生成两个填充色度样本和两个填充亮度样本。
4.如权利要求3所述的方法,其中所述两个原始索引表示为S0和S1,映射到填充色度样本和两个填充亮度样本的两个映射索引表示为S2和S3,其中所述填充操作按如下顺序执行:
1)将S0映射的色度样本和对应的亮度样本分别复制到S3映射的色度样本和对应的亮度样本;
2)将S1映射的色度样本和对应的亮度样本分别复制到S2映射的色度样本和对应的亮度样本;
3)将S1映射的色度样本和对应的亮度样本分别复制到S0映射的色度样本和对应的亮度样本;
4)将S3映射的色度样本和对应的亮度样本分别复制到S1映射的色度样本和对应的亮度样本。
5.如权利要求3所述的方法,其中所述maxY等于两个原始索引映射的两个亮度样本中较大的一个,所述maxC等于对应于所述较大的亮度样本的色度样本,所述minY等于两个原始索引映射的两个亮度样本中较小的一个,并且所述minC等于对应于所述较小的亮度样本的色度样本。
6.如权利要求1所述的方法,其中,响应于四个索引映射的四个色度样本和四个对应的亮度样本被用于导出所述maxY、maxC、minY和minC,所述四个索引被划分为两个数组G0和G1,每个数组包括两个索引。
7.如权利要求6所述的方法,其中G0[0]=S0,G0[1]=S2,G1[0]=S1,并且G1[1]=S3,其中S0、S1、S2和S3中的每一个代表映射到色度样本和对应的亮度样本一个索引。
8.如权利要求7所述的方法,还包括:在G0[0]的亮度样本和G0[1]的亮度样本之间应用第一比较,并基于所述第一比较选择性地交换G0[0]和G0[1]。
9.如权利要求8所述的方法,还包括:响应于G0[0]的亮度样本大于G0[1]的亮度样本而交换G0[0]和G0[1]。
10.如权利要求8所述的方法,还包括:在所述第一比较之后,在G1[0]的亮度样本和G1[1]的亮度样本之间应用第二比较,并基于所述第二比较选择性地交换G1[0]和G1[1]。
11.如权利要求10所述的方法,进一步包括:响应于G1[0]的亮度样本大于G1[1]的亮度样本而交换G1[0]及G1[1]。
12.如权利要求10所述的方法,还包括:在所述第二比较之后,在G0[0]的亮度样本和G1[1]的亮度样本之间应用第三比较,并基于所述第三比较选择性地交换G0和G1,其中所述交换G0和G1包括交换G0[0]和G1[0],以及交换G0[1]和G1[1]。
13.如权利要求12所述的方法,还包括:响应于G0[0]的亮度样本大于G1[1]的亮度样本而交换G0和G1。
14.如权利要求12所述的方法,还包括:在所述第三比较之后,在G0[1]的亮度样本和G1[0]的亮度样本之间应用第四比较,并基于所述第四比较选择性地交换G0[1]和G1[0]。
15.如权利要求14所述的方法,还包括:响应于G0[1]的亮度样本大于G1[0]的亮度样本而交换G0[1]和G1[0]。
16.如权利要求14所述的方法,还包括:在所述第四比较后,基于G1[0]和G1[1]的亮度样本的平均值推导所述maxY,以及基于G1[0]和G1[1]的色度样本的平均值推导所述maxC。
17.如权利要求14所述的方法,还包括:在所述第四比较后,基于G0[0]和G0[1]的亮度样本的平均值推导所述minY,以及基于G0[0]和G0[1]的色度样本的平均值推导所述minC。
18.如权利要求1所述的方法,其中执行所述转换包括从所述当前视频块生成所述比特流。
19.如权利要求1所述的方法,其中执行所述转换包括从所述比特流生成所述当前视频块。
20.一种用于对视频数据进行编解码的设备,包括处理器和带有指令的非暂时性存储器,其中在所述处理器执行所述指令时,使所述处理器:
为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于maxY、maxC、minY和minC确定跨分量线性模型(CCLM)的参数,其中所述maxY、maxC、minY和minC是从两个或四个索引导出的,其中索引映射到色度样本和对应的亮度样本;和
基于所述确定执行所述转换。
21.一种非暂时性计算机可读存储介质,用于存储指令,所述指令使处理器:
为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于maxY、maxC、minY和minC确定跨分量线性模型(CCLM)的参数,其中所述maxY、maxC、minY和minC是从两个或四个索引导出的,其中索引映射到色度样本和对应的亮度样本;和
基于所述确定执行所述转换。
22.一种存储视频的比特流的非暂时性计算机可读存储介质,所述比特流由视频处理设备执行的方法生成,其中所述方法包括:
为作为色度块的视频的当前视频块与所述视频的比特流之间的转换,基于maxY、maxC、minY和minC确定跨分量线性模型(CCLM)的参数,其中所述maxY、maxC、minY和minC是从两个或四个索引导出的,其中索引映射到色度样本和对应的亮度样本;和
基于所述确定从所述当前视频块生成所述比特流。
23.一种存储视频的比特流的方法,包括:
为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于maxY、maxC、minY和minC确定跨分量线性模型(CCLM)的参数,其中所述maxY、maxC、minY和minC是从两个或四个索引导出的,其中索引映射到色度样本和对应的亮度样本;
基于所述确定从所述当前视频块生成所述比特流;以及
将所述比特流存储在非暂时性计算机可读存储介质中。
24.一种视频处理方法,包括:
为作为色度块的视频的当前视频块与所述视频的编解码表示之间的转换,基于两个或四个色度样点和/或对应的亮度样点,确定跨分量线性模型(CCLM)的参数;以及
基于所述确定进行所述转换;
其中,maxY、maxC、minY和minC被首先推导并被用于推导所述参数,其中选择所述四个色度样点以推导所述maxY、maxC、minY和minC,并且其中所述四个色度样点和所述对应的亮度样点被划分为两个数组G0和G1,每个数组包括两个色度样点和它们对应的亮度样点,在比较G0[0]和G1[1]的两个亮度样点值后,G0的色度样点及其对应的亮度样点被与G1的色度样点及其对应的亮度样点互换。
25.如权利要求24所述的方法,其中所述对应的亮度样点通过向下采样获得。
26.如权利要求24所述的方法,其中基于两点法推导所述参数。
27.如权利要求24所述的方法,其中选择所述两个色度样点以推导所述maxY、maxC、minY和minC,并且其中所述minY被设定为较小亮度样点值,所述minC是其对应的色度样点值,所述maxY被设定为较大亮度样点值,并且所述maxC是其对应的色度样点值。
28.如权利要求24所述的方法,其中所述两个数组G0和G1包括以下集合之一:
i)G0={S0,S1},G1={S2,S3},
ii)G0={S1,S0},G1={S3,S2},
iii)G0={S0,S2},G1={S1,S3},
iv)G0={S2,S0},G1={S3,S1},
v)G0={S1,S2},G1={S0,S3},
vi)G0={S2,S1},G1={S3,S0},
vii)G0={S0,S3},G1={S1,S2},
viii)G0={S3,S0},G1={S2,S1},
ix)G0={S1,S3},G1={S0,S2},
x)G0={S3,S1},G1={S2,S0},
xi)G0={S3,S2},G1={S0,S1},或
xii)G0={S2,S3},G1={S1,S0},并且
其中S0、S1、S2、S3分别包括所述四个色度样点,并且还分别包括对应的亮度样点。
29.如权利要求28所述的方法,其中在比较G0[0]和G0[1]的两个亮度样点值后,G0[0]的色度样点及其对应的亮度样点被与G0[1]的色度样点及其对应的亮度样点互换。
30.如权利要求29所述的方法,其中在G0[0]的亮度样点值大于G0[1]的亮度样点值的情况下,G0[0]的所述色度样点及其对应的亮度样点被与G0[1]的所述色度样点及其对应的亮度样点互换。
31.如权利要求28所述的方法,其中在比较G1[0]和G1[1]的两个亮度样点值后,G1[0]到色度样点及其对应的亮度样点被与G1[1]的色度样点及其对应的亮度样点互换。
32.如权利要求31所述的方法,其中在G1[0]的亮度样点值大于G1[1]的亮度样点值的情况下,G1[0]的所述色度样点及其对应的亮度样点被与G1[1]的所述色度样点及其对应的亮度样点互换。
33.如权利要求24所述的方法,其中在G0[0]的亮度样点值大于G1[1]的亮度样点值的情况下,所述G0的色度样点及其对应的亮度样点被与G1的色度样点及其对应的亮度样点互换。
34.如权利要求28所述的方法,其中在比较G0[1]和G1[0]的两个亮度样点值后,G0[1]的色度样点及其对应的亮度样点被与G1[0]的色度样点及其对应的亮度样点互换。
35.如权利要求34所述的方法,其中在G0[1]的亮度样点值大于G1[0]的亮度样点值的情况下,所述G0[1]的色度样点及其对应的亮度样点被与G1[0]的色度样点及其对应的亮度样点互换。
36.如权利要求28所述的方法,其中在比较G0[0]、G0[1]、G1[0]和G1[1]的两个亮度样点值后,选择性地按顺序进行以下互换操作:i)G0[0]的色度样点及其对应的亮度样点与G0[1]的色度样点及其对应的亮度样点的互换操作,ii)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,iii)G0的色度样点及其对应的亮度样点与G1的色度样点及其对应的亮度样点的互换操作,以及iv)G0[1]的色度样点及其对应的亮度样点与G1[0]的色度样点及其对应的亮度样点的互换操作。
37.如权利要求28所述的方法,其中基于G1[0]与G1[1]的亮度样点值之和来计算maxY,并且基于G1[0]和G1[1]的色度样点值之和来计算maxC。
38.如权利要求28所述的方法,其中基于G1[0]和G1[1]的亮度样点值的平均值来计算maxY,并且基于G1[0]和G1[1]的色度样点值的平均值来计算maxC。
39.如权利要求28所述的方法,其中基于G0[0]和G0[1]的亮度样点值之和计算minY,并且基于G0[0]和G0[1]的色度样点值之和计算minC。
40.如权利要求28所述的方法,其中基于G0[0]和G0[1]的亮度样点值的平均值来计算minY,并且基于G0[0]和G0[1]的色度样点值的平均值来计算minC。
41.如权利要求37至40中任一项所述的方法,其中在比较G0[0]、G0[1]、G1[0]和G1[1]的两个亮度样点值后进行的任一互换操作之后,执行maxY和maxC的计算或minY和minC的计算,其中所述互换操作包括:i)G1[0]的色度样点及其对应的亮度样点与G1[1]的色度样点及其对应的亮度样点的互换操作,ii)G0的色度样点和对应的亮度样点与G1的色度样点和对应的亮度样点的互换操作,iii)G0[1]的色度样点及其对应的亮度样点与G1[0]的色度样点及其对应的亮度样点的互换操作,或iv)G0[0]的色度样点和对应的亮度样点与G0[1]的色度样点和对应的亮度样点的互换操作。
42.如权利要求24所述的方法,其中在仅存在两个可用的色度样点的情况下,对所述两个可用的色度样点进行填充以提供所述四个色度样点,并且还对两个对应的可用的亮度样点进行填充以提供所述四个亮度样点。
43.如权利要求42所述的方法,其中所述四个色度样点包括所述两个可用的色度样点和从所述两个可用的色度样点复制的两个填充色度样点,并且所述四个对应的亮度样点包括所述两个可用的亮度样点和从所述两个可用的亮度样点复制的两个填充亮度样点。
44.如权利要求28所述的方法,其中S0、S1、S2、S3是在所述当前视频块的上方行和/或左侧列内以给定顺序选择的色度样点和对应的亮度样点。
45.一种视频系统中的设备,包括处理器和其上具有指令的非瞬态存储器,其中由所述处理器执行所述指令时,使所述处理器实现权利要求24至44中任一项所述的方法。
CN202080016185.9A 2019-02-24 2020-02-24 对视频数据进行编解码的方法、设备及计算机可读介质 Active CN113491121B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211461592.8A CN115967810A (zh) 2019-02-24 2020-02-24 对视频数据进行编解码的方法、设备及计算机可读介质

Applications Claiming Priority (11)

Application Number Priority Date Filing Date Title
CNPCT/CN2019/075993 2019-02-24
CN2019075993 2019-02-24
CN2019076195 2019-02-26
CNPCT/CN2019/076195 2019-02-26
CN2019079396 2019-03-24
CNPCT/CN2019/079396 2019-03-24
CN2019079431 2019-03-25
CNPCT/CN2019/079431 2019-03-25
CNPCT/CN2019/079769 2019-03-26
CN2019079769 2019-03-26
PCT/CN2020/076362 WO2020169102A1 (en) 2019-02-24 2020-02-24 Parameter derivation for intra prediction

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202211461592.8A Division CN115967810A (zh) 2019-02-24 2020-02-24 对视频数据进行编解码的方法、设备及计算机可读介质

Publications (2)

Publication Number Publication Date
CN113491121A CN113491121A (zh) 2021-10-08
CN113491121B true CN113491121B (zh) 2022-12-06

Family

ID=72144156

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202211461592.8A Pending CN115967810A (zh) 2019-02-24 2020-02-24 对视频数据进行编解码的方法、设备及计算机可读介质
CN202080016185.9A Active CN113491121B (zh) 2019-02-24 2020-02-24 对视频数据进行编解码的方法、设备及计算机可读介质

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202211461592.8A Pending CN115967810A (zh) 2019-02-24 2020-02-24 对视频数据进行编解码的方法、设备及计算机可读介质

Country Status (12)

Country Link
US (2) US10939128B2 (zh)
EP (1) EP3903493A4 (zh)
JP (1) JP7123268B2 (zh)
KR (1) KR102472756B1 (zh)
CN (2) CN115967810A (zh)
AU (2) AU2020226566A1 (zh)
BR (1) BR112021015017B1 (zh)
CA (1) CA3128769C (zh)
MX (1) MX2021009894A (zh)
SG (1) SG11202108289PA (zh)
WO (1) WO2020169102A1 (zh)
ZA (1) ZA202105403B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11902507B2 (en) 2018-12-01 2024-02-13 Beijing Bytedance Network Technology Co., Ltd Parameter derivation for intra prediction

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202007164A (zh) 2018-07-15 2020-02-01 大陸商北京字節跳動網絡技術有限公司 跨分量運動資訊匯出
KR20230008896A (ko) * 2018-07-16 2023-01-16 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 인코더, 비디오 디코더 및 대응하는 인코딩 및 디코딩 방법
CN116347109A (zh) 2018-08-17 2023-06-27 北京字节跳动网络技术有限公司 一种处理视频数据的方法和装置
CN117478883A (zh) 2018-09-12 2024-01-30 北京字节跳动网络技术有限公司 交叉分量线性模型中的尺寸相关的下采样
KR20210089133A (ko) 2018-11-06 2021-07-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인트라 예측에 대한 단순화된 파라미터 유도
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
WO2020125754A1 (en) 2018-12-21 2020-06-25 Beijing Bytedance Network Technology Co., Ltd. Motion vector derivation using higher bit-depth precision
CN113273203B (zh) 2018-12-22 2024-03-12 北京字节跳动网络技术有限公司 两步交叉分量预测模式
SG11202108209YA (en) 2019-02-22 2021-08-30 Beijing Bytedance Network Technology Co Ltd Neighbouring sample selection for intra prediction
CA3128769C (en) 2019-02-24 2023-01-24 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
WO2020182092A1 (en) 2019-03-08 2020-09-17 Beijing Bytedance Network Technology Co., Ltd. Constraints on model-based reshaping in video processing
WO2020192642A1 (en) 2019-03-24 2020-10-01 Beijing Bytedance Network Technology Co., Ltd. Conditions in parameter derivation for intra prediction
KR20210150397A (ko) 2019-04-18 2021-12-10 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로스 성분 모드의 적용성에 대한 제한
CN117579841A (zh) 2019-04-23 2024-02-20 北京字节跳动网络技术有限公司 降低跨分量依赖性的方法
JP7407206B2 (ja) 2019-05-08 2023-12-28 北京字節跳動網絡技術有限公司 クロスコンポーネントコーディングの適用条件
CN117478908A (zh) 2019-06-22 2024-01-30 北京字节跳动网络技术有限公司 色度残差缩放的语法元素
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
CN117596400A (zh) 2019-09-20 2024-02-23 北京字节跳动网络技术有限公司 编解码块的缩放过程
EP4042692A4 (en) 2019-10-29 2022-11-30 Beijing Bytedance Network Technology Co., Ltd. COMPONENT ADAPTIVE LOOP FILTER
KR102619404B1 (ko) 2019-12-11 2023-12-28 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 크로스 컴포넌트 적응적 루프 필터링을 위한 샘플 패딩
CN115176474A (zh) 2019-12-31 2022-10-11 抖音视界有限公司 多参数模型的跨分量预测
US20220103842A1 (en) * 2020-09-30 2022-03-31 Qualcomm Incorporated Fixed bit depth processing for cross-component linear model (cclm) mode in video coding

Family Cites Families (110)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101138392B1 (ko) 2004-12-30 2012-04-26 삼성전자주식회사 색차 성분의 상관관계를 이용한 컬러 영상의 부호화,복호화 방법 및 그 장치
US20080089411A1 (en) 2006-10-16 2008-04-17 Nokia Corporation Multiple-hypothesis cross-layer prediction
JP2010135864A (ja) 2007-03-29 2010-06-17 Toshiba Corp 画像符号化方法及び装置並びに画像復号化方法及び装置
CN101877785A (zh) 2009-04-29 2010-11-03 祝志怡 一种基于混合预测的视频编码方法
US9288500B2 (en) 2011-05-12 2016-03-15 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
JP2013034163A (ja) 2011-06-03 2013-02-14 Sony Corp 画像処理装置及び画像処理方法
US9654785B2 (en) 2011-06-09 2017-05-16 Qualcomm Incorporated Enhanced intra-prediction mode signaling for video coding using neighboring mode
US9693070B2 (en) * 2011-06-24 2017-06-27 Texas Instruments Incorporated Luma-based chroma intra-prediction for video coding
WO2013001794A1 (ja) 2011-06-27 2013-01-03 パナソニック株式会社 画像符号化方法、画像復号方法、画像符号化装置、画像復号装置、及び画像符号化復号装置
SG10201408745YA (en) 2011-06-28 2015-02-27 Samsung Electronics Co Ltd Prediction method and apparatus for chroma component of image using luma component of image
MX339141B (es) 2011-06-30 2016-05-13 Panasonic Ip Corp America Metodo de decodificacion de imagenes, metodo de codificacion de imagenes, aparato de decodificacion de imagenes, aparato de codificacion de imagenes y aparato de codificacion y decodificacion de imagenes.
US8724711B2 (en) 2011-07-12 2014-05-13 Intel Corporation Luma-based chroma intra prediction
GB2495942B (en) 2011-10-25 2014-09-03 Canon Kk Method and apparatus for processing components of an image
CN103096055B (zh) 2011-11-04 2016-03-30 华为技术有限公司 一种图像信号帧内预测及解码的方法和装置
US9344722B2 (en) 2011-11-18 2016-05-17 Futurewei Technologies, Inc. Scanning of prediction residuals in high efficiency video coding
WO2013102293A1 (en) 2012-01-04 2013-07-11 Mediatek Singapore Pte. Ltd. Improvements of luma-based chroma intra prediction
CN104380741B (zh) 2012-01-19 2018-06-05 华为技术有限公司 用于lm帧内预测的参考像素缩减
WO2013155662A1 (en) 2012-04-16 2013-10-24 Mediatek Singapore Pte. Ltd. Methods and apparatuses of simplification for intra chroma lm mode
CN103379321B (zh) 2012-04-16 2017-02-01 华为技术有限公司 视频图像分量的预测方法和装置
WO2014010943A1 (ko) 2012-07-10 2014-01-16 한국전자통신연구원 영상 부호화/복호화 방법 및 장치
CN103916673B (zh) 2013-01-06 2017-12-22 华为技术有限公司 基于双向预测的编码方法、解码方法和装置
US9736487B2 (en) 2013-03-26 2017-08-15 Mediatek Inc. Method of cross color intra prediction
US10003815B2 (en) 2013-06-03 2018-06-19 Qualcomm Incorporated Hypothetical reference decoder model and conformance for cross-layer random access skipped pictures
EP3629582A1 (en) 2013-10-07 2020-04-01 Vid Scale, Inc. Combined scalability processing for multi-layer video coding
US10506243B2 (en) 2014-03-06 2019-12-10 Samsung Electronics Co., Ltd. Image decoding method and device therefor, and image encoding method and device therefor
US10154286B2 (en) 2014-06-19 2018-12-11 Vid Scale, Inc. Systems and methods for model parameter optimization in three dimensional based color mapping
US10200700B2 (en) 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
US20170244975A1 (en) 2014-10-28 2017-08-24 Mediatek Singapore Pte. Ltd. Method of Guided Cross-Component Prediction for Video Coding
KR20170078683A (ko) 2014-11-05 2017-07-07 삼성전자주식회사 샘플 단위 예측 부호화 장치 및 방법
US10499068B2 (en) 2014-12-31 2019-12-03 Nokia Technologies Oy Apparatus, a method and a computer program for video coding and decoding
US10321140B2 (en) 2015-01-22 2019-06-11 Mediatek Singapore Pte. Ltd. Method of video coding for chroma components
WO2016115708A1 (en) 2015-01-22 2016-07-28 Mediatek Singapore Pte. Ltd. Methods for chroma component coding with separate intra prediction mode
US20180115787A1 (en) 2015-04-12 2018-04-26 Lg Electronics Inc. Method for encoding and decoding video signal, and apparatus therefor
KR20180008445A (ko) 2015-06-10 2018-01-24 삼성전자주식회사 적응적 가중치 예측을 위한 신택스 시그널링을 이용하여 영상을 부호화 또는 복호화하는 방법 및 장치
US10148977B2 (en) 2015-06-16 2018-12-04 Futurewei Technologies, Inc. Advanced coding techniques for high efficiency video coding (HEVC) screen content coding (SCC) extensions
EP3311572A4 (en) 2015-06-19 2018-12-26 Nokia Technologies OY An apparatus, a method and a computer program for video coding and decoding
US11438605B2 (en) 2015-07-08 2022-09-06 Interdigital Madison Patent Holdings, Sas Enhanced chroma coding using cross plane filtering
US20170016972A1 (en) 2015-07-13 2017-01-19 Siemens Medical Solutions Usa, Inc. Fast Prospective Motion Correction For MR Imaging
JP6559337B2 (ja) 2015-09-23 2019-08-14 ノキア テクノロジーズ オーユー 360度パノラマビデオの符号化方法、符号化装置、及びコンピュータプログラム
JP2017538381A (ja) 2015-10-09 2017-12-21 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ビデオ符号化における成分間予測
US10200719B2 (en) 2015-11-25 2019-02-05 Qualcomm Incorporated Modification of transform coefficients for non-square transform units in video coding
WO2017139937A1 (en) 2016-02-18 2017-08-24 Mediatek Singapore Pte. Ltd. Advanced linear model prediction for chroma coding
FI20165256A (fi) 2016-03-24 2017-09-25 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodaukseen ja -dekoodaukseen
MX2018014190A (es) 2016-05-17 2019-08-05 Arris Entpr Llc Correlacion de plantillas para intra-prediccion de jvet.
WO2017199800A1 (ja) 2016-05-20 2017-11-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
US20190306516A1 (en) 2016-05-24 2019-10-03 Sharp Kabushiki Kaisha Systems and methods for intra prediction coding
CA3025520A1 (en) 2016-05-25 2017-11-30 Arris Enterprises Llc Improved weighted angular prediction coding for intra coding
US10567808B2 (en) 2016-05-25 2020-02-18 Arris Enterprises Llc Binary ternary quad tree partitioning for JVET
CA3025340A1 (en) 2016-05-25 2017-11-30 Arris Enterprises Llc General block partitioning method
MX2018014487A (es) 2016-05-25 2019-08-12 Arris Entpr Llc Prediccion angular ponderada para intra codificacion.
WO2017205621A1 (en) 2016-05-25 2017-11-30 Arris Enterprises Llc Jvet coding block structure with asymmetrical partitioning
CN114979649A (zh) 2016-05-27 2022-08-30 松下电器(美国)知识产权公司 编码方法及解码方法
US10484712B2 (en) 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
FI20165547A (fi) 2016-06-30 2017-12-31 Nokia Technologies Oy Laitteisto, menetelmä ja tietokoneohjelma videokoodausta ja videokoodauksen purkua varten
CN113453000B (zh) 2016-07-22 2024-01-12 夏普株式会社 使用自适应分量缩放对视频数据进行编码的系统和方法
WO2018021374A1 (ja) 2016-07-29 2018-02-01 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018030294A1 (ja) 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
WO2018030293A1 (ja) 2016-08-10 2018-02-15 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法及び復号方法
JPWO2018030292A1 (ja) 2016-08-10 2019-06-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 符号化装置、復号装置、符号化方法及び復号方法
US10326986B2 (en) 2016-08-15 2019-06-18 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10368107B2 (en) 2016-08-15 2019-07-30 Qualcomm Incorporated Intra video coding using a decoupled tree structure
US10390015B2 (en) 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
US10652575B2 (en) 2016-09-15 2020-05-12 Qualcomm Incorporated Linear model chroma intra prediction for video coding
US10382781B2 (en) 2016-09-28 2019-08-13 Qualcomm Incorporated Interpolation filters for intra prediction in video coding
GB2555788A (en) 2016-11-08 2018-05-16 Nokia Technologies Oy An apparatus, a method and a computer program for video coding and decoding
US10477240B2 (en) 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
US10873746B2 (en) 2016-12-21 2020-12-22 Sharp Kabushiki Kaisha Intra prediction image generation device using cross-component liner model, image decoding apparatus, and image coding apparatus using same
US10674165B2 (en) 2016-12-21 2020-06-02 Arris Enterprises Llc Constrained position dependent intra prediction combination (PDPC)
JP2020031252A (ja) 2016-12-22 2020-02-27 シャープ株式会社 画像復号装置及び画像符号化装置
DE112017006657B4 (de) 2016-12-28 2021-03-11 Arris Enterprises Llc Adaptive planare Prädiktion mit ungleichen Gewichten
CA3048242C (en) 2016-12-28 2023-10-31 Arris Enterprises Llc Improved video bitstream coding
US20180199062A1 (en) 2017-01-11 2018-07-12 Qualcomm Incorporated Intra prediction techniques for video coding
US11025903B2 (en) 2017-01-13 2021-06-01 Qualcomm Incorporated Coding video data using derived chroma mode
US10694181B2 (en) 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
US10542264B2 (en) 2017-04-04 2020-01-21 Arris Enterprises Llc Memory reduction implementation for weighted angular prediction
EP3618439A4 (en) 2017-04-28 2020-09-02 Sharp Kabushiki Kaisha IMAGE DECODING DEVICE AND IMAGE CODING DEVICE
US10602180B2 (en) 2017-06-13 2020-03-24 Qualcomm Incorporated Motion vector prediction
US11190799B2 (en) 2017-06-21 2021-11-30 Lg Electronics Inc. Intra-prediction mode-based image processing method and apparatus therefor
WO2019004283A1 (ja) 2017-06-28 2019-01-03 シャープ株式会社 動画像符号化装置及び動画像復号装置
CN116095314A (zh) 2017-06-29 2023-05-09 杜比实验室特许公司 整合的图像整形和视频编码
WO2019006363A1 (en) 2017-06-30 2019-01-03 Vid Scale, Inc. LOCAL LIGHTING COMPENSATION USING GENERALIZED BI-PREDICTION
CN116760978A (zh) 2017-07-05 2023-09-15 艾锐势有限责任公司 对视频编码、解码的方法和计算机可读存储器或存储装置
CN109274969B (zh) 2017-07-17 2020-12-22 华为技术有限公司 色度预测的方法和设备
CN110959290B (zh) 2017-07-24 2022-07-22 艾锐势有限责任公司 帧内模式jvet编译方法
CA3070444A1 (en) 2017-07-24 2019-01-31 Arris Enterprises Llc Intra mode jvet coding
JP6994868B2 (ja) 2017-08-09 2022-01-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法、および復号方法
EP3682639A1 (en) 2017-10-02 2020-07-22 ARRIS Enterprises LLC System and method for reducing blocking artifacts and providing improved coding efficiency
GB2567249A (en) 2017-10-09 2019-04-10 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
US10575023B2 (en) 2017-10-09 2020-02-25 Arris Enterprises Llc Adaptive unequal weight planar prediction
US10965941B2 (en) 2017-10-09 2021-03-30 Qualcomm Incorporated Position-dependent prediction combinations in video coding
DE112018005899T5 (de) 2017-12-18 2020-08-13 Arris Enterprises Llc System und Verfahren zum Konstruieren einer Ebene für planare Prädiktion
GB2571313B (en) * 2018-02-23 2022-09-21 Canon Kk New sample sets and new down-sampling schemes for linear component sample prediction
US20190313108A1 (en) 2018-04-05 2019-10-10 Qualcomm Incorporated Non-square blocks in video coding
US10609402B2 (en) 2018-05-02 2020-03-31 Tencent America LLC Method and apparatus for prediction and transform for small blocks
WO2019210840A1 (en) 2018-05-03 2019-11-07 FG Innovation Company Limited Device and method for coding video data based on different reference sets in linear model prediction
KR20240005240A (ko) 2018-06-29 2024-01-11 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 Lut에서의 모션 후보들의 검사 순서
CN116708835A (zh) 2018-07-02 2023-09-05 Lg电子株式会社 编解码设备和数据发送设备
KR20230008896A (ko) 2018-07-16 2023-01-16 후아웨이 테크놀러지 컴퍼니 리미티드 비디오 인코더, 비디오 디코더 및 대응하는 인코딩 및 디코딩 방법
CN109005408B (zh) 2018-08-01 2020-05-29 北京奇艺世纪科技有限公司 一种帧内预测方法、装置及电子设备
AU2019353560B2 (en) 2018-10-05 2023-07-13 Huawei Technologies Co., Ltd Intra prediction method and device
KR20210089133A (ko) 2018-11-06 2021-07-15 베이징 바이트댄스 네트워크 테크놀로지 컴퍼니, 리미티드 인트라 예측에 대한 단순화된 파라미터 유도
US11197005B2 (en) 2018-11-08 2021-12-07 Qualcomm Incorporated Cross-component prediction for video coding
US11178396B2 (en) 2018-11-14 2021-11-16 Tencent America LLC Constrained intra prediction and unified most probable mode list generation
WO2020108591A1 (en) 2018-12-01 2020-06-04 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
US11095921B2 (en) * 2018-12-18 2021-08-17 Tencent America LLC Method and apparatus for video encoding or decoding
KR102392701B1 (ko) 2019-01-15 2022-04-28 엘지전자 주식회사 변환 스킵 플래그를 이용한 영상 코딩 방법 및 장치
SG11202108209YA (en) 2019-02-22 2021-08-30 Beijing Bytedance Network Technology Co Ltd Neighbouring sample selection for intra prediction
CA3128769C (en) 2019-02-24 2023-01-24 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11902507B2 (en) 2018-12-01 2024-02-13 Beijing Bytedance Network Technology Co., Ltd Parameter derivation for intra prediction

Also Published As

Publication number Publication date
JP7123268B2 (ja) 2022-08-22
JP2022517136A (ja) 2022-03-04
US11729405B2 (en) 2023-08-15
BR112021015017B1 (pt) 2022-07-26
CN115967810A (zh) 2023-04-14
AU2022268297A1 (en) 2022-12-15
EP3903493A1 (en) 2021-11-03
ZA202105403B (en) 2022-01-26
AU2020226566A1 (en) 2021-08-19
US20200382800A1 (en) 2020-12-03
MX2021009894A (es) 2022-05-18
WO2020169102A1 (en) 2020-08-27
BR112021015017A2 (pt) 2021-10-26
AU2022268297B2 (en) 2024-02-22
KR20210127157A (ko) 2021-10-21
US20210152837A1 (en) 2021-05-20
US10939128B2 (en) 2021-03-02
CA3128769A1 (en) 2020-08-27
SG11202108289PA (en) 2021-08-30
EP3903493A4 (en) 2022-07-06
KR102472756B1 (ko) 2022-12-01
CA3128769C (en) 2023-01-24
CN113491121A (zh) 2021-10-08

Similar Documents

Publication Publication Date Title
CN113491121B (zh) 对视频数据进行编解码的方法、设备及计算机可读介质
CN113439437B (zh) 用于帧内预测的邻近样点选择
CN112997488B (zh) 依赖于位置的帧内预测
CN113170168B (zh) 基于上下文的帧内预测
CN113170122B (zh) 帧内预测的参数推导
CN113767631B (zh) 用于帧内预测的参数推导中的条件
CN113632474B (zh) 用于帧间预测的参数推导
RU2810900C2 (ru) Выбор соседней выборки для внутреннего предсказания
RU2777779C1 (ru) Получение параметра для внутрикадрового предсказания

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant