CN113692739B - 对跨分量模式的可用性的约束 - Google Patents

对跨分量模式的可用性的约束 Download PDF

Info

Publication number
CN113692739B
CN113692739B CN202080028619.7A CN202080028619A CN113692739B CN 113692739 B CN113692739 B CN 113692739B CN 202080028619 A CN202080028619 A CN 202080028619A CN 113692739 B CN113692739 B CN 113692739B
Authority
CN
China
Prior art keywords
block
chroma
luma
samples
linear model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202080028619.7A
Other languages
English (en)
Other versions
CN113692739A (zh
Inventor
邓智玭
张莉
刘鸿彬
张凯
许继征
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Original Assignee
Beijing ByteDance Network Technology Co Ltd
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd, ByteDance Inc filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of CN113692739A publication Critical patent/CN113692739A/zh
Application granted granted Critical
Publication of CN113692739B publication Critical patent/CN113692739B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/11Selection of coding mode or of prediction mode among a plurality of spatial predictive coding modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/157Assigned coding mode, i.e. the coding mode being predefined or preselected to be further used for selection of another element or parameter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • H04N19/126Details of normalisation or weighting functions, e.g. normalisation matrices or variable uniform quantisers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/146Data rate or code amount at the encoder output
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/189Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding
    • H04N19/196Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the adaptation method, adaptation tool or adaptation type used for the adaptive coding being specially adapted for the computation of encoding parameters, e.g. by averaging previously computed encoding parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • H04N19/96Tree coding, e.g. quad-tree coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computing Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)
  • Transition And Organic Metals Composition Catalysts For Addition Polymerization (AREA)
  • Materials For Medical Uses (AREA)

Abstract

一种用于可视媒体处理的方法,包括执行可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换,其中,在转换期间,基于缩放系数来缩放当前色度视频块的色度残差,其中至少基于位于预定义位置的亮度样点来推导缩放系数。

Description

对跨分量模式的可用性的约束
相关申请的交叉引用
根据适用的专利法和/或巴黎公约的规则,本申请旨在及时要求2019年4月18日提交的国际专利申请No.PCT/CN2019/083320的优先权和权益。出于法律规定的所有目的,前述申请的全部公开内容通过引用而并入,作为本专利公开内容的一部分。
技术领域
本专利文档涉及视频编码和解码技术、设备和系统。
背景技术
尽管在视频压缩方面取得了进步,数字视频仍然占互联网和其他数字通信网络上的最大带宽使用。随着能够接收和显示视频的连接用户设备数量的增加,预计对数字视频使用的带宽需求将继续增长。
发明内容
描述了与数字视频编码/解码相关的设备、系统和方法,具体地,描述了视频编码/解码中的跨分量线性模型(cross-component linear model,CCLM)预测模式的简化线性模型推导。所描述的方法可以应用于现有的视频编解码标准(例如,高效视频编解码(HighEfficiency Video Coding,HEVC))和未来的视频编码标准(例如,多功能视频编解码(Versatile Video Coding,VVC))或编解码器。
在一个代表性方面,公开了一种用于可视媒体处理的方法。该方法包括执行可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换,其中,在转换期间,基于缩放系数来缩放当前色度视频块的色度残差,其中至少基于位于预定义位置的亮度样点来推导缩放系数。
在一个代表性方面,公开了一种用于可视媒体处理的方法。该方法包括执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,使用跨分量线性模型(CCLM)和/或带有色度缩放的亮度映射(luma mapping with chromascaling,LMCS)模式处理步骤,根据可视媒体数据的第一组颜色分量值推导当前视频块的第二组颜色分量值。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,与可视媒体数据的当前帧相关联的一个或多个重构样点被用于在带有色度缩放的亮度映射(LMCS)模式处理步骤中推导色度残差缩放因子。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,不同于参考帧的当前帧中的一个或多个亮度预测样点或亮度重构样点被用于在带有色度缩放的亮度映射(LMCS)模式处理步骤中推导色度残差缩放因子。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括:当前色度视频块和当前色度视频块的比特流表示之间的转换期间,检查覆盖并置亮度块的左上角样点的对应亮度块的一个或多个临近亮度块的可用性;基于一个或多个临近亮度块的可用性,确定是否检索对应亮度块的临近亮度样点;基于该确定来推导缩放系数;基于缩放系数来缩放当前色度视频块的色度残差,以生成缩放的色度残差;以及基于缩放的色度残差来执行转换。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换期间,使用与处理步骤相关联的模型根据可视媒体数据的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中第一组颜色分量值是覆盖并置亮度块的左上角样点的对应亮度块的临近样点。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换期间,至少部分基于与当前色度视频块的并置亮度块相关联的一个或多个条件,做出选择性地启用或禁用对当前色度视频块应用跨分量线性模型(CCLM)和/或色度残差缩放(CRS)的确定。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括:选择性地启用或禁用对可视媒体数据的当前视频块的色度分量应用亮度相关色度残差缩放(CRS),以将可视媒体数据的视频区域中的当前视频块编码成可视媒体数据的比特流表示;以及做出在可视媒体数据的比特流表示中包括或排除字段的确定,其中该字段指示选择性地启用或禁用,并且如果该字段被包括,则该字段被发信号通知,而不是处于与当前视频块相关联的第一语法级别。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括:解析可视媒体数据的比特流表示中的字段,其中该字段被包括在不同于与当前视频块相关联的第一语法级别的级别中;以及基于该字段,选择性地启用或禁用对可视媒体数据的当前视频块的色度分量应用亮度相关色度残差缩放(CRS),以从比特流表示生成解码的视频区域。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括:选择性地启用或禁用对可视媒体数据的当前视频块应用跨分量线性模型(CCLM),以将当前视频块编码成可视媒体数据的比特流表示;以及做出在可视媒体数据的比特流表示中包括或排除字段的确定,其中该字段指示选择性地启用或禁用,并且如果该字段被包括,则该字段被发信号通知,而不是处于与当前视频块相关联的第一语法级别。
在另一代表性方面,公开了一种用于可视媒体处理的方法。该方法包括:解析可视媒体数据的比特流表示中的字段,其中该字段被包括在不同于与当前视频块相关联的第一语法级别的级别中;以及基于该字段,选择性地启用或禁用对可视媒体数据的当前视频块应用跨分量线性模型(CCLM),以从比特流表示生成解码的视频区域。
在又一示例方面,公开了一种视频编码器或解码器装置,其包括被配置为实施上述方法的处理器。
在另一示例方面,公开了一种计算机可读程序介质。该介质存储包含用于实施所公开的方法之一的处理器可执行指令的代码。
在又一代表性方面,上述方法以处理器可执行代码的形式实施,并存储在计算机可读程序介质中。
在又一代表性方面,公开了被配置或可操作来执行上述方法的设备。该设备可以包括被编程来实施该方法的处理器。
在附图、说明书和权利要求书中更详细地描述了所公开技术的上述和其他方面和特征。
附图说明
图1示出了HEVC中的角度帧内预测模式的示例。
图2示出了不在HEVC中的方向模式的示例。
图3示出了与CCLM模式相关的示例。
图4示出了具有色度缩放架构的亮度映射的示例。
图5示出了不同颜色格式的亮度块和色度块的示例。
图6示出了相同颜色格式的亮度块和色度块的示例。
图7示出了覆盖多种格式的并置亮度块的示例。
图8示出了在较大亮度块内的亮度块的示例。
图9示出了在较大亮度块内且在边界框内的亮度块的示例。
图10是用于实施本文档中描述的可视媒体解码或可视媒体编码技术的硬件平台的示例的框图。
图11示出了根据所公开的技术的用于跨分量预测的线性模型推导的示例方法的流程图。
图12是其中可以实施所公开的技术的示例视频处理系统的框图。
图13示出了用于可视媒体处理的示例方法的流程图。
图14示出了用于可视媒体处理的示例方法的流程图。
图15示出了用于可视媒体处理的示例方法的流程图。
图16示出了用于可视媒体处理的示例方法的流程图。
图17示出了用于可视媒体处理的示例方法的流程图。
图18示出了用于可视媒体处理的示例方法的流程图。
图19示出了用于可视媒体处理的示例方法的流程图。
图20示出了用于可视媒体处理的示例方法的流程图。
图21示出了用于可视媒体处理的示例方法的流程图。
图22示出了用于可视媒体处理的示例方法的流程图。
图23示出了用于可视媒体处理的示例方法的流程图。
具体实施方式
2.1 HEVC简介
2.1.1 HEVC/H.265的帧内预测
帧内预测包括使用先前在所考虑的颜色通道中重构的样点来产生针对给定的TB(变换块)的样点。对于亮度和色度通道,分开地发信号通知帧内预测模式,其中色度通道帧内预测模式可选地经由“DM_CHROMA”模式而依赖于亮度通道帧内预测模式。根据CU的残差四叉树层次结构,尽管帧内预测模式是在PB(预测块)级别被发信道通知的,但是帧内预测过程是在TB级别被应用的,从而允许在CU内一个TB的编解码对下一个TB的编解码产生影响,并因此减少了到用作参考值的样点的距离。
HEVC包括35个帧内预测模式——DC模式、平面模式和33个方向或“角度”帧内预测模式。33个角度帧内预测模式如图1所示。
对于与色度颜色通道相关联的PB,帧内预测模式被规定为平面、DC、水平、垂直、“DM_CHROMA”模式,或有时为对角模式“34”。
注意,对于色度格式4:2:2和4:2:0,色度PB可以(分别)与两个或四个亮度PB重叠;在这种情况下,DM_CHROMA的亮度方向取自这些亮度PB的左上角。
DM_CHROMA模式指示亮度颜色通道PB的帧内预测模式被应用于色度颜色通道PB。因为这是相对常见的,所以intra_chroma_pred_mode的最可能模式(most-probable-mode)编解码方案偏向于选择该模式。
2.2多功能视频编解码(VVC)算法描述
2.2.1 VVC编解码架构
为了探索HEVC以外的未来视频编解码技术,VCEG和MPEG于2015年联合成立了联合视频探索组(Joint Video Exploration Team,JVET)。JVET会议每季度同时举行一次,并且新的编解码标准的目标是与HEVC相比降低50%的比特率。在2018年4月的JVET会议上,新的视频编解码标准被正式命名为多功能视频编解码(VVC),并且当时发布了VVC测试模型(VVCtest model,VTM)的第一个版本。随着对VVC标准化的不断努力,在每次JVET会议上新的编解码技术都被采用到VVC标准中。VVC工作草案和测试模型VTM在每次会议后都会更新。VVC项目目前的目标是在2020年7月的会议上实现技术完成(FDIS)。
与大多数以前的标准一样,VVC具有基于块的混合编解码架构,将图片间和图片内预测以及变换编解码与熵编解码相结合。图片分割结构将输入视频切分为被称为编解码树单元(coding tree unit,CTU)的块。使用具有嵌套多类型树结构的四叉树将CTU划分为编解码单元(codingunit,CU),其中叶编解码单元(CU)定义了共享相同预测模式(例如,帧内或帧间)的区域。在本文档中,术语“单元”定义了图像中涵盖所有颜色分量的区域;术语“块”用于定义涵盖特定颜色分量(例如亮度)的区域,并且当考虑色度采样格式(诸如4:2:0)时,在空域定位上可以不同。
2.2.2 VVC中的双树/分离树分割
亮度分量和色度分量对于I条带可以有分离的分割树。分离的树分割是在64×64块级别下,而不是在CTU级别下。在VTM软件中,存在SPS标志来控制双树的开和关。
2.2.3 VVC中的帧内预测
2.2.3.1 67种帧内预测模式
为了捕获自然视频中呈现的任意边缘方向,VTM4中的方向帧内模式的数量从HEVC使用的33个扩展到65个。不在HEVC中的新方向模式在图2中用红色虚线箭头来描绘,并且平面模式和DC模式保持不变。这些更密集的方向帧内预测模式适用于所有块尺寸以及亮度和色度帧内预测。
2.2.3.2跨分量线性模型预测(Cross-component linear model prediction,CCLM)
为了减少跨分量冗余,在VTM4中使用跨分量线性模型(CCLM)预测模式,对于该模式,通过使用如下线性模型,基于同一CU的重构亮度样点来预测色度样点:
predC(i,j)=α·recL′(i,j)+β
其中,predC(i,j)表示CU中的预测色度样点,并且recL(i,j)表示同一CU的下采样重构亮度样点。线性模型参数α和β是根据来自两个样点的亮度值和色度值之间的关系来推导的,这两个样点是在下采样的临近亮度样点的集合内部具有最小样点值和最大样点值的亮度样点及其对应的色度样点。线性模型参数α和β根据以下等式获得。
β=Yb-α·Xb
其中,Ya和Xa表示具有最大亮度样点值的亮度样点的亮度值和色度值。并且Xb和Yb分别表示具有最小亮度样点的亮度样点的亮度值和色度值。图3示出了CCLM模式中涉及的左侧和上方样点以及当前块样点的定位的示例。
计算参数α的除法运算是用查找表实施的。为了减少存储表所需的内存,diff的值(最大值和最小值之间的差值)和参数α用指数注释法表达。例如,diff用一个4比特有效部分和一个指数来近似。因此,1/diff的表被减少为16个元素,对应16个有效比特值,如下所示:
DivTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0}
这将有利于降低计算的复杂性以及存储所需要的表所需的内存尺寸。
上方模板和左侧模板除了可以一起用于计算线性模型系数,它们也可以在其他两个LM模式(称为LM_A和LM_L模式)中替代地使用。
在LM_A模式下,只有上方模板用于计算线性模型系数。为了得到更多的样点,上方模板被扩展到(W+H)。在LM_L模式下,只有左侧模板用于计算线性模型系数。为了得到更多的样点,左侧模板被扩展到(H+W)。
对于非正方形块,上方模板扩展为W+W,左侧模板扩展为H+H。
为了匹配4:2:0视频序列的色度样点定位,对亮度样点应用两种类型的下采样滤波器,以在水平和垂直方向两者上实现2∶1的下采样比。下采样滤波器的选择由SPS级别标志规定。两个下采样滤波器如下,分别对应于“类型0”和“类型2”内容。
请注意,当上部参考线位于CTU边界时,只有一条亮度线(帧内预测中的通用线缓冲器)用于进行下采样亮度采样。
该参数计算作为解码过程的一部分来执行,而不仅仅是作为编码器搜索操作。因此,不使用语法向解码器传送α和β值。
对于色度帧内模式编解码,色度帧内模式编解码总共允许8种帧内模式。这些模式包括五种传统的帧内模式和三种跨分量线性模型模式(CCLM、LM_A和LM_L)。色度模式编解码直接取决于对应的亮度块的帧内预测模式。由于在I条带中启用了针对亮度和色度分量的分离的块分割结构,因此一个色度块可以对应于多个亮度块。因此,对于色度DM模式,涵盖当前色度块中心位置的对应亮度块的帧内预测模式被直接继承。
2.2.3.2.1对应的修订工作草案(JVET-N0271)
以下规范基于JVET-M1001的修订工作草案和在JVET-N0271中的采用。对采用的JVET-N0220的修订以粗体和下划线示出。
语法表
序列参数集RBSP语法
语义学
sps_cclm_enabled_flag等于0规定了禁用从亮度分量到色度分量的跨分量线性模型帧内预测。sps_cclm_enabled_flag等于1规定了启用从亮度分量到色度分量的跨分量线性模型帧内预测。
解码过程
在规范第8.4.4.2.8节中的INTRA_LT_CCLM、INTRA_L_CCLM和INTRA_T_CCLM帧内预测模式
对该过程的输入为:
-帧内预测模式predModeIntra,
-当前变换块的左上角样点相对于当前图片的左上角样点的样点定位(xTbC,yTbC),
-规定变换块宽度的变量nTbW,
-规定变换块高度的变量nTbH,
-色度临近样点p[x][y],其中x=-1,y=0..2*nTbH-1以及x=0..2*nTbW-1,y=-1。
该过程的输出为预测样点predSamples[x][y],其中x=0..nTbW-1,y=0..nTbH-1。
如下推导当前亮度定位(xTbY,yTbY):
(xTbY,yTbY)=(xTbC<<1,yTbC<<1) (8-156)
如下推导变量availL、availT和availTL:
-在条款6.4.X[Ed.(BB):临近块可用性检查过程tbd]中规定的块的左侧临近样点推导过程的可用性被调用,其中被设置为等于(xTbC,yTbC)的当前色度定位(xCurr,yCurr)以及临近色度定位(xTbC-1,yTbC)作为输入,并将输出分配给availL。
-在条款6.4.X[Ed.(BB):临近块可用性检查过程tbd]中规定的块的顶部临近样点推导过程的可用性被调用,其中被设置为等于(xTbC,yTbC)的当前色度定位(xCurr,yCurr)以及临近色度定位(xTbC,yTbC-1)作为输入,并将输出分配给availT。
-在条款6.4.X[Ed.(BB):临近块可用性检查过程tbd]中规定的块的左上角临近样点推导过程的可用性被调用,其中被设置为等于(xTbC,yTbC)的当前色度定位(xCurr,yCurr)以及临近色度定位(xTbC-1,yTbC-1)作为输入,并将输出分配给availTL。
-如下推导可用的右上角临近色度样点的数量numTopRight:
-变量numTopRight设置为等于0,并且availTR被设置为等于TRUE。
-当predModeIntra等于INTRA_T_CCLM时,以下适用于x=nTbW..2*nTbW-1,直到availTR等于FALSE或x等于2*nTBw-1:
-在条款6.4.X[Ed.(BB):临近块可用性检查过程tbd]中规定的块的可用性推导过程被调用,其中被设置为等于(xTbC,yTbC)的当前色度定位(xCurr,yCurr)以及临近色度定位(xTbC+x,yTbC
-1)作为输入,并将输出分配给availableTR。
-当availableTR等于TRUE时,numTopRight增加1。
-如下推导可用的左下临近色度样点的数量numLeftBelow:
-变量numLeftBelow设置为等于0,并且availLB设置为等于TRUE。
-当predModeIntra等于INTRA_L_CCLM时,以下适用于y=nTbH..2*nTbh-1,直到availLB等于FALSE或y等于2*nTbh-1:
-在条款6.4.X[Ed.(BB):临近块可用性检查过程tbd]中规定的块的可用性推导过程被调用,其中被设置为等于(xTbC,yTbC)的当前色度定位(xCurr,yCurr)以及临近色度定位(xTbC-1,yTbC+y)作为输入,并将输出分配给availableLB。
-当availableLB等于TRUE时,numLeftBelow增加1。
如下推导顶部和右上角的可用临近色度样点的数量numTopSamp以及左侧和左下的可用临近色度样点的数量nLeftSamp:
-如果predModeIntra等于INTRA_LT_CCLM,则以下适用:
numSampT=availT?nTbW:0 (8-157)
numSampL=availL?nTbH:0 (8-158)
-否则,以下适用:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?(nTbW+Min(numTopRight,nTbH)):0 (8-159)
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?(nTbH+Min(numLeftBelow,nTbW)):0 (8-160)
如下推导变量bCTUboundary:
bCTUboundary=(yTbC&(1<<(CtbLog2SizeY-1)-1)==0)?TRUE:FALSE
(8-161)
如下推导变量cntN和数组pickPosN[](其中N被L和T代替):
-变量numIs4N被设置为等于((availT&&availL&&predModeIntra==INTRA_LT_ CCLM)?0:1)。
-变量startPosN被设置为等于numSampN>>(2+numIs4N)。
-变量pickStepN被设置为等于Max(1,numSampN>>(1+numIs4N))。
-如果availN等于TRUE,且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则 cntN被设置为等于Min(numSampN,(1+numIs4N)<<1),且pickPosN[pos]被设置为等于 (startPosN+pos*pickStepN),其中pos=0..(cntN–1)。
-否则,cntN被设置为等于0。
如下推导预测样点predSamples[x][y](其中
x=0..nTbW-1,y=0..nTbH-1):
-如果numSampL和numSampT两者都等于0,则以下适用:
predSamples[x][y]=1<<(BitDepthC-1) (8-162)
-否则,以下有序步骤适用:
1.并置亮度样点pY[x][y](其中x=0..nTbW*2-1,y=0..nTbH*2-1)被设置为等于去方块滤波过程之前在定位(xTbY+x,yTbY+y)的重构亮度样点。
2.如下推导临近亮度样点样点pY[x][y]:
-当numSampL大于0时,临近的左侧亮度样点pY[x][y](其中x=-1..-3,y=0..2*numSampL-1)被设置为等于去方块滤波过程之前在定位(xTbY+x,yTbY+y)的重构亮度样点。
-当numSampT大于0时,临近的顶部亮度样点pY[x][y](其中x=0..2*numSampT-1,y=-1,-2)被设置为等于去方块滤波过程之前在定位(xTbY+x,yTbY+y)的重构亮度样点。
-当availTL等于TRUE时,临近的左上角亮度样点pY[x][y](其中x=-1,y=-1,-2)被设置为等于去方块滤波过程之前在定位(xTbY+x,yTbY+y)的重构亮度样点。
3.如下推导下采样并置亮度样点pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1):
-如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
-如下推导pDsY[x][y](其中x=1..nTbW-1,y=1..nTbH-1):pDsY[x][y]=(pY[2*x][2*y-1]+pY[2*x-1][2*y]+4*pY[2*x][2*y]+pY[2*x+1][2*y]+pY[2*x][2*y+1]+4)>>3
(8-163)
-如果availL等于TRUE,则如下推导pDsY[0][y](其中,y=1..nTbH-1):
pDsY[0][y]=(pY[0][2*y-1]+pY[-1][2*y]+4*pY[0][2*y]+pY[1][2*y]+pY[0][2*y+1]+4)>>3
(8-164)
-否则,如下推导pDsY[0][y](其中,y=1..nTbH-1):pDsY[0][y]=(pY[0][2*y-1]+2*pY[0][2*y]+pY[0][2*y+1]+2)>>2
(8-165)
-如果availT等于TRUE,则如下推导pDsY[x][0](其中,x=1..nTbW-1):
pDsY[x][0]=(pY[2*x][-1]+pY[2*x-1][0]+4*pY[2*x][0]+pY[2*x+1][0]+pY[2*x][1]+4)>>3
(8-166)
-否则,如下推导pDsY[x][0](其中,x=1..nTbW-1):pDsY[x][0]=(pY[2*x-1][0]+2*pY[2*x][0]+pY[2*x+1][0]+2)>>2
(8-167)
-如果availL等于TRUE并且availT等于TRUE,则如下推导pDsY[0][0]:
pDsY[0][0]=(pY[0][-1]+pY[-1][0]+4*pY[0][0]+pY[1][0]+pY[0][1]+4)>>3
(8-168)
-否则,如果availL等于TRUE并且availT等于FALSE,则如下推导pDsY[0][0]:
pDsY[0][0]=(pY[-1][0]+2*pY[0][0]+pY[1][0]+2)>>2
(8-169)
-否则,如果availL等于FALSE并且availT等于TRUE,则如下推导pDsY[0][0]:
pDsY[0][0]=(pY[0][-1]+2*pY[0][0]+pY[0][1]+2)>>2
(8-170)
-否则(availL等于FALSE并且availT等于FALSE),如下推导pDsY[0][0]:
pDsY[0][0]=pY[0][0] (8-171)
-否则,以下适用:
-如下推导pDsY[x][y](其中x=1..nTbW-1,y=0..nTbH-1):pDsY[x][y]=(pY[2*x-1][2*y]+pY[2*x-1][2*y+1]+2*pY[2*x][2*y]+2*pY[2*x][2*y+1]+pY[2*x+1][2*y]+pY[2*x+1][2*y+1]+4)>>3
(8-172)
-如果availL等于TRUE,则如下推导pDsY[0][y](其中,y=0..nTbH-1):
pDsY[0][y]=(pY[-1][2*y]+pY[-1][2*y+1]+2*pY[0][2*y]+2*pY[0][2*y+1]+pY[1][2*y]+pY[1][2*y+1]+4)>>3
(8-173)
-否则,如下推导pDsY[0][y](其中,y=0..nTbH-1):
pDsY[0][y]=(pY[0][2*y]+pY[0][2*y+1]+1)>>1
(8-174)
4.当numSampL大于0时,所选择的临近左侧色度样点pSelC[idx]被设置为等于p[- 1][pickPosL[idx]](其中idx=0..(cntL–1)),并且如下推导所选择的下采样临近左侧亮度样点pSelDsY[idx](其中,idx=0..(cntL-1)):
-变量y被设置为等于pickPosL[idx]。
-如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
-如果y>0||availTL==TRUE,
pSelDsY[idx]=(pY[-2][2*y-1]+pY[-3][2*y]+4*pY[-2][2*y]+pY[-1][2*y]+pY [-2][2*y+1]+4_)>>3
(8-175)
-否则,
pSelDsY[idx]=(pY[-3][0]+2*pY[-2][0]+pY[-1][0]+2)>>2
(8-177)
-否则,以下适用:
pSelDsY[idx]=(pY[-1][2*y]+pY[-1][2*y+]+2*pY[-2][2*y]+2*pY[-2][2*y+1]+pY[-3][2*y]+pY[-3][2*y+1]+4)>>3
(8-178)
5.当numSampT大于0时,所选择的临近顶部色度样点pSelC[idx]被设置为等于p [pickPosT[idx–cntL]][-1](其中idx=cntL..(cntL+cntT–1)),并且下采样的临近顶部亮度样点pSelDsY[idx](其中,idx=cntL..(cntL+cntT–1))被规定如下:
-变量x被设置为等于PickPost[idx–cntL]。
-如果sps_cclm_colocated_chroma_flag等于1,则以下适用:
-如果x>0:
-如果bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[2*x][-3]+pY[2*x-1][-2]+4*pY[2*x][-2]+pY[2*x+1][-2]+pY[2*x][-1]+4)>>3
(8-179)
-否则(bCTUboundary等于TRUE),以下适用:
pSelDsY[idx]=(pY[2*x-1][-1]+2*pY[2*x][-1]+pY[2*x+1][-1]+2)>>2
(8-180)
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[0][-3]+pY[-1][-2]+4*pY[0][-2]+pY[1][-2]+pY[0][-1]+4)>>3
(8-181)
-否则,如果availTL等于TRUE且bCTUboundary等于TRUE,则以下适用:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+)>>2
(8-182)
-否则,如果availTL等于FALSE且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[0][-3]+2*pY[0][-2]+pY[0][-1]+2)>>2
(8-183)
-否则(availTL等于FALSE且bCTUboundary等于TRUE),则以下适用:
pSelDsY[idx]=pY[0][-1]
(8-184)
-否则,以下适用:
-如果x>0:
-如果bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[2*x-1][-2]+pY[2*x-1][-1]+2*pY[2*x][-2]+2*pY[2*x][-1]+pY[2*x+1][-2]+pY[2*x+1][-1]+4)>>3
(8-185)
-否则(bCTUboundary等于TRUE),以下适用:
pSelDsY[idx]=(pY[2*x-1][-1]+2*pY[2*x][-1]+pY[2*x+1][-1]+2)>>2
(8-186)
-否则:
-如果availTL等于TRUE且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[-1][-2]+pY[-1][-1]+2*pY[0][-2]+2*pY[0][-1]+pY[1][-2]+pY[1][-1]+4)>>3
(8-187)
-否则,如果availTL等于TRUE且bCTUboundary等于TRUE,则以下适用:
pSelDsY[idx]=(pY[-1][-1]+2*pY[0][-1]+pY[1][-1]+2)>>2
(8-188)
-否则,如果availTL等于FALSE且bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(pY[0][-2]+pY[0][-1]+1)>>1
(8-189)
-否则,(availTL等于FALSE且bCTUboundary等于TRUE),则以下适用:
pSelDsY[idx]=pY[0][-1]
(8-190)
6.当cntT+cntL不等于0时,如下推导变量minY、maxY、minC和maxC:
-当cntT+cntL等于2时,将pSelComp[3]设置为等于pSelComp[0],将pSelComp[2] 设置为等于pSelComp[1],将pSelComp[0]设置为等于pSelComp[1],以及将pSelComp[1]设 置为等于pSelComp[3],其中用DsY和C替换Comp。
-数组minGrpIdx[]和maxGrpIdx[]被设置为:minGrpIdx[0]=0,minGrpIdx[1]= 2,maxGrpIdx[0]=1,maxGrpIdx[1]=3。
-如果PSelDsy[minGrpIdx[0]]>PSelDsy[minGrpIdx[1]],则Swap(minGrpIdx[0], minGrpIdx[1])。
-如果PSelDsy[maxGrpIdx[0]]>PSelDsy[maxGrpIdx[1]],则Swap(maxGrpIdx[0], maxGrpIdx[1])。
-如果PSelDsy[minGrpIdx[0]]>PSelDsy[maxGrpIdx[1]],则Swap(minGrpIdx, maxGrpIdx)。
-如果PSelDsy[minGrpIdx[1]]>PSelDsy[maxGrpIdx[0]],则Swap(minGrpIdx[1], maxGrpIdx[0])。
-maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1。
-maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1。
-minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1。
-minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1。
7.如下推导变量a、b和k:
-如果numSampL等于0,并且numSampT等于0,则以下适用:
K=0 (8-208)
a=0 (8-209)
b=1<<(BitDepthC-1) (8-210)
-否则,以下适用:
diff=maxY-minY (8-211)
-如果diff不等于0,则以下适用:
diffC=maxC-minC (8-212)
x=Floor(Log2(diff)) (8-213)
normDiff=((diff<<4)>>x)&15 (8-214)
x+=(normDiff!=0)?1:0 (8-215)
y=Floor(Log2(Abs(diffC)))+1 (8-216)
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y(8-217)
k=((3+x y)<1)?1:3+x-y (8-218)
a=((3+x-y)<1)?Sign(a)*15:a (8-219)
b=minC–((a*minY)>>k) (8-220)
其中,divSigTable[]被规定如下:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0}(8-221)
-否则(diff等于0),以下适用:
k=0 (8-222)
a=0 (8-223)
b=minC (8-224)
8.如下推导预测样点predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1):
predSamples[x][y]=Clip1C(((pDsY[x][y]*a)>>k)+b)(8-225)
2.2.3.3其他帧内预测方面
VTM4包括许多不同于HEVC的帧内编解码工具,例如,除了块树结构之外,已经在VVC测试模型3中包括了以下特征。
·带有宽角度模式扩展的67种帧内模式
·块尺寸和模式相关的4抽头插值滤波器
·位置相关帧内预测组合(Position dependent intra predictioncombination,PDPC)
·跨分量线性模型帧内预测
·多参考线帧内预测
·帧内子分割
2.2.4 VVC中的帧间预测
2.2.4.1组合帧间和帧内预测(Combined inter and intra prediction,CIIP)
在VTM4中,当CU以合并模式编解码时,并且如果CU包含至少64个亮度样点(即,CU宽度乘以CU高度等于或大于64),则发信号通知附加标志,以指示组合帧间/帧内预测(CIIP)模式是否应用于当前CU。
为了形成CIIP预测,帧内预测模式首先从两个附加语法元素推导。最多可以使用四种可能的帧内预测模式:DC、平面、水平、或者垂直。然后,使用规则的帧内解码过程和帧间解码过程来推导帧间预测信号和帧内预测信号。最后,执行帧间预测信号和帧内预测信号的加权平均以获得CIIP预测。
2.2.4.2其他帧间预测方面
VTM4包括许多不同于HEVC的帧间编解码工具,例如,除了块树结构之外,已经在VVC测试模型3中包括了以下特征。
·仿射运动帧间预测
·基于子块的时域运动矢量预测
·自适应运动矢量分辨率
·用于时域运动预测的基于8×8块的运动压缩
·高精度(1/16pel)运动矢量存储和运动补偿,针对亮度分量采用8抽头插值滤波器,并且针对色度分量采用4抽头插值滤波器
·三角形分割
·组合帧内和帧间预测
·与MVD合并(Merge with MVD,MMVD)
·对称MVD编解码
·双向光流
·解码器侧运动矢量细化
·双向预测加权平均
2.2.5环路滤波器
VTM4中总共有三个环路滤波器。除了HEVC中的去方块滤波器和采样自适应偏移滤波器(adaptive offset filter,SAO)这两个滤波器之外,自适应环路滤波器(adaptiveloop filter,ALF)也被应用在VTM4中。VTM4中滤波过程的次序是去方块滤波器、SAO和ALF。
在VTM4中,SAO和去方块滤波过程几乎与HEVC中的相同。
在VTM4中,增加了被称为带有色度缩放的亮度映射的新过程(该过程在先前被称为自适应环路整形)。这个新过程在去方块之前执行。
2.2.6带有色度缩放的亮度映射(LMCS,又名环路整形)
在VTM4中,在环路滤波器之前,添加了被称为带有色度缩放的亮度映射(LMCS)的编解码工具,作为新的处理块。LMCS具有两个主要分量:1)基于自适应分段线性模型的亮度分量的环路映射;2)对于色度分量,应用与亮度相关色度残差缩放。图4从解码器的角度示出了LMCS架构。图4中的深灰色阴影块指示在映射域中应用处理的位置;并且这些处理包括逆量化、逆变换、亮度帧内预测以及将亮度预测与亮度残差一起相加。图4中未加阴影的块指示在原始(即,未映射)域中应用处理的位置;并且这些处理包括诸如去方块、ALF和SAO的环路滤波器,运动补偿预测,色度帧内预测,将色度预测与色度残差一起相加,以及将解码的图片作为参考图片存储。图4中的浅灰色阴影块是新的LMCS功能块,包括亮度信号的正(forward)映射和逆(inverse)映射以及与亮度相关的色度缩放过程。像VVC中的大多数其他工具一样,LMCS可以使用SPS标志在序列级别被启用/禁用。
2.2.6.1利用分段线性模型的亮度映射
亮度分量的环路映射通过在动态范围内重新分发码字来调整输入信号的动态范围,以提高压缩效率。亮度映射利用正映射函数FwdMap和对应的逆映射函数InvMap。FwdMap函数使用具有16个相等片段的分段线性模型来发信号通知。InvMap函数不需要被发信号通知,而是根据FwdMap函数来推导。
亮度映射模型是在片(tile)组级别被发信号通知的。存在标志首先被发信号通知。如果亮度映射模型存在于当前片组中,则发信号通知对应的分段线性模型参数。分段线性模型将输入信号的动态范围分割为16个相等的片段,并且对于每个片段,使用分配给该片段的码字数量来表达其线性映射参数。以10比特输入为例。默认情况下,16个片段中的每一个都将被分配有64个码字。被发信号通知的码字数量用于计算缩放因子,并相应地调整该片段的映射函数。在片组级别,另一LMCS启用标志被发信号通知,以指示图4所描绘的LMCS过程是否应用于当前片组。
由两个输入轴点InputPivot[]和两个输出(映射)轴点MappedPivot[]定义FwdMap分段线性模型的第i个片段(i=0…15)。
如下计算InputPivot[]和MappedPivot[](假设10比特视频):
1)OrgCW=64
2)对于i=0:16,InputPivot[i]=i*OrgCW
3)对于i=0:16,如下计算MappedPivot[i]:
MappedPivot[0]=0;
for(i=0;i<16;i++)
MappedPivot[i+1]=MappedPivot[i]+SignalledCW[i]
其中SignaleDcw[i]是发信号通知的第i个片段的码字数量。
如图4所示,对于帧间编解码块,在映射域中执行运动补偿预测。换句话说,在基于DPB中的参考信号计算运动补偿预测块Ypred之后,应用FwdMap函数以将原始域中的亮度预测块映射到该映射域,Y′pred=FwdMap(Ypred)。对于帧内编解码块,不应用FwdMap函数,因为帧内预测是在映射域中执行的。计算重构块Yr后,应用InvMap函数将映射域中的重构亮度值转换回原始域中的重构亮度值InvMap功能被应用于帧内和帧间编解码的亮度块。
亮度映射过程(正映射和/或逆映射)可以使用查找表(look-up-table,LUT)或即时计算(on-the-flycomputation)来实施。如果使用LUT,那么FwdMapLUT和InvMapLUT可以被预先计算和预先存储,以便在片组级别使用,并且正映射和逆映射可以简单地分别被实施为FwdMap(Ypred)=FwdMapLUT[Ypred]和InvMap(Yr)=InvMapLUT[Yr]。可替换地,可以使用即时计算。以正映射函数FwdMap为例。为了找出亮度样点所属的片段,样点值被右移6比特(对应于16个相等的片段)。然后,即时地检索并应用该片段的线性模型参数,以计算映射的亮度值。设i为片段索引,a1、a2分别为InputPivot[i]和InputPivot[i+1],并且b1、b2分别为MappedPivot[i]和MappedPivot[i+1]。如下评估FwdMap函数:
FwdMap(Ypred)=((b2-b1))/(a2-a1))*(Ypred-a1)+b1
除了在计算样点值所属的分段时需要应用条件检查而不是简单的向右移位(因为映射域中的分段尺寸不相等)之外,可以以类似的方式即时地计算InvMap函数。
2.2.6.2亮度相关色度残差缩放
色度残差缩放被设计用于补偿亮度信号与其对应的色度信号之间的相互作用。色度残差缩放是否被启用也在片组级别被发信号通知。如果启用了亮度映射,并且如果双树分割(也称为分离色度树)未应用于当前片组,则会发信号通知附加标志,以指示是否启用亮度相关色度残差缩放。当不使用亮度映射时,或者当在当前片组中使用双树分割时,亮度相关色度残差缩放被禁用。此外,对于面积小于或等于4的色度块,亮度相关色度残差缩放总是被禁用。
色度残差缩放取决于(对于帧内和帧间编解码块的)对应亮度预测块的平均值。用avgY′表示亮度预测块的平均值。CScaleInv的值按以下步骤计算:
1)基于InvMap函数找到avgY′所属的分段线性模型的索引YIdx
2)CScaleInv=cScaleInv[YIdx],其中cScaleInv[]是预先计算的16个分段的LUT。
如果当前块被编解码为帧内、CIIP或帧内块复制(IBC,又名当前图片参考或CPR)模式,则avgY′被计算为帧内、CIIP或IBC预测亮度值的平均值;否则,avgY′被计算为正映射帧间预测亮度值的平均值(图4中的Y′pred)。与基于样点执行的亮度映射不同,CScaleInv是整个色度块的常数值。通过CScaleInv,色度残差缩放按以下被应用:
编码器侧:CResScale=CRes*CScale=CRes/CScaleInv
解码器侧:CRes=CResScale/CScale=CResScale*CScaleInv
2.2.6.3在JVET-M1001_v7中的对应工作草案以及在JVET-N0220中的采用
以下规范基于JVET-M1001的修改工作草案以及在JVET-N0220中的采用。采用的JVET-N0220中的修改以粗体和下划线示出。
语法表
在7.3.2.1中 序列参数集RBSP语法
sps triangle enabled flag u(1)
sps lmcs enabled flag u(1)
sps ladf enabled flag u(1)
在7.3.4.1中 通用片组报头语法
在7.3.4.4中带有色度缩放的亮度映射的数据语法
语义学
在7.4.3.1中 序列参数集RBSP语义
sps_lmcs_enabled_flag等于1规定在CVS中使用带有色度缩放的亮度映射。sps_lmcs_enabled_flag等于0规定在CVS中不使用带有色度缩放的亮度映射。
tile_group_lmcs_model_present_flag等于1规定lmcs_data()存在于片组报头中。tile_group_lmcs_model_present_flag等于0规定lmcs_data()不存在于片组报头中。当tile_group_lmcs_model_present_flag不存在时,它被推断为等于0。
tile_group_lmcs_enabled_flag等于1规定对于当前片组启用带有色度缩放的亮度映射。tile_group_lmcs_enabled_flag等于0规定对于当前片组不启用带有色度缩放的亮度映射。当tile_group_lmcs_enabled_flag不存在时,它被推断为等于0。
tile_group_chroma_residual_scale_flag等于1规定对于当前片组启用色度残差缩放。tile_group_chroma_residual_scale_flag等于0规定对于当前片组不启用色度残差缩放。当tile_group_chroma_residual_scale_flag不存在时,它被推断为等于0。
在7.4.5.4中带有色度缩放的亮度映射的数据语义
lmcs_min_bin_idx规定在带有色度缩放的亮度映射的构建过程中使用的最小二进制数(bin)索引。lmcs_min_bin_idx的值应在0到15(包括本数)的范围内。
lmcs_delta_max_bin_idx规定在带有色度缩放的亮度映射的构建过程中使用的在15和最大二进制数索引LmcsMaxBinIdx之间的增量值。lmcs_delta_max_bin_idx的值应在0到15(包括本数)的范围内。LmcsMaxBinIdx的值被设置为等于15-lmcs_delta_max_bin_IDx。LmcsMaxBinIdx的值应大于或等于lmcs_min_bin_idx。
lmcs_delta_cw_prec_minus1加1规定用于表示语法lmcs_delta_abs_cw[i]的位数。lmcs_delta_cw_prec_minus1的值应在0至BitDepthy-2(包含本数)的范围内。
Lmcs_delta_abs_cw[i]规定第i个二进制数的绝对增量码字值。
lmcs_delta_sign_cw_flag[i]规定变量lmcsDeltaCW[i]的符号,如下所示:
–如果lmcs_delta_sign_cw_flag[i]等于0,则lmcsDeltaCW[i]为正值。
–否则(lmcs_delta_sign_cw_flag[i]不等于0),lmcsDeltaCW[i]为负值。
当lmcs_delta_sign_cw_flag[i]不存在时,它被推断为等于0。
如下推导变量OrgCW:
OrgCW=(1<<BitDepthY)/16 (7-70)
如下推导变量lmcsDeltaCW[i](i=lmcs_min_bin_idx..LmcsMaxBinIdx):
lmcsDeltaCW[i]=(1-2*lmcs_delta_sign_cw_flag[i])*lmcs_delta_abs_cw[i]
(7-71)
如下推导变量lmcsCW[i]:
–对于i=0..lmcs_min_bin_idx 1,lmcsCW[i]被设置为等于0。
–对于i=lmcs_min_bin_idx..LmcsMaxBinIdx,以下适用:
lmcsCW[i]=OrgCW+lmcsDeltaCW[i] (7-72)
LMC SW[I]的值应在(OrgCW>>3)至(OrgCw<<3-1)范围内(包含本数)。
–对于i=LmcsMaxBinIdx+1..15,lmcsCW[i]被设置为等于0。
满足以下条件是比特流一致性的要求:
如下推导变量InputPivot[i](其中i=0..16):
InputPivot[i]=i*OrgCW (7-74)
如下推导变量LmcsPivot[i](其中i=0..16)、变量ScaleCoeff[i]和InvScaleCoeff[i](其中i=0..15):
如下推导变量ChromaScaleCoeff[i](其中i=0..15):
如下推导变量ClipRange、LmcsMinVal和LmcsMaxVal:
ClipRange=((lmcs_min_bin_idx>0)&&(LmcsMaxBinIdx<15) (7-77)
LmcsMinVal=16<<(BitDepthY-8) (7-78)
LmcsMaxVal=235<<(BitDepthY-8) (7-79)
注意–仅当tile_group_lmcs_model_present_flag等于1时,才会更新ArraysInputPivot[i]和LmcsPivot[i]、ScaleCoeff[i]和InvScaleCoeff[i]、ChromaScaleCoeff[i]、ClipRange、LmcsMinVal和LmcsMaxVal。因此,lmcs模型可以例如与IRAP图片一起发送,但是lmcs对于该IRAP图片是禁用的。
3.现有实施方式的缺陷
LMCS/CCLM的当前设计可能具有以下问题:
1.在LMCS编解码工具中,色度残差缩放因子由并置亮度预测块的平均值推导,这导致对于在LMCS色度残差缩放中处理色度样点的延迟。
a)在单/共享树的情况下,延迟是由以下因素造成的:(a)等待整个亮度块的所有预测样点变为可用,以及(b)对(a)获得的所有亮度预测样点求平均。
b)在双/分离树的情况下,延迟甚至更差,因为在I条带中启用了亮度和色度分量的分离的块分割结构。因此,一个色度块可以对应于多个亮度块,并且一个4×4色度块可以对应于64×64亮度块。因此,最坏的情况是当前4×4色度块的色度残差缩放因子可能需要等待,直到整个64×64亮度块中的所有预测样点都可用。总之,双/分离树中的延迟问题要严重得多。
2.在CCLM编解码工具中,用于帧内色度预测的CCLM模型计算取决于亮度块和色度块的左侧和上方参考样点。对于色度块的CCLM预测取决于同一CU的并置亮度重构样点。这将导致双/分离树的高延迟。
·在双/分离树的情况下,一个4×4色度块可以对应于64×64亮度块。因此,最坏的情况是针对当前色度块的CCLM过程可能需要等待,直到对应的整个64×64亮度块被重构。这种延迟问题类似于双/分离树中的LMCS色度缩放。
4.示例技术和实施例
为了解决这些问题,我们提出了几种方法来消除/降低/限制亮度相关色度残差缩放、CCLM和依赖于来自不同颜色分量的信息的其他编解码工具中的跨分量依赖性。
下面描述的详细实施例应该被认为是解释一般概念的示例。这些实施例不应被狭义地解释。此外,这些实施例可以以任何方式组合。
注意,尽管下面描述的项目符号明确提到了LMCS/CCLM,但是这些方法也可以适用于依赖于来自不同颜色分量的信息的其他编解码工具。此外,下面提到的术语“亮度”和“色度”可以分别由“第一颜色分量”和“第二颜色分量”代替,诸如在RGB颜色格式中的“G分量”和“B/R分量”。
在下面的讨论中,“并置样点/块”的定义与VVC工作草案JVET-M1001中的并置样点/块的定义一致。更具体地说,在4:2:0颜色格式中,假设色度块的左上角样点位于位置(xTbC,yTbC),则如下推导并置亮度块定位(xTbY,yTbY)的左上角样点:(xTbY,yTbY)=(xTbC<<1,yTbC<<1)。如图5所示,当前色度块的左上角样点位于色度图片中的(x=16,y=16),则其并置亮度块的左上角样点位于亮度图片中的(x=32,y=32),而与亮度图片中的并置亮度块的块分割无关。又例如,假设在同一颜色分量中,参考帧中并置块的左上角样点的定位应该与当前帧中当前块的左上角样点的定位相同,如图6所示,假设当前块的左上角样点在当前帧中是(x,y),则当前块的并置块的左上角样点在参考帧中具有相同的定位(x,y)。
在下面的讨论中,“对应块”可能与当前块具有不同的定位。例如,在当前块和其在参考帧中的对应块之间可能有运动偏移。如图6所示,假设当前块位于当前帧中的(x,y)处,并且它具有运动矢量(mvx,mvy),则当前块的对应块可以位于参考帧中的(x+mvx,y+mvy)。对于IBC编解码块,并置的亮度块(由零矢量指示)和对应的亮度块(由非零BV指示)可以位于当前帧的不同位置。又例如,当亮度块的分割与色度块的分割不对齐时(在I条带的双树分割中),当前色度块的并置亮度块可以属于取决于覆盖并置亮度块的左上角样点的重叠的亮度编解码块的分区尺寸的更大亮度块。如图5所示,假设粗体矩形表示块的分割,因此64x64亮度块首先被BT划分,然后64x64亮度块的右侧部分被TT进一步划分,这产生尺寸分别等于32×16、32×32和32×16的三个亮度块。因此,查看当前色度块的并置亮度块的左上角样点(x=32,y=32),它属于TT分割的中心32×32亮度块。在这种情况下,我们将覆盖并置亮度块左上角样点的对应亮度块称为“对应亮度块”。因此,在本示例中,对应亮度块的左上角样点位于(x=32,y=16)。
在下文中,DMVD(解码器侧运动矢量推导)用于表示BDOF(又名BIO)或/和DMVR(解码侧运动矢量细化)或/和FRUC(帧速率上转换)或/和在解码器处细化运动矢量或/和预测样点值的其他方法。
LMCS的色度缩放延迟的消除和CCLM的模型计算
1.提议对于帧间编解码块,参考帧中的当前块的一个或多个参考样点可以用于在LMCS模式中推导色度残差缩放因子。
a)在一个示例中,参考亮度样点可以直接用于推导色度残差缩放因子。
i.可替换地,插值可以首先应用于参考样点,并且被插值的样点可以用于推导色度残差缩放因子。
ii.可替换地,不同参考帧中的参考样点可以用于推导用于色度残差缩放因子推导的最终参考样点。
1)在一个示例中,对于双向预测编解码块,可以应用上述方法。
iii.在一个示例中,参考样点的强度可以在被用于推导色度残差缩放因子之前被转换到整形域。
iv.在一个示例中,参考样点的线性组合可以用于推导色度残差缩放因子。
1)例如,a×S+b可以用于推导色度残差缩放因子,其中S为参考样点,a和b为参数。在一个示例中,a和b可以由局部照明补偿(Localized Illuminate Compensation,LIC)推导。
b)在一个示例中,参考帧中参考亮度样点的定位可以取决于当前块的(多个)运动矢量。
i.在一个示例中,参考样点属于参考亮度块,该参考亮度块位于参考图片中,并且具有与当前亮度块相同的宽度和高度。参考图片中的参考亮度样点的位置可以被计算为其对应亮度样点在当前图片中的位置加上运动矢量。
ii.在一个示例中,参考亮度样点的位置可以由当前亮度块的左上角(或中心,或右下角)样点的位置和当前块的运动矢量推导,参考亮度样点被称为参考帧中的对应亮度样点。
1)在一个示例中,整数运动矢量可以用于推导参考帧中的对应亮度样点。在一个示例中,与一个块相关联的运动矢量可以向零取整,或者远离零取整,以推导整数运动矢量。
2)可替换地,分数运动矢量可以用于推导参考帧中的对应亮度样点,从而可能需要插值过程来推导分数参考样点。
iii.可替换地,参考亮度样点的位置可以由当前亮度块的左上角(或中心,或右下角)样点的位置推导。
iv.可替换地,可以选取参考帧中一些预定义位置处的多个对应亮度样点来计算色度残差缩放因子。
c)在一个示例中,多个参考亮度样点的中值或平均值可以用于推导色度残差缩放因子。
d)在一个示例中,预定义参考帧中的参考亮度样点可以用于推导色度残差缩放因子。
i.在一个示例中,预定义参考帧可以是参考图片列表0中参考索引等于0的帧。
ii.可替换地,可以在序列/图片/片组/条带/片/CTU行/视频单元级别中发信号通知用于预定义参考帧的参考索引和/或参考图片列表。
iii.可替换地,可以推导多个参考帧中的参考亮度样点,并且可以利用平均或加权平均值来获得色度残差缩放因子。
2.提议是否以及如何在LMCS模式中根据亮度样点推导色度残差缩放因子可以取决于当前块是否应用双向预测。
a)在一个示例中,色度残差缩放因子是针对每个预测方向单独地推导的。
3.提议是否以及如何在LMCS模式中根据亮度样点推导色度残差缩放因子可以取决于当前块是否应用基于子块的预测。
a)在一个示例中,基于子块的预测是仿射预测;
b)在一个示例中,基于子块的预测是可选时域运动矢量预测(AlternativeTemporal Motion Vector Prediction,ATMVP)。
c)在一个示例中,针对每个子块单独地推导色度残差缩放因子。
d)在一个示例中,针对整个块推导色度残差缩放因子,即使它是由子块预测的。
i.在一个示例中,一个所选择的子块(例如,左上角子块)的运动矢量可以用于识别当前块的参考样点,如项目符号1中所述。
4.提议用于推导色度残差缩放因子的亮度预测值可以是中间亮度预测值,而不是最终亮度预测值。
a)在一个示例中,双向光流(BDOF,又名BIO)过程之前的亮度预测值可以用于推导色度残差缩放因子。
b)在一个示例中,解码器侧运动矢量细化(DMVR)过程之前的亮度预测值可以用于推导色度残差缩放因子。
c)在一个示例中,LIC过程之前的亮度预测值可以用于推导色度残差缩放因子。
d)在一个示例中,如在JVET-N0236中提议的预测细化光流(PredictionRefinement Optical Flow,PROF)过程之前的亮度预测值可以用于推导色度残差缩放因子。
5.中间运动矢量可以用于识别参考样点。
a)在一个示例中,在BDOF或/和DMVR或/和其他DMVD方法的过程之前的运动矢量可以用于识别参考样点。
b)在一个示例中,如在JVET-N0236中提议的预测细化光流(PROF)过程之前的运动矢量可以用于识别参考样点。
6.当当前块用帧间模式编解码时,上述方法可以适用。
7.提议对于IBC编解码的块,当前帧的参考块中的一个或多个参考样点可以用于在LMCS模式中推导色度残差缩放因子。当块被IBC编解码时,术语“运动矢量”也可以被称为“块矢量”,其中参考图片被设置为当前图片。
a)在一个示例中,参考样点属于参考块,该参考块在当前图片中并且具有与当前块相同的宽度和高度。参考样点的位置可以被计算为其对应样点的位置加上运动矢量。
b)在一个示例中,参考亮度样点的位置可以通过将当前亮度块的左上角(或中心,或右下角)样点的位置加上运动矢量来推导。
c)可替换地,参考亮度样点的位置可以通过将当前亮度块的左上角(或中心,或右下角)样点的位置加上当前块的块矢量来推导。
d)可替换地,在当前亮度块的参考区域中的一些预定义位置处的多个对应亮度样点可以被选取以计算色度残差缩放因子。
e)在一个示例中,可以用函数来计算多个对应亮度样点,以推导色度残差缩放因子。
i.例如,可以计算多个对应亮度样点的中值或平均值,以推导色度残差缩放因子。
f)在一个示例中,参考样点的强度可以在被用于推导色度残差缩放因子之前被转换到整形域。
i.可替换地,参考样点的强度可以在被用于推导色度残差缩放因子之前被转换到原始域。
8.提议位于当前帧中的当前亮度块的(多个)识别定位处的一个或多个预测/重构样点可以用于在LMCS模式中推导当前色度块的色度残差缩放因子。
a)在一个示例中,如果当前块是帧间编解码的,则位于当前亮度块中心的亮度预测(或重构)样点可以被选取以推导色度残差缩放因子。
b)在一个示例中,第一M×N亮度预测(或重构)样点的平均值可以被选取以推导色度残差缩放因子,其中M×N可以小于并置亮度块尺寸“宽度×高度”。
9.提议用于计算CCLM模型的整个或部分过程可以用于在LMCS模式中推导当前色度块的色度残差缩放因子。
a)在一个示例中,在CCLM模型参数推导过程中位于并置亮度块的临近亮度样点的识别定位的参考样点可以被用来推导色度残差缩放因子。
i.在一个示例中,可以直接使用那些参考样点。
ii.可替换地,可以对那些参考样点应用下采样,并且可以应用被下采样的参考样点。
b)在一个示例中,为CCLM的模型计算选择的S个参考样点中的K个可以用于LMCS模式中的色度残差缩放因子推导。例如,K等于1,并且S等于4。
c)在一个示例中,在CCLM模式中并置亮度块的参考样点的平均/最小/最大值可以用于LMCS模式中的色度残差缩放因子推导。
10.如何选择用于推导色度残差缩放因子的样点可以取决于当前块的编解码信息。
a)编解码信息可以包括QP、编解码模式、POC、帧内预测模式、运动信息等。
b)在一个示例中,对于IBC编解码的或非IBC编解码的块,选择样点的方式可以不同。
c)在一个示例中,基于参考图片信息(诸如参考图片和当前图片之间的POC距离),选择样点的方式可以不同。
11.提议色度残差缩放因子和/或CCLM的模型计算可以取决于覆盖并置亮度块的左上角样点的对应亮度块的临近样点。
a)“对应亮度编解码块”可以被定义为覆盖并置亮度编解码块的左上角位置的编解码块。
i.图5示出了一个示例,其中对于双树情况下的帧内编解码色度块,色度分量的CTU分割可以不同于亮度分量的CTU分割。首先,检索覆盖当前色度块的并置亮度块的左上角样点的“对应亮度编解码块”。然后,通过使用“对应亮度编解码块”的块尺寸信息,可以推导“对应亮度编解码块”的左上角样点,覆盖并置亮度块的左上角样点的“对应亮度编解码块”的左上角亮度样点位于(x=32,y=16)。
b)在一个示例中,不在“对应亮度编解码块”中的重构样点可以用于推导色度残差缩放因子和/或CCLM的模型计算。
i.在一个示例中,与“对应亮度编解码块”相邻的重构样点可以用于推导色度残差缩放因子和/或CCLM的模型计算。
1)在一个示例中,位于“对应亮度编解码块”的左侧临近列和/或上方临近行的N个样点可以用于推导色度残差缩放因子和/或CCLM的模型计算,其中N=1…2W+2H,W和H是“对应亮度编解码块”的宽度和高度。
a)假设“对应亮度编解码块”的左上角样点是(xCb,yCb),那么在一个示例中,上方临近亮度样点可以位于(xCb+W/2,yCb-1)或(xCb-1,yCb-1)。在替代示例中,左侧临近亮度样点可以位于(xCb+W-1,yCb-1)。
b)在一个示例中,(多个)临近样点的(多个)定位可以是固定的,和/或按照预定义的检查次序。
2)在一个示例中,可以选择N个临近样点中的1个来推导色度残差缩放因子和/或CCLM的模型计算。假设N=3,并且三个临近样点的检查次序为(xCb-1,yCb-H-1)、(xCb+W/2,yCb-1)、(xCb-1,yCb-1),则可以选择检查列表中的第一可用的临近样点来推导色度残差缩放因子。
3)在一个示例中,位于“对应亮度编解码块”的左侧临近列和/或上方临近行的N个样点的中值或平均值可以用于推导色度残差缩放因子和/或CCLM的模型计算,其中N=1…2W+2H,W和H是“对应亮度编解码块”的宽度和高度。
c)在一个示例中,是否执行色度残差缩放可以取决于对应亮度块的“可用的”临近样点。
i.在一个示例中,临近样点的“可用性”可以取决于当前块/子块的编码模式或/和临近样点的编码模式。
1)在一个示例中,对于以帧间模式编解码的块,以帧内模式或/和IBC模式或/和CIIP模式或/和LIC模式编解码的临近样点可以被认为是“不可用的”。
2)在一个示例中,对于以帧间模式编解码的块,采用扩散滤波器或/和双边滤波器或/和Hadamard变换滤波器的临近样点可以被认为是“不可用的”。
ii.在一个示例中,临近样点的“可用性”可以取决于当前图片/片/片组/VPDU/条带的宽度和/或高度。
1)在一个示例中,如果临近块位于当前图片之外,则它被视为是“不可用的”。
iii.在一个示例中,当没有“可用的”临近样点时,可以不允许色度残差缩放。
iv.在一个示例中,当“可用的”临近样点的数量小于K(K>=1)时,可以不允许色度残差缩放。
v.可替换地,可以用默认的固定值来填充、或填补、或替换不可用的临近样点,从而可以始终应用色度残差缩放。
1)在一个示例中,如果临近样点不可用,则可以用1<<(bitDepth-1)来填充它,其中bitDepth规定亮度/色度分量的样点的比特深度。
2)可替换地,如果临近样点不可用,则可以通过从位于左/右/上/下邻域的周围样点进行填补来填充它。
3)可替换地,如果临近样点不可用,则它可以以预定义的检查次序被第一可用的相邻样点替代。
d.在一个示例中,与“对应亮度编解码块”临近的被滤波/映射的重构样点可以用于推导色度残差缩放因子和/或CCLM的模型计算。
i.在一个示例中,滤波/映射过程可以包括帧内块的参考平滑滤波、诸如双边滤波的后滤波、基于Hadamard变换的滤波、整形域的正映射等。
对是否应用色度残差缩放和/或CCLM的限制
12.提议是否应用色度残差缩放或CCLM取决于对应亮度块和/或并置亮度块的分割。
a)在一个示例中,是否启用或禁用具有跨分量信息的工具可以取决于并置亮度(例如,Y或G分量)块内的CU/PU/TU的数量。
i.在一个示例中,如果并置亮度(例如,Y或G分量)块内的CU/PU/TU的数量超过数量阈值,则可以禁用这样的工具。
ii.可替换地,是否启用或禁用具有跨分量信息的工具可以取决于分割树深度。
1)在一个示例中,如果并置亮度块内的CU的最大(或最小或平均或其他变型)四叉树深度超过阈值,则可以禁用这样的工具。
2)在一个示例中,如果并置亮度块内的CU的最大(或最小或平均或其他变型)BT和/或TT深度超过阈值,则可以禁用这样的工具。
iii.可替换地,此外,是否启用或禁用具有跨分量信息的工具可以取决于色度块的块维度。
iv.可替换地,此外,是否启用或禁用具有跨分量信息的工具可以取决于并置亮度是否跨越多个VPDU/预定义区域尺寸。
v.上述讨论中的阈值可以是固定的数字,或者可以被发信号通知,或者可以取决于标准简档/级别/层级。
b)在一个示例中,如果当前色度块的并置亮度块被多个分区切分(例如,在图7中),则可以禁止色度残差缩放和/或CCLM。
i.可替换地,如果当前色度块的并置亮度块没有被划分(例如,在一个CU/TU/PU内),则可以应用色度残差缩放和/或CCLM。
c)在一个示例中,如果当前色度块的并置亮度块包含多于M个CU/PU/TU,则可以禁止色度残差缩放和/或CCLM。
i.在一个示例中,M可以是大于1的整数。
ii.在一个示例中,M可以取决于它是CCLM还是色度残差缩放过程。
iii.M可以是固定的数字,或者可以被发信号通知,或者可以取决于标准简档/级别/层级。
d)并置亮度块内的上述CU可以被解释为并置亮度块内的所有CU。可替换地,并置亮度块内的CU可以被解释为并置亮度块内的部分CU,诸如沿着并置亮度块的边界的CU。
e)并置亮度块内的上述CU可以被解释为子CU或子块。
i.例如,子CU或子块可以在ATMVP中使用;
ii.例如,子CU或子块可以在仿射预测中使用;
iii.例如,子CU或子块可以在帧内子分割(Intra Sub-Partition,ISP)模式下使用。
f)在一个示例中,如果覆盖并置亮度块的左上角亮度样点的CU/PU/TU大于预定义的亮度块尺寸,则可以禁止色度残差缩放和/或CCLM。
i.图8中描绘了一个示例,并置亮度块是32×32,但是它在尺寸等于64×64的对应亮度块内,那么如果预定义的亮度块尺寸是32×64,则在这种情况下禁止色度残差缩放和/或CCLM。
ii.可替换地,如果当前色度块的并置亮度块没有被划分,并且覆盖并置亮度块的左上角亮度样点的对应亮度块被完全包括在预定义的边界框内,则可以对当前色度块应用色度残差缩放和/或CCLM。边界框可以被定义为宽度为W、高度为H的矩形,用W×H表示,如图9所示,其中对应亮度块的宽度为32且高度为64,并且边界框的宽度为40且高度为70。
1)在一个示例中,边界框的尺寸W×H可以根据CTU宽度和/或高度,或者根据CU宽度和/或高度,或者根据任意值来定义。
g)在一个示例中,如果当前色度块的并置亮度块被多个分区切分,则只有并置亮度块的预定义分区内的预测样点(或重构样点)被用于在LMCS模式中推导色度残差缩放因子。
i.在一个示例中,并置亮度块的第一分区中的所有预测样点(或重构样点)的平均值被用于在LMCS模式中推导色度残差缩放因子。
ii.可替换地,并置亮度块的第一分区中的左上角预测样点(或重构样点)被用于在LMCS模式中推导色度残差缩放因子。
iii.可替换地,并置亮度块的第一分区中的中心预测样点(或重构样点)被用于在LMCS模式中推导色度残差缩放因子。
h)提议是否以及如何应用诸如CCLM和LMCS的跨分量工具可以取决于覆盖并置亮度块的至少一个样点的一个或多个亮度CU的(多个)编解码模式。
i.例如,如果用仿射模式对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
ii.例如,如果用双向预测对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
iii.例如,如果用BDOF对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
iv.例如,如果用DMVR对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
v.例如,如果用JVET-N0217中提议的矩阵仿射预测模式对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
vi.例如,如果用帧间模式对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
vii.例如,如果用ISP模式对覆盖并置亮度块的至少一个样点的一个或多个亮度CU进行编解码,则跨分量工具被禁用;
viii.在一个示例中,“覆盖并置亮度块的至少一个样点的一个或多个亮度CU”可以指对应亮度块。
i)当CCLM/LMCS被禁用时,可以跳过发信号通知CCLM/LMCS的使用指示。
j)在本公开中,CCLM可以指CCLM的任何变体模式,包括LM模式、LM-T模式和LM-L模式。
13.提议可以基于色度块的一部分执行是否以及如何应用诸如CCLM和LMCS的跨分量工具。
a)在一个示例中,在色度子块级别执行是否以及如何应用诸如CCLM和LMCS的跨分量工具。
i.在一个示例中,色度子块被定义为色度CU中的2×2或4×4块。
ii.在一个示例中,对于色度子块,当当前色度CU的对应亮度编解码块覆盖子块的对应块的所有样点时,可以应用CCLM。
iii.在一个示例中,对于色度子块,当当前色度CU的对应亮度编解码块没有覆盖对应块的所有样点时,不应用CCLM。
iv.在一个示例中,CCLM或LMCS的参数是针对每个色度子块、将该子块视为色度CU而推导的。
v.在一个示例中,当CCLM或LMCS被应用于色度子块时,可以使用并置块的样点。
色度残差缩放在LMCS模式中的适用性
14.提议可以在除了以JVET-M1001中规定的片组报头之外的其他语法级别发信号通知是否可以应用亮度相关色度残差缩放。
a)例如,可以在序列级别(例如,在SPS中)、图片级别(例如,在PPS或图片报头中)、条带级别(例如,在条带报头中)、片级别、CTU行级别、CTU级别、CU级别发信号通知chroma_residual_scale_flag。chroma_residual_scale_flag等于1规定针对低于所发信号通知的语法级别的CU启用色度残差缩放。chroma_residual_scale_flag等于0规定针对低于所发信号通知的语法级别不启用色度残差缩放。当chroma_residual_scale_flag不存在时,它被推断为等于0。
b)在一个示例中,如果色度残差缩放被限制在分割节点级别,则对于被分割节点覆盖的CU,chroma_residual_scale_flag可以不被发信号通知并被推断为0。在一个示例中,分割节点可以是CTU(CTU被视为四叉树分割的根节点)。
c)在一个示例中,如果对于等于或小于32×32的色度块尺寸,色度残差缩放被约束,则对于等于或小于32×32的色度块尺寸,chroma_residual_scale_flag可以不会被发信号通知并被推断为0。
CCLM模式的适用性
15.提议可以在除了JVET-M1001中规定的sps级别之外的其他语法级别别发信号通知是否可以应用CCLM模式。
a)例如,它可以在图片级别(例如,在PPS或图片报头中)、条带级别(例如,在条带报头中)、片组级别(例如,在片组报头中)、片级别、CTU行级别、CTU级别、CU级别被发信号通知。
b)在一个示例中,如果不能应用CCLM,则cclm_flag可以不被发信号通知并推断为0。
i.在一个示例中,如果对于等于或小于8×8的色度块尺寸,色度残差缩放被约束,则对于等于或小于8×8的色度块尺寸,cclm_flag可以不被发信号通知并被推断为0。
帧内模式和帧间模式的色度残差缩放因子推导的统一
16.色度残差缩放因子可以在对亮度块进行编码/解码之后推导,并且可以被存储并用于后面的编解码块。
a)在一个示例中,亮度块中的某些预测样点或/和中间预测样点或/和重构样点或/和在环路滤波之前(例如,在由去方块滤波器或/和SAO滤波器或/和双边滤波器或/和Hadamard变换滤波器或/和ALF滤波器进行处理之前)的重构样点可以用于推导色度残差缩放因子。
i.例如,亮度块的底部行或/和右侧列中的部分样点可以用于推导色度残差缩放因子。
b)在单树的情况下,当对以帧内模式或/和IBC模式或/和帧间模式编解码的块进行编码时,所推导的临近块的色度残差缩放因子可以用于推导当前块的缩放因子。
i.在一个示例中,可以按次序检查某些临近块,并且第一可用的色度残差缩放因子可以用于当前块。
ii.在一个示例中,可以按次序检查某些临近块,并且可以基于前K个可用的临近色度残差缩放因子来推导缩放因子。
iii.在一个示例中,对于以帧间模式或/和CIIP模式编解码的块,如果临近块以帧内模式或/和IBC模式或/和CIIP模式编解码,则临近块的色度残差缩放因子可以被认为是“不可用的”。
iv.在一个示例中,可以按照左(或左上)->上(或右上)的次序检查临近块。
1)可替换地,可以按照上(或右上)->左(或左上)的次序检查临近块。
c)在分离的树的情况下,当对色度块进行编码时,可以首先识别对应的亮度块。然后,所推导的它的(例如,对应的亮度块的)临近块的色度残差缩放因子可以用于推导当前块的缩放因子。
i.在一个示例中,可以按次序检查某些临近块,并且第一可用的色度残差缩放因子可以用于当前块。
ii.在一个示例中,可以按次序检查某些临近块,并且可以基于前K个可用的临近色度残差缩放因子来推导缩放因子。
d)可以按预定的次序检查临近块。
i.在一个示例中,可以按照左(或左上)->上(或右上)的次序检查临近块。
ii.在一个示例中,可以按照上(或右上)->左(或左上)的次序检查临近块。
iii.在一个示例中,可以按照左下->左->右上->上->左上的次序检查临近块。
iv.在一个示例中,可以按照左->上->右上->左下->左上的次序检查临近块。
e)在一个示例中,是否应用色度残差缩放可以取决于临近块的“可用性”。
i.在一个示例中,当不存在“可用的”临近块时,可以不允许色度残差缩放。
ii.在一个示例中,当“可用的”临近块的数量小于K(K>=1)时,可以不允许色度残差缩放。
iii.可替换地,当不存在“可用的”临近块时,色度残差缩放因子可以由默认值推导。
1)在一个示例中,默认值1<<(BitDepth-1)可以用于推导色度残差缩放因子。
5.所公开技术的示例实施方式
图10是视频处理装置1000的框图。装置1000可以用于实施本文描述的一种或多种方法。装置1000可以体现在智能电话、平板电脑、计算机、物联网(IoT)接收器等中。装置1000可以包括一个或多个处理器1002、一个或多个存储器1004和视频处理硬件1006。(多个)处理器1002可以被配置为实施本文档中描述的一种或多种方法(包括但不限于方法800和900)。存储器(多个存储器)1004可以用于存储用于实施本文描述的方法和技术的数据和代码。视频处理硬件1006可以用于以硬件电路实施本文档中描述的一些技术。
在一些实施例中,视频编解码方法可以使用如参考图10所述的在硬件平台上实施的装置来实施。
图11示出了根据所公开的技术的用于跨分量预测的线性模型推导的示例方法1100的流程图。方法1100包括,在步骤1110,执行当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,根据包括在一个或多个参考帧中的第一组颜色分量值来推导当前视频块的第二组颜色分量值,其中第一组颜色分量值可用于视频编解码步骤的线性模型。
可以使用以下基于条款的格式来描述一些实施例。
1.一种用于视频处理的方法,包括:
执行当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,根据包括在一个或多个参考帧中的第一组颜色分量值来推导当前视频块的第二组颜色分量值,其中第一组颜色分量值可用于视频编解码步骤的线性模型。
2.根据条款1所述的方法,其中,在第一组颜色分量值用于视频编解码步骤的线性模型之前,对第一组颜色分量值进行插值。
3.根据条款1-2中任一项或多项所述的方法,其中,第一组颜色分量值的线性组合可用作线性模型中的参数。
4.根据条款1所述的方法,其中,至少部分基于当前视频块的运动信息来选择包括在一个或多个参考帧中的第一组颜色分量值的定位。
5.根据条款4所述的方法,其中,根据当前视频块中对应亮度分量值的位置和当前视频块的运动信息,计算一个或多个参考帧中的亮度分量值的位置。
6.根据条款5所述的方法,其中,对应亮度分量值的位置是当前视频块中的左上角样点、中心样点或右下角样点。
7.根据条款6所述的方法,其中,当前视频块的运动信息对应于整数运动矢量或分数运动矢量。
8.根据条款7所述的方法,其中,分数运动矢量使用一个或多个参考帧中的分数亮度分量值来推导。
9.根据条款7所述的方法,其中,整数运动矢量通过向零取整或远离零取整来推导。
10.根据条款1所述的方法,其中,包括在一个或多个参考帧中的第一组颜色分量值的定位是预定义的位置。
11.根据条款1-10中任一项或多项所述的方法,其中,使用第一组颜色分量值的中值或平均值来推导当前视频块的第二组颜色分量值。
12.根据条款1-11中任一项或多项所述的方法,其中,一个或多个参考帧是预定义的参考帧。
13.根据条款12所述的方法,其中,预定义的参考帧包括具有参考图片列表的参考索引的帧。
14.根据条款13所述的方法,其中,参考索引为零,并且参考图片列表为零。
15.根据条款13所述的方法,其中,在与以下各项中的一个或多个相关联的比特流表示中发信号通知参考索引和/或参考图片列表:序列、图片、片、组、条带、片、编解码树单元行、或视频块。
16.根据条款1所述的方法,其中,根据一个或多个参考帧中包括的第一组颜色分量值的数学均值或加权平均值来推导当前视频块的第二组颜色分量值。
17.根据条款1所述的方法,其中基于当前视频块是否为双向预测编解码块,根据包括在一个或多个参考帧中的第一组颜色分量值选择性地推导当前视频块的第二组颜色分量值。
18.根据条款17所述的方法,其中,针对第一组颜色分量值的每个预测方向单独地推导当前视频块的第二组颜色分量值。
19.根据条款1所述的方法,其中,基于当前视频块是否与基于子块的预测相关联,根据包括在一个或多个参考帧中的第一组颜色分量值选择性地推导当前视频块的第二组颜色分量值。
20.根据条款1所述的方法,其中,基于子块的预测对应于仿射预测或可选时域运动矢量预测(ATMVP)。
21.根据条款19-20中任一项或多项所述的方法,其中,针对各个子块推导当前视频块的第二组颜色分量值。
22.根据条款19-21中任一项或多项所述的方法,其中,针对整个当前视频块推导当前视频块的第二组颜色分量值,而不考虑基于子块的预测。
23.根据条款19-22中任一项或多项所述的方法,其中,至少部分基于当前视频块的子块的运动矢量来选择包括在一个或多个参考帧中的第一组颜色分量值。
24.根据条款1-23中任一项或多项所述的方法,其中,包括在一个或多个参考帧中的第一组颜色分量值是中间颜色分量值。
25.根据条款1-24中任一项或多项所述的方法,其中,视频编解码步骤在另一视频编解码步骤之前。
26.根据根据条款25所述的方法,其中,至少部分基于当前视频块或当前视频块的子块的中间运动矢量来选择包括在一个或多个参考帧中的第一组颜色分量值,并且其中在另一视频编解码步骤之前计算中间运动矢量。
27.根据条款24-26中任一项或多项所述的方法,其中,另一视频编解码步骤包括下面步骤中的一个或组合:双向光流(BDOF)步骤、解码器侧运动矢量细化(DMVR)步骤、预测细化光流(PROF)步骤。
28.根据条款1-27中任一项或多项所述的方法,其中,包括在一个或多个参考帧中的第一组颜色分量值对应于与对应亮度块相关联的M×N亮度分量值。
29.根据条款28所述的方法,其中,对应亮度块是当前视频块的并置亮度块。
30.根据条款29所述的方法,其中,M和N的乘积小于当前视频块的并置亮度块的块宽度和块高度的乘积。
31.根据条款27-30中任一项或多项所述的方法,其中,包括在一个或多个参考帧中的第一组颜色分量值对应于在并置亮度块的临近亮度样点的位置处识别的参考样点的至少一部分。
32.根据条款1-31中任一项或多项所述的方法,其中,在第一组颜色分量用于视频编解码步骤的线性模型之前,对第一组颜色分量值进行下采样。
33.根据条款1所述的方法,其中,至少部分基于当前视频块的以下信息中的一个或多个来选择当前视频块的第二组颜色分量值:量化参数、编解码模式或图片次序计数(POC)。
34.根据条款31所述的方法,其中,临近亮度样点的位置使得并置亮度块的左上角样点被覆盖。
35.根据条款28所述的方法,其中,包括在一个或多个参考帧中的第一组颜色分量值对应于在对应亮度块外部的位置处识别的参考样点的至少一部分。
36.根据条款28所述的方法,其中,基于对应亮度块的临近样点的可用性,根据包括在一个或多个参考帧中的第一组颜色分量值选择性地推导当前视频块的第二组颜色分量值。
37.根据条款28所述的方法,其中,对应亮度块的临近样点的可用性基于以下各项中的一个或多个:当前视频块的编解码模式的使用、对应亮度块的临近样点的编解码模式的使用、与对应亮度块的临近样点相关联的滤波器的类型的使用、或对应亮度块的临近样点相对于当前视频块或其子块的定位。
38.根据条款28所述的方法,还包括:
响应于缺少对应亮度块的临近样点的可用性,用其他样点替换、填充或填补不可用样点。
39.根据条款28所述的方法,还包括:
对与对应亮度块临近的样点应用平滑滤波器。
40.一种用于视频处理的方法,包括:
执行当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,根据包括在一个或多个参考帧中的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中第一组颜色分量值可用于视频编解码步骤的线性模型;以及
响应于确定包括在一个或多个参考帧中的第一组颜色分量值是当前视频块的并置亮度块,基于与当前视频块的并置亮度块相关联的一个或多个条件,选择性地启用或禁用当前视频块的第二组颜色分量值的推导。
41.根据条款40所述的方法,其中,与当前视频块的并置亮度块相关联的一个或多个条件包括:并置亮度块的分区尺寸,并置亮度块的编解码单元的数量达到阈值数量,并置亮度块的左上角亮度样点达到阈值尺寸,并置亮度块或者覆盖并置亮度块的左上角亮度样点的对应亮度块或者覆盖并置亮度块的左上角亮度样点并另外包括在预定义尺寸的边界框内的对应亮度块的分割树深度。
42.根据条款40所述的方法,其中,指示选择性地启用或禁用推导的信息被包括在比特流表示中。
43.根据条款28所述的方法,其中,对应亮度块的临近样点的可用性与根据预定义次序检查临近样点相关联。
44.根据条款1-43中任一项或多项所述的方法,其中,存储当前视频块的第二组颜色分量值以用于与一个或多个其他视频块结合使用。
45.根据条款1-44中任一项或多项所述的方法,其中,线性模型对应于跨分量线性模型(CCLM),并且视频编解码步骤对应于带有色度缩放的亮度映射(LMCS)模式。
46.根据条款1-45中任一项或多项所述的方法,其中,当前视频块是帧间编解码块、双向预测编解码块或帧内块复制(IBC)编解码块。
47.根据条款1-46中任一项或多项所述的方法,其中,第一组颜色分量值对应于亮度样点值,并且第二组颜色分量值对应于色度缩放因子。
48.一种视频系统中的装置,包括处理器和其上具有指令的非暂时性存储器,其中该指令在由处理器执行时,使得处理器实施根据条款1至47中任一项所述的方法。
49.一种存储在非暂时性计算机可读介质上的计算机程序产品,该计算机程序产品包括用于执行条款1至47中任一项所述的方法的程序代码。
图12是示出其中可以实施本文公开的各种技术的示例视频处理系统1200的框图。各种实施方式可以包括系统1200的一些或全部组件。系统1200可以包括用于接收视频内容的输入端1202。视频内容可以以原始或未压缩格式(例如8或10比特多分量像素值)接收,或者可以以压缩或编码格式接收。输入端1202可以代表网络接口、外围总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(passive optical network,PON)等的有线接口和诸如Wi-Fi或蜂窝接口的无线接口。
系统1200可以包括编解码组件1204,其可以实施本文档中描述的各种编解码或编码方法。编解码组件1204可以降低从输入端1202到编解码组件1204的输出的视频的平均比特率,以产生视频的编解码表示。因此,编解码技术有时被称为视频压缩或视频转码技术。编解码组件1204的输出可以被存储,或者经由连接的通信来传输,如组件1206所表示的。组件1208可以使用在输入端1202处接收的所存储或传达的视频的比特流(或编解码)表示来生成被发送到显示接口1210的像素值或可显示视频。从比特流表示生成用户可观看的视频的过程有时被称为视频解压缩。此外,虽然某些视频处理操作被称为“编解码”操作或工具,但是应当理解,编解码工具或操作在编码器处使用,并且将编解码结果反转的对应的解码工具或操作将由解码器来执行。
外围总线接口或显示接口的示例可以包括通用串行总线(USB)或高清多媒体接口(HDMI)或显示端口等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等。本文档中描述的技术可以体现在各种电子设备中,诸如移动电话、膝上型电脑、智能手机或能够执行数字数据处理和/或视频显示的其他设备。
图13示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例7d和7e8进行了讨论。在步骤1302,该过程执行可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换,其中,在转换期间,基于缩放系数来缩放当前色度视频块的色度残差,其中至少基于位于预定义位置的亮度样点来推导缩放系数。
图14示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例1进行了讨论。在步骤1402,该过程执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,使用跨分量线性模型(CCLM)和/或带有色度缩放的亮度映射(LMCS)模式处理步骤,根据可视媒体数据的第一组颜色分量值来推导当前视频块的第二组颜色分量值。
图15示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例7进行了讨论。在步骤1502,该过程执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,与可视媒体数据的当前帧相关联的一个或多个重构样点被用于在带有色度缩放的亮度映射(LMCS)模式处理步骤中推导色度残差缩放因子。
图16示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例8进行了讨论。在步骤1602,该过程执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,不同于参考帧的当前帧中的一个或多个亮度预测样点或亮度重构样点被用于在带有色度缩放的亮度映射(LMCS)模式处理步骤中推导色度残差缩放因子。
图17示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例11a、11b、11c和11d进行了讨论。在步骤1702,该过程在当前色度视频块和当前色度视频块的比特流表示之间的转换期间,检查覆盖并置亮度块的左上角样点的对应亮度块的一个或多个临近亮度块的可用性。在步骤1704,该过程基于一个或多个临近亮度块的可用性,确定是否检索对应亮度块的临近亮度样点。在步骤1706,该过程基于该确定来推导缩放系数。在步骤1708,该过程基于缩放系数来缩放当前色度视频块的色度残差,以生成缩放的色度残差。在步骤1710,该过程基于缩放的色度残差来执行转换。
图18示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例11进行了讨论。在步骤1802,该过程在可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换期间,使用与处理步骤相关联的模型根据可视媒体数据的第一组颜色分量值推导当前视频块的第二组颜色分量值,其中第一组颜色分量值是覆盖并置亮度块的左上角样点的对应亮度块的临近样点。
图19示出了用于可视媒体处理的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例12进行了讨论。在步骤1902,该过程在可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换期间,至少部分基于与当前色度视频块的并置亮度块相关联的一个或多个条件,做出选择性地启用或禁用对当前色度视频块应用跨分量线性模型(CCLM)和/或色度残差缩放(CRS)的确定。
图20示出了用于可视媒体编码的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例14进行了讨论。在步骤2002,该过程选择性地启用或禁用对可视媒体数据的当前视频块的色度分量应用亮度相关色度残差缩放(CRS),以将可视媒体数据的视频区域中的当前视频块编码成可视媒体数据的比特流表示。在步骤2004,该过程做出在可视媒体数据的比特流表示中包括或排除字段的确定,其中该字段指示选择性地启用或禁用,并且如果该字段被包括,则该字段被发信号通知,而不是处于与当前视频块相关联的第一语法级别。
图21示出了用于可视媒体解码的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例14进行了讨论。在步骤2102,该过程解析可视媒体数据的比特流表示中的字段,其中该字段被包括在不同于与当前视频块相关联的第一语法级别的级别中。在步骤2104,该过程基于该字段选择性地启用或禁用对可视媒体数据的当前视频块的色度分量应用亮度相关色度残差缩放(CRS),以从比特流表示生成解码的视频区域。
图22示出了用于可视媒体编码的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例15进行了讨论。在步骤2202,该过程选择性地启用或禁用对可视媒体数据的当前视频块应用跨分量线性模型(CCLM),以将当前视频块编码成可视媒体数据的比特流表示。在步骤2204,该过程做出在可视媒体数据的比特流表示中包括或排除字段的确定,其中该字段指示选择性地启用或禁用,并且如果该字段被包括,则该字段被发信号通知,而不是处于与当前视频块相关联的第一语法级别。
图23示出了用于可视媒体解码的示例方法的流程图。该流程图的步骤在本文档的第4节中结合示例实施例15进行了讨论。在步骤2302,该过程解析可视媒体数据的比特流表示中的字段,其中该字段被包括在不同于与当前视频块相关联的第一语法级别的级别中。在步骤2304,该过程基于该字段选择性地启用或禁用对可视媒体数据的当前视频块应用跨分量线性模型(CCLM),以从比特流表示生成解码的视频区域。
本文档中讨论的一些实施例现在以基于条款的格式呈现。
X1.一种用于可视媒体处理的方法,包括:
执行可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换,其中,在转换期间,基于缩放系数来缩放当前色度视频块的色度残差,其中至少基于位于预定义位置的亮度样点来推导缩放系数。
X2.根据条款X1所述的方法,其中,使用应用于预定义位置中的亮度样点的函数来计算缩放系数。
X3.根据条款X1所述的方法,其中,该函数是中值函数或基于取整的平均值函数。
X4.根据条款X1所述的方法,其中,基于对应于当前色度视频块的并置亮度块来确定预定义位置。
A1.一种用于可视媒体处理的方法,包括:
执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,使用跨分量线性模型(CCLM)和/或带有色度缩放的亮度映射(LMCS)模式处理步骤,根据可视媒体数据的第一组颜色分量值中推导当前视频块的第二组颜色分量值。
A2.根据条款A1所述的方法,其中,第一组颜色分量值是当前视频块的参考样点,并且第二组颜色分量值是LMCS模式中的色度残差缩放因子。
A3.根据条款A2所述的方法,其中,参考样点是在推导色度残差缩放因子之前被插值的参考亮度样点。
A4.根据条款A1所述的方法,其中,第一组颜色分量值是包括在不同参考帧中的参考样点。
A5.根据条款A1-A4中任一项或多项所述的方法,其中,根据当前视频块中对应亮度分量值的位置和当前视频块的运动信息来计算参考样点的位置。
A6.根据条款A5所述的方法,其中,该对应亮度分量值的位置是当前视频块中的左上角样点、中心样点或右下角样点。
A7.根据条款A6所述的方法,其中,当前视频块的运动信息对应于整数运动矢量或分数运动矢量。
A8.根据条款A7所述的方法,其中,使用参考帧中的分数亮度分量值来推导分数运动矢量。
A9.根据条款A7所述的方法,其中,通过向零取整或远离零取整来推导整数运动矢量。
A10.根据条款A1-A2中任一项或多项所述的方法,其中,第一组颜色分量值被包括在可视媒体数据的预定义参考帧中。
A11.根据条款A1-A10中任一项或多项所述的方法,其中,使用第一组颜色分量值的中值或平均值来推导当前视频块的第二组颜色分量值。
A12.根据条款A10所述的方法,其中,预定义的参考帧包括具有参考图片列表的参考索引的帧。
A13.根据条款A12所述的方法,其中,参考索引为零,并且参考图片列表为零。
A14.根据条款A1-A2中任一项或多项所述的方法,其中,第一组颜色分量值被包括在可视媒体数据的多个参考帧中,并且第一组颜色分量值的加权组合被用于推导第二组颜色分量值。
A15.根据条款A13所述的方法,其中,参考索引和/或参考图片列表作为与以下各项中的一个或多个相关联的比特流表示中的字段而被发信号通知:序列、图片组、图片、片、片组、条带、子图片、编解码树单元行、编解码树单元、虚拟流水线数据单元(virtualpipeline data unit,VPDU)或视频块。
A16.根据条款A1所述的方法,其中,基于当前视频块是否为双向预测编解码块,根据第一组颜色分量值选择性地推导当前视频块的第二组颜色分量值。
A17.根据条款A16所述的方法,其中,针对与第一组颜色分量值相关联的每个预测方向,单独地推导当前视频块的第二组颜色分量值。
A18.根据条款A1所述的方法,其中,基于当前视频块是否与基于子块的预测相关联,根据第一组颜色分量值选择性地推导当前视频块的第二组颜色分量值。
A19.根据条款A18所述的方法,其中,基于子块的预测对应于仿射预测或可选时域运动矢量预测(ATMVP)。
A20.根据条款A18-A19中任一项或多项所述的方法,其中,针对各个子块推导当前视频块的第二组颜色分量值。
A21.根据条款A18-A19中任一项或多项所述的方法,其中,针对整个当前视频块推导当前视频块的第二组颜色分量值,而不考虑基于子块的预测。
A22.根据条款A18-A21中任一项或多项所述的方法,其中,至少部分基于当前视频块的子块的运动矢量来选择第一组颜色分量值。
A23.根据条款A18-A21中任一项或多项所述的方法,其中,与当前视频块的子块相关联的运动矢量被用于选择第一组颜色分量值。
A24.根据条款A1-A23中任一项或多项所述的方法,其中,第一组颜色分量值是中间颜色分量值。
A25.根据条款A1-A24中任一项或多项所述的方法,其中,LMCS模式处理步骤在另一后续处理步骤之前。
A26.根据条款A25所述的方法,其中,至少部分基于当前视频块或当前视频块的子块的中间运动矢量来选择第一组颜色分量值,并且其中在另一视频编解码步骤之前计算中间运动矢量。
A27.根据条款A26所述的方法,其中,另一处理步骤包括以下步骤中的一个或其组合:双向光流(BDOF)步骤、解码器侧运动矢量细化(DMVR)步骤、预测细化光流(PROF)步骤。
A28.一种用于可视媒体处理的方法,包括:
执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,与可视媒体数据的当前帧相关联的一个或多个重构样点被用于在带有色度缩放的亮度映射(LMCS)模式处理步骤中推导色度残差缩放因子。
A29.根据条款A28所述的方法,其中,当前视频块是帧内块复制(IBC)编解码的。
A30.根据条款A28所述的方法,其中,该一个或多个重构样点是与当前帧相关联的参考块中的参考样点。
A31.根据条款A28所述的方法,其中,该一个或多个重构样点的定位是预先定义的。
A32.根据条款A31所述的方法,其中,该一个或多个重构样点是位于与覆盖当前视频块的对应亮度块的块相邻的上方行和左侧列的重构亮度样点。
A33.根据条款A28所述的方法,其中,该一个或多个重构样点的定位基于当前视频块的对应亮度块的位置和当前视频块的运动信息。
A34.一种用于可视媒体处理的方法,包括:
执行可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换,其中,在转换期间,不同于参考帧的当前帧中的一个或多个亮度预测样点或亮度重构样点被用于在带有色度缩放的亮度映射(LMCS)模式处理步骤中推导色度残差缩放因子。
A35.根据条款A34中任一项所述的方法,其中,一个或多个亮度预测样点或亮度重构样点位于覆盖对应亮度块的M×N亮度块的临近区域中。
A36.根据条款A35所述的方法,其中,该对应亮度块是当前视频块的并置亮度块。
A37.根据条款A36所述的方法,其中,M和N的乘积小于当前视频块的并置亮度块的块宽度和块高度的乘积。
A38.根据条款A36所述的方法,其中,M和N是覆盖当前视频块的并置亮度块的视频块的预定义宽度和预定义高度。
A39.根据条款A36所述的方法,其中,M和N是覆盖当前视频块的并置亮度块的虚拟流水线数据单元(VPDU)的宽度和高度。
A40.根据条款A1-A39中任一项或多项所述的方法,其中,在转换期间,参考样点在被用于推导之前被直接使用或下采样。
A41.根据条款A1-A40中任一项或多项所述的方法,其中,至少部分基于当前视频块的以下信息中的一个或多个来选择用于推导色度残差缩放因子的样点:量化参数、编解码模式或图片次序计数(POC)。
A42.根据条款A1-A41中任一项或多项所述的方法,其中,当前视频块是帧间编解码块、帧内编解码块、双向预测编解码块或帧内块复制(IBC)编解码块。
A43.根据条款A1-A42中任一项或多项所述的方法,其中,第一组颜色分量值对应于亮度样点值,并且第二组颜色分量值对应于当前视频块的色度缩放因子。
A44.根据条款A1-A43中任一项或多项所述的方法,其中,转换包括从当前视频块生成比特流表示。
A45.根据条款A1-A43中任一项或多项所述的方法,其中,转换包括从比特流表示生成当前视频块的像素值。
A46.一种包括处理器的视频编码器装置,该处理器被配置为实施条款A1-A45中任一项或多项所述的方法。
A47.一种包括处理器的视频解码器装置,该处理器被配置为实施条款A1-A45中任一项或多项所述的方法。
A48.一种其上存储有代码的计算机可读介质,该代码包含用于实施条款A1-A38中任一项或多项所述的方法的处理器可执行指令。
Y1.一种用于可视媒体处理的方法,包括:
在当前色度视频块和当前色度视频块的比特流表示之间的转换期间,检查覆盖并置亮度块的左上角样点的对应亮度块的一个或多个临近亮度块的可用性;
基于一个或多个临近亮度块的可用性,确定是否检索对应亮度块的临近亮度样点;
基于该确定来推导缩放系数;
基于缩放系数来缩放当前色度视频块的色度残差,以生成缩放的色度残差;以及
基于缩放的色度残差来执行转换。
Y2.根据条款Y1所述的方法,其中,该一个或多个临近亮度块包括左侧临近亮度块和上方临近亮度块。
Y3.根据条款Y1所述的方法,其中,临近亮度样点包括对应亮度块的一个或多个左侧临近样点列和/或一个或多个上方临近样点行。
Y4.根据条款Y1或Y3中任一项或多项所述的方法,其中,在该一个或多个临近亮度块可用的情况下,检索临近亮度样点并且基于取整对其进行平均以推导缩放系数。
Y5.根据条款Y1或Y3所述的方法,其中,在该一个或多个临近亮度块可用的情况下,检索临近亮度样点并且使用临近亮度样点的中值来推导缩放系数。
Y6.根据条款Y3所述的方法,其中,临近亮度样点的数量为N,其中1<=N<=2W+2H,W和H是对应亮度块的宽度和高度。
Y7.根据条款Y1或Y2所述的方法,其中,基于当前图片、片、片组、虚拟流水线数据单元(VPDU)或条带的宽度和/或高度来确定该一个或多个临近亮度块的可用性。
Y8.根据条款Y7所述的方法,其中,在该一个或多个临近块位于不同图片、不同片、不同片组、不同VPDU或不同条带中的情况下,该一个或多个临近亮度块不可用。
Y9.根据条款Y1所述的方法,其中,在该一个或多个临近亮度块不可用的情况下,从检索中跳过对应临近亮度样点。
Y10.根据条款Y9所述的方法,其中,在从检索中跳过对应临近亮度样点的情况下,推导缩放系数。
Y11.根据条款Y10所述的方法,其中,基于默认值推导缩放系数。
Y12.根据条款Y11所述的方法,其中,默认值是基于当前色度视频块和并置亮度块的比特深度的。
Y13.根据条款Y12所述的方法,其中,默认值被表示为1<<(bitDepth-1),其中bitDepth表示当前色度视频块和并置亮度块的比特深度。
Y14.根据条款Y1所述的方法,其中,基于正映射重构临近亮度样点。
B1.一种用于可视媒体处理的方法,包括:
在可视媒体数据的当前视频块和当前视频块的比特流表示之间的转换期间,使用与处理步骤相关联的模型根据可视媒体数据的第一组颜色分量值来推导当前视频块的第二组颜色分量值,其中第一组颜色分量值是覆盖并置亮度块的左上角样点的对应亮度块的临近样点。
B2.根据条款B1所述的方法,其中,当前视频块是以下各项之一:具有双树分割的帧内编解码视频块或具有单树分割的帧内编解码视频块或具有单树分割的帧间编解码视频块。
B3.根据条款B1-B2中任一项或多项所述的方法,其中,第一组颜色分量值对应于在对应亮度块外部的位置处识别的参考样点的至少一部分。
B4.根据条款B3所述的方法,其中,在对应亮度块外部的位置处识别的参考样点的该部分包括与对应亮度编解码块相邻的样点。
B5.根据条款B4所述的方法,其中,与对应亮度编解码块相邻的样点包括位于对应亮度编解码块的左侧临近列和/或上方临近行的N个样点,其中N=1…2W+2H,W和H是对应亮度编解码块的宽度和高度。
B6.根据条款B5所述的方法,其中,当并置亮度块的左上角样点位于(xCb,yCb)时,上方临近亮度样点位于(xCb+W/2,yCb-1)或(xCb-1,yCb-1)。
B7.根据条款B5所述的方法,其中,当并置亮度块的左上角样点位于(xCb,yCb)时,左侧临近亮度样点位于(xCb+W-1,yCb-1)。
B8.根据条款B4所述的方法,其中,在对应亮度块外部的位置处识别的参考样点的该部分位于预定义的位置处。
B9.根据条款B4所述的方法,其中,基于位于对应亮度编解码块的左侧临近列和/或上方临近行的N个样点的中值或算术平均值推导当前视频块的第二组颜色分量值。
B10.根据条款B1-B2中任一项或多项所述的方法,其中,基于对应亮度块的临近样点的可用性,根据第一组颜色分量值选择性地推导当前视频块的第二组颜色分量值。
B11.根据条款B10所述的方法,其中,对应亮度块的临近样点的可用性基于以下各项中的一个或多个:当前视频块的编解码模式的使用、对应亮度块的临近样点的编解码模式的使用、与对应亮度块的临近样点相关联的滤波器类型的使用、对应亮度块的临近样点相对于当前视频块或其子块的定位、当前图片/子图片/片/片组/VPDU/条带的宽度、和/或当前图片/子图片/片/片组/VPDU/条带/编解码树单元(CTU)行的高度。
B12.根据条款B10所述的方法,还包括:
响应于确定缺少对应亮度块的临近样点的可用性,用其他样点替换、填充或填补不可用样点。
B13.根据条款B12所述的方法,其中,缺少对应亮度块的临近样点的可用性至少部分基于确定当当前视频块的编解码模式是帧间模式时,临近样点的编解码模式是帧内模式和/或帧内块复制(IBC)模式和/或组合帧间帧内预测(combined inter-intraprediction,CIIP)模式和/或局部照明补偿(LIC)模式。
B14.根据条款B12所述的方法,其中,缺少对应亮度块的临近样点的可用性至少部分基于确定当当前视频块的编解码模式是帧间模式时,临近样点经受扩散滤波器和/或双边滤波器和/或Hadamard变换滤波器。
B15.根据条款B12所述的方法,其中,缺少对应亮度块的临近样点的可用性至少部分基于确定临近块位于与当前视频块相关联的当前图片/子图片/片/片组/VPDU/条带/编解码树单元(CTU)行之外。
B16.根据条款B12-B15中任一项或多项所述的方法,还包括:
响应于确定缺少对应亮度块的临近样点的可用性,禁用根据第一组颜色分量值推导当前视频块的第二组颜色分量值。
B17.根据条款B10所述的方法,还包括:
响应于确定可用临近样点的数量小于阈值,禁用根据第一组颜色分量值推导当前视频块的第二组颜色分量值。
B18.根据条款B17所述的方法,其中,阈值为1。
B19.根据条款B12所述的方法,其中,如果确定临近样点不可用,则临近样点由1<<(bitDepth-1)个样点填充,其中bitDepth表示第一组颜色分量值样点或第二组颜色分量值样点的比特深度。
B20.根据条款B12所述的方法,其中,如果确定临近样点不可用,则根据预定义的检查次序,由第一可用的相邻样点替换临近样点。
B21.根据条款B13所述的方法,其中,如果确定临近样点不可用,则使用以下各项中的一个或多个来填补临近样点:左侧临近样点、右侧临近样点、顶部临近样点或底部临近样点。
B22.根据条款B10所述的方法,还包括:
对与对应亮度块临近的样点应用平滑滤波器,该样点用于推导当前视频块的第二组颜色分量值。
B23.根据条款B22所述的方法,其中,平滑滤波器包括以下各项中的一个或多个:双边滤波器、基于Hadamard变换的滤波器或整形域的正映射。
B24.根据条款B1-B23中任一项或多项所述的方法,其中,存储当前视频块的第二组颜色分量值以供与一个或多个其他视频块结合使用。
B25.根据条款B1-B23中任一项或多项所述的方法,其中,模型对应于跨分量线性模型(CCLM),和/或处理步骤对应于带有色度缩放的亮度映射(LMCS)模式。
B26.根据条款B1-B23中任一项或多项所述的方法,其中,当前视频块是帧内编解码块、帧间编解码块、双向预测编解码块或帧内块复制(IBC)编解码块。
B27.根据条款B1-B23中任一项或多项所述的方法,其中,第一组颜色分量值对应于亮度样点值,并且第二组颜色分量值对应于当前视频块的色度缩放因子。
B28.根据条款B1-B23中任一项或多项所述的方法,其中,转换包括从当前视频块生成比特流表示。
B29.根据条款B1-B23中任一项或多项所述的方法,其中,转换包括从比特流表示生成当前视频块的像素值。
B30.一种包括处理器的视频编码器装置,该处理器被配置为实施条款B1-B23中任一项或多项所述的方法。
B31.一种包括处理器的视频解码器装置,该处理器被配置为实施条款B1-B23中任一项或多项所述的方法。
B32.一种其上存储有代码的计算机可读介质,该代码包含用于实施条款B1-B23中任一项或多项所述的方法的处理器可执行指令。
C1.一种用于可视媒体处理的方法,包括:
在可视媒体数据的当前色度视频块和当前色度视频块的比特流表示之间的转换期间,至少部分基于与当前色度视频块的并置亮度块相关联的一个或多个条件,做出选择性地启用或禁用对当前色度视频块应用跨分量线性模型(CCLM)和/或色度残差缩放(CRS)的确定。
C2.根据条款C1所述的方法,其中,与当前色度视频块的并置亮度块相关联的一个或多个条件包括:并置亮度块的分区尺寸,达到阈值数量的并置亮度块的编解码单元的数量,达到阈值尺寸的并置亮度块的左上角亮度样点,并置亮度块、或覆盖并置亮度块的左上角亮度样点的对应亮度块、或覆盖并置亮度块的左上角亮度样点并另外包括在预定义尺寸的边界框内的对应亮度块的分割树深度,覆盖并置亮度块的至少一个样点的一个或多个编解码单元(CU)的编解码模式,和/或当前色度视频块的维度。
C3.根据条款C1-C2中任一项或多项所述的方法,其中,响应于确定当前色度视频块的并置亮度块被切分成多个分区,禁用对当前色度视频块应用CCLM和/或CRS。
C4.根据条款C1-C2中任一项或多项所述的方法,其中,响应于确定当前色度视频块的并置亮度块未被切分成多个分区,启用对当前色度视频块应用CCLM和/或CRS。
C5.根据条款C1-C2中任一项或多项所述的方法,其中,响应于确定当前色度视频块的并置亮度块包括阈值数量的编解码单元和/或阈值数量的分割单元和/或阈值数量的变换单元中的一个以上,禁用对当前色度视频块应用CCLM和/或CRS。
C6.根据条款C5所述的方法,其中,阈值数量是1。
C7.根据条款C5所述的方法,其中,阈值数量至少部分基于是否应用CCLM和/或CRS。
C8.根据条款C5所述的方法,其中,阈值数量是固定的或包括在比特流表示中。
C9.根据条款C5所述的方法,其中,阈值数量至少部分基于与当前色度视频块相关联的简档/级别/层级。
C10.根据条款C5所述的方法,其中,编解码单元和/或分割单元和/或变换单元完全位于并置亮度块内。
C11.根据条款C5所述的方法,其中,编解码单元和/或分割单元和/或变换单元部分位于并置亮度块内。
C12.根据条款C11所述的方法,其中,编解码单元和/或分割单元和/或变换单元部分地沿着并置亮度块的边界定位。
C13.根据条款C5所述的方法,其中,编解码单元和/或分割单元和/或变换单元与基于子块的预测相关联。
C14.根据条款C13所述的方法,其中,基于子块的预测对应于帧内子分割(ISP)预测或仿射预测或可选时域运动矢量预测(ATMVP)。
C15.根据条款C1-C2中任一项或多项所述的方法,其中,响应于确定覆盖并置亮度块的左上角亮度样点的编解码单元和/或分割单元和/或变换单元大于预定义的块尺寸,禁用对当前色度视频块应用CCLM和/或CRS。
C16.根据条款C15所述的方法,其中,并置亮度块的尺寸为32×32并且被包括在尺寸为64×64的对应亮度块内,并且预定义的亮度块的尺寸为32×64。
C17.根据条款C2所述的方法,其中,响应于确定当前色度视频块的并置亮度块未被划分,启用对当前色度视频块应用CCLM和/或CRS,并且覆盖并置亮度块的左上角亮度样点的对应亮度块被完全包括在预定义尺寸的边界框内。
C18.根据条款C17的方法,其中,对应亮度块的尺寸为32×64,并且边界框的尺寸为40×70。
C19.根据条款C17所述的方法,其中,边界框的预定义尺寸部分基于与当前色度视频块相关联的编解码树单元(CTU)的尺寸和/或与当前色度视频块相关联的编解码单元(CU)的尺寸。
C20.根据条款C1-C2中任一项或多项所述的方法,其中,将当前色度视频块的并置亮度块切分成多个分区,并且使用多个分区中的一个或多个分区内的预测样点或重构样点来推导与当前色度视频块的CRS相关联的值。
C21.根据条款C20所述的方法,其中,在当前色度视频块的并置亮度块的第一分区内的预测样点或重构样点的平均值被用于推导与当前色度视频块的CRS相关联的值。
C22.根据条款C20所述的方法,其中,在当前色度视频块的并置亮度块的第一分区内的左上角预测样点或左上角重构样点被用于推导与当前色度视频块的CRS相关联的值。
C23.根据条款C20所述的方法,其中,在当前色度视频块的并置亮度块的第一分区内的中心预测样点或中心重构样点被用于推导与当前色度视频块的颜色分量值。
C24.根据条款C2所述的方法,其中,响应于确定覆盖并置亮度块的至少一个样点的一个或多个编解码单元(CU)的编解码模式是仿射模式、双向预测模式、双向光流模式(BDOF)、DMVR模式、矩阵仿射预测模式、帧间模式或帧内子分割(ISP)模式中的一个,禁用对当前色度视频块应用CCLM和/或CRS。
C25.根据条款C2所述的方法,其中,覆盖并置亮度块的至少一个样点的一个或多个编解码单元是对应亮度块。
C26.根据条款C1-C25中任一项或多项所述的方法,还包括:
基于比特流表示中的字段,指示选择性地启用或禁用对当前色度视频块应用CCLM和/或CRS。
C27.根据条款C1-C26中任一项或多项所述的方法,其中,对当前色度视频块的一个或多个子块执行选择性地启用或禁用对当前色度视频块应用CCLM和/或CRS。
C28.根据条款C27所述的方法,其中,当前色度视频块的一个或多个子块的尺寸是2×2或4×4。
C29.根据条款C27所述的方法,其中,当当前色度视频块的对应亮度编解码块覆盖子块的对应块的所有样点时,启用对当前色度视频块的子块应用CCLM和/或CRS。
C30.根据条款C27所述的方法,其中,当对应亮度编解码块未覆盖当前色度视频块的子块的对应块的所有样点时,禁用对当前色度视频的子块应用CCLM和/或CRS。
C31.根据条款C27所述的方法,其中,CCLM和/或CRS的参数与当前色度视频块的每个子块相关联。
C32.根据条款C27所述的方法,其中,选择性地启用或禁用对当前色度视频块的子块应用CCLM和/或CRS是基于包括在并置亮度块内的样点的。
C33.根据条款C1-C32中任一项或多项所述的方法,其中,当前视频块是帧间编解码块、帧内编解码块、双向预测编解码块或帧内块复制(IBC)编解码块。
C34.根据条款C1-C33中任一项或多项所述的方法,其中,转换包括从当前色度视频块生成比特流表示。
C35.根据条款C1-C33中任一项或多项所述的方法,其中,转换包括从比特流表示生成当前色度视频块的像素值。
C36.一种包括处理器的视频编码器装置,该处理器被配置为实施条款C1-C33中任一项或多项所述的方法。
C37.一种包括处理器的视频解码器装置,该处理器被配置为实施条款C1-C33中任一项或多项所述的方法。
C38.一种其上存储有代码的计算机可读介质,该代码包含用于实施条款C1-C33中任一项或多项所述的方法的处理器可执行指令。
D1.一种用于可视媒体编码的方法,包括:
选择性地启用或禁用对可视媒体数据的当前视频块的色度分量应用亮度相关色度残差缩放(CRS),以将可视媒体数据的视频区域中的当前视频块编码成可视媒体数据的比特流表示;以及
做出在可视媒体数据的比特流表示中包括或排除字段的确定,其中该字段指示选择性地启用或禁用,并且如果该字段被包括,则该字段被发信号通知,而不是处于与当前视频块相关联的第一语法级别。
D2.一种用于可视媒体解码的方法,包括:
解析可视媒体数据的比特流表示中的字段,其中该字段被包括在不同于与当前视频块相关联的第一语法级别的级别中;以及
基于该字段,选择性地启用或禁用对可视媒体数据的当前视频块的色度分量应用亮度相关色度残差缩放(CRS),以从比特流表示生成解码的视频区域。
D3.根据条款D1-D2中任一项或多项所述的方法,其中,第一语法级别是片组报头级别,并且其中该字段被包括在以下各项中的一个处:与当前视频块相关联的序列参数集(SPS)、与当前视频块相关联的片、与当前视频块相关联的编解码树单元(CTU)行、与当前视频块相关联的编解码树单元(CTU)、与当前视频块相关联的虚拟流水线数据单元(VPDU)、或与当前视频块相关联的编解码单元(CU)。
D4.根据条款D1-D3中任一项或多项所述的方法,其中,该字段是被表示为chroma_residual_scale_flag的标志。
D5.根据条款D1-D4中任一项或多项所述的方法,其中,该字段与语法级别相关联,并且其中,如果该字段为一,则启用低于该语法级别的亮度相关色度残差缩放的应用,并且如果该字段为零,则禁用低于该语法级别的亮度相关色度残差缩放的应用。
D6.根据条款D5所述的方法,其中,该字段与分割节点级别相关联,并且其中,如果该字段为一,则启用低于该分割节点级别的亮度相关色度残差缩放的应用,并且如果该字段为零,则禁用低于该分割节点级别的亮度相关色度残差缩放的应用。
D7.根据条款D1-D4中任一项或多项所述的方法,其中,该字段与阈值维度相关联,并且其中,如果该字段为一,则启用对处于或高于阈值维度的视频块应用亮度相关色度残差缩放,并且如果该字段为零,则禁用对低于阈值维度的视频块应用亮度相关色度残差缩放。
D8.根据条款D7所述的方法,其中,阈值维度是32×32。
D9.根据条款D1-D8中任一项或多项所述的方法,其中,不在比特流表示中发信号通知该字段,并且在比特流表示中不存在该字段被用于推断禁用了亮度相关色度残差缩放的应用,并且该字段被推断为零。
D10.根据条款D1-D9中任一项或多项所述的方法,其中,存储与当前视频块的亮度相关CRS相关联的值,以供与一个或多个其他视频块结合使用。
D11.根据条款D10所述的方法,其中,在对亮度块进行编码或解码之后,推导与亮度相关CRS相关联的值。
D12.根据条款D11所述的方法,其中,在亮度块中,预测样点和/或中间预测样点和/或重构样点和/或在环路滤波之前的重构样点被用于推导与亮度相关CRS相关联的值。
D13.根据条款D12所述的方法,其中,环路滤波包括使用:去方块滤波器和/或样点自适应偏移(SAO)滤波器和/或双边滤波器和/或Hadamard变换滤波器和/或自适应环路滤波器(ALF)。
D14.根据条款D11所述的方法,其中,亮度块的底部行和/或右侧列中的样点被用于推导与亮度相关CRS相关联的值。
D15.根据条款D11所述的方法,其中,与临近块相关联的样点被用于推导与亮度相关CRS相关联的值。
D16.根据条款D15所述的方法,其中,当前视频块是帧内编解码块、帧间编解码块、双向预测编解码块或帧内块复制(IBC)编解码块。
D17.根据条款D15所述的方法,其中,根据预定义次序检查与临近块相关联的样点的可用性。
D18.根据条款D17所述的方法,其中,相对于当前视频块的预定义次序是以下各项中的一个:从左到右、从左上到右上、从左到上、从左上到右上、从上到左、从右上到左上。
D19.根据条款D17所述的方法,其中,相对于当前视频块的预定义次序是以下各项中的一个:从左下到左、从左到右上、从右上到上、从上到左上。
D20.根据条款D17所述的方法,其中,相对于当前视频块的预定义次序是以下各项中的一个:从左到上、从上到右上、从右上到左下、从左下到左上。
D21.根据条款D17所述的方法,其中,预定义次序与临近块的第一可用子集中的样点相关联。
D22.根据条款D15所述的方法,其中,如果当前视频块是帧间编解码块,并且临近块是帧内编解码块、IBC编解码块或CIIP编解码块,则与临近块相关联的样点被确定为不可用。
D23.根据条款D15所述的方法,其中,如果当前视频块是CIIP编解码块,并且临近块是帧内编解码块、IBC编解码块或CIIP编解码块,则与临近块相关联的样点被确定为不可用。
D24.根据条款D15所述的方法,还包括:
响应于确定临近块的数量小于阈值,禁用对亮度相关CRS的推导。
D25.根据条款D24所述的方法,其中,阈值是1。
D26.根据条款D24所述的方法,其中,如果来自临近块的样点被确定为不可用,则该样点由1<<(bitDepth-1)个样点填充,其中bitDepth表示色度分量或亮度分量的比特深度。
E1.一种用于可视媒体编码的方法,包括:
选择性地启用或禁用对可视媒体数据的当前视频块应用跨分量线性模型(CCLM),以将当前视频块编码成可视媒体数据的比特流表示;以及
做出在可视媒体数据的比特流表示中包括或排除字段的确定,其中该字段指示选择性地启用或禁用,并且如果该字段被包括,则该字段被发信号通知,而不是处于与当前视频块相关联的第一语法级别。
E2.一种用于可视媒体解码的方法,包括:
解析可视媒体数据的比特流表示中的字段,其中该字段被包括在不同于与当前视频块相关联的第一语法级别的级别中;以及
基于该字段,选择性地启用或禁用对可视媒体数据的当前视频块应用跨分量线性模型(CCLM),以从比特流表示生成解码的视频区域。
E3.根据条款E1-E2中任一项或多项所述的方法,其中,第一语法级别是序列参数集(SPS)级别,并且其中,该字段被包括在以下各项中的一个处:与当前视频块相关联的图片参数集(PPS)、与当前视频块相关联的条带、与当前视频块相关联的图片报头、与当前视频块相关联的片、与当前视频块相关联的片组、与当前视频块相关联的编解码树单元(CTU)行、与当前视频块相关联的编解码树单元(CTU)、与当前视频块相关联的虚拟流水线数据单元(VPDU)、或与当前视频块相关联的编解码单元(CU)。
E4.根据条款E1-E3中任一项或多项所述的方法,其中,该字段是被表示为cclm_flag的标志。
E5.根据条款E1-E4中任一项或多项所述的方法,其中,比特流表示中不存在该字段被用于推断禁用了CCLM的应用。
E6.根据条款E1-E4中任一项或多项所述的方法,其中,比特流表示中存在该字段被用于推断启用了CCLM的应用。
E7.根据条款E5所述的方法,其中,如果当前视频块的维度小于或等于阈值维度,则在比特流表示中排除该字段,并且由此排除该字段被用于推断禁用了CCLM的应用。
E8.根据条款E7所述的方法,其中,阈值维度是8×8。
F1.一种包括处理器的视频编码器装置,该处理器被配置为实施条款X1-E8中任一项或多项所述的方法。
F2.一种包括处理器的视频解码器装置,该处理器被配置为实施条款X1-E8中任一项或多项所述的方法。
F3.一种其上存储有代码的计算机可读介质,该代码包含用于实施条款X1-E8中任一项或多项所述的方法的处理器可执行指令。
在本文档中,术语“视频处理”或“可视媒体处理”可以指视频编码、视频解码、视频压缩或视频解压缩。例如,视频压缩算法可以在从视频的像素表示到对应的比特流表示的转换(反之亦然)期间应用。如语法所定义的,当前视频块的比特流表示可以例如对应于在比特流内并置的或分布在不同位置的比特。例如,宏块可以根据变换和编解码的误差残差值进行编码,并且还可以使用比特流中的报头和其他字段中的比特。此外,在转换期间,解码器可以基于该确定,在知道一些字段可能存在或不存在的情况下解析比特流,如以上解决方案中所述。类似地,编码器可以确定某些语法字段被包括或不被包括,并且通过从编解码表示中包括或排除语法字段来相应地生成编解码表示。
根据前述内容,可以理解,本文已经出于说明的目的描述了本公开的技术的具体实施例,但是可以在不脱离本发明的范围的情况下做出各种修改。因此,除了所附权利要求之外,本公开的技术不受限制。
本专利文档中描述的主题和功能操作的实施方式可以在各种系统、数字电子电路中实施,或者在计算机软件、固件或硬件(包括本说明书中公开的结构和它们的结构等价物)中实施,或者在它们中的一个或多个的组合中实施。本说明书中描述的主题的实施方式可以被实施为一个或多个计算机程序产品,即编码在有形和非暂时性计算机可读介质上的计算机程序指令的一个或多个模块,以供数据处理设备执行或控制数据处理装置的操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、实现机器可读传播信号的物质组合,或者它们中的一个或多个的组合。术语“数据处理单元”或“数据处理装置”涵盖用于处理数据的所有装置、设备和机器,例如,包括可编程处理器、计算机或多个处理器或计算机。除了硬件之外,该装置还可以包括为所讨论的计算机程序创建运行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统或它们中的一个或多个的组合的代码。
计算机程序(也称为程序、软件、软件应用、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且可以以任何形式部署,包括作为独立程序或作为模块、组件、子例程或适合在计算环境中使用的其它单元。计算机程序不一定对应于文件系统中的文件。程序可以存储在保存其它程序或数据的文件的一部分(例如,存储在标志语言文档中的一个或多个脚本)中,存储在专用于所讨论的程序的单个文件中,或者存储在多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)中。计算机程序可以被部署为在位于一个站点或分布在多个站点并通过通信网络互连的一个或多个计算机上执行。
本说明书中描述的过程和逻辑流程可以由执行一个或多个计算机程序的一个或多个可编程处理器执行,以通过对输入数据进行操作并生成输出来执行功能。过程和逻辑流程也可以由专用逻辑电路(例如,FPGA(现场可编程门阵列)或(ASIC)专用集成电路)来执行,并且装置也可以实施为专用逻辑电路。
举例来说,适于执行计算机程序的处理器包括通用和专用微处理器,以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。通常,计算机还将包括用于存储数据的一个或多个大容量存储设备(例如,磁盘、磁光盘或光盘),或者被可操作地耦合以从一个或多个大容量存储设备接收数据或向其传送数据或两者兼有。然而,计算机不必具有这样的设备。适于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器设备,包括例如半导体存储器设备,例如,EPROM、EEPROM和闪存设备。处理器和存储器可以由专用逻辑电路来补充或并入专用逻辑电路。
意图是说明书连同附图仅被认为是示例性的,其中示例性意味着示例。如本文所用,“或”的使用旨在包括“和/或”,除非上下文中明确指出。
尽管本专利文档包含许多细节,但这些细节不应被解释为对任何发明或所要求保护的范围的限制,而是对特定发明的特定实施例所特有的特征的描述。本专利文档中在单独实施例的上下文中描述的某些特征也可以在单个实施例中组合实施。相反,在单个实施例的上下文中描述的各种特征也可以在多个实施例中单独或以任何合适的子组合来实施。此外,虽然特征可能在上面被描述为出现在某些组合中并且甚至一开始就被要求按这样进行保护,但是来自要求保护的组合中的一个或多个特征在一些情况下可以从该组合中被删除,并且要求保护的组合可以指向子组合或者子组合的变型。
类似地,虽然在附图中以特定次序描述了操作,但是这不应该被理解为要求以所示的特定的次序或顺序的次序执行这些操作,或者要求执行所有示出的操作,以实现期望的结果。此外,在本专利文档中描述的实施例中的各种系统组件的分离不应该理解为在所有实施例中都需要这种分离。
仅描述了几个实施方式方式和示例,并且可以基于本专利文档中描述和图示的内容进行其它实施方式、增强和变化。

Claims (17)

1.一种处理视频数据的方法,包括:
为视频的色度块和视频的比特流之间的转换,基于覆盖所述色度块的对应亮度区域的至少一个样点的一个或多个亮度视频单元是否以基于子块的预测模式编解码,确定对所述色度块是启用还是禁用跨分量线性模型帧内预测,其中所述色度块是双树结构,在所述双树结构中亮度分量和至少一个色度分量具有分离的分割树结构;
响应于启用所述跨分量线性模型帧内预测,至少基于所述色度块的临近色度样点来确定跨分量线性模型的参数;
基于所述参数,应用所述跨分量线性模型来导出所述色度块的预测值;以及
基于所述预测值执行所述转换;
其中,所述基于子块的预测模式对应于帧内子分割(ISP)模式。
2.根据权利要求1所述的方法,其中,响应于所述一个或多个亮度视频单元以基于子块的预测模式被编解码,禁用所述跨分量线性模型。
3.根据权利要求1所述的方法,其中,对所述色度块是启用还是禁用所述跨分量线性模型帧内预测还基于所述一个或多个亮度视频单元的分割信息。
4.根据权利要求3所述的方法,其中,所述分割信息包括所述一个或多个亮度视频单元的分割树深度。
5.根据权利要求4所述的方法,其中,所述分割树深度是四叉树深度。
6.根据权利要求1所述的方法,其中,对所述色度块是启用还是禁用所述跨分量线性模型帧内预测还基于覆盖所述色度块的对应色度区域的至少一个样点的一个或多个色度视频单元的块大小。
7.根据权利要求1所述的方法,其中,对所述色度块是启用还是禁用所述跨分量线性模型帧内预测还基于所述一个或多个亮度视频单元是否根据不同于四叉树分割操作的多类型分割树操作进行划分。
8.根据权利要求1所述的方法,其中,所述跨分量线性模型的参数通过以下方式导出:
检查所述色度块的一个或多个临近色度块的可用性;
从所述一个或多个临近色度块的临近色度样点中寻找R个色度样点,以确定用于所述跨分量线性模型的参数的一组值,其中,R是大于2的整数,并且
其中,基于所述色度块的尺寸,至少一个临近色度样点不属于所述R个色度样点。
9.根据权利要求8所述的方法,其中,响应于所述一个或多个临近色度块不可用,所述色度块的预测值被设置为1<<(bitDepth-1),其中,bitDepth是所述视频的比特深度。
10.根据权利要求1所述的方法,其中,所述转换包括将所述色度块编码成所述比特流。
11.根据权利要求1所述的方法,其中,所述转换包括从所述比特流解码所述色度块。
12.一种用于处理视频数据的装置,包括处理器和其上具有指令的非暂时性存储器,其中,所述指令在由所述处理器执行时使得所述处理器:
为视频的色度块和视频的比特流之间的转换,基于覆盖所述色度块的对应亮度区域的至少一个样点的一个或多个亮度视频单元是否以基于子块的预测模式编解码,确定对所述色度块是启用还是禁用跨分量线性模型帧内预测,其中所述色度块是双树结构,在所述双树结构中亮度分量和至少一个色度分量具有分离的分割树结构;
响应于启用所述跨分量线性模型帧内预测,至少基于所述色度块的临近色度样点来确定跨分量线性模型的参数;
基于所述参数,应用所述跨分量线性模型来导出所述色度块的预测值;以及
基于所述预测值执行所述转换;
其中,所述基于子块的预测模式对应于帧内子分割(ISP)模式。
13.根据权利要求12所述的装置,其中,对所述色度块是启用还是禁用所述跨分量线性模型帧内预测还基于所述一个或多个亮度视频单元的分割信息,所述分割信息包括所述一个或多个亮度视频单元的分割树深度,并且所述分割树深度是四叉树深度。
14.一种存储指令的非暂时性计算机可读存储介质,所述指令使得处理器:
为视频的色度块和视频的比特流之间的转换,基于覆盖所述色度块的对应亮度区域的至少一个样点的一个或多个亮度视频单元是否以基于子块的预测模式编解码,确定对所述色度块是启用还是禁用跨分量线性模型帧内预测,其中所述色度块是双树结构,在所述双树结构中亮度分量和至少一个色度分量具有分离的分割树结构;
响应于启用所述跨分量线性模型帧内预测,至少基于所述色度块的临近色度样点来确定跨分量线性模型的参数;
基于所述参数,应用所述跨分量线性模型来导出所述色度块的预测值;以及
基于所述预测值执行所述转换;
其中,所述基于子块的预测模式对应于帧内子分割(ISP)模式。
15.根据权利要求14所述的非暂时性计算机可读存储介质,其中,对所述色度块是启用还是禁用所述跨分量线性模型帧内预测还基于所述一个或多个亮度视频单元的分割信息,所述分割信息包括所述一个或多个亮度视频单元的分割树深度,并且所述分割树深度是四叉树深度。
16.一种存储视频的比特流的方法,包括:
基于覆盖色度块的对应亮度区域的至少一个样点的一个或多个亮度视频单元是否以基于子块的预测模式编解码,确定对视频的色度块是启用还是禁用跨分量线性模型帧内预测,其中所述色度块是双树结构,在所述双树结构中亮度分量和至少一个色度分量具有分离的分割树结构;
响应于启用所述跨分量线性模型帧内预测,至少基于所述色度块的临近色度样点来确定跨分量线性模型的参数;
基于所述参数,应用所述跨分量线性模型来导出所述色度块的预测值;
基于所述预测值来生成所述比特流;以及
将所生成的比特流存储到非暂时性计算机可读记录介质上;
其中,所述基于子块的预测模式对应于帧内子分割(ISP)模式。
17.根据权利要求16所述的方法,其中,对所述色度块是启用还是禁用所述跨分量线性模型帧内预测还基于所述一个或多个亮度视频单元的分割信息,所述分割信息包括所述一个或多个亮度视频单元的分割树深度,并且所述分割树深度是四叉树深度。
CN202080028619.7A 2019-04-18 2020-04-20 对跨分量模式的可用性的约束 Active CN113692739B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN2019083320 2019-04-18
CNPCT/CN2019/083320 2019-04-18
PCT/CN2020/085654 WO2020211862A1 (en) 2019-04-18 2020-04-20 Restriction on applicability of cross component mode

Publications (2)

Publication Number Publication Date
CN113692739A CN113692739A (zh) 2021-11-23
CN113692739B true CN113692739B (zh) 2023-10-27

Family

ID=72837039

Family Applications (5)

Application Number Title Priority Date Filing Date
CN202311277787.1A Pending CN117528068A (zh) 2019-04-18 2020-04-20 视频编解码中的跨分量模式中的选择性使用
CN202080028511.8A Active CN113692741B (zh) 2019-04-18 2020-04-20 跨分量模式中的参数推导
CN202080028619.7A Active CN113692739B (zh) 2019-04-18 2020-04-20 对跨分量模式的可用性的约束
CN202080028844.0A Active CN113711590B (zh) 2019-04-18 2020-04-20 减少跨分量模式中的延迟
CN202080028661.9A Active CN113692742B (zh) 2019-04-18 2020-04-20 视频编解码中的跨分量模式中的选择性使用

Family Applications Before (2)

Application Number Title Priority Date Filing Date
CN202311277787.1A Pending CN117528068A (zh) 2019-04-18 2020-04-20 视频编解码中的跨分量模式中的选择性使用
CN202080028511.8A Active CN113692741B (zh) 2019-04-18 2020-04-20 跨分量模式中的参数推导

Family Applications After (2)

Application Number Title Priority Date Filing Date
CN202080028844.0A Active CN113711590B (zh) 2019-04-18 2020-04-20 减少跨分量模式中的延迟
CN202080028661.9A Active CN113692742B (zh) 2019-04-18 2020-04-20 视频编解码中的跨分量模式中的选择性使用

Country Status (12)

Country Link
US (4) US11463714B2 (zh)
EP (2) EP3935834A4 (zh)
JP (3) JP7302009B2 (zh)
KR (2) KR20210150397A (zh)
CN (5) CN117528068A (zh)
AU (2) AU2020259567A1 (zh)
BR (2) BR112021019679A2 (zh)
CA (2) CA3135968C (zh)
MX (2) MX2021012470A (zh)
SG (2) SG11202111000XA (zh)
WO (4) WO2020211868A1 (zh)
ZA (2) ZA202107295B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116684620A (zh) * 2017-11-28 2023-09-01 Lx 半导体科技有限公司 图像编码/解码方法、图像数据的传输方法和存储介质
WO2020053804A1 (en) * 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Downsampling in cross-component linear modeling
AU2020235190B2 (en) 2019-03-08 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Constraints on model-based reshaping in video processing
CN117528068A (zh) 2019-04-18 2024-02-06 北京字节跳动网络技术有限公司 视频编解码中的跨分量模式中的选择性使用
EP3935855A4 (en) * 2019-04-23 2022-09-21 Beijing Bytedance Network Technology Co., Ltd. METHOD OF CROSS-COMPONENT DEPENDENCE REDUCTION
WO2020223552A1 (en) * 2019-04-30 2020-11-05 Beijing Dajia Internet Information Technology Co., Ltd. Methods and apparatus of prediction refinement with optical flow
EP3949395A4 (en) 2019-05-08 2022-06-29 Beijing Bytedance Network Technology Co., Ltd. Conditions for applicability of cross-component coding
MX2021014971A (es) * 2019-06-17 2022-01-24 Lg Electronics Inc Codificacion de video o imagen en base a mapeo de luma y escalado de croma.
CN117294845A (zh) * 2019-06-20 2023-12-26 Lg电子株式会社 图像解码和编码方法、数据的发送方法及存储介质
WO2020256510A1 (ko) * 2019-06-21 2020-12-24 현대자동차주식회사 코딩 툴들을 제어하는 방법 및 장치
CN117478908A (zh) 2019-06-22 2024-01-30 北京字节跳动网络技术有限公司 色度残差缩放的语法元素
EP3991408A1 (en) * 2019-06-25 2022-05-04 InterDigital VC Holdings France, SAS Method and apparatus for coding/decoding picture data
CN117241026A (zh) * 2019-07-05 2023-12-15 Lg电子株式会社 解码设备和编码设备、存储介质及发送图像的数据的设备
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
EP3991409A4 (en) * 2019-08-01 2022-08-17 Huawei Technologies Co., Ltd. ENCODERS, DECODERS AND RELATED METHODS FOR DERIVING CHROMA INTRA MODE
WO2021032162A1 (en) 2019-08-20 2021-02-25 Beijing Bytedance Network Technology Co., Ltd. Signaling for transform skip mode
EP4022923A4 (en) * 2019-10-09 2022-11-23 Beijing Dajia Internet Information Technology Co., Ltd. METHODS AND APPARATUS FOR PREDICTION REFINEMENT WITH OPTICAL FLOW, BI-DIRECTIONAL OPTICAL FLOW, AND DECODER-SIDE MOTION VECTOR REFINEMENT
US11425405B2 (en) * 2019-11-15 2022-08-23 Qualcomm Incorporated Cross-component adaptive loop filter in video coding
JPWO2021100450A1 (zh) * 2019-11-21 2021-05-27
US11716468B2 (en) * 2019-12-20 2023-08-01 Qualcomm Incorporated Adaptive loop filter signaling redundancy removal field
US20210409706A1 (en) * 2020-06-30 2021-12-30 Tencent America LLC Low latency cross component intra prediction mode
WO2024034849A1 (ko) * 2022-08-09 2024-02-15 현대자동차주식회사 루마 성분 기반 크로마 성분 예측을 이용하는 비디오 코딩을 위한 방법 및 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015187978A1 (en) * 2014-06-04 2015-12-10 Qualcomm Incorporated Block adaptive color-space conversion coding
CN105723707A (zh) * 2013-11-01 2016-06-29 高通股份有限公司 用于视频译码的色彩残差预测
WO2017091759A1 (en) * 2015-11-25 2017-06-01 Qualcomm Incorporated Linear-model prediction with non-square prediction units in video coding
CN107211124A (zh) * 2015-01-27 2017-09-26 高通股份有限公司 适应性跨分量残差预测
WO2018132710A1 (en) * 2017-01-13 2018-07-19 Qualcomm Incorporated Coding video data using derived chroma mode
WO2018236031A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치
CN109479133A (zh) * 2016-07-22 2019-03-15 夏普株式会社 使用自适应分量缩放对视频数据进行编码的系统和方法

Family Cites Families (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2051524A1 (en) 2007-10-15 2009-04-22 Panasonic Corporation Image enhancement considering the prediction error
US9571856B2 (en) * 2008-08-25 2017-02-14 Microsoft Technology Licensing, Llc Conversion operations in scalable video encoding and decoding
WO2011126272A2 (en) 2010-04-05 2011-10-13 Samsung Electronics Co., Ltd. Method and apparatus for encoding video by using dynamic-range transformation, and method and apparatus for decoding video by using dynamic-range transformation
SI2860980T1 (sl) * 2010-09-30 2017-08-31 Samsung Electronics Co., Ltd Postopek interpoliranja podob z uporabo gladilnega interpolacijskega filtra
WO2012090504A1 (en) * 2010-12-28 2012-07-05 Panasonic Corporation Methods and apparatuses for coding and decoding video stream
CN103688533B (zh) 2011-06-20 2015-12-23 联发科技(新加坡)私人有限公司 可减少行存储器的色度帧内预测方法及装置
KR20130058524A (ko) 2011-11-25 2013-06-04 오수미 색차 인트라 예측 블록 생성 방법
JP5375938B2 (ja) * 2011-12-14 2013-12-25 ソニー株式会社 復号装置及び方法
CN103227917B (zh) * 2012-01-31 2016-12-14 华为技术有限公司 解码方法和装置
CN104471940B (zh) * 2012-04-16 2017-12-15 联发科技(新加坡)私人有限公司 色度帧内预测方法及装置
GB2501535A (en) * 2012-04-26 2013-10-30 Sony Corp Chrominance Processing in High Efficiency Video Codecs
CN115065823A (zh) * 2012-07-02 2022-09-16 韩国电子通信研究院 视频编码/解码方法和非暂时性计算机可读记录介质
US9516309B2 (en) * 2012-07-09 2016-12-06 Qualcomm Incorporated Adaptive difference domain spatial and temporal reference reconstruction and smoothing
US9350899B2 (en) * 2012-09-14 2016-05-24 Qualcomm Incorporated Methods and device for efficient resampling and resizing of digital images
AU2012232992A1 (en) * 2012-09-28 2014-04-17 Canon Kabushiki Kaisha Method, apparatus and system for encoding and decoding the transform units of a coding unit
US9503732B2 (en) * 2013-04-10 2016-11-22 Arris Enterprises, Inc. Re-sampling with phase offset adjustment for luma and chroma to select filters in scalable video coding
EP2843949B1 (en) * 2013-06-28 2020-04-29 Velos Media International Limited Methods and devices for emulating low-fidelity coding in a high-fidelity coder
US10440365B2 (en) * 2013-06-28 2019-10-08 Velos Media, Llc Methods and devices for emulating low-fidelity coding in a high-fidelity coder
US9648330B2 (en) * 2013-07-15 2017-05-09 Qualcomm Incorporated Inter-color component residual prediction
US9648333B2 (en) * 2013-10-11 2017-05-09 Vid Scale, Inc. High level syntax for HEVC extensions
US9648332B2 (en) * 2013-10-28 2017-05-09 Qualcomm Incorporated Adaptive inter-color component residual prediction
WO2015100522A1 (en) * 2013-12-30 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for inter-component residual prediction
US10200700B2 (en) 2014-06-20 2019-02-05 Qualcomm Incorporated Cross-component prediction in video coding
US20150373350A1 (en) 2014-06-20 2015-12-24 Qualcomm Incorporated Temporal motion vector prediction (tmvp) indication in multi-layer codecs
EP3192261A1 (en) 2014-09-12 2017-07-19 VID SCALE, Inc. Inter-component de-correlation for video coding
US9918105B2 (en) * 2014-10-07 2018-03-13 Qualcomm Incorporated Intra BC and inter unification
EP3198874A4 (en) * 2014-10-28 2018-04-04 MediaTek Singapore Pte Ltd. Method of guided cross-component prediction for video coding
GB2539845B (en) 2015-02-19 2017-07-12 Magic Pony Tech Ltd Offline training of hierarchical algorithms
GB201603144D0 (en) 2016-02-23 2016-04-06 Magic Pony Technology Ltd Training end-to-end video processes
CN107439012B (zh) 2015-04-06 2018-09-25 杜比实验室特许公司 用于环内转换的方法、装置和计算机可读存储介质
EP3304912A4 (en) * 2015-06-07 2018-06-06 Sharp Kabushiki Kaisha Systems and methods for optimizing video coding based on a luminance transfer function or video color component values
TWI764870B (zh) 2015-07-28 2022-05-21 法商內數位麥德遜專利控股有限公司 視訊訊號處理裝置及方法
US10652588B2 (en) 2015-09-21 2020-05-12 Vid Scale, Inc. Inverse reshaping for high dynamic range video coding
US20170105014A1 (en) * 2015-10-08 2017-04-13 Qualcomm Incorporated Luma-driven chroma scaling for high dynamic range and wide color gamut contents
JP2017538381A (ja) * 2015-10-09 2017-12-21 テレフオンアクチーボラゲット エルエム エリクソン(パブル) ビデオ符号化における成分間予測
GB2548358A (en) 2016-03-15 2017-09-20 Nokia Technologies Oy A method, an apparatus and a computer program product for coding a 360-degree panoramic images and video
CN108885783B (zh) 2016-03-23 2022-02-15 杜比实验室特许公司 编码和解码可逆制作质量单层视频信号
CN109417620B (zh) * 2016-03-25 2021-04-27 松下知识产权经营株式会社 用于使用信号依赖型自适应量化将运动图像编码及解码的方法及装置
JP6846442B2 (ja) 2016-05-19 2021-03-24 ドルビー ラボラトリーズ ライセンシング コーポレイション ハイダイナミックレンジ画像のためのクロマ再構成
EP3459248A1 (en) * 2016-05-19 2019-03-27 Dolby Laboratories Licensing Corporation Chroma reshaping for high dynamic range images
RU2710667C1 (ru) * 2016-05-28 2019-12-30 МедиаТек Инк. Способ и устройство привязки к текущему изображению для кодирования видео
US10484712B2 (en) * 2016-06-08 2019-11-19 Qualcomm Incorporated Implicit coding of reference line index used in intra prediction
US10390015B2 (en) 2016-08-26 2019-08-20 Qualcomm Incorporated Unification of parameters derivation procedures for local illumination compensation and cross-component linear model prediction
US10419757B2 (en) 2016-08-31 2019-09-17 Qualcomm Incorporated Cross-component filter
EP3510772B1 (en) 2016-09-09 2020-12-09 Dolby Laboratories Licensing Corporation Coding of high dynamic range video using segment-based reshaping
KR20180037575A (ko) 2016-10-04 2018-04-12 한국전자통신연구원 영상 부호화/복호화 방법, 장치 및 비트스트림을 저장한 기록 매체
US10477240B2 (en) 2016-12-19 2019-11-12 Qualcomm Incorporated Linear model prediction mode with sample accessing for video coding
WO2018116925A1 (ja) * 2016-12-21 2018-06-28 シャープ株式会社 イントラ予測画像生成装置、画像復号装置、および画像符号化装置
US20180199062A1 (en) * 2017-01-11 2018-07-12 Qualcomm Incorporated Intra prediction techniques for video coding
US10694181B2 (en) * 2017-01-27 2020-06-23 Qualcomm Incorporated Bilateral filters in video coding with reduced complexity
EP3386198A1 (en) * 2017-04-07 2018-10-10 Thomson Licensing Method and device for predictive picture encoding and decoding
EP4064701A1 (en) * 2017-06-29 2022-09-28 Dolby Laboratories Licensing Corporation Integrated image reshaping and video decoding
US20190116376A1 (en) 2017-10-12 2019-04-18 Qualcomm Incorporated Motion vector predictors using affine motion model in video coding
KR102487032B1 (ko) 2018-02-14 2023-01-11 돌비 레버러토리즈 라이쎈싱 코오포레이션 레이트 왜곡 최적화를 이용한 비디오 코딩에서의 이미지 재성형
WO2019194496A1 (ko) 2018-04-01 2019-10-10 엘지전자 주식회사 비디오 신호의 컬러 컴포넌트에 대한 병렬 처리 방법 및 이를 위한 장치
CN109005408B (zh) * 2018-08-01 2020-05-29 北京奇艺世纪科技有限公司 一种帧内预测方法、装置及电子设备
GB2590844B (en) 2018-08-17 2023-05-03 Beijing Bytedance Network Tech Co Ltd Simplified cross component prediction
WO2020053804A1 (en) 2018-09-12 2020-03-19 Beijing Bytedance Network Technology Co., Ltd. Downsampling in cross-component linear modeling
WO2020084512A1 (en) 2018-10-23 2020-04-30 Beijing Bytedance Network Technology Co., Ltd. Affine motion information derivation from neighboring block
WO2020093999A1 (en) 2018-11-05 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Inter prediction with refinement in video processing
WO2020094061A1 (en) 2018-11-06 2020-05-14 Beijing Bytedance Network Technology Co., Ltd. Multi-models for intra prediction
AU2019391197B2 (en) 2018-12-07 2023-05-25 Beijing Bytedance Network Technology Co., Ltd. Context-based intra prediction
US20220086428A1 (en) 2018-12-31 2022-03-17 Electronics And Telecommunications Research Institute Image encoding/decoding method and apparatus, and recording medium storing bitstream
EP3928519B1 (en) 2019-02-22 2024-04-03 Huawei Technologies Co., Ltd. Method and apparatus for affine based inter prediction of chroma subblocks
MX2021009788A (es) 2019-02-22 2021-09-08 Beijing Bytedance Network Tech Co Ltd Seleccion de muestra colindante para intraprediccion.
AU2020226566A1 (en) 2019-02-24 2021-08-19 Beijing Bytedance Network Technology Co., Ltd. Parameter derivation for intra prediction
EP3703366A1 (en) 2019-02-28 2020-09-02 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
EP3932063A1 (en) 2019-02-28 2022-01-05 InterDigital VC Holdings, Inc. Method and device for picture encoding and decoding
CN113545064B (zh) * 2019-03-04 2024-05-10 阿里巴巴集团控股有限公司 用于处理视频内容的方法和装置及计算机可读存储介质
US20200288159A1 (en) * 2019-03-08 2020-09-10 Qualcomm Incorporated Combined residual coding in video coding
US20200288126A1 (en) * 2019-03-08 2020-09-10 Qualcomm Incorporated Reshaping filter average calculation for video coding
AU2020235190B2 (en) 2019-03-08 2023-06-01 Beijing Bytedance Network Technology Co., Ltd. Constraints on model-based reshaping in video processing
WO2020204413A1 (ko) 2019-04-03 2020-10-08 엘지전자 주식회사 복원 픽처를 수정하는 비디오 또는 영상 코딩
CN117528068A (zh) * 2019-04-18 2024-02-06 北京字节跳动网络技术有限公司 视频编解码中的跨分量模式中的选择性使用
EP3949395A4 (en) 2019-05-08 2022-06-29 Beijing Bytedance Network Technology Co., Ltd. Conditions for applicability of cross-component coding
US11388406B2 (en) * 2019-05-20 2022-07-12 Dolby Laboratories Licensing Corporation Piece-wise-linear mapping for in-loop reshaping in image coding
JP2021002780A (ja) 2019-06-21 2021-01-07 シャープ株式会社 動画像復号装置および動画像符号化装置
CN117478908A (zh) 2019-06-22 2024-01-30 北京字节跳动网络技术有限公司 色度残差缩放的语法元素
JP7460748B2 (ja) 2019-07-07 2024-04-02 北京字節跳動網絡技術有限公司 クロマ残差スケーリングのシグナリング
EP3981146A4 (en) 2019-07-11 2022-08-03 Beijing Bytedance Network Technology Co., Ltd. BITSTREAM CONFORMITY RESTRICTIONS FOR INTRA-BLOCK COPY IN VIDEO ENCODING
US11601657B2 (en) 2020-04-02 2023-03-07 Qualcomm Incorporated LUMA mapping with chroma scaling (LMCS) in video coding
US11375212B2 (en) 2020-04-18 2022-06-28 Qualcomm Incorporated Flexible chroma processing for dynamic range adjustment
US20210400257A1 (en) 2020-06-18 2021-12-23 Lg Electronics Inc. Image encoding/decoding method and apparatus for signaling high level information for tool control based on colour representation format, and computer-readable recording medium strong bitstream
EP4252418A4 (en) 2020-11-30 2024-05-22 Beijing Dajia Internet Information Tech Co Ltd CHROMACODING IMPROVEMENT WITH ADAPTIVE OFFSET OF CROSS-COMPONENT SAMPLES

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105723707A (zh) * 2013-11-01 2016-06-29 高通股份有限公司 用于视频译码的色彩残差预测
WO2015187978A1 (en) * 2014-06-04 2015-12-10 Qualcomm Incorporated Block adaptive color-space conversion coding
CN107211124A (zh) * 2015-01-27 2017-09-26 高通股份有限公司 适应性跨分量残差预测
WO2017091759A1 (en) * 2015-11-25 2017-06-01 Qualcomm Incorporated Linear-model prediction with non-square prediction units in video coding
CN109479133A (zh) * 2016-07-22 2019-03-15 夏普株式会社 使用自适应分量缩放对视频数据进行编码的系统和方法
WO2018132710A1 (en) * 2017-01-13 2018-07-19 Qualcomm Incorporated Coding video data using derived chroma mode
WO2018236031A1 (ko) * 2017-06-21 2018-12-27 엘지전자(주) 인트라 예측 모드 기반 영상 처리 방법 및 이를 위한 장치

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
AHG16/CE3-related: CCLM mode restriction for increasing decoder throughput;Ji-Yeon Jung;Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Geneva, CH, 19–27 March 2019,JVET-N0376;全文 *
AHG16/non-CE3: Study of CCLM restrictions in case of separate luma/chroma tree;Edouard François;Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Geneva, CH, 19–27 March 2019, JVET-N0390r1;摘要、1-3节 *
Edouard François.AHG16/non-CE3: Study of CCLM restrictions in case of separate luma/chroma tree.Joint Video Experts Team (JVET) of ITU-T SG 16 WP 3 and ISO/IEC JTC 1/SC 29/WG 11 14th Meeting: Geneva, CH, 19–27 March 2019, JVET-N0390r1.2019,摘要、1-3节. *

Also Published As

Publication number Publication date
JP7302009B2 (ja) 2023-07-03
WO2020211868A1 (en) 2020-10-22
CA3135968A1 (en) 2020-10-22
WO2020211862A1 (en) 2020-10-22
SG11202110713XA (en) 2021-10-28
CN113692739A (zh) 2021-11-23
EP3932062A1 (en) 2022-01-05
US20210392351A1 (en) 2021-12-16
US11616965B2 (en) 2023-03-28
JP2022526664A (ja) 2022-05-25
EP3935834A1 (en) 2022-01-12
KR20210154150A (ko) 2021-12-20
CN113692742B (zh) 2023-10-27
CA3135968C (en) 2024-05-14
US11553194B2 (en) 2023-01-10
AU2020259567A1 (en) 2021-10-28
SG11202111000XA (en) 2021-11-29
CN113711590B (zh) 2024-04-19
CN117528068A (zh) 2024-02-06
BR112021019679A2 (pt) 2021-12-07
CN113692741A (zh) 2021-11-23
AU2020260285B2 (en) 2023-06-01
ZA202107295B (en) 2023-10-25
CN113692742A (zh) 2021-11-23
WO2020211869A1 (en) 2020-10-22
CA3135521A1 (en) 2020-10-22
US20220030220A1 (en) 2022-01-27
US20230117813A1 (en) 2023-04-20
EP3932062A4 (en) 2022-07-20
CN113692741B (zh) 2022-12-13
EP3935834A4 (en) 2022-08-17
JP2022526663A (ja) 2022-05-25
US11463714B2 (en) 2022-10-04
KR20210150397A (ko) 2021-12-10
CN113711590A (zh) 2021-11-26
MX2021012470A (es) 2021-11-12
JP2023165823A (ja) 2023-11-17
WO2020211863A1 (en) 2020-10-22
MX2021012472A (es) 2021-11-12
ZA202107452B (en) 2023-10-25
BR112021019564A2 (pt) 2021-12-07
AU2020260285A1 (en) 2021-10-28
US20210385469A1 (en) 2021-12-09

Similar Documents

Publication Publication Date Title
CN113692739B (zh) 对跨分量模式的可用性的约束
CN113796072B (zh) 跨分量编解码的适用性条件
CN114128280B (zh) 色度残差缩放的信令通知
CN113711610B (zh) 降低跨分量依赖性的方法
CN117478908A (zh) 色度残差缩放的语法元素
RU2816350C2 (ru) Ограничения применимости кросс-компонентного режима
RU2817006C2 (ru) Способ определения параметров в кросс-компонентном режиме
RU2815434C2 (ru) Способы уменьшения межкомпонентной зависимости

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant