CN115428447A - 在视频编码中用于执行帧内预测的系统和方法 - Google Patents

在视频编码中用于执行帧内预测的系统和方法 Download PDF

Info

Publication number
CN115428447A
CN115428447A CN202180028649.2A CN202180028649A CN115428447A CN 115428447 A CN115428447 A CN 115428447A CN 202180028649 A CN202180028649 A CN 202180028649A CN 115428447 A CN115428447 A CN 115428447A
Authority
CN
China
Prior art keywords
video
equal
prediction
luma sample
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202180028649.2A
Other languages
English (en)
Inventor
法兰克·博森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Publication of CN115428447A publication Critical patent/CN115428447A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/103Selection of coding mode or of prediction mode
    • H04N19/105Selection of the reference unit for prediction within a chosen coding or prediction mode, e.g. adaptive choice of position and number of pixels used for prediction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/593Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving spatial prediction techniques
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种用于生成视频编码中的当前变换块的预测样本的方法。该方法包括:设置相邻左亮度样本值,该相邻左亮度样本值被定义为x等于‑1、‑2或‑3,对应于该当前变换块,等于重构亮度样本;设置相邻左上亮度样本值,该相邻左上亮度样本值被定义为x等于‑2并且y等于‑1,对应于该当前变换块,在该相邻左上亮度样本值不可用的情况下等于该相邻左亮度样本值;通过使用该相邻左亮度样本值并且基于色度格式来导出该当前变换块的下采样的相邻左亮度样本值;以及通过使用这些下采样的相邻亮度样本值来生成这些预测样本。

Description

在视频编码中用于执行帧内预测的系统和方法
技术领域
本公开涉及视频编码,并且更具体地涉及用于执行编码视频的帧内预测的技术。
背景技术
数字视频功能可以结合到各种设备中,包括数字电视、笔记本电脑或台式电脑、平板电脑、数字录音设备、数字媒体播放器、视频游戏设备、蜂窝电话(包括所谓的智能电话)、医学成像设备等。可以根据视频编码标准对数字视频进行编码。视频编码标准定义了封装编码视频数据的兼容比特流的格式。兼容比特流是可以由视频解码设备接收和解码以生成重构视频数据的数据结构。视频编码标准可以结合视频压缩技术。视频编码标准的示例包括ISO/IEC MPEG-4Visual和ITU-T H.264(也被称为ISO/IEC MPEG-4AVC)和高效视频编码(HEVC)。HEVC在2016年12月的ITU-T H.265建议书的高效视频编码(HEVC)中有所描述,该文献以引用方式并入本文,并且在本文中被称为ITU-T H.265。目前正在考虑对ITU-T H.265进行扩展和改进以开发下一代视频编码标准。例如,ITU-T视频编码专家组(VCEG)和ISO/IEC活动图像专家组(MPEG)(被统称为联合视频研究组(JVET))正在致力于标准化压缩能力显著超过ITU-T H.265的视频编码技术。以引用方式并入本文的联合探索模型7(JEM 7)、联合探索测试模型7(JEM 7)的算法描述、ISO/IEC JTC1/SC29/WG11文档:JVET-G1001(2017年7月,意大利,都灵)描述了由JVET在联合测试模型研究下的编码特征,该技术是超越ITU-TH.265功能的潜在增强视频编码技术。应当指出的是,JEM 7的编码特征在JEM参考软件中实现。如本文所用,术语JEM可以集体指在JEM 7中的算法以及JEM参考软件的具体实施。此外,响应于由VCEG和MPEG联合发布的“Joint Call for Proposals on Video Compressionwith Capabilities beyond HEVC”,在2018年4月16日至20日于加利福尼亚州圣地亚哥(San Diego,CA)举行的ISO/IEC JTC1/SC29/WG11第10次会议上,各个小组提出了对视频编码工具的多种描述。根据对视频编码工具的多种描述,视频编码规范的最终初始草案文本在2018年4月16日至20日于加利福尼亚州圣地亚哥举行的ISO/IEC JTC1/SC29/WG11第10次会议中的“Versatile Video Coding(Draft 1)”即文档JVET-J1001-v2中有所描述,该文档以引用方式并入本文并且被称为JVET-J1001。VCEG和MPEG的下一代视频编码标准的当前开发被称为通用视频编码(VVC)项目。2020年1月7日至17日在比利时布鲁塞尔(Brussel,BE)举行的ISO/IEC JTC1/SC29/WG11第17次会议中的“Versatile Video Coding(Draft 8)”(文档JVET-Q2001-vE,其以引用方式并入本文,并且称为JVET-Q2001)表示对应于VVC项目的视频编码规范的草稿文本的当前迭代。
视频压缩技术能够减少存储和传输视频数据的数据需求。视频压缩技术可以通过利用视频序列中固有的冗余来减少数据需求。视频压缩技术可将视频序列再分成连续较小的部分(即,视频序列内的一组图片、一组图片内的图片、图片内的区域、区域内的子区域等)。可以使用帧内预测编码技术(例如,图片内的空间预测技术)和帧间预测技术(即图片间的技术(时间))来生成待编码的单位视频数据与视频数据的参考单元之间的差值。该差值可以被称为残差数据。残差数据可以被编码为量化变换系数。语法元素可以涉及残差数据和参考编码单元(例如,帧内预测模式索引和运动信息)。可以对残差数据和语法元素进行熵编码。熵编码的残差数据和语法元素可以包括在形成兼容比特流的数据结构中。
发明内容
在一个示例中,提供了一种生成用于视频编码中的当前变换块的预测样本的方法,该方法包括:设置相邻左亮度样本值,该相邻左亮度样本值被定义为x等于-1、-2或-3,对应于该当前变换块,等于重构亮度样本;设置相邻左上亮度样本值,该相邻左上亮度样本值被定义为x等于-2并且y等于-1,对应于该当前变换块,在该相邻左上亮度样本值不可用的情况下等于该相邻左亮度样本值;通过使用该相邻左亮度样本值并且基于色度格式来导出该当前变换块的下采样的相邻左亮度样本值;以及通过使用这些下采样的相邻亮度样本值来生成这些预测样本。
在一个示例中,提供了一种设备,该设备包括一个或多个处理器,该一个或多个处理器被配置为:设置相邻左亮度样本值,该相邻左亮度样本值被定义为x等于-1、-2或-3,对应于当前变换块,等于重构亮度样本;设置相邻左上亮度样本值,该相邻左上亮度样本值被定义为x等于-2并且y等于-1,对应于该当前变换块,在该相邻左上亮度样本值不可用的情况下等于该相邻左亮度样本值;通过使用该相邻左亮度样本值并且基于色度格式来导出该当前变换块的下采样的相邻左亮度样本值;并且通过使用这些下采样的相邻亮度样本值来生成预测样本。
附图说明
[图1]图1是示出根据本公开的一种或多种技术的可被配置为对视频数据进行编码和解码的系统的示例的框图。
[图2]图2是示出根据本公开的一种或多种技术的四叉树多叉树划分的示例的概念图。
[图3]图3是示出根据本公开的一种或多种技术的编码视频数据和对应数据结构的概念图。
[图4]图4是示出根据本公开的一种或多种技术可使用的视频分量采样格式的示例的概念图。
[图5]图5是示出根据本公开的一种或多种技术的封装编码视频数据和对应元数据的数据结构的概念图。
[图6]图6是示出根据本公开的一种或多种技术的可被包括在可被配置为对视频数据进行编码和解码的系统的具体实施中的部件的示例的概念图。
[图7]图7是示出根据本公开的一种或多种技术的可被配置为对视频数据进行编码的视频编码器的示例的框图。
[图8]图8是示出根据本公开的一种或多种技术的可被配置为对视频数据进行解码的视频解码器的示例的框图。
具体实施方式
一般来讲,本公开描述了用于执行用于编码视频数据的帧内预测的各种技术。具体地,本公开描述了用于应用跨分量线性模型(CCLM)进行视频编码的色度帧内预测的技术。应当指出的是,尽管本公开的技术是相对于ITU-T H.264、ITU-T H.265、JEM和JVET-Q2001描述的,但本公开的技术可普遍应用于视频编码。例如,除了包括在ITU-T H.265、JEM和JVET-Q2001中的那些技术,本文所述的编码技术可并入视频编码系统(包括基于未来视频编码标准的视频编码系统),包括视频块结构、帧内预测技术、帧间预测技术、变换技术、滤波技术和/或其他熵编码技术。因此,对ITU-T H.264、ITU-T H.265、JEM和/或JVET-Q2001的参考是出于描述性目的,并且不应被解释为限制本文所述技术的范围。此外,应当指出的是,将文献以引用方式并入本文是出于描述性目的,并且不应被解释为限制或产生关于本文所用术语的歧义。例如,在某个并入的参考文献提供的对某个术语的定义不同于另一个并入的参考文献和/或如本文中使用的该术语的情况下,则该术语应以广泛地包括每个相应定义的方式和/或以包括替代方案中每个特定定义的方式来解释。
在一个示例中,一种生成用于视频编码中的当前块的预测的方法包括确定当前块的顶部和右上的可用相邻色度样本的数量,并且基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程。
在一个示例中,一种设备包括一个或多个处理器,该一个或多个处理器被配置为确定当前块的顶部和右上的可用相邻色度样本的数量,并且基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程。
在一个示例中,一种非暂态计算机可读存储介质包括存储在其上的指令,这些指令在被执行时使得设备的一个或多个处理器确定当前块的顶部和右上的可用相邻色度样本的数量,并且基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程。
在一个示例中,一种装置包括用于确定当前块的顶部和右上的可用相邻色度样本的数量的装置,以及用于基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程的装置。
在以下附图和描述中阐述了一个或多个示例的细节。根据描述和附图以及权利要求书,其他特征、对象和优点将显而易见。
视频内容包括由一系列帧(或图片)组成的视频序列。一系列帧也可以被称为一组图片(GOP)。每个视频帧或图片可被分成一个或多个区域。可根据基本单元(例如,视频块)和限定区域的一组规则来限定区域。例如,限定区域的规则可以是区域必须是布置成矩形的整数个视频块。此外,区域中的视频块可以根据扫描模式(例如,光栅扫描)来排序。如本文所用,术语“视频块”通常可以指图片的区域,或者可以更具体地指可以被预测性地编码的样本值的最大阵列、其子分区和/或对应结构。此外,术语“当前视频块”可以指图片的正被编码或解码的区域。视频块可被定义为样本值的阵列。应当指出的是,在一些情况下,像素值可被描述为包括视频数据的相应分量的样本值,其也可被称为颜色分量(例如,亮度(Y)和色度(Cb和Cr)分量或红色、绿色和蓝色分量)。应当指出的是,在一些情况下,术语“像素值”和“样本值”可互换使用。此外,在一些情况下,像素或样本可被称为pel。视频采样格式(也可以被称为色度格式)可以相对于视频块中包括的亮度样本的数量来定义视频块中包括的色度样本的数量。例如,对于4:2:0采样格式,亮度分量的采样率是水平和垂直两个方向的色度分量的采样率的两倍。
视频编码器可对视频块和其子分区执行预测编码。视频块和其子分区可以被称为节点。ITU-T H.264指定包括16×16亮度样本的宏块。也就是说,在ITU-T H.264中,图片被分段成宏块。ITU-T H.265指定了类似的编码树单元(CTU)结构(其可被称为最大编码单元(LCU))。在ITU-T H.265中,图片被分段成CTU。在ITU-T H.265中,对于图片,CTU大小可被设置为包括16×16、32×32或64×64亮度样本。在ITU-T H.265中,CTU由视频数据的每个分量(例如,亮度(Y)和色度(Cb和Cr))的相应编码树块(CTB)组成。应当指出的是,具有一个亮度分量和两个对应色度分量的视频可被描述为具有两个通道,即,亮度通道和色度通道。此外,在ITU-T H.265中,可根据四叉树(QT)划分结构来划分CTU,这使得CTU的CTB被划分为编码块(CB)。也就是说,在ITU-T H.265中,CTU可被划分为四叉树叶节点。根据ITU-T H.265,一个亮度CB连同两个对应的色度CB和相关联语法元素被称为编码单元(CU)。在ITU-TH.265中,可以发送信号通知CB的最小允许大小。在ITU-T H.265中,亮度CB的最小允许最小大小是8×8亮度样本。在ITU-T H.265中,使用帧内预测或帧间预测对图片区域进行编码的决定在CU位阶处进行。
在ITU-T H.265中,CU与在CU处具有其根的预测单元结构相关联。在ITU-T H.265中,预测单元结构允许分割亮度CB和色度CB以生成对应的参考样本。即,在ITU-T H.265中,可将亮度CB和色度CB分割成相应的亮度预测块和色度预测块(PB),其中PB包括对其应用相同预测的样本值的块。在ITU-T H.265中,可将CB划分为1个、2个或4个PB。ITU-T H.265支持从64×64样本向下至4×4样本的PB大小。在ITU-T H.265中,正方形PB被支持用于帧内预测,其中CB可以形成PB或者CB可以被分割成四个正方形PB。在ITU-T H.265中,除了正方形PB之外,还支持矩形PB来进行帧间预测,其中CB可竖直地或水平地减半以形成PB。此外,应当指出的是,在ITU-T H.265中,对于帧间预测,支持四个非对称PB划分,其中CB在CB的高度(顶部或底部)或宽度(左侧或右侧)的四分之一处被划分为两个PB。对应于PB的帧内预测数据(例如,帧内预测模式语法元素)或帧间预测数据(例如,运动数据语法元素)用于生成PB的参考和/或预测样本值。
JEM指定具有最大大小的256×256亮度样本的CTU。JEM指定四叉树加二叉树(QTBT)块结构。在JEM中,QTBT结构允许由二叉树(BT)结构进一步划分四叉树叶节点。也就是说,在JEM中,二叉树结构允许将四叉树叶节点垂直或水平递归划分。在JVET-Q2001中,根据四叉树加多类型树(QTMT或QT+MTT)结构来划分CTU。JVET-Q2001中的QTMT类似于JEM中的QTBT。然而,在JVET-Q2001中,除了指示二进制分割之外,多类型树还可以指示所谓的三元(或三叉树(TT))分割。三元分割将一个块垂直地或水平地分成三个块。在垂直TT分割的情况下,块从左边缘起在其宽度的四分之一处以及从右边缘起在其宽度的四分之一处分割,并且在水平TT分割的情况下,块从顶部边缘起在其高度的四分之一处以及从底部边缘起在其高度的四分之一处分割。图2示出了CTU被划分为四叉树叶节点并且四叉树叶节点根据BT分割或TT分割被进一步划分的示例。即,在图2中,虚线指示四叉树中的附加二元和三元分割。
如上所述,每个视频帧或图片可被分成一个或多个区域。例如,根据ITU-T H.265,每个视频帧或图片可被划分为包括一个或多个切片,并且进一步被划分为包括一个或多个图块,其中每个切片包括CTU序列(例如,以光栅扫描顺序排列),并且其中图块是对应于图片的矩形区域的CTU序列。应当指出的是,在ITU-T H.265中,切片是从独立切片片段开始并且包含在下一个独立切片片段(如果有的话)之前的所有后续从属切片片段(如果有的话)的一个或多个切片片段的序列。切片片段(如切片)是CTU序列。因此,在一些情况下,术语“切片”和“切片片段”可互换使用以指示以光栅扫描顺序排列布置的CTU序列。此外,应当指出的是,在ITU-T H.265中,图块可由包含在多于一个切片中的CTU组成,并且切片可由包含在多于一个图块中的CTU组成。然而,ITU-T H.265规定了应满足以下一个或两个条件:(1)切片中的所有CTU属于同一个图块;以及(2)图块中的所有CTU属于同一个切片。
关于JVET-Q2001,切片需要由整数个完整图块或图块内的整数个连续完整CTU行组成,而不是仅需要由整数个CTU组成,如ITU-T H.265中提供的。应当指出的是,在JVET-Q2001中,切片设计不包括切片区段(即,没有独立的/从属的切片片段)。因此,在JVET-Q2001中,图片可以包括单个图块,其中该单个图块被包含在单个切片内,或者图片可以包括多个图块,其中该多个图块(或其CTU行)可以被包含在一个或多个切片内。在JVET-Q2001中,通过指定图块行的相应高度和图块列的相应宽度来指定图片将图片划分为图块。因此,在JVET-Q2001中,图块是特定图块行和特定图块列位置内的矩形CTU区域。此外,JVET-Q2001支持两种切片模式:光栅扫描切片和矩形切片。对于光栅扫描切片,切片包含图片的图块光栅扫描中的一系列完整图块,其中图片的图块光栅扫描是图片内的图块的矩形二维图案到一维图案的映射,其中从左向右扫描二维图案的第一顶部行,随后类似地从左向右扫描(向下)图案的第二行、第三行等。对于矩形切片,切片包含共同形成图片的矩形区域的多个完整图块或共同形成图片的矩形区域的一个图块的多个连续完整CTU行。在对应于该切片的矩形区域内以图块光栅扫描顺序扫描矩形切片内的图块。
此外,应当指出的是,JVET-Q2001规定图片可以被划分为子图片,其中子图片是图片内的矩形CTU区域。子图片的左上CTU可以位于图片内的任何CTU位置,其中子图片被约束为包括一个或多个切片。因此,不同于图块,子图片不必被限制到特定行和列位置。应当指出的是,子图片可用于封装图片内感兴趣区域,并且子比特流提取过程可用于仅对特定感兴趣区域进行解码和显示。也就是说,如下文进一步详细描述的,编码视频数据的比特流包括网络抽象层(NAL)单元序列,其中NAL单元包封编码视频数据(即,对应于图片切片的视频数据),或者NAL单元包封用于对视频数据进行解码的元数据(例如,参数集),并且子比特流提取过程通过从比特流中移除一个或多个NAL单元来形成新比特流。
图3是示出根据图块、切片和子图片划分的图片组内的图片的示例的概念图。应当指出的是,本文所述技术可以适用于图块、切片、子图片、其子分区和/或其等效结构。也就是说,无论图片怎样被划分为区域,本文所述技术可普遍适用。例如,在一些情况下,本文所述技术可以适用于图块可以被划分为所谓的砖块的情况,其中砖块是特定图块内的矩形CTU行区域。此外,例如,在一些情况下,本文所述技术可以适用于一个或多个图块可被包括在所谓的图块组中的情况下,其中图块组包括整数个相邻图块。在一个示例中,图块组可以被称为切片。在图3所示的示例中,Pic3被示出为包括16个图块(即,Tile0至Tile15)和三个切片(即,Slice0至Slice2)。在图3所示的示例中,Slice0包括四个图块(即,Tile0至Tile3),Slice1包括八个图块(即,Tile4至Tile11),并且Slice2包括四个图块(即,Tile12至Tile15)。应当注意的是,图3示出了光栅扫描切片的示例。参考图3,示例性矩形切片将是Slice0包括图块Tile0、Tile4、Tile8和Tile12;Slice1包括图块Tile1、Tile2、Tile5、Tile6、Tile9、Tile10、Tile13和Tile14;并且Slice2包括图块Tile3、Tile7、Tile11和Tile15。此外,如图3的示例所示,Pic3被示出包括两个子画面(即,Subpicture0和Subpicture1),其中Subpicture0包括Slice0和Slice1并且其中Subpicture1包括Slice2。如上所述,子图片可用于封装图片内的感兴趣区域,并且可以使用子比特流提取过程以便选择性地对感兴趣区域进行解码(和显示)。例如,参考图3,子图片0可以对应于体育赛事呈现的动作部分(例如,字段的视图),并且子图片1可以对应于在体育赛事呈现期间显示的滚动横幅。通过以这种方式将图片组织成子图片,观看者可能能够禁用滚动横幅的显示。也就是说,通过子比特流提取过程,切片2NAL单元可以从比特流中移除(并且因此未被解码),并且切片0NAL单元和切片1NAL单元可以被解码并显示。下面进一步详细描述如何将图片的切片封装成相应NAL单元数据结构和子比特流提取。
如上所述,视频采样格式(也可以被称为色度格式)可以相对于CU中包括的亮度样本的数量来定义CU中包括的色度样本的数量。例如,对于4:2:0采样格式,亮度分量的采样率是水平和垂直两个方向的色度分量的采样率的两倍。因此,对于根据4:2:0格式格式化的CU,用于亮度分量的样本阵列的宽度和高度是用于色度分量的每个样本阵列的宽度和高度的两倍。图4是示出根据4:2:0样本格式格式化的编码单元的示例的概念图。图4示出了色度样本相对于CU内的亮度样本的相对位置。如上所述,通常根据水平和垂直亮度样本的数量来定义CU。因此,如图4所示,根据4:2:0样本格式格式化的16×16CU包括亮度分量的16×16样本和用于每个色度分量的8×8样本。此外,在图4所示的示例中,示出了16×16CU的相邻视频块的色度样本相对于亮度样本的相对位置。对于根据4:2:2格式格式化的CU,亮度分量的样本阵列的宽度是每个色度分量的样本阵列的宽度的两倍,但是亮度分量的样本阵列的高度等于每个色度分量的样本阵列的高度。此外,对于根据4:4:4格式格式化的CU,亮度分量的样本阵列具有与每个色度分量的样本阵列相同的宽度和高度。
对于帧内预测编码,帧内预测模式可指定图片内的参考样本的位置。在ITU-TH.265中,已定义的可能的帧内预测模式包括平面(即,表面拟合)预测模式、DC(即平坦的整体平均)预测模式,以及33个角度预测模式(predMode:2-34)。在JEM中,已定义的可能的帧内预测模式包括平面预测模式、DC预测模式,以及65个角度预测模式。应当指出的是,平面预测模式和DC预测模式可以被称为无方向预测模式,并且角度预测模式可以被称为方向预测模式。应当指出的是,无论已定义的可能预测模式的数量如何,本文描述的技术可以是普遍适用的。
对于帧间预测编码,确定参考图片,并且运动矢量(MV)识别该参考图片中用于生成对当前视频块的预测的样本。例如,可使用位于一个或多个先前编码的图片中的参考样本值来预测当前视频块,并且运动矢量用于指示参考块相对于当前视频块的位置。运动矢量可描述例如运动矢量的水平位移分量(即MVx)、运动矢量的垂直位移分量(即MVy)和运动矢量的分辨率(例如,四分之一像素精度、二分之一像素精度、一像素精度、二像素精度、四像素精度)。先前解码的图片(其可包括在当前图片之前或之后输出的图片)可被组织成一个或多个参考图片列表,并且使用参考图片索引值来标识。此外,在帧间预测编码中,单预测是指使用来自单个参考图片的样本值生成预测,双预测是指使用来自两个参考图片的相应样本值生成预测。也就是说,在单预测中,单个参考图片和对应的运动矢量用于生成对当前视频块的预测,而在双预测中,第一参考图片和对应的第一运动矢量以及第二参考图片和对应的第二运动矢量用于生成对当前视频块的预测。在双预测中,将相应的样本值组合(例如,相加、舍入和裁剪,或根据权重进行平均)以生成预测。图片及其区域可基于哪些类型的预测模式可用于对其视频块进行编码而被分类。也就是说,对于具有B类型的区域(例如,B切片),可利用双预测、单预测和帧内预测模式,对于具有P类型的区域(例如,P切片),可利用单预测和帧内预测模式,对于具有I类型的区域(例如,I切片),只能利用帧内预测模式。如上所述,通过参考索引来识别参考图片。例如,对于P切片,可以存在单个参考图片列表RefPicList0,并且对于B切片,除了RefPicList0之外,可以存在第二独立参考图片列表RefPicList1。应当指出的是,对于B切片中的单预测,可使用RefPicList0或RefPicList1中的一者来生成预测。此外,应当指出的是,在解码过程期间,在开始对图片进行解码时,从存储在解码图片缓冲器(DPB)中的先前解码的图片生成参考图片列表。
此外,编码标准可支持各种运动矢量预测模式。运动矢量预测使能够基于另一运动矢量来导出用于当前视频块的运动矢量的值。例如,可以从当前视频块的空间相邻块和时间相邻块导出具有相关联的运动信息的一组候选块。此外,所生成的(或默认的)运动信息可用于运动矢量预测。运动矢量预测的示例包括高级运动矢量预测(AMVP)、时间运动矢量预测(TMVP)、所谓的“合并”模式,以及“跳过”和“直接”运动推理。此外,运动矢量预测的其他示例包括高级时间运动矢量预测(ATMVP)和空间-时间运动矢量预测(STMVP)。对于运动矢量预测,视频编码器和视频解码器两者执行相同的过程以导出一组候选。因此,对于当前视频块,在编码和解码期间生成相同的一组候选。
如上所述,对于帧间预测编码,先前编码的图片中的参考样本用于对当前图片中的视频块进行编码。在对当前图片进行编码时可用作参考的先前编码的图片被称为参考图片。应当指出的是,解码顺序不一定对应于图片输出顺序,即视频序列中图片的时间顺序。在ITU-T H.265中,当图片被解码时,其被存储到解码图片缓冲器(DPB)(其可被称为帧缓冲器、参考缓冲器、参考图片缓冲器等)。在ITU-T H.265中,存储到DPB的图片在被输出时从DPB中移除,并且不再需要用于编码后续图片。在ITU-TH.265中,在对切片标头进行解码之后,即,在对图片进行解码开始时,每个图片调用一次是否应从DPB中移除图片的确定。例如,参考图3,Pic2被示出为参考Pic1。类似地,Pic3被示出为参考Pic0。关于图3,假设画面数量对应于解码顺序,DPB将填充如下:在解码Pic0之后,DPB将包括{Pic0};在解码Pic1开始时,DPB将包括{Pic0};在解码Pic1之后,DPB将包括{Pic0,Pic1};在解码Pic2开始时,DPB将包括{Pic0,Pic1}。然后,将参考Pic1解码Pic2,并且在解码Pic2之后,DPB将包括{Pic0,Pic1,Pic2}。在解码Pic3开始时,画面Pic0和Pic1将被标记以从DPB中移除,因为它们不是解码Pic3(或任何后续画面,未示出)所需的,并且假设Pic1和Pic2已被输出,则DPB将被更新以包括{Pic0}。然后将参考Pic0对Pic3进行解码。标记图片以将其从DPB中移除的过程可以称为参考图片集(RPS)管理。
如上所述,帧内预测数据或帧间预测数据用于产生样本值的块的参考样本值。包括在当前PB或另一类型的图片区域结构和相关联的参考样本(例如,使用预测生成的那些)中的样本值之间的差可以被称为残差数据。残差数据可以包括对应于视频数据的每个分量的相应差值阵列。残差数据可能在像素域中。可对差值阵列应用变换诸如离散余弦变换(DCT)、离散正弦变换(DST)、整数变换、小波变换或概念上类似的变换,以生成变换系数。应当指出的是,在ITU-T H.265和JVET-Q2001中,CU与在CU位阶处具有其根的变换树结构相关联。变换树被划分为一个或多个变换单元(TU)。即,为了生成变换系数,可以对差值的阵列进行划分(例如,可以将四个8×8变换应用于16×16残差值阵列)。对于视频数据的每个分量,差值的此类再分可被称为变换块(TB)。应当指出的是,在一些情况下,可以(在视频编码器中)应用核心变换和后续二次变换来生成变换系数。对于视频解码器,变换的顺序是相反的。
可以直接对变换系数或残差样本值执行量化过程(例如,就调色板编码量化而言)。量化通过限制为一组指定值的振幅来近似变换系数。量化实质上对变换系数进行缩放以便改变表示一组变换系数所需的数据量。量化可以包括将变换系数(或将偏移值添加到变换系数得到的值)除以量化缩放因子和任何相关联的取整函数(例如,取整为最接近的整数)。量化的变换系数可以被称为系数位阶值。逆量化(或“去量化”)可以包括将系数位阶值与量化缩放因子相乘,以及任何倒数取整或偏移加法运算。应当指出的是,如本文所用,术语量化过程在一些情况下可指除以缩放因子以生成位阶值,并且在一些情况下可指乘以缩放因子以恢复变换系数。也就是说,量化过程在一些情况下可以指量化,而在一些情况下可以指逆量化。此外,应当指出的是,虽然在下面的示例中的一些示例中关于与十进制记数法相关的算术运算描述了量化过程,但是这样的描述是为了说明的目的,并且不应该被解释为进行限制。例如,本文描述的技术可以在使用二进制运算等的设备中实现。例如,本文描述的乘法和除法运算可以使用移位运算等来实现。
可根据熵编码技术对量化的变换系数和语法元素(例如,指示视频块的编码结构的语法元素)进行熵编码。熵编码过程包括使用无损数据压缩算法对语法元素值进行编码。熵编码技术的示例包括内容自适应可变长度编码(CAVLC)、上下文自适应二进制算术编码(CABAC)、概率区间划分熵编码(PIPE)等。熵编码的量化变换系数和对应的熵编码的语法元素可形成可用于在视频解码器处再现视频数据的兼容比特流。熵编码过程,例如CABAC,可以包括对语法元素进行二值化。二值化是指将语法元素的值转换为一个或多个位的序列的过程。这些位可以被称为“bin”。二值化可以包括以下编码技术中的一种或组合:固定长度编码、一元编码、截断一元编码、截断Rice编码、Golomb编码、k阶指数Golomb编码和Golomb-Rice编码。例如,二值化可以包括使用8位固定长度二值化技术将语法元素的整数值5表示为00000101,或者使用一元编码二值化技术将整数值5表示为11110。如本文所用,术语固定长度编码、一元编码、截断一元编码、截断Rice编码、Golomb编码、k阶指数Golomb编码和Golomb-Rice编码中的每一个可以指这些技术的一般实现和/或这些编码技术的更具体实现。例如,可以根据视频编码标准具体地定义Golomb-Rice编码实现。在CABAC的示例中,对于特定bin,上下文提供bin的最大概率状态(MPS)值(即,bin的MPS为0或1中的一者),以及bin是MPS或最小概率状态(LPS)的概率值。例如,上下文可以指示bin的MPS为0,并且bin为1的概率为0.3。应当指出的是,可以基于包括当前语法元素和先前编码的语法元素中的bin的先前编码的bin的值来确定上下文。例如,与相邻视频块相关联的语法元素的值可以用于确定当前bin的上下文。
关于本文所用的公式,可以使用以下算术运算符:
+ 加法
- 减法
* 乘法,包括矩阵乘法
xy 求幂。将x指定为y的幂。在其他上下文中,此类符号用于上标而非旨在用于解释为求幂。
/ 将结果向着零截断的整数除法。例如,将7/4和-7/-4截断为1,并且将-7/4和7/-4截断为-1。
÷ 在不旨在进行截断或舍入情况下用于表示数学公式中的除法。
Figure BDA0003890262110000131
在不旨在进行截断或舍入情况下用于表示数学公式中的除法。
此外,可使用以下数学函数:
Figure BDA0003890262110000132
Floor(x),小于或等于x的最大整数。
Log2(x)x的以2为底的对数;
Figure BDA0003890262110000133
Figure BDA0003890262110000134
Ceil(x)大于或等于x的最小整数。
Figure BDA0003890262110000141
Round(x)=Sign(x)*Floor(Abs(x)+0.5)
Figure BDA0003890262110000142
Swap(x,y)=(y,x)
关于本文使用的示例性语法,可以应用以下逻辑运算符的定义:
x&&y x和y的布尔逻辑“和”
x||y x和y的布尔逻辑“或”
!布尔逻辑“否”
x?y:z如果x为TRUE,则求值为y;否则,求值为z。
此外,可应用以下关系运算符:
> 大于
≥ 大于或等于
< 小于
≤ 小于或等于
== 等于
!= 不等于
此外,可应用以下逐位运算符:
& 逐位“与”。当对整型变量进行运算时,对整数值的二进制补码表示进行运算。当对包含比另一 变量更少位的二进制变量进行运算时,通过添加等于0的更多有效位来扩展较短变量。
| 逐位“或”。当对整型变量进行运算时,对整数值的二进制补码表示进行运算。当对包含比另一 变量更少位的二进制变量进行运算时,通过添加等于0的更多有效位来扩展较短变量。
^ 逐位“异或”。当对整型变量进行运算时,对整数值的二进制补码表示进行运算。当对包含比另 一变量更少位的二进制变量进行运算时,通过添加等于0的更多有效位来扩展较短变量。
x>>y x乘y二进制数字的二进制补码整数表示的算术右移。该函数仅针对y的非负整数值来定义。由于右 移而移位到最高有效位(MSB)中的位具有等于移位操作之前的x的MSB的值。
x<<y x乘y二进制数字的二进制补码整数表示的算术左移。该函数仅针对y的非负整数值来定义。由 于左移而移位到最低有效位(LSB)中的位具有等于0的值。
此外,可应用以下算术运算符:
= 赋值运算符
++ 递增,即,x++等同于x=x+1;当在阵列索引中使用时,在递增操作之前评估变量的值。
-- 递减,即,x--等同于x=x-1;当在阵列索引中使用时,在递减操作之前评估变量的值。
+= 按指定量递增,即x+=3等同于x=x+3,并且x+=(-3)等同于x=x+(-3)。
-= 按指定量递减,即x-=3等同于x=x-3,并且x-=(-3)等同于x=x-(-3)。
此外,应当指出的是,在本文所用的语法描述符中,可以应用以下描述符:
-ae(v):上下文自适应算术熵编码语法元素。
-b(8):具有任何位串模式的字节(8位)。该描述符的解析过程由函数read_bit(8)的返回值指定。
-f(n):从最左位起使用n位(从左到右)写入的固定模式位串。该描述符的解析过程由函数read_bit(n)的返回值指定。
-i(n):使用n位的无符号整数。当语法表中n是“v”时,位数以取决于其他语法元素的值的方式变化。该描述符的解析过程由函数read_bits(n)的返回值指定,该返回值被解释为首先写入最高有效位的二进制补码整数表示。
-se(v):有符号整数0阶Exp-Golomb编码的语法元素,从最左位起。
-u(n):使用n位的无符号整数。当语法表中n是“v”时,位数以取决于其他语法元素的值的方式变化。该描述符的解析过程由函数read_bits(n)的返回值指定,该返回值被解释为首先写入最高有效位的无符号整数的二进制表示。
-ue(v):无符号整数0阶Exp-Golomb编码的语法元素,从最左位起。
如上所述,视频内容包括由一系列图片组成的视频序列,并且每个图片可被分成一个或多个区域。在JVET-Q2001中,图片的编码表示包括AU内的特定层的VCL NAL单元并且包含图片的所有CTU。例如,再次参考图3,Pic3的编码表示被封装在三个编码切片NAL单元(即,Slice0 NAL单元、Slice1 NAL单元和Slice2 NAL单元)中。应当指出的是,术语视频编码层(VCL)NAL单元用作编码切片NAL单元的总称,即,VCL NAL是包括所有类型的切片NAL单元的总称。如上所述,并且在下文进一步详细描述,NAL单元可以封装用于对视频数据进行解码的元数据。封装用于对视频序列进行解码的元数据的NAL单元通常被称为非VCL NAL单元。因此,在JVET-Q2001中,NAL单元可以是VCL NAL单元或非VCL NAL单元。应当指出的是,VCL NAL单元包括切片标头数据,其提供用于对特定切片进行解码的信息。因此,在JVET-Q2001中,用于对视频数据进行解码的信息(在一些情况下可以被称为元数据)不限于被包括在非VCL NAL单元中。JVET-Q2001规定图片单元(PU)是根据指定的分类规则彼此相关联、在解码顺序中连续并且包含正好一个编码图片的一组NAL单元,并且访问单元(AU)是属于不同层并且包含与从DPB输出的同一时间相关联的编码图片的一组PU。JVET-Q2001进一步规定层是全部具有层标识符的特定值的一组VCL NAL单元及其相关联非VCL NAL单元。此外,在JVET-Q2001中,PU由零个或一个PH NAL单元、一个编码图片(其由一个或多个VCL NAL单元构成)以及零个或更多个其他非VCL NAL单元组成。此外,在JVET-Q2001中,编码视频序列(CVS)是AU序列,其由按解码顺序排列的CVSS AU和随后的零个或更多个非CVSS AU的AU(包括到下一个(不含)是CVSS AU的任何后续AU之前的所有后续AU)组成,其中编码视频序列开始(CVSS)AU是其中CVS中的每个层存在PU的AU,并且每个存在的图片单元中的编码图片是编码层视频序列开始(CLVSS)图片。在JVET-Q2001中,编码层视频序列(CLVS)是同一层内的PU序列,其由按解码顺序排列的CLVSS PU和随后的非CLVSS PU的零个或更多个PU(包括到下一个(不含)是CLVSS PU的任何后续PU之前的所有后续PU)组成。这就是说,在JVET-Q2001中,比特流可被描述为包括形成一个或多个CVS的AU序列。
多层视频编码使得视频呈现能够被解码/显示为对应于视频数据基础层的呈现,并且被解码/显示为对应于视频数据的增强层的一个或多个附加呈现。例如,基底层可以使得能够呈现具有基本质量水平(例如,高清晰度呈现和/或30Hz帧率)的视频呈现,并且增强层可以使得能够呈现具有增强的质量水平(例如,超高清渲染和/或60Hz帧率)的视频呈现。可以通过参考基底层来对增强层进行编码。也就是说,例如可以通过参考基底层中的一个或多个图片(包括其缩放版本)来对增强层中的图片进行编码(例如,使用层间预测技术)。应当指出的是,层也可彼此独立地被编码。在这种情况下,两层之间可能不存在层间预测。每个NAL单元可以包括指示NAL单元与之相关联的视频数据层的标识符。如上所述,子比特流提取过程可以用于仅对图片的特定感兴趣区域进行解码和显示。此外,子比特流提取过程可以用于仅对特定视频层进行解码和显示。子比特流提取可以指接收兼容或符合性比特流的设备通过丢弃和/或修改接收到的比特流中的数据来形成新的兼容或符合性比特流的过程。例如,子比特流提取可以用于形成对应于特定视频表示(例如,高质量表示)的新的兼容或符合性比特流。
在JVET-Q2001中,视频序列、GOP、图片、切片和CTU中的每一者可以与描述视频编码属性的元数据相关联,并且一些类型的元数据被封装在非VCL NAL单元中。JVET-Q2001定义了可用于描述视频数据和/或视频编码属性的参数集。特别地,JVET-Q2001包括以下四种参数集:视频参数集(VPS)、序列参数集(SPS)、图片参数集(PPS)和自适应参数集(APS),其中SPS应用于零个或更多整数个CVS,PPS适用于零个或更多整数个编码图片,APS适用于零个或更多个切片,并且VPS可以任选地由SPS引用。PPS应用于引用它的单个编码图片。在JVET-Q2001中,参数集可以被封装为非VCL NAL单元,并且/或者可以作为消息发送信号通知。JVET-Q2001还包括图片标头(PH),其被封装为非VCL NAL单元。在JVET-Q2001中,图片标头应用于编码图片的所有切片。JVET-Q2001进一步使得能够发送信号通知解码能力信息(DCI)和补充增强信息(SEI)消息。在JVET-Q2001中,DCI和SEI消息协助与解码、显示或其他目的有关的过程,然而,可能不需要DCI和SEI消息来根据解码过程构建亮度或色度样本。在JVET-Q2001中,可以使用非VCL NAL单元在比特流中发送信号通知DCI和SEI消息。此外,DCI和SEI消息可以通过某种机制传送,而不是通过存在于比特流中(即,在带外发送信号通知)。
图5示出了包括多个CVS的比特流的示例,其中CVS包括AU,并且AU包括图片单元。图5中所示的示例对应于在比特流中封装图3的示例中所示的切片NAL单元的示例。在图5所示的示例中,Pic3的对应画面单元包括三个VCL NAL编码切片NAL单元,即Slice0 NAL单元、Slice1 NAL单元和Slice2 NAL单元,以及两个非VCL NAL单元,即PPS NAL单元和PH NAL单元。应当指出的是,在图5中,标头是NAL单元标头(即,不与切片标头混淆)。此外,应当指出的是,在图5中,未示出的其他非VCL NAL单元可被包括在CVS中,例如SPS NAL单元、VPS NAL单元、SEI消息NAL单元等。此外,应当指出的是,在其他示例中,用于解码Pic3的PPS NAL单元可被包括在比特流中的其他地方,例如,在对应于Pic0的画面单元中,或可以由外部机构提供。在JVET-Q2001中,PH语法结构可以存在于VCL NAL单元的切片标头中或存在于当前PU的PH NAL单元中。
如上所述,视频采样格式(也可以被称为色度格式)可以相对于视频块中包括的亮度样本的数量来定义视频块中包括的色度样本的数量。表1示出了在JVET-Q2001中如何基于JVET-Q2001中的SPS中包括的语法元素chroma_format_idc和separate_colour_plane_flag的值来指定色度格式。此外,表1示出了如何根据色度格式来导出变量SubWidthC和SubHeightC。SubWidthC和SubHeightC用于帧内预测,如下文进一步详细描述。关于表1,JVET-Q2001提供了以下规定:
在单色采样中,只存在一个样本阵列,该样本阵列被标称地视为亮度阵列。
在4:2:0采样中,两个色度阵列中的每一个具有该亮度阵列的一半的高度和一半的宽度。
在4:2:2采样中,两个色度阵列中的每一个具有该亮度阵列的相同的高度和一半的宽度。
在4:4:4采样中,根据separate_colour_plane_flag的值,以下适用:
-如果separate_colour_plane_flag等于0,则两个色度阵列中的每一个具有与该亮度阵列相同的高度和宽度。
-否则(separate_colour_plane_flag等于1),三个颜色平面被单独处理为单色采样图片。
chroma_format_idc separate_colour_plane_flag 色度格式 SubWidth C SubHeight C
0 0 单色 1 1
1 0 4:2:0 2 2
2 0 4:2:2 2 1
3 0 4:4:4 1 1
3 1 4:4:4 1 1
表1
如上进一步所述,帧内预测数据可指示如何为当前视频块生成预测。也就是说,帧内预测数据指示如何生成预测样本值阵列,例如predSamples[x][y]。应当指出的是,预测样本阵列的生成可包括填充(即,复制样本值)、投影(即,将角度方向映射到特定样本,和/或内插来自角度预测的样本值)中的一者或多者;以及对预测样本值进行平滑和/或滤波。在JVET-Q2001中,用于亮度的已定义可能的帧内预测模式包括平面预测模式(predMode:0)、DC预测模式(predMode:1)、角度预测模式(preMode:2..66)和仅适用于色度分量的跨分量线性模型(CCLM)预测模式(predMode:81..83)。也就是说,JVET-Q2001指定了用于通用帧内预测的以下过程:
通用帧内样本预测
该过程的输入为:
-样本位置(xTbCmp,yTbCmp),其指定当前变换块相对于当前图片左上样本的左上样本,
-变量predModeIntra,其指定帧内预测模式,
-变量nTbW,其指定变换块宽度,
-变量nTbH,其指定变换块高度,
-变量nCbW,其指定编码块宽度,
-变量nCbH,其指定编码块高度,
-变量cIdx,其指定当前块的颜色分量。
该过程的输出是预测的样本predSamples[x][y],其中x=0..nTbW-1,y=0..nTbH-1。
变量refW和refH如下导出:
-如果IntraSubPartitionsSplitType等于ISP_NO_SPLIT或者cIdx不等于0,则以下适用:
refW=nTbW*2
refH=nTbH*2
-否则(IntraSubPartitionsSplitType不等于ISP_NO_SPLIT并且cIdx等于0),以下适用:
refW=nCbW+nTbW
refH=nCbH+nTbH
指定帧内预测参考线索引的变量refIdx如下导出:
refIdx=(cIdx==0)?IntraLumaRefLineIdx[xTbCmp][yTbCmp]:0
如所指定地调用广角帧内预测模式映射过程,其中predModeIntra、nTbW、nTbH和cIdx作为输入,并且经修改的predModeIntra作为输出,其中广角帧内预测模式映射过程不修改predModeIntra等于(81..83)的predModeIntra。
变量refFilterFlag如下导出:
-如果predModeIntra等于0、-14、-12、-10、-6、2、34、66、72、
76、78或80,则refFilterFlag设置为等于1。
-否则,将refFilterFlag设置为等于0。
对于参考样本p[x][y]的生成,其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx,应用以下有序步骤:
1.调用如下指定的参考样本可用性标记过程,其中以样本位置(xTbCmp,yTbCmp)、帧内预测参考行索引refIdx、参考样本宽度refW、参考样本高度refH、颜色分量索引cIdx作为输入,并且以参考样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)作为输出。
2.当至少一个样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)被标记为“不可用于帧内预测”时,调用如下指定的参考样本替换过程,其中以帧内预测参考行索引refIdx、参考样本宽度refW、参考样本高度refH、参考样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)和颜色分量索引cIdx作为输入,并且以经修改的参考样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)作为输出。
3.调用如下文指定的参考样本滤波过程,其中以帧内预测参考行索引refIdx、变换块宽度nTbW和高度nTbH、参考样本宽度refW、参考样本高度refH、参考滤波器标记refFilterFlag、未经滤波样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)和颜色分量索引cIdx作为输入,并且以参考样本p[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)作为输出。
根据predModeIntra的帧内样本预测过程应用如下:
-如果predModeIntra等于INTRA_PLANAR,则调用如下文指定的对应帧内预测模式过程,其中以变换块宽度nTbW和变换块高度nTbH以及参考样本阵列p作为输入,并且输出是预测的样本阵列predSamples。
-否则,如果predModeIntra等于INTRA_DC,则调用如下文指定的对应帧内预测模式过程,其中以变换块宽度nTbW、变换块高度nTbH、帧内预测参考行索引refIdx以及参考样本阵列p作为输入,并且输出是预测的样本阵列predSamples。
-否则,如果predModeIntra等于INTRA_LT_CCLM、INTRA_L_CCLM或INTRA_T_CCLM,则调用如下指定的对应的帧内预测模式过程,其中以帧内预测模式predModeIntra、设置为等于(xTbCmp,yTbCmp)的样本位置(xTbC,yTbC)、变换块宽度nTbW和高度nTbH、颜色分量索引cIdx以及参考样本阵列p作为输入,并且输出是预测的样本阵列predSamples。
-否则,调用指定的对应的帧内预测模式过程,其中以帧内预测模式predModeIntra、帧内预测参考行索引refIdx、变换块宽度nTbW、变换块高度nTbH、参考样本宽度refW、参考样本高度refH、编码块宽度nCbW和高度nCbH、参考滤波器标记refFilterFlag、颜色分量索引cIdx和参考样本阵列p作为输入,并且以预测的样本阵列predSamples作为输出。
当所有以下条件都为真时,利用帧内预测模式predModeIntra、变换块宽度nTbW、变换块高度nTbH、预测样本predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)、基准样本宽度refW、基准样本高度refH和基准样本p[x][y](其中x=-1,y=-1..refH-1和x=0..refW-1,y=-1)作为输入,并且输出是修改的预测的样本阵列predSamples,调用位置相关预测样本滤波过程:
-nTbW大于或等于4,并且nTbH大于或等于4
-refIdx等于0或者cIdx不等于0
-BdpcmFlag[xTbCmp][yTbCmp][cIdx]等于0
-以下条件之一为真:
-predModeIntra等于INTRA_PLANAR
-predModeIntra等于INTRA_DC
-predModeIntra小于或等于INTRA_ANGULAR18
-predModeIntra大于或等于INTRA_ANGULAR50且小于INTRA_LT_CCLM
参考样本可用性标记过程
该过程的输入为:
-样本位置(xTbCmp,yTbCmp),其指定当前变换块相对于当前图片左上样本的左上样本,
-变量refIdx,其指定帧内预测参考行索引,
-变量refW,其指定样本单位的参考区域的宽度,
-变量refH,其指定样本单位的参考区域的高度,
-变量cIdx,其指定当前块的颜色分量。
该过程的输出是用于帧内样本预测的参考样本refUnfilt[x][y],其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx。
作为在循环滤波器过程之前的重构样本,refW+refH+1+(2*refIdx)相邻样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1,和x=-refIdx..refW-1,y=-1-refIdx)如下导出:
-相邻位置(xNbCmp,yNbCmp)由以下指定:
(xNbCmp,yNbCmp)=(xTbCmp+x,yTbCmp+y)
-当前亮度位置(xTbY,yTbY)和相邻亮度位置(xNbY,yNbY)如下导出:
(xTbY,yTbY)=(cIdx==0)?(xTbCmp,yTbCmp):
(xTbCmp*SubWidthC,yTbCmp*SubHeightC)
(xNbY,yNbY)=(cIdx==0)?(xNbCmp,yNbCmp):
(xNbCmp*SubWidthC,yNbCmp*SubHeightC)
-如下指定的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xNbY,yNbY)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availableN。
-每个样本refUnfilt[x][y]如下导出:
-如果availableN等于FALSE,则样本refUnfilt[x][y]标记为“不可用于帧内预测”。
-否则,样本refUnfilt[x][y]标记为“可用于帧内预测”,并且在位置(xNbCmp,yNbCmp)处的样本被分配给refUnfilt[x][y]。
用于相邻块可用性的导出过程
该过程的输入为:
-当前块的左上样本相对于当前图片的左上亮度样本的亮度位置(xCurr,yCurr),
-相邻块相对于当前图片的左上亮度样本覆盖的亮度位置(xNbY,yNbY),
-变量checkPredModeY,其指定可用性是否取决于预测模式,
-变量cIdx,其指定当前块的颜色分量。
该过程的输出是覆盖位置(xNbY,yNbY)的相邻块的可用性,表示为availableN。
相邻块可用性availableN如下导出:
-如果以下条件中的一者或多者为真,则availableN设定为等于FALSE:
-xNbY小于0。
-yNbY小于0。
-xNbY大于或等于pic_width_in_luma_samples。
-yNbY大于或等于pic_height_in_luma_samples。
-IsAvailable[cIdx][xNbY][yNbY]等于FALSE。
-相邻块被包含在与当前块不同的切片中。
-相邻块被包含在与当前块不同的图块中。
-sps_entropy_coding_sync_enabled_flag等于1,并且(xNbY>>CtbLog2SizeY)大于或等于(xCurr>>CtbLog2SizeY)+1。
-否则,availableN设置为等于TRUE。
当以下条件中的全部为真时,availableN设置为等于FALSE:
-checkPredModeY等于TRUE。
-availableN设置为等于TRUE。
-CuPredMode[0][xNbY][yNbY]不等于CuPredMode[0][xCurr][yCurr]。
参考样本替换过程
该过程的输入为:
-变量refIdx,其指定帧内预测参考行索引,
-变量refW,其指定样本单位的参考区域的宽度,
-变量refH,其指定样本单位的参考区域的高度,
-用于帧内样本预测的参考样本refUnfilt[x][y],其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx,
-变量cIdx,其指定当前块的颜色分量。
该过程的输出是用于帧内样本预测的经修改的参考样本refUnfilt[x][y],其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx。
样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)的值如下修改:
-如果所有样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)标记为“不可用于帧内预测”,则refUnfilt[x][y]的所有值设置为等于1<<(BitDepth-1)。
-否则(至少一个但不是所有样本refUnfilt[x][y]被标记为“不可用于帧内预测”),应用以下有序步骤:
1.当refUnfilt[-1-refIdx][refH-1]标记为“不可用于帧内预测”时,依次从x=-1-refIdx,y=refH-1到x=-1-refIdx,y=-l-refIdx,然后从x=-refIdx,y=-1-refIdx到x=refW-1,y=-1-refIdx对标记为“可用于帧内预测”的样本refUnfilt[x][y]进行搜索。一旦找到标记为“可用于帧内预测”的样本refUnfilt[x][y],就终止搜索并且将refUnfilt[-1-refIdx][refH-1]的值设置为等于refUnfilt[x][y]的值。
2.对于x=-1-refIdx,y=refH-2..-1-refIdx,当refUnfilt[x][y]标记为“不可用于帧内预测”时,refUnfilt[x][y]的值设置为等于refUnfilt[x][y+1]的值。
3.对于x=-refIdx..refW-1,y=-1-refIdx,当refUnfilt[x][y]标记为“不可用于帧内预测”时,refUnfilt[x][y]的值设置为等于refUnfilt[x-1][y]的值。
所有样本refUnfilt[x][y](其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx)标记为“可用于帧内预测”。
参考样本滤波过程
该过程的输入为:
-变量refIdx,其指定帧内预测参考行索引,
-变量nTbW,其指定变换块宽度,
-变量nTbH,其指定变换块高度,
-变量refW,其指定参考样本宽度,
-变量refH,其指定参考样本高度,
-变量refFilterFlag,其指定参考滤波器标记的值,
-(未经滤波的)相邻样本refUnfilt[x][y],其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx,
-变量cIdx,其指定当前块的颜色分量。
该过程的输出是参考样本p[x][y],其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx。
变量filterFlag如下导出:
-如果以下条件中的全部为真,则将filterFlag设置为等于1:
-refIdx等于0
-nTbW*nTbH大于32
-cIdx等于0
-IntraSubPartitionsSplitType等于ISP_NO_SPLIT
-refFilterFlag等于1
-否则,将filterFlag设置为等于0。
对于参考样本p[x][y]的推导,以下适用:
-如果filterFlag等于1,则经滤波的样本值p[x][y](其中x=-1,y=-1..refH-1和x=0..refW-1,y=-1)如下导出:
P[-1][-1]=(refUnfilt[-1][0]+2*refUnfilt[-1][-1]+refUnfilt[0[-1]+2)>>2p[-1][y]=
(refUnfilt[-1][y+1]+2*refUnfilt[-1][y]+refUnfilt[-1][y-1]+2)>>2fory=0..refH-2
p[-1][refH-1]=refUnfilt[1][refH-1]
p[x][-1]=
(refUnfilt[x-1][-1]+2*refUnfilt[x][-1]+refUnfilt[x+1][-1]+2)>>2forx=0..refW-2
p[refW-1][-1]=refUnfilt[refW-1][-1]
否则,将参考样本值p[x][y]设置为等于未经滤波的样本值refUnfilt[x][y],其中x=-1-refIdx,y=-1-refIdx..refH-1和x=-refIdx..refW-1,y=-1-refIdx。
JVET-Q2001规定以下用于跨分量线性模型(CCLM)预测模式的帧内预测模式过程:
该过程的输入为:
-帧内预测模式predModeIntra,
-当前变换块的左上样本相对于当前图片的左上样本的样本位置(xTbC,yTbC),
-变量nTbW,其指定变换块宽度,
-变量nTbH,其指定变换块高度,
-变量cIdx,其指定当前块的颜色分量,
-色度相邻样本p[x][y],其中x=-1,y=0..2*nTbH-1,和x=0..2*nTbW-1,y=-1。
该过程的输出是预测的样本predSamples[x][y],其中x=0..nTbW-1,y=0..nTbH-1。
当前亮度位置(xTbY,yTbY)如下导出:
(xTbY,yTbY)=(xTbC<<(SubWidthC-1),yTbC<<(SubHeightC-1))
变量availL、availT和availTL如下导出:
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY-1,yTbY)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availL。
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY,yTbY-1)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availT。
-变量availTL如下导出:
availTL=availL&&availT
-可用右上相邻色度样本的数量numTopRight如下导出:
-变量numTopRight设置为等于0并且availTR设置为等于TRUE。
-当predModeIntra等于INTRA_T_CCLM时,以下适用于x=nTbW..2*nTbW-1,直到availTR等于FALSE或者x等于2*nTbW-1:
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY+x,yTbY-1)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availTR
-当availTR等于TRUE时,numTopRight加一。
-可用左下相邻色度样本的数量numLeftBelow如下导出:
-变量numLeftBelow设置为等于0并且availLB设置为等于TRUE。
-当predModeIntra等于INTRA_L_CCLM时,以下适用于y=nTbH..2*nTbH-1,直到availLB等于FALSE或者y等于2*nTbH-1:
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY-1,yTbY+y)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availLB
-当availLB等于TRUE时,numLeftBelow加一。
顶部和右上的可用相邻色度样本的数量numSampT以及左侧和左下的可用相邻色度样本的数量numSampL如下导出:
-如果predModeIntra等于INTRA_LT_CCLM,则以下适用:
numSampT=availT?nTbW:0
numSampL=availL?nTbH:0
-否则,以下适用:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight,nTbH)):0
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow,nTbW)):0
变量bCTUboundary如下导出:
bCTUboundary=(yTbY&(CtbSizeY-1)==0)?TRUE:FALSE.
变量cntN和阵列pickPosN,N被替换为L和T,如下导出:
-变量numIs4N如下导出:
numIs4N=((availT&&availL&&predModeIntra==INTRA_LT_CCLM)?0:1)
-变量startPosN设置为等于numSampN>>(2+numIs4N)。
-变量pickStepN设置为等于Max(1,numSampN>>(1+numIs4N))。
-如果availN等于TRUE,并且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则进行以下分配:
-cntN设置为等于Min(numSampN,(1+numIs4N)<<1)。
-pickPosN[pos]设置为等于(startPosN+pos*pickStepN),其中pos=0..cntN-1。
-否则,cntN设置为等于0。
预测样本predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
-如果numSampL和numSampT均等于0,则以下适用:
predSamples[x][y]=1<<(BitDepth-1)
-否则,应用以下有序步骤:
1.并置的亮度样本pY[x][y](其中x=0..nTbW*SubWidthC-1,y=0..nTbH*SubHeightC-1)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
2.相邻亮度样本pY[x][y]如下导出:
-当numSampL大于0时,相邻左亮度样本pY[x][y](其中x=-1..-3,y=0..SubHeightC*numSampL-1)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
-当availT等于FALSE时,相邻顶部亮度样本pY[x][y](其中x=-l..SubWidthC*numSampT--1,y=)设置为等于亮度样本pY[x][0]。
-当availL等于FALSE时,相邻左亮度样本pY[x][y](其中x=-1..-3,y=-1..SubHeightC*numSampL-1)设置为等于亮度样本pY[0][y]。
-当numSampT大于0时,相邻顶部亮度样本pY[x][y](其中x=0..SubWidthC*numSampT-1,y=-1,-2)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
-当availTL等于TRUE时,相邻左上亮度样本pY[x][y](其中x=-l,y=-l,-2)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
3.下采样的并置的亮度样本pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
-如果SubWidthC和SubHeightC均等于1,则以下适用:
-pDs¥[x][y](其中x=1..nTbW-1,y=1..nTbH-1)如下导出:
pDstY[x][y]=pY[x][y]
-否则,以下适用:
-维滤波器系数阵列F1和F2和二维滤波器系数阵列F3和F4指定如下。
F1[0]=2,F1[1]=0
F2[0]=1,F2[1]=2,F2[2]=1
F3[I][j]=F4[I][j]=0,其中i=0..2,j=0..2
-如果SubWidthC和SubHeightC均等于2,则以下适用:
F1[0]=1,F1[1]=1
F3[0][1]=1,F3[1][1]=4,F3[2][1]=1,
F3[1][0]=1,F3[1][2]=1
F4[0][1]=1,F4[1][1]=2,F4[2][1]=1
F4[0][2]=1,F4[1][2]=2,F4[2][2]=1
-否则,以下适用:
F3[1][1]=8
F4[0][1]=2,F4[1][1]=4,F4[2][1]=2,
-如果sps_chroma_vertical_collocated_flag等于1,则以下适用:
-pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
pDsY[x][y]=(F3[1][0]*pY[SubWidthC*x][SubHeightC*y-1]+F3[0][1]*pY[SubWidthC*x-1][SubHeightC*y]+F3[1][1]*pY[SubWidthC*x][SubHeightC*y]+F3[2][1]*pY[SubWidtxC*x+1][SubHeightC*y]+F3[1][2]*pY[SubWidthC*x][SubHeightC*y+1]+4)>>3
-否则(sps_chroma_vertical_collocated_flag等于0),以下适用:
-pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
pDsY[x][y]=(F4[0][1]*pY[SubWidthC*x-1][SubHeightC*y]+F4[0][2]*pY[SubWidthC*x-1][SubHeightC*y+1]+F4[1][1]*pY[SubWidthC*x][SubHeightC*y]+F4[1][2]*pY[SubWidthC*x][SubHeightC*y+1]+F4[2][1]*pY[SubWidthC*x+1][SubHeightC*y]+F4[2][2]*pY[SubWidthC*x+1][SubHeightC*y+1]+4)>>3
4.当numSampL大于0时,选择的相邻左色度样本pSelC[idx]设置为等于p[-1][pickPosL[idx]](其中idx=0..cntL-1),并且选择的下采样的相邻左亮度样本pSeIDsY[idx](其中idx=0..cntL-1)如下导出:
-变量y设置为等于pickPosL[idx]。
-如果SubWidthC和SubHeightC均等于1,则以下适用:
pSelDsY[idx]=pY[-1][y]
-否则,以下适用:
-如果sps_chroma_vertical_collocated_flag等于1,则以下适用:
pSelDsY[idx]=(F3[1][0]*pY[-SubWidthC][SubHeightC*y-1]+F3[0][1]*pY[-1-SubWidthC][SubHeightC*y]+F3[1][1]*pY[-SubWidthC][SubHeightC*y]+F3[2][1]*pY[1-SubWidthC][SubHeightC*y]+F3[1][2]*pY[-SubWidthC][SubHeightC*y+1]+4)>>3
-否则(sps_chroma_vertical_collocated_flag等于0),
以下适用:
pSelDsY[idx]=(F4[0][1]*pY[-1-SubWidthC][SubHeightC*y]+F4[0][2]*pY[-1-SubWidthC][SubHeightC*y+1]+F4[1][1]*pY[-SubWidthC][SubHeightC*y]+F4[1][2]*pY[-SubWidthC][SubHeightC*y+1]+F4[2][1]*pY[1-SubWidthC][SubHeightC*y]+F4[2][2]*pY[1-SubWidthC][SubHeightC*y+1]+4)>>3
5.当numSampT大于0时,选择的相邻顶部色度样本pSelC[idx]设置为等于p[pickPosT[idx-cntL]][-1](其中idx=cntL..cntL+cntT-1),并且下采样的相邻顶部亮度样本pSelDsY[idx](其中idx=0..cntL+cntT-1)如下指定:
-变量x设置为等于pickPosT[idx-cntL]。
-如果SubWidthC和SubHeightC均等于1,则以下适用:
pSelDsY[idx]=pY[x][-1]
-否则,以下适用:
-如果spschroma_vertical_collocated_flag等于1,则以下适用:
-如果bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(F3[1][0]*pY[SubWidthC*x][-1-SubHeightC]+F3[0][1]*pY[SubWidthC*x-1][-SubHeightC]+F3[1][1]*pY[SubWidthC*x][-SubHeightC]+F3[2][1]*pY[SubWidthC*x+1][-SubHeightC]+F3[1][2]*pY[SubWidthC*x][1-SubHeightC]+4)>>3
-否则(bCTUboundary等于TRUE),以下适用:
pSelDsY[idx]=(F2[0]*pY[SubWidthC*x-1][-1]+F2[1]*pY[SubWidthC*x][-1]+F2[2]*pY[SubWidthC*x+1][-1]+2)>>2
-否则(sps_chroma_vertical_collocated_flag等于0),以下适用:
-如果bCTUboundary等于FALSE,则以下适用:
pSelDsY[idx]=(F4[0][1]*pY[SubWidthC x-1][-1]+F4[0[2]*pY[SubWidthC*x-1][-2]+F4[1][1]*pY[SubWidthC*x][-1]+F4[1][2]*pY[SubWidthC*x][-2]+F4[2][1]*pY[SubWidthC*x+1][-1]+F4[2][2]*pY[SubWidthC*x+1][-2]+4)>>3
-否则(bCTUboundary等于TRUE),以下适用:
pSelDsY[idx]=(F2[0]*pY[SubWidthC*x-1][-1]+F2[1]*pY[SubWidthC*x][-1]+F2[2]*pY[SubWidthC*x+1][-1]+2)>>2
6.当cntT+cntL不等于0时,变量minY、maxY、minC和maxC如下导出:
-当cntT+cntL等于2时,pSelComp[3]设置为等于pSelComp[0],pSelComp[2]设置为等于pSelComp[1],pSelComp[0]设置为等于pSelComp[1],pSelComp[1]设置为等于pSelComp[3],其中Comp被替换为DsY和C。
-阵列minGrpIdx和maxGrpIdx如下导出:
minGrpIdx[0]=0
minGrpIdx[1]=2
maxGrpIdx[0]=1
maxGrpIdx[1]=3
-当pSelDsY[minGrpIdx[0]]大于pSelDsY[minGrpIdx[1]]时,minGrpIdx[0]和minGrpIdx[1]如下交换:
(minGrpIdx[0],minGrpIdx[1])=Swap(minGrpIdx[0],minGrpIdx[1])
-当pSelDsY[maxGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,maxGrpIdx[0]和maxGrpIdx[1]如下交换:
(maxGrpIdx[0],maxGrpIdx[1])=Swap(maxGrpIdx[0],maxGrpIdx[1])
-当pSelDsY[minGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,阵列minGrpIdx和maxGrpIdx如下交换:
(minGrpIdx,maxGrpIdx)=Swap(minGrpIdx,maxGrpIdx)
-当pSelDsY[minGrpIdx[1]]大于pSelDsY[maxGrpIdx[0]]时,minGrpIdx[1]和maxGrpIdx[0]如下交换:
(minGrpIdx[1],maxGrpIdx[0])=Swap(minGrpIdx[1],maxGrpIdx[0])
-变量maxY、maxC、minY和minC如下导出:
maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1
maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1
minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1
minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1
7.变量a、b和k如下导出:
-如果numSampL等于0并且numSampT等于0,则以下适用:
k=0
a=0
b=1<<(BitDepth-1)
-否则,以下适用:
diff=maxY-minY
-如果diff不等于0,则以下适用:
diffC=maxC-minC
x=Floor(Log2(diff))
normDiff=((diff<<4)>>x)&15
x+=(normDiff!=0)?1:0
y=Abs(diffC)>0?Floor(Log2(Abs(diffC)))+1:0
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y
k=((3+x-y)<1)?1:3+x-y
a=((3+x-y)<1)?Sign(a)*15:a
b=minC-((a*minY)>>k)
其中divSigTable[]如下指定:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0}
-否则(diff等于0),以下适用:
k=0
a=0
b=minC
8.预测样本predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
predSamples[x][y]=Clip1(((pDsY[x][y]*a)>>k)+b)
注意—该过程使用sps_chroma_vertical_collocated_flag。然而,为了简化具体实施,它不使用sps_chroma_horizontal_collocated_flag。
在语法元素sps_chroma_vertical_collocated flag被包括在SPS中并且具有以下语义的情况下:
sps_chroma_vertical_collocated_flag等于1指定预测过程以针对不相对于对应的亮度样本位置竖直移位的色度样本位置设计的方式操作。sps_chroma_vertical_collocated_flag等于0指定预测过程以针对相对于对应的亮度样本位置向下移位0.5个亮度样本单位的色度样本位置设计的方式操作。当sps_chroma_vertical_collocated_flag不存在时,推断其等于1。
在JVET-Q2001中规定的用于跨分量线性模型(CCLM)预测模式的帧内预测模式过程在至少以下情况下操作时不太理想:(1)当左上邻居不可用时,和(2)当处理具有4:2:2色度格式的视频时。根据本文的技术,提供了用于跨分量线性模型(CCLM)预测模式的过程,其中改善了上述情况的处理。
图1是示出根据本公开的一种或多种技术的可以被配置为对视频数据进行编码(例如,编码和/或解码)的系统的示例的框图。系统100表示可以根据本公开的一种或多种技术来封装视频数据系统的示例。如图1所示,系统100包括源设备102、通信介质110和目标设备120。在图1所示的示例中,源设备102可以包括被配置为对视频数据进行编码并将编码的视频数据传输到通信介质110的任何设备。目标设备120可以包括被配置为经由通信介质110接收编码视频数据并且对编码视频数据进行解码的任何设备。源设备102和/或目标设备120可以包括配备用于进行有线和/或无线通信的计算设备,并且可以包括例如机顶盒、数字视频录像机、电视机、台式电脑、膝上型电脑或平板电脑、游戏控制台、医学成像设备和移动设备(包括例如智能电话、蜂窝电话、个人游戏设备)。
通信介质110可以包括无线和有线通信介质和/或存储设备的任意组合。通信介质110可以包括同轴电缆、光纤电缆、双绞线电缆、无线发射器和接收器、路由器、交换机、中继器、基站或可用于促进各种设备和站点之间的通信的任何其他设备。通信介质110可以包括一个或多个网络。例如,通信介质110可以包括被配置为允许访问万维网例如互联网的网络。网络可以根据一个或多个电信协议的组合来运营。电信协议可以包括专有方面并且/或者可以包括标准化电信协议。标准化电信协议的示例包括数字视频广播(DVB)标准、高级电视系统委员会(ATSC)标准、综合业务数字广播(ISDB)标准、有线数据业务接口规范(DOCSIS)标准、全球移动通信系统(GSM)标准、码分多址(CDMA)标准、第三代合作伙伴计划(3GPP)标准、欧洲电信标准协会(ETSI)标准、互联网协议(IP)标准、无线应用协议(WAP)标准以及电气与电子工程师协会(IEEE)标准。
存储设备可以包括能够存储数据的任何类型的设备或存储介质。存储介质可以包括有形或非暂态计算机可读介质。计算机可读介质可以包括光盘、闪存存储器、磁存储器或任何其他合适的数字存储介质。在一些示例中,存储器设备或其部分可以被描述为非易失性存储器,并且在其他示例中,存储器设备的部分可以被描述为易失性存储器。易失性存储器的示例可以包括随机存取存储器(RAM)、动态随机存取存储器(DRAM)和静态随机存取存储器(SRAM)。非易失性存储器的示例可以包括磁性硬盘、光盘、软盘、闪存或电可编程存储器(EPROM)或电可擦除和可编程(EEPROM)存储器的形式。存储设备可以包括存储卡(例如,安全数字(SD)存储卡)、内部/外部硬盘驱动器和/或内部/外部固态驱动器。数据可以根据定义的文件格式存储在存储设备上。
图6是示出可以被包括在系统100的具体实施中的部件的示例的概念图。在图6所示的示例性具体实施中,系统100包括一个或多个计算设备402A至402N、电视服务网络404、电视服务提供方站点406、广域网408、局域网410和一个或多个内容提供方站点412A至412N。图6中所示的具体实施表示系统的示例,该系统可被配置为允许数字媒体内容(诸如电影、现场体育赛事等)和与其相关联的数据和应用程序以及媒体呈现被分发到多个计算设备(诸如计算设备402A至402N)并由该多个计算设备访问。在图6所示的示例中,计算设备402A至402N可以包括被配置为从电视服务网络404、广域网408和/或局域网410中的一者或多者接收数据的任何设备。例如,计算设备402A至402N可以配备用于有线和/或无线通信,并且可被配置为通过一个或多个数据信道接收服务,并且可以包括电视,包括所谓的智能电视、机顶盒和数字视频记录器。此外,计算设备402A至402N可以包括台式计算机、膝上型计算机或平板计算机、游戏控制台、移动设备(包括例如“智能”电话、蜂窝电话和个人游戏设备)。
电视服务网络404是被配置为使得能够分发可以包括电视服务的数字媒体内容的网络的示例。例如,电视服务网络404可以包括公共空中电视网络、公共或基于订阅的卫星电视服务提供方网络,以及公共或基于订阅的有线电视提供方网络和/或云上或互联网服务提供方。应当指出的是,尽管在一些示例中,电视服务网络404可以主要用于允许提供电视服务,但是电视服务网络404还可以根据本文所述的电信协议的任何组合允许提供其他类型的数据和服务。此外,应当指出的是,在一些示例中,电视服务网络404可以允许电视服务提供方站点406与计算设备402A至402N中的一个或多个之间的双向通信。电视服务网络404可以包括无线和/或有线通信媒体的任何组合。电视服务网络404可以包括同轴电缆、光纤电缆、双绞线电缆、无线发射器和接收器、路由器、交换机、中继器、基站或可用于促进各种设备和站点之间的通信的任何其他设备。电视服务网络404可根据一个或多个电信协议的组合来运营。电信协议可以包括专有方面并且/或者可以包括标准化电信协议。标准化电信协议的示例包括DVB标准、ATSC标准、ISDB标准、DTMB标准、DMB标准、有线数据服务接口规范(DOCSIS)标准、HbbTV标准、W3C标准和UPnP标准。
再次参考图6,电视服务提供方站点406可被配置为经由电视服务网络404分发电视服务。例如,电视服务提供方站点406可以包括一个或多个广播站、有线电视提供方或卫星电视提供方或基于互联网的电视提供方。例如,电视服务提供方站点406可被配置为通过卫星上行链路/下行链路接收传输(包括电视节目)。此外,如图6所示,电视服务提供方站点406可与广域网408通信,并且可被配置为从内容提供方站点412A至412N接收数据。应当指出的是,在一些示例中,电视服务提供方站点406可以包括电视演播室,并且内容可以源自该电视演播室。
广域网408可以包括基于分组的网络,并且根据一个或多个电信协议的组合运营。电信协议可以包括专有方面并且/或者可以包括标准化电信协议。标准化电信协议的示例包括全球系统移动通信(GSM)标准、码分多址(CDMA)标准、第3代合作伙伴计划(3GPP)标准、欧洲电信标准协会(ETSI)标准、欧洲标准(EN)、IP标准、无线应用协议(WAP)标准、以及电气与电子工程师协会(IEEE)标准,诸如,一个或多个IEEE 802标准(例如,Wi-Fi)。广域网408可以包括无线和/或有线通信媒体的任何组合。广域网408可以包括同轴电缆、光纤电缆、双绞线电缆、以太网电缆、无线发射器和接收器、路由器、交换机、中继器、基站、或可用于促进各种设备和站点之间的通信的任何其他设备。在一个示例中,广域网408可以包括互联网。局域网410可以包括基于分组的网络,并且根据一个或多个电信协议的组合运营。可以基于访问级别和/或物理基础设施将局域网410与广域网408区分开。例如,局域网410可以包括安全家庭网络。
再次参考图6,内容提供方站点412A至412N表示可以向电视服务提供方站点406和/或计算设备402A至402N提供多媒体内容的站点的示例。例如,内容提供方站点可以包括具有一个或多个工作室内容服务器的工作室,该工作室内容服务器被配置为向电视服务提供方站点406提供多媒体文件和/或流。在一个示例中,内容提供方站点412A至412N可被配置为使用IP套件提供多媒体内容。例如,内容提供方站点可被配置为根据实时流协议(RTSP)、HTTP等向接收器设备提供多媒体内容。此外,内容提供方站点412A至412N可被配置为通过广域网408向接收器设备402A至402N和/或电视服务提供方站点406中的一个或多个提供包括基于超文本的内容等的数据。内容提供方站点412A至412N可以包括一个或多个web服务器。可以根据数据格式来定义由数据提供方站点412A至412N提供的数据。
再次参考图1,源设备102包括视频源104、视频编码器106、数据封装器107和接口108。视频源104可以包括被配置为捕获和/或存储视频数据的任何设备。例如,视频源104可以包括摄像机和可操作地与其耦接的存储设备。视频编码器106可以包括被配置为接收视频数据并生成表示视频数据的兼容比特流的任何设备。兼容比特流可以指视频解码器可以从其接收和再现视频数据的比特流。兼容比特流的各方面可根据视频编码标准来定义。当生成兼容比特流时,视频编码器106可以压缩视频数据。压缩可能是有损的(观察者可觉察的或不可觉察的)或无损的。图7是示出可实现本文所述的用于对视频数据进行编码的技术的视频编码器500的示例的框图。应当指出的是,尽管示例性视频编码器500被示出为具有不同的功能块,但此类图示旨在用于描述目的,并且不将视频编码器500和/或其子部件限制为特定的硬件或软件架构。可使用硬件、固件和/或软件具体实施的任何组合来实现视频编码器500的功能。
视频编码器500可执行图片区域的帧内预测编码和帧间预测编码,并且因此可被称为混合视频编码器。在图7所示的示例中,视频编码器500接收源视频块。在一些示例中,源视频块可以包括已经根据编码结构划分的图片区域。例如,源视频数据可包括宏块、CTU、CB、其子分区和/或另一等效编码单元。在一些示例中,视频编码器500可被配置为执行源视频块的附加细分。应当指出的是,本文描述的技术通常适用于视频编码,而不管在编码之前和/或期间如何划分源视频数据。在图7所示的示例中,视频编码器500包括加法器502、变换系数生成器504、系数量化单元506、逆量化和变换系数处理单元508、加法器510、帧内预测处理单元512、帧间预测处理单元514、滤波器单元516和熵编码单元518。如图7所示,视频编码器500接收源视频块并输出比特流。
在图7所示的示例中,视频编码器500可以通过从源视频块中减去预测视频块来生成残差数据。下面详细描述了对预测视频块的选择。求和器502表示被配置为执行该减法运算的部件。在一个示例中,减去视频块出现在像素域中。变换系数生成器504对残差块或其子分区应用变换诸如离散余弦变换(DCT)、离散正弦变换(DST)或概念上类似的变换(例如,可以将四个8×8变换应用于16×16残差值阵列)以产生残差变换系数集合。变换系数生成器504可被配置为执行离散三角变换系列中包括的变换的任何和全部组合,包括其近似。变换系数生成器504可将变换系数输出到系数量化单元506。系数量化单元506可被配置为执行变换系数的量化。量化过程可以减少与一些或所有系数相关联的位深度。量化的程度可以改变编码的视频数据的率失真(即比特率与视频质量的关系)。量化的程度可以通过调整量化参数(QP)来修改。可以基于切片位阶值和/或CU位阶值(例如,CU增量QP值)来确定量化参数。QP数据可以包括用于确定用于量化特定变换系数集合的QP的任何数据。如图7所示,量化的变换系数(可被称为位阶值)被输出到逆量化和变换系数处理单元508。逆量化和变换系数处理单元508可被配置为应用逆量化和逆变换来生成重构残差数据。如图7所示,在加法器510处,重构的残差数据可以被添加到预测视频块。这样,可以重构编码的视频块,并且可以使用所得重构视频块来评估给定的预测、变换和/或量化的编码质量。视频编码器500可被配置为执行多个编码回合(例如,在改变预测、变换参数和量化参数中的一者或多者的同时执行编码)。比特流的率失真或其他系统参数可以基于重构视频块的评估来优化。此外,重构视频块可被存储并用作预测后续块的参考。
再次参考图7,帧内预测处理单元512可被配置为针对待编码视频块选择帧内预测模式。帧内预测处理单元512可被配置为评估帧并且确定用以编码当前块的帧内预测模式。如上所述,可能的帧内预测模式可以包括平面预测模式、DC预测模式和角度预测模式。此外,应当指出的是,在一些示例中,可以根据亮度预测模式的预测模式来推断色度分量的预测模式。帧内预测处理单元512可在执行一个或多个编码回合之后选择帧内预测模式。此外,在一个示例中,帧内预测处理单元512可以基于率失真分析来选择预测模式。如图7所示,帧内预测处理单元512将帧内预测数据(例如,语法元素)输出到熵编码单元518和变换系数生成器504。如上所述,对残差数据执行的变换可以是模式相关的(例如,可以基于预测模式确定二次变换矩阵)。
如上所述,在JVET-Q2001中提供的用于跨分量线性模型(CCLM)预测模式的帧内预测模式过程不太理想。在一个示例中,根据本文的技术,用于跨分量线性模型(CCLM)预测模式的帧内预测模式过程可以基于以下:
该过程的输入为:
-帧内预测模式predModeIntra,
-当前变换块的左上样本相对于当前图片的左上样本的样本位置(xTbC,yTbC),
-变量nTbW,其指定变换块宽度,
-变量nTbH,其指定变换块高度,
-变量cIdx,其指定当前块的颜色分量,
-色度相邻样本p[x][y],其中x=-1,y=0..2*nTbH-1,和x=0..2*nTbW-1,y=-1。
该过程的输出是预测的样本predSamples[x][y],其中x=0..nTbW-1,y=0..nTbH-1。
当前亮度位置(xTbY,yTbY)如下导出:
(xTbY,yTbY)=(xTbC<<(SubWidthC-1),yTbC<<(SubHeightC-1))
变量availL、availT和availTL如下导出:
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY-1,yTbY)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availL。
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY,yTbY-1)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availT。
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY-1,yTbY-1)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availTL。
-可用右上相邻色度样本的数量numTopRight如下导出:
-变量numTopRight设置为等于0并且availTR设置为等于TRUE。
-当predModeIntra等于INTRA_T_CCLM时,以下适用于x=nTbW..2*nTbW-1,直到availTR等于FALSE:
-如上所述的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY+x,yTbY-1)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availTR
-当availTR等于TRUE时,numTopRight加一。
-可用左下相邻色度样本的数量numLeftBelow如下导出:
-变量numLeftBelow设置为等于0并且availLB设置为等于TRUE。
-当predModeIntra等于INTRA_L_CCLM时,以下适用于y=nTbH..2*nTbH-1,直到availLB等于FALSE:
-根据条款6.4.4中指定的相邻块可用性的导出过程被调用,其中设置为等于(xTbY,yTbY)的当前亮度位置(xCurr,yCurr)、相邻亮度位置(xTbY-1,yTbY+y)、设置为等于FALSE的checkPredModeY和cIdx作为输入,并且输出被分配给availLB
-当availLB等于TRUE时,numLeftBelow加一。
顶部和右上的可用相邻色度样本的数量numSampT以及左侧和左下的可用相邻色度样本的数量numSampL如下导出:
-如果predModeIntra等于INTRA LT_CCLM,则以下适用:
numSampT=availT?nTbW:0
numSampL=availL?nTbH:0
-否则,以下适用:
numSampT=(availT&&predModeIntra==INTRA_T_CCLM)?
(nTbW+Min(numTopRight,nTbH)):0
numSampL=(availL&&predModeIntra==INTRA_L_CCLM)?
(nTbH+Min(numLeftBelow,nTbW)):0
变量bCTUboundary如下导出:
bCTUboundary=(yTbY&(CtbSizeY-1)==0)?TRUE:FALSE.
变量cntN和阵列pickPosN,N被替换为L和T,如下导出:
-变量numIs4N如下导出:
numIs4N=((availT&&availL&&predModeIntra==INTRA_LT_CCLM)?0:1)
-变量startPosN设置为等于numSampN>>(2+numIs4N)。
-变量pickStepN设置为等于Max(1,numSampN>>(1+numIs4N))。
-如果availN等于TRUE,并且predModeIntra等于INTRA_LT_CCLM或INTRA_N_CCLM,则进行以下分配:
-cntN设置为等于Min(numSampN,(1+numIs4N)<<1)。
-pickPosN[pos]设置为等于(startPosN+pos*pickStepN),其中pos=0..cntN-1。
-否则,cntN设置为等于0。
预测样本predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
-如果numSampL和numSampT均等于0,则以下适用:
predSamples[x][y]=1<<(BitDepth-1)
-否则,应用以下有序步骤:
1.并置的亮度样本pY[x][y](其中x=0..nTbW*SubWidthC-1,y=0..nTbH*SubHeightC-1)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
2.相邻亮度样本pY[x][y]如下导出:
-当availL等于FALSE时,相邻左亮度样本pY[x][y](其中x=-1,y=0..SubHeightC*nTbH-1)设置为等于亮度样本pY[0][y]。
-当availL等于TRUE时,相邻左亮度样本pY[x][y](其中x=-1,y=0..SubHeightC*nTbH-1)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
-当numSampL大于0时,相邻左亮度样本pY[x][y](其中x=-1..-3,y=0..SubHeightC*numSampL-1)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
-当numSampL大于0并且availTL等于TRUE时,相邻左上样本pY[-2][-1]设置为等于在解块滤波器过程之前在位置处(xTbY-2,yTbY-1)的重构亮度样本。
-当numSampL大于0并且availTL等于FALSE时,相邻左上样本pY[-2][-1]设置为等于亮度样本pY[-2][0]。
-当availT等于FALSE时,相邻顶部亮度样本pY[x][y](其中x=0..SubWidthC*nTbW-1,y=-1)设置为等于亮度样本pY[x][0]。
-当availT等于TRUE时,相邻顶部亮度样本pY[x][y](其中x=0..SubWidthC*nTbW-1,y=-1)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
-当numSampT大于0时,相邻顶部亮度样本pY[x][y](其中x=0..SubWidthC*numSampT-1,y=-1..-3)设置为等于在解块滤波器过程之前在位置(xTbY+x,yTbY+y)处的重构亮度样本。
-当numSampT大于0并且availTL等于TRUE时,相邻左上样本pY[-1][y](其中y=-1..-2)设置为等于在解块滤波器过程之前在位置(xTbY-1,yTbY+y)处的重构亮度样本。
-当numSampT大于0并且availTL等于FALSE时,相邻左上样本pY[-1][y](其中y=-1..-2)设置为等于亮度样本pY[0][y]。
3.下采样的并置的亮度样本pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
-如果SubWidthC和SubHeightC均等于1,则以下适用:
-pDsY[x][y](其中x=0..nTbW-l,y=0..nTbH-l)如下导出:
pDstY[x][y]=pY[x][y]
-否则,以下适用:
-维滤波器系数阵列F1如下指定。
-如果SubWidthC和SubHeightC均等于2,则以下适用:
F1[0]=1,F1[1]=1
-否则,以下适用:
F1[0]=2,F1[1]=0
-如果sps_chroma_vertical_collocated_flag等于1,则以下适用:
-pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
pDsY[x][y]=(F1[1]*pY[SubWidthC*x][SubHeightC*y-1]+F1[0]*pY[SubWidthC*x-1][SubHeightC*y]+4*pY[SubWidthC*x][SubHeightC*y]+F1[0]*pY[SubWidthC*x+1][SubHeightC*y]+F1[1]*pY[SubWidthC*x][SubHeightC*y+1]+4)>>3
在一个示例中,pDsY[x][y](其中x=0..nTbW-1,
y=0..nTbH-1)可以如下导出:
pDsY[x][y]=(Fl[1]*pY[SubWidthC*x][SubHeightC*(y-1)+1]+F1[0]*pY[SubWidthC*x-1][SubHeightC*y]+4*pY[SubWidthC*x][SubHeightC*y]+F1[0]*pY[SubWidthC*x+1][SubHeightC*y]+F1[1]*pY[SubWidthC*x][SubHeightC*(y+1)-1]+4)>>3
-否则(sps_chroma_vertical_collocated_flag等于0),以下适用:
-pDsY[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
pDsY[x][y]=(pY[SubWidthC*x-1][SubHeightC*y]+pY[SubWidthC*x-1][SubHcightC*y+1]+2*pY[SubWidthC*x][SubHeightC*y]+2*pY[SubWidthC*x][SubHeightC*y+1]+pY[SubWidthC*x+1][SubHeightC*y]+pY[SubWidthC*x+1][SubHeightC*y+1]+4)>>3
4.当numSampT大于0时,选择的相邻顶部色度样本pSelC[idx]设置为等于p[pickPosT[idx]][-1](其中idx=0..cntT-1),并且下采样的相邻顶部亮度样本pSelDsY[idx](其中idx=0..cntT-1)如下指定:
-变量x设置为等于pickPosT[idx]。
-如果SubWidthC和SubHeightC均等于1,则以下适用:
pSelDsY[idx]=pY[x][-1]
-否则,以下适用:
-如果bCTUboundary等于FALSE,则以下适用:
-如果sps_chroma_vertical_collocated_flag等于1,则以下适用:
pSelDsY[idx]=(F1[1]*pY[SubWidthC*x][-1-SubHeightC]+F1[0]*pY[SubWidthC*x-1][-SubHeightC]+4*pY[SubWidthC*x][-SubHeightC]+F1[0]*pY[SubWidthC*x+1][-SabHeightC]+F1[1]*pY[SubWidthC*x][1-SubHeightC]+4)>>3
在一个示例中,pSelDsY[idx]可如下指定:
pSelDsY[idx]=(F1[1]*pY[SubWidthC*x][1-2*SubHeightC]+F1[0]*pY[SubWidthC*x-1][-SubHeightC]+4*pY[SubWidthC*x][-SubHeightC]+F1[0]*pY[SubWidthC*x+1][-SubHeightC]+F1[1]*pY[SubWidthC*x][-1]+4)>>3
-否则(sps_chroma_vertical_collocated_flag等于0),以下适用:
pSelDsY[idx]=(pY[SubWidthCx-1][-1]+pY[SubWidthC*x-1][-2]+2*pY[SubWidthC*x][1]+2*pY[SubWidthC*x][-2]+pY[SubWidthC*x+1][-1]+pY[SubWidthC*x+1][-2]+4)>>3
-否则(bCTUboundary等于TRUE),以下适用:
pSelDsY[idx]=(pY[SubWidthC*x-1][-1]+2*pY[SubWidthC*x][-1]+pY[subWidthC*x+1][-1]+2)>>2
5.当numSampL大于0时,选择的相邻左色度样本pSelC[idx]设置为等于p[-1][pickPosL[idx-cntT]](其中idx=cntT..cntT+cntL-1),并且选择的下采样的相邻左亮度样本pSelDsY[idx](其中idx=cntT..cntT+cntL-1)如下导出:
-变量y设置为等于pickPosL[idx—cntT]。
-如果SubWidthC和SubHeightC均等于1,则以下适用:
pSelDsY[idx]=pY[-1][y]
-否则,以下适用:
-如果sps_chroma_vertical_collocated_flag等于1,则以下适用:
pSelDsY[idx]=(F1[1]*pY[-SubWidthC][SubHeightC*y-1]+F1[0]*pY[-1-SubWidthC][SubHeightC*y]+4*pY[-SubWidthC][SubHeightC*y]+F1[0]*pY[1-SubWidthC][SubHeightC*y]+F1[1]*pY[-SubWidthC][SubHeightC*y+1]+4)>>3
在一个示例中,pSelDsY[idx]可如下指定:
pSelDsY[idx]=(F1[1]*pY[-SubWidthC][SubHeightC*(y-1)+1]+F1[0]*pY[-1-SubWidthC][SubHeightC*.y]+4*pY[-SubWidthC][SubHeightC*y]+F1[0]*pY[1-SubWidthC][SubHeightC*y]+F1[1]*pY[-SubWidthC][SubHeightC*(y+1)-1]+4)>>3
-否则(sps_chroma_vertical_collocated_flag等于0),
以下适用:
pSelDsY[idx]=(pY[-1-SubWidthC][SubHeightC*y]+pY[-1-SubWidthC][SubHeightC*y+1]+2*pY[-SubWidthC][SubHeightC*y]+2*pY[-SubWidthC][SubHeightC*y+1]+pY[1-SubWidthC][SubHeightC*y]+pY[1-SubWidtbC][SubHeightC*y+1]+4)>>3
6.当cntT+cntL不等于0时,变量minY、maxY、minC和maxC如下导出:
-当cntT+cntL等于2时,pSelComp[3]设置为等于pSelComp[0],pSelComp[2]设置为等于pSelComp[1],pSelComp[0]设置为等于pSelComp[1],pSelComp[1]设置为等于pSelComp[3],其中Comp被替换为DsY和C。
-阵列minGrpIdx和maxGrpIdx如下导出:
minGrpIdx[0]=0
minGrpIdx[1]=2
maxGrpIdx[0]=1
maxGrpIdx[1]=3
-当pSelDsY[minGrpIdx[0]]大于pSelDsY[minGrpIdx[1]]时,minGrpIdx[0]和minGrpIdx[1]如下交换:
(minGrpIdx[0],minGrpIdx[1])=Swap(minGrpIdx[0],minGrpIdx[1])
-当pSelDsY[maxGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,maxGrpIdx[0]和maxGrpIdx[1]如下交换:
(maxGrpIdx[0],maxGrpIdx[1])=Swap(maxGrpIdx[0],maxGrpIdx[1])
-当pSelDsY[minGrpIdx[0]]大于pSelDsY[maxGrpIdx[1]]时,阵列minGrpIdx和maxGrpIdx如下交换:
(minGrpIdx,maxGrpIdx)=Swap(minGrpIdx,maxGrpIdx)
-当pSelDsY[minGrpIdx[1]]大于pSelDsY[maxGrpIdx[0]]时,minGrpIdx[1]和maxGrpIdx[0]如下交换:
(minGrpIdx[1],maxGrpIdx[0])=Swap(minGrpIdx[1],maxGrpIdx[0])
-变量maxY、maxC、minY和minC如下导出:
maxY=(pSelDsY[maxGrpIdx[0]]+pSelDsY[maxGrpIdx[1]]+1)>>1
maxC=(pSelC[maxGrpIdx[0]]+pSelC[maxGrpIdx[1]]+1)>>1
minY=(pSelDsY[minGrpIdx[0]]+pSelDsY[minGrpIdx[1]]+1)>>1
minC=(pSelC[minGrpIdx[0]]+pSelC[minGrpIdx[1]]+1)>>1
7.变量a、b和k如下导出:
-如果numSampL等于0并且numSampT等于0,则以下适用:
K=0
a=0
b=1<<(BitDepth-1)
-否则,以下适用:
diff=maxY-minY
-如果diff不等于0,则以下适用:
diffC=maxC-minC
x=Floor(Log2(diff))
normDiff=((diff<<4)>>x)&15
x+=(normDiff!=0)?1:0
y=Abs(diffC)>0?Floor(Log2(Abs(diffC)))+1:0
a=(diffC*(divSigTable[normDiff]|8)+2y-1)>>y
k=((3+x-y)<l)?l:3+x-y
a=((3+x-y)<1)?Sign(a)*15:a
b=minC-((a*minY)>>k)
其中divSigTable[]如下指定:
divSigTable[]={0,7,6,5,5,4,4,3,3,2,2,1,1,1,1,0}
-否则(diff等于0),以下适用:
k=0
a=0
b=minC
8.预测样本predSamples[x][y](其中x=0..nTbW-1,y=0..nTbH-1)如下导出:
predSamples[x][y]=Clip 1(((pDsY[x][y]*a)>>k)+b)
应当注意,在以上过程中,经滤波的亮度样本pSelDsY[idx]可以基于亮度样本pY[-1][-1]、pY[-1][-2]和pY[-2][-1]。当当前块的上方和左侧的样本可用时,例如,样本先前在同一切片中经处理并且availTL等于TRUE,亮度样本pY[-1][-1]、pY[-1][-2]和pY[-2][-1]设置为等于在解块滤波器过程之前在当前块的上方和左侧的对应位置处的重构亮度样本。根据本文的技术,当当前块的上方和左侧的样本不可用时,即,availTL等于FALSE,亮度样本pY[-1][-1]、pY[-1][-2]和pY[-2][-1]设置为等于在解块滤波器过程之前在当前块的上方或左侧的近旁位置处的重构亮度样本。这样,根据本文的技术,用于跨分量线性模型(CCLM)预测的帧内预测模式过程可以基于线性模型来确定预测predSamples[x][y],该线性模型基于经滤波的亮度样本pSelDsY[idx]来导出。亮度样本pSelDsY[idx]的确定可以基于色度格式。
这样,视频编码器200表示设备的示例,该设备被配置为确定当前块的顶部和右上的可用相邻色度样本的数量,并且基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程。
再次参考图7,帧间预测处理单元514可被配置为针对当前视频块执行帧间预测编码。帧间预测处理单元514可被配置为接收源视频块并且计算视频块的PU的运动矢量。运动矢量可以指示当前视频帧内的视频块的预测单元相对于参考帧内的预测块的位移。帧间预测编码可以使用一个或多个参考图片。此外,运动预测可以是单向预测(使用一个运动矢量)或双向预测(使用两个运动矢量)。帧间预测处理单元514可被配置为通过计算由例如绝对差之和(SAD)、平方差之和(SSD)或其他差值度量确定的像素差来选择预测块。如上所述,可以根据运动矢量预测来确定和指定运动矢量。如上所述,帧间预测处理单元514可被配置为执行运动矢量预测。帧间预测处理单元514可被配置为使用运动预测数据生成预测块。例如,帧间预测处理单元514可定位帧缓冲器内的预测视频块(图7中未示出)。应当指出的是,帧间预测处理单元514可以进一步被配置为将一个或多个内插滤波器应用于重构残差块,以计算用于运动估计的子整数像素值。帧间预测处理单元514可将所计算的运动矢量的运动预测数据输出到熵编码单元518。
如图7所示,滤波器单元516接收重构的视频块和编码参数,并且输出已修改的重构视频数据。滤波器单元516可被配置为执行解块、样本自适应偏移(SAO)滤波、自适应环路滤波(ALF)等。SAO滤波是一种可用于通过向重构视频数据添加偏移以改善重构的非线性振幅映射。应当指出的是,如图7所示,帧内预测处理单元512和帧间预测处理单元514可以经由滤波器单元516接收经修改的重构视频块。熵编码单元518接收量化的变换系数和预测语法数据(即,帧内预测数据和运动预测数据)。熵编码单元518可以被配置为根据本文所述的技术中的一种或多种技术执行熵编码。
再次参考图1,数据封装器107可以接收编码视频数据,并根据定义的数据结构生成兼容比特流,例如,NAL单元序列。接收兼容比特流的设备可以从其再现视频数据。此外,如上所述,子比特流提取可以指通过丢弃和/或修改接收的比特流中的数据,接收兼容ITU-T H.265的比特流的设备形成新的兼容ITU-T H.265的比特流的过程。应当指出的是,可以使用术语符合性比特流来代替术语兼容比特流。应当指出的是,数据封装器107不需要必须位于与视频编码器106相同的物理设备中。例如,被描述为由视频编码器106和数据封装器107执行的功能可以分布在图6所示的设备中。接口108可以包括被配置为接收由数据封装器107生成的数据并且将数据传输和/或存储到通信介质的任何设备。接口108可以包括网络接口卡诸如以太网卡,并且可以包括光收发器、射频收发器或者可以发送和/或接收信息的任何其他类型的设备。此外,接口108可以包括计算机系统接口,该计算机系统接口可以使文件能够存储在存储设备上。例如,接口108可以包括支持外围部件互连(PCI)和高速外围部件互连(PCIe)总线协议、专用总线协议、通用串行总线(USB)协议、I2C的芯片组、或可用于互连对等设备的任何其他逻辑和物理结构。
再次参考图1,目标设备120包括接口122、数据解封装器123、视频解码器124和显示器126。接口122可以包括被配置为从通信介质接收数据的任何设备。接口122可以包括网络接口卡诸如以太网卡,并且可以包括光收发器、射频收发器或者可以接收和/或发送信息的任何其他类型的设备。此外,接口122可以包括允许从存储设备检索兼容视频比特流的计算机系统接口。例如,接口122可以包括支持PCI和PCIe总线协议、专用总线协议、USB协议、I2C的芯片组,或者可用于互连对等设备的任何其他逻辑和物理结构。数据解封装器123可被配置为接收和解析本文所述的任何示例语法结构。
视频解码器124可以包括被配置为接收比特流(例如,子比特流提取)和/或其可接受变体且从其再现视频数据的任何设备。显示器126可以包括被配置为显示视频数据的任何设备。显示器126可以包括各种显示设备诸如液晶显示器(LCD)、等离子显示器、有机发光二极管(OLED)显示器或另外的类型的显示器中的一种。显示器126可以包括高清显示器或超高清显示器。应当指出的是,尽管在图1所示的示例中,视频解码器124被描述为将数据输出到显示器126,但视频解码器124可以被配置为将视频数据输出到各种类型的设备和/或其子部件。例如,视频解码器124可被配置为将视频数据输出到任何通信介质,如本文所述。
图8是示出根据本公开的一种或多种技术的可被配置为对视频数据进行解码的视频解码器的示例的框图(例如,用于上述参考图片列表构建的解码过程)。在一个示例中,视频解码器600可被配置为对变换数据进行解码并基于解码的变换数据从变换系数重构残差数据。视频解码器600可被配置为执行帧内预测解码和帧间预测解码,并且因此可被称为混合解码器。视频解码器600可被配置为解析上述语法元素的任何组合。视频解码器600可基于或根据上述过程解码图片。
在图8所示的示例中,视频解码器600包括熵解码单元602、逆量化单元604、逆变换处理单元606、帧内预测处理单元608、帧间预测处理单元610、求和器612、后置滤波器单元614和参考缓冲器616。视频解码器600可被配置为以与视频编码系统一致的方式对视频数据进行解码。应当指出的是,尽管示出的示例性视频解码器600具有不同的功能块,但此类图示旨在用于描述目的,并且不将视频解码器600和/或其子部件限制为特定的硬件或软件架构。可使用硬件、固件和/或软件具体实施的任何组合来实现视频解码器600的功能。
如图8所示,熵解码单元602接收熵编码的比特流。熵解码单元602可被配置为根据与熵编码过程互逆的过程从比特流中解码语法元素和量化系数。熵解码单元602可被配置为根据上文所述的任何熵编码技术来执行熵解码。熵解码单元602可以与视频编码标准一致的方式确定编码的比特流中的语法元素的值。如图8所示,熵解码单元602可以从比特流确定量化系数值和预测数据。
逆量化单元604从熵解码单元602接收量化变换系数(即,位阶值)和量化参数数据。量化参数数据可以包括增量QP值和/或量化组大小值等的任意组合和全部组合。视频解码器600和/或逆量化单元604可被配置为基于由视频编码器发信号通知的值和/或通过视频属性和/或编码参数来确定用于逆量化的QP值。也就是说,逆量化单元604可以与上述系数量化单元506互逆的方式操作。例如,逆量化单元604可被配置为根据上述技术推断预先确定的值)、允许的量化组大小、导出量化参数等。逆量化单元604可被配置为应用逆量化。逆变换处理单元606可被配置为执行逆变换以生成重构残差数据。由逆量化单元604和逆变换处理单元606分别执行的技术可类似于由上述逆量化/变换处理单元508执行的技术。逆变换处理单元606可被配置为将逆DCT、逆DST、逆整数变换、不可分二次变换(NSST)或者在概率上类似的逆变换过程应用于变换系数,以便在像素域中产生残差块。此外,如上所述,是否执行特定变换(或特定变换的类型)可以取决于帧内预测模式。如图8所示,可将重构残差数据提供给求和器612。求和器612可以将重构残差数据添加到预测视频块并且生成重构视频数据。可根据预测视频技术(即帧内预测和帧间预测)确定预测视频块。
帧内预测处理单元608可被配置为接收帧内预测语法元素并且从参考缓冲器614检索预测视频块。参考缓冲器614可以包括被配置为存储一个或多个视频数据帧的存储器设备。帧内预测语法元素可识别帧内预测模式,诸如上述的帧内预测模式。在一个示例中,帧内预测处理单元608可以使用根据本文所述的帧内预测编码技术中的一种或多种技术来重构视频块。例如,帧内预测处理单元608可以根据上述跨分量线性模型的帧内预测模式过程生成预测。帧间预测处理单元610可接收帧间预测语法元素并生成运动矢量,以识别存储在参考缓冲器616中的一个或多个参考帧中的预测块。帧间预测处理单元610可以生成运动补偿块,可能基于内插滤波器执行内插。用于具有子像素精度的运动估计的内插滤波器的标识符可以包括在语法元素中。帧间预测处理单元608可以使用内插滤波器来计算参考块的子整数像素的内插值。后置滤波器单元614可被配置为根据上述技术中的一种或多种技术对重构视频数据执行滤波。例如,后置滤波器单元614可被配置为基于上述技术并且例如基于在比特流中指定的参数执行解块、ALF和/或样本自适应偏移(SAO)滤波。此外,应当指出的是,在一些示例中,后置滤波器单元614可被配置为执行专用的任意滤波(例如,视觉增强,诸如蚊状噪声消除)。如图6所示,视频解码器600可以输出重构的视频块。这样,视频解码器600表示设备的示例,该设备被配置为确定当前块的顶部和右上的可用相邻色度样本的数量,并且基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程。
在一个或多个示例中,所述功能可以通过硬件、软件、固件或它们的任何组合来实现。如果以软件实现,则可将功能作为一个或多个指令或代码存储在计算机可读介质上或经由计算机可读介质上传输,并且由基于硬件的处理单元执行。计算机可读介质可包括对应于有形介质诸如数据存储介质的计算机可读存储介质,或者包括例如根据通信协议促进计算机程序从一个地方传输到另一个地方的任何介质的传播介质。这样,计算机可读介质通常可对应于:(1)非暂态的有形计算机可读存储介质,或者(2)通信介质诸如信号或载波。数据存储介质可以是可以由一个或多个计算机或一个或多个处理器访问以检索用于实现本公开中所述的技术的指令、代码和/或数据结构的任何可用介质。计算机程序产品可以包括计算机可读介质。
以举例而非限制的方式,此类计算机可读存储介质可以包括RAM、ROM、EEPROM、CD-ROM或其他光盘存储设备、磁盘存储设备或其他磁存储设备、闪存存储器,或者可用于存储指令或数据结构形式的所需程序代码并且可由计算机访问的任何其他介质。而且,任何连接都被适当地称为计算机可读介质。例如,如果使用同轴电缆、光纤电缆、双绞线、数字用户线路(DSL)或无线技术诸如红外线、无线电和微波从网站、服务器或其他远程源传输指令,则同轴电缆、光纤电缆、双绞线、DSL或无线技术诸如红外线、无线电和微波都包含在介质的定义中。然而,应当理解,计算机可读存储介质和数据存储介质不包括连接、载波、信号或其他暂态介质,而是针对非暂态有形存储介质。如本文所用,磁盘和光盘包括压缩光盘(CD)、激光盘、光学光盘、数字通用光盘(DVD)、软磁盘及Blu-ray光盘,其中磁盘通常以磁性方式复制数据,而光盘则利用激光以光学方式复制数据。上述的组合也应该包括在计算机可读介质的范围内。
可以由一个或多个处理器诸如一个或多个数字信号处理器(DSP)、通用微处理器、专用集成电路(ASIC)、现场可编程逻辑阵列(FPGA)或其他等效集成或离散逻辑电路执行指令。因此,如本文所用的术语“处理器”可以指任何前述结构或适用于实现本文所描述的技术的任何其他结构。此外,在一些方面中,可以在被配置用于编码和解码的专用硬件和/或软件模块内提供本文所述的功能,或者将其结合到组合编解码器中。而且,这些技术可以完全在一个或多个电路或逻辑元件中实现。
本公开的技术可以在各种设备或装置(包括无线手机、集成电路(IC)或一组IC(例如,芯片组))中实现。在本公开中描述了各种部件、模块或单元,以强调被配置为执行所公开的技术的设备的功能方面,但是不一定需要通过不同的硬件单元来实现。相反,如上所述,可以将各种单元组合在编解码器硬件单元中,或者通过互操作硬件单元包括如上所述的一个或多个处理器的集合,结合合适的软件和/或固件来提供各种单元。
此外,每个上述实施方案中所使用的基站设备和终端设备的每个功能块或各种特征可通过电路(通常为一个集成电路或多个集成电路)实现或执行。被设计为执行本说明书中所述的功能的电路可包括通用处理器、数字信号处理器(DSP)、专用或通用集成电路(ASIC)、现场可编程门阵列(FPGA)或其他可编程逻辑设备、分立栅极或晶体管逻辑器、或分立硬件部件、或它们的组合。通用处理器可为微处理器,或另选地,该处理器可为常规处理器、控制器、微控制器或状态机。通用处理器或上述每种电路可由数字电路进行配置,或可由模拟电路进行配置。此外,当由于半导体技术的进步而出现制成取代当前集成电路的集成电路的技术时,也能够使用通过该技术生产的集成电路。
已经描述了各种示例。这些示例和其他示例在以下权利要求的范围内。
<发明内容>
在一个示例中,提供了一种生成用于视频编码中的当前块的预测的方法,该方法包括:确定当前块的顶部和右上的可用相邻色度样本的数量;以及基于当前块的顶部和右上的可用相邻色度样本的数量来执行跨分量线性模型帧内预测过程。
在一个示例中,提供了该方法,其中当前块的顶部和右上的可用相邻色度样本的数量基于色度格式。
在一个示例中,提供了一种设备,该设备包括被配置为执行步骤的任意和全部组合的一个或多个处理器。
在一个示例中,提供了该设备,其中该设备包括视频编码器。
在一个示例中,提供了该设备,其中该设备包括视频解码器。
在一个示例中,提供了一种系统,该系统包括:设备,该设备包括视频编码器;并且该设备包括视频解码器。
在一个示例中,提供了一种装置,该装置包括:用于执行所述步骤的任意和全部组合的装置。
在一个示例中,提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质包括存储在其上的指令,所述指令当被执行时使得设备的一个或多个处理器执行所述步骤的任意和全部组合。
在一个示例中,提供了一种生成用于视频编码中的当前变换块的预测样本的方法,该方法包括:设置相邻左亮度样本值,该相邻左亮度样本值被定义为x等于-1、-2或-3,对应于该当前变换块,等于重构亮度样本;设置相邻左上亮度样本值,该相邻左上亮度样本值被定义为x等于-2并且y等于-1,对应于该当前变换块,在该相邻左上亮度样本值不可用的情况下等于该相邻左亮度样本值;通过使用该相邻左亮度样本值并且基于色度格式来导出该当前变换块的下采样的相邻左亮度样本值;以及通过使用这些下采样的相邻亮度样本值来生成这些预测样本。
在一个示例中,提供了该方法,其中在该色度格式指示4:2:2格式的情况下,通过使用三个相邻亮度样本值来导出该下采样的相邻亮度样本值。
在一个示例中,提供了该方法,其中在该色度格式指示4:2:0格式的情况下,通过使用至少五个相邻亮度样本值来导出该下采样的相邻亮度样本值。
在一个示例中,提供了该方法,其中在该相邻左上亮度样本值不可用的该情况下,具有位置(-2,-1)的该相邻左上亮度样本值被设置为具有位置(-2,0)的该相邻左亮度样本值。
在一个示例中,提供了一种设备,该设备包括一个或多个处理器,该一个或多个处理器被配置为:设置相邻左亮度样本值,该相邻左亮度样本值被定义为x等于-1、-2或-3,对应于当前变换块,等于重构亮度样本;设置相邻左上亮度样本值,该相邻左上亮度样本值被定义为x等于-2并且y等于-1,对应于该当前变换块,在该相邻左上亮度样本值不可用的情况下等于该相邻左亮度样本值;通过使用该相邻左亮度样本值并且基于色度格式来导出该当前变换块的下采样的相邻左亮度样本值;并且通过使用这些下采样的相邻亮度样本值来生成预测样本。
<交叉引用>
本非临时专利申请根据《美国法典》第35卷第119节(35U.S.C.§119)要求于2020年4月15日提交的临时申请63/010,323、2020年4月16日提交的临时申请63/010,955的优先权,这两个申请的全部内容据此以引用方式并入。

Claims (5)

1.一种生成用于视频编码中的当前变换块的预测样本的方法,所述方法包括:
设置相邻左亮度样本值,所述相邻左亮度样本值被定义为x等于-1、-2或-3,对应于所述当前变换块,等于重构亮度样本;
设置相邻左上亮度样本值,所述相邻左上亮度样本值被定义为x等于-2并且y等于-1,对应于所述当前变换块,在所述相邻左上亮度样本值不可用的情况下等于所述相邻左亮度样本值;
通过使用所述相邻左亮度样本值并且基于色度格式来导出所述当前变换块的下采样的相邻左亮度样本值;以及
通过使用所述下采样的相邻亮度样本值来生成所述预测样本。
2.根据权利要求1所述的方法,其中在所述色度格式指示4:2:2格式的情况下,通过使用三个相邻亮度样本值来导出所述下采样的相邻亮度样本值。
3.根据权利要求1所述的方法,其中在所述色度格式指示4:2:0格式的情况下,通过使用至少五个相邻亮度样本值来导出所述下采样的相邻亮度样本值。
4.根据权利要求1所述的方法,其中在所述相邻左上亮度样本值不可用的所述情况下,具有位置(-2,-1)的所述相邻左上亮度样本值被设置为具有位置(-2,0)的所述相邻左亮度样本值。
5.一种设备,所述设备包括一个或多个处理器,所述一个或多个处理器被配置为:
设置相邻左亮度样本值,所述相邻左亮度样本值被定义为x等于-1、-2或-3,对应于当前变换块,等于重构亮度样本;
设置相邻左上亮度样本值,所述相邻左上亮度样本值被定义为x等于-2并且y等于-1,对应于所述当前变换块,在所述相邻左上亮度样本值不可用的情况下等于所述相邻左亮度样本值;
通过使用所述相邻左亮度样本值并且基于色度格式来导出所述当前变换块的下采样的相邻左亮度样本值;并且
通过使用所述下采样的相邻亮度样本值来生成预测样本。
CN202180028649.2A 2020-04-15 2021-04-13 在视频编码中用于执行帧内预测的系统和方法 Pending CN115428447A (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US202063010323P 2020-04-15 2020-04-15
US63/010323 2020-04-15
US202063010955P 2020-04-16 2020-04-16
US63/010955 2020-04-16
PCT/JP2021/015249 WO2021210556A1 (en) 2020-04-15 2021-04-13 Systems and methods for performing intra prediction in video coding

Publications (1)

Publication Number Publication Date
CN115428447A true CN115428447A (zh) 2022-12-02

Family

ID=78084792

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202180028649.2A Pending CN115428447A (zh) 2020-04-15 2021-04-13 在视频编码中用于执行帧内预测的系统和方法

Country Status (3)

Country Link
US (1) US12058331B2 (zh)
CN (1) CN115428447A (zh)
WO (1) WO2021210556A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024169947A1 (en) * 2023-02-16 2024-08-22 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230388540A1 (en) * 2022-05-27 2023-11-30 Tencent America LLC Signaling of downsampling filters for chroma from luma intra prediction mode
WO2024065451A1 (en) * 2022-09-29 2024-04-04 Intel Corporation Enhanced image slice reconstruction for video streams

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190130502A (ko) * 2018-05-14 2019-11-22 인텔렉추얼디스커버리 주식회사 영상 복호화 방법/장치, 영상 부호화 방법/장치 및 비트스트림을 저장한 기록 매체
CN116708837A (zh) * 2018-07-02 2023-09-05 Lg电子株式会社 编解码设备和数据发送设备

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024169947A1 (en) * 2023-02-16 2024-08-22 Douyin Vision Co., Ltd. Method, apparatus, and medium for video processing

Also Published As

Publication number Publication date
WO2021210556A1 (en) 2021-10-21
US20230345005A1 (en) 2023-10-26
US12058331B2 (en) 2024-08-06

Similar Documents

Publication Publication Date Title
WO2021033749A1 (en) Systems and methods for signaling picture information in video coding
US11470358B2 (en) Systems and methods for signaling scaling window information in video coding
WO2021049551A1 (en) Systems and methods for signaling subpicture information in video coding
WO2021045128A1 (en) Systems and methods for signaling temporal sub-layer information in video coding
US11856236B2 (en) Systems and methods for signaling sequence parameter information in video coding
WO2020241653A1 (en) Systems and methods for signaling hypothetical reference decoder parameters in video coding
CN113632489B (zh) 对视频数据进行解码的设备和方法
WO2021112037A1 (en) Systems and methods for signaling temporal sublayer information in video coding
WO2020171230A1 (en) Systems and methods for signaling types of pictures and associated information in video coding
WO2021100724A1 (en) Systems and methods for signaling reference picture lists in video coding
WO2021137295A1 (en) Systems and methods for signaling subpicture information in video coding
US12022126B2 (en) Systems and methods for signaling tiles and slices in video coding
WO2021112036A1 (en) Systems and methods for signaling picture timing and decoding unit information in video coding
US12058331B2 (en) Systems and methods for performing intra prediction in video coding
WO2021125145A1 (en) Systems and methods for signaling picture output resolution in video coding
WO2021187376A1 (en) Systems and methods for signaling decoded picture buffer information in video coding
US11284115B2 (en) Systems and methods for applying adaptive loop filters in video coding
WO2021117644A1 (en) Systems and methods for signaling output layer set information in video coding
WO2021187375A1 (en) Systems and methods for applying deblocking filters in video coding
WO2023085181A1 (en) Systems and methods for signaling downsampling offset information in video coding
WO2020256136A1 (en) Systems and methods for signaling decoded picture buffer information in video coding
WO2020255896A1 (en) Systems and methods for signaling network abstraction layer unit information in video coding
WO2024004811A1 (en) Systems and methods for signaling neural network post-filter parameter information in video coding
WO2024004978A1 (en) Systems and methods for signaling neural network post-filter parameter information in video coding
WO2023171484A1 (en) Systems and methods for handling out of boundary motion compensation predictors in video coding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination