CN115209142A - 统一神经网络环路滤波器 - Google Patents

统一神经网络环路滤波器 Download PDF

Info

Publication number
CN115209142A
CN115209142A CN202210357676.0A CN202210357676A CN115209142A CN 115209142 A CN115209142 A CN 115209142A CN 202210357676 A CN202210357676 A CN 202210357676A CN 115209142 A CN115209142 A CN 115209142A
Authority
CN
China
Prior art keywords
video
filter
unit
samples
picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210357676.0A
Other languages
English (en)
Inventor
李跃
张莉
张凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Lemon Inc Cayman Island
Original Assignee
Lemon Inc Cayman Island
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Lemon Inc Cayman Island filed Critical Lemon Inc Cayman Island
Publication of CN115209142A publication Critical patent/CN115209142A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • H04N19/436Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation using parallelised computational arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/132Sampling, masking or truncation of coding units, e.g. adaptive resampling, frame skipping, frame interpolation or high-frequency transform coefficient masking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/154Measured or subjectively estimated visual quality after decoding, e.g. measurement of distortion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/172Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a picture, frame or field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/184Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being bits, e.g. of the compressed video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/1883Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit relating to sub-band structure, e.g. hierarchical level, directional tree, e.g. low-high [LH], high-low [HL], high-high [HH]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/30Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using hierarchical techniques, e.g. scalability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

一种统一神经网络环路滤波器以及由视频编码设备实施的方法包含将神经网络(NN)滤波器应用于视频单元的未经滤波样点以产生经滤波样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入产生的NN滤波器模型。该方法还包括基于所生成的滤波后的样点在视频媒体文件和比特流之间进行转换。

Description

统一神经网络环路滤波器
相关申请的交叉引用
本专利申请要求Lemon公司于2021年4月6日提交的No.63/171,225号美国临时专利申请的权益,标题为“关于设计为视频编解码的环路滤波的统一神经网络”,该专利申请通过引用并入本文。
技术领域
本公开总体涉及图像和视频编解码和解码。
背景技术
尽管视频压缩有所进步,数字视频在互联网和其他数字通信网络上仍占最大的带宽使用量。随着能够接收和显示视频的连接用户设备的数量增加,预计数字视频使用所需的带宽将继续增长。
发明内容
所公开的方面/实施例提供了一个或多个神经网络(NN)滤波器模型,其被训练为环路滤波技术或后处理阶段中使用的滤波技术的一部分,减少压缩期间引起的失真。此外,具有不同特性的样点采用不同的NN滤波器模型进行处理。此外,可以通过提供至少一个指示符作为NN滤波器的输入来生成统一的NN滤波器模型,该指示符可以是质量级别指示符。
第一方面涉及一种由编解码装置实施的方法。该方法包括:将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型。该方法还包括基于所述生成的经滤波的样点,在视频媒体文件和比特流之间进行转换。
可选地,在任一前述方面,该方面的另一实施例提供了QI输入包括视频单元的量化参数(QP)。
可选地,在任一前述方面,该方面的另一实施例提供了QI输入包括序列的量化参数(QP),所述序列包括所述视频单元。
可选地,在任一前述方面,该方面的另一实施例提供了QI输入包括图片或条带的量化参数(QP),所述图片或条带包括所述视频单元。
可选地,在任一前述方面,该方面的另一实施例提供了QI输入包括应用于所述视频单元的量化过程的输出,其中,所述量化过程基于所述视频单元的量化参数(QP)、包括所述视频单元的序列的QP或包括所述视频单元的图片或条带的QP。
可选地,在任一前述方面,该方面的另一实施例提供了将所述质量级别指示符扩展成与所述视频单元具有相同尺寸的二维数组,其中所述二维数组是对所述NN滤波器的附加输入平面。
可选地,在任一前述方面,该方面的另一实施例提供了视频单元是编解码树单元(CTU)或编解码单元(CU)。
可选地,在任一前述方面,该方面的另一实施例提供了QI输入被馈送到所述NN滤波器的多个全连接层中,以将所述QI输入扩充成一维向量,并且其中,所述一维向量的元素是用于重新校准所述NN滤波器模型的特征图的通道式缩放因子。
可选地,在任一前述方面,该方面的另一实施例提供了NN滤波器模型的所述特征图由f∈RN×W×H给出,其中N表示通道数量,W表示通道宽度,并且H表示通道高度,其中,由所述全连接层提供的所述一维向量由S∈RN表示,并且其中,根据Fi,j,k=fi,j,k×Si生成所述重新校准的特征图,其中1≤i≤N,1≤j≤W,1≤k≤H,其中F表示所述重新校准的特征图。
可选地,在任一前述方面,该方面的另一实施例提供了使用从由序列参数集(SPS)、图片参数集(PPS)、图片标头、条带标头、编解码树单元(CTU)和编解码单元(CU)组成的组中选择的一个来向解码器信令通知所述质量级别指示符。
可选地,在任一前述方面,该方面的另一实施例提供了视频单元包括第一颜色分量和第二颜色分量,其中所述QI输入指示所述第一颜色分量的质量,并且其中,所述NN滤波器应用于所述第一颜色分量和所述第二颜色分量以生成所述经滤波的样点。
可选地,在任一前述方面,该方面的另一实施例提供了视频单元包括第一颜色分量和第二颜色分量,其中,所述QI输入包括指示所述第一颜色分量的质量的第一QI和指示所述第二颜色分量的质量的第二QI,并且其中,所述第一QI被应用于所述第一颜色分量,并且所述第二QI被应用于所述第二颜色分量,以生成所述经滤波的样点。
可选地,在任一前述方面,该方面的另一实施例提供了视频单元包括第一颜色分量和第二颜色分量,其中所述QI输入指示所述第一颜色分量的质量,并且其中所述NN滤波器仅被应用于所述第一颜色分量以生成所述经滤波的样点。
可选地,在任一前述方面,该方面的另一实施例提供了QI指示包括所述视频单元的区域或图片的质量。
可选地,在任一前述方面,该方面的另一实施例提供了QI指示不包括所述视频单元的区域或图片的质量。
可选地,在任一前述方面,该方面的另一实施例提供了视频单元参考所述区域或所述图片。
可选地,在任一前述方面,该方面的另一实施例提供了转换包括根据所述视频媒体文件生成所述比特流。
可选地,在任一前述方面,该方面的另一实施例提供了转换包括解析所述比特流以获得所述视频媒体文件。
第二方面涉及一种编解码视频数据的装置,包括处理器和其上具有指令的非暂时性存储器,其中,所述指令在由所述处理器执行时使所述处理器:将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型;以及基于所述生成的经滤波的样点,在视频媒体文件和比特流之间进行转换。
第三方面涉及一种存储视频的比特流的非暂时性计算机可读介质,所述比特流由视频处理装置执行的方法生成。由视频处理装置执行的方法包括:将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型;以及基于所述生成的经滤波的样点,生成所述比特流。
第四方面涉及一种由视频处理装置执行的存储视频比特流的方法。由视频处理装置执行的方法包括将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型;以及基于所述生成的经滤波的样点,生成所述比特流。
为清晰起见,任何一个前述实施例可与任何一个或多个其他前述实施例相结合,在本公开的保护范围内创建新的实施例。
从以下结合附图和权利要求的详细说明中,可更清楚地理解这些和其他特征。
附图说明
为了更全面地理解本公开,结合附图和详细说明参考以下简要说明,其中相同的参考数字代表相同的元素。
图1是图片的光栅扫描条带分割的示例。
图2是图片的矩形条带分割的示例。
图3是图片分割为片、图块和矩形条带的示例。
图4A是跨越底部图片边界的编解码树块(CTB)的示例。
图4B是跨越右侧图片边界的CTB的示例。
图4C是跨越右下方图片边界的CTB的示例。
图5是编码器框图的示例。
图6是8×8样点块内的样点的图示。
图7是滤波器开/关决策和强/弱滤波器选择中涉及的像素的示例。
图8示出了EO样点分类的四个一维(1-D)方向方案。
图9示出了基于几何变换的自适应环路滤波器(GALF)滤波器形状的示例。
图10示出了用于5×5菱形滤波器支持(support)的相对坐标的示例。
图11示出了用于5×5菱形滤波器支持的相对坐标的另一个示例。
图12A是所提出的CNN滤波器的示例架构。
图12B是残差块(ResBlock)的构造示例。
图13为根据各种示例,基于接收质量级别指示符作为输入的神经网络滤波器模型生成经滤波样点的过程的示例。
图14为根据各种示例,扩展(span)或拼接(tile)成二维数组的质量级别指示符的示例。
图15是根据各种示例,将质量级别指示符馈送到多个全连接层(例如,NN滤波器的全连接层)以扩充为一维向量的示例。
图16为示出示例视频处理系统的框图。
图17为视频处理装置的框图。
图18为示出示例视频编解码系统的框图。
图19为示出视频编码器示例的框图。
图20为示出视频解码器示例的框图。
图21为根据本公开实施例的视频数据编码方法。
具体实施方式
首先应理解,尽管下文提供了一个或多个实施例的说明性实施方式,但可使用任何数量的技术实施所公开的系统和/或方法,无论是当前已知的还是现有的。本公开不应以任何方式限于以下示出的说明性实施方式、附图和技术,包括在此示出和描述的示例性设计和实施方式,而是可以在所附权利要求及其等同物的全部范围内进行修改。
通用视频编解码(VVC),也称为H.266,在某些描述中使用术语仅是为了便于理解,而不是为了限制所公开技术的范围。因此,本文描述的技术也适用于其他视频编解码器协议和设计。
本专利文件涉及视频编解码。具体地,本描述涉及图像/视频编解码中的环路滤波器。对于使用现有视频编解码标准(例如VVC标准、高效视频编解码(HEVC))或待定稿的标准(例如,第三代音频视频编解码标准(AVS3))编解码的视频比特流,所公开的示例可以单独应用或以各种组合应用。所公开的示例也可以适用于未来的视频编解码标准、未来的视频编解码器,或者作为编码/解码过程之外的后处理方法。
视频编解码标准主要是通过开发公知的国际电信联盟-电信(ITU-T)和国际标准化组织(ISO)/国际电工委员会(IEC)标准而演变的。ITU-T开发了H.261和H.263,ISO/IEC开发了运动图片专家组(MPEG)-1和MPEG-4视觉,并且两个组织联合开发了H.262/MPEG-2视频、H.264/MPEG-4高级视频编解码(Advanced Video Coding,AVC)和H.265/高效视频编解码(HEVC)标准。
自H.262以来,视频编解码标准基于混合视频编解码结构,其中采用了时域预测加变换编解码。为探索HEVC之外的未来视频编解码技术,视频编解码专家组(VCEG)和MPEG于2015年联合成立了联合视频探索团队(Joint Video Exploration Team,JVET)。从那时起,JVET采用了许多新的方法,并将其应用到了名为联合探索模型(Joint ExplorationModel,JEM)的参考软件中。
2018年4月,在VCEG(Q6/16)和ISO/IEC JTC1 SC29/WG11(MPEG)之间创建了联合视频专家团队(JVET),其致力于研究VVC标准,目标为相较于HEVC有50%的比特率下降。VVC版本1于2020年7月完成。
讨论了颜色空间和色度子采样。颜色空间,也称为颜色模型(或颜色系统),是一种抽象的数学模型,其简单地将颜色范围描述为数字元组,通常为3或4个值或颜色分量(例如,红绿蓝(RGB))。从根本上说,颜色空间是一个坐标系统和子空间的阐述。
对于视频压缩,最常用的颜色空间是YCbCr和RGB。YCbCr、Y’CbCr或Y Pb/Cb Pr/Cr,也写作YCBCR或Y’CBCR,是一个颜色空间系列,用作视频和数码摄影系统中颜色图像流水线的一部分。Y’是亮度分量,CB和CR是蓝色差和红色差色度分量。Y’(带撇)不同于Y,Y是亮度,这意味着光强度是基于伽马校正的RGB原色非线性编码的。
色度子采样是利用人类视觉系统对色差的敏感度低于对亮度的敏感度,通过对色度信息实施比亮度信息更低的精度来对图像进行编码的实践。
对于4:4:4色度子采样,三个Y’CbCr分量中的每一个具有相同的采样率,因此没有色度子采样。这种方案有时用于高端胶片扫描仪和电影后期制作。
对于4:2:2色度子采样,以亮度采样率的一半对两个色度分量进行采样:水平色度精度减半。这将未压缩视频信号的带宽减少了三分之一,但几乎没有视觉差异。
对于4:2:0色度子采样,与4:1:1相比,水平采样加倍,但由于在该方案中Cb和Cr通道仅在每条交替线上采样,垂直精度减半。因此,数据速率是相同的。Cb和Cr分别在水平和垂直方向上以2的因子进行子采样。4:2:0方案有三种变体,具有不同的水平和垂直选址。
在MPEG-2中,Cb和Cr在水平上共址。Cb和Cr在垂直方向的像素之间选址(间隙选址)。在联合图像专家组(JPEG)/JPEG文件交换格式(JFIF)、H.261和MPEG-1中,Cb和Cr是间隙选址的,位于交替亮度样点中间。在4:2:0DV中,Cb和Cr在水平方向上共址。在垂直方向上,它们在交替线上共址。
提供了视频单元的定义。图片被分成一个或多个片(tile)行和一个或多个片列。片是覆盖图片的矩形区域的编解码树单元(CTU)的序列。一个片被分成一个或多个图块(brick),每个图块由片内的多个CTU行组成。未被分割成多个图块的片也称为图块。然而,作为片的真子集的图块不被称为片。条带包括图片的多个片或者片的多个图块。
支持两种条带模式,即光栅扫描条带模式和矩形条带模式。在光栅扫描条带模式中,条带包括图片的片光栅扫描中的片序列。在矩形条带模式中,条带包括图片的多个图块,这些图块共同形成图片的矩形区域。矩形条带内的图块按照条带的图块光栅扫描顺序排列。
图1为图片100的光栅扫描条带分割的示例,其中图片被划分为十二个片102和三个光栅扫描条带104。如图所示,每个片102和条带104包括多个CTU 106。
图2为根据VVC规范对图片200进行矩形条带分割的示例,其中,图片被分为二十四个片202(六个片列203和四个片行205)和九个矩形条带204。如图所示,每个片202和条带204包括多个CTU 206。
图3为根据VVC规范将图片300分割为片、图块和矩形条带的示例,其中图片划分为四个片302(两个片列303和两个片行305)、十一个图块304(左上片包含一个图块,右上片包含五个图块,左下片包含两个图块,右下片包含三个图块)和四个矩形条带306。
讨论了CTU和编解码树块(CTB)尺寸。在VVC中,由语法元素log2_ctu_size_minus2在序列参数集(SPS)中信令通知的编解码树单元(CTU)尺寸可以小到4×4。序列参数集原始字节序列有效载荷(RBSP)语法如下。
Figure BDA0003582479180000071
Figure BDA0003582479180000081
Figure BDA0003582479180000091
log2_ctu_size_minus2plus2规定每个CTU的亮度编解码树块尺寸。
log2_min_luma_coding_block_size_minus2plus2规定最小亮度编解码块尺寸。
变量CtbLog2SizeY、CtbSizeY、MinCbLog2SizeY、MinCbSizeY、MinTbLog2SizeY、MaxTbLog2SizeY、MinTbSizeY、MaxTbSizeY、PicWidthInCtbsY、PicHeightInCtbsY、PicSizeInCtbsY、PicWidthInMinCbsY、PicHeightInMinCbsY、PicSizeInMinCbsY、PicSizeInSamplesY、PicWidthInSamplesC和PicHeightInSamplesC推导如下:
CtbLog2SizeY=log2_ctu_size_minus2+2 (7-9)
CtbSizeY=1<<CtbLog2SizeY (7-10)
MinCbLog2SizeY=log2_min_luma_coding_block_size_minus2+2 (7-11)
MinCbSizeY=1<<MinCbLog2SizeY (7-12)
MinTbLog2SizeY=2 (7-13)
MaxTbLog2SizeY=6 (7-14)
MinTbSizeY=1<<MinTbLog2SizeY (7-15)
MaxTbSizeY=1<<MaxTbLog2SizeY (7-16)
PicWidthInCtbsY=Ceil(pic_width_in_luma_samples÷CtbSizeY) (7-17)
PicHeightInCtbsY=Ceil(pic_height_in_luma_samples÷CtbSizeY) (7-18)
PicSizeInCtbsY=PicWidthInCtbsY*PicHeightInCtbsY (7-19)
PicWidthInMinCbsY=pic_width_in_luma_samples/MinCbSizeY (7-20)
PicHeightInMinCbsY=pic_height_in_luma_samples/MinCbSizeY (7-21)
PicSizeInMinCbsY=PicWidthInMinCbsY*PicHeightInMinCbsY (7-22)
PicSizeInSamplesY=pic_width_in_luma_samples*pic_height_in_luma_samples (7-23)
PicWidthInSamplesC=pic_width_in_luma_samples/SubWidthC (7-24)
PicHeightInSamplesC=pic_height_in_luma_samples/SubHeightC (7-25)
图4A是跨越底部图片边界的CTB的示例。图4B是跨越右侧图片边界的CTB的示例。图4C是跨越右下图片边界的CTB的示例。在图4A-图4C中,分别有K=M,L<N;K<M,L=N;K<M,L<N。
参考图4A-图4C讨论了图片400中的CTU。假设由M×N指示的CTB/最大编解码单元(LCU)尺寸(通常M等于N,如HEVC/VVC中所定义的),并且对于位于图片(或片或条带或其他类型,以图片边界作为示例)边界的CTB,K×L个样点在图片边界内,其中K<M或L<N。对于图4A-4C中所描绘的那些CTB 402,CTB尺寸仍然等于M x N,然而,CTB的底部边界/右侧边界在图片400之外。
讨论了典型视频编码器/解码器(又名编解码器)的编解码流程。图5是VVC的编码器框图的示例,其包含三个环路滤波块:去块滤波器(DF)、样点自适应偏移(SAO)和自适应环路滤波器(ALF)。与使用预定义滤波器的DF不同,SAO和ALF借助于信令通知偏移和滤波器系数的编解码边信息,分别通过添加偏移以及应用有限脉冲响应(finite impulseresponse,FIR)滤波器而利用当前图片的原始样点来减少原始样点和重构样点之间的均方误差。ALF位于每一图片的最后处理阶段上,并且可以被视为尝试捕捉并且修复先前阶段建立的伪像的工具。
图5为编码器500的示意图。编码器500适用于实施VVC技术。编码器500包括三个环路滤波器,即去块滤波器(DF)502、样点自适应偏移(SAO)504和ALF 506。与使用预定义滤波器的DF 502不同,SAO 504和ALF 506借助于信令通知偏移和滤波器系数的编解码边信息,分别通过添加偏移以及应用FIR滤波器而利用当前图片的原始样点来减少原始样点和重构样点之间的均方误差。ALF 506位于每一图片的最后处理阶段上,并且可以被视为尝试捕捉并且修复先前阶段建立的伪像的工具。
编码器500还包括帧内预测组件508和运动估计/补偿(ME/MC)组件510,配置为接收输入视频。帧内预测组件508被配置为执行帧内预测,而ME/MC组件510被配置为利用从参考图片缓冲区512获得的参考图片来执行帧间预测。来自帧间预测或帧内预测的残差块被馈送到变换组件514和量化组件516,以生成量化的残差变换系数,该系数被馈送到熵编解码组件518。熵编解码组件518对预测结果和量化的变换系数进行熵编解码,并将其发送给视频解码器(未示出)。从量化组件516输出的量化分量可以被馈送到反量化组件520、逆变换组件522和重构(REC)组件524。REC组件524能够将图像输出到DF 502、SAO 504和ALF506,以便在这些图像被存储在参考图片缓冲区512中之前进行滤波。
DF 502的输入是环路滤波器之前的重构样点。首先滤波图片中的垂直边缘。然后,利用由垂直边缘滤波过程修改的样点作为输入,对图像中的水平边缘进行滤波。每个CTU的CTB中的垂直边缘和水平边缘在编解码单元的基础上被单独处理。编解码单元中的编解码块的垂直边缘从编解码块左侧的边缘开始滤波,按照它们的几何顺序通过边缘向编解码块的右侧前进。编解码单元中编解码块的水平边缘从编解码块顶部的边缘开始滤波,按照它们的几何顺序通过边缘向编解码块的底部前进。
图6是8×8样点块604内的样点602的的图示600。如图所示,图示600分别包括8×8网格上的水平块边界606和垂直块边界608。此外,图示600描绘了8×8样点非重叠块610,其可以被并行去块。
讨论了边界决策。滤波应用于8×8块边界。此外,它必须是变换块边界或编解码子块边界(例如,由于使用仿射运动预测、可选时域运动矢量预测(ATMVP))。对于不是这种边界的那些边界,滤波器被禁用。
讨论了边界强度计算。对于变换块边界/编解码子块边界,如果它位于8×8网格中,则变换块边界/编解码子块边界可以被滤波,并且该边缘的bS[xDi][yDj](其中[xDi][yDj]表示坐标)的设置分别在表1和表2中定义。
表1.边界强度(当SPS IBC禁用时)
Figure BDA0003582479180000111
Figure BDA0003582479180000121
表2.边界强度(当SPS IBC启用时)
Figure BDA0003582479180000122
讨论了亮度分量的去块决策。
图7为滤波器开/关决策和强/弱滤波器选择中涉及的像素的示例700。仅当条件1、条件2和条件3都为真时,才使用较宽较强的亮度滤波器。条件1是“大块条件”。这个条件检测P侧和Q侧的样点是否属于大块,分别用变量bSidePisLargeBlk和bSideQisLargeBlk表示。bSidePisLargeBlk和bSideQisLargeBlk的定义如下。
bSidePisLargeBlk=((边类型为垂直的,并且p0属于宽度>=32的CU)||(边类型为水平的,并且p0属于高度>=32的CU))?TRUE:FLASE
bSideQisLargeBlk=((边类型为垂直的,并且q0属于宽度>=32的CU)||(边类型为水平的,并且q0属于高度>=32的CU))?TRUE:FLASE
基于bSidePisLargeBlk和bSideQisLargeBlk,条件1定义如下。
条件1=(bsidepislageblk||bsidepislageblk)?TRUE:FLASE
接下来,如果条件1为真,将进一步检查条件2。首先,导出以下变量。
在HEVC中,首先导出dp0、dp3、dq0、dq3。
如果(p侧大于或等于32)
dp0=(dp0+Abs(p50-2*p40+p30)+1)>>1
dp3=(dp3+Abs(p53-2*p43+p33)+1)>>1
如果(q侧大于或等于32)
dq0=(dq0+Abs(q50-2*q40+q30)+1)>>1
dq3=(dq3+Abs(q53-2*q43+q33)+1)>>1
条件2=(d<β)?TRUE:FALSE
其中d=dp0+dq0+dp3+dq3.
如果条件1和条件2有效,则进一步检查任何块是否使用子块。
Figure BDA0003582479180000131
最后,如果条件1和条件2都有效,则所提出的去块方法将检查条件3(大块强滤波条件),其定义如下。
在条件3StrongFilterCondition中,导出以下变量。
dpq是像在HEVC那样推导出来的。
Figure BDA0003582479180000141
如在HEVC中,StrongFilterCondition=(dpq小于(β>>2),sp3+sq3小于(3*β>>5),并且Abs(p0-q0)小于(5*tC+1)>>1)?TRUE:FALSE。
讨论了亮度的较强去块滤波器(为较大块设计)。
当边界任一侧的样点属于大块时,使用双线性滤波器。当垂直边缘的宽度>=32且水平边缘的高度>=32时,属于大块的样点被定义。
双线性滤波器如下所列。
然后,在上述HEVC去块中,对于i=0至Sp-1的块边界样点pi和j=0至Sq-1的块边界样点qi由线性插值替换,pi和qi是为了滤波垂直边缘的一行中的第i个样点,或者是为了滤波水平边缘的一列中的第i个样点,如下所示。
pi′=(fi*Middles,t+(64-fi)*Ps+32)>>6),clipped to pi±tcPDi
qj′=(gj*Middles,t+(64-gj)*Qs+32)>>6),clipped to qj±tcPDj
其中,tcPDi和tcPDj术语是以下描述的位置相关的限幅(clipping)并且以下给出gj、fi、Middles,t、Ps和Qs
讨论了色度的去块控制。
在块边界的两侧使用色度强滤波器。这里,当色度边缘的两侧都大于或等于8(色度位置)时,选择色度滤波器,并且满足以下三个条件的决策:第一个条件是对于边界强度以及大块的决策。当色度采样域中与块边缘正交的块宽度或高度等于或大于8时,可以应用所提出的滤波器。第二个条件和第三个条件基本上与HEVC亮度去块决策相同,分别是开/关决策和强滤波决策。
在第一个决策中,对色度滤波修改边界强度(bS),并顺序检查条件。如果满足一个条件,则跳过其余优先级较低的条件。
当bS等于2时执行色度去块,或当检测到大块边界时bS等于1。
第二个条件和第三个条件基本上与HEVC亮度强滤波决策相同,如下所示。
在第二个条件中:如在HEVC亮度去块中那样导出d。当d小于β时,第二个条件为TRUE。
在第三个条件中,StrongFilterCondition推导如下。
如在HEVC中推导dpq
sp3=Abs(p3-p0),如在HEVC中推导
sq3=Abs(q0-q3),如在HEVC中推导
如在HEVC设计中,StrongFilterCondition=(dpq小于(β>>2),sp3+sq3
于(β>>3),Abs(p0-q0)小于(5*tC+1)>>1)。
讨论了色度的强去块滤波器。定义了以下色度的强去块滤波器。
p2′=(3*p3+2*p2+p1+p0+q0+4)>>3
p1′=(2*p3+p2+2*p1+p0+q0+q1+4)>>3
p0′=(p3+p2+p1+2*p0+q0+q1+q2+4)>>3
所提出的色度滤波器在4×4色度样点网格上执行去块。
讨论了位置相关限幅(tcPD)。位置相关限幅tcPD应用于亮度滤波过程的输出样点,该过程涉及修改边界处的7、5和3个样点的强和长滤波器。假设量化误差分布,提出增加预计具有较高量化噪声的样点的限幅值,因此预计重构样点值与真实样点值的偏差较大。
对于使用非对称滤波器滤波的每个P或Q边界,根据边界强度计算中的决策过程的结果,从作为边信息提供给解码器的两个表(即,下表中的Tc7和Tc3)中选择位置相关阈值表。
Tc7={6,5,4,3,2,1,1};Tc3={6,4,2};
tcPD=(Sp==3)?Tc3:Tc7;
tcQD=(Sq==3)?Tc3:Tc7;
对于用短对称滤波器滤波的P或Q边界,应用较低幅度的位置相关阈值。
Tc3={3,2,1};
在定义阈值后,根据tcP和tcQ限幅值对滤波后的p’iq’i样点值进行限幅。
p”i=Clip3(p’i+tcPi,p’i–tcPi,p’i);
q”j=Clip3(q’j+tcQj,q’j–tcQj,q’j);
其中,p’i和q’i是滤波后的样点值p”i和q”j是限幅后的输出样点值,tcPi是从VVCtc参数以及tcPD和tcQD导出的限幅阈值。函数Clip3是在VVC中规定的限幅函数。
现在讨论子块去块调整。为了使用长滤波器和子块去块来实现并行友好去块,长滤波器被限制为在使用子块去块(AFFINE或ATMVP或解码器侧运动矢量细化(DMVR))的一侧最多修改5个样点,如长滤波器的亮度控制中所示。此外,调整子块去块,使得靠近编解码单元(CU)或隐式TU边界的8×8网格上的子块边界被限制为在每一侧最多修改两个样点。
以下内容适用于未与CU边界对齐的子块边界。
Figure BDA0003582479180000161
其中边缘等于0对应于CU边界,边缘等于2或等于orthogonalLength-2对应于来自CU边界的子块边界8个样点等。其中,如果使用TU的隐式划分,则隐式TU为真。
讨论了样点自适应偏移(SAO)。SAO的输入是去块后的重构样点(DB)。SAO的概念是通过首先用选定的分类器将区域样点分类成多个类别,获得每个类别的偏移,然后将该偏移加到该类别的每个样点,来减少区域的平均样点失真,其中,分类器索引和区域的偏移被编解码在比特流中。在HEVC和VVC,区域(SAO参数信令通知的单元)被定义为CTU。
HEVC采用两种可满足低复杂度要求的SAO类型。这两种类型是边缘偏移(EO)和频带偏移(BO),下面将详细讨论。SAO类型的索引被编解码(在[0,2]的范围内)。对于EO,样点分类基于当前样点和临近样点之间的比较,根据一维方向方案:水平、垂直、135°对角线和45°对角线。
图8示出了EO样点分类的四个一维(1-D)方向方案800:水平(EO分类=0)、垂直(EO分类=1)、135°对角线(EO分类=2)和45°对角线(EO分类=3)。
对于给定的EO分类,CTB内的每个样点被分类为五个类别之一。标记为“c”的当前样点值与其沿所选1-D模式的两个临近样点值进行比较。每个样点的分类规则总结在表3中。类别1和4分别与沿着所选1-D模式的局部谷和局部峰相关联。类别2和3分别与沿着所选一维方案的凹角和凸角相关联。如果当前样点不属于EO类别1-4,则它属于类别0,且不适用SAO。
表3:边缘偏移的样点分类规则
Figure BDA0003582479180000171
讨论了联合探索模型(JEM)中基于几何变换的自适应环路滤波器。DB的输入是DB和SAO之后的重构样点。样点分类和滤波过程基于DB和SAO之后的重构样点。
在JEM中,应用了带有基于块的滤波器自适应的基于几何变换的自适应环路滤波器(GALF)。对于亮度分量,根据局部梯度的方向和有效性,为每个2×2块选择25个滤波器中的一个。
讨论了滤波器的形状。图9示出了GALF滤波器形状900的示例,包括左边的5×5菱形,中间的7×7菱形,以及右边的9×9菱形。在JEM中,可以为亮度分量选择多达三种菱形滤波器形状(如图9所示)。在图片级信令通知索引,以指示用于亮度分量的滤波器形状。每个方块代表一个样点,Ci(i为0~6(左),0~12(中),0~20(右))表示应用于该样点的系数。对于图片中的色度分量,总是使用5×5菱形。
讨论了块分类。每个2×2块被分成25类中的一类。分类索引c基于其方向性D和有效性
Figure BDA0003582479180000181
的量化值导出,如下所示。
Figure BDA0003582479180000182
为了计算D和
Figure BDA0003582479180000183
首先使用1-D拉普拉斯算子计算水平、垂直和两个对角线方向的梯度。
Figure BDA0003582479180000184
Figure BDA0003582479180000185
Figure BDA0003582479180000186
Figure BDA0003582479180000187
索引i和j指的是2×2块中左上样点的坐标,并且R(i,j)表示坐标(i,j)处的重构样点。
那么水平和垂直方向的梯度的最大值和最小值被设置为:
Figure BDA0003582479180000188
两个对角线方向的梯度的最大值和最小值设置为:
Figure BDA0003582479180000189
为了导出方向性D的值,将这些值相互比较并与两个阈值t1和t2比较:
步骤1.如果
Figure BDA00035824791800001810
并且
Figure BDA00035824791800001811
为真,那么D设置为0。
步骤2.如果
Figure BDA00035824791800001812
从步骤3继续;否则从步骤4继续。
步骤3.如果
Figure BDA0003582479180000191
D设置为2;否则D设置为1。
步骤4.如果
Figure BDA0003582479180000192
D设置为4;否则D设置为3。
有效性值A计算如下:
Figure BDA0003582479180000193
A被进一步量化到0到4的范围,并且量化值被表示为
Figure BDA0003582479180000195
对于图片中的两个色度分量,不应用分类方法,即,对于每个色度分量应用单组ALF系数。
讨论了滤波器系数的几何变换。
图10示出了分别支持(从左到右)对角线、垂直翻转和旋转的5×5菱形滤波器的相对坐标1000。
在对每个2×2块进行滤波之前,根据为该块计算的梯度值,对与坐标(k,l)相关联的滤波器系数f(k,l)应用诸如旋转或对角反翻转和垂直翻转之类的几何变换。这相当于将这些变换应用于滤波器支持区域中的样点。这个想法是通过对齐不同的块的方向性来使这些应用ALF的不同的块更加相似。
引入了三种几何变换,包括对角线、垂直翻转和旋转:
对角线:fD(k,l)=f(l,k),
垂直翻转:fV(k,l)=f(k,K-l-1), (9)
旋转:fR(k,l)=f(K-l-1,k).
其中K是滤波器的尺寸,并且0≤k,l≤K-1是系数坐标,使得位置(0,0)位于左上角,并且位置(K-1,K-1)位于右下角。根据为该块计算的梯度值,将变换应用于滤波器系数f(k,l)。表4总结了变换和四个方向的四个梯度之间的关系。
表4:为一个块计算的梯度和变换之间的映射
Figure BDA0003582479180000194
讨论了滤波器参数的信令通知。在JEM中,为第一CTU信令通知GALF滤波器参数,即在第一CTU的条带标头之后和SAO参数之前。最多可以发送25组亮度滤波器系数。为了减少比特开销,可以合并不同分类的滤波器系数。此外,参考图片的GALF系数被存储并被允许重新用作当前图片的GALF系数。当前图片可以选择使用为参考图片存储的GALF系数,并绕过GALF系数信令。在这种情况下,只信令通知一个参考图片的索引,并且所指示的参考图片的存储的GALF系数被当前图片继承。
为了支持GALF时域预测,维护GALF滤波器集合的候选列表。在解码新序列的开始,候选列表是空的。在解码一个图片之后,相应的滤波器集合可以被添加到候选列表中。一旦候选列表的尺寸达到最大允许值(即,在当前的JEM中为6),新的滤波器集合就按解码顺序覆盖最老的集合,也就是说,先入先出(FIFO)规则被应用来更新候选列表。为了避免重复,只有当相应的图片不使用GALF时域预测时,才能将该集合添加到列表中。为了支持时域可缩放性,存在多个滤波器集合的候选列表,并且每个候选列表与时域层相关联。更具体地,由时域层索引(TempIdx)分配的每个数组可以组成具有等于较低TempIdx的先前解码的图片的滤波器集合。例如,第k个数组被分配为与等于k的TempIdx相关联,并且第k个数组仅包含来自TempIdx小于或等于k的图片的滤波器集合。在对某个图片进行编解码之后,与该图片相关联的滤波器集合将被用于更新与等于或更高的TempIdx相关联的那些数组。
GALF系数的时域预测用于帧间编解码帧,以最小化信令开销。对于帧内帧,时域预测不可用,并且一组16个固定滤波器被分配给每个类别。为了指示固定滤波器的使用,信令通知每个类别的标志,并且如果需要,还通知所选固定滤波器的索引。即使当固定滤波器被选择用于给定类别时,自适应滤波器f(k,l)的系数仍然可以被发送用于该类别,在这种情况下,将被应用于重构图像的滤波器的系数是两组系数的总和。
亮度分量的滤波过程可以在CU级进行控制。信令通知一个标志来指示GALF是否应用于CU的亮度分量。对于色度分量,是否应用GALF仅在图片级上指示。
讨论了滤波过程。在解码器侧,当对块启用GALF时,块内的每个样点R(i,j)被滤波,产生如下所示的样点值R′(i,j),其中L表示滤波器长度,fm,n表示滤波器系数,f(k,l)表示解码的滤波器系数。
Figure BDA0003582479180000211
图11示出了假设当前样点的坐标(i,j)为(0,0)时,用于5×5菱形滤波器支持的相对坐标的示例。用相同颜色填充的不同坐标中的样点乘以相同的滤波器系数。
讨论了VVC的基于几何变换的自适应环路滤波器(GALF)。在VVC测试模型4.0(VTM4.0)中,自适应环路滤波器的滤波过程执行如下:
O(x,y)=∑(i,j)w(i,j).I(x+i,y+j), (11)
其中,样点I(x+i,y+j)是输入样点O(x,y)是滤波后的输出样点(即滤波结果),w(i,j)表示滤波系数。实际上,在VTM4.0中,它是使用整数运算来实现定点精度计算的
Figure BDA0003582479180000212
其中,L表示滤波器长度,w(i,j)是定点精度的滤波器系数。
与JEM相比,VVC中GALF的当前设计有以下主要变化:
1)自适应滤波器形状被移除。亮度分量只允许7×7滤波器形状,色度分量只允许5×5滤波器形状。
2)将ALF参数的信令通知从条带/图片级移到CTU级。
3)在4×4级别而不是2×2级别来执行类别索引的计算。此外,如在JVET-L0147中提出的,利用为ALF分类的子采样拉普拉斯计算方法。更具体地说,不需要为一个块内的每个样点计算水平/垂直/45对角线/135度梯度。相反,使用1:2子采样。
关于滤波重构,讨论了当前VVC中的非线性ALF。
等式(11)可以在不影响编解码效率的情况下,重新表达为以下表达式:
O(x,y)=I(x,y)+∑(i,j)≠(0,0)w(i,j).(I(x+i,y+j)-I(x,y)), (2)
其中,w(i,j)是与等式(11)中相同的滤波器系数[除了w(0,0)在等式(13)中等于1,而在等式(11)中等于1-∑(i,j)≠(0,0)w(i,j)]。
使用(13)的上述滤波器公式,VVC引入了非线性,以通过使用简单的限幅函数来降低临近样点值(I(x+i,y+j))与被滤波的当前样点值(I(x,y))相差太大时的影响,从而使ALF更有效。
更具体地说,ALF滤波器修改如下:
O′(x,y)=I(x,y)+∑(i,j)≠(0,0)w(i,j).K(I(x+i,y+j)-I(x,y),k(i,j)), (14)
其中,K(d,b)=min(b,max(-b,d))是限幅函数,k(i,j)是取决于(i,j)滤波器系数的限幅参数。编码器执行优化以找到最佳的k(i,j)。
在JVET-N0242实施方式中,为每个ALF滤波器规定限幅参数k(i,j),为每个滤波器系数信令通知一个限幅值。这意味着为每个亮度滤波器在比特流中最多可以信令通知12个限幅值,为色度滤波器最多可以信令通知6个限幅值。
为了限制信令通知成本和编码器复杂度,仅使用4个固定值,它们对于INTER和INTRA条带是相同的。
因为亮度的局部差值的差异通常高于色度的局部差值的差异,所以应用两组不同的亮度和色度滤波器。还引入了每组中的最大样点值(这里对于10比特位深度为1024),以便在不必要时可以禁用限幅。
表5提供了JVET-N0242测试中使用的限幅值的集合。这4个值是通过在对数域中对亮度的样点值(以10比特编解码)的全范围和色度的从4到1024的范围进行粗略等分而选择的。
更准确地说,限幅值的亮度表是通过以下公式获得的:
Figure BDA0003582479180000221
类似的,限幅值的色度表是通过以下公式获得的:
Figure BDA0003582479180000222
表5:授权的限幅值
Figure BDA0003582479180000223
通过使用与上表5中的限幅值索引相对应的Golomb编码方案,在“alf_data”语法元素中对选定的限幅值进行编解码。该编码方案与滤波器索引的编码方案相同。
讨论了为视频编解码的基于卷积神经网络的环路滤波器。
在深度学习中,卷积神经网络(CNN或ConvNet)是一类深度神经网络,最常用于分析视觉图像。它们在图像和视频识别/处理、推荐系统、图像分类、医学图像分析、自然语言处理中有非常成功的应用。
CNN是多层感知器的正则化版本。多层感知器通常意味着全连接网络,即一层中的每个神经元都与下一层中的所有神经元相连。这些网络的“完全连接性”使得它们容易过度拟合数据。典型的正则化方法包括向损失函数添加某种形式的权重幅值度量。CNN采取了一种不同的正则化方法:它们利用数据中的层次方案,并使用更小和更简单的方案组装更复杂的方法。因此,在连通性和复杂性的尺度上,CNN处于较低的极端。
与其他图像分类/处理算法相比,CNN使用相对较少的预处理。这意味着网络学习传统算法中手工设计的滤波器。这种在特征设计中独立于现有知识和人工努力是一个主要的优势。
基于深度学习的图像/视频压缩通常有两种含义:完全基于神经网络的端到端压缩,以及由神经网络增强的传统框架。在Johannes Balle、Valero Laparra和EeroP.Simoncelli的“为感知质量的非线性变换代码的端到端优化”,2016年,图片编码研讨会(PCS)第1-5页,电气和电子工程师协会(IEEE)以及Lucas Theis、Wenzhe Shi、AndrewCunningham和Ferenc Huszár的“使用压缩自动编解码器的有损图像压缩”,arXiv前传arXiv:1703.00395(2017)中讨论了完全基于神经网络的端到端压缩。在Jiahao Li、BinLi、Jizheng Xu、Ruiqin Xiong和Wen Gao的“基于全连接网络的图像编解码帧内预测”,IEEE图像处理汇刊27,7(2018),3236–3247,Yuanying Dai、Dong Liu和Feng Wu的“HEVC帧内编解码中的后处理的卷积神经网络方法”,MMM.Springer,28–39,Rui Song、Dong Liu、Houqiang Li和Feng Wu的“HEVC中帧内预测模式的基于神经网络的算术编解码”,VCIP.IEEE,1–4和J.Pfaff、P.Helle、D.Maniry、S.Kaltenstadler、W.Samek、H.Schwarz、D.Marpe和T.Wiegand,“为视频编解码的基于神经网络的帧内预测”,数字图像处理应用XLI,第10752卷,国际光学和光子学会,1075213中讨论了由神经网络增强的传统框架。
第一种类型通常采用类似自动编码器的结构,通过卷积神经网络或递归神经网络实现。虽然单纯依靠神经网络进行图像/视频压缩可以避免任何手动优化或手工设计,但压缩效率可能并不令人满意。因此,致力于第二类的研究在于以神经网络为辅助,通过替换或增强某些模块来增强传统的压缩框架。这样,他们可以继承高度优化的传统框架的优点。例如,在Jiahao Li、Bin Li、Jizheng Xu、Ruiqin Xiong和Wen Gao,“为图像编解码的基于全连接网络的帧内预测”,IEEE图像处理汇刊27,7(2018),第3236-3247页中讨论的,在HEVC中所提出的帧内预测的全连接网络。
除了帧内预测,深度学习也用于增强其他模块。例如,HEVC的环路滤波器被卷积神经网络所取代,并Yuanying Dai、Dong Liu和Feng Wu,“HEVC帧内编解码中的后处理的卷积神经网络方法,”MMM.Springer,28–39中取得了令人满意的结果。在Rui Song、Dong Liu、Houqiang Li和Feng Wu,“HEVC帧内预测模式的基于神经网络的算术编解码”,VCIP.IEEE,1–4中的研究应用神经网络来改进算术编解码引擎。
讨论了基于卷积神经网络的环路滤波。在有损图像/视频压缩中,重构帧是原始帧的近似,因为量化过程是不可逆的,从而导致重构帧失真。为了减轻这种失真,可以训练卷积神经网络来学习从失真帧到原始帧的映射。实际上,在部署基于CNN的环路滤波之前,必须进行训练。
讨论了训练。训练过程的目的是找到包括权重和偏差的参数的最佳值。
首先,编解码器(例如,HM、JEM、VTM等)用于压缩训练数据集以生成失真的重构帧。然后,将重构的帧输入CNN,并使用CNN的输出和真实帧(原始帧)计算成本。常用的成本函数包括绝对差值和(SAD)和均方误差(MSE)。接下来,通过反向传播算法导出成本相对于每个参数的梯度。利用梯度,可以更新参数值。重复上述过程,直到满足收敛标准。在完成训练之后,导出的最佳参数被保存以用于推断阶段。
讨论了卷积过程。在卷积过程中,滤波器在图像上从左到右、从上到下移动,水平移动时改变一个像素列,垂直移动时改变一个像素行。将滤波器应用到输入图像之间的移动量被称为步长(stride),并且它在高度和宽度维度上几乎总是对称的。对于高度和宽度移动,二维中的默认(多个)步长是(1,1)。
图12A是所提出的CNN滤波器的示例架构1200,并且图12B是残差块(ResBlock)的构造1250的示例。在大多数深度卷积神经网络中,残差块被用作基本模块并被堆叠几次以构建最终网络,其中在一个示例中,残差块是通过组合卷积层、ReLU/PReLU激活函数和卷积层而获得的,如图12B所示。
讨论了推断。在推断阶段,失真的重构帧被馈入CNN并由CNN模型处理,该模型的参数已经在训练阶段确定。CNN的输入样点可以是DB之前或之后的重构样点,或者是SAO之前或之后的重构样点,或者是ALF之前或之后的重构样点。
当前基于CNN的环路滤波存在以下问题。首先,为每个质量级(例如,量化参数(QP)、恒定比率因子(CRF)或比特率)训练单独的CNN模型,这导致大量的CNN模型。第二,当QP作为神经网络的输入时,首先拼接成一个与待滤波块尺寸相同的二维数组,然后作为一个附加的输入平面。因此,QP信息可能没有得到充分利用。第三,在为一个编解码块构建包含多个模型的候选列表时,该编解码块的特性还没有被充分探索。
本文公开了解决一个或多个前述问题的技术。例如,本公开提供了一个或多个神经网络(NN)滤波器模型,其被训练为环路滤波技术或后处理阶段中使用的滤波技术的一部分,为了减少压缩期间引起的失真。此外,不同特性的样点采用不同的NN滤波器模型进行处理。本公开还阐述了如何通过馈送至少一个指示符来设计统一的NN滤波器模型(该至少一个指示符可以与质量级别(例如,QP、CRF或比特率)相关,因此是质量级别指示符(QI),作为对NN滤波器的输入),以及如何通过考虑块的编解码统计数据来构建包含编码块的多个模型的候选列表。应当注意,通过将QI作为输入馈送到NN滤波器过程的统一NN滤波器模型的概念也可以扩展到其他基于NN的编解码工具,例如基于NN的超分辨率或运动补偿设计。在下面的示例中,基于神经网络的滤波技术被用作一个示例。
以下实施例列表应视为解释一般概念的示例。这些实施例不应被狭义地解释。此外,这些实施例可以以任何方式组合。
在本公开中,NN滤波器可为任何类型的NN滤波器,如卷积神经网络(CNN)波器。在下面的讨论中,NN滤波器也可以称为CNN滤波器。
在以下讨论中,视频单元可以是序列、图片、条带、片、图块、子图片、CTU/CTB、CTU/CTB行、一个或多个CU/编解码块(CB)、一个或多个CTU/CTB、一个或多个虚拟流水线数据单元(VPDU)、图片/条带/片/图块内的子区域。父视频单元表示比视频单元大的单元。一般地,父单元将包含几个视频单元,例如,当视频单元是CTU时,父单元可以是条带、CTU行、多个CTU等。在一些实施例中,视频单元可以是样点/像素。
图13为基于接收质量级别指示符(QI)作为输入的NN滤波器模型生成滤波样点的过程的示例。在图13所示的过程1300中,至少一些未滤波的样点作为输入被提供给NN滤波器。在一个示例中,未滤波的样点是尚未经过任何滤波或尚未经过足够量的滤波的视频单元的样点(例如,像素)。因此,NN滤波器的输出可以是滤波后的样点。NN滤波器的输出也基于使用质量级别指示符(QI)输入生成的NN滤波器模型。QI输入可以与视频单元的质量级别相关,例如QP、CRF或比特率。
图14是根据一些示例,质量级别指示符被扩展或拼接成二维数组的过程1400的示例。例如,在过程1400中,二维数组可具有与待滤波的视频单元相同的尺寸(例如,在两个维度的每一个中),且为NN滤波器的附加输入平面。
图15是质量级别指示符(QI)被馈送到多个全连接层(例如,NN滤波器的全连接层)以扩充成一维向量的过程1500的示例。在过程1500中,产生的一维向量的元素可以用作通道式缩放因子。在过程1500中,通道式缩放因子对于重新校准NN滤波器模型的特征图是有用的(例如,其中N表示通道数量,W表示宽度,H表示高度),并且因此在一些示例中提供重新校准的特征图。
提供了模型选择的讨论。
示例1
1.NN滤波器模型可以将至少一个可能与质量级别相关的指示符作为输入。该指示符被称为质量级别指示符(QI)。
a.在一个示例中,视频单元的质量级别指示符是与视频单元相关联的量化参数(QP)。
b.在一个示例中,视频单元的质量级别指示符是与视频单元所属的序列相关联的QP(例如,SPS中信令通知的初始QP)。
c.在一个示例中,视频单元的质量级别指示符是与视频单元所属的图片或条带相关联的QP。
d.或者,QP可由对应于上文项目符号a、b和c中所描述的QP的量化步骤来替代。例如,QI输入可为应用于视频单元的量化过程的输出,其中量化过程基于视频单元的QP、包含视频单元的序列的QP或包含视频单元的图片或条带的QP。
e.在一个示例中,质量级别指示符首先被拼接或扩展成与待滤波的视频单元具有相同尺寸的二维数组,然后被视为附加的输入平面,例如图14所示的拼接过程。
i.在一个示例中,视频单元是CTU/CTB。
f.在一个示例中,质量级别指示符被馈送到NN滤波器的几个全连接层中,以被扩充成一维向量,其元素将用作通道式缩放因子,以重新校准NN滤波器模型的特征图。
i.在一个示例中,NN滤波器模型的特征图被表示为f∈RN×W×H,其中N、W和H分别是通道数量、宽度和高度。令S∈RN表示由全连接层获得的一维向量。那么,上述重新校准过程可以写成:Fi,j,k=fi,j,k×Si,1≤i≤N,1≤j≤W,1≤k≤H,其中f是重新校准的特征图,例如如图15所示。
g.在一个示例中,质量级别指示符被用作附加的输入平面以及重新校准因子,即方面e和f可以被组合。
h.在一个示例中,质量级别指示符可以从编码器信令通知到解码器,例如在SPS、图片参数集(PPS)、图片标头、条带标头、CTU、CU中,或者在任何区域级别。在一些示例中,PPS可以包括关于熵编解码模式、条带组、运动预测和去块滤波器的信息。
i.在一个示例中,可以将f(QI)而不是QI送入NN,其中f是任何函数。
j.在一个示例中,QI的使用可以取决于颜色分量。
i.例如,第一QI可用于第一分量(例如亮度),第二QI可用于第二分量(例如色度,如Cb或Cr)。第一QI可以指示第一分量的质量级别,第二QI可以指示第二分量的质量级别。
ii.例如,第一QI可用于第一分量(例如,亮度),且第一QI还可用于第二分量(例如,色度,如Cb或Cr)。第一QI可以指示第一分量的质量级别。
iii.例如,QI可用于第一分量(例如亮度)的NN滤波,但不用于第二分量(例如色度,如Cb或Cr)。
iv.例如,QI可以用于所有分量的NN滤波。
k.在一个示例中,用于滤波第一视频单元的QI可以指示包含第一视频单元的区域或图片的质量。
l.在一个示例中,用于滤波第一视频单元的QI可以指示不包含第一视频单元的区域或图片的质量。
i.例如,QI可以指示第一视频单元参考的区域或图片的质量。
实施例2
2.在第二实施例中,构建滤波器候选列表可以取决于视频单元的编解码统计数据(例如,预测模式、qp、条带类型等)。
a.在一个示例中,候选列表可取决于视频单元中由编解码工具(或编解码模式)X编解码的第一组样点的比率。
i.在一个示例中,X是一种预测模式,例如帧内编解码模式。
1)或者,X可为任何其他编解码工具,例如任何帧间预测工具或变换/量化编解码工具。
ii.在一个示例中,X是多种预测模式,例如包括帧内/调色板/IBC编解码模式。
iii.在一个示例中,如果帧内编解码样点的比率不小于或大于阈值,则候选列表中的一个候选是与为编解码帧内条带的候选相对应的NN滤波器模型。
iv.在一个示例中,如果帧内编解码样点的比率不小于或大于阈值,则第一候选是与帧内条带对应的NN滤波器模型。
v.在上述示例中,阈值可以是预定义的。
1)在一个示例中,视频单元为CTU/CTB。
2)在一个示例中,阈值设定为0.5。
3)或者,阈值可即时导出,例如根据解码信息,例如序列或图片或条带级QP。
4)或者,可即时导出阈值,例如根据颜色分量。
b.在一个示例中,可有条件地应用示例2的上述方法。
i.在一个示例中,上述(多个)方法可仅应用于亮度分量。
ii.在一个示例中,上述(多个)方法可以应用于多个颜色分量。
1)在一个示例中,亮度块的编解码统计数据可用于确定亮度的候选列表;并且色度块的编解码统计数据可用于确定色度的候选列表。
2)在另一示例中,亮度块的编解码统计数据可用于确定亮度和色度的候选列表。
iii.在一个示例中,上述(多个)方法可以应用于某些时域层。
1)在一个示例中,它们可应用于ID大于K(例如,K=3)的时域层。
2)在一个示例中,它们可应用于ID小于K(例如,K=4)的时域层。
iv.在一个示例中,上述(多个)方法可以应用于某些图片/条带类型,例如P或B条带。
c.第一组样点可位于包含待由NN滤波的视频单元的同一图片中。
i.或者,第一组样点可与待由NN滤波的视频单元处于不同的图片中。例如,第一组样点可在视频单元的参考图片中。
ii.或者,第一组样点可在包含待滤波视频单元的图片之前编解码/解码的多个图片中。
图16是示出示例视频处理系统1600的框图,其中可以实施本文所公开的各种技术。各种实施方式可以包括视频处理系统1600的一些或全部组件。视频处理系统1600可以包括用于接收视频内容的输入1602。视频内容可以原始或未压缩格式接收,例如8比特或10比特多分量像素值,或者可以压缩或编码格式接收。输入1602可以表示网络接口、外围总线接口或存储接口。网络接口的示例包括诸如以太网、无源光网络(PON)等的有线接口以及诸如Wi-Fi或蜂窝接口的无线接口。
视频处理系统1600可以包括编解码组件1604,其可实现本文件中所描述的各种编解码或编码方法。编解码组件1604可以降低从输入1602到编解码组件1604的输出的视频的平均比特率,以产生视频的编解码表示。因此,编解码技术有时被称为视频压缩或视频转码技术。编解码组件1604的输出可以被存储,也可以通过连接的通信(如组件1606所示)进行传输。输入1602处接收的视频的存储或传输的比特流(或编解码)表示可由组件1608用于生成像素值或发送到显示接口1610的可显示视频。从比特流表示生成用户可观看视频的过程有时称为视频解压缩。此外,尽管某些视频处理操作被称为“编解码”操作或工具,但应当理解的是,编解码工具或操作被用于编码器处,并且逆向编解码结果的对应的解码工具或操作将由解码器执行。
外围总线接口或显示接口的示例可以包括通用串行总线(USB)或高清晰度多媒体接口(HDMI)或显示端口等。存储接口的示例包括SATA(串行高级技术附件)、PCI、IDE接口等。本文中所述的技术可实施在各种电子设备中,例如移动电话、笔记本电脑、智能手机或其他能够执行数字数据处理和/或视频显示的设备。
图17是视频处理装置1700的框图。装置1700可以用于实现本文描述的一种或多种方法。装置1700可以实施在智能手机、平板电脑、计算机、物联网(IoT)接收器等之中。装置1700可以包括一个或多个处理器1702、一个或多个存储器1704和视频处理硬件1706。(多个)处理器1702可以配置成实现本申请文件中描述的一种或多种方法。(多个)存储器1704可以用于存储用于实现本文描述的方法和技术的数据和代码。视频处理硬件1706可以用于使用硬件电路实现本申请文件中描述的一些技术。在一些实施例中,硬件1706可以完全或部分地在处理器1702中实现,例如图形协处理器。
图18是描述可以利用本公开的技术的示例视频编解码系统1800的框图。如图18所示,视频编解码系统1800可以包括源设备1810和目的设备1820。源设备1810生成可以被称为视频编码设备的编码视频数据。目的设备1820可以解码由源设备1810生成的编码视频数据,可以被称为视频解码设备。
源设备1810可以包括视频源1812、视频编码器1814和输入/输出(I/O)接口1816。
视频源1812可以包括诸如视频捕获设备、从视频内容提供者接收视频数据的接口、和/或用于生成视频数据的计算机图形系统之类的源,或这些源的组合。视频数据可以包括一幅或多幅图片。视频编码器1814对来自视频源1812的视频数据进行编码以生成比特流。比特流可以包括形成视频数据的编解码表示的位序列。比特流可以包括编解码图片和相关数据。编解码图片是图片的编解码表示。关联数据可以包括序列参数集、图片参数集和其他语法结构。I/O接口1816可以包括调制器/解调器(调制解调器)和/或发射器。编码的视频数据可以通过网络1830经由I/O接口1816直接发送到目的设备1820。编码的视频数据也可以存储在存储介质/服务器1840上以供目的设备1820访问。
目的设备1820可以包括I/O接口1826、视频解码器1824和显示设备1822。
I/O接口1826可以包括接收器和/或调制解调器。
I/O接口1826可以从源设备1810或存储介质/服务器1840获取编码视频数据。视频解码器1824可解码经编码视频数据。显示设备1822可以向用户显示解码的视频数据。显示设备1822可以与目标设备1820集成,或者可以在目标设备1820外部,目标设备1820配置为与外部显示设备接口。
视频编码器1814和视频解码器1824可以根据视频压缩标准操作,例如高效视频编码(HEVC)标准、通用视频编码(VVC)标准和其他当前和/或进一步的标准。
图19是说明视频编码器1900的示例的框图,视频编码器1900可以是在图18中说明的视频编解码系统1800中的视频编码器1814。
视频编码器1900可经配置以执行本公开的任何或所有技术。在图19的示例中,视频编码器1900包括多个功能组件。本公开中描述的技术可在视频编码器1900的各种组件之间共享。在一些示例中,处理器可以被配置为执行本公开中描述的任何或所有技术。
视频编码器1900的功能组件可以包括分割单元1901、预测单元1902(可以包括模式选择单元1903、运动估计单元1904、运动补偿单元1905和帧内预测单元1906)、残差生成单元1907、变换单元1908、量化单元1909、反量化单元1910、逆变换单元1911、重构单元1912、缓冲区1913和熵编解码单元1914。
在其他示例中,视频编码器1900可包括更多、更少或不同的功能组件。在一个示例中,预测单元1902可以包括帧内块复制(IBC)单元。IBC单元可以在IBC模式下执行预测,其中至少一个参考图片是当前视频块所在的图片。
此外,诸如运动估计单元1904和运动补偿单元1905的一些组件可以高度集成,但是为了解释的目的而在图19的示例中单独表示。
分割单元1901可将图片分割成一个或多个视频块。图18中的视频编码器1814和视频解码器1824可以支持各种视频块大小。
模式选择单元1903可以选择编解码模式之一(帧内或帧间,例如基于错误结果),并且将得到的帧内或帧间编解码块提供给残差生成单元1907以生成残差块数据,并提供给重构单元1912以重构编码块以用作参考图片。在一些示例中,模式选择单元1903可以选择帧内和帧间预测(CIIP)模式的组合,其中预测基于帧间预测信号和帧内预测信号。在帧间预测的情况下,模式选择单元1903还可以为块选择运动矢量(例如,子像素或整数像素精度)的分辨率。
为了对当前视频块执行帧间预测,运动估计单元1904可以通过将来自缓冲区1913的一个或多个参考帧与当前视频块进行比较来生成当前视频块的运动信息。运动补偿单元1905可以基于来自缓冲区1913的除了与当前视频块相关联的图片之外的图片的运动信息和解码样点来确定当前视频块的预测视频块。
运动估计单元1904和运动补偿单元1905可以对当前视频块执行不同的操作,例如,取决于当前视频块是在I条带、P条带还是B条带中。
在一些示例中,运动估计单元1904可为当前视频块执行单向预测,且运动估计单元1904可搜索列表0或列表1的参考图片以寻找当前视频块的参考视频块。运动估计单元1904可接着生成指示列表0或列表1中包含参考视频块的参考图片的参考索引和指示当前视频块与参考视频块之间的空间移位的运动矢量。运动估计单元1904可输出参考索引、预测方向指示符和运动矢量作为当前视频块的运动信息。运动补偿单元1905可以基于由当前视频块的运动信息指示的参考视频块来生成当前块的预测视频块。
在其他示例中,运动估计单元1904可为当前视频块执行双向预测,运动估计单元1904可在列表0中的参考图片中搜索当前视频块的参考视频块,并且还可在列表1中的参考图片中搜索当前视频块的另一参考视频块。运动估计单元1904可接着生成指示列表0和列表1中的参考图片的参考索引,其包含参考视频块和指示参考视频块与当前视频块之间的空间移位的运动矢量。运动估计单元1904可以输出当前视频块的参考索引和运动矢量作为当前视频块的运动信息。运动补偿单元1905可以基于由当前视频块的运动信息指示的参考视频块来生成当前视频块的预测视频块。
在一些示例中,运动估计单元1904可以输出完整的运动信息集以用于解码器的解码处理。
在一些示例中,运动估计单元1904可以不输出当前视频的完整的运动信息集。相反,运动估计单元1904可参考另一视频块的运动信息来信令通知当前视频块的运动信息。例如,运动估计单元1904可确定当前视频块的运动信息与临近视频块的运动信息足够相似。
在一个示例中,运动估计单元1904可在与当前视频块相关联的句法结构中指示一个值,该值向视频解码器1824指示当前视频块具有与另一视频块相同的运动信息。
在另一示例中,运动估计单元1904可在与当前视频块相关联的语法结构中识别另一视频块和运动矢量差(motion vector difference,MVD)。运动矢量差表示当前视频块的运动矢量与指示的视频块的运动矢量之间的差。视频解码器1824可以使用所指示的视频块的运动矢量和运动矢量差来确定当前视频块的运动矢量。
如上文所讨论,视频编码器1814可预测性地信令通知运动矢量。可由视频编码器1814实施的预测信令通知技术的两个示例包括高级运动矢量预测(advanced motionvector predication,AMVP)和merge模式信令通知。
帧内预测单元1906可以对当前视频块执行帧内预测。当帧内预测单元1906对当前视频块执行帧内预测时,帧内预测单元1906可以基于同一图片中的其他视频块的解码样点生成当前视频块的预测数据。当前视频块的预测数据可以包括预测视频块和各种语法元素。
残差生成单元1907可通过从当前视频块减去(例如,由负号指示)当前视频块的预测视频块来生成当前视频块的残差数据。当前视频块的残差数据可以包括残差视频块,该残差视频块对应于当前视频块中样点的不同样点分量。
在其他示例中,对于当前视频块可能不存在当前视频块的残差数据,例如在跳过模式中,并且残差生成单元1907可能不执行减法运算。
变换处理单元1908可以通过对与当前视频块相关联的残差视频块应用一个或多个变换,为当前视频块生成一个或多个变换系数视频块。
在变换处理单元1908生成与当前视频块相关联的变换系数视频块之后,量化单元1909可基于与当前视频块相关联的一个或多个量化参数(QP)值来量化与当前视频块相关联的变换系数视频块。
反量化单元1910和逆变换单元1911可以分别对变换系数视频块应用反量化和逆变换,以从变换系数视频块重构残差视频块。重构单元1912可将重构的残差视频块添加到来自预测单元1902生成的一个或多个预测视频块的对应样点中,以生成与当前块相关联的重构视频块以存储在缓冲区1913中。
在重构单元1912重构视频块之后,可以执行环路滤波操作以减少视频块中的视频块伪影。
熵编码单元1914可以从视频编码器1900的其他功能组件接收数据。当熵编码单元1914接收数据时,熵编码单元1914可执行一个或多个熵编解码操作以产生熵编码数据并输出包括熵编码数据的比特流。
图20是说明视频解码器2000的示例框图,视频解码器2000可以是图18中示出的视频编解码系统1800中的视频解码器1824。
视频解码器2000可经配置以执行本公开任何或所有技术。在图20的示例中,视频解码器2000包括多个功能组件。本公开中描述的技术可在视频解码器2000的各种组件之间共享。在一些示例中,处理器可以被配置为执行本公开中描述的任何或所有技术。
在图20的示例中,视频解码器2000包括熵解码单元2001、运动补偿单元2002、帧内预测单元2003、反量化单元2004、逆变换单元2005、以及重构单元2006和缓冲区2007。在一些示例中,视频解码器2000可以执行通常与关于视频编码器1814(例如,图18)描述的编码通道(pass)相反的解码通道。
熵解码单元2001可以检索编码比特流。编码比特流可以包括熵编解码的视频数据(例如,编码的视频数据块)。熵解码单元2001可以解码熵编解码的视频数据,并且根据熵解码的视频数据,运动补偿单元2002可以确定包括运动矢量、运动矢量精度、参考图片列表索引和其他运动信息的运动信息。例如,运动补偿单元2002可以通过执行AMVP和merge模式来确定该信息。
运动补偿单元2002可以生成运动补偿块,可能基于插值滤波器执行插值。以子像素精度使用的插值滤波器的标识符可以包括在语法元素中。
运动补偿单元2002可使用视频编码器1814在对视频块进行编码期间使用的内插滤波器来计算参考块的子整数像素的内插值。运动补偿单元2002可根据接收的语法信息来确定由视频编码器200使用的内插滤波器并且使用内插滤波器来产生预测块。
运动补偿单元2002可以使用一些语法信息来确定用于对编码视频序列的帧和/或条带进行编码的块的尺寸、描述编码视频序列的图片的每个宏块如何分割的分割信息、指示每个分割如何编码的模式、每个帧间编码块的一个或多个参考帧(和参考帧列表)以及其他解码编码的视频序列的信息。
帧内预测单元2003可以使用例如在比特流中接收的帧内预测模式来从空间紧邻块形成预测块。反量化单元2004对在比特流中提供并由熵解码单元2001解码的量化视频块系数进行反量化,即反量化。逆变换单元2005应用逆变换。
重构单元2006可将残差块与由运动补偿单元2002或帧内预测单元2003生成的对应预测块相加以形成解码块。如果需要,还可以应用去方块滤波器来滤波解码的块,以便去除块状伪影。然后将解码的视频块存储在缓冲区2007中,缓冲区2007为随后的运动补偿/帧内预测提供参考块,并且还为显示设备的呈现生成解码视频。
图21为根据本发明实施例的为编解码视频数据的方法2100。方法2100可以由具有处理器和存储器的编解码装置(例如,编码器)来执行。方法2100可以被实施为提供统一的NN滤波器模型,该模型是使用至少一个指示符(例如,质量级别指示符)生成的,作为对NN滤波器的输入。这种NN滤波器模型可以避免为每个质量级别训练单独的CNN模型,从而避免创建大量这种CNN模型。
在块2102中,编解码装置将神经网络(NN)滤波器应用于视频单元的未滤波样点,以生成经滤波的样点。NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型。在一个实施例中,未滤波的样点是尚未经过任何滤波过程或者尚未被充分滤波的样点(或像素)。例如,未滤波的样点没有经过任何NN滤波器。作为另一个示例,未滤波的样点没有经过NN滤波器、自适应环路滤波器(ALF)、去块滤波器(DF)、样点自适应偏移(SAO)滤波器或它们的组合。
在块2104中,编解码装置基于生成的经滤波的样点在视频媒体文件和比特流之间进行转换。
当在编码器中实施时,转换包括接收媒体文件(例如,视频单元),并将滤波后的样点编码为比特流。当在解码器中实施时,转换包括接收包括经滤波的样点的比特流,并且解码该比特流以获得经滤波的样点。
在一个实施例中,方法2100可利用或结合本文公开的其他方法的一个或多个特征或过程。
在一个示例中,非暂时性计算机可读介质存储由视频处理装置(例如,上述视频处理装置1700)执行的方法(例如方法2100的全部或部分)生成的视频的比特流。例如,可通过将NN滤波器应用于视频单元的未滤波样点以生成经滤波的样点,从而生成比特流。如上所述,NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型,并且基于经滤波的样点生成比特流。
接下来提供了一些实施例优选的解决方案列表。
以下解决方案显示了本公开中讨论的技术的示例实施例(例如,示例1)。
1.一种由视频编解码装置实施的方法,包括:对于视频的视频单元和视频的比特流之间的转换,根据规则将环路滤波器的参数应用于视频单元;以及基于确定来执行转换,其中所述确定基于质量级别指示符(QI)输入。
2.根据权利要求1所述的方法,其中所述视频单元的QI是所述视频单元的量化参数。
3.根据权利要求1所述的方法,其中所述视频单元的QI是所述视频的量化参数值。
4.根据权利要求1所述的方法,其中所述视频单元的QI是应用于所述视频单元的量化步长。
5.根据权利要求1所述的方法,其中,通过将QI指示符输入拼接成与视频单元尺寸相同的二维数组,并用作所述确定的输入平面来执行所述转换。
6.根据权利要求1-5中任一项所述的方法,其中,在比特流中指示QI指示符输入。
7.根据权利要求1所述的方法,其中所述确定使用QI指示符的函数。
以下解决方案示出了上一节中讨论的技术的示例实施例(例如,示例2)。
8.一种视频处理方法,包括:为视频的视频单元和视频的比特流之间的转换,根据规则构建可应用于视频单元的环路滤波的滤波候选列表;并且基于该确定来执行转换;其中所述规则规定列表中的至少一个条目基于计算神经网络(CNN)模型。
9.根据权利要求8所述的方法,其中,响应于视频单元的编解码统计数据来构建列表。
10.根据权利要求9所述的方法,其中,所述编解码统计数据包括与所述视频单元相关的第一组视频样点与所述视频单元的样点的比率,第一组视频样点是使用预定视频编解码工具(称为工具X)编解码的
11.根据权利要求10所述的方法,其中工具X包括帧内预测、调色板预测或帧内块复制预测模式。
12.根据权利要求8-11中任一项所述的方法,其中,所述规则进一步响应于所述视频单元的编解码条件。
13.根据权利要求12所述的方法,其中,所述编解码条件是所述视频单元属于所述视频的亮度分量。
14.根据权利要求12所述的方法,其中,所述编解码条件是所述视频单元属于所述视频的某个时域层。
15.根据权利要求10所述的方法,其中,所述第一组视频样点在包括所述视频单元的图片中。
16.根据权利要求10所述的方法,其中,所述第一组视频样点在不同于包括所述视频单元的图片的一个或多个图片中。
17.根据权利要求1-16中任一项所述的方法,其中,所述视频单元包括编解码单元、变换单元、预测单元、条带或子图片。
18.根据权利要求1-16中任一项所述的方法,其中,所述视频单元是编解码块或视频条带或视频图片或视频条带或视频子图片。
19.根据权利要求1-18中任一项所述的方法,其中,所述转换包括从所述比特流生成所述视频或者从所述视频生成所述比特流。
20.一种视频解码装置,包括被配置为实现权利要求1至19中的一项或多项所述的方法的处理器。
21.一种视频编码装置,包括被配置为实现权利要求1至19中的一项或多项所述的方法的处理器。
22.一种其上存储有计算机代码的计算机程序产品,当由处理器执行时,该代码使处理器实现权利要求1至19中任一项所述的方法。
23.根据本文件中描述的公开方法或系统产生的方法、装置或比特流。
本文档中所公开的和其他解决方案、示例、实施例、模块和功能操作可以在数字电子电路或计算机软件、固件或硬件中实现,包括本文档中公开的结构及其结构等效物,或其中的一种或多种的组合。所公开的和其他实施例可以实施为一个或多个计算机程序产品,即,在计算机可读介质上编码的一个或多个计算机程序指令模块,由数据处理设备执行或控制操作。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储器设备、影响机器可读传播信号的物质组合物,或者其中的一个或多个的组合。计算机可读介质可以是机器可读存储设备、机器可读存储基板、存储设备、影响机器可读传播信号的物质组合,或其中一项或多项的组合。术语“数据处理装置”涵盖处理数据的所有装置、设备和机器,例如包括可编程处理器、计算机或多个处理器或计算机。除了硬件之外,该装置还可以包括为所讨论的计算机程序创建执行环境的代码,例如,构成处理器固件、协议栈、数据库管理系统、操作系统或其中一个或多个的组合代码。传播的信号是人工生成的信号,例如机器生成的电、光或电磁信号,其被生成是为了对信息进行编码以传输到合适的接收器设备。
计算机程序(也称为程序、软件、软件应用程序、脚本或代码)可以以任何形式的编程语言(包括编译或解释语言)编写,并且可以以任何形式进行部署,包括独立程序或适合在计算环境中使用的模块、组件、子例程或其他单元。计算机程序不一定与文件系统中的文件相对应。程序可以存储在保存其他程序或数据的文件的一部分中(例如,存储在标记语言文档中的一个或多个脚本),存储在专用于所讨论程序的单个文件中或多个协调文件(例如,存储一个或多个模块、子程序或部分代码的文件)。可以部署计算机程序,以在一台计算机或位于一个位置上或分布在多个位置上并通过通信网络互连的多台计算机上执行。
本文档中描述的过程和逻辑流程可以由一个或多个可编程处理器来执行,以执行一个或多个计算机程序,从而通过对输入数据进行操作并生成输出来执行功能。处理和逻辑流程也可以由专用逻辑电路执行,并且也可以实现为专用逻辑电路,例如FPGA(fieldprogrammable gate array,现场可编程门数组)或ASIC(application specificintegrated circuit,应用专用集成电路)。
例如,适合于执行计算机程序的处理器包括通用和专用微处理器,以及任何种类的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的基本元件是用于执行指令的处理器和用于存储指令和数据的一个或多个存储器装置。通常,计算机还将包括或可操作地耦合到一个或多个用于存储数据的大容量存储设备,例如,磁盘、磁光盘或光盘,以从中接收数据,或将数据传输到一个或多个大容量存储设备,或两者。但是,计算机不必具有这样的装置。适用于存储计算机程序指令和数据的计算机可读介质包括所有形式的非易失性存储器、介质和存储器装置,包括例如半导体存储设备,例如EPROM、EEPROM和闪存设备;磁盘,例如内置硬盘或可移动磁盘;磁光盘;以及CD ROM和DVD-ROM磁盘。处理器和存储器可以由专用逻辑电路补充或并入专用逻辑电路中。
尽管本专利文档包含许多细节,但是这些细节不应解释为对任何发明或可要求保护的范围的限制,而应解释为对特定发明的特定实施例可能特定的特征的描述。在单独的实施例的上下文中在本专利文档中描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以分别在多个实施例中或以任何合适的子组合来实现。此外,尽管以上可以将特征描述为以某些组合起作用并且甚至最初如此要求保护,但是在某些情况下,可以从组合中剔除所要求保护的组合中的一个或多个特征,并且所要求保护的组合可以涉及子组合或子组合的变体。
类似地,虽然在附图中以特定顺序描绘了操作,但是这不应理解为要求以所示的特定顺序或以连续的顺序执行这样的操作,或者执行所有示出的操作以实现期望的效果。此外,在该专利文档中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这种分离。
仅描述了一些实施方式和示例,并且可以基于本专利文档中描述和示出的内容进行其他实施方式、增强和变化。
尽管本专利文档包含许多细节,但是这些细节不应解释为对任何发明或可要求保护的范围的限制,而应解释为对特定发明的特定实施例可能特定的特征的描述。在单独的实施例的上下文中在本专利文档中描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以分别在多个实施例中或以任何合适的子组合来实现。此外,尽管以上可以将特征描述为以某些组合起作用并且甚至最初如此要求保护,但是在某些情况下,可以从组合中剔除所要求保护的组合中的一个或多个特征,并且所要求保护的组合可以涉及子组合或子组合的变体。
类似地,虽然图中以特定顺序描绘了操作,但不应理解为要求以所示特定顺序或顺序执行此类操作,或要求执行所有图示操作,以实现所需结果。此外,在本专利文献中描述的实施例中的各种系统组件的分离不应被理解为在所有实施例中都需要这种分离。
仅描述了少数实施和示例,可根据本专利文件中的描述和说明进行其他实施、改进和变更。

Claims (20)

1.一种由视频编解码装置实施的方法,包括:
将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型;以及
基于所述生成的经滤波的样点,在视频媒体文件和比特流之间进行转换。
2.根据权利要求1所述的方法,其中,所述QI输入包括所述视频单元的量化参数(QP)。
3.根据权利要求1所述的方法,其中,所述QI输入包括序列的量化参数(QP),所述序列包括所述视频单元。
4.根据权利要求1所述的方法,其中,所述QI输入包括图片或条带的量化参数(QP),所述图片或条带包括所述视频单元。
5.根据权利要求1所述的方法,其中,所述QI输入包括应用于所述视频单元的量化过程的输出,其中,所述量化过程基于所述视频单元的量化参数(QP)、包括所述视频单元的序列的QP或包括所述视频单元的图片或条带的QP。
6.根据权利要求1所述的方法,还包括将所述质量级别指示符扩展成与所述视频单元具有相同尺寸的二维数组,其中所述二维数组是对所述NN滤波器的附加输入平面。
7.根据权利要求6所述的方法,其中,所述视频单元是编解码树单元(CTU)或编解码单元(CU)。
8.根据权利要求1所述的方法,其中,所述QI输入被馈送到所述NN滤波器的多个全连接层中,以将所述QI输入扩充成一维向量,并且其中,所述一维向量的元素是用于重新校准所述NN滤波器模型的特征图的通道式缩放因子。
9.根据权利要求8所述的方法,其中,所述NN滤波器模型的所述特征图由f∈RN×W×H给出,其中N表示通道数量,W表示通道宽度,并且H表示通道高度,其中,由所述全连接层提供的所述一维向量由S∈RN表示,并且其中,根据Fi,j,k=fi,j,k×Si生成所述重新校准的特征图,其中1≤i≤N,1≤j≤W,1≤k≤H,其中F表示所述重新校准的特征图。
10.根据权利要求1所述的方法,还包括使用从由序列参数集(SPS)、图片参数集(PPS)、图片标头、条带标头、编解码树单元(CTU)和编解码单元(CU)组成的组中选择的一个来向解码器信令通知所述质量级别指示符。
11.根据权利要求1所述的方法,其中,所述视频单元包括第一颜色分量和第二颜色分量,其中所述QI输入指示所述第一颜色分量的质量,并且其中,所述NN滤波器应用于所述第一颜色分量和所述第二颜色分量以生成所述经滤波的样点。
12.根据权利要求1所述的方法,其中,所述视频单元包括第一颜色分量和第二颜色分量,其中,所述QI输入包括指示所述第一颜色分量的质量的第一QI和指示所述第二颜色分量的质量的第二QI,并且其中,所述第一QI被应用于所述第一颜色分量,并且所述第二QI被应用于所述第二颜色分量,以生成所述经滤波的样点。
13.根据权利要求1所述的方法,其中,所述视频单元包括第一颜色分量和第二颜色分量,其中所述QI输入指示所述第一颜色分量的质量,并且其中所述NN滤波器仅被应用于所述第一颜色分量以生成所述经滤波的样点。
14.根据权利要求1所述的方法,其中,所述QI指示包括所述视频单元的区域或图片的质量。
15.根据权利要求1所述的方法,其中,所述QI指示不包括所述视频单元的区域或图片的质量。
16.根据权利要求15所述的方法,其中,所述视频单元参考所述区域或所述图片。
17.根据权利要求1所述的方法,其中,所述转换包括根据所述视频媒体文件生成所述比特流。
18.根据权利要求1所述的方法,其中,所述转换包括解析所述比特流以获得所述视频媒体文件。
19.一种编解码视频数据的装置,包括处理器和其上具有指令的非暂时性存储器,其中,所述指令在由所述处理器执行时使所述处理器:
将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型;以及
基于所述生成的经滤波的样点,在视频媒体文件和比特流之间进行转换。
20.一种存储视频的比特流的非暂时性计算机可读介质,所述比特流由视频处理装置执行的方法生成,其中,所述方法包括:
将神经网络(NN)滤波器应用于视频单元的未滤波的样点以生成经滤波的样点,其中所述NN滤波器基于使用质量级别指示符(QI)输入生成的NN滤波器模型;以及
基于所述生成的经滤波的样点,生成所述比特流。
CN202210357676.0A 2021-04-06 2022-04-06 统一神经网络环路滤波器 Pending CN115209142A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163171225P 2021-04-06 2021-04-06
US63/171,225 2021-04-06

Publications (1)

Publication Number Publication Date
CN115209142A true CN115209142A (zh) 2022-10-18

Family

ID=83511033

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210357676.0A Pending CN115209142A (zh) 2021-04-06 2022-04-06 统一神经网络环路滤波器

Country Status (2)

Country Link
US (1) US11979591B2 (zh)
CN (1) CN115209142A (zh)

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111133756B (zh) 2017-10-12 2022-04-19 联发科技股份有限公司 用于视频编码的神经网络方法和装置
WO2019208677A1 (ja) * 2018-04-27 2019-10-31 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 符号化装置、復号装置、符号化方法および復号方法
CN108848381B (zh) * 2018-06-20 2021-09-24 腾讯科技(深圳)有限公司 视频编码方法、解码方法、装置、计算机设备及存储介质
CN110971915B (zh) 2018-09-28 2022-07-01 杭州海康威视数字技术股份有限公司 滤波方法和设备
CN113454998A (zh) * 2019-03-05 2021-09-28 中兴通讯股份有限公司 视频编码中的跨分量量化
CN112422993B (zh) 2019-08-21 2021-12-03 四川大学 一种结合卷积神经网络的hevc视频质量增强方法
CN114208203A (zh) 2019-09-20 2022-03-18 英特尔公司 基于分类器的卷积神经网络环路滤波器
CN111064958B (zh) 2019-12-28 2021-03-30 复旦大学 一种针对b帧和p帧的低复杂度神经网络滤波算法
US11902561B2 (en) 2020-04-18 2024-02-13 Alibaba Group Holding Limited Convolutional-neutral-network based filter for video coding
US11889096B2 (en) 2020-06-26 2024-01-30 Intel Corporation Video codec assisted real-time video enhancement using deep learning

Also Published As

Publication number Publication date
US20220329836A1 (en) 2022-10-13
US11979591B2 (en) 2024-05-07

Similar Documents

Publication Publication Date Title
CN114339221B (zh) 用于视频编解码的基于卷积神经网络的滤波器
CN114630132B (zh) 视频编解码的基于神经网络的环路内滤波器中的模型选择
US11792438B2 (en) Using neural network filtering in video coding
WO2020125796A1 (en) Two step cross-component prediction mode based on multiple parameter
US12022098B2 (en) Neural network-based in-loop filter with residual scaling for video coding
US20220329837A1 (en) Neural Network-Based Post Filter For Video Coding
US20230051066A1 (en) Partitioning Information In Neural Network-Based Video Coding
US20220394288A1 (en) Parameter Update of Neural Network-Based Filtering
AU2020208699A1 (en) An encoder, a decoder and corresponding methods of deblocking filter adaptation
US20240056570A1 (en) Unified Neural Network Filter Model
US20220337853A1 (en) On Neural Network-Based Filtering for Imaging/Video Coding
CN115209142A (zh) 统一神经网络环路滤波器
US20230007246A1 (en) External attention in neural network-based video coding
US20230023579A1 (en) Configurable Neural Network Model Depth In Neural Network-Based Video Coding
US20220394309A1 (en) On Padding Methods For Neural Network-Based In-Loop Filter
WO2024078599A1 (en) Method, apparatus, and medium for video processing
US20240244269A1 (en) Method, device, and medium for video processing
WO2023198057A1 (en) Method, apparatus, and medium for video processing
WO2024148056A1 (en) On unified neural network for in-loop filtering for video coding
WO2024010860A1 (en) Geometric transform in neural network-based coding tools for video coding
CN115225895A (zh) 统一神经网络环路滤波器信令通知
CN118266217A (zh) 用于视频处理的方法、设备和介质
CN118044195A (zh) 用于视频处理的方法、设备和介质
WO2023245194A1 (en) Partitioning information in neural network-based video coding

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination