CN111194555B - 用模式感知深度学习进行滤波的方法和装置 - Google Patents

用模式感知深度学习进行滤波的方法和装置 Download PDF

Info

Publication number
CN111194555B
CN111194555B CN201880065216.2A CN201880065216A CN111194555B CN 111194555 B CN111194555 B CN 111194555B CN 201880065216 A CN201880065216 A CN 201880065216A CN 111194555 B CN111194555 B CN 111194555B
Authority
CN
China
Prior art keywords
image block
neural network
samples
block
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201880065216.2A
Other languages
English (en)
Other versions
CN111194555A (zh
Inventor
F.加尔平
G.德马米斯
P.博德斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
InterDigital VC Holdings Inc
Original Assignee
InterDigital VC Holdings Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by InterDigital VC Holdings Inc filed Critical InterDigital VC Holdings Inc
Publication of CN111194555A publication Critical patent/CN111194555A/zh
Application granted granted Critical
Publication of CN111194555B publication Critical patent/CN111194555B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/124Quantisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • H04N19/176Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object the region being a block, e.g. a macroblock
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/80Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
    • H04N19/82Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

深度学习可以用于视频压缩中以进行环内滤波,以便减少伪影。为了改善用于滤波的卷积神经网络(CNN)的性能,除了初始重建图像之外,还可以将可以从编码器或解码器获得的信息用作卷积神经网络的输入。在一个实施例中,可以将QP、块边界信息和预测图像用作输入的附加通道。边界信息可以帮助CNN理解分块伪影的位置,并且因此可以改善CNN,因为网络不需要花费参数来寻找分块伪影。QP或预测块还向CNN提供更多信息。这样的卷积神经网络可以替代所有的环内滤波器,或者与其他环内滤波器一起工作以更高效地去除压缩伪影。

Description

用模式感知深度学习进行滤波的方法和装置
技术领域
本实施例一般地涉及用于视频编码和解码的方法和装置,并且更具体地涉及用于在视频编码和解码中用模式感知神经网络进行滤波的方法和装置。
背景技术
为了实现高压缩效率,图像和视频编码方案通常采用预测和变换来利用视频内容中的空间和时间冗余。通常,使用帧内或帧间预测来利用帧内或帧间相关性,然后对原始图像块和预测图像块之间的差异(通常表示为预测误差或预测残差)进行变换、量化和熵编码。为了重建视频,通过对应于预测、变换、量化和熵编码的逆过程来对压缩数据进行解码。为了减少伪影,可以使用环内滤波。
发明内容
根据一般方面,提出了一种用于视频编码的方法,包括:访问视频的图片的图像块的第一重建版本;以及通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,其中,所述神经网络响应于以下中的至少一个:(1)基于所述图像块的至少一个量化参数的信息,(2)所述图像块中的样本的块边界信息,以及(3)所述图像块的预测样本。
根据另一个一般方面,提出了一种用于视频解码的方法,包括:访问编码视频的图片的图像块的第一重建版本;以及通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,其中,所述神经网络响应于以下中的至少一个:(1)基于所述图像块的至少一个量化参数的信息,(2)所述图像块中的样本的块边界信息,以及(3)所述图像块的预测样本。
根据另一个一般方面,一种用于视频编码的装置,包括至少一个存储器和一个或多个处理器,所述一个或多个处理器被配置为:访问视频的图片的图像块的第一重建版本;以及通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,其中,所述神经网络响应于以下中的至少一个:(1)基于所述图像块的至少一个量化参数的信息,(2)所述图像块中的样本的块边界信息,以及(3)所述图像块的预测样本。
根据另一个一般方面,提出了一种用于视频解码的装置,包括至少一个存储器和一个或多个处理器,所述一个或多个处理器被配置为:访问编码视频的图片的图像块的第一重建版本;以及通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,其中,所述神经网络响应于以下中的至少一个:(1)基于所述图像块的至少一个量化参数的信息,(2)所述图像块中的样本的块边界信息,以及(3)所述图像块的预测样本。
在一个实施例中,所述神经网络是卷积神经网络。所述神经网络可以基于残差学习。
为了将所述块边界信息用作所述神经网络的输入,可以形成具有与所述图像块相同的尺寸的数据阵列,其中,所述数据阵列中的每个样本指示所述图像块中的相应样本是否在块边界处。
为了使用基于至少一个量化参数的所述信息,可以形成具有与所述图像块相同的尺寸的数据阵列,其中,所述数据阵列中的每个样本与所述图像块的所述至少一个量化参数相关联。基于至少一个量化参数的所述信息可以是量化步长。
在一个实施例中,所述神经网络还响应于以下中的一个或多个:(1)所述图像块的预测残差,以及(2)所述图像块的至少一个帧内预测模式。
尽管所述神经网络可以响应于如上所述作为输入的信息的不同通道,但是可以将所述神经网络的输入的一个或多个通道用作所述神经网络的中间层的输入。
在一个实施例中,所述图像块的所述第一重建版本可以基于所述预测样本和所述图像块的预测残差。所述图像块的所述第二重建版本可以用于预测另一图像块,以进行帧内或帧间预测。
在编码或解码时,所述图像块可以对应于编码单元(CU)、编码块(CB)或编码树单元(CTU)。
根据另一个一般方面,一种视频信号,被格式化为包括图像块和所述图像块的预测样本之间的预测残差;以及其中图像块的第一重建版本基于所述预测样本和所述预测残差,其中通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,以及其中所述神经网络响应于以下中的至少一个:(1)所述图像块的至少一个量化参数,(2)所述图像块中的样本的块边界信息,以及(3)所述图像块的所述预测样本。
本实施例还提供一种计算机可读存储介质,其上存储有用于根据上述方法对视频数据进行编码或解码的指令。本实施例还提供一种计算机可读存储介质,其上存储有根据上述方法生成的比特流。本实施例还提供一种用于发送根据上述方法生成的比特流的方法和装置。
附图说明
图1图示了示例性HEVC(高效视频编码)视频编码器的框图。
图2图示了示例性HEVC视频解码器的框图。
图3图示了JEM 6.0中使用的四个环内滤波器。
图4图示了示例性CNN(卷积神经网络)。
图5图示了被设计为用于HEVC的后处理滤波器的可变滤波器尺寸残差学习CNN(VRCNN)。
图6A、图6B和图6C分别图示了将CNN用作环内滤波器的训练过程、编码过程和解码过程。
图7图示了根据实施例的用于生成边界图像的示例性方法。
图8A图示了示例性图像中的示例性分区边缘,图8B图示了对应的边界图像,图8C图示了CTU的示例性CU分区,以及图8D图示了对应的QP(量化参数)图像区域。
图9A、图9B和图9C分别图示了根据实施例的将模式感知CNN用作环内滤波器的训练过程、编码过程和解码过程
图10图示了其中可以实现示例性实施例的各个方面的示例性系统的框图。
具体实施方式
图1图示了示例性HEVC编码器100。为了对具有一个或多个图片的视频序列进行编码,将图片分区为一个或多个条带,其中每个条带可以包括一个或多个条带段。将条带段组织为编码单元、预测单元和变换单元。
在本申请中,术语“重建”和“解码”可以互换使用,术语“图像”、“图片”和“帧”可以互换使用。通常但并非必须,术语“重建”在编码器侧使用,而“解码”在解码器侧使用。
HEVC规范在“块”和“单元”之间进行区分,其中“块”针对样本阵列(例如,亮度,Y)中的特定区域,而“单元”包括所有编码颜色分量(Y,Cb,Cr或单色)的并置块、语法元素以及与块相关联的预测数据(例如,运动矢量)。
为了进行编码,将图片分区为具有可配置尺寸的方形的编码树块(CTB),并将连续的一组编码树块分组为条带。编码树单元(CTU)包含编码颜色分量的CTB。CTB是分区为编码块(CB)的四叉树的根,并且可将编码块分区为一个或多个预测块(PB),并形成分区为变换块(TB)的四叉树的根。与编码块、预测块和变换块相对应,编码单元(CU)包括预测单元(PU)和变换单元(TU)的树结构集,PU包括所有颜色分量的预测信息,并且TU包括每个颜色分量的残差编码语法结构。亮度分量的CB、PB和TB的尺寸适用于相应的CU、PU和TU。在本申请中,术语“块”可用于指代CTU、CU、PU、TU、CB、PB和TB中的任何一个。另外,“块”还可用于指代H.264/AVC或其他视频编码标准中指定的宏块和分区,并且更一般地指代各种尺寸的数据阵列。
在示例性编码器100中,如下所述,由编码器元件对图片进行编码。要编码的图片以CU为单位进行处理。使用帧内或帧间模式对每个CU进行编码。当在帧内模式下对CU进行编码时,其执行帧内预测(160)。在帧间模式下,执行运动估计(175)和补偿(170)。编码器决定(105)使用帧内模式或帧间模式中的哪一个来对CU进行编码,并且通过预测模式标志来指示帧内/帧间决定。通过从原始图像块中减去(110)预测块来计算预测残差。
为了利用空间冗余,从同一条带内的重建的相邻样本预测帧内模式下的CU。当考虑当前CU的编码/解码时,因果相邻CU已经被编码/解码。为了避免失配,编码器和解码器具有相同的预测。因此,编码器和解码器均使用来自重建/解码的相邻因果CU的信息来形成当前CU的预测。
35个帧内预测模式的集合在HEVC中可用,包括平面(索引为0)、DC(索引为1)和33个角度预测模式(索引为2-34)。从与当前块邻近的行和列重建帧内预测参考。使用来自先前重建的块的可用样本,参考可以在水平和垂直方向上延伸超过块尺寸的两倍。当将角度预测模式用于帧内预测时,可以沿着由角度预测模式指示的方向复制参考样本。
对于帧间CU,将相应的编码块进一步分区为一个或多个预测块。在PB级别上执行帧间预测,并且相应的PU包含关于如何执行帧间预测的信息。运动信息(即运动矢量和参考图片索引)可以以两种方法来用信号通知,即“合并模式”和“高级运动矢量预测(AMVP)”。
在合并模式中,视频编码器或解码器基于已经编码的块来组装候选列表,并且视频编码器用信号通知候选列表中的候选之一的索引。在解码器侧,基于用信号通知的候选来重建运动矢量(MV)和参考图片索引。
在AMVP中,视频编码器或解码器基于从已经编码的块中确定的运动矢量来组装候选列表。然后,视频编码器用信号通知候选列表中的索引以标识运动矢量预测器(MVP),并用信号通知运动矢量差(MVD)。在解码器侧,将运动矢量(MV)重建为MVP+MVD。适用的参考图片索引还在AMVP的PU语法中显式地编码。
然后对预测残差进行变换(125)和量化(130)。对量化的变换系数以及运动矢量和其他语法元素进行熵编码(145)以输出比特流。编码器还可以跳过该变换,并在4x4 TU的基础上直接对未变换的残差信号应用量化。编码器还可以绕过变换和量化两者,即,在不应用变换或量化过程的情况下直接对残差进行编码。在直接PCM编码中,不应用预测,并且将编码单元样本直接编码到比特流中。
编码器对编码块进行解码,以提供用于进一步预测的参考。对量化的变换系数进行解量化(140)和逆变换(150)以对预测残差进行解码。将解码的预测残差和预测块组合(155),来重建图像块。将环内滤波器(165)应用于重建的图片,以例如执行解块/SAO(样本自适应偏移)滤波以减少编码伪影。将滤波后的图像存储在参考图片缓冲器(180)。
图2图示了示例性HEVC视频解码器200的框图。在示例性解码器200中,如下所述,由解码器元件对比特流进行解码。视频解码器200通常执行与如图1中所示的编码通道相对的解码通道,该编码通道执行视频解码作为编码视频数据的一部分。
特别地,解码器的输入包括可以由视频编码器100生成的视频比特流。首先对比特流进行熵解码(230),以获得变换系数、运动矢量和其他编码信息。对变换系数进行解量化(240)和逆变换(250)以对预测残差进行解码。将解码的预测残差和预测块组合(255),来重建图像块。可以从帧内预测(260)或运动补偿预测(即,帧间预测)(275)获得(270)预测块。如上所述,AMVP和合并模式技术可以用于推导用于运动补偿的运动矢量,运动补偿可以使用插值滤波器来计算参考块的子整数样本的插值。将环内滤波器(265)应用于重建的图像。将滤波后的图像存储在参考图片缓冲器(280)。
如上针对HEVC所描述,将解块和SAO滤波器用作环内滤波器以减少编码伪影。更一般而言,对于视频压缩,可以将其他滤波器用于环内滤波。例如,如图3中所示,对于由JVET(联合视频探索组)开发的当前JEM 6.0(联合探索模型6.0),依次应用四个滤波器,即双边滤波器(BLF)、解块滤波器(DBF)、SAO和ALF(自适应环路滤波器)。这些不同的滤波器通常基于:(1)样本分析和像素分类,以及(2)与类相关的滤波。
为了便于标记,我们将编码器的输入图像称为S,将环内滤波的输入称为
Figure BDA0002440501520000061
将环内滤波的输出称为
Figure BDA0002440501520000062
Figure BDA0002440501520000063
也可以称为初始重建或图像的初始重建版本。如图3中所示,环内滤波的输入是预测样本和解码的预测残差的和。对于某些块,当预测残差为零或不存在时(例如,在跳过模式中),环内滤波的输入直接是预测样本。
在当前JEM中,在解块滤波器之前将双边滤波器应用于重建的样本
Figure BDA0002440501520000064
BLF通过以下进行工作:使滤波器权重不仅基于与相邻样本的距离,还基于相邻样本的值。将初始重建图片中的每个样本用其自身及其相邻者的加权平均值替换。基于与中心样本的距离以及样本值的差异来计算权重。由于滤波器具有小加号的形状(即,滤波器使用四个相邻样本),因此所有距离均为0或1。
位于(i,j)的样本将使用其相邻样本进行滤波。权重ω(i,j,k,l)是分配给相邻样本(k,l)的权重,用于对当前样本(i,j)进行滤波,并被定义为:
Figure BDA0002440501520000071
其中,I(i,j)和I(k,l)分别是初始重建
Figure BDA0002440501520000073
中样本(i,j)和(k,l)的强度值,σd是空间参数,并且σr是范围参数。双边滤波器的属性(或强度)由参数σd和σr控制。在JEM 6.0中,根据变换单元尺寸和预测模式来设置σd,并根据用于当前块的QP来设置σr
输出的滤波后的样本值IF(i,j)计算为:
Figure BDA0002440501520000072
在编码器和解码器中,将所提出的双边滤波器应用于每个CU,或者最大尺寸为16x16的块(在CU大于16x16的情况下)。在JEM 6.0中,在编码器侧的RDO(率失真优化)循环内执行双边滤波器。因此,滤波后的块也可以用于预测后续块(帧内预测)。
ALF基本上是基于Wiener滤波器设计的,其目的是设计线性滤波器(1D或2D)以最小化L2失真,即最小化滤波后的样本与参考样本(通常是原始样本)之间的均方误差。在JEM中,应用具有基于块的滤波器自适应的ALF。对于亮度分量,基于信号的方向和活动为每个2x2块选择25个滤波器之中的一个。
对于亮度分量,最多支持三个圆形对称滤波器形状。在图片级别用信号通知索引以指示用于图片的亮度分量的滤波器形状。对于图片中的色度分量,始终使用5x5菱形滤波器。
对每个2x2块应用块分类,基于局部信号分析(梯度,方向性)将其分类为25个类中的一个。对于图片中的两个色度分量,不应用分类方法,即,将单个ALF系数集应用于每个色度分量。
可以在CU级别控制亮度分量的滤波过程。用信号通知标志以指示是否将ALF应用于CU的亮度分量。对于色度分量,仅在图片级别指示是否应用ALF。在第一CTU的SAO参数之前,在第一CTU中用信号通知ALF滤波器参数。可以用信号通知多达25个亮度滤波器系数集。为了减少比特开销,可以合并不同类别的滤波器系数。而且,可以将参考图片的ALF系数重新用作当前图片的ALF系数。
也有一些工作使用深度学习来执行环内滤波。深度学习领域涉及深度神经网络的使用。神经网络包含由称为层的组所组织的神经元。神经网络中有输入层、输出层和隐藏层。深度神经网络具有两个或更多个隐藏层。
视频压缩可被视为与模式识别相联系,因为压缩通常寻找重复的模式,以便去除冗余。由于可以将视频压缩中的伪影去除或伪影减少视为识别并还原原始图像,因此可以使用神经网络作为滤波器来减少伪影。在本申请中,伪影减少也被称为图像还原,并且用于减少伪影的神经网络也可以被称为还原滤波器。
图4示出了示例性的M层卷积神经网络,其中通过添加由CNN计算的残差R,将来自视频编解码器的未经滤波的初始重建
Figure BDA0002440501520000081
还原为
Figure BDA0002440501520000082
数学上,网络可以表示为:
Figure BDA0002440501520000083
其中Wi和Bi分别是层i的权重和偏置参数,g()是激活函数(例如,sigmoid或整流线性单元(ReLU)函数),*表示卷积运算。来自CNN的输出
Figure BDA0002440501520000085
可以存储在参考图片缓冲器(RPB)中,以用作对后续帧进行编码或解码的预测器。
可以从K个训练样本{Sk},k={1,…,K}中训练参数集θ,包括Wi和Bi,i={1,…,M},例如,通过最小化损失函数,该损失函数基于还原图像和原始图像之间的误差定义为:
Figure BDA0002440501520000084
注意,损失函数还可以包含其他项,以便稳定收敛或避免过度拟合。可以简单地将这些正则项添加到误差函数。
为了减少压缩伪影,在Yuanying Dai等人的题为“用于HEVC帧内编码中的后处理的卷积神经网络方案”(国际多媒体建模会议,第28-39页,Springer,2017年)的文章中,设计了一种用于HEVC的基于CNN的后处理算法、一种可变滤波器尺寸残差学习CNN(VRCNN),以提高性能并加速网络训练。
特别地,如图5中所示,VRCNN被构造为四层全卷积神经网络,其中可以认为四个层分别对应于特征提取、特征增强、映射和重建。为了适应HEVC中的可变尺寸变换,第二层使用5x5和3x3滤波器(conv2,conv3)的组合,而第三层使用3x3和1x1滤波器(conv4,conv5)的组合。另外,由于在伪影减少中滤波前的输入和滤波后的输出通常相似,因此学习它们之间的差异会更容易且更可靠。因此,VRCNN使用残差学习技术,其中CNN被设计为学习输出和输入之间的残差,而不是直接学习输出。
图6A示出了在大型图像数据库上训练CNN,其中网络试图通过最小化与原始图像的误差来还原由编码器重建的图像。图6B示出了所得的CNN在编码器中用于在重建之后还原图像。然后可以显示还原的图像或将其用作参考,以预测序列中的其他帧。对称地,如图6C中所示的解码器接收比特流,使用相同的CNN重建图像和还原图像。
VRCNN仅使用重建的图像在不同的QP下训练和应用CNN,而不使用可从编码器或解码器获得的其他信息。因此,CNN的输入没有显式地考虑出现在块边界上的块效应的特定伪影,也没有考虑取决于块编码类型的伪影。
本实施例针对用于滤波的模式感知CNN。特别地,除了初始重建图像之外,还将可从编码器或解码器获得的不同信息(通常也称为“模式”)用作训练、编码或解码过程期间CNN的输入。
在一个实施例中,可以将QP(量化参数)、图像的块分区和块编码类型用作附加输入。由于CNN将重建的图像作为一组样本当作输入,因此我们也可以使用附加通道作为CNN的输入,来输入分区、编码模式信息和与图像的重建样本对齐的QP。
在VRCNN和其他CNN中,CNN的第一层的输入通常是重建的图像的Y分量,即,尺寸为WxHxl的图像,其中W和H是图像的宽度和高度。为了也将其他信息用作输入,我们将重建的图像视为一个通道,并使用附加通道输入其他信息。
在一个实施例中,将分区的边界信息组织成与重建的图像尺寸相同的一个样本阵列,以形成边界图像。边界图像中的样本指示对应的样本是否在分区边界处(即,是否在分区边缘)。该分区可以是CU、PU、TU、CTU或其他区域。
图7图示了根据实施例的用于生成边界图像的示例性方法700。在该示例中,针对分区边界而考虑CU边界。在步骤710、720、730和740中,检查上方样本、下方样本、左侧样本或右侧样本是否与当前样本位于同一CU中。如果不满足任一条件,则当前样本是边界样本,并且将边界图像中的对应样本设置(760)为1。否则,将边界图像中的样本设置为(750)为0。在步骤770,如果确定将要处理更多样本,则控制返回到步骤710。否则,获得边界图像。对于图像边框,我们可以将其视为边界或非边界。实际上,我们可以使用零填充策略。
图8A图示了将示例性图像划分为三个编码单元,其中,分区边缘以粗线示出,并且图8B示出了对应的边界图像。具体地,与分区边缘相邻的像素被视为边界像素,而其他像素被视为非边界像素。在边界图像中,边界像素由“1”表示,而非边界像素由“0”表示。边界信息可以帮助CNN理解分块伪影的位置,并且因此可以改善CNN,因为网络不需要花费参数来寻找分块伪影。
为了使用QP信息,我们可以生成与重建的图像尺寸相同的样本阵列以形成QP图像,其中,QP图像中的每个样本表示量化步长。例如,在HEVC中,我们可以使用从[0..51]中的QP到量化步长(qs)的如下转换:qs(QP)=2(QP-4)/6。该转换还可以考虑量化矩阵和/或量化舍入偏移。注意,通常为块指示QP,例如,H.264/AVC中的宏块或HEVC中的CU,以获得个别样本的QP,将特定样本的QP设置为包括该特定样本的块的QP。在输入之前,可以在0和1之间对量化步长进行归一化。也可以将基于QP的其他参数用作输入。将QP图像用作附加通道可以适应与不同块相关联的不同量化步长。
为了考虑编码模式,使用与预测图像的像素值相对应的通道。由于用于不同编码模式(诸如帧内或帧间,滤波类型)的预测块具有不同的特性,因此预测块或预测残差将反映编码模式。
在另一实施例中,我们可以直接使用编码模式。与对QP所做的类似,我们可以用编码模式的值创建通道。例如,对于帧内方向,我们可以用帧内预测的角度值来设置通道,例如,用HEVC标准规范中第8.4.4.2.6节中给出的角度值。然而,由于DC模式和平面模式是不同的,因此它们可能需要单独的通道,例如,当模式激活时设置为1。
除了帧内预测模式外,对于块还存在许多其他模式,例如但不限于JEM中的EMT(显式多核变换)索引、NSST(不可分二次变换)索引和边界滤波类型,并且可以用作CNN的输入。
可以将输入信息组织为WxHxD的阵列。当重建的图像、QP、边界信息和预测图像都用于输入时,D=4。可以将输入组织为[Y分量
Figure BDA0002440501520000115
边界图像BI,预测图像P,量化图像Q]。在变型中,对所有颜色分量(例如,Y、Cb、Cr)重复相同的配置。我们可以选择QP、边界信息和预测图像的一个或多个作为输入,并且D可以从2到4变化。
也可以将输入信息以不同的方式组织,例如,某些输入通道可以稍后在网络中输入。如上所述,VRCNN中的四个层可以视为分别对应于特征提取、特征增强、映射和重建。在一个实施例中,可以仅将QP用作特征增强阶段的输入,其中,QP信息可以更加相关。通过在稍后阶段使用QP信息,CNN可以在较早阶段使用较少的参数。通常,可以在CNN的中间层中使用一个或多个输入通道以降低复杂度。
在另一示例中,如果特定参数对最终重建的图像具有大的影响,则可以为该参数的不同值训练不同的网络。例如,可以在不同的QP下训练一组CNN,并使用具有与当前CU最接近的QP的CNN。在另一示例中,使用几个CNN的输入的加权平均来对图像进行滤波。
图9A图示了根据实施例的使用四个通道作为输入的示例性训练过程900A。将大型图像数据库(905)用作训练输入。训练图像由编码器进行编码(910)。将可以从编码器获得的信息(包括QP、分区边界、初始重建
Figure BDA0002440501520000111
和预测图像)用作CNN的输入。特别地,QP信息用于形成(930)量化图像,并且边界信息用于形成(920)边界图像。
在训练过程期间,使用残差学习技术。即,将初始重建
Figure BDA0002440501520000112
添加(940)到CNN的最后层的输出以还原图像。损失函数(950)基于还原的图像
Figure BDA0002440501520000113
和原始图像S之间的差。
在数学上,该网络可以表示为:
Figure BDA0002440501520000114
其中Wi和Bi分别是层i的权重和偏置参数,g()是激活函数(例如,sigmoid或整流线性单元(ReLU)函数),*表示卷积运算。注意这里只有第一权重(W1)与等式(1)中描述的不同,因为第一权重的维度为WxHxD而不是WxHxl。还要注意,激活函数g()可以逐层不同,并且还可以包含其他处理,例如批归一化。
图9B图示了根据实施例的使用多个通道作为CNN的输入的示例性编码过程900B,该CNN对应于图9A的训练后的CNN。特别地,在没有环内滤波的情况下,由编码器对原始图像进行编码(915)。将可以从编码器获得的信息(包括QP、分区边界、初始重建
Figure BDA0002440501520000121
和预测图像)用作CNN(950)的输入。特别地,QP信息用于形成(935)量化图像,并且边界信息用于形成(925)边界图像。
图9C图示了根据实施例的使用多个通道作为CNN的输入的示例性解码过程900C,该CNN对应于图9A的训练后的CNN。类似于编码过程900B,将四个通道用作CNN的输入。特别地,在没有环内滤波的情况下,由解码器对比特流进行解码(970)。将可以从解码器获得的信息(包括QP、分区边界、初始重建
Figure BDA0002440501520000122
和预测图像)用作CNN(980)的输入。特别地,QP信息用于形成(995)量化图像,并且边界信息用于形成(990)边界图像。
在上文中,我们基于图像描述输入。然而,可以将输入的重建图像例如以W’xH’(其中W’<W且H’<H)的尺寸划分为区域。QP图像区域、边界图像区域或预测图像区域将相应地以W’xH’的尺寸生成。例如,在编码过程中,区域可以是CU、PU或CTU。当用于滤波的区域的尺寸大于用于QP或帧内预测的块尺寸、或更一般地大于执行编码模式的块尺寸时,滤波区域可以包括几个块,并且因此包括几个QP或帧内预测方向模式。在这种情况下,生成对应的QP图像区域,使得其中的样本与覆盖该样本的块的QP关联。例如,如果在CTU级别执行滤波并且在CU级别发送QP,则用于CTU的QP图像可以包含量化步长的若干个值,其中每个CU具有对应的量化步长。
图8C图示了将示例性CTU划分为七个编码单元,其中,CU边界以粗线示出,并且图8D示出了对应的QP图像。具体地,对于与具有QPi的CU相对应的样本,在QP图像中使用与QPi相对应的量化步长qsi
在上文中,我们描述了用于环内滤波的模式感知CNN。本实施例还可以应用于编码循环之外的后处理,以在渲染之前增强图像质量,或者可以应用于能够应用滤波的其他模块。
以上关于残差学习CNN描述了不同的实施例。本实施例可以应用于其他类型的CNN或非卷积神经网络。在上文中,MSE用于计算示例性实施例中的损失函数。然而,其他误差函数,诸如感知的可微度量,例如MS-SSIM,也可以用于损失函数。
在上文中,我们假设所有的环内滤波器,诸如HEVC视频编码器或解码器中的环内滤波器(165,265),都被模式感知CNN所取代。在其他实施例中,模式感知CNN可以与其他环内滤波器一起并行或相继使用。另外,由于模式感知方案在块级别应用时使用来自块本身的信息,因此可以在RDO决定中使用模式感知网络,类似于在RDO决定中测试双边滤波器的方式。
以上描述了各种方法,并且每种方法包括用于实现所描述的方法的一个或多个步骤或动作。除非方法的正确操作需要特定的步骤或动作顺序,否则可以修改或组合特定步骤和/或动作的顺序和/或使用。
在本申请中使用了各种数值,例如,通道数。应当注意,特定值是出于示例性目的,并且本实施例不限于这些特定值。
在上文中,关于JVET和HEVC标准描述了各种实施例。然而,本实施例不限于JVET或HEVC,并且可以应用于其他标准、建议书及其扩展。上述各种实施例可以单独或组合使用。
图10图示了其中可以实现示例性实施例的各个方面的示例性系统的框图。系统1000可以实施为包括以下描述的各种组件的设备,并且被配置为执行上述过程。这样的设备的示例包括但不限于个人计算机、膝上型计算机、智能电话、平板计算机、数字多媒体机顶盒、数字电视接收机、个人视频记录系统、联网家用电器、以及服务器。系统1000可以通信地耦合到其他类似的系统,并且经由如图10中所示并且如本领域技术人员已知的通信信道通信地耦合到显示器,以实现上述示例性视频系统。
系统1000可以包括至少一个处理器1010,该至少一个处理器1010被配置为运行加载在其中的指令以实现如上所述的各种过程。处理器1010可以包括嵌入式存储器、输入输出接口和本领域已知的各种其他电路。系统1000还可包括至少一个存储器1020(例如,易失性存储器设备、非易失性存储器设备)。系统1000可以另外包括存储设备1020,该存储设备可以包括非易失性存储器,包括但不限于EEPROM、ROM、PROM、RAM、DRAM、SRAM、闪存、磁盘驱动器和/或光盘驱动器。作为非限制性示例,存储设备1040可以包括内部存储设备、附接存储设备和/或网络可访问的存储设备。系统1000还可以包括编码器/解码器模块1030,该编码器/解码器模块1030被配置为处理数据以提供编码的视频或解码的视频。
编码器/解码器模块1030表示可以被包括在设备中以执行编码和/或解码功能的模块。如已知的,设备可以包括编码模块和解码模块中的一个或两者。另外,编码器/解码器模块1030可以被实现为系统1000的单独元件,或者可以作为本领域技术人员已知的硬件和软件的组合被并入处理器1010内。
可以将要被加载到处理器1010上以执行上述各种过程的程序代码存储在存储设备1040中,并且随后将其加载到存储器1020上以由处理器1010运行。根据示例性实施例,处理器1010、存储器1020、存储设备1040和编码器/解码器模块1030中的一个或多个可以在执行本文上面讨论的过程期间存储各种项目中的一个或多个,包括但不限于输入视频、解码的视频、比特流、等式、公式、矩阵、变量、运算和运算逻辑。
系统1000还可以包括通信接口1050,其使得能够经由通信信道1060与其他设备进行通信。通信接口1050可以包括但不限于被配置为从通信信道1060发送和接收数据的收发器。通信接口可以包括但不限于调制解调器或网卡,并且通信信道可以在有线和/或无线介质内实现。系统1000的各个组件可以使用各种合适的连接(包括但不限于内部总线、线缆和印刷电路板)来连接或通信地耦合在一起。
示例性实施例可以通过由处理器1010实现的计算机软件、或者通过硬件、或者通过硬件和软件的结合来进行。作为非限制性示例,示例性实施例可以由一个或多个集成电路来实现。存储器1020可以是适合于技术环境的任何类型,并且可以使用任何适合的数据存储技术来实现,诸如光存储器设备、磁存储器设备、基于半导体的存储器设备、固定存储器和可移动存储器,作为非限制性示例。处理器1010可以是适合于技术环境的任何类型,并且可以包括微处理器、通用计算机、专用计算机和基于多核架构的处理器中的一个或多个,作为非限制性示例。
本文描述的实现方式可以例如以方法或过程、装置、软件程序、数据流或信号来实现。即使仅在单一形式的实现方式的背景下进行讨论(例如,仅作为方法进行讨论),但是所讨论的特征的实现方式也可以以其他形式(例如,装置或程序)来实现。装置可以例如以适当的硬件、软件和固件来实现。方法可以例如以诸如处理器的装置实现,该处理器通常涉及处理设备,包括例如计算机、微处理器、集成电路或可编程逻辑器件。处理器还包括通信设备,诸如例如计算机、蜂窝电话、便携式/个人数字助理(“PDA”),以及其他有助于终端用户之间信息通信的设备。
对“一个实施例”或“实施例”或“一个实现方式”或“实现方式”及其其他变型的引用意指结合实施例描述的特定特征、结构、特性等包括在至少一个实施例中。因此,在整个说明书的各个地方出现的短语“在一个实施例中”或“在实施例中”或“在一个实现方式中”或“在实现方式中”以及任何其他变型的出现不一定全部指代相同的实施例。
另外,本申请或其权利要求可以涉及“确定”各种信息。确定信息可以包括例如以下中的一个或多个:估计信息、计算信息、预测信息或从存储器中取得信息。
此外,本申请或其权利要求可以涉及“访问”各种信息。访问信息可以包括例如以下中的一个或多个:接收信息、(例如从存储器中)取得信息、复制信息、计算信息、确定信息、预测信息或估计信息。
另外,本申请或其权利要求可以涉及“接收”各种信息。接收与“访问”一样,旨在为广义术语。接收信息可以包括例如访问信息或(例如从存储器中)取得信息中的一个或多个。此外,在诸如例如存储信息、处理信息、发送信息、移动信息、复制信息、擦除信息、计算信息、确定信息、预测信息或估计信息的操作期间,通常以一种或另一种方式涉及“接收”。
如对于本领域技术人员将明显的,实现方式可以产生各种信号,这些信号被格式化以承载例如可以被存储或发送的信息。信息可以包括例如用于执行方法的指令或由所描述的实现方式中的一个产生的数据。例如,信号可以被格式化以承载所描述的实施例的比特流。这样的信号可以被格式化为例如电磁波(例如,使用频谱的射频部分)或基带信号。格式化可以包括例如对数据流进行编码以及利用编码的数据流来调制载波。信号承载的信息可以是例如模拟或数字信息。如已知的,信号可以通过各种不同的有线或无线链路发送。信号可以存储在处理器可读介质上。

Claims (18)

1.一种用于视频编码或解码的方法,包括:
访问视频的图片的图像块的第一重建版本;以及
通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,
其中,所述神经网络响应于所述图像块中的样本的块边界信息以及以下中的至少一个:(1)基于所述图像块的至少一个量化参数的信息,和(2)所述图像块的预测样本,以及
其中,将所述图像块的所述块边界信息组织成与所述图像块的所述第一重建版本尺寸相同的样本阵列,以用作所述神经网络的输入通道,其中所述样本阵列中的样本指示所述图像块中的相应样本是否指示所述样本是否在所述图像块的边界处。
2.根据权利要求1所述的方法,还包括:
形成具有与所述图像块相同的尺寸的数据阵列,其中,所述数据阵列中的每个样本与所述图像块的所述至少一个量化参数相关联。
3.根据权利要求1所述的方法,其中,所述神经网络还响应于以下中的一个或多个:(1)所述图像块的预测残差,和(2)所述图像块的至少一个帧内预测模式。
4.根据权利要求1所述的方法,其中,将所述神经网络的输入的一个或多个通道用作所述神经网络的中间层的输入。
5.根据权利要求3所述的方法,其中,所述图像块的所述第一重建版本基于所述预测样本和所述图像块的预测残差。
6.根据权利要求1所述的方法,其中,所述图像块对应于编码单元(CU)、编码块(CB)或编码树单元(CTU)。
7.根据权利要求1所述的方法,其中,所述图像块的所述第二重建版本用于预测另一图像块。
8.根据权利要求1所述的方法,其中,所述神经网络基于残差学习。
9.根据权利要求1所述的方法,其中,所述神经网络是卷积神经网络。
10.一种用于视频编码或解码的装置,包括:
至少一个存储器和耦合到所述至少一个存储器的一个或多个处理器,所述一个或多个处理器被配置为:
访问视频的图片的图像块的第一重建版本;以及
通过神经网络对所述图像块的所述第一重建版本进行滤波,以形成所述图像块的第二重建版本,
其中,所述神经网络响应于所述图像块中的样本的块边界信息以及以下中的至少一个:(1)基于所述图像块的至少一个量化参数的信息,和(2)所述图像块的预测样本,以及
其中,将所述图像块的所述块边界信息组织成与所述图像块的所述第一重建版本尺寸相同的样本阵列,以用作所述神经网络的输入通道,其中所述样本阵列中的样本指示所述图像块中的相应样本是否指示所述样本是否在所述图像块的边界处。
11.根据权利要求10所述的装置,所述一个或多个处理器还被配置为形成具有与所述图像块相同的尺寸的数据阵列,其中,所述数据阵列中的每个样本与所述图像块的所述至少一个量化参数相关联。
12.根据权利要求10所述的装置,其中,所述神经网络还响应于以下中的一个或多个:(1)所述图像块的预测残差,和(2)所述图像块的至少一个帧内预测模式。
13.根据权利要求12所述的装置,其中,所述图像块的所述第一重建版本基于所述预测样本和所述图像块的预测残差。
14.根据权利要求10所述的装置,其中,将所述神经网络的输入的一个或多个通道用作所述神经网络的中间层的输入。
15.根据权利要求10所述的装置,其中,所述图像块对应于编码单元(CU)、编码块(CB)或编码树单元(CTU)。
16.根据权利要求10所述的装置,其中,所述图像块的所述第二重建版本用于预测另一图像块。
17.根据权利要求10所述的装置,其中,所述神经网络基于残差学习。
18.根据权利要求10所述的装置,其中,所述神经网络是卷积神经网络。
CN201880065216.2A 2017-08-28 2018-08-28 用模式感知深度学习进行滤波的方法和装置 Active CN111194555B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
EP17306101.1A EP3451670A1 (en) 2017-08-28 2017-08-28 Method and apparatus for filtering with mode-aware deep learning
EP17306101.1 2017-08-28
PCT/US2018/048333 WO2019046295A1 (en) 2017-08-28 2018-08-28 APPARATUS AND METHOD FOR FILTERING WITH DEPTH LEARNING IN FUNCTION MODE

Publications (2)

Publication Number Publication Date
CN111194555A CN111194555A (zh) 2020-05-22
CN111194555B true CN111194555B (zh) 2022-04-26

Family

ID=59761904

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880065216.2A Active CN111194555B (zh) 2017-08-28 2018-08-28 用模式感知深度学习进行滤波的方法和装置

Country Status (5)

Country Link
US (1) US20200213587A1 (zh)
EP (2) EP3451670A1 (zh)
KR (1) KR20200040773A (zh)
CN (1) CN111194555B (zh)
WO (1) WO2019046295A1 (zh)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10999602B2 (en) 2016-12-23 2021-05-04 Apple Inc. Sphere projected motion estimation/compensation and mode decision
US11259046B2 (en) 2017-02-15 2022-02-22 Apple Inc. Processing of equirectangular object data to compensate for distortion by spherical projections
US10924747B2 (en) 2017-02-27 2021-02-16 Apple Inc. Video coding techniques for multi-view video
US11093752B2 (en) 2017-06-02 2021-08-17 Apple Inc. Object tracking in multi-view video
US11019355B2 (en) * 2018-04-03 2021-05-25 Electronics And Telecommunications Research Institute Inter-prediction method and apparatus using reference frame generated based on deep learning
US11166044B2 (en) * 2018-07-31 2021-11-02 Tencent America LLC Method and apparatus for improved compound orthonormal transform
US11025907B2 (en) * 2019-02-28 2021-06-01 Google Llc Receptive-field-conforming convolution models for video coding
US10869036B2 (en) 2018-09-18 2020-12-15 Google Llc Receptive-field-conforming convolutional models for video coding
US10931950B2 (en) * 2018-11-19 2021-02-23 Intel Corporation Content adaptive quantization for video coding
CN113039792A (zh) * 2019-03-07 2021-06-25 Oppo广东移动通信有限公司 环路滤波实现方法、装置及计算机存储介质
CN113747179B (zh) * 2019-03-07 2023-08-08 Oppo广东移动通信有限公司 环路滤波实现方法、装置及计算机存储介质
JP7026065B2 (ja) * 2019-03-12 2022-02-25 Kddi株式会社 画像復号装置、画像復号方法及びプログラム
KR20210139342A (ko) * 2019-03-24 2021-11-22 광동 오포 모바일 텔레커뮤니케이션즈 코포레이션 리미티드 필터링 방법, 장치, 인코더 및 컴퓨터 저장 매체
US11166022B2 (en) * 2019-06-04 2021-11-02 Google Llc Quantization constrained neural image coding
US10972749B2 (en) 2019-08-29 2021-04-06 Disney Enterprises, Inc. Systems and methods for reconstructing frames
US11012718B2 (en) 2019-08-30 2021-05-18 Disney Enterprises, Inc. Systems and methods for generating a latent space residual
CN110677649B (zh) * 2019-10-16 2021-09-28 腾讯科技(深圳)有限公司 基于机器学习的去伪影方法、去伪影模型训练方法及装置
CN110942140B (zh) * 2019-11-29 2022-11-08 任科扬 一种人工神经网络差和迭代数据处理方法及装置
WO2021228513A1 (en) * 2020-05-15 2021-11-18 Huawei Technologies Co., Ltd. Learned downsampling based cnn filter for image and video coding using learned downsampling feature
CN113784146A (zh) * 2020-06-10 2021-12-10 华为技术有限公司 环路滤波方法和装置
CN111711824B (zh) * 2020-06-29 2021-07-02 腾讯科技(深圳)有限公司 视频编解码中的环路滤波方法、装置、设备及存储介质
WO2022067806A1 (zh) * 2020-09-30 2022-04-07 Oppo广东移动通信有限公司 一种视频编解码方法、编码器、解码器及存储介质
CN116250235A (zh) * 2020-10-01 2023-06-09 北京达佳互联信息技术有限公司 具有基于神经网络的环路滤波的视频编解码
CN112468826B (zh) * 2020-10-15 2021-09-24 山东大学 一种基于多层gan的vvc环路滤波方法及系统
CN114449296B (zh) * 2020-11-06 2023-07-18 北京大学 基于卷积神经网络的环路滤波方法和装置
CN112669400B (zh) * 2020-12-11 2022-11-29 中国科学院深圳先进技术研究院 基于深度学习预测和残差架构的动态mr重建方法
US20220201295A1 (en) * 2020-12-21 2022-06-23 Electronics And Telecommunications Research Institute Method, apparatus and storage medium for image encoding/decoding using prediction
US11490085B2 (en) * 2021-01-14 2022-11-01 Tencent America LLC Model sharing by masked neural network for loop filter with quality inputs
CN113068031B (zh) * 2021-03-12 2021-12-07 天津大学 一种基于深度学习的环路滤波方法
US11750847B2 (en) 2021-04-19 2023-09-05 Tencent America LLC Quality-adaptive neural network-based loop filter with smooth quality control by meta-learning
CN113422966B (zh) * 2021-05-27 2024-05-24 绍兴市北大信息技术科创中心 一种多模型cnn环路滤波方法
WO2023287018A1 (ko) * 2021-07-13 2023-01-19 현대자동차주식회사 딥러닝 기반 인트라 예측 신호를 개선하는 비디오 코딩방법 및 장치
CN117678221A (zh) * 2021-07-20 2024-03-08 Oppo广东移动通信有限公司 图像编解码及处理方法、装置及设备
WO2023022376A1 (ko) * 2021-08-17 2023-02-23 현대자동차주식회사 개선된 인루프 필터를 이용하는 비디오 코딩방법 및 장치
CN115883842A (zh) * 2021-09-28 2023-03-31 腾讯科技(深圳)有限公司 滤波及编解码方法、装置、计算机可读介质及电子设备
CN114125449A (zh) * 2021-10-26 2022-03-01 阿里巴巴新加坡控股有限公司 基于神经网络的视频处理方法、系统和计算机可读介质
CN114501034B (zh) * 2021-12-11 2023-08-04 同济大学 基于离散高斯混合超先验和Mask的图像压缩方法及介质
TWI786992B (zh) * 2021-12-14 2022-12-11 國立清華大學 整合卷積神經網路運算電路的影像感測器
CN117440185A (zh) * 2022-07-14 2024-01-23 杭州海康威视数字技术股份有限公司 一种基于神经网络的图像解码、编码方法、装置及其设备

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102576453A (zh) * 2009-07-31 2012-07-11 富士胶片株式会社 图像处理装置和方法、数据处理装置和方法、程序和记录介质

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8204128B2 (en) * 2007-08-01 2012-06-19 Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Learning filters for enhancing the quality of block coded still and video images
JP2009111691A (ja) * 2007-10-30 2009-05-21 Hitachi Ltd 画像符号化装置及び符号化方法、画像復号化装置及び復号化方法
CN101621683A (zh) * 2008-07-01 2010-01-06 邹采荣 一种基于avs的快速立体视频编码方法
US20100027909A1 (en) * 2008-08-04 2010-02-04 The Hong Kong University Of Science And Technology Convex optimization approach to image deblocking
CA2997193C (en) * 2015-09-03 2021-04-06 Mediatek Inc. Method and apparatus of neural network based processing in video coding
US9799102B2 (en) * 2015-12-02 2017-10-24 Adobe Systems Incorporated Smoothing images using machine learning
CN105430415B (zh) * 2015-12-02 2018-02-27 宁波大学 一种3d‑hevc深度视频帧内快速编码方法
US9659355B1 (en) * 2015-12-03 2017-05-23 Motorola Mobility Llc Applying corrections to regions of interest in image data
CN106952228B (zh) * 2017-03-10 2020-05-22 北京工业大学 基于图像非局部自相似性的单幅图像的超分辨率重建方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102576453A (zh) * 2009-07-31 2012-07-11 富士胶片株式会社 图像处理装置和方法、数据处理装置和方法、程序和记录介质

Also Published As

Publication number Publication date
EP3677034A1 (en) 2020-07-08
US20200213587A1 (en) 2020-07-02
WO2019046295A1 (en) 2019-03-07
CN111194555A (zh) 2020-05-22
KR20200040773A (ko) 2020-04-20
EP3451670A1 (en) 2019-03-06

Similar Documents

Publication Publication Date Title
CN111194555B (zh) 用模式感知深度学习进行滤波的方法和装置
US20200244997A1 (en) Method and apparatus for filtering with multi-branch deep learning
US11711512B2 (en) Method and apparatus for video encoding and decoding using pattern-based block filtering
US10999603B2 (en) Method and apparatus for video coding with adaptive clipping
US20200244965A1 (en) Interpolation filter for an inter prediction apparatus and method for video coding
CN113544705A (zh) 用于图片编码和解码的方法和设备
JP2023528780A (ja) ビデオコーディングにおけるニューラルネットワークベースのフィルタ
WO2022072659A1 (en) Video coding with neural network based in-loop filtering
WO2018206396A1 (en) Method and apparatus for intra prediction in video encoding and decoding
CN109565592B (zh) 一种使用基于分割的视频编码块划分的视频编码设备和方法
CN112106372A (zh) 用于混合帧内预测的方法和设备
US20220353543A1 (en) Video Compression with In-Loop Sub-Image Level Controllable Noise Generation
EP3729807A1 (en) Method and apparatus for video compression using efficient multiple transforms
CN118077201A (zh) 用于视频处理的方法、设备和介质
US20200021849A1 (en) Devices and methods for video coding
KR20240068078A (ko) 모드-인식 딥 러닝을 갖는 필터링을 위한 방법 및 장치
US11496770B2 (en) Media object compression/decompression with adaptive processing for block-level sub-errors and/or decomposed block-level sub-errors
EP3503549A1 (en) Method and apparatus for video compression using efficient multiple transforms
EP3518537A1 (en) Method and apparatus for video encoding and decoding based on a linear model responsive to neighboring samples
CN112136329A (zh) 视频编解码的方法和装置
CN112204986A (zh) 视频编解码的方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant