CN112261414B - 一种以注意力机制融合单元划分的视频编码卷积滤波方法 - Google Patents
一种以注意力机制融合单元划分的视频编码卷积滤波方法 Download PDFInfo
- Publication number
- CN112261414B CN112261414B CN202011030882.8A CN202011030882A CN112261414B CN 112261414 B CN112261414 B CN 112261414B CN 202011030882 A CN202011030882 A CN 202011030882A CN 112261414 B CN112261414 B CN 112261414B
- Authority
- CN
- China
- Prior art keywords
- coding unit
- reconstructed image
- image
- quarter
- scale
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/85—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
- H04N19/86—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/80—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation
- H04N19/82—Details of filtering operations specially adapted for video compression, e.g. for pixel interpolation involving filtering within a prediction loop
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开一种以注意力机制融合单元划分的视频编码卷积滤波方法,对构建的编码单元划分结构图进行不同尺度的降采样,并提取不同尺度感受野的特征信息,再将各特征信息融合起来,经过多层卷积神经网络层处理;将重建图像经过深层的卷积神经网络进行特征提取处理;再将编码单元划分结构的特征图作为权值基于像素加权到重建图像生成的特征图上,让网络更加关注感兴趣区域;最后经过多层卷积层处理,得到最终的残差图像,再加上输入的重建图像,得到恢复的重建图像。本发明利用一个多尺度网络充分提取编码单元结构特征信息,并将编码单元划分结构有效的和重建图像特征相融合,引导图像质量恢复过程,从而提升重建图像质量和编码效率。
Description
技术领域
本发明涉及视频编码技术领域,具体为一种以注意力机制融合单元划分的视频编码卷积滤波方法。
背景技术
随着视频编码技术的进步,人们提出了许多视频编码标准,如AVC(AdvancedVideo Coding高级视频编码)、HEVC(High Efficiency Video Coding高效率视频编码)和最新的VVC(Versatile Video Coding多功能视频编码)。相比于上一代的标准,在相同的图像质量下,每个新标准的比特率都降低了50%。这些标准,包括最新的VVC,都是基于块编码的。首先,将一帧图像分成相同大小的编码树单元,然后根据率失真优化进一步划分为合适大小的编码单元。在编码单元的基础上,通过帧内预测或帧间预测得到预测单元块。接着从原始块中减去预测块,得到残差块。最后对残差块进行变换和量化,采用熵编码对所有参数进行二进制编码。然而,基于块的编码技术和量化导致的频率信息缺失会引起块效应、模糊效应和振铃效应等伪影。这些伪影严重降低了视频质量,降低了观看效果。为了消除这些伪影,人们提出了环路滤波技术。HEVC使用去块滤波器(DBF)[见文献1:A.Norkin et al.,"HEVC Deblocking Filter,"in IEEE Transactions on Circuits and Systems forVideo Technology,vol.22,no.12,pp.1746-1754,Dec.2012.]和样本自适应补偿滤波器(SAO)[见文献2:C.Fu et al.,"Sample Adaptive Offset in the HEVC Standard,"inIEEE Transactions on Circuits and Systems for Video Technology,vol.22,no.12,pp.1755-1764,Dec.2012.],VVC额外增加了自适应环路滤波器(ALF)[见文献3:C.Tsai etal.,"Adaptive Loop Filtering for Video Coding,"in IEEE Journal of SelectedTopics in Signal Processing,vol.7,no.6,pp.934-945,Dec.2013.]。去块滤波器通过平滑编码单元边界来消除基于块的编码技术引起的块效应。样本自适应补偿滤波器通过像素补偿消除高频交流系数量化失真引起的振铃效应。自适应环路滤波器的目标是最小化块的均方误差,作为一个附加滤波器,进一步提高图像质量。这些滤波器虽然大大提高了图像质量,但仍不能满足人们对图像质量的要求。此外,样本自适应补偿滤波器和自适应环路滤波器将向解码器发送额外的信息,增加了信号开销,不利于视频传输。
近年来,深度学习在许多领域取得了巨大的成就。卷积神经网络在其中发挥了重要作用。由于在图像处理方面卷积神经网络具有天然的优势,尤其在降噪等领域显示出巨大的潜力,因此基于卷积神经网络的环内滤波器的研究十分广泛。为了更针对性的训练神经网络,人们除了输入重建图像,还将一些诸如编码单元划分模式,量化参数等信息作为先验信息输入网络来指导图像恢复。
在VVC中,为了更准确的预测图像,引入了多叉树划分技术,即将HEVC中的四叉树划分修改为多叉树划分,使得编码单元划分结构更加符合图像的实际分布。因此,可以利用编码单元划分模式作为先验信息来引导提高图像质量。但以往的方案大多只构造一个与输入图像大小相同的编码单元划分图,直接将两种信息连接起来,或者简单地经过卷积处理后进行拼接,这样的操作并不能有效的融合两种模态的信息。
现有文献4[Kang,J.,Kim,S.,&Lee,K.M.(2017).Multi-modal/multi-scaleconvolutional neural network based in-loop filter design for next generationvideo codec.2017 IEEE International Conference on Image Processing(ICIP),26-30.]中提出了几种编码单元划分结构输入网络形式以及和重建图像融合的方式,并通过实验对比这些方案的好坏。文中提出编码单元结构图的两种构造形式,一种使用编码单元内所有像素的均值作为编码单元内的值,一种是将边界像素设置为1,非编码单元边界的像素设置为0,同时提出了三种编码单元结构和重建图像特征融合方式,一是分别经过卷积神经网络处理后基于像素相加,二是直接基于通道拼接起来,三是分别经过卷积神经网络处理后基于通道拼接起来。虽然文中提出了这些方案并得到了一些较好的结果,但并没有考虑到编码单元结构和重建图像作为两种模态信息,简单拼接很难充分融合特征。
现有文献5[Dong,C.,Deng,Y.,Loy,C.C.,&Tang,X.(2015).CompressionArtifacts Reduction by a Deep Convolutional Network.2015 IEEE InternationalConference on Computer Vision(ICCV),576-584.]中提出了一种基于注意力的多尺度模型,也利用了编码单元划分结构对图像恢复的先验信息,同时构造了两个不同尺度的模型,输出一个基于大尺度的全局信息的恢复图像和一个基于小尺度的细节信息的恢复图像,最后综合两个输出图像得到最终的重建图像。然而这个网络结构过于复杂,并不利于训练。虽然考虑了编码单元划分结构对网络恢复过程的引导作用,但并未充分提取编码单元划分结构的信息,因此还有不足之处。
现存的方案中,可以分为两类,一类是不加先验信息,直接输入重建图像的网络结构。如以下文献:
文献6[Dong,C.,Deng,Y.,Loy,C.C.,&Tang,X.(2015).Compression ArtifactsReduction by a Deep Convolutional Network.2015 IEEE International Conferenceon Computer Vision(ICCV),576-584]中率先提出将卷积神经网络用于视频编码的环内滤波器部分,简单的多层卷积层结构实现了远远大于传统算法滤波器的效果。
文献7[Zhang,Yongbing,Tao Shen,Xiangyang Ji,Yun Zhang,Ruiqin Xiong andQionghai Dai.“Residual Highway Convolutional Neural Networks for in-loopFiltering in HEVC.”IEEE Transactions on Image Processing 27(2018):3827-3841中提出了一种深层残差网络结构,通过深层的卷积层来充分提取图像特征和恢复图像。残差结构则有利于网络训练。
文献8[Ding,Dandan,Lingyi Kong,Guantao Chen,Zoe Liu and Yong Fang.“ASwitchable Deep Learning Approach for In-Loop Filtering in Video Coding.”IEEETransactions on Circuits and Systems for Video Technology 30(2020):1871-1887]中提出了一种基于通道注意力的加权结构网络,通过对不同的通道自适应加权,使网络聚焦于对图像恢复贡献度最大的图像特征。
文献9[Huang,Z.,Li,Y.,&Sun,J.(2020).Multi-Gradient ConvolutionalNeural Network Based In-Loop Filter For Vvc.2020 IEEE InternationalConference on Multimedia and Expo(ICME),1-6]中利用了输入图像的散度和二阶导数的特征信息,在图像恢复过程中,通过输入图像的散度和二阶导数的特征信息,提供输入图像更多的细节特征,有利于提升图像质量。然而上面这些方案虽然从各种角度来提升视频质量,但并没有利用到重建图像的各种先验信息,基于块的视频编码技术会导致重建图像不同编码单元性质不同,特征不同,因此加入额外的先验信息指导网络恢复图像很有意义。
另一类方案则是加入先验信息,指导网络恢复图像的结构。常见的先验信息一般有编码单元划分模式,量化参数等信息。前文提到的文献4中将编码单元划分结构和重建图像同时输入网络进行恢复图像,通过将两者信息直接拼接起来,再通过卷积神经网络处理得到最终的重建图像,取得了较好的结果。文献5中除了加入编码单元划分结构信息外,还设计了一个多尺度网络模型用来融合全局特征信息和局部细节特征信息。上面这些方案虽然注意到了一些先验信息对图像恢复的指导作用,但还有许多不足之处,大部分方案直接将编码单元划分结构和和重建图像直接堆叠起来输入网络,虽然有一定的效果,但并没有注意到这两种信息属于不同模态的信息,直接拼接并不有效。一些方案即使注意到了两种模态的区别,并做了多模态融合处理,但对于两种模态的特征提取并不完善,导致最终的融合效果并非最佳。
术语解释:
注意力:选择性的聚焦于图像感兴趣部分,而忽略其他不相关的信息。
多模态:不属于同一种类型的信息,例如声音与图像。
编码单元:视频编码过程中的基本编码预测块。
编码单元划分模式:视频编码中为了有利于编码,将图像划分为编码单元,即划分的结构。
卷积神经网络:一类包含卷积计算且具有深度结构的前馈神经网络,具有表征学习能力。
视频编码:通过压缩技术,将一种视频格式,转换成另一种更有利于传输存储的视频格式的过程。
环内滤波器:为了减少重建图像的编码失真而采用的图像滤波方法,HEVC包含有去块滤波器,样本自适应补偿滤波器,VVC额外加入了自适应环路滤波器。
BD-rate:视频编码中对比算法优劣的常用方法,通过对比多个采样点的PSNR与码率,对多个采样点进行曲线拟合。得到两个算法的编码效率差异。
发明内容
针对上述问题,本发明的目的在于提供一种以注意力机制融合单元划分的视频编码卷积滤波方法,利用一个多尺度网络充分提取编码单元划分结构特征信息,并将编码单元划分结构有效的和重建图像特征相融合,引导图像质量恢复过程,从而提升重建图像质量和编码效率。技术方案如下:
一种以注意力机制融合单元划分的视频编码卷积滤波方法,包括以下步骤:
步骤1:构建编码单元划分结构图,对编码单元划分结构图进行不同尺度的降采样,分别使用多层卷积神经网络提取不同尺度感受野的特征信息,再将提取到的不同尺度感受野的特征信息融合起来,经过多层卷积神经网络层处理,得到编码单元划分结构图的特征图;
步骤2:将重建图像经过深层的卷积神经网络进行特征提取处理,得到重建图像生成的特征图;
步骤3:将步骤1中生成的编码单元划分结构的特征图作为权值基于像素加权到步骤2中重建图像生成的特征图上,使网络更加关注感兴趣区域;
步骤4:两种模态特征信息通过注意力机制融合后,经过多层卷积层处理,得到最终的残差图像,再加上输入的重建图像,最后得到恢复的重建图像。
进一步的,所述编码单元划分图的编码单元边界处的像素值设置为2,宽度为2,非边界处的像素值设置为1。
更进一步的,所述步骤1中不同尺度感受野的特征信息表示如下:
原始尺度分支公式表达如下:
Xorg=Xcu (1)
Yorg=FK(Xorg) (2)
二分之一尺度分支公式表达如下:
Xhalf=Pool2(Xcu) (3)
Yhalf=FK(Xhalf) (4)
四分之一尺度分支公式表达如下:
Xquarter=Pool4(Xcu) (5)
Yquarter=FK(Xquarter) (6)
其中,Pool2()和Pool4()表示通过池化操作分别下采样至二分之一尺度和四分之一尺度;Xorg和Yorg表示原始尺度分支的编码单元划分结构图及特征信息;Xcu表示输入的编码单元划分结构图;FK()表示K层的卷积操作;Xhalf和Yhalf表示二分之一尺度分支的编码单元划分结构图及特征信息;Xquarter和Yquarter表示四分之一尺度分支的编码单元划分结构图及特征信息;
输入的编码单元划分结构图的特征图表示如下:
Ycu=F3([Yorg,Yhalf,Yquarter]) (7)
其中,F3()表示3层的卷积操作;
所述步骤2中重建图像生成的特征图Yreco表示为:
Yreco=WM*FM-1(Xreco)+BM (8)
其中,Xreco表示输入的重建图像;WM表示第M层卷积的权值系数;BM表示第M层卷积的偏置;FM-1()表示M-1层的卷积操作;
所述步骤3中加权公式表示为:
YW=Yreco·Ycu (9)
其中,YW为加权后的图像的特征图;·表示基于像素的点乘;
所述步骤4中最终的残差图像Yresi和恢复的重建图像Y表示为:
其中,WK表示第K层卷积的权值系数;BK表示第K层卷积的偏置。
本发明的有益效果是:
(1)本发明提出编码单元划分结构与重建图像作为两种模态信息,以注意力机制结合编码单元划分结构的多模态融合神经网络结构;充分融合两种模态信息特征,更有利于编码单元划分结构指导重建图像恢复。
(2)本发明的编码单元划分结构图通过一个网络分支生成的特征映射同时在空域和通道上对输入图像的特征进行基于像素的加权,使得网络对于恢复图像质量至关重要的信息给予更多的注意力;该方法能有效地融合编码单元划分树结构和重建图像的特征信息。
(3)为了更有效的提取编码单元划分结构图的特征,本发明使用了多尺度特征提取结构,通过不同尺度网络来提取不同大小尺度的编码单元划分模式特征,扩大感受野,使得最终的码单元划分模式特征同时具有局部特征和全局特征。
(4)为了更好的训练网络,本发明使用了局部残差结构和全局的残差结构;实验证明,本发明提出的方法在VVC中取得了很好的表现。
附图说明
图1为本发明基于注意力机制的多模态特征信息融合的卷积神经网络模型。
图2为图1中残差卷积单元的具体结构。
图3中(a)为重建图像;(b)为重建图像对应的编码单元划分结构图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步详细说明。
当前的视频编码技术,在量化阶段都会存在损失,因此在重建图像后,加入了环内滤波器对重建图像进行处理,提高图像质量。常见的环内滤波器有去块滤波器,样本自适应偏移滤波器,自适应环路滤波器等。这些基于传统算法的滤波器虽然有一定的效果,但远远不能满足人们对视频质量的需求。鉴于卷积神经网络对图像处理的优点,本发明提出一种卷积神经网络结构用来代替传统滤波器,并实现了很好的滤波结果。
不管HEVC,还是最新的VVC,使用的基于块的视频编码技术,以及量化过程的信息损失都会造成严重影响视频质量的伪影。考虑到编码单元划分结构可以对图像恢复提供指导作用,因此本发明提出一种以注意力机制结合编码单元划分结构的多模态融合网络,充分融合编码单元划分树和重建图像两种模态特征信息,并利用多尺度结构充分挖掘提取编码单元划分结构的特征信息。网络结构如图1所示。方法详细步骤如下:
步骤1:构建编码单元划分结构图,对编码单元划分结构图进行不同尺度的降采样,分别使用多层卷积神经网络提取不同尺度感受野的特征信息,将提取到的不同尺度感受野的特征信息融合起来,经过多层卷积神经网络层处理,得到编码单元划分结构图的特征图。
为了更方便的将编码单元划分树输入网络,本发明构建了一种编码单元划分图。将编码单元边界处的像素值设置为2,宽度为2,非边界处的像素值设置为1。为了生成可以加权到重建图像特征信息上的权值,本发明将编码单元划分图输入图1中的多尺度分支,即首先经过不同尺度的降采样后,分别使用多层卷积神经网络提取不同感受野的特征信息。原始尺度分支公式表达如下:
Xorg=Xcu (11)
Yorg=FK(Xorg) (12)
二分之一尺度分支公式表达如下:
Xhalf=Pool2(Xcu) (13)
Yhalf=FK(Xhalf) (14)
四分之一尺度分支公式表达如下:
Xquarter=Pool4(Xcu) (15)
Yquarter=FK(Xquarter) (16)
其中,Pool2()和Pool4()表示通过池化操作分别下采样至二分之一尺度和四分之一尺度;Xorg和Yorg表示原始尺度分支的编码单元划分结构图及特征信息;Xcu表示输入的编码单元划分结构图;FK()表示K层的卷积操作;Xhalf和Yhalf表示二分之一尺度分支的编码单元划分结构图及特征信息;Xquarter和Yquarter表示四分之一尺度分支的编码单元划分结构图及特征信息。
最后将不同尺度特征信息融合起来,最后经过多层卷积神经网络层处理。可用公式表达如下式:
Ycu=F3([Yorg,Yhalf,Yquarter]) (17)
步骤2:将重建图像经过深层的卷积神经网络进行特征提取处理,得到重建图像生成的特征图。
如图1深层卷积层分支所示,重建图像经过深层的卷积神经网络进行特征提取处理,得到特征信息。可用公式表达为下式:
Yreco=WM*FM-1(Xreco)+BM (18)
其中,Xreco表示输入的重建图像;WM表示第M层卷积的权值系数;BM表示第M层卷积的偏置;FM-1()表示M-1层的卷积操作。
步骤3:基于注意力机制的多模态信息融合方法:
为了将两种模态的信息充分融合,本发明采用了注意力机制的方案。首先经过步骤1描述的方法,生成编码单元划分结构的特征图,将这些特征图作为权值基于像素加权到步骤2中重建图像生成的特征图上,使网络更加关注感兴趣区域,即对恢复图像有重要贡献的区域。加权公式表达如下式:
YW=Yreco·Ycu (19)
其中,YW为加权后的图像的特征图;·表示基于像素的点乘。
两种模态特征信息通过注意力机制融合后,经过多层卷积层处理,得到最终的残差图像,加上输入图像,得到恢复的重建图像。具体公式可表达如下:
其中,WK表示第K层卷积的权值系数;BK表示第K层卷积的偏置。
表1本发明与其他方案的实验结果对比(基于VTM,全帧内模式)
本发明提出了一种以注意力机制融合单元划分的视频编码卷积滤波方法,针对视频编码中基于块的编码技术,使用编码单元划分树作为先验信息输入网络指导重建图像恢复。为了充分提取编码单元划分特征信息,使用多尺度网络来扩大感受野,同时提取全局特征信息和局部细节特征信息,更有利于指导图像恢复。同时提出了编码单元划分结构与重建图像属于两种不同模态的信息,通过使用注意力机制,基于像素加权能更有效的融合两种模态信息。如表1所示,实验证明了本发明提出的方法有很好的效果,相对于VVC中传统滤波器,有着4.93%的BD-Rate减少。其中,文献10:Y.Li Y.Dai,D.Liu and F.Wu,“CNN-Basedin-Loop Filter Proposed by USTC,”in document Rep.JVETM0510,Marrakech,MA,USA,Jan.2019。文献11:K.Kei and N.Sei,“A Result of Convolutional Neural NetworkFilter,”in document Rep.JVET-M0872,Marrakech,MA,USA,Jan.2019。文献12:Y.LiL.Zhao S.Liu Y.Wang,Z.Chen and X.Li,“Test Results of Dense ResidualConvolutional Neural Network Based in-Loop Filter,”in document Rep.JVETM0508,Marrakech,MA,USA,Jan.2019。
Claims (2)
1.一种以注意力机制融合单元划分的视频编码卷积滤波方法,其特征在于,包括以下步骤:
步骤1:构建编码单元划分结构图,对编码单元划分结构图进行不同尺度的降采样,分别使用多层卷积神经网络提取不同尺度感受野的特征信息,再将提取到的不同尺度感受野的特征信息融合起来,经过多层卷积神经网络层处理,得到编码单元划分结构图的特征图;
步骤2:将重建图像经过深层的卷积神经网络进行特征提取处理,得到重建图像生成的特征图;
步骤3:两种模态特征信息通过注意力机制融合:将步骤1中生成的编码单元划分结构的特征图作为权值基于像素加权到步骤2中重建图像生成的特征图上,使网络更加关注感兴趣区域;
步骤4:经过多层卷积层处理,得到最终的残差图像,再加上输入的重建图像,最后得到恢复的重建图像;
所述步骤1中不同尺度感受野的特征信息表示如下:
原始尺度分支公式表达如下:
Xorg=Xcu (1)
Yorg=FK(Xorg) (2)
二分之一尺度分支公式表达如下:
Xhalf=Pool2(Xcu) (3)
Yhalf=FK(Xhalf) (4)
四分之一尺度分支公式表达如下:
Xquarter=Pool4(Xcu) (5)
Yquarter=FK(Xquarter) (6)
其中,Pool2()和Pool4()表示通过池化操作分别下采样至二分之一尺度和四分之一尺度;Xorg和Yorg表示原始尺度分支的编码单元划分结构图及特征信息;Xcu表示输入的编码单元划分结构图;FK()表示K层的卷积操作;Xhalf和Yhalf表示二分之一尺度分支的编码单元划分结构图及特征信息;Xquarter和Yquarter表示四分之一尺度分支的编码单元划分结构图及特征信息;
输入的编码单元划分结构图的特征图表示如下:
Ycu=F3([Yorg,Yhalf,Yquarter]) (7)
其中,F3()表示3层的卷积操作;
所述步骤2中重建图像生成的特征图Yreco表示为:
Yreco=WM*FM-1(Xreco)+BM (8)
其中,Xreco表示输入的重建图像;WM表示第M层卷积的权值系数;BM表示第M层卷积的偏置;FM-1()表示M-1层的卷积操作;
所述步骤3中加权公式表示为:
YW=Yreco·Ycu (9)
其中,YW为加权后的图像的特征图;·表示基于像素的点乘;
所述步骤4中最终的残差图像Yresi和恢复的重建图像Y表示为:
其中,WK表示第K层卷积的权值系数;BK表示第K层卷积的偏置。
2.根据权利要求1所述的以注意力机制融合单元划分的视频编码卷积滤波方法,其特征在于,所述编码单元划分结构 图的编码单元边界处的像素值设置为2,宽度为2,非边界处的像素值设置为1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011030882.8A CN112261414B (zh) | 2020-09-27 | 2020-09-27 | 一种以注意力机制融合单元划分的视频编码卷积滤波方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011030882.8A CN112261414B (zh) | 2020-09-27 | 2020-09-27 | 一种以注意力机制融合单元划分的视频编码卷积滤波方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112261414A CN112261414A (zh) | 2021-01-22 |
CN112261414B true CN112261414B (zh) | 2021-06-29 |
Family
ID=74234107
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011030882.8A Active CN112261414B (zh) | 2020-09-27 | 2020-09-27 | 一种以注意力机制融合单元划分的视频编码卷积滤波方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112261414B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112911304B (zh) * | 2021-01-29 | 2022-03-25 | 南京信息工程大学滨江学院 | 基于编码的双路视频压缩装置及压缩视频重建方法 |
CN112950570B (zh) * | 2021-02-25 | 2022-05-17 | 昆明理工大学 | 一种结合深度学习与密集连续中心点的裂纹检测方法 |
CN113361374B (zh) * | 2021-06-02 | 2024-01-05 | 燕山大学 | 一种人群密度估计方法及系统 |
CN114125449A (zh) * | 2021-10-26 | 2022-03-01 | 阿里巴巴新加坡控股有限公司 | 基于神经网络的视频处理方法、系统和计算机可读介质 |
CN116958759A (zh) * | 2022-04-12 | 2023-10-27 | 中兴通讯股份有限公司 | 图像处理方法、装置、设备、存储介质和程序产品 |
CN114513660B (zh) * | 2022-04-19 | 2022-09-06 | 宁波康达凯能医疗科技有限公司 | 一种基于卷积神经网络的帧间图像模式决策方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110324638A (zh) * | 2019-07-29 | 2019-10-11 | 哈尔滨工业大学 | 混合视频编码标准中基于多尺度神经网络的帧内预测算法 |
US10482603B1 (en) * | 2019-06-25 | 2019-11-19 | Artificial Intelligence, Ltd. | Medical image segmentation using an integrated edge guidance module and object segmentation network |
CN110533045A (zh) * | 2019-07-31 | 2019-12-03 | 中国民航大学 | 一种结合注意力机制的行李x光违禁品图像语义分割方法 |
CN110648334A (zh) * | 2019-09-18 | 2020-01-03 | 中国人民解放军火箭军工程大学 | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 |
CN111476249A (zh) * | 2020-03-20 | 2020-07-31 | 华东师范大学 | 多尺度大感受野卷积神经网络的构建方法 |
-
2020
- 2020-09-27 CN CN202011030882.8A patent/CN112261414B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10482603B1 (en) * | 2019-06-25 | 2019-11-19 | Artificial Intelligence, Ltd. | Medical image segmentation using an integrated edge guidance module and object segmentation network |
CN110324638A (zh) * | 2019-07-29 | 2019-10-11 | 哈尔滨工业大学 | 混合视频编码标准中基于多尺度神经网络的帧内预测算法 |
CN110533045A (zh) * | 2019-07-31 | 2019-12-03 | 中国民航大学 | 一种结合注意力机制的行李x光违禁品图像语义分割方法 |
CN110648334A (zh) * | 2019-09-18 | 2020-01-03 | 中国人民解放军火箭军工程大学 | 一种基于注意力机制的多特征循环卷积显著性目标检测方法 |
CN111476249A (zh) * | 2020-03-20 | 2020-07-31 | 华东师范大学 | 多尺度大感受野卷积神经网络的构建方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112261414A (zh) | 2021-01-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112261414B (zh) | 一种以注意力机制融合单元划分的视频编码卷积滤波方法 | |
JP7047119B2 (ja) | 変換領域における残差符号予測のための方法および装置 | |
CN111711824B (zh) | 视频编解码中的环路滤波方法、装置、设备及存储介质 | |
CN108900848B (zh) | 一种基于自适应可分离卷积的视频质量增强方法 | |
EP1809040A2 (en) | Multilayer-based video encoding/decoding method and video encoder using smoothing prediction | |
Le et al. | Learned image coding for machines: A content-adaptive approach | |
CN110999290B (zh) | 使用跨分量线性模型进行帧内预测的方法和装置 | |
CN111885280B (zh) | 一种混合卷积神经网络视频编码环路滤波方法 | |
KR20130105855A (ko) | 예제 기반 데이터 프루닝을 이용한 비디오 부호화 | |
WO2023000179A1 (zh) | 视频超分辨网络及视频超分辨、编解码处理方法、装置 | |
US20120263225A1 (en) | Apparatus and method for encoding moving picture | |
CN109978772A (zh) | 基于深度学习与双域互补的压缩图像复原方法 | |
CN113592746B (zh) | 一种由粗到细地融合时空信息的压缩视频质量增强方法 | |
Wang et al. | Multi-density convolutional neural network for in-loop filter in video coding | |
Kim et al. | Towards the perceptual quality enhancement of low bit-rate compressed images | |
CN112601095B (zh) | 一种视频亮度和色度分数插值模型的创建方法及系统 | |
Zini et al. | Deep residual autoencoder for quality independent JPEG restoration | |
Zhao et al. | Wavelet inpainting driven image compression via collaborative sparsity at low bit rates | |
WO2023027873A1 (en) | Multi-level latent fusion in neural networks for image and video coding | |
Zhang et al. | WCDANN: A Lightweight CNN Post-Processing Filter for VVC-Based Video Compression | |
JP2024513693A (ja) | ピクチャデータ処理ニューラルネットワークに入力される補助情報の構成可能な位置 | |
Wu et al. | MPCNet: Compressed multi-view video restoration via motion-parallax complementation network | |
JP2024511587A (ja) | ニューラルネットワークベースのピクチャ処理における補助情報の独立した配置 | |
Lan et al. | Multisensor Collaboration Network for Video Compression Based on Wavelet Decomposition | |
Hu et al. | Efficient image compression method using image super-resolution residual learning network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |