CN112511822B - 基于注意力模型和渐进式网络的图像编码失真滤波方法 - Google Patents

基于注意力模型和渐进式网络的图像编码失真滤波方法 Download PDF

Info

Publication number
CN112511822B
CN112511822B CN202011337864.4A CN202011337864A CN112511822B CN 112511822 B CN112511822 B CN 112511822B CN 202011337864 A CN202011337864 A CN 202011337864A CN 112511822 B CN112511822 B CN 112511822B
Authority
CN
China
Prior art keywords
image
network
residual
domain
characteristic data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011337864.4A
Other languages
English (en)
Other versions
CN112511822A (zh
Inventor
金智鹏
翁政魁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiaxing Vocational and Technical College
Original Assignee
Jiaxing Vocational and Technical College
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiaxing Vocational and Technical College filed Critical Jiaxing Vocational and Technical College
Priority to CN202011337864.4A priority Critical patent/CN112511822B/zh
Publication of CN112511822A publication Critical patent/CN112511822A/zh
Application granted granted Critical
Publication of CN112511822B publication Critical patent/CN112511822B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/102Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or selection affected or controlled by the adaptive coding
    • H04N19/117Filters, e.g. for pre-processing or post-processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/86Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving reduction of coding artifacts, e.g. of blockiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了基于注意力模型和渐进式网络的图像编码失真滤波方法,用于抑制视频编码失真和提高画面视觉舒适度,包括步骤S1:将输入的压缩失真图x依次经过若干级渐进式增强网络Si,并且每级网络恢复相对应子带的编码失真。本发明公开的基于注意力模型和渐进式网络的图像编码失真滤波方法,其通过深度学习注意力模型和渐进式网络对压缩失真图进行编码失真,从而抑制视频编码失真和提高画面视觉舒适度的效果,加强深度学习网络对纹理信息和通道特征信息的提取,提高客观质量和主观舒适度。

Description

基于注意力模型和渐进式网络的图像编码失真滤波方法
技术领域
本发明属于视频编码失真滤波技术领域,具体涉及一种基于注意力模型和渐进式网络的图像编码失真滤波方法。
背景技术
在图像编码系统中,原始图像数据被进行多种处理,如:预测、变换、量化、重建、滤波等,在这种处理过程中,已处理的图像数据相对原始图像数据可能已经发生像素偏移,导致视觉障碍或假象;此外,在大多数图像编码系统采用的基于块的混合编码框架下,由于相邻的编码块采用不同的编码参数(如不同的变换量化过程、不同的预测方式、不同参考图像等),各块引入的误差大小及其分布特性相互独立,相邻块边界会产生不连续性,产生块效应。这些失真不但影响重建图像的主客观质量,若重建图像作为后续编码像素的参考图像,还会影响后续编码像素的预测准确性。
并且现有的图像编码失真滤波方法缺乏抑制视频编码失真和提高画面视觉舒适度的效果。因此,针对上述问题,予以进一步改进。
发明内容
本发明的主要目的在于提供本发明提供基于注意力模型和渐进式网络的图像编码失真滤波方法,其通过深度学习注意力模型(Spatial&Channel Fusion AttentionModule,SCFAM,空域和通道域融合的注意力模型)和渐进式网络对压缩失真图进行编码失真,从而抑制视频编码失真和提高画面视觉舒适度的效果,加强深度学习网络对纹理信息和通道特征信息的提取,提高客观质量和主观舒适度。
为达到以上目的,本发明提供基于注意力模型和渐进式网络的图像编码失真滤波方法,用于抑制视频编码失真和提高画面视觉舒适度,包括以下步骤:
步骤S1:将输入的压缩失真图x依次经过若干级渐进式增强网络Si(i=1、2、3等),并且每级网络(只)恢复相对应子带的编码失真,压缩失真图x在经过每个网络时先通过滤波卷积,以提取相对应层级的第一图像特征数据,然后将第一图像特征数据通过双域融合注意力模型计算,以获得相对应层级的第二图像特征数据,并且将第二图像特征数据通过卷积计算生成编码失真,以获得不同幅度的残差;
步骤S2:将不同幅度的残差依次输入到压缩失真图x,以获得各个层级的滤波图像ei(i=1、2、3等),并且将各层级的残差和压缩失真图x的渐进式累加,网络最终输出的增强图像e的公式为:
e=x+∑iresiduei
作为上述技术方案的进一步优选的技术方案,步骤S1具体实施为以下步骤(在实施过程中也涉及步骤S2):
步骤S1.1:输入的压缩失真图x经过网络S1滤波卷积,以获得图像特征数据TF1,并且经过双域融合注意力模型,以获得图像特征数据TS1CF和残差R1,并且将残差R1加上压缩失真图x,以获得中间层滤波图像e1
步骤S1.2:特征数据TS1经过网络S2滤波卷积,以获得图像特征数据TF2,并且经过双域融合注意力模型,以获得图像特征数据TS2CF和残差R2,并且将残差R2加上中间层滤波图像e1,以获得中间层滤波图像e2
步骤S1.3:特征数据TF2经过网络S3滤波卷积,以获得图像特征数据TF3,并且经过双域融合注意力模型,以获得图像特征数据TS3CF和残差R3,并且将残差R3加上中间层滤波图像e2,以获得中间层滤波图像e3
步骤S1.4:特征数据TF3经过网络S4滤波卷积,以获得图像特征数据TF4,并且经过双域融合注意力模型,以获得图像特征数据TS4CF和残差R4,并且将残差R3加上中间层滤波图像e3,以获得最终滤波图像e。
作为上述技术方案的进一步优选的技术方案,步骤S1.1具体实施为以下步骤:
步骤S1.1.1:输入的压缩失真图像x(H×W)经过网络S1滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF1(H×W×64);
步骤S1.1.2:图像特征数据TF1(H×W×64)经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的图像特征数据TS1CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R1;
步骤S1.1.3:将压缩失真图像x加上残差R1,以获得中间层滤波图像e1
作为上述技术方案的进一步优选的技术方案,步骤S1.2具体实施为以下步骤:
步骤S1.2.1:图像特征数据TF1经过网络S2滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF2(H×W×64);
步骤1.2.2:图像特征数据TF2经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的特征数据TS2CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R2;
步骤1.2.3:中间层滤波图像e1加上残差R2,以获得得到进一步增强的中间层滤波图像e2
作为上述技术方案的进一步优选的技术方案,步骤S1.3具体实施为以下步骤:
步骤S1.3.1:图像特征数据TF2经过网络S3滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF3(H×W×64);
步骤1.3.2:图像特征数据TF3经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的特征数据TS3CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R3;
步骤1.3.3:中间层滤波图像e2加上残差R3,以获得得到进一步增强的中间层滤波图像e3
作为上述技术方案的进一步优选的技术方案,步骤S1.4具体实施为以下步骤:
步骤S1.4.1:图像特征数据TF3经过网络S4滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF4(H×W×64);
步骤1.4.2:图像特征数据TF4经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的特征数据TS4CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R4;
步骤1.4.3:中间层滤波图像e3加上残差R4,以获得得到进一步增强的最终滤波图像e。
作为上述技术方案的进一步优选的技术方案,双域融合注意力模型具体实施包括以下步骤:
步骤T1:在空域注意力中,特征图H×W×C首先重塑为第一特征图(H×W)×C;
步骤T2:将重塑后的第一特征图(H×W)×C与自身转置相乘,以获得空域任意两个像素之间的依赖关系,即(H×W)×(H×W)的第一注意力特征图;
步骤T3:在通道域注意力中,特征图H×W×C首先重塑为第二特征图(C×(H×W));
步骤T4:将重塑后的第二特征图C×(H×W)与自身转置相乘,以获得通道域任意两个特征通道之间的依赖关系,即C×C的第二注意力特征图;
步骤T5:将第一注意力特征图和第二注意力特征图按元素进行融合,以获得空域和通道域上体现全局依赖关系的输出特征图。
附图说明
图1是本发明的基于注意力模型和渐进式网络的图像编码失真滤波方法的基于SCFAM和渐进式网络的视频编码失真滤波示意图。
图2是本发明的基于注意力模型和渐进式网络的图像编码失真滤波方法的SCFAM(Spatial&Channel Fusion Attention Module,空域和通道域融合的注意力模型)示意图。
具体实施方式
以下描述用于揭露本发明以使本领域技术人员能够实现本发明。以下描述中的优选实施例只作为举例,本领域技术人员可以想到其他显而易见的变型。在以下描述中界定的本发明的基本原理可以应用于其他实施方案、变形方案、改进方案、等同方案以及没有背离本发明的精神和范围的其他技术方案。
在本发明的优选实施例中,本领域技术人员应注意,本发明所涉及的residue函数、softmax函数和滤波卷积等可被视为现有技术。
优选实施例。
如图1和图2所示,本发明公开了一种基于注意力模型和渐进式网络的图像编码失真滤波方法,用于抑制视频编码失真和提高画面视觉舒适度,包括以下步骤:
步骤S1:将输入的压缩失真图x依次经过若干级渐进式增强网络Si(i=1、2、3等),并且每级网络(只)恢复相对应子带的编码失真,压缩失真图x在经过每个网络时先通过滤波卷积,以提取相对应层级的第一图像特征数据,然后将第一图像特征数据通过双域融合注意力模型计算,以获得相对应层级的第二图像特征数据,并且将第二图像特征数据通过卷积计算生成编码失真,以获得不同幅度的残差;
步骤S2:将不同幅度的残差依次输入到压缩失真图x,以获得各个层级的滤波图像ei(i=1、2、3等),并且将各层级的残差和压缩失真图x的渐进式累加,网络最终输出的增强图像e的公式为:
e=x+∑iresiduei
其中,residue为计算函数。
具体的是,步骤S1具体实施为以下步骤(在实施过程中也涉及步骤S2):
步骤S1.1:输入的压缩失真图x经过网络S1滤波卷积,以获得图像特征数据TF1,并且经过双域融合注意力模型,以获得图像特征数据TS1CF和残差R1,并且将残差R1加上压缩失真图x,以获得中间层滤波图像e1
步骤S1.2:特征数据TS1经过网络S2滤波卷积,以获得图像特征数据TF2,并且经过双域融合注意力模型,以获得图像特征数据TS2CF和残差R2,并且将残差R2加上中间层滤波图像e1,以获得中间层滤波图像e2
步骤S1.3:特征数据TF2经过网络S3滤波卷积,以获得图像特征数据TF3,并且经过双域融合注意力模型,以获得图像特征数据TS3CF和残差R3,并且将残差R3加上中间层滤波图像e2,以获得中间层滤波图像e3
步骤S1.4:特征数据TF3经过网络S4滤波卷积,以获得图像特征数据TF4,并且经过双域融合注意力模型,以获得图像特征数据TS4CF和残差R4,并且将残差R3加上中间层滤波图像e3,以获得最终滤波图像e。
优选地,本发明可根据最终滤波图像的程度,可以选择不同层级的残差,不仅仅限于本发明的4个残差和4个滤波图像。
更具体的是,步骤S1.1具体实施为以下步骤:
步骤S1.1.1:输入的压缩失真图像x(H×W)经过网络S1滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF1(H×W×64);
步骤S1.1.2:图像特征数据TF1(H×W×64)经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的图像特征数据TS1CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R1;
步骤S1.1.3:将压缩失真图像x加上残差R1,以获得中间层滤波图像e1
进一步的是,步骤S1.2具体实施为以下步骤:
步骤S1.2.1:图像特征数据TF1经过网络S2滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF2(H×W×64);
步骤1.2.2:图像特征数据TF2经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的特征数据TS2CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R2;
步骤1.2.3:中间层滤波图像e1加上残差R2,以获得得到进一步增强的中间层滤波图像e2
更进一步的是,步骤S1.3具体实施为以下步骤:
步骤S1.3.1:图像特征数据TF2经过网络S3滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF3(H×W×64);
步骤1.3.2:图像特征数据TF3经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的特征数据TS3CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R3;
步骤1.3.3:中间层滤波图像e2加上残差R3,以获得得到进一步增强的中间层滤波图像e3
优选地,步骤S1.4具体实施为以下步骤:
步骤S1.4.1:图像特征数据TF3经过网络S4滤波卷积(3×3@64Conv-ReLU),提取到图像特征数据TF4(H×W×64);
步骤1.4.2:图像特征数据TF4经过双域融合注意力模型(SCFAM)计算获得体现空域和通道域上依赖关系的特征数据TS4CF(H×W×64),并且使用卷积(1×1@1Conv)计算生成编码失真,以获得残差R4;
步骤1.4.3:中间层滤波图像e3加上残差R4,以获得得到进一步增强的最终滤波图像e。
优选地,双域融合注意力模型具体实施包括以下步骤:
步骤T1:在空域注意力中,特征图H×W×C首先重塑为第一特征图,即(H×W)×C;
步骤T2:将重塑后的第一特征图(H×W)×C与自身转置相乘,以获得空域任意两个像素之间的依赖关系,即(H×W)×(H×W)的第一注意力特征图;
步骤T3:在通道域注意力中,特征图H×W×C首先重塑为第二特征图,即C×(H×W);
步骤T4:将重塑后的第二特征图C×(H×W)与自身转置相乘,以获得通道域任意两个特征通道之间的依赖关系,即C×C的第二注意力特征图;
步骤T5:将第一注意力特征图和第二注意力特征图按元素进行融合,以获得空域和通道域上体现全局依赖关系的输出特征图。
值得一提的是,本发明专利申请涉及的residue函数、softmax函数和滤波卷积等技术特征应被视为现有技术,这些技术特征的具体结构、工作原理以及可能涉及到的控制方式、空间布置方式采用本领域的常规选择即可,不应被视为本发明专利的发明点所在,本发明专利不做进一步具体展开详述。
对于本领域的技术人员而言,依然可以对前述各实施例所记载的技术方案进行修改,或对其中部分技术特征进行等同替换,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围。

Claims (1)

1.一种基于注意力模型和渐进式网络的图像编码失真滤波方法,其特征在于,包括以下步骤:
步骤S1:将输入的压缩失真图x依次经过若干级渐进式增强网络Si,并且每级网络恢复相对应子带的编码失真,压缩失真图x在经过每个网络时先通过滤波卷积,以提取相对应层级的第一图像特征数据,然后将第一图像特征数据通过双域融合注意力模型计算,以获得相对应层级的第二图像特征数据,并且将第二图像特征数据通过卷积计算生成编码失真,以获得不同幅度的残差;
步骤S2:将不同幅度的残差依次输入到压缩失真图x,以获得各个层级的滤波图像ei,并且将各层级的残差和压缩失真图x的渐进式累加,网络最终输出的增强图像e的公式为:
e=x+∑iresiduei
双域融合注意力模型具体实施包括以下步骤:
步骤T1:在空域注意力中,特征图H×W×C首先重塑为第一特征图;
步骤T2:将重塑后的第一特征图与自身转置相乘,以获得空域任意两个像素之间的依赖关系,即第一注意力特征图;
步骤T3:在通道域注意力中,特征图H×W×C首先重塑为第二特征图;
步骤T4:将重塑后的第二特征图与自身转置相乘,以获得通道域任意两个特征通道之间的依赖关系,即第二注意力特征图;
步骤T5:将第一注意力特征图和第二注意力特征图按元素进行融合,以获得空域和通道域上体现全局依赖关系的输出特征图;
步骤S1具体实施为以下步骤:
步骤S1.1:输入的压缩失真图x经过网络S1滤波卷积,以获得图像特征数据TF1,并且经过双域融合注意力模型,以获得图像特征数据TS1CF和残差R1,并且将残差R1加上压缩失真图x,以获得中间层滤波图像e1
步骤S1.2:特征数据TS1经过网络S2滤波卷积,以获得图像特征数据TF2,并且经过双域融合注意力模型,以获得图像特征数据TS2CF和残差R2,并且将残差R2加上中间层滤波图像e1,以获得中间层滤波图像e2
步骤S1.3:特征数据TF2经过网络S3滤波卷积,以获得图像特征数据TF3,并且经过双域融合注意力模型,以获得图像特征数据TS3CF和残差R3,并且将残差R3加上中间层滤波图像e2,以获得中间层滤波图像e3
步骤S1.4:特征数据TF3经过网络S4滤波卷积,以获得图像特征数据TF4,并且经过双域融合注意力模型,以获得图像特征数据TS4CF和残差R4,并且将残差R3加上中间层滤波图像e3,以获得最终滤波图像e;
步骤S1.1具体实施为以下步骤:
步骤S1.1.1:输入的压缩失真图像x经过网络S1滤波卷积,提取到图像特征数据TF1;
步骤S1.1.2:图像特征数据TF1经过双域融合注意力模型计算获得体现空域和通道域上依赖关系的图像特征数据TS1CF,并且使用卷积计算生成编码失真,以获得残差R1;
步骤S1.1.3:将压缩失真图像x加上残差R1,以获得中间层滤波图像e1
步骤S1.2具体实施为以下步骤:
步骤S1.2.1:图像特征数据TF1经过网络S2滤波卷积,提取到图像特征数据TF2;
步骤1.2.2:图像特征数据TF2经过双域融合注意力模型计算获得体现空域和通道域上依赖关系的特征数据TS2CF,并且使用卷积计算生成编码失真,以获得残差R2;
步骤1.2.3:中间层滤波图像e1加上残差R2,以获得得到进一步增强的中间层滤波图像e2
步骤S1.3具体实施为以下步骤:
步骤S1.3.1:图像特征数据TF2经过网络S3滤波卷积,提取到图像特征数据TF3;
步骤1.3.2:图像特征数据TF3经过双域融合注意力模型计算获得体现空域和通道域上依赖关系的特征数据TS3CF,并且使用卷积计算生成编码失真,以获得残差R3;
步骤1.3.3:中间层滤波图像e2加上残差R3,以获得得到进一步增强的中间层滤波图像e3
步骤S1.4具体实施为以下步骤:
步骤S1.4.1:图像特征数据TF3经过网络S4滤波卷积,提取到图像特征数据TF4;
步骤1.4.2:图像特征数据TF4经过双域融合注意力模型计算获得体现空域和通道域上依赖关系的特征数据TS4CF,并且使用卷积计算生成编码失真,以获得残差R4;
步骤1.4.3:中间层滤波图像e3加上残差R4,以获得得到进一步增强的最终滤波图像e。
CN202011337864.4A 2020-11-25 2020-11-25 基于注意力模型和渐进式网络的图像编码失真滤波方法 Active CN112511822B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011337864.4A CN112511822B (zh) 2020-11-25 2020-11-25 基于注意力模型和渐进式网络的图像编码失真滤波方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011337864.4A CN112511822B (zh) 2020-11-25 2020-11-25 基于注意力模型和渐进式网络的图像编码失真滤波方法

Publications (2)

Publication Number Publication Date
CN112511822A CN112511822A (zh) 2021-03-16
CN112511822B true CN112511822B (zh) 2023-03-24

Family

ID=74958734

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011337864.4A Active CN112511822B (zh) 2020-11-25 2020-11-25 基于注意力模型和渐进式网络的图像编码失真滤波方法

Country Status (1)

Country Link
CN (1) CN112511822B (zh)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR3029055B1 (fr) * 2014-11-24 2017-01-13 Ateme Procede d'encodage d'image et equipement pour la mise en oeuvre du procede
CN111651504B (zh) * 2020-06-03 2021-10-08 湖南大学 基于深度学习的多元时间序列多层时空依赖建模方法

Also Published As

Publication number Publication date
CN112511822A (zh) 2021-03-16

Similar Documents

Publication Publication Date Title
Wen et al. A primal–dual method for total-variation-based wavelet domain inpainting
TW200535717A (en) Directional video filters for locally adaptive spatial noise reduction
JPWO2010001911A1 (ja) フィルタ装置
KR101715547B1 (ko) 지각 안내를 사용한 이미지 및 비디오 압축을 위한 개선된 비트 할당 방법
KR20060135612A (ko) 사전계산된 샘플들의 모자이크에 의한 필름 그레인시뮬레이션 방법
JP2013517686A (ja) メタデータによる時間スケーリングのためのエッジエンハンスメント
EP1421554A2 (en) Image enhancement and data loss recovery using wavelet transforms
CN101883280B (zh) 一种恢复噪声的视频编解码方法和系统
US7693345B2 (en) Method and apparatus for error concealment for JPEG 2000 compressed images and data block-based video data
CN113592746B (zh) 一种由粗到细地融合时空信息的压缩视频质量增强方法
Kountchev et al. Inverse pyramidal decomposition with multiple DCT
Goto et al. Learning-based super-resolution image reconstruction on multi-core processor
CN112511822B (zh) 基于注意力模型和渐进式网络的图像编码失真滤波方法
JP3344957B2 (ja) 画像処理方法
JP4645948B2 (ja) 復号化装置及びプログラム
WO2009013696A2 (en) Framework system and method for low-frequency preservation in multiresolution nonlinear adaptive filtering
WO2008007717A1 (en) Dynamic image decoding device and dynamic image encoding device
JPH08322041A (ja) ブロック歪み除去装置
JP2017073135A (ja) ビデオエピトメを用いて画像からノイズを除去する方法及び装置
Kwon et al. An efficient POCS-based post-processing technique using wavelet transform in HDTV
KR100982835B1 (ko) 영상 프레임의 디블로킹 방법 및 장치
Del Corso et al. MNR: A novel approach to correct MPEG temporal distortions
Comes et al. Postprocessing of images by filtering the unmasked coding noise
CN113645466B (zh) 一种基于随机概率的图像去块算法
JP4789020B2 (ja) 画像処理システムおよび画像処理プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant