CN107248144B - 一种基于压缩型卷积神经网络的图像去噪方法 - Google Patents

一种基于压缩型卷积神经网络的图像去噪方法 Download PDF

Info

Publication number
CN107248144B
CN107248144B CN201710286383.7A CN201710286383A CN107248144B CN 107248144 B CN107248144 B CN 107248144B CN 201710286383 A CN201710286383 A CN 201710286383A CN 107248144 B CN107248144 B CN 107248144B
Authority
CN
China
Prior art keywords
image
noise
denoising
network
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710286383.7A
Other languages
English (en)
Other versions
CN107248144A (zh
Inventor
伍家松
达臻
陈雄辉
杨启晗
姜龙玉
孔佑勇
舒华忠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southeast University
Original Assignee
Southeast University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southeast University filed Critical Southeast University
Priority to CN201710286383.7A priority Critical patent/CN107248144B/zh
Publication of CN107248144A publication Critical patent/CN107248144A/zh
Application granted granted Critical
Publication of CN107248144B publication Critical patent/CN107248144B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于压缩型卷积神经网络的图像去噪方法,包括:构造训练数据集;构造压缩型去噪卷积神经网络模型;利用训练数据集对网络模型进行训练;将有噪声的图像输入到训练好的网络中,并用所述有噪声的图像减去网络的输出图像得到清晰的去噪图像。本发明中的去噪卷积神经网络主要特征在于将原始的去噪卷积神经网络的卷积层替换成了经由低秩矩阵分解压缩后的卷积层。本发明通过改进一种已有的去噪卷积神经网络DnCNN,将其网络参数减少了至少75%,精简了网络,同时保持了优异的去噪效果。

Description

一种基于压缩型卷积神经网络的图像去噪方法
技术领域
本发明涉及数字图像领域,具体涉及一种基于压缩型卷积神经网络的图像去噪方法。
背景技术
在图像去噪技术上,有传统的去噪方式,也有新兴的利用深度卷积神经网络去噪的方法。本发明基于两项背景技术:1.最新的去噪卷积神经网络DnCNN,该网络利用20或17层左右深度的卷积神经网络对高斯加性噪声进行去噪,据DnCNN的文献(Zhang K,Zuo W,Chen Y,et al.Beyond a Gaussian Denoiser:Residual Learning of Deep CNN forImage Denoising[J].arXiv preprint arXiv:1608.03981,2016)中所指出的,该方法可以达到目前最好的去噪水平,但是该网络的参数量巨大,对硬件要求较高。2.一种网络压缩技术,即低秩矩阵分解(Low-Rank Matrix Decomposition,LRD),该技术将权值矩阵分解成两个低秩的矩阵,从而降低了网络需要保存的参数数量。基于这两种技术,本发明构造了一种有效的精简的压缩型去噪卷积神经网络。
1.去噪卷积神经网络(DnCNN)
DnCNN的残差学习策略采用了ResNet中的方式。CNN的残差学习一开始是被提出来解决深度卷积网络(DNN)中的退化问题的,也就是说,随着网络层数的增加,训练的精度(分类问题中)反而会下降。通过假设神经网络中的残差映射比原始映射更加容易学习,残差网络直接为几个堆叠的卷积层学习残差映射。
如图1所示,假设原始映射为H(x),让这些非线性的层学习另外的映射F(x):=H(x)-x,那么就可以间接的得到原始映射。而该假设也被实验证明是正确的。有了这样的一种学习策略,即使是非常深的网络也容易被训练,且能在图像分类和物体检测中提高精度。
DnCNN模型同样采用了残差学习方式。但是与ResNet不同的是,它没有采用许多个小型的残差单元,而是用整个网络来构成一个大的残差单元,以此来预测残差图像(也就是噪声图像)。假设DnCNN的输入是一个有加性噪声的样本y=x+v,DnCNN将会学习到一个函数R(y)≈v,这样就可以恢复原始图像x=y-R(y)。因此,DnCNN是一个用于解决回归问题的网络,其代价函数是残余图像和估计出的噪声图像的均方差:
式(1)中Θ表示网络的参数,这里表示噪声污染过的图像块和原始图像块的集合。如图2示,DnCNN采用堆叠式的全卷积结构。不考虑输入的带噪声图像和输出层,假设一共有D层,那么图2中一共有三种不同的卷积块分布在首、中、尾三个地方。
第一种卷积块是Conv+ReLU构成了第一层,也就是对输入图像卷积,而后使用校正线性单元(ReLU)。第二种也就是中间的2~(D-1)层使用了Conv+BN+ReLU的组合,也就是在卷积层和ReLU之间加了一层Batch Normalization,这是一个比较重要的层,DnCNN极大的受益于残差学习和Batch Normalization的结合。在使用批量的SGD进行网络的学习时,使用Batch Normalization可以减缓训练过程中非线性输入单元的输入分布的变化,从而加快训练的收敛。而最后一种卷积块内仅仅使用卷积层来重建输出层。在DnCNN中深度D被设置为17和20,卷积核大小为3×3×nChannel×nOut,按照原始的17层的网络结构计算,整个网络约有0.56M参数,如果按照单精度浮点数来存储(占4个字节)的话,在训练过程中将会至少存储4.48MB参数,而在测试过程中也将会存储至少2.24MB的参数。尽管DnCNN取得了比较好的去噪结果,但是同传统的去噪方法,例如基于空间域的滤波和基于变换域的滤波去噪相比,它也付出了较多的空间代价。而本发明正好可以解决这种问题。
2.低秩矩阵分解技术
低秩矩阵分解技术(LRD)有多种实现方式,有提倡使用奇异值分解(SVD)的,也有采用矩阵因子分解的,也就是简单来说,假设权值矩阵为其中并且k<<min(m,n)。本发明采用了这种形式,这种形式的LRD分解关键在于矩阵U的构造。本发明将基于核岭回归(kernel ridge regression)的方法做了些简化。核岭回归方法大致如下:
假设wα表示在位置域中的某个子集中的权值向量(例如滤波器的部分系数),是每个像素的坐标集合。引进一个核矩阵Kα来建模在位置(i,j)∈α上的权值协方差,其矩阵元素为(Kα)ij=k(i,j)。在这些位置上的参数表示为(wα)i和(wα)j。核矩阵使得我们能够在图像的所有位置域上对参数向量做出比较光滑的预测,使用如下公式:
其中kα是一个矩阵,元素值(kα)ij=k(i,j),λ是一个正则化系数。
发明内容
为了克服现有技术中存在的不足,本发明提出了一种基于压缩型卷积神经网络的图像去噪方法。所构造的网络不仅可以得到同样好的去噪效果,而且相比于原始的去噪神经网络,它具有更小的网络规模,更少的参数量。
为实现上述目的,本发明采用的技术方案为:
一种基于压缩型卷积神经网络的图像去噪方法,包括:构造训练数据集;构造去噪卷积神经网络模型;利用训练数据集对网络模型进行训练;将有噪声的图像输入到训练好的网络中,并用所述有噪声的图像减去网络的输出图像得到清晰的去噪图像;其中,所述神经网络模型包括若干压缩型卷积层,所述压缩型卷积层将卷积单元的四维的权值参数矩阵重新排列成二维矩阵W,并将该二维矩阵W分解为两个低秩矩阵U和V的乘积,实现权值参数的压缩;二维矩阵W的行数是满足的最大值,且能被nIn·nOut·kw·kh整除;其中nIn表示的输入的通道数,nOut表示输出的通道数,kw表示卷积核的宽度,kh表示卷积核的高度。
作为优选,对二维矩阵W进行低秩矩阵分解时直接构造低秩矩阵U,U的元素uij满足如下区间的均匀分布:
其中,R表示压缩率。
作为优选,训练数据集为被噪声污染过的图像和污染噪声的集合,表示为其中N表示集合大小,yi表示被噪声污染过的图像,vi表示噪声图像,其中噪声图像为指定噪声级别的高斯随机噪声或噪声级别在指定范围内的高斯随机噪声。
本发明中的去噪卷积神经网络的卷积层使用了低秩矩阵分解的压缩技术,使得在取得优秀去噪效果的同时能够大幅压缩网络层数。与现有技术相比,本发明的有益效果是:图像去噪效果优良,即使是将原始网络参数压缩掉75%,去噪后视觉效果与与现有去噪卷积神经网络技术DnCNN相比也无明显差异。同时,该网络对硬件要求大大降低,只需要有4GB显存的显卡即可。
附图说明
图1为残差学习单元示意图。
图2为原始去噪网络DnCNN示意图。
图3为本发明的压缩型去噪卷积神经网络DnCNN结构的示意图;其中
LRDConv表示基于低秩矩阵分解技术压缩过的卷积层。
图4为标准DnCNN-S对于σ=25的高斯噪声去噪效果图;其中从左往右依次为原图、噪声污染图和去噪后效果图,PSNR为30.63。
图5为本发明的压缩型DnCNN-S对于σ=25的高斯噪声去噪效果图;其中(a)压缩比R=1/2,PSNR为30.58(b)压缩比R=1/4,PSNR为30.42(c)压缩比R=1/8,PSNR为30.06(d)压缩比R=1/16,PSNR为29.87(e)压缩比R=1/32,PSNR为29.25;图(a)~(e)中从左往右依次是原图,噪声污染图,去噪后图像。
图6为标准DnCNN-B用于盲去噪的去噪效果图;其中(a)噪声强度为15(b)噪声强度为25(c)噪声强度为50;图(a)~(c)中从左往右依次是原图、加相应噪声的图像、去噪后图像。
图7为本发明的压缩型DnCNN-B(压缩比为1/4)的盲去噪效果图;其中(a)噪声强度为15(b)噪声强度为25(c)噪声强度为50;图(a)~(c)中从左往右依次是原图、加相应噪声的图像、去噪后图像。
具体实施方式
下面对本发明技术方案结合附图和实施例进行详细说明。
如图3所示,本发明实施例公开的一种基于压缩型去噪卷积神经网络的图像去噪方法,主要包括:1、构造训练数据集;2、构造基于低秩矩阵分解的压缩型去噪卷积神经网络模型;3、利用训练数据集对网络模型进行训练;4、训练完毕后用加噪声的图像输入到网络中,输出与原图尺寸一样的噪声图像,然后将被噪声污染过的图像减去该输出图像即可得到去噪后的图像。
所构造的压缩型去噪卷积神经网络对原始的去噪神经网络DnCNN缩减层数。原始的DnCNN有两种用于不同目的的网络,其结构基本一样,一个是用于已知特定强度高斯噪声的图像去噪网络DnCNN-S,有17层;还有一个是20层的DnCNN-B,用于盲去噪。为使得网络能够在4GB的显存空间得以训练,本发明将这两种网络统一缩减为12层,如果网络层数大于12层,那么4GB的显存则不够用,但理论上层数越多,去噪效果会更好些,并采取同样的卷积结构。如果硬件条件允许,则不必采取某个固定的层数,可以调节网络层数,使得去噪后图像清晰即可。
将DnCNN中的每个卷积层Conv层的权值参数都应用低秩矩阵分解技术(LRD)分解为两个低秩的矩阵,从而压缩权值参数,压缩率记为R,矩阵的秩由压缩率控制,而压缩率可以人为的调节。具体来说,将CNN中的四维权值张量折叠成二维矩阵,我们仍用W来表示,W=UV,W的行数是满足的最大值。
在进行LRD分解时,本发明实施例并不采用文献中推荐的一般做法,即使用核岭回归的方法构造U矩阵,考虑到去噪应用的具体特性,本发明令U的元素uij满足如下区间的均匀分布,直接构造低秩矩阵U:
由于U矩阵是固定的,因此训练好的去噪网络可以不用保存U矩阵,待测试时直接在线生成U矩阵即可,采用这种方法后,需要保存的网络参数被进一步的减少。
实验条件:现选取一台计算机进行网络训练,该计算机的配置有Intel(R)处理器(3.2GHz)和32GB随机存取存储器(RAM),Ubuntu 14.04 64位操作系统,NVIDIA GTX 970(4GB)显卡;软件环境为深度学习框架Torch7。
实验对象:训练数据集来自Berkeley segmentation dataset,我们挑选了其中的400幅图像,然后截取了180×180像素的区域。在网络训练时所用的测试数据集同样来自该数据集,但是会与训练数据集严格区分。训练图像中包含了人、自然、城市等许多类型的图片。我们使用标准的测试图像来进行去噪测试。
实验步骤:
我们提出的压缩型去噪卷积神经网络具体构造如表1所示:
表1压缩型去噪卷积神经网络DnCNN的网络结构
(1)训练阶段:
步骤1:构造实验数据集。利用训练图像生成64×2000幅小的40×40的采样图像块,采样间隔为20个像素。这里为了进行高斯去噪,我们还将训练集所采用的图像块加上噪声级别为σ=25的高斯随机噪声,需要说明的是这里可以加上任意强度的噪声,这里的标签就相当于是对应的高斯噪声图像,因此网络的输入为其中yi表示被噪声污染过的小图像块,而vi表示高斯噪声。对于测试集,我们使用了数据集中不同于训练集的部分,选取另外68幅大小不等的自然图像,同样涉及到人与自然还有城市等图片,我们用它来生成大小为40×40的测试集,采样间隔为80个像素,采用与生成训练集一样的方式,一共生成13056幅测试图像对,注意这里的测试集只是为了在训练过程中验证网络的泛化性,防止过拟合,而不是用来实际测量网络去噪效果的。另外,为进行盲去噪,我们又利用400幅训练图像进行采样得到了新的训练集,样例尺寸为50×50,我们随机的将强度为[0,55]之间的高斯噪声加入到训练集,采样了一共192000个训练样例,测试样例数不变。
步骤2:利用Torch7构造新的卷积层,压缩型卷积层LRDConv。这里利用低秩矩阵分解技术,将权值参数矩阵W分解成UV,需要注意的是原始的是一个四维张量,这里将其折叠成二维矩阵,总的是元素个数不变。我们仍用W来表示,W的行数是满足的最大值。为了构造U,令其元素uij满足(2)式。
步骤3:构造网络。按照表1所示的方式堆叠网络的不同层,这里需要注意的是我们只用了12层。这是出于精简网络的考虑,但是如果用更多的层数用来去噪,也是可行的。在训练当中,采用Adam优化方式,初始学习速率设为0.001,batchSize设为64,权值系数采用L2正则化方式,系数设为0.0001,adam的beta1参数设为0.99,beta2参数设为0.999,epsilon设为1e-8,学习率衰减率设为0.001。一共训练30个epoch即可。
(2)测试阶段
步骤1:将训练后得到的网络的最后一层MSE层移走。这样,网络的输出将是和输入一样大小的图像。
步骤2:标准测试图像加上强度为25的高斯噪声得到图像Y,将其输入到步骤1中的网络中,得到输出V,然后用图像Y减去图像V即可得到去噪后的图像X。对于特定强度的噪声去噪,其效果如图5所示。对于盲去噪效果,其效果如图7所示。
对比图4和图5,图6和图7可知本发明的有效性,而且与原始的去噪卷积神经网络DnCNN相比,较少了至少75%的参数。
以上所述仅是本发明的优选实施方式,应当指出:对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (2)

1.一种基于压缩型卷积神经网络的图像去噪方法,包括:构造训练数据集;构造去噪卷积神经网络模型;利用训练数据集对网络模型进行训练;将有噪声的图像输入到训练好的网络中,并用所述有噪声的图像减去网络的输出图像得到清晰的去噪图像;其特征在于:
所述神经网络模型包括若干压缩型卷积层,所述压缩型卷积层将卷积单元的四维的权值参数矩阵重新排列成二维矩阵W,并将该二维矩阵W分解为两个低秩矩阵U和V的乘积,实现权值参数的压缩;二维矩阵W的行数Row满足:的最大值,且能被nIn·nOut·kw·kh整除;其中nIn表示的输入的通道数,nOut表示输出的通道数,kw表示卷积核的宽度,kh表示卷积核的高度;
对二维矩阵W进行低秩矩阵分解时直接构造U矩阵,即使得U的元素uij满足如下区间的均匀分布:
其中,R表示压缩率。
2.根据权利要求1所述的一种基于压缩型卷积神经网络的图像去噪方法,其特征在于,训练数据集为被噪声污染过的图像和污染噪声的集合,表示为其中N表示集合大小,yi表示被噪声污染过的图像,vi表示噪声图像,其中噪声图像为指定噪声级别的高斯随机噪声或噪声级别在指定范围内的高斯随机噪声。
CN201710286383.7A 2017-04-27 2017-04-27 一种基于压缩型卷积神经网络的图像去噪方法 Active CN107248144B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710286383.7A CN107248144B (zh) 2017-04-27 2017-04-27 一种基于压缩型卷积神经网络的图像去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710286383.7A CN107248144B (zh) 2017-04-27 2017-04-27 一种基于压缩型卷积神经网络的图像去噪方法

Publications (2)

Publication Number Publication Date
CN107248144A CN107248144A (zh) 2017-10-13
CN107248144B true CN107248144B (zh) 2019-12-10

Family

ID=60016523

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710286383.7A Active CN107248144B (zh) 2017-04-27 2017-04-27 一种基于压缩型卷积神经网络的图像去噪方法

Country Status (1)

Country Link
CN (1) CN107248144B (zh)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109074633B (zh) * 2017-10-18 2020-05-12 深圳市大疆创新科技有限公司 视频处理方法、设备、无人机及计算机可读存储介质
CN107895145A (zh) * 2017-10-31 2018-04-10 南京信息工程大学 基于卷积神经网络结合超高斯去噪估测手指受力的方法
CN109754077B (zh) * 2017-11-08 2022-05-06 杭州海康威视数字技术股份有限公司 深度神经网络的网络模型压缩方法、装置及计算机设备
CN107798667A (zh) * 2017-11-23 2018-03-13 中电科新型智慧城市研究院有限公司 基于残差学习的人脸增强方法
CN109978772B (zh) * 2017-12-27 2023-04-11 四川大学 基于深度学习与双域互补的压缩图像复原方法
CN108830809B (zh) * 2018-06-05 2022-05-03 陕西师范大学 一种基于膨胀卷积图像去噪方法
CN108986047B (zh) * 2018-07-13 2022-03-01 中国科学技术大学 图像降噪方法
CN110770756A (zh) * 2018-09-28 2020-02-07 深圳市大疆创新科技有限公司 数据处理方法、设备以及无人机
CN109658344B (zh) * 2018-11-12 2022-10-25 哈尔滨工业大学(深圳) 基于深度学习的图像去噪方法、装置、设备和存储介质
CN109727211A (zh) * 2018-12-21 2019-05-07 厦门美图之家科技有限公司 一种图像去噪方法、装置、计算设备及介质
CN109685743B (zh) * 2018-12-30 2023-01-17 陕西师范大学 基于噪声学习神经网络模型的图像混合噪声消除方法
CN109782339A (zh) * 2019-01-14 2019-05-21 西安交通大学 一种基于3D-DnCNN网络的叠后三维地震资料随机噪声压制方法
CN110197183B (zh) * 2019-04-17 2022-10-04 深圳大学 一种图像盲去噪的方法、装置、计算机设备和存储介质
CN110033419A (zh) * 2019-04-17 2019-07-19 山东超越数控电子股份有限公司 一种适应于舰基图像去雾的处理方法
CN110068462A (zh) * 2019-05-14 2019-07-30 北京科技大学 一种电机轴承故障诊断方法及装置
CN110349103A (zh) * 2019-07-01 2019-10-18 昆明理工大学 一种基于深度神经网络和跳跃连接的无干净标签图像去噪方法
CN111563846B (zh) * 2019-10-23 2021-10-26 哈尔滨理工大学 一种基于压缩神经网络的图像去噪方法
CN111242929A (zh) * 2020-01-13 2020-06-05 中国科学技术大学 一种胎儿头骨形状参数测量方法、系统、设备和介质
CN111738932A (zh) * 2020-05-13 2020-10-02 合肥师范学院 一种车载摄像头拍照图像自动去雨方法
CN112634175A (zh) * 2021-01-05 2021-04-09 西南石油大学 基于双重卷积网络的手机拍摄图像去噪方法
CN114114397B (zh) * 2021-11-12 2023-04-18 电子科技大学 一种基于深度张量神经网络的无监督地震数据去噪方法
CN115330643B (zh) * 2022-10-13 2022-12-30 中国石油大学(华东) 基于卷积神经网络和视觉变换神经网络的地震去噪方法
CN116843582B (zh) * 2023-08-31 2023-11-03 南京诺源医疗器械有限公司 基于深度学习的2cmos相机的去噪增强系统及方法
CN117376170B (zh) * 2023-12-06 2024-03-08 广州思涵信息科技有限公司 用于窄带网络的大并行ai分析方法、系统和计算机介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158443A (zh) * 2010-11-19 2011-08-17 重庆邮电大学 一种抑制多分量lfm信号时频分布中交叉项的方法
WO2016010922A1 (en) * 2014-07-16 2016-01-21 Qualcomm Incorporated Decomposing convolution operation in neural networks
CN106326985A (zh) * 2016-08-18 2017-01-11 北京旷视科技有限公司 神经网络训练方法和装置及数据处理方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102276339B1 (ko) * 2014-12-09 2021-07-12 삼성전자주식회사 Cnn의 근사화를 위한 학습 장치 및 방법
CN105681628B (zh) * 2016-01-05 2018-12-07 西安交通大学 一种卷积网络运算单元及可重构卷积神经网络处理器和实现图像去噪处理的方法
CN106127297B (zh) * 2016-06-02 2019-07-12 中国科学院自动化研究所 基于张量分解的深度卷积神经网络的加速与压缩方法
CN106204468B (zh) * 2016-06-27 2019-04-26 深圳市未来媒体技术研究院 一种基于ReLU卷积神经网络的图像去噪方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102158443A (zh) * 2010-11-19 2011-08-17 重庆邮电大学 一种抑制多分量lfm信号时频分布中交叉项的方法
WO2016010922A1 (en) * 2014-07-16 2016-01-21 Qualcomm Incorporated Decomposing convolution operation in neural networks
CN106326985A (zh) * 2016-08-18 2017-01-11 北京旷视科技有限公司 神经网络训练方法和装置及数据处理方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Low-rank matrix factorization for Deep Neural Network training with high-dimensional output targets;Sainath T N 等;《2013 IEEE International Conference on Acoustics, Speech and Signal Processing》;20131021;第1-13页 *
Speeding up Convolutional Neural Networks with Low Rank Expansions;Max Jaderberg 等;《arXiv Perprint arXiv》;20140515;第6655-6659页 *
压缩感知理论的研究与应用;李洁;《中国优秀硕士学位论文全文数据库-信息科技辑》;20150315(第3期);第I136-84页 *
基于分裂基-2/(2a)FFT算法的卷积神经网络加速性能的研究;伍家松 等;《电子与信息学报》;20170228;第39卷(第2期);第285-292页 *

Also Published As

Publication number Publication date
CN107248144A (zh) 2017-10-13

Similar Documents

Publication Publication Date Title
CN107248144B (zh) 一种基于压缩型卷积神经网络的图像去噪方法
Liu et al. Image restoration using total variation with overlapping group sparsity
KR101664913B1 (ko) 영상의 멀티레벨 분해를 이용하여 영상에 대한 품질 측정을 결정하는 방법 및 시스템
CN111369487B (zh) 一种高光谱和多光谱图像融合方法、系统及介质
Zhang et al. Joint image denoising using adaptive principal component analysis and self-similarity
CN108932705B (zh) 一种基于矩阵变量变分自编码器的图像处理方法
CN108876884B (zh) 一种基于非局部的张量低秩正则化的高光谱图像重建方法
Wang et al. Adaptive dictionary learning for blind seismic data denoising
CN105144232A (zh) 图像去噪方法和系统
CN102542542A (zh) 基于非局部稀疏模型的图像去噪方法
Noor et al. Median filters combined with denoising convolutional neural network for Gaussian and impulse noises
CN112581378B (zh) 基于显著性强度和梯度先验的图像盲去模糊方法和装置
Shi et al. Deep prior-based sparse representation model for diffraction imaging: A plug-and-play method
Yang et al. Compressive sampling based single-image super-resolution reconstruction by dual-sparsity and non-local similarity regularizer
Sun et al. Compressive superresolution imaging based on local and nonlocal regularizations
CN109741258B (zh) 基于重建的图像超分辨率方法
Wang et al. Hyperspectral unmixing via plug-and-play priors
CN106934398A (zh) 基于超像素聚类和稀疏表示的图像去噪方法
CN112270650B (zh) 基于稀疏自编码器的图像处理方法、系统、介质、设备
Yuan et al. Compressive sensing via low-rank Gaussian mixture models
CN109446473A (zh) 基于分块的稳健张量主成分分析方法
Taşmaz et al. Image enhancement via space-adaptive lifting scheme exploiting subband dependency
CN116485743A (zh) 一种无参考图像质量评价方法、系统、电子设备及存储介质
Shivagunde et al. Single image super-resolution based on modified interpolation method using MLP and DWT
CN113160069B (zh) 一种基于图信号的高光谱图像去噪方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant