CN106204467B - 一种基于级联残差神经网络的图像去噪方法 - Google Patents

一种基于级联残差神经网络的图像去噪方法 Download PDF

Info

Publication number
CN106204467B
CN106204467B CN201610481440.2A CN201610481440A CN106204467B CN 106204467 B CN106204467 B CN 106204467B CN 201610481440 A CN201610481440 A CN 201610481440A CN 106204467 B CN106204467 B CN 106204467B
Authority
CN
China
Prior art keywords
image
neural network
network model
noise
cascade
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610481440.2A
Other languages
English (en)
Other versions
CN106204467A (zh
Inventor
张永兵
孙露露
王好谦
王兴政
李莉华
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Weilai Media Technology Research Institute
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Weilai Media Technology Research Institute, Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Weilai Media Technology Research Institute
Priority to CN201610481440.2A priority Critical patent/CN106204467B/zh
Publication of CN106204467A publication Critical patent/CN106204467A/zh
Application granted granted Critical
Publication of CN106204467B publication Critical patent/CN106204467B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于级联残差神经网络的图像去噪方法,包括以下步骤:搭建级联残差神经网络模型,所述级联残差神经网络模型由多个残差单元串联而成,其中每个所述残差单元包括多个卷积层、每个所述卷积层后的激活层和单位跳跃连接单元;选取训练集,并设置所述级联残差神经网络模型的训练参数;根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。本发明公开的基于级联残差神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。

Description

一种基于级联残差神经网络的图像去噪方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,尤其涉及一种基于级联残差神经网络的图像去噪方法。
背景技术
图像去噪,是计算机视觉和图像处理的一个经典且根本的问题,是解决很多相关问题的预处理必备过程,它的目的是从有噪声的图像y中恢复潜在的干净的图像x,该过程可表示为:y=x+n,其中,n通常被认为是加性高斯白噪声(Additive White Gaussian,AWG),这是一个典型的病态的线性的逆问题。为了解决这个问题,早期的很多方法都是通过局部滤波来解决的,譬如高斯滤波、中值滤波、双边滤波等,这些局部滤波方法既没有在全局范围内滤波,也没有考虑到自然图像块与块之间的联系性,因此获得的去噪效果不尽人意。
随着非局部自相似(Nonlocal Self-Similarity,NSS)概念的提出,更多的有效的去噪方法被提出。其中最早且最有影响力的方法是非局部均值(Nonlocal Means,NLM)去噪算法,它的主要思想是在一个全局范围内滑动的搜索框里寻找NSS块,通过欧氏距离来估计块与块之间的相关性,并用权重来表示,则图像块的每个像素值通过权重平均来计算。之后,将NSS引入变换域中,诞生了另外一个重要的方法叫三维块匹配(Block-matching and3D filtering,BM3D)算法,先是建立一个3D的立方的NSS图像块,然后在稀疏的3D变换域中对图像块进行协同滤波。除了利用噪声图像的NSS图像块,另外一种有效的方法是利用干净图像的NSS图像块;其中代表性的方法有基于图像块组先验的去噪算法(Patch GroupPrior based Denoising,PGPD),它是利用从干净图像中得出的基于图像块组的高斯混合模型(Patch Group based Gaussian Mixture Model,PG-GMM)来近似拟合噪声图像的结构,进而进行去噪处理。然而,这些方法并没有同时充分利用噪声图像和干净图像的NSS图像块,导致得到的模型不精确;另外这些方法的去噪过程需要大量的时间,而且对图像的噪声和分辨率不具备鲁棒性,缺少实际应用价值。
发明内容
为解决上述技术问题,本发明公开了一种基于级联残差神经网络的图像去噪方法,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。
为实现上述目的,本发明采用以下技术方案:
本发明公开了一种基于级联残差神经网络的图像去噪方法,包括以下步骤:
S1:搭建级联残差神经网络模型,所述级联残差神经网络模型由多个残差单元串联而成,其中每个所述残差单元包括多个卷积层、每个所述卷积层后的激活层和单位跳跃连接单元;
S2:选取训练集,并设置所述级联残差神经网络模型的训练参数;
S3:根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;
S4:将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像。
优选地,所述激活层为ReLU函数。
优选地,每个所述残差单元中的所述多个卷积层包括多个卷积核大于1×1的卷积层和一个卷积核为1×1的卷积层。
优选地,所述级联残差神经网络模型由三个残差单元串联而成,每个所述残差单元中的所述多个卷积层由9个卷积核大小为3×3的卷积层和一个卷积核为1×1的卷积层组成。
优选地,所述训练集包括多张噪声图像和相应的干净图像,步骤S2还包括:将所述噪声图像和所述干净图像分别分割成多个噪声图像块和多个干净图像块,其中所述噪声图像块和所述干净图像块的数量和大小都相同;优选地,将所述噪声图像分割成50×50的噪声图像块,将所述干净图像分割成50×50的干净图像块。
优选地,步骤S3中的损失函数L(θ)为均方误差函数加上L2范数正则项:
Figure BDA0001031784180000021
其中,Xi、Yi分别为选取的所述训练集中的图像的噪声图像块和干净图像块,θ表示权重,n表示图像块的个数,λ表示正则系数,F函数表示训练出的噪声图像到干净图像的映射;优选地,正则系数λ=0.1。
优选地,步骤S3中在训练所述级联残差神经网络模型过程中,所述级联残差神经网络模型的权重θ的初始化采用Xavier方法:
Figure BDA0001031784180000031
其中,nin为输入神经元的个数,nout为输出神经元的个数;最小化损失函数采用Adam优化方法。
优选地,步骤S3中的所述图像去噪神经网络模型是根据最小化损失函数获得的卷积层的权重来建立的。
优选地,步骤S3中在训练所述级联残差神经网络模型过程中,在每个所述残差单元的最后还引入dropout正则项。
优选地,步骤S2中所述训练集中选取包含多种噪声方差的多张图像,步骤S3中对多种噪声方差的多张图像分别训练所述级联残差神经网络模型形成多种对应的噪声方差下的所述图像去噪神经网络模型,步骤S4中将待处理的图像输入到相应的噪声方差下的所述图像去噪神经网络模型,输出去噪后的图像。
与现有技术相比,本发明的有益效果在于:本发明的基于级联残差神经网络的图像去噪方法,在级联残差神经网络模型的每个残差单元中引入卷积层、激活层和单位跳跃连接单元,在借助卷积层的学习能力和激活层的筛选能力获取好的特征的基础上,通过单位跳跃连接单元直接将输入和输出连接起来,保留更多输入图像的细节信息,增强神经网络模型对特征的提取,增加神经网络模型训练过程的收敛速度;从而极大地增强神经网络模型的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪;将图像去噪过程分为模型训练过程和去噪过程,能够显著提高图像去噪的峰值信噪比(PSNR)和视觉效果,减少去噪时间,应用在图像处理方面的预处理过程和独立的图像去噪领域,能有效地提升图像去噪的效率和质量。
在进一步的方案中,本发明还可以具有以下有益效果:
本发明搭建的级联残差神经网络模型中残差单元中的每个卷积层后的激活层选用ReLU函数,ReLU函数可以将小于0的神经元去掉,从而筛选出有效的特征,进而有效避免梯度爆炸的问题。
本发明搭建的级联残差神经网络模型中的残差单元中的多个卷积层选用合适大小的卷积核,使得不需要引入池化层就能够便于训练并有足够的能力获得很好的去噪效果,从而避免因为引入池化层使得参数减少而导致的模型不精确、效果变差等问题。
本发明中在训练级联残差神经网络模型时,以最小化损失函数为目标,其中损失函数选为均方差误差函数加上L2范数正则项,不断最小化损失函数就可以获得高的PSNR值,同时通过在损失函数中加上L2范数正则项可以有效减少训练过程中的过拟合现象,加快模型的收敛速度。
本发明中的级联残差神经网络模型中,在每个残差单元的最后还引入dropout正则项,使得在训练级联残差神经网络模型的过程中,开始时随机和暂时删除部分神经元,到下一层dropout正则项再恢复之前删除的神经元,重新随机和暂时删除部分神经元,通过这些操作,可以极大地降低神经网络模型的复杂度,提高神经网络模型的训练的效率。
本发明针对多种不同的噪声方差训练级联残差神经网络模型形成对应的噪声方差下的图像去噪神经网络模型,并通过与待处理的图像相对应的噪声方差下的图像去噪神经网络模型对待处理的图像进行去噪,去噪速度快。
附图说明
图1是本发明优选实施例的基于级联残差神经网络的图像去噪方法的流程图;
图2是本发明优选实施例的级联残差神经网络模型的内部构造示意图。
具体实施方式
下面对照附图并结合优选的实施方式对本发明作进一步说明。
本发明的基于级联残差神经网络的图像去噪方法,引入卷积层、激活层和单位跳跃连接单元,在借助卷积层的学习能力和激活层的筛选能力获取好的特征的基础上,通过单位跳跃连接单元直接将输入和输出连接起来,保留更多输入图像的细节信息,增强神经网络模型对特征的提取,增加神经网络模型训练过程的收敛速度;从而极大地增强神经网络的学习能力,准确地学习出从噪声图像到干净图像的映射以建立起输入到输出的映射,最终通过学习到的映射进行干净图像的预测和估计。
如图1所示,本发明的优选实施例的基于级联残差神经网络的图像去噪方法,包括以下步骤:
S1:搭建级联残差神经网络模型,级联残差神经网络模型由多个残差单元串联而成,其中每个残差单元包括多个卷积层、每个卷积层后的激活层和单位跳跃连接单元;
如图2所示,本发明优选实施例的级联残差神经网络模型由三个残差单元串联而成,每个残差单元中的多个卷积层包括多个卷积核大于1×1的卷积层、一个卷积核为1×1的卷积层;在本实施例中,每个残差单元由10层卷积层、每层卷积层后对应的激活层和单位跳跃连接单元(shortcut)组成,其中10层卷积层中的前9层卷积层的卷积核大小为3×3,最后一层的卷积核的大小为1×1。卷积核大小为3×3的卷积层有很好的提取特征的效果,参数不多使得计算量不大,方便实现;卷积核大小为1×1的卷积层在网络的最后可以增强提取的有效特征,从而增加网络的训练参数能力。其中,本实施例中每个卷积层后的激活层选用ReLU函数,ReLU函数能够将非正元素置零,在保留有效神经元方面具有很好的效果,进而有效避免梯度爆炸的问题。另外,每个残差单元中单位跳跃连接单元(shortcut)的引入直接将输入和输出连接起来,从而保留更多输入图像的细节信息,增强神经网络模型对特征的提取,增加神经网络模型训练过程的收敛速度。
通过本发明优选实施例中建立的级联残差神经网络模型中残差单元中选取的卷积层的层数和卷积核大小,在保证神经网络的能力的基础上,避免了在训练过程中出现梯度爆炸、过拟合和计算复杂度等问题;使得在训练本发明优选实施例中的级联残差神经网络模型时,不需引入池化层,就能够便于训练并有足够的能力获得很好的去噪效果,从而避免因为引入池化层使得参数减少而导致的模型不精确、效果变差等问题。
S2:选取训练集,并设置级联残差神经网络模型的训练参数;
本发明优选实施例中选取LabelMe(公共的数据集)的17000张图像作为训练集,每张图像分别有对应的噪声图像和干净图像。然后设置级联残差神经网络模型的训练参数,包括每次输入模型训练的图像块数量、输入图像块和输出图像块的大小、图像深度、学习速率等。为增大数据集,将训练集中的噪声图像和干净图像分别分割成同一分辨率的图像块;并设置padding为“SAME”(即通过插值作用,图像的大小不会根据卷积核的大小减小,即输入和输出大小一致),故本发明中将噪声图像和干净图像分别分割成的噪声图像块和干净图像块,其中噪声图像块和干净图像块的数量和大小都相同,增大数据集可以有效地避免训练过程中的过拟合现象。在本实施例中,将训练集中的噪声图像分割成50×50的噪声图像块,将干净图像分割成50×50的干净图像块,使得在训练模型时能够更好地捕捉图像的结构信息和细节信息;每次输入模型训练的图像块的数量为128(在其他实施例中,还可以取100~200中的任意值);由于针对的是灰度图的去噪,图像深度设为1;学习速率设为0.001(在其他实施例中,还可以取0.1~0.001中的任意值),每次训练时的衰减速率设为0.9(在其他实施例中,还可以取0.1~0.9中的任意值);每训练500次进行一次测试,观察目前模型的效果以更改模型的相关参数,当迭代大约10000次左右时,学习速率降为0。其中,在选取训练集的同时还可以选取测试集,测试集中可以选择去噪领域常用的10张图像,测试集中的每张图像也同样包含噪声图像和对应的干净图像,在对级联残差神经网络模型进行训练的过程中,可以采用测试集中的图像来对目前模型的效果进行观察。
S3:根据级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练级联残差神经网络模型形成图像去噪神经网络模型;
其中损失函数L(θ)选为均方误差函数(MSE)加上L2范数正则项:
Figure BDA0001031784180000061
其中,Xi、Yi分别为选取的所述训练集中的图像的噪声图像块和干净图像块,θ表示权重;n表示图像块的个数;λ表示正则系数,本实施例中将λ设为0.1;F函数表示训练出的噪声图像到干净图像的映射;
由于峰值信噪比(PSNR)公式为:
Figure BDA0001031784180000071
其中,MAX通常是图像的灰度级,一般取255,由上式可以看出,不断最小化损失函数就可以获得高的峰值信噪比(PSNR)值,即图像的质量越高。本实施例中,在损失函数中加上L2范数正则项可以有效减少在训练级联残差神经网络模型过程中的过拟合现象,加快模型的收敛速度。
在本实施例中,最小化损失函数采用Adam优化方法,其中Adam优化方法计算方式是,每时间步长迭代一次,计算一次平均梯度和平均梯度的平方根的衰减量(第一和第二动量估计),第一动量会随着时间不短衰减,由于第一和第二动量的初始值为0,则导致一些权重系数变为0;因此能够有效避免优化过程进入局部最优解,并且加快优化速度,来获得全局最优解。
在本实施例中,级联残差神经网络模型的权重θ的初始化采用Xavier方法:
Figure BDA0001031784180000072
其中,nin为输入神经元的个数,nout为输出神经元的个数,权重θ初始化服从0均值和特定方差的分布;另外在每个残差单元的最后还引入dropout正则项,dropout正则项不像L2范数正则项对目标函数进行操作,而是直接改变神经网络模型的结构,在训练神经网络模型的过程中,开始时随机和暂时删掉部分神经元,到下一层dropout正则项再恢复之前删掉的神经元,重新随机和暂时删掉部分神经元,通过这些操作,可以极大降低神经网络模型的复杂度,提高神经网络模型的训练的效率。
根据最小化损失函数获得卷积层的权重,建立有效的图像去噪神经网络模型,该模型去噪速度快,对不同噪声方差下的图像去噪都有很强的鲁棒性,获得PSNR和视觉效果都很好。
S4:将待处理的图像输入到图像去噪神经网络模型,输出去噪后的图像。
在步骤S2中的训练集中可以选取包含多种噪声方差的多张图像,步骤S3中对多种噪声方差的多张图像分别训练级联残差神经网络模型形成多种对应的噪声方差下的图像去噪神经网络模型。步骤S4中将待处理的图像输入到与该图像相应的噪声方差下的图像去噪神经网络模型,即可预测出对应的干净图像,输出去噪后的图像。
在一个实例中,待处理的有噪声的图像的大小为768×512,输出预测的干净图像的大小也为768×512,其中输出的图像相比输入的图像质量提高了很多。
在另一个实例中,在噪声方差为30的情况下,一张321×481的噪声图像的PSNR为18.59,经过图像去噪神经网络模型映射后,去噪后的干净图像的PSNR为31.11,极大地提高了图像的质量,视觉效果也令人满意。
根据本发明的图像去噪方法,可以提前训练好各种噪声方差下的图像去噪神经网络模型,图像去噪神经网络模型即是端对端直接由输入噪声图像到输出干净图像的映射,通过图像去噪神经网络模型对图像进行去噪的速度极快,不到0.8秒就获得干净图像,有很强的实用价值,在需要实时去噪的场合将会有广泛的应用。除了速度快、去噪效果好等优点,本发明还有很强的鲁棒性,针对不同的噪声水平和分辨率,去噪的时间和效果基本上没有变化。因此,本发明提供的级联残差神经网络图像去噪方法的去噪效果好、速度快、鲁棒性强,有很强的实用性和实时性,市场前景广阔,尤其是对实时性要求很好的场合。
本发明优选实施例的基于级联残差神经网络的图像去噪方法,在级联残差神经网络模型的每个残差单元中引入卷积层、激活层和单位跳跃连接单元,极大地增强神经网络的学习能力,建立起噪声图像到干净图像的准确映射,可以实现实时去噪。卷积核大小为3×3的卷积层对于图像处理的效果很好,该大小的卷积核引入的参数不会很多,因此计算量不会很大,但是却能够提取到好的特征;卷积核大小为1×1的卷积层实际上就是一个线性变换层,能够增强好的特征在网络中的作用。除了卷积层的引入,本发明还在每个卷积层后面增加了以ReLU函数为激活函数的隐藏层,该激活函数可以将小于0的神经元去掉,从而筛选出有效的特征。另外本发明还通过单位跳跃连接单元的引入,直接将输入和输出连接起来,保留更多输入图像的细节信息,增强神经网络模型对特征的提取,增加神经网络模型训练过程的收敛速度。搭建起需要学习的级联残差神经网络模型后,通过不断减小损失函数的数值来训练网络模型的参数,损失函数选用均方误差函数加上L2范数正则项,通过减小均方误差增大PSNR,从而提高图像的质量。对于不同的高斯噪声方差,训练级联残差神经网络模型形成对应的图像去噪神经网络模型以构造噪声图像到干净图像的映射;在训练级联残差神经网络模型的过程中,引入了Xavier初始化方法、dropout正则项和Adam优化等技巧,使得级联残差神经网络模型收敛速度快、精度高,极大地提高了训练级联残差神经网络模型的效率和效果;最终通过建立的有效映射对相应的噪声方差下的图像进行去噪处理,可以获得接近干净的图像。
以上内容是结合具体的优选实施方式对本发明所作的进一步详细说明,不能认定本发明的具体实施只局限于这些说明。对于本发明所属技术领域的技术人员来说,在不脱离本发明构思的前提下,还可以做出若干等同替代或明显变型,而且性能或用途相同,都应当视为属于本发明的保护范围。

Claims (8)

1.一种基于级联残差神经网络的图像去噪方法,其特征在于,包括以下步骤:
S1:搭建级联残差神经网络模型,所述级联残差神经网络模型由三个残差单元串联而成,其中每个所述残差单元包括10层卷积层、每个所述卷积层后的激活层和单位跳跃连接单元,该10层卷积层中前9层卷积层的卷积核大小为3×3,最后一层的卷积核的大小为1×1,所述激活层为ReLU函数,所述单位跳跃连接单元用于直接将输入和输出连接起来;
S2:选取训练集,并设置所述级联残差神经网络模型的训练参数;
S3:根据所述级联残差神经网络模型及其训练参数,以最小化损失函数为目标训练所述级联残差神经网络模型形成图像去噪神经网络模型;
S4:将待处理的图像输入到所述图像去噪神经网络模型,输出去噪后的图像;
步骤S2中所述训练集包括多张噪声图像和相应的干净图像,将所述噪声图像和所述干净图像分别分割成多个噪声图像块和多个干净图像块,其中所述噪声图像块和所述干净图像块的数量和大小都相同。
2.根据权利要求1所述的图像去噪方法,其特征在于,步骤S2中将所述噪声图像分割成50×50的噪声图像块,将所述干净图像分割成50×50的干净图像块。
3.根据权利要求1所述的图像去噪方法,其特征在于,步骤S3中的损失函数L(θ)为均方误差函数加上L2范数正则项:
Figure FDA0003040509690000011
其中,Xi、Yi分别为选取的所述训练集中的图像的噪声图像块和干净图像块,θ表示权重,n表示图像块的个数,λ表示正则系数,F函数表示训练出的噪声图像到干净图像的映射。
4.根据权利要求3的图像去噪方法,其特征在于,所述正则系数λ=0.1。
5.根据权利要求3所述的图像去噪方法,其特征在于,步骤S3中在训练所述级联残差神经网络模型过程中,所述级联残差神经网络模型的权重θ的初始化采用Xavier方法:
Figure FDA0003040509690000021
其中,nin为输入神经元的个数,nout为输出神经元的个数;最小化损失函数采用Adam优化方法。
6.根据权利要求5所述的图像去噪方法,其特征在于,步骤S3中的所述图像去噪神经网络模型是根据最小化损失函数获得的卷积层的权重来建立的。
7.根据权利要求1所述的图像去噪方法,其特征在于,步骤S3中在训练所述级联残差神经网络模型过程中,在每个所述残差单元的最后还引入dropout正则项。
8.根据权利要求1所述的图像去噪方法,其特征在于,步骤S2中所述训练集中选取包含多种噪声方差的多张图像,步骤S3中对多种噪声方差的多张图像分别训练所述级联残差神经网络模型形成多种对应的噪声方差下的所述图像去噪神经网络模型,步骤S4中将待处理的图像输入到相应的噪声方差下的所述图像去噪神经网络模型,输出去噪后的图像。
CN201610481440.2A 2016-06-27 2016-06-27 一种基于级联残差神经网络的图像去噪方法 Active CN106204467B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610481440.2A CN106204467B (zh) 2016-06-27 2016-06-27 一种基于级联残差神经网络的图像去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610481440.2A CN106204467B (zh) 2016-06-27 2016-06-27 一种基于级联残差神经网络的图像去噪方法

Publications (2)

Publication Number Publication Date
CN106204467A CN106204467A (zh) 2016-12-07
CN106204467B true CN106204467B (zh) 2021-07-09

Family

ID=57461960

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610481440.2A Active CN106204467B (zh) 2016-06-27 2016-06-27 一种基于级联残差神经网络的图像去噪方法

Country Status (1)

Country Link
CN (1) CN106204467B (zh)

Families Citing this family (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651877B (zh) * 2016-12-20 2020-06-02 北京旷视科技有限公司 实例分割方法及装置
CN108230232B (zh) * 2016-12-21 2021-02-09 腾讯科技(深圳)有限公司 一种图像处理的方法以及相关装置
CN108205802A (zh) * 2016-12-23 2018-06-26 北京市商汤科技开发有限公司 深度神经网络模型训练、图片处理方法及装置和设备
US10803378B2 (en) * 2017-03-15 2020-10-13 Samsung Electronics Co., Ltd System and method for designing efficient super resolution deep convolutional neural networks by cascade network training, cascade network trimming, and dilated convolutions
WO2018200493A1 (en) * 2017-04-25 2018-11-01 The Board Of Trustees Of The Leland Stanford Junior University Dose reduction for medical imaging using deep convolutional neural networks
CN107169927B (zh) * 2017-05-08 2020-03-24 京东方科技集团股份有限公司 一种图像处理系统、方法及显示装置
CN108229525B (zh) * 2017-05-31 2021-12-28 商汤集团有限公司 神经网络训练及图像处理方法、装置、电子设备和存储介质
CN107292875A (zh) * 2017-06-29 2017-10-24 西安建筑科技大学 一种基于全局‑局部特征融合的显著性检测方法
CN107330480B (zh) * 2017-07-03 2020-10-13 贵州大学 手写字符计算机识别方法
CN107564007B (zh) * 2017-08-02 2020-09-11 中国科学院计算技术研究所 融合全局信息的场景分割修正方法与系统
CN107507141A (zh) * 2017-08-07 2017-12-22 清华大学深圳研究生院 一种基于自适应残差神经网络的图像复原方法
CN107689034B (zh) * 2017-08-16 2020-12-01 清华-伯克利深圳学院筹备办公室 一种去噪方法及装置
WO2019075669A1 (zh) * 2017-10-18 2019-04-25 深圳市大疆创新科技有限公司 视频处理方法、设备、无人机及计算机可读存储介质
CN107798667A (zh) * 2017-11-23 2018-03-13 中电科新型智慧城市研究院有限公司 基于残差学习的人脸增强方法
CN107729885B (zh) * 2017-11-23 2020-12-29 中电科新型智慧城市研究院有限公司 一种基于多重残差学习的人脸增强方法
US10762620B2 (en) 2017-11-27 2020-09-01 Nvidia Corporation Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene
US11270161B2 (en) 2017-11-27 2022-03-08 Nvidia Corporation Deep-learning method for separating reflection and transmission images visible at a semi-reflective surface in a computer image of a real-world scene
EP3493120A1 (en) * 2017-12-01 2019-06-05 Koninklijke Philips N.V. Training a neural network model
CN108460329B (zh) * 2018-01-15 2022-02-11 任俊芬 一种基于深度学习检测的人脸手势配合验证方法
CN108492258B (zh) * 2018-01-17 2021-12-07 天津大学 一种基于生成对抗网络的雷达图像去噪方法
CN108280811B (zh) * 2018-01-23 2021-07-06 哈尔滨工业大学深圳研究生院 一种基于神经网络的图像去噪方法和系统
CN108550118B (zh) * 2018-03-22 2022-02-22 深圳大学 运动模糊图像的模糊处理方法、装置、设备及存储介质
CN108629746B (zh) * 2018-04-24 2022-02-15 华中科技大学 一种基于相关损失卷积神经网络的雷达图像斑噪抑制方法
CN108537759A (zh) * 2018-04-26 2018-09-14 北京小米移动软件有限公司 信息处理方法及设备
CN108764317B (zh) * 2018-05-21 2021-11-23 浙江工业大学 一种基于多路特征加权的残差卷积神经网络图像分类方法
CN108876737B (zh) * 2018-06-06 2021-08-03 武汉大学 一种联合残差学习和结构相似度的图像去噪方法
CN110619607B (zh) * 2018-06-20 2022-04-15 浙江大学 图像去噪和包含图像去噪的图像编解码方法及装置
CN109087255B (zh) * 2018-07-18 2022-03-08 中国人民解放军陆军工程大学 一种基于混合损失的轻量级深度图像去噪方法
CN109035146B (zh) * 2018-08-09 2022-12-20 复旦大学 一种基于深度学习的低质量图像超分方法
CN108897045A (zh) * 2018-08-28 2018-11-27 中国石油天然气股份有限公司 深度学习模型训练方法和地震数据去噪方法、装置及设备
CN109447907B (zh) * 2018-09-20 2020-06-16 宁波大学 一种基于全卷积神经网络的单图像增强方法
WO2020072205A1 (en) * 2018-10-01 2020-04-09 Google Llc Systems and methods for providing a machine-learned model with adjustable computational demand
CN109447897B (zh) * 2018-10-24 2023-04-07 文创智慧科技(武汉)有限公司 一种真实场景图像合成方法及系统
CN109671026B (zh) * 2018-11-28 2020-09-29 浙江大学 基于空洞卷积及自动编解码神经网络的灰度图像降噪方法
CN109685743B (zh) * 2018-12-30 2023-01-17 陕西师范大学 基于噪声学习神经网络模型的图像混合噪声消除方法
CN109859141B (zh) * 2019-02-18 2022-05-27 安徽理工大学 一种深立井井壁图像去噪方法
CN109978764B (zh) * 2019-03-11 2021-03-02 厦门美图之家科技有限公司 一种图像处理方法及计算设备
CN110197183B (zh) * 2019-04-17 2022-10-04 深圳大学 一种图像盲去噪的方法、装置、计算机设备和存储介质
CN110119704A (zh) * 2019-05-08 2019-08-13 武汉大学 一种基于深度残差网络的文字透底现象去除方法
CN110045419B (zh) * 2019-05-21 2020-10-16 西南石油大学 一种感知器残差自编码网络地震资料去噪方法
CN110211069B (zh) * 2019-06-03 2021-09-03 广东工业大学 一种图像去噪模型训练方法、系统、设备、计算机介质
CN110457515B (zh) * 2019-07-19 2021-08-24 天津理工大学 基于全局特征捕捉聚合的多视角神经网络的三维模型检索方法
CN110473234B (zh) * 2019-09-04 2021-10-22 中国科学院近代物理研究所 微分同胚Demons图像配准方法、系统及存储介质
CN110717405B (zh) * 2019-09-17 2023-11-24 平安科技(深圳)有限公司 人脸特征点定位方法、装置、介质及电子设备
CN111028163B (zh) * 2019-11-28 2024-02-27 湖北工业大学 一种基于卷积神经网络的联合图像去噪与弱光增强方法
CN110974217B (zh) * 2020-01-03 2022-08-09 苏州大学 基于卷积自编码器的双阶段心电信号降噪方法
CN111311506B (zh) * 2020-01-21 2023-05-09 辽宁师范大学 基于双残差网络的低剂量ct牙齿图像去噪方法
CN111311518B (zh) * 2020-03-04 2023-05-26 清华大学深圳国际研究生院 基于多尺度混合注意力残差网络的图像去噪方法及装置
CN111667424B (zh) * 2020-05-28 2022-04-01 武汉大学 一种基于无监督的真实图像去噪方法
CN111915513B (zh) * 2020-07-10 2022-07-26 河海大学 一种基于改进的自适应神经网络的图像去噪方法
CN113222960B (zh) * 2021-05-27 2022-06-03 哈尔滨工程大学 基于特征去噪的深度神经网络对抗防御方法、系统、存储介质及设备
CN113628146B (zh) * 2021-08-30 2023-05-30 中国人民解放军国防科技大学 基于深度卷积网络的图像去噪方法
CN113743301B (zh) * 2021-09-03 2023-09-26 中国科学院重庆绿色智能技术研究院 一种基于残差自编码器卷积神经网络的固态纳米孔测序电信号降噪处理方法
CN113850269B (zh) * 2021-12-01 2022-03-15 西南石油大学 一种基于多分支选择性内核嵌套连接残差网络的去噪方法
CN114299550B (zh) * 2022-01-05 2024-02-27 南通理工学院 一种行人再识别系统中无感噪声攻击的防御方法
CN116385280B (zh) * 2023-01-09 2024-01-23 爱芯元智半导体(上海)有限公司 一种图像降噪系统、方法及降噪神经网络训练方法
CN116993845B (zh) * 2023-06-09 2024-03-15 西安交通大学 一种基于集成深度网络DnCNN的CT图像去伪影方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105631480B (zh) * 2015-12-30 2018-10-26 哈尔滨工业大学 基于多层卷积网络与数据重组折叠的高光谱数据分类方法
CN105678332B (zh) * 2016-01-08 2020-01-10 昆明理工大学 火焰图像cnn识别建模的转炉炼钢终点判断方法及系统

Also Published As

Publication number Publication date
CN106204467A (zh) 2016-12-07

Similar Documents

Publication Publication Date Title
CN106204467B (zh) 一种基于级联残差神经网络的图像去噪方法
CN106204468B (zh) 一种基于ReLU卷积神经网络的图像去噪方法
CN109859147B (zh) 一种基于生成对抗网络噪声建模的真实图像去噪方法
CN109360156B (zh) 基于生成对抗网络的图像分块的单张图像去雨方法
CN110378844B (zh) 基于循环多尺度生成对抗网络的图像盲去运动模糊方法
CN107767413B (zh) 一种基于卷积神经网络的图像深度估计方法
CN109360155B (zh) 基于多尺度特征融合的单帧图像去雨方法
CN107123089B (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
CN110517195B (zh) 无监督sar图像去噪方法
CN109410149B (zh) 一种基于并行特征提取的cnn去噪方法
CN110148088B (zh) 图像处理方法、图像去雨方法、装置、终端及介质
CN111738954B (zh) 一种基于双层空洞U-Net模型的单帧湍流退化图像去畸变方法
Wang et al. Domain adaptation for underwater image enhancement
CN108830812A (zh) 一种基于网格结构深度学习的视频高帧率重制方法
CN110809126A (zh) 一种基于自适应可变形卷积的视频帧插值方法及系统
US9183671B2 (en) Method for accelerating Monte Carlo renders
CN111145102A (zh) 一种基于卷积神经网络的合成孔径雷达图像去噪方法
CN113284061A (zh) 一种基于梯度网络的水下图像增强方法
CN115272072A (zh) 一种基于多特征图像融合的水下图像超分辨率方法
CN115082336A (zh) 一种基于机器学习的sar图像相干斑抑制方法
CN108830829B (zh) 联合多种边缘检测算子的无参考质量评价算法
CN112767271B (zh) 一种基于三维变分网络的高光谱图像深度降噪的方法
CN111461999B (zh) 一种基于超像素相似性测量的sar图像相干斑抑制方法
CN116862809A (zh) 一种低曝光条件下的图像增强方法
CN111047537A (zh) 一种图像去噪中恢复细节的系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant