CN108876735B - 一种基于深度残差网络的真实图像盲去噪方法 - Google Patents

一种基于深度残差网络的真实图像盲去噪方法 Download PDF

Info

Publication number
CN108876735B
CN108876735B CN201810556645.1A CN201810556645A CN108876735B CN 108876735 B CN108876735 B CN 108876735B CN 201810556645 A CN201810556645 A CN 201810556645A CN 108876735 B CN108876735 B CN 108876735B
Authority
CN
China
Prior art keywords
image
real
layer
groups
group
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810556645.1A
Other languages
English (en)
Other versions
CN108876735A (zh
Inventor
邹炼
王楠楠
范赐恩
冉杰文
陈丽琼
马杨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN201810556645.1A priority Critical patent/CN108876735B/zh
Publication of CN108876735A publication Critical patent/CN108876735A/zh
Application granted granted Critical
Publication of CN108876735B publication Critical patent/CN108876735B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T5/70
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Abstract

本发明提出了一种基于深度残差网络的真实图像盲去噪方法。通过图像数据集选取RGB空间清晰图像集,通过空间变换构建RGB空间图像组集;通过多个相机拍摄多个场景下的图像,针对每个相机每个场景下真实清晰图像和真实含噪图像构建真实图像组构建真实图像组集;随机选取RGB空间图像组集中多组RGB空间图像组与真实图像组集中多组真实图像组构建图像训练集通过预处理得到预处理后图像训练集,将RGB空间图像组集中剩余的RGB空间图像组与真实图像组集中剩余的真实图像组构建图像测试集;通过预处理后图像训练集作为输入构建图像去噪残差卷积神经网络,结合残差学习和批归一化策略训练神经网络并对图像测试集去噪。本发明的优点为收敛速度快,去噪效果好。

Description

一种基于深度残差网络的真实图像盲去噪方法
技术领域
本发明属于数字图像处理和计算机视觉领域,具体涉及一种基于深度残差网络的真实图像盲去噪方法。
背景技术
图像去噪是数字图像处理和计算机视觉中一个重要的研究领域。图像去噪的目的在于改善图像质量,更好地还原图像所携带的信息,为图像的进一步分析和理解提供基础。
目前,传统的去噪算法主要有滤波法、非局部法和稀疏表示法,虽然这些算法取得了一定效果,但是去噪任务中仍存在一些问题:该类算法通常都需要提前设定噪声模型,算法去噪效果与采用的噪声模型有极大的相关性。一种去噪算法,对其设计时使用的噪声类型效果显著,而对其他类型噪声去除效果欠佳,通常不同类型的噪声需采取不同的方法才能获得较好的去除效果。但是,由于加噪过程的随机性以及对自然图像先验知识的缺乏,我们很难为去噪问题找到一个理想的解析方法,这也制约了传统方法图像去噪效果的进一步提升。
近年来,深度学习尤其是卷积神经网络在语音、图像、自然语言等领域取得了显著进展。研究发现,对于图像去噪这种复杂度很高的多维回归问题,深层的非线性神经网络是一个非常好的模型。去噪问题的关键在于利用好噪声图像提供的信息推测出原始图像的信息,基于深度学习进行图像去噪的核心内容就是将深度神经网络强大的表达能力和图像去噪问题的特性结合起来。与传统去噪方法相比,深度学习使用无监督学习,训练过程中样本没有标签,该学习方法无需人工干预,可以在固定模式的图像去噪(比如高斯白噪声)问题上取得更高的评价指标(PSNR和SSIM)值,图像质量上也会有一定的提升。
经过对现有技术的文献检索发现,中国公开专利“一种基于深度学习的深度图像去噪及增强方法”(公开号CN105825484A,公开日为2016.08.03)通过构建由三层卷积单元组成的深度图像去噪及增强卷积神经网络进行图像去噪及增强,然而此专利的图像去噪效果和效率都可以进一步提高,其具体的不足之处是:此专利只采用3层的网络结构,其非线性的特征表示能力和图像重构能力有限;此专利的训练数据是清晰图像和人工加噪的含噪图像,没有包含真实含噪图像,对真实含噪图像去噪效果较差;此专利的网络训练过程中得到重建的是清晰图像的低频信息,而没有直接对高频噪声进行特异性重建,模型不易收敛,图像的去噪效果不佳。
发明内容
本发明的目的在于克服现有技术的不足,公开一种基于深度残差网络的真实图像盲去噪方法。
本发明采用的技术方案是:
一种基于深度残差网络的真实图像盲去噪方法,其包括以下步骤:
步骤1:通过图像数据集选取RGB空间清晰图像集,通过空间变换得到RGB空间含噪图像集,通过RGB空间清晰图像集和RGB空间含噪图像集构建RGB空间图像组集;
步骤2:通过多个相机拍摄多个场景下的图像,针对每个相机每个场景下真实清晰图像和真实含噪图像构建真实图像组,通过多个相机拍摄多场景下的真实图像组构建真实图像组集;
步骤3:随机选取RGB空间图像组集中多组RGB空间图像组与真实图像组集中多组真实图像组构建图像训练集,将RGB空间图像组集中剩余的RGB空间图像组与真实图像组集中剩余的真实图像组构建图像测试集,将图像训练集中图像进行预处理得到预处理后图像训练集;
步骤4:通过预处理后图像训练集作为输入构建图像去噪残差卷积神经网络,结合残差学习和批归一化策略训练图像去噪残差卷积神经网络并对图像测试集去噪;
作为优选,步骤1中所述通过图像数据集选取图像数据集K张图像作为RGB空间清晰图像集
Figure GDA0003091409490000021
步骤1所述空间变换为:
将输入的RGB空间清晰图像集转换到YCbCr空间,得到YCbCr空间清晰图像集
Figure GDA0003091409490000022
Figure GDA0003091409490000023
Figure GDA0003091409490000024
Figure GDA0003091409490000031
其中,
Figure GDA0003091409490000032
分别代表RGB空间清晰图像集的三个通道的分量值,取值范围为[0,255];
Figure GDA0003091409490000033
分别代表YCbCr空间清晰图像集的三个通道的分量值,取值范围为[0,255];
选择Y通道清晰图像集
Figure GDA0003091409490000034
进行加噪处理:
设置6个噪声等级,即噪声方差σP∈[0,55],p∈[1,6],对
Figure GDA0003091409490000035
中的每张图像进行加噪处理:
Figure GDA0003091409490000036
其中,
Figure GDA0003091409490000037
为噪声等级p的第k张Y通道含噪图像,
Figure GDA0003091409490000038
为生成与
Figure GDA0003091409490000039
相同大小的随机矩阵;
将Y通道含噪图像集
Figure GDA00030914094900000310
结合YCbCr空间清晰图像集中的Cb,Cr通道转换至RGB空间,得到RGB空间加噪图像集
Figure GDA00030914094900000311
Figure GDA00030914094900000312
Figure GDA00030914094900000313
Figure GDA00030914094900000314
Figure GDA00030914094900000315
其中,
Figure GDA00030914094900000316
分别代表RGB空间加噪图像集
Figure GDA00030914094900000317
的三个通道的分量值,取值范围为[0,255];
步骤1中所述构建RGB空间图像组集为通过以上处理得到RGB空间图像组集
Figure GDA00030914094900000318
每组图像
Figure GDA00030914094900000319
由一张RGB清晰图像
Figure GDA00030914094900000320
和六张RGB含噪图像
Figure GDA00030914094900000321
组成;
作为优选,步骤2中所述多个相机的数量为KA
步骤2中所述多个场景的数量为KS
步骤2中所述真实图像组的数量为KA*KS
步骤2中所述每个相机每个场景下真实含噪图像为:
通过相机ka拍摄场景ks下,拍摄4张高感光度和较短曝光时间的图像,4张高感光度和较短曝光时间的图像中任意两张图像求平均,得到六张真实含噪图像:
Figure GDA0003091409490000041
步骤2中所述每个相机每个场景下真实清晰图像为:
通过相机ka拍摄场景ks下,拍摄两张低感光度和长曝光时间拍摄的图像,将两张低感光度和长曝光时间拍摄的图像求平均后作为参考图像
Figure GDA0003091409490000042
拍摄KB(KB>5)张低感光度和长曝光时间拍摄的图像
Figure GDA0003091409490000043
然后计算
Figure GDA0003091409490000044
Figure GDA0003091409490000045
的峰值信噪比:
Figure GDA0003091409490000046
其中,MAX表示图像颜色的最大数值,NB=8bit图像取值为2NB-1,MSE为均方差:
Figure GDA0003091409490000047
将KB(KB>5)张低感光度和长曝光时间拍摄的图像中
Figure GDA0003091409490000048
Figure GDA0003091409490000049
的图像求平均后作为清晰图像
Figure GDA00030914094900000410
步骤2中所述真实图像组为
Figure GDA00030914094900000411
由一张真实清晰图像和六张真实含噪图像组成;
步骤2中所述真实图像组集为
Figure GDA00030914094900000412
Figure GDA00030914094900000413
该组集共包含KA*KS个真实图像组,将KA*KS个真实图像组在真实图像组集中按照拍摄顺序排列得到真实图像组集为:
Figure GDA0003091409490000051
其中,KA为多个相机的数量,KS为多个场景的数量;
作为优选,步骤3中所述多组RGB空间图像组为:
步骤1中所述K1组RGB空间图像组
Figure GDA0003091409490000052
步骤3中所述多组真实图像组为:
步骤2中所述K2组真实图像组
Figure GDA0003091409490000053
步骤3中所述图像训练集为多组RGB空间图像组与多组真实图像组即
KT=K1+K2构成;
步骤3中所述剩余RGB空间图像组为:
步骤1中所述K3=K-K1组RGB空间图像组
Figure GDA0003091409490000054
K为步骤1中RGB空间图像组的数量
步骤3中所述剩余真实图像组为:
步骤2中所述K4=KA*KS-K2组真实图像组
Figure GDA0003091409490000055
KA为步骤2中多个相机的数量,KS为步骤2中多个场景的数量;
步骤3中所述图像测试集为多组RGB空间图像组与多组真实图像组即
KE=K3+K4构成;
步骤3中图像预处理为将图像训练集中每张图像都进行滑动窗裁剪:
图像训练集中每张图像大小都裁剪为180×180的图像,以40×40的滑动窗以及20的滑动步长,在裁剪后图像练集中图像上遍历滑动可获得64个40×40的图像块;
对图像训练集中每张图像滑动窗裁剪后可得到64×KT个图像块组集
Figure GDA0003091409490000056
其中,
Figure GDA0003091409490000057
表示清晰图形块,
Figure GDA0003091409490000058
表示与之对应的6个含噪图像块;
通过旋转和翻转来扩充滑动窗裁剪后图像训练集,对裁剪后图像训练集中的每组图像块随机旋转90°,180°,270°,并对随机旋转处理过的裁剪后图像训练集像素值进行水平镜像翻转得到预处理后图像训练集:
Figure GDA0003091409490000059
其中,该训练集中共包含64×KT×7个图像块组;
作为优选,步骤4中所述预处理后图像训练集为步骤3获得;
图像去噪残差卷积神经网络结构由三个大部分共十七层组成:
第一层包含一个卷积层和一个修正线性单元,卷积核数目为64,大小为3×3,采用修正线性单元RELU作为激活函数,具体公式表示为:
f(x)=max(0,x)
其中,x表示输出,max()表示当输出x小于0时返回值为0,否则返回值为x;
第二层至第十六层的每一层结构相同,都包含一个卷积层、一个批归一化层和一个修正线性单元;
其中,卷积层的结构与第一层中卷积层的结构相同,修正线性的结构与第一层中修正线性单元的结构相同,网络采用批归一化层;
第十七层仅包含一个卷积层,其结构与第一层中卷积层结构相同;
构建图像去噪残差卷积神经网络时在经过每一次卷积操作后对输出进行零填充,输入在经过卷积层后,尺寸会减小,通过在减少的像素位置上将其填充为零,使得每一层的输入与输出图像尺寸保持一致;
每一卷积层的输出可以表示为:
Rl(Xl;θl)=φl(wl×Rl-1(Xl;θl)+bl),l∈[1,L]
其中,Xl表示卷积层l的输入,θl表示神经网络l层训练出的参数,Rl(Xl;θ)是网络中第ll层的预测结果,φl是网络中第l层的激活函数,bl是网络中第l层的偏置参数,wl是网络中第l层的卷积模板参数,大小为fl-1×vl×vl×fl,其中,fl-1和fl分别为第ll-1层和第l层的特征图的数目,vl为第ll层的卷积核大小,L=17为图像去噪残差卷积神经网络总层数;
将步骤3中所述预处理后图像训练集作为图像去噪残差卷积神经网络,得到图像去噪残差卷积神经网络的训练目标函数是:
Figure GDA0003091409490000061
其中,
Figure GDA0003091409490000062
为含噪图像和残差图像之间的映射关系,该训练集中共包含N=64×KT×7个图像块组,θ为神经网络训练出的参数,包括卷积模板参数wl和网络偏置参数bl,l∈[1,L],L=17为图像去噪残差卷积神经网络总层数;
采用随机梯度下降法求解网络每一层的卷积模板参数wl和网络偏置参数bl,在每次迭代过程中,计算预测结果误差并反向传播到图像去噪残差卷积神经网络模型中,计算梯度并更新图像去噪残差卷积神经网络的卷积模板参数,网络第(l+1)层的梯度和卷积模板参数具体更新公式为:
Figure GDA0003091409490000071
其中,Loss为训练的损失误差,m为结合动量,λ为学习率;
通过卷积模板参数wl和网络偏置参数bl,l∈[1,L],L=1构建图像去噪残差卷积神经网络,生成从含噪图像到残差图像之间的映射关系R(XN)≈v,并完成神经网络模型的训练;
步骤4中所述图像测试集去噪为:
Xfinal=XN-R(XN)
其中,将步骤3中所述图像测试集输入到图像去噪残差卷积神经网络中,输出去噪后的图像测试集。
与已有专利相比,本发明具有以下优点和有益效果:
本发明中使用了十七层的网络结构,使得神经网络结构的表示和重构能力极大地提升,从而能够更好地提高图像去噪效果,网络中加入BN层加速模型的收敛,整个卷积过程保持图像大小一致,保留图像边缘信息;
本发明中构建了真实含噪数据集并作为训练集的一部分,从而提升了真实含噪图像去噪效果;
本发明利用含噪图像和清晰图像之间的残差来训练网络,由于残差图像表示噪声信息,使得网络可更集中地对噪声进行训练,同时,由于残差图像的稀疏属性,可以提高网络的训练速度。
附图说明
图1:本发明的方法流程图;
图2:选取通用清晰图像及生成相应的含噪图像的流程图;
图3:构建真实含噪图像数据集RND的流程图;
图4:构建网络训练集的流程图;
图5:为图像去噪残差卷积神经网络的结构示意图;
图6:为训练图像去噪残差卷积神经网络的结构示意图;
图7:为相机设置参数。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
本实施例的基于深度残差网络的真实图像盲去噪方法,具体流程如图1所示,包括以下步骤:
步骤1:通过图像数据集选取RGB空间清晰图像集,通过空间变换得到RGB空间含噪图像集,通过RGB空间清晰图像集和RGB空间含噪图像集构建RGB空间图像组集;
作为优选,步骤1中所述通过图像数据集选取选取图像数据集BSD(The BerkeleySegmentation Dataset and Benchmark)中K=500张图像作为RGB空间清晰图像集
Figure GDA0003091409490000081
步骤1所述空间变换为:
将输入的RGB空间清晰图像集转换到YCbCr空间,得到YCbCr空间清晰图像集
Figure GDA0003091409490000082
Figure GDA0003091409490000083
Figure GDA0003091409490000084
Figure GDA0003091409490000085
其中,
Figure GDA0003091409490000086
分别代表RGB空间清晰图像集的三个通道的分量值,取值范围为[0,255];
Figure GDA0003091409490000087
分别代表YCbCr空间清晰图像集的三个通道的分量值,取值范围为[0,255];
选择Y通道清晰图像集
Figure GDA0003091409490000088
进行加噪处理:
设置6个噪声等级,即噪声方差σP∈[0,55],p∈[1,6],对
Figure GDA0003091409490000089
中的每张图像进行加噪处理:
Figure GDA0003091409490000091
其中,
Figure GDA0003091409490000092
为噪声等级p的第k张Y通道含噪图像,
Figure GDA0003091409490000093
为生成与
Figure GDA0003091409490000094
相同大小的随机矩阵;
将Y通道含噪图像集
Figure GDA0003091409490000095
结合YCbCr空间清晰图像集中的Cb,Cr通道转换至RGB空间,得到RGB空间加噪图像集
Figure GDA0003091409490000096
Figure GDA0003091409490000097
Figure GDA0003091409490000098
Figure GDA0003091409490000099
Figure GDA00030914094900000910
其中,
Figure GDA00030914094900000911
分别代表RGB空间加噪图像集
Figure GDA00030914094900000912
的三个通道的分量值,取值范围为[0,255];
步骤1中所述构建RGB空间图像组集为通过以上处理得到RGB空间图像组集
Figure GDA00030914094900000913
每组图像
Figure GDA00030914094900000914
由一张RGB清晰图像
Figure GDA00030914094900000915
和六张RGB含噪图像
Figure GDA00030914094900000916
组成;
步骤2:通过多个相机拍摄多个场景下的图像,针对每个相机每个场景下真实清晰图像和真实含噪图像构建真实图像组,通过多个相机拍摄多场景下的真实图像组构建真实图像组集;
作为优选,步骤2中所述多个相机的数量为KA=3,分别选取Canon PowerShot G5X数码相机、Canon EOS Rebel T5i单反相机以及Xiaomi Mix 2s手机相机;
步骤2中所述多个场景的数量为KS=40;
步骤2中所述真实图像组的数量为KA*KS=120;
步骤2中所述每个相机每个场景下真实含噪图像为:
通过相机ka拍摄场景ks下,拍摄4张高感光度和较短曝光时间的图像,4张高感光度和较短曝光时间的图像中任意两张图像求平均,得到六张真实含噪图像:
Figure GDA0003091409490000101
步骤2中所述每个相机每个场景下真实清晰图像为:
通过相机ka拍摄场景ks下,拍摄两张低感光度和长曝光时间拍摄的图像,将两张低感光度和长曝光时间拍摄的图像求平均后作为参考图像
Figure GDA0003091409490000102
拍摄KB(KB>5)张低感光度和长曝光时间拍摄的图像
Figure GDA0003091409490000103
然后计算
Figure GDA0003091409490000104
Figure GDA0003091409490000105
的峰值信噪比:
Figure GDA0003091409490000106
其中,MAX表示图像颜色的最大数值,NB=8bit图像取值为2NB-1,MSE为均方差:
Figure GDA0003091409490000107
将KB(KB>5)张低感光度和长曝光时间拍摄的图像中
Figure GDA0003091409490000108
Figure GDA0003091409490000109
的图像求平均后作为清晰图像
Figure GDA00030914094900001010
步骤2中所述真实图像组为
Figure GDA00030914094900001011
由一张真实清晰图像和六张真实含噪图像组成;
步骤2中所述真实图像组集为
Figure GDA00030914094900001012
Figure GDA00030914094900001013
该组集共包含KA*KS=120个真实图像组,将120个真实图像组在真实图像组集中按照拍摄顺序排列得到真实图像组集为:
Figure GDA00030914094900001014
其中,KA=3为多个相机的数量,KS=40为多个场景的数量;
步骤3:随机选取RGB空间图像组集中多组RGB空间图像组与真实图像组集中多组真实图像组构建图像训练集,将RGB空间图像组集中剩余的RGB空间图像组与真实图像组集中剩余的真实图像组构建图像测试集,将图像训练集中图像进行预处理得到预处理后图像训练集;
作为优选,步骤3中所述多组RGB空间图像组为:
步骤1中所述K1=440组RGB空间图像组
Figure GDA0003091409490000111
步骤3中所述多组真实图像组为:
步骤2中所述K2=110组真实图像组
Figure GDA0003091409490000112
步骤3中所述图像训练集为多组RGB空间图像组与多组真实图像组即
KT=K1+K2构成;
步骤3中所述剩余RGB空间图像组为:
步骤1中所述K3=K-K1组RGB空间图像组
Figure GDA0003091409490000113
K=500为步骤1中RGB空间图像组的数量
步骤3中所述剩余真实图像组为:
步骤2中所述K4=KA*KS-K2组真实图像组
Figure GDA0003091409490000114
KA=3为步骤2中多个相机的数量,KS=40为步骤2中多个场景的数量;
步骤3中所述图像测试集为多组RGB空间图像组与多组真实图像组即
KE=K3+K4构成;
步骤3中图像预处理为将图像训练集中每张图像都进行滑动窗裁剪:
图像训练集中每张图像大小都裁剪为180×180的图像,以40×40的滑动窗以及20的滑动步长,在裁剪后图像练集中图像上遍历滑动可获得64个40×40的图像块;
对图像训练集中每张图像滑动窗裁剪后可得到64×KT(KT=550)个图像块组集
Figure GDA0003091409490000115
其中,
Figure GDA0003091409490000116
表示清晰图形块,
Figure GDA0003091409490000117
表示与之对应的6个含噪图像块;
通过旋转和翻转来扩充滑动窗裁剪后图像训练集,对裁剪后图像训练集中的每组图像块随机旋转90°,180°,270°,并对随机旋转处理过的裁剪后图像训练集像素值进行水平镜像翻转得到预处理后图像训练集:
Figure GDA0003091409490000118
其中,该训练集中共包含64×KT×7(KT=550)个图像块组;
步骤4:通过预处理后图像训练集作为输入构建图像去噪残差卷积神经网络,结合残差学习和批归一化策略对图像测试集去噪;
作为优选,步骤4中所述预处理后图像训练集为步骤3获得;
图像去噪残差卷积神经网络结构由三个大部分共十七层组成:
第一层包含一个卷积层和一个修正线性单元,卷积核数目为64,大小为3×3,采用修正线性单元RELU作为激活函数,具体公式表示为:
f(x)=max(0,x)
其中,x表示输出,max()表示当输出x小于0时返回值为0,否则返回值为x:
第二层至第十六层的每一层结构相同,都包含一个卷积层、一个批归一化层和一个修正线性单元;
其中,卷积层的结构与第一层中卷积层的结构相同,修正线性的结构与第一层中修正线性单元的结构相同,网络采用批归一化层;
第十七层仅包含一个卷积层,其结构与第一层中卷积层结构相同;
构建图像去噪残差卷积神经网络时在经过每一次卷积操作后对输出进行零填充,输入在经过卷积层后,尺寸会减小,通过在减少的像素位置上将其填充为零,使得每一层的输入与输出图像尺寸保持一致;
每一卷积层的输出可以表示为:
Rl(Xl;θl)=φl(wl×Rl-1(Xl;θl)+bl),l∈[1,L]
其中,Xl表示卷积层l的输入,θl表示神经网络l层训练出的参数,Rl(Xl;θ)是网络中第l层的预测结果,φl是网络中第l层的激活函数,bl是网络中第l层的偏置参数,wl是网络中第l层的卷积模板参数,大小为fl-1×vl×vl×fl,其中,fl-1和fl分别为第l-1层和第l层的特征图的数目,vl为第l层的卷积核大小,L=17为图像去噪残差卷积神经网络总层数;
将步骤3中所述预处理后图像训练集作为图像去噪残差卷积神经网络,得到图像去噪残差卷积神经网络的训练目标函数是:
Figure GDA0003091409490000121
其中,
Figure GDA0003091409490000131
为含噪图像和残差图像之间的映射关系,该训练集中共包含N=64×KT×7(KT=550)个图像块组,θ为神经网络训练出的参数,包括卷积模板参数wl和网络偏置参数bl,l∈[1,L],L=17为图像去噪残差卷积神经网络总层数;
采用随机梯度下降法求解网络每一层的卷积模板参数wl和网络偏置参数bl,在每次迭代过程中,计算预测结果误差并反向传播到图像去噪残差卷积神经网络模型中,计算梯度并更新图像去噪残差卷积神经网络的卷积模板参数,网络第(1l+1)层的梯度和卷积模板参数具体更新公式为:
Figure GDA0003091409490000132
其中,Loss为训练的损失误差,m为结合动量,λ为学习率;
通过卷积模板参数wl和网络偏置参数bl,l∈[1,L],L=1构建图像去噪残差卷积神经网络,生成从含噪图像到残差图像之间的映射关系R(XN)≈v,并完成神经网络模型的训练;
步骤4中所述图像测试集去噪为:
Xfinal=XN-R(XN)
其中,将步骤3中所述图像测试集输入到图像去噪残差卷积神经网络中,输出去噪后的图像测试集;
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。

Claims (5)

1.一种基于深度残差网络的真实图像盲去噪方法,其特征在于,包括以下步骤:
步骤1:通过图像数据集选取RGB空间清晰图像集,通过空间变换得到RGB空间含噪图像集,通过RGB空间清晰图像集和RGB空间含噪图像集构建RGB空间图像组集;
步骤2:通过多个相机拍摄多个场景下的图像,针对每个相机每个场景下真实清晰图像和真实含噪图像构建真实图像组,通过多个相机拍摄多场景下的真实图像组构建真实图像组集;
步骤3:随机选取RGB空间图像组集中多组RGB空间图像组与真实图像组集中多组真实图像组构建图像训练集,将RGB空间图像组集中剩余的RGB空间图像组与真实图像组集中剩余的真实图像组构建图像测试集,将图像训练集中图像进行预处理得到预处理后图像训练集;
步骤4:通过预处理后图像训练集作为输入构建图像去噪残差卷积神经网络,结合残差学习和批归一化策略训练图像去噪残差卷积神经网络并对图像测试集去噪。
2.根据权利要求1所述的基于深度残差网络的真实图像盲去噪方法,其特征在于,步骤1中所述通过图像数据集选取图像数据集K张图像作为RGB空间清晰图像集
Figure FDA0003091409480000011
步骤1所述空间变换为:
将输入的RGB空间清晰图像集转换到YCbCr空间,得到YCbCr空间清晰图像集
Figure FDA0003091409480000012
Figure FDA0003091409480000013
Figure FDA0003091409480000014
Figure FDA0003091409480000015
其中,
Figure FDA0003091409480000016
分别代表RGB空间清晰图像集的三个通道的分量值,取值范围为[0,255];
Figure FDA0003091409480000017
分别代表YCbCr空间清晰图像集的三个通道的分量值,取值范围为[0,255];
选择Y通道清晰图像集
Figure FDA0003091409480000021
进行加噪处理:
设置6个噪声等级,即噪声方差σP∈[0,55],p∈[1,6],对
Figure FDA0003091409480000022
中的每张图像进行加噪处理:
Figure FDA0003091409480000023
其中,
Figure FDA0003091409480000024
为噪声等级p的第k张Y通道含噪图像,
Figure FDA0003091409480000025
为生成与
Figure FDA0003091409480000026
相同大小的随机矩阵;
将Y通道含噪图像集
Figure FDA0003091409480000027
结合YCbCr空间清晰图像集中的Cb,Cr通道转换至RGB空间,得到RGB空间加噪图像集
Figure FDA0003091409480000028
Figure FDA0003091409480000029
Figure FDA00030914094800000210
Figure FDA00030914094800000211
Figure FDA00030914094800000212
其中,
Figure FDA00030914094800000213
分别代表RGB空间加噪图像集
Figure FDA00030914094800000214
的三个通道的分量值,取值范围为[0,255];
步骤1中所述构建RGB空间图像组集为通过以上处理得到RGB空间图像组集
Figure FDA00030914094800000215
每组图像
Figure FDA00030914094800000216
由一张RGB清晰图像
Figure FDA00030914094800000217
和六张RGB含噪图像
Figure FDA00030914094800000218
组成。
3.根据权利要求1所述的基于深度残差网络的真实图像盲去噪方法,其特征在于,步骤2中所述多个相机的数量为KA
步骤2中所述多个场景的数量为KS
步骤2中所述真实图像组的数量为KA*KS
步骤2中所述每个相机每个场景下真实含噪图像为:
通过相机ka拍摄场景ks下,拍摄4张高感光度和较短曝光时间的图像,4张高感光度和较短曝光时间的图像中任意两张图像求平均,得到六张真实含噪图像:
Figure FDA0003091409480000031
步骤2中所述每个相机每个场景下真实清晰图像为:
通过相机ka拍摄场景ks下,拍摄两张低感光度和长曝光时间拍摄的图像,将两张低感光度和长曝光时间拍摄的图像求平均后作为参考图像
Figure FDA0003091409480000032
拍摄KB张低感光度和长曝光时间拍摄的图像
Figure FDA0003091409480000033
然后计算
Figure FDA0003091409480000034
Figure FDA0003091409480000035
的峰值信噪比:
Figure FDA0003091409480000036
其中,MAX表示图像颜色的最大数值,NB=8bit图像取值为2NB-1,MSE为均方差:
Figure FDA0003091409480000037
将KB张低感光度和长曝光时间拍摄的图像中
Figure FDA0003091409480000038
Figure FDA0003091409480000039
的图像求平均后作为清晰图像
Figure FDA00030914094800000310
步骤2中所述真实图像组为
Figure FDA00030914094800000311
由一张真实清晰图像和六张真实含噪图像组成;
步骤2中所述真实图像组集为
Figure FDA00030914094800000312
Figure FDA00030914094800000313
该组集共包含KA*KS个真实图像组,将KA*KS个真实图像组在真实图像组集中按照拍摄顺序排列得到真实图像组集为:
Figure FDA00030914094800000314
其中,KA为多个相机的数量,KS为多个场景的数量。
4.根据权利要求1所述的基于深度残差网络的真实图像盲去噪方法,其特征在于,步骤3中所述多组RGB空间图像组为:
步骤1中K1组RGB空间图像组
Figure FDA0003091409480000041
步骤3中所述多组真实图像组为:
步骤2中K2组真实图像组
Figure FDA0003091409480000042
步骤3中所述图像训练集为多组RGB空间图像组与多组真实图像组即KT=K1+K2构成;
步骤3中所述剩余RGB空间图像组为:
步骤1中K3=K-K1组RGB空间图像组
Figure FDA0003091409480000043
K为步骤1中RGB空间图像组的数量
步骤3中所述剩余真实图像组为:
步骤2中K4=KA*KS-K2组真实图像组
Figure FDA0003091409480000044
KA为步骤2中多个相机的数量,KS为步骤2中多个场景的数量;
步骤3中所述图像测试集为多组RGB空间图像组与多组真实图像组即
KE=K3+K4构成;
步骤3中图像预处理为将图像训练集中每张图像都进行滑动窗裁剪:
图像训练集中每张图像大小都裁剪为180×180的图像,以40×40的滑动窗以及20的滑动步长,在裁剪后图像练集中图像上遍历滑动可获得64个40×40的图像块;
对图像训练集中每张图像滑动窗裁剪后可得到64×KT个图像块组集
Figure FDA0003091409480000045
其中,
Figure FDA0003091409480000046
表示清晰图形块,
Figure FDA0003091409480000047
表示与之对应的6个含噪图像块;
通过旋转和翻转来扩充滑动窗裁剪后图像训练集,对裁剪后图像训练集中的每组图像块随机旋转90°,180°,270°,并对随机旋转处理过的裁剪后图像训练集像素值进行水平镜像翻转得到预处理后图像训练集:
Figure FDA0003091409480000048
其中,该训练集中共包含64×KT×7个图像块组。
5.根据权利要求1所述的基于深度残差网络的真实图像盲去噪方法,其特征在于,步骤4中所述预处理后图像训练集为步骤3获得;
图像去噪残差卷积神经网络结构由三个大部分共十七层组成:
第一层包含一个卷积层和一个修正线性单元,卷积核数目为64,大小为3×3,采用修正线性单元RELU作为激活函数,具体公式表示为:
f(x)=max(0,x)
其中,x表示输出,max()表示当输出x小于0时返回值为0,否则返回值为x;
第二层至第十六层的每一层结构相同,都包含一个卷积层、一个批归一化层和一个修正线性单元;
其中,卷积层的结构与第一层中卷积层的结构相同,修正线性的结构与第一层中修正线性单元的结构相同,网络采用批归一化层;
第十七层仅包含一个卷积层,其结构与第一层中卷积层结构相同;
构建图像去噪残差卷积神经网络时在经过每一次卷积操作后对输出进行零填充,输入在经过卷积层后,尺寸会减小,通过在减少的像素位置上将其填充为零,使得每一层的输入与输出图像尺寸保持一致;
每一卷积层的输出可以表示为:
Rl(Xl;θl)=φl(wl×Rl-1(Xi;θl)+bl),l∈[l,L}
其中,Xl表示卷积层l的输入,θl表示神经网络l层训练出的参数,Rl(Xl;θ)是网络中第l层的预测结果,φl是网络中第l层的激活函数,bl是网络中第l层的偏置参数,wl是网络中第l层的卷积模板参数,大小为fl-1×vl×vl×fl,其中,fl-1和fl分别为第ll-1层和第l层的特征图的数目,vl为第ll层的卷积核大小,L=17为图像去噪残差卷积神经网络总层数;
将步骤3中所述预处理后图像训练集作为图像去噪残差卷积神经网络,得到图像去噪残差卷积神经网络的训练目标函数是:
Figure FDA0003091409480000051
其中,
Figure FDA0003091409480000052
为含噪图像和残差图像之间的映射关系,该训练集中共包含N=64×KT×7个图像块组,θ为神经网络训练出的参数,包括卷积模板参数wl和网络偏置参数bl,l∈[1,L],L=17为图像去噪残差卷积神经网络总层数;
采用随机梯度下降法求解网络每一层的卷积模板参数wl和网络偏置参数bl,在每次迭代过程中,计算预测结果误差并反向传播到图像去噪残差卷积神经网络模型中,计算梯度并更新图像去噪残差卷积神经网络的卷积模板参数,网络第(l+1)层的梯度和卷积模板参数具体更新公式为:
Figure FDA0003091409480000061
其中,Loss为训练的损失误差,m为结合动量,λ为学习率;
通过卷积模板参数wl和网络偏置参数bl,l∈[1,L],L=1构建图像去噪残差卷积神经网络,生成从含噪图像到残差图像之间的映射关系R(XN)=v,并完成神经网络模型的训练;
步骤4中所述图像测试集去噪为:
Xfinal=XN-R(XN)
其中,将步骤3中所述图像测试集输入到图像去噪残差卷积神经网络中,输出去噪后的图像测试集。
CN201810556645.1A 2018-06-01 2018-06-01 一种基于深度残差网络的真实图像盲去噪方法 Active CN108876735B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810556645.1A CN108876735B (zh) 2018-06-01 2018-06-01 一种基于深度残差网络的真实图像盲去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810556645.1A CN108876735B (zh) 2018-06-01 2018-06-01 一种基于深度残差网络的真实图像盲去噪方法

Publications (2)

Publication Number Publication Date
CN108876735A CN108876735A (zh) 2018-11-23
CN108876735B true CN108876735B (zh) 2021-11-02

Family

ID=64336399

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810556645.1A Active CN108876735B (zh) 2018-06-01 2018-06-01 一种基于深度残差网络的真实图像盲去噪方法

Country Status (1)

Country Link
CN (1) CN108876735B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109801234B (zh) * 2018-12-28 2023-09-22 南京美乐威电子科技有限公司 图像几何校正方法及装置
CN109710787B (zh) * 2018-12-30 2023-03-28 陕西师范大学 基于深度学习的图像描述方法
CN109903393B (zh) * 2019-02-22 2021-03-16 清华大学 基于深度学习的新视角场景合成方法和装置
CN109949235A (zh) * 2019-02-26 2019-06-28 浙江工业大学 一种基于深度卷积神经网络的胸部x光片去噪方法
CN109859147B (zh) * 2019-03-01 2021-05-04 武汉大学 一种基于生成对抗网络噪声建模的真实图像去噪方法
CN110062173A (zh) * 2019-03-15 2019-07-26 北京旷视科技有限公司 图像处理器与图像处理方法、设备、存储介质及智能终端
CN110111266B (zh) * 2019-04-08 2021-07-13 西安交通大学 一种基于深度学习去噪的近似信息传递算法改进方法
CN110197183B (zh) * 2019-04-17 2022-10-04 深圳大学 一种图像盲去噪的方法、装置、计算机设备和存储介质
CN110058305A (zh) * 2019-05-24 2019-07-26 吉林大学 一种基于卷积神经网络的das地震数据降噪方法
CN110211069B (zh) * 2019-06-03 2021-09-03 广东工业大学 一种图像去噪模型训练方法、系统、设备、计算机介质
CN110378845B (zh) * 2019-06-17 2021-05-25 杭州电子科技大学 一种基于卷积神经网络的极端条件下的图像修复方法
CN112308785A (zh) * 2019-08-01 2021-02-02 武汉Tcl集团工业研究院有限公司 图像去噪方法、存储介质及终端设备
CN110490823A (zh) * 2019-08-14 2019-11-22 北京大学深圳研究生院 一种真实环境下的图像去噪方法
CN110490824A (zh) * 2019-08-23 2019-11-22 广东浪潮大数据研究有限公司 图像去噪的方法及装置
CN110838089B (zh) * 2019-09-18 2022-07-26 浙江工业大学 一种基于OctBlock密集块的快速图像去噪方法
CN111028923B (zh) * 2019-10-18 2024-01-30 平安科技(深圳)有限公司 数字病理图像染色归一化方法、电子装置及存储介质
CN111192211B (zh) * 2019-12-24 2022-07-01 浙江大学 一种基于单个深度神经网络的多噪声类型盲去噪方法
CN111275643B (zh) * 2020-01-20 2022-09-02 西南科技大学 基于通道和空间注意力的真实噪声盲去噪网络系统及方法
CN111709891B (zh) * 2020-06-12 2023-11-24 北京小米松果电子有限公司 图像去噪模型的训练方法、图像去噪方法、装置及介质
CN113810593B (zh) * 2020-06-15 2023-08-01 Oppo广东移动通信有限公司 图像处理方法、装置、存储介质及电子设备
CN112801889A (zh) * 2021-01-06 2021-05-14 携程旅游网络技术(上海)有限公司 图像去噪方法、系统、设备及存储介质
CN116167940A (zh) * 2023-02-24 2023-05-26 西安石油大学 一种基于卷积神经网络的地震图像去噪方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825484A (zh) * 2016-03-23 2016-08-03 华南理工大学 一种基于深度学习的深度图像去噪及增强方法
CN107464228A (zh) * 2017-08-24 2017-12-12 深圳市唯特视科技有限公司 一种基于自适应正则化的图像分析方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8184926B2 (en) * 2007-02-28 2012-05-22 Microsoft Corporation Image deblurring with blurred/noisy image pairs

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105825484A (zh) * 2016-03-23 2016-08-03 华南理工大学 一种基于深度学习的深度图像去噪及增强方法
CN107464228A (zh) * 2017-08-24 2017-12-12 深圳市唯特视科技有限公司 一种基于自适应正则化的图像分析方法

Also Published As

Publication number Publication date
CN108876735A (zh) 2018-11-23

Similar Documents

Publication Publication Date Title
CN108876735B (zh) 一种基于深度残差网络的真实图像盲去噪方法
CN110599409B (zh) 基于多尺度卷积组与并行的卷积神经网络图像去噪方法
CN109859147B (zh) 一种基于生成对抗网络噪声建模的真实图像去噪方法
Deng et al. Wavelet domain style transfer for an effective perception-distortion tradeoff in single image super-resolution
CN111062880A (zh) 一种基于条件生成对抗网络的水下图像实时增强方法
CN110288550B (zh) 基于先验知识引导条件生成对抗网络的单张图像去雾方法
CN110992292B (zh) 一种增强型低秩稀疏分解模型医学ct图像去噪方法
CN110136060B (zh) 基于浅层密集连接网络的图像超分辨率重建方法
CN111080531B (zh) 一种水下鱼类图像的超分辨率重建方法、系统及装置
CN113284061B (zh) 一种基于梯度网络的水下图像增强方法
Zhao et al. A simple and robust deep convolutional approach to blind image denoising
CN115331104A (zh) 一种基于卷积神经网络的农作物种植信息提取方法
CN113256538B (zh) 一种基于深度学习的无监督去雨方法
CN117197627B (zh) 一种基于高阶退化模型的多模态图像融合方法
Zhao et al. Enhancement of a cnn-based denoiser based on spatial and spectral analysis
Umer et al. Deep iterative residual convolutional network for single image super-resolution
Wu et al. Dcanet: Dual convolutional neural network with attention for image blind denoising
Luo et al. A fast denoising fusion network using internal and external priors
CN110675320A (zh) 一种空间参数变化及复杂场景下目标图像清晰化方法
CN116137043A (zh) 一种基于卷积和Transformer的红外图像彩色化方法
CN114820395A (zh) 一种基于多领域信息融合的水下图像增强方法
CN114549343A (zh) 基于双支残差特征融合去雾方法
CN113837963A (zh) 基于深度网络在lab颜色空间下的水下图像增强方法
Tun et al. Joint Training of Noisy Image Patch and Impulse Response of Low-Pass Filter in CNN for Image Denoising
CN115797183B (zh) 一种图像超分辨率重建方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant