CN112634176A - 基于多感知对抗生成网络的手机拍摄图像去噪方法 - Google Patents

基于多感知对抗生成网络的手机拍摄图像去噪方法 Download PDF

Info

Publication number
CN112634176A
CN112634176A CN202110006557.6A CN202110006557A CN112634176A CN 112634176 A CN112634176 A CN 112634176A CN 202110006557 A CN202110006557 A CN 202110006557A CN 112634176 A CN112634176 A CN 112634176A
Authority
CN
China
Prior art keywords
network
image
layer
convolution
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110006557.6A
Other languages
English (en)
Other versions
CN112634176B (zh
Inventor
罗仁泽
黄雪霁
郭亮
庹娟娟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Southwest Petroleum University
Original Assignee
Southwest Petroleum University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Southwest Petroleum University filed Critical Southwest Petroleum University
Priority to CN202110006557.6A priority Critical patent/CN112634176B/zh
Publication of CN112634176A publication Critical patent/CN112634176A/zh
Application granted granted Critical
Publication of CN112634176B publication Critical patent/CN112634176B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种多感知对抗生成网络的手机拍摄图像去噪方法,本发明改进了SRGAN的不足,提出了一种新的损失函数,避免了SRGAN网络可能不收敛或者效果差的问题;判别网络在输入层使用了多个感知块,使判别网络不限制输入数据尺寸,更好的保存了输入数据的细节。

Description

基于多感知对抗生成网络的手机拍摄图像去噪方法
技术领域
本发明涉及图像去噪领域,特别是涉及手机拍摄图像,具体涉及一种基于多感知对抗生成网络的手机拍摄图像去噪方法。
背景技术
在智能手机的各个功能中,拍照是一项非常重要的功能,虽然人们越来越习惯于使用轻便的智能手机拍照而不是笨重的数码单反相机,但是因为手机内部空间的限制,导致其传感器尺寸、光圈大小等硬件配置和数码单反相机仍然有差距,这种硬件配置的差距导致智能手机拍照时产生的噪点会相对多于数码单反相机。智能手机相比于数码单反的优势在其拥有强大的芯片和神经网络处理器,智能手机利用其芯片的强大运算能力,可以很好的解决拍摄图像不清晰、细节模糊等问题。
传统的图像去噪算法是在含有噪声的图像中寻找出一定规律后再进行相对应的图像去噪处理,如果含有噪声的图片本身没有办法找到有用的规律,去噪的效果就会大大降低。深度学习的图像去噪方法是最近兴起的一种属于数据驱动的方法,大部分图像去噪的实验数据是充足的,这为深度学习的图像去噪方法提供了坚实的基础,所以当前深度学习方法在许多场景下的去噪效果已经超越块匹配和3D滤波算法(Block-matching and 3Dfiltering,BM3D),该方法是Dabov K在2007年发表的论文Image denoising by sparse 3-D transform-domain collaborative filtering[J].IEEE Transactions on imageprocessing,2007,16(8):2080-2095。
智能手机的拍照环境多变且复杂,产生的图像噪声随机性强且通常与信号相关,受环境因素影响大,没有明确的分布可以描述。目前的一些基于深度学习的图像去噪方法应用于手机拍摄图像去噪时通常会出现去噪图像细节模糊、峰值信噪比低等问题,如何解决常规深度学习的图像去噪方法应用在智能手机拍摄图像上的缺陷是本论文研究目的和意义。
发明内容
为了解决现有技术的缺陷,改善常规深度学习方法生成的去噪图像细节模糊、纹理不清的问题,避免网络可能不收敛或者收敛慢的问题,提出了一种多感知对抗生成网络去噪方法,本发明可以提高手机拍摄图像的去噪效果。
本发明涉及一种多感知对抗生成网络的手机拍摄图像去噪方法,其特征在于包括以下步骤:
本发明涉及一种基于多感知对抗生成网络的手机拍摄图像去噪方法,其特征在于包括以下步骤:
1.构建多感知对抗生成网络模型;
1)构建多感知对抗生成网络中的生成网络F(x;w),x为对抗生成网络输入,w为对抗生成网络参数:
生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;隐藏层中第二部分包含四个卷积块和三个上采样层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;其中线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;生成网络的损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的损失函数值与第n-1次迭代训练的损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
2)构建多感知对抗生成网络中的判别网络:
判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成,感知块包括卷积运算、批量标准化和激活函数,其中卷积核大小为3x3,填充取1,步长为1,激活函数选用渗漏整流线性函数;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,干净图像是指去噪目标图像,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化;隐藏层包含卷积块和池化层,卷积块包含卷积运算、批量标准化和激活函数,其中卷积核尺寸为3x3,填充取1,步长为1,池化层采用3x3最大池化,步长为2,激活函数选用线性整流函数;线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;渗漏整流线性函数的表达式为:x>0时,g(x)=x,x≤0时,g(x)=λx,x为输入量,λ为(0,1)之间的常数;
2.训练多感知对抗生成网络,步骤如下:
第一步,准备数据集,设定损失函数阈值和最大训练次数,初始化训练参数;
第二步,把手机拍摄图像输入生成网络,输出去噪图像;
第三步,将去噪图像输入判别网络,输出为M,M是0到1之间的实数,去噪图像越接近干净图像,M越接近1;
第四步,计算判别网络的损失函数D,D=1-M,计算生成网络的损失函数L,L=αD+βP+γS,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的生成网络损失函数值与第n-1次迭代训练的生成网络损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
第五步,若D和L大于所设定的损失函数阈值或未达到最大训练次数,则重复第二步至第四步;
3.网络参数使用自适应矩估计算法进行优化,优化方法如下:
输入为手机拍摄图像数据集X={x1,x2,...,xn},输出为去噪后图像
Figure BDA0002883355050000031
标签数据集Y={y1,y2,...,yn},输入信号经过多感知对抗生成网络后输出
Figure BDA0002883355050000032
优化多感知对抗生成网络参数w,使
Figure BDA0002883355050000033
取出m个样本进入网络训练,m与n均为正整数,m≤n,L为损失函数,数据梯度均值为g,定义为:
Figure BDA0002883355050000034
Figure BDA0002883355050000035
表示损失函数L(yj,F(xj;w))对w求偏导数;设定参数β1和β2,取值范围为(0,1),设定e为平滑参数,取值范围为(0,1),计算衰减梯度为vi,i=1,2,...,t,vt=β1·vt-1+(1-β1)g,计算衰减学习率为ri,i=1,2,...,t,rt=β2·rt-1+(1-β2)g2;再对r和v进行偏置校正,
Figure BDA0002883355050000036
其中t为训练次数,(β1)t表示β1的t次方,(β2)t表示β2的t次方;更新多感知对抗生成网络参数wi,i=1,2,...,t,
Figure BDA0002883355050000041
4.向构建好的网络模型F(X;w)中输入含有噪声的手机拍摄图像X,网络输出为去噪后的手机拍摄图像
Figure BDA0002883355050000042
本发明的创新点:
1.在生成网络部分,与SRGAN相比较,多感知对抗生成网络提出了一种新的损失函数,该损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,α,β和γ分别是D、P和S的预定义权重,避免了SRGAN网络可能不收敛或者效果差的问题;
2.在判别网络部分,与SRGAN相比较,多感知对抗生成网络提出了一种新的结构,在输入层使用多感知块结构,该结构中的感知块互相独立,提出图像中的特征,使判别网络不限制输入数据尺寸,更好的保存了输入数据的细节。
以上所述SRGAN为Li J等2019年所发表的论文Super resolution imagereconstruction of textile based on SRGAN[C]//2019IEEE InternationalConference on Smart Internet of Things(SmartloT).IEEE,2019:436-439.
附图说明
图1是生成网络结构示意图,生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,隐藏层中第二部分包含四个卷积块和三个上采样层。
图2是判别网络结构示意图,判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成;隐藏层由链接块组成,链接块包含卷积运算、池化运算、批量标准化和激活函数。
图3是生成网络中卷积块的结构示意图,卷积块包含两层2维卷积和线性整流函数,第一层2维卷积的卷积核大小为3x3,填充为1,步长为1,第二层卷积的卷积核大小为1x1,填充为0,步长为1。
图4是判别网络感知块结构示意图,包含二维卷积(卷积核大小为3,步长和填充为1),批量标准化和渗漏整流线性函数,渗漏整流线性函数可以避免某些神经元可能永远不会被激活,导致相应的参数永远不能被更新的问题。
图5是判别网络的链接块结构示意图,链接块包括卷积运算(卷积核大小为3x3,步长取1,填充为1)、池化运算(3x3最大池化,步长为2)、批量标准化和激活函数,激活函数选用线性整流函数。
图6是判别网络输出层结构示意图,输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化。
图7是本发明的方法流程图,多感知对抗生成网络由生成网络和判别网络组成;把待去噪图像输入到生成网络,输出为去噪图像,把去噪图像和图像输入判别网络,判别网络输出判别结果,判别结果为真伪的概率值,去噪图像越接近干净图像,该数值越接近1,若判别为真则去噪图像合格,若判别为假则去噪图像不合格。
图8是本发明与其它方法的去噪效果对比图,图中(a)是干净图片,(b)是含有噪声的图片,(c)是使用SRGAN去噪后的图片,(d)是通过多感知对抗生成网络进行去噪得到的图片,其中(c)的峰值信噪比(PSNR)与结构相似性(SSIM)分别为35.3854和0.9217,其中(d)的峰值信噪比(PSNR)与结构相似性(SSIM)分别为37.5765和0.9360,可以看出多感知对抗生成网络比SRGAN的去噪效果更好。
具体实施方式
下面对本发明的技术方案的主要实现原理、具体实施方式等进行详细描述。
1.构建多感知对抗生成网络模型;
1)构建多感知对抗生成网络中的生成网络F(x;w),x为对抗生成网络输入,w为对抗生成网络参数:
生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,卷积块包含两个卷积层,第一层卷积的卷积核大小为3x3,填充为1,步长为1,第二层卷积的卷积核大小为1x1,填充为0,步长为1,激活函数为线性整流函数;隐藏层中第二部分包含四个卷积块和三个上采样层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;其中线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;生成网络的损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的损失函数值与第n-1次迭代训练的损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
2)构建多感知对抗生成网络中的判别网络:
判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成,感知块包括卷积运算、批量标准化和激活函数,其中卷积核大小为3x3,填充取1,步长为1,激活函数选用渗漏整流线性函数;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化;隐藏层由连接块组成,链接块包含卷积运算、池化运算、批量标准化和激活函数,其中卷积核尺寸为3x3,填充取1,步长为1,池化采用3x3最大池化,步长为2,激活函数选用线性整流函数;线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;渗漏整流线性函数的表达式为:x>0时,g(x)=x,x≤0时,g(x)=λx,x为输入量,λ为(0,1)之间的常数;
2.训练网络;
第一步,准备数据集,设定生成网络损失函数阈值为1*10-4和判别网络损失函数阈值为0.1,最大训练次数为10000,初始化训练参数,以华为mate20pro所拍摄的一张尺寸为2736x3648x3的3通道RGB图像为例;
第二步,把手机拍摄图像输入生成网络,尺寸为2736x3648x3,输出去噪图像,尺寸为2736x3648x3;
第三步,将去噪图像输入判别网络,输出为M,M是0到1之间的实数,去噪图像越接近干净图像,M越接近1;
第四步,计算判别网络的损失函数D,D=1-M,计算生成网络的损失函数L,L=αD+βP+γS,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的生成网络损失函数值与第n-1次迭代训练的生成网络损失函数值的绝对误差,当n等于1和2时S=0,α=0.7,β=0.2,γ=0.1;
第五步,若D和L大于所设定的损失函数阈值或未达到最大训练次数,则重复第二步至第四步;
3.网络参数使用自适应矩估计算法进行优化,优化方法如下:
网络参数使用自适应矩估计算法进行优化,优化方法如下:
输入为手机拍摄图像数据集X={x1,x2,...,x1000},输出为去噪后图像
Figure BDA0002883355050000071
标签数据集Y={y1,y2,...,y1000},输入信号经过多感知对抗生成网络后输出
Figure BDA0002883355050000072
Figure BDA0002883355050000073
优化多感知对抗生成网络参数w使
Figure BDA0002883355050000074
取出10个样本进入网络训练,L为损失函数,数据梯度均值为g,定义为:
Figure BDA0002883355050000075
Figure BDA0002883355050000076
表示损失函数L(yj,F(xj;w))对w求偏导数;设定参数β1=0.9,β2=0.99,设定e为平滑参数,e=1*10-4,计算衰减梯度为vi,i=1,2,...,t,vt=β1·vt-1+(1-β1)g,计算衰减学习率为ri,i=1,2,...,t,rt=β2·rt-1+(1-β2)g2;再对r和v进行偏置校正,
Figure BDA0002883355050000077
其中t为训练次数,(β1)t表示β1的t次方,(β2)t表示β2的t次方;更新多感知对抗生成网络参数wi,i=1,2,...,t,
Figure BDA0002883355050000078
4.向构建好的网络模型F(X;w)中输入含有噪声的手机拍摄图像X,网络输出为去噪后的手机拍摄图像
Figure BDA0002883355050000079
通过客观数据分析,由下表可以看出,在不同的拍摄参数下,多感知对抗生成网络(M-GAN)所生成去噪图像的峰值信噪比(PSNR)与结构相似性(SSIM)都优于BM3D,DnCNN和SRGAN方法。
以上所述SRGAN为Li J等2019年所发表的论文Super resolution imagereconstruction of textile based on SRGAN[C]//2019IEEE InternationalConference on Smart Internet of Things(SmartloT).IEEE,2019:436-439.以上所述的DnCNN为Zhang K等在2017年发表的论文Beyond a gaussian denoiser:Residual leamingof deep cnn for image denoising[J].IEEE Transactions on Image Processing,2017,26(7):3142-3155.以上所述的BM3D为Dabov K在2007年发表的论文Image denoisingby sparse 3-D transform-domain collaborative filtering[J].IEEE Transactionson image processing,2007,16(8):2080-2095.
场景 ISO 快门速度(秒) 环境亮度 去噪方法 PSNR(dB) SSIM
书本 400 1/1000 噪声图像 27.1434 0.5514
书本 400 1/1000 BM3D 34.5132 0.8507
书本 400 1/1000 SRGAN 35.5854 0.9217
书本 400 1/1000 DnCNN 36.0433 0.9136
书本 400 1/1000 M-GAN 37.5765 0.9360
书本 100 1/4000 正常 噪声图像 27.6665 0.5543
书本 100 1/4000 正常 BM3D 34.6241 0.8845
书本 100 1/4000 正常 SRGAN 36.1442 0.9011
书本 100 1/4000 正常 DnCNN 36.4955 0.8978
书本 100 1/4000 正常 M-GAN 37.7243 0.9408

Claims (1)

1.本发明涉及一种基于多感知对抗生成网络的手机拍摄图像去噪方法,其特征在于包括以下步骤:
步骤1.构建多感知对抗生成网络模型;
1)构建多感知对抗生成网络中的生成网络F(x;w),x为对抗生成网络输入,w为对抗生成网络参数:
生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,卷积块包含两个卷积层,第一层卷积的卷积核大小为3x3,填充为1,步长为1,第二层卷积的卷积核大小为1x1,填充为0,步长为1,激活函数为线性整流函数;隐藏层中第二部分包含四个卷积块和三个上采样层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;其中线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;生成网络的损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的损失函数值与第n-1次迭代训练的损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
2)构建多感知对抗生成网络中的判别网络:
判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成,感知块包括卷积运算、批量标准化和激活函数,其中卷积核大小为3x3,填充取1,步长为1,激活函数选用渗漏整流线性函数;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化;隐藏层由连接块组成,链接块包含卷积运算、池化运算、批量标准化和激活函数,其中卷积核尺寸为3x3,填充取1,步长为1,池化采用3x3最大池化,步长为2,激活函数选用线性整流函数;线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;渗漏整流线性函数的表达式为:x>0时,g(x)=x,x≤0时,g(x)=λx,x为输入量,λ为(0,1)之间的常数;
步骤2.训练多感知对抗生成网络,步骤如下:
第一步,准备数据集,设定损失函数阈值和最大训练次数,初始化训练参数;
第二步,把手机拍摄图像输入生成网络,输出去噪图像;
第三步,将去噪图像输入判别网络,输出为M,M是0到1之间的实数,去噪图像越接近干净图像,M越接近1;
第四步,计算判别网络的损失函数D,D=1-M,计算生成网络的损失函数L,L=αD+βP+γS,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的生成网络损失函数值与第n-1次迭代训练的生成网络损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
第五步,若D和L大于所设定的损失函数阈值或未达到最大训练次数,则重复第二步至第四步;
步骤3.网络参数使用自适应矩估计算法进行优化,优化方法如下:
输入为手机拍摄图像数据集X={x1,x2,…,xn},输出为去噪后图像
Figure FDA0002883355040000021
标签数据集Y={y1,y2,...,yn},输入信号经过多感知对抗生成网络后输出
Figure FDA0002883355040000022
优化多感知对抗生成网络参数w,使
Figure FDA0002883355040000023
取出m个样本进入网络训练,m与n均为正整数,m≤n,L为损失函数,数据梯度均值为g,定义为:
Figure FDA0002883355040000024
Figure FDA0002883355040000025
表示损失函数L(yj,F(xj;w))对w求偏导数;设定参数β1和β2,取值范围为(0,1),设定e为平滑参数,取值范围为(0,1),计算衰减梯度为vi,i=1,2,...,t,vt=β1·vt-1+(1-β1)g,计算衰减学习率为ri,i=1,2,...,t,rt=β2·rt-1+(1-β2)g2;再对r和v进行偏置校正,
Figure FDA0002883355040000026
其中t为训练次数,(β1)t表示β1的t次方,(β2)t表示β2的t次方;更新多感知对抗生成网络参数wi,i=1,2,...,t,
Figure FDA0002883355040000027
步骤4.向构建好的网络模型F(X;w)中输入含有噪声的手机拍摄图像X,网络输出为去噪后的手机拍摄图像
Figure FDA0002883355040000028
CN202110006557.6A 2021-01-05 2021-01-05 基于多感知对抗生成网络的手机拍摄图像去噪方法 Expired - Fee Related CN112634176B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110006557.6A CN112634176B (zh) 2021-01-05 2021-01-05 基于多感知对抗生成网络的手机拍摄图像去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110006557.6A CN112634176B (zh) 2021-01-05 2021-01-05 基于多感知对抗生成网络的手机拍摄图像去噪方法

Publications (2)

Publication Number Publication Date
CN112634176A true CN112634176A (zh) 2021-04-09
CN112634176B CN112634176B (zh) 2022-02-25

Family

ID=75291382

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110006557.6A Expired - Fee Related CN112634176B (zh) 2021-01-05 2021-01-05 基于多感知对抗生成网络的手机拍摄图像去噪方法

Country Status (1)

Country Link
CN (1) CN112634176B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643202A (zh) * 2021-07-29 2021-11-12 西安理工大学 一种基于噪声注意力图指导的微光图像增强方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180165554A1 (en) * 2016-12-09 2018-06-14 The Research Foundation For The State University Of New York Semisupervised autoencoder for sentiment analysis
CN108492258A (zh) * 2018-01-17 2018-09-04 天津大学 一种基于生成对抗网络的雷达图像去噪方法
US20180293713A1 (en) * 2017-04-06 2018-10-11 Pixar Denoising monte carlo renderings using machine learning with importance sampling
US20190098090A1 (en) * 2012-01-09 2019-03-28 May Patents Ltd. System and method for server based control
CN109785258A (zh) * 2019-01-10 2019-05-21 华南理工大学 一种基于多判别器生成对抗网络的人脸图像修复方法
CN109993710A (zh) * 2019-03-20 2019-07-09 西北工业大学 一种基于生成对抗网络的水下图像去噪方法
CN110097512A (zh) * 2019-04-16 2019-08-06 四川大学 基于Wasserstein生成对抗网络的三维MRI图像去噪模型的构建方法及应用

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190098090A1 (en) * 2012-01-09 2019-03-28 May Patents Ltd. System and method for server based control
US20180165554A1 (en) * 2016-12-09 2018-06-14 The Research Foundation For The State University Of New York Semisupervised autoencoder for sentiment analysis
US20180293713A1 (en) * 2017-04-06 2018-10-11 Pixar Denoising monte carlo renderings using machine learning with importance sampling
CN108492258A (zh) * 2018-01-17 2018-09-04 天津大学 一种基于生成对抗网络的雷达图像去噪方法
CN109785258A (zh) * 2019-01-10 2019-05-21 华南理工大学 一种基于多判别器生成对抗网络的人脸图像修复方法
CN109993710A (zh) * 2019-03-20 2019-07-09 西北工业大学 一种基于生成对抗网络的水下图像去噪方法
CN110097512A (zh) * 2019-04-16 2019-08-06 四川大学 基于Wasserstein生成对抗网络的三维MRI图像去噪模型的构建方法及应用

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
MR. JAYNIL PATEL 等: "Review on Generative Adversarial Networks", 《INTERNATIONAL JOURNAL OF TECHNICAL INNOVATION IN MODERN ENGINEERING》 *
刘珊珊 等: "基于残差分布式压缩感知的视频软组播研究", 《太原科技大学学报》 *
袁琳君 等: "基于生成对抗网络的人像修复", 《计算机应用》 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113643202A (zh) * 2021-07-29 2021-11-12 西安理工大学 一种基于噪声注意力图指导的微光图像增强方法

Also Published As

Publication number Publication date
CN112634176B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
Tian et al. Image denoising using deep CNN with batch renormalization
CN110599409B (zh) 基于多尺度卷积组与并行的卷积神经网络图像去噪方法
Isogawa et al. Deep shrinkage convolutional neural network for adaptive noise reduction
CN109360156B (zh) 基于生成对抗网络的图像分块的单张图像去雨方法
CN112507997B (zh) 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统
CN110766632A (zh) 基于通道注意力机制和特征金字塔的图像去噪方法
US20240062530A1 (en) Deep perceptual image enhancement
US20230177641A1 (en) Neural network training method, image processing method, and apparatus
Wang et al. MAGAN: Unsupervised low-light image enhancement guided by mixed-attention
CN110148088B (zh) 图像处理方法、图像去雨方法、装置、终端及介质
Min et al. Blind deblurring via a novel recursive deep CNN improved by wavelet transform
CN111768350B (zh) 一种红外图像增强方法及系统
CN111047543A (zh) 图像增强方法、装置和存储介质
Paul et al. Modified convolutional neural network with pseudo-CNN for removing nonlinear noise in digital images
CN114037888A (zh) 基于联合注意力和自适应nms的目标检测方法和系统
CN114581318B (zh) 一种低照明度图像增强方法及系统
Masse et al. Denoising very high resolution optical remote sensing images: Application and optimization of nonlocal bayes method
CN112634175A (zh) 基于双重卷积网络的手机拍摄图像去噪方法
Ahn et al. Block-matching convolutional neural network (BMCNN): improving CNN-based denoising by block-matched inputs
CN112634176B (zh) 基于多感知对抗生成网络的手机拍摄图像去噪方法
CN116309178A (zh) 一种基于自适应注意力机制网络的可见光图像去噪方法
Li et al. Super‐Resolution Reconstruction of Underwater Image Based on Image Sequence Generative Adversarial Network
Singh et al. Denoised autoencoder using DCNN transfer learning approach
CN111553860B (zh) 水色遥感影像的深度学习非邻域均值化处理方法及系统
CN115311149A (zh) 图像去噪方法、模型、计算机可读存储介质及终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20220225