CN112634176A - 基于多感知对抗生成网络的手机拍摄图像去噪方法 - Google Patents
基于多感知对抗生成网络的手机拍摄图像去噪方法 Download PDFInfo
- Publication number
- CN112634176A CN112634176A CN202110006557.6A CN202110006557A CN112634176A CN 112634176 A CN112634176 A CN 112634176A CN 202110006557 A CN202110006557 A CN 202110006557A CN 112634176 A CN112634176 A CN 112634176A
- Authority
- CN
- China
- Prior art keywords
- network
- image
- layer
- convolution
- function
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 230000006870 function Effects 0.000 claims description 80
- 238000011176 pooling Methods 0.000 claims description 26
- 230000004913 activation Effects 0.000 claims description 21
- 238000009499 grossing Methods 0.000 claims description 7
- 238000012886 linear function Methods 0.000 claims description 7
- 238000007477 logistic regression Methods 0.000 claims description 5
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000005457 optimization Methods 0.000 claims description 4
- 238000005070 sampling Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 6
- 230000007547 defect Effects 0.000 abstract description 3
- 238000013135 deep learning Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000011514 reflex Effects 0.000 description 3
- 238000001914 filtration Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000005096 rolling process Methods 0.000 description 2
- 239000004753 textile Substances 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种多感知对抗生成网络的手机拍摄图像去噪方法,本发明改进了SRGAN的不足,提出了一种新的损失函数,避免了SRGAN网络可能不收敛或者效果差的问题;判别网络在输入层使用了多个感知块,使判别网络不限制输入数据尺寸,更好的保存了输入数据的细节。
Description
技术领域
本发明涉及图像去噪领域,特别是涉及手机拍摄图像,具体涉及一种基于多感知对抗生成网络的手机拍摄图像去噪方法。
背景技术
在智能手机的各个功能中,拍照是一项非常重要的功能,虽然人们越来越习惯于使用轻便的智能手机拍照而不是笨重的数码单反相机,但是因为手机内部空间的限制,导致其传感器尺寸、光圈大小等硬件配置和数码单反相机仍然有差距,这种硬件配置的差距导致智能手机拍照时产生的噪点会相对多于数码单反相机。智能手机相比于数码单反的优势在其拥有强大的芯片和神经网络处理器,智能手机利用其芯片的强大运算能力,可以很好的解决拍摄图像不清晰、细节模糊等问题。
传统的图像去噪算法是在含有噪声的图像中寻找出一定规律后再进行相对应的图像去噪处理,如果含有噪声的图片本身没有办法找到有用的规律,去噪的效果就会大大降低。深度学习的图像去噪方法是最近兴起的一种属于数据驱动的方法,大部分图像去噪的实验数据是充足的,这为深度学习的图像去噪方法提供了坚实的基础,所以当前深度学习方法在许多场景下的去噪效果已经超越块匹配和3D滤波算法(Block-matching and 3Dfiltering,BM3D),该方法是Dabov K在2007年发表的论文Image denoising by sparse 3-D transform-domain collaborative filtering[J].IEEE Transactions on imageprocessing,2007,16(8):2080-2095。
智能手机的拍照环境多变且复杂,产生的图像噪声随机性强且通常与信号相关,受环境因素影响大,没有明确的分布可以描述。目前的一些基于深度学习的图像去噪方法应用于手机拍摄图像去噪时通常会出现去噪图像细节模糊、峰值信噪比低等问题,如何解决常规深度学习的图像去噪方法应用在智能手机拍摄图像上的缺陷是本论文研究目的和意义。
发明内容
为了解决现有技术的缺陷,改善常规深度学习方法生成的去噪图像细节模糊、纹理不清的问题,避免网络可能不收敛或者收敛慢的问题,提出了一种多感知对抗生成网络去噪方法,本发明可以提高手机拍摄图像的去噪效果。
本发明涉及一种多感知对抗生成网络的手机拍摄图像去噪方法,其特征在于包括以下步骤:
本发明涉及一种基于多感知对抗生成网络的手机拍摄图像去噪方法,其特征在于包括以下步骤:
1.构建多感知对抗生成网络模型;
1)构建多感知对抗生成网络中的生成网络F(x;w),x为对抗生成网络输入,w为对抗生成网络参数:
生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;隐藏层中第二部分包含四个卷积块和三个上采样层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;其中线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;生成网络的损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的损失函数值与第n-1次迭代训练的损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
2)构建多感知对抗生成网络中的判别网络:
判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成,感知块包括卷积运算、批量标准化和激活函数,其中卷积核大小为3x3,填充取1,步长为1,激活函数选用渗漏整流线性函数;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,干净图像是指去噪目标图像,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化;隐藏层包含卷积块和池化层,卷积块包含卷积运算、批量标准化和激活函数,其中卷积核尺寸为3x3,填充取1,步长为1,池化层采用3x3最大池化,步长为2,激活函数选用线性整流函数;线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;渗漏整流线性函数的表达式为:x>0时,g(x)=x,x≤0时,g(x)=λx,x为输入量,λ为(0,1)之间的常数;
2.训练多感知对抗生成网络,步骤如下:
第一步,准备数据集,设定损失函数阈值和最大训练次数,初始化训练参数;
第二步,把手机拍摄图像输入生成网络,输出去噪图像;
第三步,将去噪图像输入判别网络,输出为M,M是0到1之间的实数,去噪图像越接近干净图像,M越接近1;
第四步,计算判别网络的损失函数D,D=1-M,计算生成网络的损失函数L,L=αD+βP+γS,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的生成网络损失函数值与第n-1次迭代训练的生成网络损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
第五步,若D和L大于所设定的损失函数阈值或未达到最大训练次数,则重复第二步至第四步;
3.网络参数使用自适应矩估计算法进行优化,优化方法如下:
输入为手机拍摄图像数据集X={x1,x2,...,xn},输出为去噪后图像标签数据集Y={y1,y2,...,yn},输入信号经过多感知对抗生成网络后输出优化多感知对抗生成网络参数w,使取出m个样本进入网络训练,m与n均为正整数,m≤n,L为损失函数,数据梯度均值为g,定义为:
表示损失函数L(yj,F(xj;w))对w求偏导数;设定参数β1和β2,取值范围为(0,1),设定e为平滑参数,取值范围为(0,1),计算衰减梯度为vi,i=1,2,...,t,vt=β1·vt-1+(1-β1)g,计算衰减学习率为ri,i=1,2,...,t,rt=β2·rt-1+(1-β2)g2;再对r和v进行偏置校正,其中t为训练次数,(β1)t表示β1的t次方,(β2)t表示β2的t次方;更新多感知对抗生成网络参数wi,i=1,2,...,t,
本发明的创新点:
1.在生成网络部分,与SRGAN相比较,多感知对抗生成网络提出了一种新的损失函数,该损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,α,β和γ分别是D、P和S的预定义权重,避免了SRGAN网络可能不收敛或者效果差的问题;
2.在判别网络部分,与SRGAN相比较,多感知对抗生成网络提出了一种新的结构,在输入层使用多感知块结构,该结构中的感知块互相独立,提出图像中的特征,使判别网络不限制输入数据尺寸,更好的保存了输入数据的细节。
以上所述SRGAN为Li J等2019年所发表的论文Super resolution imagereconstruction of textile based on SRGAN[C]//2019IEEE InternationalConference on Smart Internet of Things(SmartloT).IEEE,2019:436-439.
附图说明
图1是生成网络结构示意图,生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,隐藏层中第二部分包含四个卷积块和三个上采样层。
图2是判别网络结构示意图,判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成;隐藏层由链接块组成,链接块包含卷积运算、池化运算、批量标准化和激活函数。
图3是生成网络中卷积块的结构示意图,卷积块包含两层2维卷积和线性整流函数,第一层2维卷积的卷积核大小为3x3,填充为1,步长为1,第二层卷积的卷积核大小为1x1,填充为0,步长为1。
图4是判别网络感知块结构示意图,包含二维卷积(卷积核大小为3,步长和填充为1),批量标准化和渗漏整流线性函数,渗漏整流线性函数可以避免某些神经元可能永远不会被激活,导致相应的参数永远不能被更新的问题。
图5是判别网络的链接块结构示意图,链接块包括卷积运算(卷积核大小为3x3,步长取1,填充为1)、池化运算(3x3最大池化,步长为2)、批量标准化和激活函数,激活函数选用线性整流函数。
图6是判别网络输出层结构示意图,输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化。
图7是本发明的方法流程图,多感知对抗生成网络由生成网络和判别网络组成;把待去噪图像输入到生成网络,输出为去噪图像,把去噪图像和图像输入判别网络,判别网络输出判别结果,判别结果为真伪的概率值,去噪图像越接近干净图像,该数值越接近1,若判别为真则去噪图像合格,若判别为假则去噪图像不合格。
图8是本发明与其它方法的去噪效果对比图,图中(a)是干净图片,(b)是含有噪声的图片,(c)是使用SRGAN去噪后的图片,(d)是通过多感知对抗生成网络进行去噪得到的图片,其中(c)的峰值信噪比(PSNR)与结构相似性(SSIM)分别为35.3854和0.9217,其中(d)的峰值信噪比(PSNR)与结构相似性(SSIM)分别为37.5765和0.9360,可以看出多感知对抗生成网络比SRGAN的去噪效果更好。
具体实施方式
下面对本发明的技术方案的主要实现原理、具体实施方式等进行详细描述。
1.构建多感知对抗生成网络模型;
1)构建多感知对抗生成网络中的生成网络F(x;w),x为对抗生成网络输入,w为对抗生成网络参数:
生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,卷积块包含两个卷积层,第一层卷积的卷积核大小为3x3,填充为1,步长为1,第二层卷积的卷积核大小为1x1,填充为0,步长为1,激活函数为线性整流函数;隐藏层中第二部分包含四个卷积块和三个上采样层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;其中线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;生成网络的损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的损失函数值与第n-1次迭代训练的损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
2)构建多感知对抗生成网络中的判别网络:
判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成,感知块包括卷积运算、批量标准化和激活函数,其中卷积核大小为3x3,填充取1,步长为1,激活函数选用渗漏整流线性函数;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化;隐藏层由连接块组成,链接块包含卷积运算、池化运算、批量标准化和激活函数,其中卷积核尺寸为3x3,填充取1,步长为1,池化采用3x3最大池化,步长为2,激活函数选用线性整流函数;线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;渗漏整流线性函数的表达式为:x>0时,g(x)=x,x≤0时,g(x)=λx,x为输入量,λ为(0,1)之间的常数;
2.训练网络;
第一步,准备数据集,设定生成网络损失函数阈值为1*10-4和判别网络损失函数阈值为0.1,最大训练次数为10000,初始化训练参数,以华为mate20pro所拍摄的一张尺寸为2736x3648x3的3通道RGB图像为例;
第二步,把手机拍摄图像输入生成网络,尺寸为2736x3648x3,输出去噪图像,尺寸为2736x3648x3;
第三步,将去噪图像输入判别网络,输出为M,M是0到1之间的实数,去噪图像越接近干净图像,M越接近1;
第四步,计算判别网络的损失函数D,D=1-M,计算生成网络的损失函数L,L=αD+βP+γS,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的生成网络损失函数值与第n-1次迭代训练的生成网络损失函数值的绝对误差,当n等于1和2时S=0,α=0.7,β=0.2,γ=0.1;
第五步,若D和L大于所设定的损失函数阈值或未达到最大训练次数,则重复第二步至第四步;
3.网络参数使用自适应矩估计算法进行优化,优化方法如下:
网络参数使用自适应矩估计算法进行优化,优化方法如下:
输入为手机拍摄图像数据集X={x1,x2,...,x1000},输出为去噪后图像标签数据集Y={y1,y2,...,y1000},输入信号经过多感知对抗生成网络后输出 优化多感知对抗生成网络参数w使取出10个样本进入网络训练,L为损失函数,数据梯度均值为g,定义为:
表示损失函数L(yj,F(xj;w))对w求偏导数;设定参数β1=0.9,β2=0.99,设定e为平滑参数,e=1*10-4,计算衰减梯度为vi,i=1,2,...,t,vt=β1·vt-1+(1-β1)g,计算衰减学习率为ri,i=1,2,...,t,rt=β2·rt-1+(1-β2)g2;再对r和v进行偏置校正,其中t为训练次数,(β1)t表示β1的t次方,(β2)t表示β2的t次方;更新多感知对抗生成网络参数wi,i=1,2,...,t,
通过客观数据分析,由下表可以看出,在不同的拍摄参数下,多感知对抗生成网络(M-GAN)所生成去噪图像的峰值信噪比(PSNR)与结构相似性(SSIM)都优于BM3D,DnCNN和SRGAN方法。
以上所述SRGAN为Li J等2019年所发表的论文Super resolution imagereconstruction of textile based on SRGAN[C]//2019IEEE InternationalConference on Smart Internet of Things(SmartloT).IEEE,2019:436-439.以上所述的DnCNN为Zhang K等在2017年发表的论文Beyond a gaussian denoiser:Residual leamingof deep cnn for image denoising[J].IEEE Transactions on Image Processing,2017,26(7):3142-3155.以上所述的BM3D为Dabov K在2007年发表的论文Image denoisingby sparse 3-D transform-domain collaborative filtering[J].IEEE Transactionson image processing,2007,16(8):2080-2095.
场景 | ISO | 快门速度(秒) | 环境亮度 | 去噪方法 | PSNR(dB) | SSIM |
书本 | 400 | 1/1000 | 暗 | 噪声图像 | 27.1434 | 0.5514 |
书本 | 400 | 1/1000 | 暗 | BM3D | 34.5132 | 0.8507 |
书本 | 400 | 1/1000 | 暗 | SRGAN | 35.5854 | 0.9217 |
书本 | 400 | 1/1000 | 暗 | DnCNN | 36.0433 | 0.9136 |
书本 | 400 | 1/1000 | 暗 | M-GAN | 37.5765 | 0.9360 |
书本 | 100 | 1/4000 | 正常 | 噪声图像 | 27.6665 | 0.5543 |
书本 | 100 | 1/4000 | 正常 | BM3D | 34.6241 | 0.8845 |
书本 | 100 | 1/4000 | 正常 | SRGAN | 36.1442 | 0.9011 |
书本 | 100 | 1/4000 | 正常 | DnCNN | 36.4955 | 0.8978 |
书本 | 100 | 1/4000 | 正常 | M-GAN | 37.7243 | 0.9408 |
Claims (1)
1.本发明涉及一种基于多感知对抗生成网络的手机拍摄图像去噪方法,其特征在于包括以下步骤:
步骤1.构建多感知对抗生成网络模型;
1)构建多感知对抗生成网络中的生成网络F(x;w),x为对抗生成网络输入,w为对抗生成网络参数:
生成网络包括三个网络层,输入层、隐藏层、输出层;输入层是手机拍摄图像的输入;输出层是输出已估计的噪声;隐藏层分为两个部分:隐藏层中第一部分包含四个卷积块和三个池化层,卷积块包含两个卷积层,第一层卷积的卷积核大小为3x3,填充为1,步长为1,第二层卷积的卷积核大小为1x1,填充为0,步长为1,激活函数为线性整流函数;隐藏层中第二部分包含四个卷积块和三个上采样层,卷积块包含两个卷积层,第一层卷积的卷积核大小为1x1,填充为0,步长为1,第二层卷积的卷积核大小为3x3,填充为1,步长为1,激活函数为线性整流函数;其中线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;生成网络的损失函数为L=αD+βP+γS,其中L为损失函数,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的损失函数值与第n-1次迭代训练的损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
2)构建多感知对抗生成网络中的判别网络:
判别网络包括三个网络层,输入层、隐藏层、输出层;输入层的输入是生成网络输出的去噪图像,由多个感知块组成,感知块包括卷积运算、批量标准化和激活函数,其中卷积核大小为3x3,填充取1,步长为1,激活函数选用渗漏整流线性函数;输出层的输出是0到1之间的实数,去噪图像越接近干净图像,该数值越接近1,由池化层、全连接层和逻辑回归分类器组成,其中池化层为7x7全局池化;隐藏层由连接块组成,链接块包含卷积运算、池化运算、批量标准化和激活函数,其中卷积核尺寸为3x3,填充取1,步长为1,池化采用3x3最大池化,步长为2,激活函数选用线性整流函数;线性整流函数的表达式为f(x)=max(0,x),x取值为任意实数;渗漏整流线性函数的表达式为:x>0时,g(x)=x,x≤0时,g(x)=λx,x为输入量,λ为(0,1)之间的常数;
步骤2.训练多感知对抗生成网络,步骤如下:
第一步,准备数据集,设定损失函数阈值和最大训练次数,初始化训练参数;
第二步,把手机拍摄图像输入生成网络,输出去噪图像;
第三步,将去噪图像输入判别网络,输出为M,M是0到1之间的实数,去噪图像越接近干净图像,M越接近1;
第四步,计算判别网络的损失函数D,D=1-M,计算生成网络的损失函数L,L=αD+βP+γS,D表示来自判别网络的损失,P是所生成的图像与真实图像之间的像素与像素间差值的L2范数,S是平滑损失,表示第n次迭代训练的生成网络损失函数值与第n-1次迭代训练的生成网络损失函数值的绝对误差,当n等于1和2时S=0,α,β和γ是0到1之间的实数,分别是D、P和S的预定义权重;
第五步,若D和L大于所设定的损失函数阈值或未达到最大训练次数,则重复第二步至第四步;
步骤3.网络参数使用自适应矩估计算法进行优化,优化方法如下:
输入为手机拍摄图像数据集X={x1,x2,…,xn},输出为去噪后图像标签数据集Y={y1,y2,...,yn},输入信号经过多感知对抗生成网络后输出优化多感知对抗生成网络参数w,使取出m个样本进入网络训练,m与n均为正整数,m≤n,L为损失函数,数据梯度均值为g,定义为:
表示损失函数L(yj,F(xj;w))对w求偏导数;设定参数β1和β2,取值范围为(0,1),设定e为平滑参数,取值范围为(0,1),计算衰减梯度为vi,i=1,2,...,t,vt=β1·vt-1+(1-β1)g,计算衰减学习率为ri,i=1,2,...,t,rt=β2·rt-1+(1-β2)g2;再对r和v进行偏置校正,其中t为训练次数,(β1)t表示β1的t次方,(β2)t表示β2的t次方;更新多感知对抗生成网络参数wi,i=1,2,...,t,
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110006557.6A CN112634176B (zh) | 2021-01-05 | 2021-01-05 | 基于多感知对抗生成网络的手机拍摄图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110006557.6A CN112634176B (zh) | 2021-01-05 | 2021-01-05 | 基于多感知对抗生成网络的手机拍摄图像去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112634176A true CN112634176A (zh) | 2021-04-09 |
CN112634176B CN112634176B (zh) | 2022-02-25 |
Family
ID=75291382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110006557.6A Expired - Fee Related CN112634176B (zh) | 2021-01-05 | 2021-01-05 | 基于多感知对抗生成网络的手机拍摄图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112634176B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643202A (zh) * | 2021-07-29 | 2021-11-12 | 西安理工大学 | 一种基于噪声注意力图指导的微光图像增强方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180165554A1 (en) * | 2016-12-09 | 2018-06-14 | The Research Foundation For The State University Of New York | Semisupervised autoencoder for sentiment analysis |
CN108492258A (zh) * | 2018-01-17 | 2018-09-04 | 天津大学 | 一种基于生成对抗网络的雷达图像去噪方法 |
US20180293713A1 (en) * | 2017-04-06 | 2018-10-11 | Pixar | Denoising monte carlo renderings using machine learning with importance sampling |
US20190098090A1 (en) * | 2012-01-09 | 2019-03-28 | May Patents Ltd. | System and method for server based control |
CN109785258A (zh) * | 2019-01-10 | 2019-05-21 | 华南理工大学 | 一种基于多判别器生成对抗网络的人脸图像修复方法 |
CN109993710A (zh) * | 2019-03-20 | 2019-07-09 | 西北工业大学 | 一种基于生成对抗网络的水下图像去噪方法 |
CN110097512A (zh) * | 2019-04-16 | 2019-08-06 | 四川大学 | 基于Wasserstein生成对抗网络的三维MRI图像去噪模型的构建方法及应用 |
-
2021
- 2021-01-05 CN CN202110006557.6A patent/CN112634176B/zh not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190098090A1 (en) * | 2012-01-09 | 2019-03-28 | May Patents Ltd. | System and method for server based control |
US20180165554A1 (en) * | 2016-12-09 | 2018-06-14 | The Research Foundation For The State University Of New York | Semisupervised autoencoder for sentiment analysis |
US20180293713A1 (en) * | 2017-04-06 | 2018-10-11 | Pixar | Denoising monte carlo renderings using machine learning with importance sampling |
CN108492258A (zh) * | 2018-01-17 | 2018-09-04 | 天津大学 | 一种基于生成对抗网络的雷达图像去噪方法 |
CN109785258A (zh) * | 2019-01-10 | 2019-05-21 | 华南理工大学 | 一种基于多判别器生成对抗网络的人脸图像修复方法 |
CN109993710A (zh) * | 2019-03-20 | 2019-07-09 | 西北工业大学 | 一种基于生成对抗网络的水下图像去噪方法 |
CN110097512A (zh) * | 2019-04-16 | 2019-08-06 | 四川大学 | 基于Wasserstein生成对抗网络的三维MRI图像去噪模型的构建方法及应用 |
Non-Patent Citations (3)
Title |
---|
MR. JAYNIL PATEL 等: "Review on Generative Adversarial Networks", 《INTERNATIONAL JOURNAL OF TECHNICAL INNOVATION IN MODERN ENGINEERING》 * |
刘珊珊 等: "基于残差分布式压缩感知的视频软组播研究", 《太原科技大学学报》 * |
袁琳君 等: "基于生成对抗网络的人像修复", 《计算机应用》 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113643202A (zh) * | 2021-07-29 | 2021-11-12 | 西安理工大学 | 一种基于噪声注意力图指导的微光图像增强方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112634176B (zh) | 2022-02-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tian et al. | Image denoising using deep CNN with batch renormalization | |
CN110599409B (zh) | 基于多尺度卷积组与并行的卷积神经网络图像去噪方法 | |
Isogawa et al. | Deep shrinkage convolutional neural network for adaptive noise reduction | |
CN109360156B (zh) | 基于生成对抗网络的图像分块的单张图像去雨方法 | |
CN112507997B (zh) | 一种基于多尺度卷积和感受野特征融合的人脸超分辨系统 | |
CN110766632A (zh) | 基于通道注意力机制和特征金字塔的图像去噪方法 | |
US20240062530A1 (en) | Deep perceptual image enhancement | |
US20230177641A1 (en) | Neural network training method, image processing method, and apparatus | |
Wang et al. | MAGAN: Unsupervised low-light image enhancement guided by mixed-attention | |
CN110148088B (zh) | 图像处理方法、图像去雨方法、装置、终端及介质 | |
Min et al. | Blind deblurring via a novel recursive deep CNN improved by wavelet transform | |
CN111768350B (zh) | 一种红外图像增强方法及系统 | |
CN111047543A (zh) | 图像增强方法、装置和存储介质 | |
Paul et al. | Modified convolutional neural network with pseudo-CNN for removing nonlinear noise in digital images | |
CN114037888A (zh) | 基于联合注意力和自适应nms的目标检测方法和系统 | |
CN114581318B (zh) | 一种低照明度图像增强方法及系统 | |
Masse et al. | Denoising very high resolution optical remote sensing images: Application and optimization of nonlocal bayes method | |
CN112634175A (zh) | 基于双重卷积网络的手机拍摄图像去噪方法 | |
Ahn et al. | Block-matching convolutional neural network (BMCNN): improving CNN-based denoising by block-matched inputs | |
CN112634176B (zh) | 基于多感知对抗生成网络的手机拍摄图像去噪方法 | |
CN116309178A (zh) | 一种基于自适应注意力机制网络的可见光图像去噪方法 | |
Li et al. | Super‐Resolution Reconstruction of Underwater Image Based on Image Sequence Generative Adversarial Network | |
Singh et al. | Denoised autoencoder using DCNN transfer learning approach | |
CN111553860B (zh) | 水色遥感影像的深度学习非邻域均值化处理方法及系统 | |
CN115311149A (zh) | 图像去噪方法、模型、计算机可读存储介质及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20220225 |