CN113160089B - 基于局部密度损失的图像去噪方法 - Google Patents
基于局部密度损失的图像去噪方法 Download PDFInfo
- Publication number
- CN113160089B CN113160089B CN202110508093.9A CN202110508093A CN113160089B CN 113160089 B CN113160089 B CN 113160089B CN 202110508093 A CN202110508093 A CN 202110508093A CN 113160089 B CN113160089 B CN 113160089B
- Authority
- CN
- China
- Prior art keywords
- matrix
- value
- density loss
- loss function
- pixel value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 239000011159 matrix material Substances 0.000 claims abstract description 72
- 238000013528 artificial neural network Methods 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 6
- 238000005457 optimization Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000011478 gradient descent method Methods 0.000 claims description 3
- 238000003062 neural network model Methods 0.000 abstract description 4
- 230000006870 function Effects 0.000 description 34
- 230000000694 effects Effects 0.000 description 6
- 238000013135 deep learning Methods 0.000 description 5
- 238000002474 experimental method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011084 recovery Methods 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提出一种基于局部密度损失的图像去噪方法,其特征在于:首先,采用全连接神经网络模型对图像像素值缺失的矩阵进行矩阵补全;然后,通过反向传播和梯度下降更新参数,将高斯影响函数进行求导得出高斯密度损失函数,且将高斯密度损失函数用于衡量模型预测的好坏。本发明能够有效地完成矩阵补全,引入局部密度损失函数进行模型预测好坏的衡量,在图像去噪任务上对比其他方法能够具有更加良好的性能,具有较高的实用价值。
Description
技术领域
本发明属于神经网络,矩阵补全和图像去噪技术领域,尤其涉及一种基于局部密度损失的图像去噪方法。
背景技术
图像去噪的研究是计算机视觉领域的重要组成部分。近年来,基于深度学习的去噪方法被成功应用于合成噪声,但对真实噪声的泛化性能较差。真实噪声是指由拍照设备在照明条件差、相机抖动、物体运动、空间像素不对准、颜色亮度不匹配等情况下获取的图像中存在的噪声,具有噪声水平未知、噪声类型多样、噪声分布复杂且难以参数化等特点。而合成噪声是指噪声类型符合某种概率分布,且噪声水平可自主设定,如高斯噪声、椒盐噪声、斑点噪声等。目前,图像去噪方法已广泛应用于遥感图像处理、医学影像分析、人脸和指纹识别等诸多领域。
图像去噪方法主要分为:基于人工特征的传统去噪方法和基于深度学习的去噪方法。基于人工特征的传统图像去噪方法使用离散余弦变换、小波变换等修改变换系数,用平均邻域值计算局部相似性。NLM方法和BM3D方法利用自相似补丁在图像保真度和视觉质量上取得突出效果。基于这两种方法,许多变体方法如SADCT、SAPCA、NLB等方法被提出,这些方法在不同的变换域中寻找自相似补片来补全更多的边缘信息。传统去噪方法对图像特征的编码依赖于原始图像的假设,编码特征在真实图像中匹配度较低,降低了方法在实际应用中的性能和灵活性,且方法的特征提取过程繁琐、费时、计算量大,不适用于处理具有复杂分布的真实噪声。
相对于传统图像去噪方法,基于深度学习的图像去噪方法具有强大的学习能力,不仅可以拟合复杂噪声分布,还节省了计算时间。早期深度学习图像去噪方法使用强化学习技术,如政策梯度和Q-learning训练递归神经网络。但基于强化学习的方法计算量大,搜索效率低。深度学习去噪方法结合跳跃连接、注意力机制、多尺度特征融合等方式提高网络特征表达能力。但这些方法的网络结构较深,容易在训练过程中出现梯度爆炸或弥散问题。近年来,一些采用迁移学习和模型压缩思想的去噪方法,如AINDNet和MPI_DA_CNN把已经训练好的参数转移到新的轻量模型上,从而加快并优化学习效率,有效避免梯度问题的出现。
发明内容
有鉴于此,本发明的目的在于提供一种基于局部密度损失的图像去噪方法,其首先采用全连接神经网络模型对图像像素值缺失的矩阵进行矩阵补全;然后,通过反向传播和梯度下降更新参数,将高斯影响函数进行求导得出高斯密度损失函数,且将密度损失函数用于衡量模型预测的好坏;最后,在常用的图像去噪数据集上进行了广泛的实验。此外,此方法还采用了两个广泛使用的指标,分别是均方根误差和峰值信噪比,来衡量图像像素值矩阵缺失值的恢复精度。本发明能够有效地完成矩阵补全,引入局部密度损失函数进行模型预测好坏的衡量,在图像去噪任务上对比其他方法能够具有更加良好的性能,具有较高的实用价值。
本发明具体采用以下技术方案:
一种基于局部密度损失的图像去噪方法,其特征在于:首先,采用全连接神经网络模型对图像像素值缺失的矩阵进行矩阵补全;然后,通过反向传播和梯度下降更新参数,将高斯影响函数进行求导得出高斯密度损失函数,且将高斯密度损失函数用于衡量模型预测的好坏。
进一步地,采用均方根误差和峰值信噪比衡量图像像素值矩阵缺失值的恢复精度。
以及,一种基于局部密度损失的图像去噪方法,其特征在于,包括以下步骤:
步骤S1:输入一个带有噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;
步骤S2:利用输入的像素值矩阵,提取R G B三个通道信息的特征,并建立每个信息的全连接层,其中全连接神经网络包括线性部分和非线性部分,使用反向传播和梯度下降算法更新参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;
步骤S3:应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,若损失值未收敛到稳定值则返回步骤S2;
步骤S4:输出优化得到的图像像素值矩阵。
进一步地,步骤S1具体包括以下步骤:
进一步地,步骤S2具体包括以下步骤:
步骤S21:初始化网络参数w和b,对于输入向量X=[x1,x2,…,xn]T,其通过隐藏层得到线性输出向量Z=[z1,z2,…,zn]T,其公式如下:
Z=wTx+b,
步骤S22:建立关于w和b的函数,表示如下:
接着利用梯度下降法计算w和b,更新过程如下所示:
根据上述计算公式,求出预测的像素值。
进一步地,步骤S3具体包括以下步骤:
步骤S31:通过给全局密度损失函数施加条件得到局部密度损失函数,条件是考虑附近点的影响,忽略远点的影响,即x*∈near(x):d(x*,x)≤σnear,其中d(·)为距离函数,σnear为假设的值,通过输入取得,局部密度损失函数公式如下:
步骤S32:通过局部密度损失函数的梯度,计算损失函数值,通过连续迭代,得到最小损失值,公式如下:
步骤S34:若局部密度损失函数收敛到稳定值,则进入步骤S4,否则返回继续执行步骤S2。
进一步地,步骤S4具体包括以下步骤:
与现有技术相比,本发明及其优选方案具有以下有益效果:
本发明采用局部高斯密度损失函数用于衡量模型预测的效果。此外,所提出的基于图像像素值的全连接神经网络模型的矩阵补全方法,可以用于恢复像素值矩阵中的缺失值。该发明进行了大量的实验并讨论了不同参数的影响。实验表明,该发明优于现有的其他模型,能有效地完成矩阵补全,在图像去噪任务上对比其他方法能够具有更加良好的性能,具有一定的实用价值。
附图说明
下面结合附图和具体实施方式对本发明进一步详细的说明:
图1为本发明实施例方法流程示意图;
图2为本发明实施例神经网络架构示意图;
图3为本发明实施例效果示例示意图。
具体实施方式
为让本专利的特征和优点能更明显易懂,下文特举实施例,作详细说明如下:
应该指出,以下详细说明都是例示性的,旨在对本申请提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本申请所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本申请的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
如图1、2、3所示,本实施例提供了一种基于局部密度损失的图像去噪方法,包括以下步骤:
步骤S1:输入一个带有噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;
步骤S2:利用输入的像素值矩阵,提取R G B三个通道信息的特征,并建立每个信息的全连接层,其中全连接神经网络包括线性部分和非线性部分,使用反向传播和梯度下降算法更新参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;
步骤S3:应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,若损失值未收敛到稳定值则返回步骤S2;
步骤S4:输出优化得到的图像像素值矩阵。
在本实施例中,步骤S1具体包括以下步骤:
其中yij是像素值矩阵Y中的值,通过PΩ投影操作获得含有空值的矩阵,Ω是坐标集合[m]×[n]的一个子集,含有缺失值的矩阵中,下标在Ω集合中的元素取Y矩阵中原值,反之用0填充。通过全连接神经网络来获得预测矩阵将预测矩阵与原始矩阵中元素之差的平方和最小化,来得到最佳预测矩阵。不断迭代更新超参w和b来得到新的预测值使得yij和的值不断接近以获得最优解。
在本实施例中,步骤S2具体包括以下步骤:
步骤S21:初始化网络参数w和b,对于输入向量X=[x1,x2,…,xn]T,其通过隐藏层首先得到了线性输出向量Z=[z1,z2,…,zn]T,它主要由权重向量和偏移向量决定,公式如下:
Z=wTx+b,
步骤S22:建立关于w和b的函数,表示如下:
接着利用梯度下降法来计算w和b,更新过程如下所示:
根据上述计算公式,求出预测的像素值。
在本实施例中,步骤S3具体包括以下步骤:
步骤S31:通过给全局密度损失函数施加条件得到局部密度损失函数,条件是考虑附近点的影响,忽略远点的影响,即x*∈near(x):d(x*,x)≤σnear,其中d(·)为距离函数,σnear为假设的值,通过输入取得,局部密度损失函数公式如下:
步骤S32:通过局部密度损失函数的梯度,来计算损失函数值,通过连续迭代,得到最小损失值,公式如下:
步骤S34:若局部密度损失函数收敛到稳定值,则进入步骤S4,否则返回继续执行步骤S2。
在本实施例中,步骤S4具体包括以下步骤:
本实施例从实际应用出发,首先,输入一个含噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;然后,利用输入的矩阵以及R G B三通道信息,提取每个信息的特征,并建立每个信息的全连接层,使用反向传播和梯度下降算法计算参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;接着,应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,直至局部密度损失函数收敛;最后,输出优化得到的图像像素值矩阵。本实施例基于局部密度损失,有效地完成矩阵补全,在图像去噪任务上具有良好的性能,具有一定的应用价值。如图3所示,是其具体实施的效果示意,证明了其图像去噪的良好效果。
本专利不局限于上述最佳实施方式,任何人在本专利的启示下都可以得出其它各种形式的基于局部密度损失的图像去噪方法,凡依本发明申请专利范围所做的均等变化与修饰,皆应属本专利的涵盖范围。
Claims (1)
1.一种基于局部密度损失的图像去噪方法,其特征在于,包括以下步骤:
步骤S1:输入一个带有噪声的图像像素值矩阵Y,将整个像素值矩阵的低秩优化问题转换为矩阵补全问题,初始化各问题的相关参数和初始值;
步骤S2:利用输入的像素值矩阵,提取RGB三个通道信息的特征,并建立每个信息的全连接层,其中全连接神经网络包括线性部分和非线性部分,使用反向传播和梯度下降算法更新参数wi以及bi,得出预测的像素值,从而得到重构的像素值矩阵;
步骤S3:应用局部密度损失函数计算损失函数值,通过连续迭代,更新预测值及网络参数,若损失值未收敛到稳定值则返回步骤S2;
步骤S4:输出优化得到的图像像素值矩阵;
步骤S1具体包括以下步骤:
步骤S2具体包括以下步骤:
步骤S21:初始化网络参数w和b,对于输入向量X=[x1,x2,···,xn]T,其通过隐藏层得到线性输出向量Z=[z1,z2,···,zn]T,其公式如下:
Z=wTx+b,
步骤S22:建立关于w和b的函数,表示如下:
接着利用梯度下降法计算w和b,更新过程如下所示:
根据上述计算公式,求出预测的像素值;
步骤S3具体包括以下步骤:
步骤S31:通过给全局密度损失函数施加条件得到局部密度损失函数,条件是考虑附近点的影响,忽略远点的影响,即x*∈near(x):d(x*,x)≤σnear,其中d(·)为距离函数,σnear为假设的值,通过输入取得,局部密度损失函数公式如下:
步骤S32:通过局部密度损失函数的梯度,计算损失函数值,通过连续迭代,得到最小损失值,公式如下:
步骤S34:若局部密度损失函数收敛到稳定值,则进入步骤S4,否则返回继续执行步骤S2;
步骤S4具体包括以下步骤:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110508093.9A CN113160089B (zh) | 2021-05-10 | 2021-05-10 | 基于局部密度损失的图像去噪方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110508093.9A CN113160089B (zh) | 2021-05-10 | 2021-05-10 | 基于局部密度损失的图像去噪方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113160089A CN113160089A (zh) | 2021-07-23 |
CN113160089B true CN113160089B (zh) | 2022-10-04 |
Family
ID=76874282
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110508093.9A Active CN113160089B (zh) | 2021-05-10 | 2021-05-10 | 基于局部密度损失的图像去噪方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113160089B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111291A (zh) * | 2019-05-10 | 2019-08-09 | 衡阳师范学院 | 基于局部和全局优化融合图像卷积神经网络风格迁移方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3647052B2 (ja) * | 1993-04-15 | 2005-05-11 | キヤノン株式会社 | 撮像装置 |
CN104123702A (zh) * | 2014-07-08 | 2014-10-29 | 浙江传媒学院 | 一种基于交替方向法的高效图像修复方法 |
CN109754376B (zh) * | 2018-12-28 | 2020-11-10 | 深圳美图创新科技有限公司 | 图像去噪方法及装置 |
AU2020100462A4 (en) * | 2020-03-26 | 2020-04-30 | Hu, Xiaoyan MISS | Edge-preserving image super-resolution via low rank and total variation model |
CN112258410B (zh) * | 2020-10-22 | 2022-09-06 | 福州大学 | 一种可微分的低秩学习网络图像修复方法 |
-
2021
- 2021-05-10 CN CN202110508093.9A patent/CN113160089B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110111291A (zh) * | 2019-05-10 | 2019-08-09 | 衡阳师范学院 | 基于局部和全局优化融合图像卷积神经网络风格迁移方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113160089A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949255B (zh) | 图像重建方法及设备 | |
CN108986140B (zh) | 基于相关滤波和颜色检测的目标尺度自适应跟踪方法 | |
WO2022036777A1 (zh) | 基于卷积神经网络的人体动作姿态智能估计方法及装置 | |
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
CN108776975B (zh) | 一种基于半监督特征和滤波器联合学习的视觉跟踪方法 | |
WO2019174377A1 (zh) | 一种基于单目相机的三维场景稠密重建方法 | |
CN112434655B (zh) | 一种基于自适应置信度图卷积网络的步态识别方法 | |
CN109977757B (zh) | 一种基于混合深度回归网络的多模态的头部姿态估计方法 | |
Zaied et al. | A novel approach for face recognition based on fast learning algorithm and wavelet network theory | |
CN114492574A (zh) | 基于高斯均匀混合模型的伪标签损失无监督对抗域适应图片分类方法 | |
CN112288011B (zh) | 一种基于自注意力深度神经网络的图像匹配方法 | |
CN112085055B (zh) | 一种基于迁移模型雅克比阵特征向量扰动的黑盒攻击方法 | |
WO2021004361A1 (zh) | 一种人脸美丽等级预测方法、装置及存储介质 | |
Chen et al. | One-stage CNN detector-based benthonic organisms detection with limited training dataset | |
Chen et al. | Convolutional neural network based dem super resolution | |
CN110175649A (zh) | 一种关于重新检测的快速多尺度估计目标跟踪方法 | |
WO2019136591A1 (zh) | 基于弱监督时空级联神经网络的显著目标检测方法及系统 | |
CN115937254B (zh) | 一种基于半监督学习的多空中飞行目标跟踪方法和系统 | |
Lu et al. | 3D articulated skeleton extraction using a single consumer-grade depth camera | |
CN110135435B (zh) | 一种基于广度学习系统的显著性检测方法及装置 | |
CN114973071A (zh) | 基于长短期时序特征的无监督视频目标分割方法及系统 | |
CN114119690A (zh) | 一种基于神经网络重建高斯混合模型的点云配准方法 | |
CN113763274A (zh) | 一种联合局部相位锐度定向描述的多源图像匹配方法 | |
CN113160089B (zh) | 基于局部密度损失的图像去噪方法 | |
JP6600288B2 (ja) | 統合装置及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |