CN105469371B - 一种基于双字典学习的非局部稀疏表示图像去噪方法 - Google Patents

一种基于双字典学习的非局部稀疏表示图像去噪方法 Download PDF

Info

Publication number
CN105469371B
CN105469371B CN201511023720.0A CN201511023720A CN105469371B CN 105469371 B CN105469371 B CN 105469371B CN 201511023720 A CN201511023720 A CN 201511023720A CN 105469371 B CN105469371 B CN 105469371B
Authority
CN
China
Prior art keywords
cluster centre
sparse
image
image block
kinds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201511023720.0A
Other languages
English (en)
Other versions
CN105469371A (zh
Inventor
王顺凤
张建伟
郑钰辉
朱节中
陈允杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201511023720.0A priority Critical patent/CN105469371B/zh
Publication of CN105469371A publication Critical patent/CN105469371A/zh
Application granted granted Critical
Publication of CN105469371B publication Critical patent/CN105469371B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明一种基于双字典学习的非局部稀疏表示图像去噪方法改进了Dong非局部稀疏表示模型中所用到传统的Kmeans聚类方法,具体利用聚类中心字典学习方法分析与挖掘各相似类间的相关性,并将这一相关性引入传统的Kmeans聚类方法,以提高聚类的准确性,从而达到增强稀疏表示模型性能的目的。本发明包括:对待去噪图像,利用kmeans聚类方法,产生各类;计算各类中心图片;利用聚类中心字典学习方法,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块;更新传统Kmeans结果中的聚类中心;循环,直至满足结束条件;构建各类对应的紧致PCA字典;构造类内图像片稀疏编码误差项;利用迭代收敛算法求解。

Description

一种基于双字典学习的非局部稀疏表示图像去噪方法
技术领域
本发明属于遥感卫星图像处理技术领域,尤其是涉及一种非局部稀疏表示图像去噪方法。
背景技术
在图像获取与传输过程中,由于系统和环境等因素影响,所得图像带有大量噪声。实际应用中,图像去噪可得到高质量图像,以支撑后续处理等。理论层次上,图像去噪方法的研究还与图像建模理论研究有着密切的联系,可为相关图像处理方法——如图像去模糊,图像超分辨率,图像分割以及图像特征提取等方法提供新思路。图像去噪是图像处理和计算机视觉中经久不衰的研究领域。
图像去噪常常被视为反问题,由于其自身的不适定性,为获得理想的去噪结果,图像先验知识建模(图像建模)研究成为了该领域的焦点。主流方法可分大致分为3类:(1)基于梯度的图像建模;(2)基于非局部相似性的图像建模;(3)基于变换的图像建模。目前研究表明基于变换的方法能取得相对较好的图像去噪结果。
作为基于变换的一类去噪方法,稀疏表示图像去噪引起了学者们的广泛关注。在稀疏表示理论中,字典的设计和字典自身性能是一个关键的问题。针对图像的局部几何结构,学者们提出了Curvelet,Contourlet,Wedgelet,Bandlet等多尺度几何分析变换方法,这些方法对某些特定类型的图像结构描述准确,但对复杂图像通常存在不足,此外这类方法需事先给定稀疏字典,即字典非自适应于图像内容。为此,设计自适应稀疏表述字典成为了热点。
Elad等人较早建立了基于超完备字典的稀疏表示模型。假设信号f∈Rn,它可表示成字典中少量元素的线性组合,即f≈Φα,其中,Φ∈Rn×L(L>n)是一个超完备字典,每一列表示一个信号原子,向量α为只有少部分元素不为零的稀疏编码,即该模型通过字典中少量元素的线性组合来描述信号。目前,基于稀疏表示研究主要在2个方向:1)基于原子间相关约束的稀疏表示;2)非局部稀疏表示。
传统的稀疏表示方法假定自适应字典各原子间相互独立,而最新研究表明原子间存在一定关联,反映了图像几何结构。Peleg等利用玻尔兹曼机(Bolzmann Machine,BM)模型,分析了图像片内对应原子间(非零稀疏系数对应的原子)的相关性,增强了图像的稀疏性表示。基于上述方法,Ren等研究了邻域图像块(相邻8个方向)原子间的相关性,构造了邻域相关结构信息的稀疏性先验模型,取得了较好得去噪结果。Ren方法可视为小窗口内的准非局部稀疏表示方法。
而非局部稀疏表示方法实质是利用图像非局部建模思想对图像稀疏性的一种约束。最近,Dong等利用了非局部思想,提出了稀疏编码噪声(误差)的概念,通过相似集中各图像片的稀疏系数,估计了当前图像片理想的稀疏表示,引入了稀疏编码误差约束项,提出了一种非局部集中稀疏表示模型。但是目前非局部稀疏表示模型往往聚类,偏重于对各相似集内稀疏性描述,聚类准确性不高。
发明内容
为解决上述问题,本发明改进了Dong非局部稀疏表示模型中所用到传统的Kmeans聚类方法,具体利用聚类中心字典学习方法分析与挖掘各相似类间的相关性,并将这一相关性引入传统的Kmeans聚类方法,以提高聚类的准确性,从而达到增强稀疏表示模型性能的目的。
为了实现上述目的,本发明首先提供一种聚类中心字典学习方法,流程图如图1所示,包括如下步骤:
步骤A,用传统方法稀疏表示聚类中心图像块;
步骤B,根据稀疏表示结果与字典,生成稀疏性模式(稀疏性模式标记了图像块对应的稀疏系数是否为0);
步骤C,根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的N个图像块;
步骤D,根据相关性矩阵构造基于相关分析的稀疏性先验模型;
步骤E,建立稀疏性模式先验分布模型;
步骤F,利用最大后验概率估计方法估计稀疏性模式,用以生成新的聚类中心图像片。
基于上述聚类中心字典学习方法,本发明提供了一种基于双字典学习的非局部系数表示图像去噪方法,包括如下步骤:
步骤A,对待去噪图像,利用kmeans聚类方法,产生各类;
步骤B,计算各类中心图片;
步骤C,利用上述的聚类中心字典学习方法,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块;
步骤D,更新传统Kmeans结果中的聚类中心;
步骤E,循环,直至满足结束条件;
步骤F,构建各类对应的紧致PCA字典;
步骤G,构造类内图像片稀疏编码误差项;
步骤H,利用迭代收敛算法求解。
有益效果:
本发明利用聚类中心字典学习方法分析与挖掘各相似类间的相关性,并将这一相关性引入传统的Kmeans聚类方法,提高了聚类的准确性,从而提升了图像的去噪效果。
附图说明
图1为本发明流程图;
图2为聚类中心字典学习方法流程图。
具体实施方式
以下将结合具体实施例对本发明提供的技术方案进行详细说明,应理解下述具体实施方式仅用于说明本发明而不用于限制本发明的范围。
本发明通过下述步骤实现基于上述聚类中心字典学习方法的非局部系数表示图像去噪方法,流程图如图1所示,包括如下步骤:
步骤A,对待去噪图像,利用kmeans聚类,产生各类(相似集);
步骤B,计算各类中心图片;
步骤C,利用聚类中心字典学习,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块,具体如图2所示,包括如下步骤:
用传统方法稀疏表示聚类中心图像块;
根据稀疏表示结果与字典,生成稀疏性模式(稀疏性模式标记了图像块对应的稀疏系数是否为0);
根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的N个图像块;
根据相关性矩阵构造基于相关分析的稀疏性先验模型;
建立稀疏性模式先验分布模型;
利用最大后验概率估计方法估计稀疏性模式,用以生成新的聚类中心图像片。
步骤D,更新传统Kmeans结果中的聚类中心;
步骤E,循环,直至满足结束条件;
步骤F,构建各类对应的紧致PCA字典;
步骤G,利用Dong等提出的方法构造类内图像片稀疏编码误差项;
步骤H,利用迭代收敛算法求解。
采用上述方法处理后的图像去噪效果好,聚类准确性高。
本发明方案所公开的技术手段不仅限于上述实施方式所公开的技术手段,还包括由以上技术特征任意组合所组成的技术方案。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (2)

1.一种基于双字典学习的非局部稀疏表示图像去噪方法,其特征在于,包括如下步骤:
步骤A,对待去噪图像,利用kmeans聚类方法, 产生各类;
步骤B,计算各类中心图像块;
步骤C,利用聚类中心字典学习方法,得到各聚类中心的稀疏表示,继而重建各聚类中心图像块,所述聚类中心字典学习方法包括以下步骤:
用传统方法稀疏表示聚类中心图像块;
根据稀疏表示结果与字典,生成稀疏性模式;
根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的 N个图像块;
根据相关性矩阵构造基于相关分析的稀疏性先验模型;
建立稀疏性先验模型;
利用最大后验概率估计方法估计稀疏性模式,生成新的聚类中心图像块;
步骤D,更新传统Kmeans结果中的聚类中心;
步骤E,循环步骤A-D,直至满足结束条件;
步骤F,构建各类对应的紧致PCA字典;
步骤G,构造类内图像块稀疏编码误差项;
步骤H,利用迭代收敛算法对传统稀疏表示模型求解。
2.一种聚类中心字典学习方法,其特征在于,包括如下步骤:
步骤A,用传统方法稀疏表示聚类中心图像块;
步骤B,根据稀疏表示结果与字典,生成稀疏性模式;
步骤C,根据各模块稀疏性模式与相似块快速查找表,构造相关性函数,继而构造相关性矩阵,其中相似性快速查找表记录了与当前图像块最相似的 N个图像块;
步骤D,根据相关性矩阵构造基于相关分析的稀疏性先验模型;
步骤E,建立稀疏性先验模型;
步骤F,利用最大后验概率估计方法估计稀疏性模式,生成新的聚类中心图像块。
CN201511023720.0A 2015-12-30 2015-12-30 一种基于双字典学习的非局部稀疏表示图像去噪方法 Active CN105469371B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201511023720.0A CN105469371B (zh) 2015-12-30 2015-12-30 一种基于双字典学习的非局部稀疏表示图像去噪方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201511023720.0A CN105469371B (zh) 2015-12-30 2015-12-30 一种基于双字典学习的非局部稀疏表示图像去噪方法

Publications (2)

Publication Number Publication Date
CN105469371A CN105469371A (zh) 2016-04-06
CN105469371B true CN105469371B (zh) 2018-11-27

Family

ID=55607032

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201511023720.0A Active CN105469371B (zh) 2015-12-30 2015-12-30 一种基于双字典学习的非局部稀疏表示图像去噪方法

Country Status (1)

Country Link
CN (1) CN105469371B (zh)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295197A (zh) * 2013-05-21 2013-09-11 西安电子科技大学 基于字典学习和双边正则的图像超分辨率重建方法
CN103295196A (zh) * 2013-05-21 2013-09-11 西安电子科技大学 基于非局部字典学习和双正则项的图像超分辨率重建方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295197A (zh) * 2013-05-21 2013-09-11 西安电子科技大学 基于字典学习和双边正则的图像超分辨率重建方法
CN103295196A (zh) * 2013-05-21 2013-09-11 西安电子科技大学 基于非局部字典学习和双正则项的图像超分辨率重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
Nonlocally Centralized Sparse Representation for Image Restoration;Weisheng Dong等;《IEEE Transactions on Image Processing》;20121221;第22卷(第4期);1620-1630 *

Also Published As

Publication number Publication date
CN105469371A (zh) 2016-04-06

Similar Documents

Publication Publication Date Title
Xie et al. Mlcvnet: Multi-level context votenet for 3d object detection
Zhou et al. Self-supervised monocular depth estimation with internal feature fusion
Zhong et al. Unsupervised deep epipolar flow for stationary or dynamic scenes
Hou et al. Revealnet: Seeing behind objects in rgb-d scans
Zhang et al. Patchformer: An efficient point transformer with patch attention
Achanta et al. SLIC superpixels compared to state-of-the-art superpixel methods
Xia et al. Asfm-net: Asymmetrical siamese feature matching network for point completion
CN103455991B (zh) 一种多聚焦图像融合方法
Zhang et al. Exploiting edge-oriented reasoning for 3d point-based scene graph analysis
Zayyani et al. An iterative Bayesian algorithm for sparse component analysis in presence of noise
Tang et al. Real-time neural radiance talking portrait synthesis via audio-spatial decomposition
Wang et al. Weakly supervised semantic segmentation in 3d graph-structured point clouds of wild scenes
Wallace et al. Few-shot generalization for single-image 3d reconstruction via priors
Zhi et al. ilabel: Interactive neural scene labelling
Huang et al. Supervoxel convolution for online 3D semantic segmentation
Li et al. ADR-MVSNet: A cascade network for 3D point cloud reconstruction with pixel occlusion
CN105447836B (zh) 一种耦合聚类中心约束项的非局部稀疏表示图像去噪方法
Huang et al. Joint representation learning for text and 3D point cloud
CN105469371B (zh) 一种基于双字典学习的非局部稀疏表示图像去噪方法
CN103942805B (zh) 基于局部多原子匹配追踪的图像稀疏分解快速方法
Shi et al. Open-set semi-supervised learning for 3d point cloud understanding
Liu et al. Sparse-to-dense coarse-to-fine depth estimation for colonoscopy
Li et al. OverSegNet: A convolutional encoder–decoder network for image over-segmentation
Chang DR‐Net: denoising and reconstruction network for 3D human pose estimation from monocular RGB videos
Wang et al. Reconstructing 3D Model from Single‐View Sketch with Deep Neural Network

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder
CP02 Change in the address of a patent holder

Address after: Room 420, block C, Kechuang headquarters building, 320 pubin Road, Jiangpu street, Pukou District, Nanjing City, Jiangsu Province, 211800

Patentee after: Nanjing University of Information Science and Technology

Address before: 210044 No. 219, Ning six road, Nanjing, Jiangsu

Patentee before: Nanjing University of Information Science and Technology