CN104616252B - 基于nsct和pcnn的数字图像增强方法 - Google Patents

基于nsct和pcnn的数字图像增强方法 Download PDF

Info

Publication number
CN104616252B
CN104616252B CN201510012083.0A CN201510012083A CN104616252B CN 104616252 B CN104616252 B CN 104616252B CN 201510012083 A CN201510012083 A CN 201510012083A CN 104616252 B CN104616252 B CN 104616252B
Authority
CN
China
Prior art keywords
mrow
frequency coefficient
image
msubsup
layer high
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510012083.0A
Other languages
English (en)
Other versions
CN104616252A (zh
Inventor
何国栋
杨凌云
冯友宏
丁绪星
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Normal University
Original Assignee
Anhui Normal University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui Normal University filed Critical Anhui Normal University
Priority to CN201510012083.0A priority Critical patent/CN104616252B/zh
Publication of CN104616252A publication Critical patent/CN104616252A/zh
Application granted granted Critical
Publication of CN104616252B publication Critical patent/CN104616252B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明公开了一种基于NSCT和PCNN的数字图像增强方法,该方法包括:S101,将所述数字图像进行非抽样轮廓波变换(NSCT),得到图像低频系数和图像高频系数;S102,将所述图像高频系数输入脉冲耦合神经网络(PCNN),得到对应的点火映射图;S103,根据点火映射图,对所述图像高频系数进行增强;S104,将所述图像低频系数和所述增强图像高频系数进行非抽样轮廓波反变换,得到增强的图像。本发明由于PCNN具有生物学背景,得到的增强系数更符合人类视觉系统(HVS)特性,提高了增强图像的质量。

Description

基于NSCT和PCNN的数字图像增强方法
技术领域
本发明涉及数字图像领域,具体地,涉及一种基于NSCT和PCNN的数字图像增强方法。
背景技术
在图像获取的过程中,存在多种因素的影响,如噪声、曝光、抖动等,图像的视觉效果受这些因素的干扰而与真实的图像之间有一些差异。从审美和后期处理的角度出发,需要对图像质量进行改善。图像增强通过相关技术手段,对干扰因素进行抑制,突出图像中感兴趣的某些特征,提高图像的视觉效果,使得处理后的图像比原图像更适合观看或后期的处理。数字图像增强技术是一种重要的图像质量改善技术,目前图像增强技术在医学、遥感、军事等众多领域得到广泛的应用。
目前的图像增强技术可分为空域增强技术和变换域增强技术两大类。空域法直接对像素进行处理,例如经典的直方图均衡化处理方法,通过变换函数使像素灰度直方图分布趋于均匀。变换域增强方法首先对图像进行变换,对变换后的系数进行相关增强处理,然后经过对应的逆变换,得到增强的图像。常用的变换方法有傅里叶变换,离散余弦变换,小波变换等。
非抽样轮廓波变换(NSCT)是一种新的多尺度多方向图像变换方法,变换中没有上、下采样过程,因此具有平移不变性,在图像的边缘不会出现伪吉布斯现象,相比其他的变换方法,具有更好的应用前景。脉冲耦合神经网络(PCNN)是由Eckhorn为解释在猫的大脑视觉皮层中实验所观察到的与特征有关的神经元同步行为现象而提出的,有着重要的生物学背景,是一种不同于传统人工神经网络的新型神经网络。PCNN的这个生物学背景使它在图像处理中具有先天的优势,有着与传统方法进行图像处理所无法比拟的优越性。PCNN是当前智能信息处理的最新研究领域之一,目前它的理论研究仍处在发展阶段。
用PCNN进行二维图像处理时,构造与图像同样大小的神经网络,也即M×N的二维图像矩阵相当于M×N维的PCNN神经元模型,将灰度图像的像素强度作为相应神经元的外部激励,每个像素的灰度值作为每个神经元的输入强度。每一个神经元输出与周围某个邻域的神经元输入相连接,这样就构成一个基于PCNN的图像处理系统,网络的输出为随时间变化的二值图像。由于连接权的影响,如果受到图像某一点像素强度的激励而使相应的神经元点火(即输出为1),则与该点有连接的相邻神经元在其点火的带动下也可能发生点火,这里称这一特性为捕获。重复上述过程,得到一个点火映射图。
发明内容
本发明的目的是提供一种基于NSCT和PCNN的数字图像增强方法,该基于NSCT和PCNN的数字图像增强方法将NSCT与PCNN结合,并设计了一个自适应增强函数,根据具有生物学背景的PCNN点火次数对高频系数进行增强,且能依据分解层数自适应改变增强的强度,对图像进行有效地增强。
为了实现上述目的,本发明提供了一种基于NSCT和PCNN的数字图像增强方法,其特征在于,该方法包括:
S101,将所述数字图像进行非抽样轮廓波变换(NSCT),得到图像低频系数和图像高频系数;
S102,将所述图像高频系数输入脉冲耦合神经网络(PCNN),得到对应的点火映射图;
S103,根据点火映射图,对所述图像高频系数进行增强;
S104,将所述图像低频系数和所述增强图像高频系数进行非抽样轮廓波反变换,得到增强的图像。
优选地,在步骤S101中,
S201,将所述数字图像进行三级非抽样轮廓波变换(NSCT),得到第一层高频系数、第二层高频系数、第三层高频系数和低频系数;
S202,将所述第一层高频系数、第二层高频系数、第三层高频系数都分成八个方向,得到多分辨率分析的图像低频系数和图像高频系数。
优选地,在步骤S102中,
将所述第一层高频系数、第二层高频系数和第三层高频系数分别通过脉冲耦合神经网络公式得到一一对应的点火映射图;
所述脉冲耦合神经网络公式为:
Li,j[n]=∑Wi,j·Yi,j[n-1];
Ui,j[n]=Fi,j[n]·(1+β·Li,j[n]);
θi,j[n]=exp(-αE)·θi,j[n-1]+Vθ·Yi,j[n-1];
其中,为NSCT分解的第l层、第k个方向的(i,j)位置的高频系数,Li,j为NSCT分解的(i,j)位置的低频系数。
优选地,在步骤S103中,
根据所述点火映射图,通过点火次数公式和预设循环次数分别得到所述第一层高频系数、第二层高频系数和第三层高频系数的点火次数;
所述点火次数公式为:
其中,为与相对应的输入PCNN得到的点火次数。
优选地,在步骤S103中,
通过自适应增强函数公式,对所述第一层高频系数、第二层高频系数和第三层高频系数进行增强;
所述自适应增强函数公式为:
为与对应的增强后的系数,E和m是常数;为与相对应的输入PCNN得到的点火次数。
优选地,在步骤S103中,所述预设循环次数为300。
通过上述实施方式,本发明为了增强数字图像,应用NSCT对图像进行多尺度多方向分解,得到多分辨率分析的低频和高频系数,将得到的高频分解系数输入PCNN系统中,得到高频系数的点火映射图,根据这些点火映射图,应用本发明设计的自适应增强函数对高频系数进行增强,得到增强的高频系数,最后将这些系数进行NSCT反变换,得到增强的数字图像,由于PCNN具有生物学背景,得到的增强系数更符合人类视觉系统(HVS)特性,提高了增强图像的质量。
本发明的其他特征和优点将在随后的具体实施方式部分予以详细说明。
附图说明
附图是用来提供对本发明的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本发明,但并不构成对本发明的限制。在附图中:
图1是说明本发明的一种基于NSCT和PCNN的数字图像增强方法的流程图;
图2是说明本发明的一种增强函数(1)的效果图;
图3(a)是本发明的Lena图像的原始效果图;
图3(b)是本发明的Lena图像的增强后的效果图;
图4(a)是本发明的fingerprint图像的原始效果图;以及
图4(b)是本发明的fingerprint图像的增强后的效果图。
具体实施方式
以下结合附图对本发明的具体实施方式进行详细说明。应当理解的是,此处所描述的具体实施方式仅用于说明和解释本发明,并不用于限制本发明。
本发明提供一种基于NSCT和PCNN的数字图像增强方法,该方法包括:
S101,将所述数字图像进行非抽样轮廓波变换(NSCT),得到图像低频系数和图像高频系数;
S102,将所述图像高频系数输入脉冲耦合神经网络(PCNN),得到对应的点火映射图;
S103,根据点火映射图,对所述图像高频系数进行增强;
S104,将所述图像低频系数和所述增强图像高频系数进行非抽样轮廓波反变换,得到增强的图像。
通过上述实施方式,本发明为了增强数字图像,应用NSCT对图像进行多尺度多方向分解,得到多分辨率分析的图像低频系数和图像高频系数,将得到的高频分解系数输入PCNN系统中,得到图像高频系数的点火映射图,根据这些点火映射图,应用本发明设计的自适应增强函数对高频系数进行增强,得到增强的高频系数,最后将这些系数进行NSCT反变换,得到增强的数字图像,由于PCNN具有生物学背景,得到的增强系数更符合人类视觉系统(HVS)特性,提高了增强图像的质量。该发明对提高图像的质量、视觉效果等具有重要的实际价值。
以下结合附图1、附图2、附图3(a)、附图3(b)、附图4(a)和附图4(b)对本发明进行进一步的说明,本发明能有效地提高图像的质量,属于图像处理技术领域。
在本发明的一种具体实施方式中,在步骤S101中,
S201,将所述数字图像进行三级非抽样轮廓波变换(NSCT),得到第一层高频系数、第二层高频系数、第三层高频系数和低频系数;
S202,将所述第一层高频系数、第二层高频系数、第三层高频系数都分成八个方向,得到多分辨率分析的图像低频系数和图像高频系数。
上述变换方法为本发明的基本变换步骤,为了让本发明实现,通过上述的变换方法进行变换,图像的显示效果更好,符合真实情况。
在本发明的一种具体实施方式中,步骤S102中,
将所述第一层高频系数、第二层高频系数和第三层高频系数分别通过脉冲耦合神经网络公式得到一一对应的点火映射图;
所述脉冲耦合神经网络公式为:
Li,j[n]=∑Wi,j·Yi,j[n-1]; (3)
Ui,j[n]=Fi,j[n]·(1+β·Li,j[n]); (4)
θi,j[n]=exp(-αE)·θi,j[n-1]+Vθ·Yi,j[n-1]; (5)
其中,为NSCT分解的第l层、第k个方向的(i,j)位置的高频系数,Li,j为NSCT分解的(i,j)位置的低频系数。
β:内部活动项的连接因子;
F:反馈输入;
L:耦合连接;
θ、Vθ、αE:动态门限及其放大系数、衰减时间常数;
U:内部活动项;
Y:脉冲。
在本发明中,为了计算每个神经总的点火次数,需要先将点火映射图得到,上述方法可以得到点火映射图,且该方法简单,实用,并且其具有时空总和特性、动态脉冲发放特性和同步脉冲发放引起的振动与波动等特性。
在本发明的一种具体实施方式中,在步骤S103中,
根据所述点火映射图,通过点火次数公式和预设循环次数分别得到所述第一层高频系数、第二层高频系数和第三层高频系数的点火次数;
所述点火次数公式为:
其中,为与相对应的输入PCNN得到的点火次数。
在本发明的一种具体实施方式中,在步骤S103中,
通过自适应增强函数公式,对所述第一层高频系数、第二层高频系数和第三层高频系数进行增强;
所述自适应增强函数公式为:
为与对应的增强后的系数,E和m是常数;为与相对应的输入PCNN得到的点火次数。
本发明设计的增强函数,根据系数对应的点火次数对其进行增强,由于PCNN具有生物学背景,所以增强的效果符合人眼视觉效果;而且增强函数能根据NSCT分解的层数l自适应调整增强的强度,更加有效地增强了图像的细节信息。
在本发明的一种具体实施方式中,在步骤S103中,所述预设循环次数为300。
在上述的实施方式中,一般E取值从5到50,m取值从0.1到0.9,可根据具体的应用场景进行调整。增强函数曲线图如图2所示,仿真中使用的参数设置:l=2,E=10,m=0.5。从图2中可以看到,增强函数能将图像中较强的系数进行增强,而对于微弱的干扰系数进行抑制。
当然,需要说明的是,基于NSCT和PCNN的数字图像增强方法,主要应用具有生物学背景的PCNN,得到点火映射图,根据点火映射图对NSCT分解的高频系数进行增强,使得增强的图像更加符合人类视觉系统特性,且本发明设计的增强函数能根据分解的层数自适应调整,极大地提高了增强的效果。
具体的增强步骤可以如下所示:
Step1,对需要增强的图像进行三级非抽样轮廓波变换(即NSCT变换),每层得到的高频均分为8个方向,得到多分辨率分析的图像变换域系数,记表示需要增强的图像分解第l层、第k方向的高频系数,Li,j表示图像分解的低频系数,由于非抽样轮廓波变换(即NSCT变换)没有下采样,所以变换得到的系数与宿主图像大小相等,均为M×N;
Step2,将NSCT变换得到的高频系数输入脉冲耦合神经网络,高频系数即对应为该神经元的输入,链接矩阵选择距离矩阵,其余参数可根据具体的应用场景进行相应的调整,以达到最佳的效果;
Li,j[n]=∑Wi,j·Yi,j[n-1]; (3)
Ui,j[n]=Fi,j[n]·(1+β·Li,j[n]); (4)
θi,j[n]=exp(-αE)·θi,j[n-1]+Vθ·Yi,j[n-1]; (5)
Step3,按照脉冲耦合神经网络公式(2)-公式(6),得到每个神经元的点火映射图,设置循环次数为300,并应用公式计算每个神经总的点火次数,增加1即为增加一次点火次数;
Step4,以每个像素点火次数为参数,应用本发明的自适应增强函数(即公式(1))对各层高频系数分别进行增强,得到增强后的增强系数
Step5,将L和增强后的系数进行NSCT反变换(如图1所示的I-NSCT),得到增强的图像。
在本发明中,需要说明的是,为了验证本发明的有效性,分别应用256×256的Lena图像和fingerprint图像作为本发明的实施例,如图3(a)和图4(a)所示,增强后的图像如图3(b)和图4(b)所示。分别对比两组增强图像可以看出,由于增强函数使用了具有生物背景的PCNN作为增强的参考信息,且增强函数能依据分解的层数对分解系数进行自适应调整,增强后的图像纹理更加突出,图像清晰,获得了较好的效果。
应用信息熵和清晰度两个客观度量标准对图像进行评价,其中信息熵反映了图像包含信息量的多少,清晰度反映了图像的清晰程度,两个参数均偏大较好。信息熵公式如下(7)式所示,式中p(i)为灰度值为i的分布概率,L为灰度图像的灰度级。清晰度公式如下(8)式所示,式中M、N为图像的维度,I(m,n)为(m,n)位置图像的像素值。
本发明实施结果图像的信息熵如下表1所示:
表1
本发明实施结果图像的清晰度如下表2所示:
表2
原图像 本发明实施结果
fingerprint 850 3425.4
Lena 562.88 2839.4
通过上述的结论可以得出,当使用本发明的方法得出的图像强后的图像纹理更加突出,图像清晰,获得了较好的效果。
以上结合附图详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种简单变型,这些简单变型均属于本发明的保护范围。
另外需要说明的是,在上述具体实施方式中所描述的各个具体技术特征,在不矛盾的情况下,可以通过任何合适的方式进行组合,为了避免不必要的重复,本发明对各种可能的组合方式不再另行说明。
此外,本发明的各种不同的实施方式之间也可以进行任意组合,只要其不违背本发明的思想,其同样应当视为本发明所公开的内容。

Claims (4)

1.一种基于NSCT和PCNN的数字图像增强方法,其特征在于,该方法包括:
S101,将所述数字图像进行非抽样轮廓波变换,得到图像低频系数和图像高频系数;
S102,将所述图像高频系数输入脉冲耦合神经网络,得到对应的点火映射图;
S103,根据点火映射图,对所述图像高频系数进行增强;
S104,将所述图像低频系数和所述增强图像高频系数进行非抽样轮廓波反变换,得到增强的图像;
在步骤S101中,
S201,将所述数字图像进行三级非抽样轮廓波变换,得到第一层高频系数、第二层高频系数、第三层高频系数和低频系数;
S202,将所述第一层高频系数、第二层高频系数、第三层高频系数都分成八个方向,得到多分辨率分析的图像低频系数和图像高频系数;
在步骤S103中,
通过自适应增强函数公式,对所述第一层高频系数、第二层高频系数和第三层高频系数进行增强;
所述自适应增强函数公式为:
<mrow> <msubsup> <mi>EC</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>,</mo> <mi>k</mi> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>,</mo> <mi>k</mi> </mrow> </msubsup> <mo>&amp;CenterDot;</mo> <msqrt> <mi>l</mi> </msqrt> <mo>&amp;CenterDot;</mo> <msup> <mrow> <mo>(</mo> <mn>1</mn> <mo>+</mo> <msup> <mrow> <mo>(</mo> <mrow> <mi>m</mi> <mo>/</mo> <msubsup> <mi>T</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>.</mo> <mi>k</mi> </mrow> </msubsup> </mrow> <mo>)</mo> </mrow> <mi>E</mi> </msup> <mo>)</mo> </mrow> <mrow> <mo>-</mo> <mn>1</mn> </mrow> </msup> <mo>;</mo> </mrow>
为与对应的增强后的系数,E和m是常数;为与相对应的输入PCNN得到的点火次;为NSCT分解的第l层、第k个方向的(i,j)位置的高频系数。
2.根据权利要求1所述的数字图像增强方法,其特征在于,在步骤S102中,
将所述第一层高频系数、第二层高频系数和第三层高频系数分别通过脉冲耦合神经网络公式得到一一对应的点火映射图;
所述脉冲耦合神经网络公式为:
<mrow> <msub> <mi>F</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> </msub> <mo>&amp;lsqb;</mo> <mi>n</mi> <mo>&amp;rsqb;</mo> <mo>=</mo> <msubsup> <mi>C</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>,</mo> <mi>k</mi> </mrow> </msubsup> <mo>;</mo> </mrow>
Li,j[n]=∑Wi,j·Yi,j[n-1];
Ui,j[n]=Fi,j[n]·(1+β·Li,j[n]);
θi,j[n]=exp(-αE)·θi,j[n-1]+Vθ·Yi,j[n-1];
其中,为NSCT分解的第l层、第k个方向的(i,j)位置的高频系数,Li,j为NSCT分解的(i,j)位置的低频系数;β为内部活动项的连接因子;αE为衰减时间常数;θ为动态门限;Vθ为放大系数。
3.根据权利要求2所述的数字图像增强方法,其特征在于,在步骤S103中,
根据所述点火映射图,通过点火次数公式和预设循环次数分别得到所述第一层高频系数、第二层高频系数和第三层高频系数的点火次数;
所述点火次数公式为:
<mrow> <msubsup> <mi>T</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>.</mo> <mi>k</mi> </mrow> </msubsup> <mo>=</mo> <msubsup> <mi>T</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>.</mo> <mi>k</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>Y</mi> <mrow> <mi>i</mi> <mo>,</mo> <mi>j</mi> </mrow> <mrow> <mi>l</mi> <mo>.</mo> <mi>k</mi> </mrow> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mo>)</mo> </mrow> <mo>,</mo> </mrow>
其中,为与相对应的输入PCNN得到的点火次数。
4.根据权利要求3所述的数字图像增强方法,其特征在于,在步骤S103中,所述预设循环次数为300。
CN201510012083.0A 2015-01-09 2015-01-09 基于nsct和pcnn的数字图像增强方法 Active CN104616252B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510012083.0A CN104616252B (zh) 2015-01-09 2015-01-09 基于nsct和pcnn的数字图像增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510012083.0A CN104616252B (zh) 2015-01-09 2015-01-09 基于nsct和pcnn的数字图像增强方法

Publications (2)

Publication Number Publication Date
CN104616252A CN104616252A (zh) 2015-05-13
CN104616252B true CN104616252B (zh) 2018-01-19

Family

ID=53150685

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510012083.0A Active CN104616252B (zh) 2015-01-09 2015-01-09 基于nsct和pcnn的数字图像增强方法

Country Status (1)

Country Link
CN (1) CN104616252B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105741254B (zh) * 2016-01-28 2018-03-30 广州高清视信数码科技股份有限公司 一种基于l0范数分解的动漫图像增强显示方法及系统
CN106127719A (zh) * 2016-06-20 2016-11-16 中国矿业大学 一种新型的神经网络医学图像融合方法
CN107194904B (zh) * 2017-05-09 2019-07-19 西北工业大学 基于增补机制和pcnn的nsct域图像融合方法
EP3785222B1 (en) * 2018-05-30 2024-04-17 Shanghai United Imaging Healthcare Co., Ltd. Systems and methods for image processing
CN113191987A (zh) * 2021-05-31 2021-07-30 齐鲁工业大学 一种基于PCNN和Otsu的掌纹图像增强方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295204A (zh) * 2013-06-20 2013-09-11 河海大学常州校区 一种基于非下采样轮廓波变换的图像自适应增强方法
CN103295201A (zh) * 2013-05-31 2013-09-11 中国人民武装警察部队工程大学 一种基于nsst域iicm的多传感器图像融合方法
CN103455991A (zh) * 2013-08-22 2013-12-18 西北大学 一种多聚焦图像融合方法
CN103985105A (zh) * 2014-02-20 2014-08-13 江南大学 基于统计建模的Contourlet域多模态医学图像融合方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953896B2 (en) * 2010-07-13 2015-02-10 Samsung Electronics Co., Ltd. Method and apparatus for enhancing image quality using spatial modulation per band

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103295201A (zh) * 2013-05-31 2013-09-11 中国人民武装警察部队工程大学 一种基于nsst域iicm的多传感器图像融合方法
CN103295204A (zh) * 2013-06-20 2013-09-11 河海大学常州校区 一种基于非下采样轮廓波变换的图像自适应增强方法
CN103455991A (zh) * 2013-08-22 2013-12-18 西北大学 一种多聚焦图像融合方法
CN103985105A (zh) * 2014-02-20 2014-08-13 江南大学 基于统计建模的Contourlet域多模态医学图像融合方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于NSCT和PCNN的图像融合方法研究;郝文超;《万方数据库》;20140917;第12-15,26-29页 *
基于非下采样Contourlet变换和PCNN的图像增;卫婷婷, 纪峰, 庞胜军;《科教导刊》;20130331(第3期);第193-194页 *

Also Published As

Publication number Publication date
CN104616252A (zh) 2015-05-13

Similar Documents

Publication Publication Date Title
CN107194904B (zh) 基于增补机制和pcnn的nsct域图像融合方法
CN104616252B (zh) 基于nsct和pcnn的数字图像增强方法
CN109035189B (zh) 基于柯西模糊函数的红外与弱可见光图像融合方法
Ren et al. Dn-resnet: Efficient deep residual network for image denoising
CN111583123A (zh) 一种基于小波变换的融合高低频信息的图像增强算法
CN105551010A (zh) 基于nsct及深度信息激励pcnn的多聚焦图像融合方法
CN110189286B (zh) 一种基于ResNet的红外与可见光图像融合方法
CN103295204B (zh) 一种基于非下采样轮廓波变换的图像自适应增强方法
CN110097617B (zh) 基于卷积神经网络与显著性权重的图像融合方法
CN113808042B (zh) 一种基于小波变换和生成对抗网络的sar图像去噪方法
CN106097274A (zh) 一种自适应分数阶微分图像增强算法
CN104657951A (zh) 图像乘性噪声移除方法
CN104616259B (zh) 一种噪声强度自适应的非局部均值图像去噪方法
Zhang et al. Ams-net: Adaptive multi-scale network for image compressive sensing
CN115082336A (zh) 一种基于机器学习的sar图像相干斑抑制方法
Feng et al. BM3D‐GT&AD: an improved BM3D denoising algorithm based on Gaussian threshold and angular distance
CN104036457A (zh) 一种图像降噪方法
Lu et al. An adaptive detail equalization for infrared image enhancement based on multi-scale convolution
CN103077507A (zh) 基于Beta算法的多尺度SAR图像降噪方法
CN104240208A (zh) 非制冷红外焦平面探测器图像细节增强方法
CN111461999B (zh) 一种基于超像素相似性测量的sar图像相干斑抑制方法
Laksmi et al. Novel image enhancement technique using CLAHE and wavelet transforms
CN104978720A (zh) 一种视频图像雨滴去除方法及装置
Luo et al. Multi-focus image fusion through pixel-wise voting and morphology
Zhang et al. CFPNet: A denoising network for complex frequency band signal processing

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant