CN104008536A - 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法 - Google Patents
基于cs-chmt和idpcnn的多聚焦噪声图像融合方法 Download PDFInfo
- Publication number
- CN104008536A CN104008536A CN201310540752.2A CN201310540752A CN104008536A CN 104008536 A CN104008536 A CN 104008536A CN 201310540752 A CN201310540752 A CN 201310540752A CN 104008536 A CN104008536 A CN 104008536A
- Authority
- CN
- China
- Prior art keywords
- mrow
- msub
- msubsup
- image
- idpcnn
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 45
- 230000004927 fusion Effects 0.000 claims abstract description 36
- 230000000694 effects Effects 0.000 claims abstract description 15
- 238000013528 artificial neural network Methods 0.000 claims abstract description 8
- 210000002569 neuron Anatomy 0.000 claims description 32
- 238000000034 method Methods 0.000 claims description 26
- 238000012545 processing Methods 0.000 claims description 17
- 230000009466 transformation Effects 0.000 claims description 13
- 238000013519 translation Methods 0.000 claims description 10
- 238000000354 decomposition reaction Methods 0.000 claims description 9
- 230000008878 coupling Effects 0.000 claims description 7
- 238000010168 coupling process Methods 0.000 claims description 7
- 238000005859 coupling reaction Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 7
- 125000004122 cyclic group Chemical group 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000004088 simulation Methods 0.000 claims description 5
- 239000000203 mixture Substances 0.000 claims description 4
- 230000003213 activating effect Effects 0.000 claims description 2
- 239000011159 matrix material Substances 0.000 claims description 2
- 230000008569 process Effects 0.000 claims description 2
- 230000009467 reduction Effects 0.000 claims description 2
- 230000000946 synaptic effect Effects 0.000 claims description 2
- 230000007704 transition Effects 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000000007 visual effect Effects 0.000 abstract description 5
- 230000035945 sensitivity Effects 0.000 abstract 1
- 238000009987 spinning Methods 0.000 abstract 1
- 238000013461 design Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000004091 panning Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000011426 transformation method Methods 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000007499 fusion processing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 210000000857 visual cortex Anatomy 0.000 description 1
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于循环平移结合Contourlet域隐马尔科夫树模型(CS-CHMT)和改进的双通道脉冲耦合神经网络(IDPCNN)的多聚焦噪声图像融合方法,分别对包含一定水平高斯白噪声的两幅多聚焦图像采用CS-CHMT模型进行去噪处理,在此基础上,利用改进的双通道IDPCNN设计融合策略,获得最终的融合图像。本发明利用Contourlet变换高度的方向敏感性和各向异性的优势,结合隐马尔科夫树(HMT)模型进行图像降噪,并引入循环平移(CS)技术有效抑制图像在奇异点附近的伪Gibbs效应,提高了去噪图像的PSNR值;改进的IDPCNN融合方法相比传统的多聚焦图像融合方法不仅能有效保留更多表征图像特征的细节信息,极大地提高融合图像的质量,进一步改善其视觉效果,而且具有实时性。
Description
技术领域
本发明涉及一种基于循环平移结合Contourlet域隐马尔科夫树模型(CS-CHMT)和改进的双通道脉冲耦合神经网络(IDPCNN)的多聚焦噪声图像融合方法,是数字图像处理技术领域的一项融合方法,在数码相机、机器视觉、目标识别等系统中有广泛地应用。
背景技术
图像融合作为数据融合的一个重要分支,综合了传感器、图像处理、信号处理、计算机和人工智能等现代高新技术,是图像理解和计算机视觉领域中不可或缺的一项。其中,多聚焦图像融合一直是图像融合领域的研究热点,即通过某种算法,将已配准、成像条件相同但不同聚焦的两幅或多幅图像合成一幅全局清晰的新图像。然而,在图像数字化和传输、存储过程中常会受到成像设备和光照、温度等外界因素的干扰而使图像降质,重要细节被噪声掩盖不仅影响其视觉效果,还直接关系到融合图像的品质,故首先应选择恰当的去噪方法在最大限度保留图像原始信息的基础上尽可能去除噪声,然后再对获得的去噪图像进行融合处理,采用有效的融合规则可以降低将噪声信号当作表征图像显著特征的有用信号的可能性,使融合图像综合更多的正确信息。多聚焦噪声图像的融合,被认为是现代多源图像处理和分析中非常重要的一步。
小波变换以其超越傅里叶变换的时频局域化、多分辨率等优点,在图像去噪等领域得到广泛的应用并取得了优异的效果。但可分离的二维小波仅有有限方向,即水平、垂直和对角,只能反映信号的“点”奇异性,不能充分利用图像本身特有的几何正则性,难以最优地表示含“线”或“面”奇异性的高维数据,导致小波域隐马尔科夫树WHMT模型的图像处理结果容易产生方向边缘成分模糊。2002年,M.N.Do和Martin Vetterli在继承小波多尺度分析思想的基础上提出了一种“真正”的二维图像稀疏表示方法-Contourlet变换,Contourlet域HMT模型与小波域HMT模型相比更灵活,不仅对尺度间的相关性进行直接建模,同时还对相邻方向间的系数相关性进行间接建模,更能充分地捕获系数之间的依赖关系。由于Contourlet变换中方向滤波器组降采样和上采样的存在,导致在图像奇异点附近会产生伪吉布斯现象,引入循环平移(Cycle Spinning)技术可以弥补Contourlet变换因缺乏平移不变性对去噪结果造成的影响,有效抑制图像失真。CS-CHMT模型能在提高去噪图像PSNR值的同时更好地保留其特征信息,使图像边缘更清晰、细节更丰富,有利于进一步的融合处理。
国内外学者对多聚焦图像融合技术已展开广泛地研究和应用,目前,基于空间域传统的融合方法主要有加权平均法、PCA算法、分块融合方法、对比度调制融合方法等,其基本思想是根据某种指标来选取图像清晰部分的像素构成场景中所有对象均清晰的融合图像,优点是计算简单,且能准确保留图像的原始信息,但融合结果对比度下降,适用面较窄,易出现明显的拼接效应,因此设计更合适的融合规则,有效提取各幅图像中的互补信息,获得更优的融合效果是进一步研究的重点。
脉冲耦合神经网络(PCNN)于20世纪90年代,Eckhom为解释在猫的大脑视觉皮层实验中所观察到的与特征有关的神经元同步行为而提出,是基于生物学背景建立、由若干个神经元互连构成的反馈型网络。PCNN不仅具有全局耦合性和脉冲同步发放特性,而且对图像的处理结果具有稳定性(如旋转不变性、强度不变性、尺度不变性和扭曲不变性等),使其在图像去噪、增强、图像分割、图像融合、边缘检测以及目标识别等方面得到广泛的研究和应用。然而,基于PCNN的融合方法对于每一神经元仅有一个输入,计算耗时较长,对实时系统的应用缺乏一定的灵活性。本发明在CS-CHMT模型去噪的基础上提出一种改进的双通道IDPCNN融合方法,采用待融合图像的清晰度设计两个通道的权重系数,充分利用源图像中的互补信息和冗余信息,有效整合有用信息,在一定程度上增加了融合方法的自适应性,增加图像对比度、保留更多的图像细节信息,具有传统方法无可比拟的优越性。
发明内容
本发明的目的在于针对现有空间域传统融合技术的不足,提出了一种基于循环平移结合Contourlet域隐马尔科夫树模型(CS-CHMT)与改进的双通道脉冲耦合神经网络(IDPCNN)的多聚焦噪声图像融合方法,解决已有技术在多聚焦图像融合中易受噪声影响,融合质量不高的问题,获得客观指标和主观视觉效果均较优的融合图像。
本发明解决其技术问题所采用的技术方案是:
一种基于CS-CHMT和IDPCNN的多聚焦噪声图像融合方法,首先分别对包含一定水平高斯白噪声的两幅多聚焦图像采用CS-CHMT模型进行去噪处理,对得到的去噪图像利用改进的双通道IDPCNN设计融合策略,获得最终的融合图像。
本发明具体的实现步骤如下:
(1)采用CS-CHMT模型分别对含噪声的多聚焦图像NIA、NIB进行去噪处理,获得去噪后的多聚焦图像CIA、CIB,降噪处理按照以下步骤进行:
1a)对多聚焦噪声图像NIA、NIB进行循环平移操作,再对平移后的图像执行Contourlet变换,分解得到不同尺度、不同方向的子带系数j表示分解尺度,k表示每尺度分解的方向子带数目;
1b)保留低频子带系数不变,对高频子带系数分别进行Contourlet域HMT建模,并采用迭代期望最大化EM算法训练参数集合
1c)采用蒙特卡罗(Monte Carlo)统计模拟方法估计各个方向子带的噪声方差水平
1d)已知模型参数和噪声方差水平,计算Contourlet域去噪后的系数(X=A,B);
1e)对去噪后的系数执行Contourlet域逆变换(重构)得到图像,再进行逆向循环平移操作,获得最终的多聚焦去噪图像CIA、CIB;
(2)对去噪后的多聚焦图像CIA、CIB,采用基于改进的双通道脉冲耦合神经网络IDPCNN的融合方法得到最终的融合图像IF,具体的融合步骤如下:
2a)初始化改进的双通道脉冲耦合神经网络IDPCNN参数;
2b)将待融合图像CIA、CIB归一化处理,分别输入到改进的双通道IDPCNN中,进行迭代运算,记录每次迭代后所有神经元脉冲点火总次数;
2c)若当前迭代后所有点火神经元总数小于IDPCNN中的所有神经元总数时返回到步骤2b),否则对改进的双通道IDPCNN的内部活动U进行归一化处理,得到最终的融合图像。
本发明方法与现有技术相比较,具有以下优点:
第一,本发明引入循环平移CS技术,有效弥补了Contourlet变换非平移不变性造成的伪Gibbs效应,能更彻底地去除噪声,抑制图像失真。
第二,本发明对具有生物学背景的双通道脉冲耦合神经网络模型进行改进,采用待融合图像的清晰度设计双通道脉冲耦合神经网络的权重系数,充分利用源图像自身的信息在一定程度上增加了融合方法的自适应性,符合人类的视觉特性,并行的思想减少了程序的运行时间,使融合方法更具实时性。
第三,本发明与传统的多聚焦融合方法相比,不易受噪声影响,具有更好的鲁棒性,融合质量更高。
附图说明
图1是本发明基于CS-CHMT和IDPCNN的多聚焦噪声图像融合方法的流程框图。
图2是本发明改进的双通道IDPCNN的结构图。
图3是本发明一个实施例的原始图像、噪声图像以及去噪图像。
图中:(a)左聚焦原始图像;(b)右聚焦原始图像;(c)左聚焦噪声图像;(d)右聚焦噪声图像;(e)基于WHMT模型的左聚焦去噪图像;(f)基于WHMT模型的右聚焦去噪图像;(g)基于CHMT模型的左聚焦去噪图像;(h)基于CHMT模型的右聚焦去噪图像;(i)基于CS-WHMT模型的左聚焦去噪图像;(j)基于CS-WHMT模型的右聚焦去噪图像;(k)基于CS-CHMT模型的左聚焦去噪图像;(1)基于CS-CHMT模型的右聚焦去噪图像。
图4是本发明方法与基于GP融合方法、基于PCA融合方法、基于Wavelet变换融合方法、基于Contourlet变换融合方法、基于双通道DPCNN融合方法所得融合结果的比较示意图。
图中:(a)基于GP方法的融合图像;(b)基于PCA方法的融合图像;(c)基于Wavelet变换方法的融合图像;(d)基于Contourlet变换方法的融合图像;(e)基于双通道DPCNN方法的融合图像;(f)本发明方法的融合图像。
具体实施方式
下面对本发明的一个实施例结合附图作详细说明,本实施例在以本发明技术方案为前提下进行,给出了详细的实施方式和具体的操作过程。
如图1所示,本实施例包括以下具体步骤:
(1)对多聚焦噪声图像NIA、NIB进行循环平移操作,再对平移后的图像执行Contourlet变换,分解得到不同尺度、不同方向的子带系数(j=1,2...,J;k=1,2,...,mj),j表示分解尺度,k表示每尺度分解的方向子带数目,其中尺度分解LP选用“9-7”双正交滤波器,方向滤波器组DFB选用“pkva”,方向分解参数设为[2,2,3,3],即进行4尺度分解,由粗糙到精细尺度所对应的方向子带数目依次为4,4,8,8;
(2)保留低频子带系数不变,对高频子带系数分别进行Contourlet域HMT建模,并采用迭代期望最大化EM算法训练参数集合
式中,m,n=0,1表示HMT模型中Contourlet系数对应的大、小状态,(m)为尺度j方向k状态取m时的概率,μj,k,m为尺度j方向k状态取m时的高斯混合模型均值,为尺度j方向k状态取m时的高斯混合模型方差,为父尺度j-1状态取值为n转移到子尺度j状态取值为m的转移概率;
(3)采用蒙特卡罗(Monte Carlo)统计模拟方法估计各个方向子带的噪声方差水平
(4)采用下式计算Contourlet域去噪后的系数(X=A,B):
式中,当x≥0时,(x)+=x;当x<0时,(x)+=0;
(5)对去噪后的系数执行Contourlet域逆变换(重构)得到图像,再进行逆向循环平移操作,获得最终的多聚焦去噪图像CIA、CIB;
(6)初始化改进的双通道IDPCNN模型参数,所有的神经元均处于熄火状态, 设定 则 表示卷积运算,αθ=0.2、Vθ=20、σ=1.0、迭代次数Nmax=10,βB=1-βA,其中,clarityX(X=A,B)表示图像的清晰度,值越大图像越清晰,其计算公式如下: 式中,ΔIx、ΔIy分别表示图像在x和y方向上的差分,M、N为图像的行数和列数,j表示分解尺度,k表示分解方向子带数目,下标(i,l)为神经元位置索引;
(7)将待融合图像CIA、CIB归一化处理后分别输入改进的双通道IDPCNN中,并按照下列公式进行迭代运算,记录各个神经元的点火次数,更新Ui,l、Yi,l、θi,l的值;
θi,l(n)=exp(-αθ)θi,l(n-1)+VθYi,l(n);
其中,分别为待融合图像归一化处理后的灰度值,分别为两个通道第(i,j)个神经元的对称输入,Ui,l为神经元内部活动,Yi,l为神经元输出,θi,l为神经元动态阈值,αθ为阈值时间常数,Vθ为归一化常数,W为突触联接权值矩阵,βA、βB分别为的权重系数,σ为调节内部活动平均水平的水平因子,n为迭代次数;
(8)所述的两个通道神经元的对称输入,分别对应两幅待融合多聚焦图像,在调制域进行耦合调制,计算内部活动Ui,l输入到脉冲产生部分用于产生神经元的脉冲输出Yi,l。在脉冲产生部分,当Ui,l(n)>θi,l(n-1)时,对应神经元被激活,产生一个脉冲输出,称为一次点火,同时神经元的阈值通过反馈迅速提高,继续进行迭代运算;当θi,l超过Ui,l时,脉冲产生器关闭,神经元停止发放脉冲,阈值开始指数下降,当θi,l再次低于Ui,l时,脉冲产生器再次打开,对应神经元重新处于激活状态,如此迭代循环直至达到设定的最大迭代次数。
(9)对改进的双通道IDPCNN的内部活动Ui,l进行归一化处理,得到最终的融合图像IF。
仿真实验
为了验证本发明的可行性和有效性,采用pepsi多聚焦图像,图像大小为512×512,灰度级为256,对源图像添加标准偏差为10的加性高斯白噪声,对本发明方法进行仿真实验。通过图3的去噪效果比较可以看出:基于CS-CHMT模型去噪方法所得去噪图像的主观视觉效果要优于基于WHMT模型、CHMT模型及CS-WHMT模型的去噪方法,在去除更多噪声点的同时更好地保持图像边缘细节和纹理信息的完整性,而且CS技术的引入消除了Contourlet变换因缺乏平移不变性导致在图像奇异点附近产生伪Gibbs效应所带来的影响,使得到的图像更清晰。
表1统计了采用各种方法所得去噪结果的PSNR值。
表1基于各种方法去噪结果的PSNR值比较
从表中可知,基于CS-CHMT模型的去噪方法所得去噪结果的PSNR值是最大的,说明该方法对于去除高斯白噪声更具有鲁棒性,更适用于图像降噪处理。
通过图4比较可知,本发明方法得到的融合图像整体可视性最好,利用图像清晰度来设计IDPCNN模型中两个通道的权重系数,可以更好地利用源多聚焦图像的冗余和互补信息,突出表征图像特征的细节信息,进一步提高融合结果的质量,获得更理想的融合图像。
表2给出了六种融合方法所得融合图像的多种客观评价指标。
表2基于各种融合方法所得融合图像的性能比较
表中采用了均值、标准差、信噪比、熵、空间频率、互信息、QAB/F来衡量融合图像的质量,进而验证本实施例融合方法的有效性。表中融合方法一为基于GP梯度变换的融合方法,融合方法二为基于PCA的融合方法,融合方法三为基于Wavelet变换的融合方法,融合规则采用低频、高频绝对值取大,融合方法四为基于Contourlet变换的融合方法,融合规则采用低频绝对值取大、高频区域能量取大。融合方法五为基于双通道DPCNN的融合方法。
由表2数据可知,本发明所得融合图像在标准差、熵值、空间频率、互信息、QAB/F等客观评价指标上相比其它融合方法要好,标准差大说明融合图像对比度大,可以看出更多的信息;熵值、互信息都有明显提高,表明融合图像携带的信息量更多,空间频率反映图像的全面活跃水平,其值越大图像越清晰,即融合效果越好;QAB/F利用Sobel边缘检测算子衡量有多少边缘信息从源图像转移到了融合图像,其值越大说明越多的原始信息转移到了融合结果中,进一步证实了本发明方法更适用于多聚焦噪声图像的融合。
Claims (4)
1.一种基于CS-CHMT和IDPCNN的多聚焦噪声图像融合方法,其特征在于,分别对包含一定水平高斯白噪声的两幅多聚焦图像采用CS-CHMT模型进行去噪处理,在此基础上,对得到的去噪图像利用改进的双通道IDPCNN设计融合策略,获得最终的融合图像。
2.根据权利要求1所述的基于CS-CHMT和IDPCNN的多聚焦噪声图像融合方法,其特征是,包括以下具体步骤:
(1)采用CS-CHMT模型分别对含噪声的多聚焦图像NIA、NIB进行去噪处理,获得去噪后的多聚焦图像CIA、CIB,降噪处理按照以下步骤进行:
1a)对多聚焦噪声图像NIA、NIB进行循环平移操作,再对平移后的图像执行Contourlet变换,分解得到不同尺度、不同方向的子带系数(j=1,2...,J;k=1,2,...,mj),j表示分解尺度,k表示每尺度分解的方向子带数目;
1b)保留低频子带系数不变,对高频子带系数分别进行Contourlet域HMT建模,并采用迭代期望最大化EM算法训练参数集合
式中,m,n=0,1表示HMT模型中Contourlet系数对应的大、小状态,(m)为尺度j方向k状态取m时的概率,μj,k,m为尺度j方向k状态取m时的高斯混合模型均值,为尺度j方向k状态取m时的高斯混合模型方差,为父尺度j-1状态取值为n转移到子尺度j状态取值为m的转移概率;
1c)采用蒙特卡罗(Monte Carlo)统计模拟方法估计各个方向子带的噪声方差水平
1d)采用下式计算Contourlet域去噪后的系数
式中,当x≥0时,(x)+=x;当x<0时,(x)+=0;
1e)对去噪后的系数执行Contourlet域逆变换(重构)得到图像,再进行逆向循环平移操作,获得最终的多聚焦去噪图像CIA、CIB;
(2)对去噪后的多聚焦图像CIA、CIB,采用基于改进的双通道脉冲耦合神经网络IDPCNN的融合方法得到最终的融合图像IF。
3.根据权利要求2所述的基于CS-CHMT和IDPCNN的多聚焦噪声图像融合方法,其特征是,所述的步骤(2)包括:
(1)初始化改进的双通道IDPCNN模型参数,设定W、αθ、Vθ、βA、βB、调节因子σ、迭代次数Nmax的初值;
(2)将待融合图像CIA、CIB归一化处理后分别输入改进的双通道IDPCNN中,并按照下列公式进行迭代运算,记录每次迭代后所有神经元脉冲点火总次数,即本次迭代前所有神经元点火总数与当前迭代中的神经元点火次数的总和,并且每个神经元在整个过程中只点火一次;
θi,l(n)=exp(-αθ)θi,l(n-1)+VθYi,l(n);
其中,分别为待融合图像归一化处理后的灰度值,分别为两个通道第(i,j)个神经元的对称输入,Ui,l为神经元内部活动,Yi,l为神经元输出,θi,l为神经元动态阈值,αθ为阈值时间常数,Vθ为归一化常数,W为突触联接权值矩阵,βA、βB分别为的权重系数,σ为调节内部活动平均水平的水平因子,n为迭代次数;
(3)若当前迭代后所有点火神经元总数小于IDPCNN中的所有神经元总数时返回到步骤(2),否则对改进的双通道IDPCNN的内部活动U进行归一化处理,得到最终的融合图像。
4.根据权利要求3所述的方法,其特征是,所述的两个通道神经元的对称输入,分别对应两幅待融合多聚焦图像,在调制域进行耦合调制,计算内部活动Ui,l输入到脉冲产生部分用于产生神经元的脉冲输出Yi,l;
所述的脉冲产生部分,当Ui,l(n)>θi,l(n-1)时,对应神经元被激活,产生一个脉冲输出,称为一次点火,同时神经元的阈值通过反馈迅速提高,继续进行迭代运算;当θi,l超过Ui,l时,脉冲产生器关闭,神经元停止发放脉冲,阈值开始指数下降,当θi,l再次低于Ui,l时,脉冲产生器再次打开,对应神经元重新处于激活状态,进入新的迭代循环。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310540752.2A CN104008536A (zh) | 2013-11-04 | 2013-11-04 | 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310540752.2A CN104008536A (zh) | 2013-11-04 | 2013-11-04 | 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN104008536A true CN104008536A (zh) | 2014-08-27 |
Family
ID=51369177
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310540752.2A Pending CN104008536A (zh) | 2013-11-04 | 2013-11-04 | 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104008536A (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105260775A (zh) * | 2015-10-16 | 2016-01-20 | 清华大学 | 实现马尔科夫随机场概率编码的方法及神经电路 |
CN106056600A (zh) * | 2016-05-26 | 2016-10-26 | 中山大学 | 一种基于Contourlet变换的图像拼接检测方法 |
CN107341501A (zh) * | 2017-05-31 | 2017-11-10 | 三峡大学 | 一种基于pcnn和分级聚焦技术的图像融合方法及装置 |
CN108665442A (zh) * | 2018-04-03 | 2018-10-16 | 中国空气动力研究与发展中心超高速空气动力研究所 | 红外无损检测的热图像缺陷特征增强处理方法 |
CN109003240A (zh) * | 2018-07-16 | 2018-12-14 | 安徽理工大学 | 一种基于多尺度并行cnn的图像去噪方法 |
CN111311530A (zh) * | 2020-01-22 | 2020-06-19 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN111985204A (zh) * | 2020-07-29 | 2020-11-24 | 大连大学 | 一种海关进出口商品税号预测方法 |
CN112686902A (zh) * | 2019-10-17 | 2021-04-20 | 西安邮电大学 | 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1873693A (zh) * | 2006-06-27 | 2006-12-06 | 上海大学 | 基于Contourlet变换和改进型脉冲耦合神经网络的图像融合方法 |
-
2013
- 2013-11-04 CN CN201310540752.2A patent/CN104008536A/zh active Pending
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1873693A (zh) * | 2006-06-27 | 2006-12-06 | 上海大学 | 基于Contourlet变换和改进型脉冲耦合神经网络的图像融合方法 |
Non-Patent Citations (4)
Title |
---|
BAOHUA ZHANG等: "A multi-focus image fusion algorithm based on an improved dual-c", 《OPTIK-INTERNATIONAL JOURNAL FOR LIGHT AND ELECTRON OPTICS》 * |
ZHAOBIN WANG等: "Multi-focus imagefusionusingPCNN", 《PATTERN RECOGNITION》 * |
李康 等: "基于Contourlet域HMT模型的Cycle Spinning去噪方法", 《电子设计工程》 * |
马义德: "《脉冲耦合神经网络与数字图像处理》", 31 December 2008 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105260775B (zh) * | 2015-10-16 | 2017-11-21 | 清华大学 | 实现马尔科夫随机场概率编码的方法及神经电路 |
CN105260775A (zh) * | 2015-10-16 | 2016-01-20 | 清华大学 | 实现马尔科夫随机场概率编码的方法及神经电路 |
CN106056600A (zh) * | 2016-05-26 | 2016-10-26 | 中山大学 | 一种基于Contourlet变换的图像拼接检测方法 |
CN107341501B (zh) * | 2017-05-31 | 2019-10-08 | 三峡大学 | 一种基于pcnn和分级聚焦技术的图像融合方法及装置 |
CN107341501A (zh) * | 2017-05-31 | 2017-11-10 | 三峡大学 | 一种基于pcnn和分级聚焦技术的图像融合方法及装置 |
CN108665442A (zh) * | 2018-04-03 | 2018-10-16 | 中国空气动力研究与发展中心超高速空气动力研究所 | 红外无损检测的热图像缺陷特征增强处理方法 |
CN109003240A (zh) * | 2018-07-16 | 2018-12-14 | 安徽理工大学 | 一种基于多尺度并行cnn的图像去噪方法 |
CN109003240B (zh) * | 2018-07-16 | 2021-07-27 | 安徽理工大学 | 一种基于多尺度并行cnn的图像去噪方法 |
CN112686902A (zh) * | 2019-10-17 | 2021-04-20 | 西安邮电大学 | 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法 |
CN112686902B (zh) * | 2019-10-17 | 2023-02-03 | 西安邮电大学 | 核磁共振影像中脑胶质瘤识别与分割的两阶段计算方法 |
CN111311530A (zh) * | 2020-01-22 | 2020-06-19 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN111311530B (zh) * | 2020-01-22 | 2022-03-04 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN111985204A (zh) * | 2020-07-29 | 2020-11-24 | 大连大学 | 一种海关进出口商品税号预测方法 |
CN111985204B (zh) * | 2020-07-29 | 2023-06-02 | 大连大学 | 一种海关进出口商品税号预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104008536A (zh) | 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法 | |
Bnou et al. | A wavelet denoising approach based on unsupervised learning model | |
Thakur et al. | Image de-noising with machine learning: A review | |
CN103985105B (zh) | 基于统计建模的Contourlet域多模态医学图像融合方法 | |
CN104063886B (zh) | 一种基于稀疏表示和非局部相似的核磁共振图像重建方法 | |
US11880903B2 (en) | Bayesian image denoising method based on distribution constraint of noisy images | |
CN104282007B (zh) | 基于非采样的轮廓波变换自适应的医学图像融合方法 | |
CN104008537A (zh) | 结合cs-ct-chmm的噪声图像融合新方法 | |
CN106897987A (zh) | 基于平移不变剪切波和栈式自编码的图像融合方法 | |
CN106056564A (zh) | 基于联合稀疏模型的边缘清晰图像融合方法 | |
Yang | Multiresolution Image Fusion Based on Wavelet Transform By Using a Novel Technique for Selection Coefficients. | |
Thakur et al. | Gradient and multi scale feature inspired deep blind gaussian denoiser | |
CN103077507A (zh) | 基于Beta算法的多尺度SAR图像降噪方法 | |
Lee et al. | Speckle reduction via deep content-aware image prior for precise breast tumor segmentation in an ultrasound image | |
CN107133921B (zh) | 基于多层次邻域嵌入的图像超分辨率重建方法及系统 | |
Lv et al. | Denoising 3D magnetic resonance images based on low-rank tensor approximation with adaptive multirank estimation | |
Wang et al. | The NSCT-HMT model of remote sensing image based on Gaussian-Cauchy mixture distribution | |
CN111402180B (zh) | 一种nsct域的基于fbiem与iscm的图像融合方法 | |
CN106971392A (zh) | 一种结合dt‑cwt和mrf的遥感图像变化检测方法与装置 | |
Guo | Real-time medical image denoising and information hiding model based on deep wavelet multiscale autonomous unmanned analysis | |
CN103778615A (zh) | 基于区域相似性的多聚焦图像融合方法 | |
CN103310429B (zh) | 基于方向波域的隐马尔可夫树模型的图像增强方法 | |
Wang et al. | Retracted: Complex image denoising framework with CNN‐wavelet under concurrency scenarios for informatics systems | |
Xue et al. | SARANIQA: self-attention restorative adversarial network for No-reference image quality assessment | |
Li et al. | A mixed model with multi-fidelity terms and nonlocal low rank regularization for natural image noise removal |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20140827 |
|
WD01 | Invention patent application deemed withdrawn after publication |