CN104282007B - 基于非采样的轮廓波变换自适应的医学图像融合方法 - Google Patents

基于非采样的轮廓波变换自适应的医学图像融合方法 Download PDF

Info

Publication number
CN104282007B
CN104282007B CN201410577546.3A CN201410577546A CN104282007B CN 104282007 B CN104282007 B CN 104282007B CN 201410577546 A CN201410577546 A CN 201410577546A CN 104282007 B CN104282007 B CN 104282007B
Authority
CN
China
Prior art keywords
mrow
msub
msubsup
msup
munderover
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410577546.3A
Other languages
English (en)
Other versions
CN104282007A (zh
Inventor
黄丹飞
陈俊强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN201410577546.3A priority Critical patent/CN104282007B/zh
Publication of CN104282007A publication Critical patent/CN104282007A/zh
Application granted granted Critical
Publication of CN104282007B publication Critical patent/CN104282007B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Medicines Containing Antibodies Or Antigens For Use As Internal Diagnostic Agents (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及一种基于非采样的轮廓波变换自适应的医学图像融合方法,属于图像处理领域。首先对源图像进行算术均值滤波处理,然后通过非采样中的正交9‑7小波滤波器和pkva滤波器分解图像得到低频子带系数和各带通方向子带系数;再对低频子带系数采用边缘信息最大准则来选择融合低频子带系数,各带通子带系数采用基于视觉神经元模型的自适应PCNN模型来选择融合各带通子带系数;最后经NSCT的逆变换获得最终融合图像。本发明算法是非常有效并正确的,并且融合后的图像边缘和空间纹理信息清晰、颜色失真小,没有伪轮廓现象,很好的保留原有图像的特征信息。

Description

基于非采样的轮廓波变换自适应的医学图像融合方法
技术领域
本发明属于图像处理领域,尤其涉及一种基于非采样的轮廓波变换(NSCT)自适应脉冲耦合神经网络(PCNN)的医学图像融合方法。
背景技术
图像融合是指将两个或两个以上的传感器在同一时间或不同时间获得的关于某个场景的图像或图像序列的信息加以综合,从而生成一幅新的对该场景描述更全面、更精确的图像。
随着医学影像成像技术的飞速发展,图像质量已经有很大的提高,但是由于医学影像成像技术的成像原理不同,单独使用一种模态的成像技术,往往不能提供医生所需要的足够信息,通常要将不同模态的医学图像融合在一起,得到全面互补的信息以便了解病变组织的综合信息,从而做出准确地诊断。
多尺度图像融合的研究难点主要有两个问题,其一是多尺度分解方法的选择,其二是融合准则的选择。大量的研究表明:不同的多尺度变换分解方法和融合规则直接影响到医学图像融合的效果。
文献《一种基于区域的多分辨率图像融合算法。IEEE第五届国际会议上的信息融合[J],2002:1557-1564》表明小波变换已经广泛地应用在多模态医学图像的融合处理中。但是文献《Contourlets超越小波[M]。科学出版社,2002》研究表明小波变换对二维图像进行分析时只能分解成三个各向同性的方向,不能充分利用图像的几何特征来挖掘图像中的边缘方向信息,这使得融合后的图像容易产生方块效应,降低了融合后图像的质量。针对小波变换的缺陷,文献《Contourlet变换:一种有效的方向多分辨率图像表示[J]。IEEE图像处理事务,2005,14(12):2091-2106》中的M.N.Do和M.Vetterli提出了提出了Contourlet变换,该变换不仅具有小波变换的多尺度、时频局部特征特性,还有多方向特性,可以更好的捕捉图像的边缘信息。但是文献《基于Contourlet变换的多波段SAR图像融合[A]。IEEE国际信息获取[C]。2006:420-424》研究表明Contourlet变换需要对图像进行降采样操作,这使得Contourlet变换因缺乏平移不变性而产生伪轮廓现象。为此,文献《非下采样轮廓波变换理论,设计和应用[J]。IEEE图像处理事务,2006,15(10):3089-3101》中的A.L.Cunha等又提出了一种具有平移不变性的Contourlet变换即非采样Contourlet变换,很好的解决了伪轮廓现象,但是该变换采用拉普拉斯金字塔进行多尺度分解会产生冗余信息。文献《关于PCNN应用于图像处理的研究[J]。电讯技术,2003,3:21-24》表明人工神经网络已经广泛地应用于图像融合中,特别是Eckhorn等对猫的视觉皮层神经元脉冲串同步振荡现象的研究而形成的脉冲耦合神经网络在图像处理领域中正被广泛研究,但是传统PCNN的连接强度通常是常数,这就极大地限制了PCNN自动处理能力和使用的普遍性。
发明内容
本发明提供一种基于非采样的轮廓波变换自适应的医学图像融合方法,目的是提供一种细节清晰信息保留完全的图像融合方法。
本发明采取的技术方案是:包括下列步骤:
步骤1:初始图像的获取
采用来自同一颅脑256×256大小的核磁共振医学图像A和256×256大小的正电子发射断层医学图像B;
步骤2:图像预处理
对医学图像进行去噪预处理,采用3×3模版的算术均值滤波器G对图像A和B进行滤波处理见公式(1),得到滤波后的图像A'和B';
X'=G*X (1)
其中,X=A,B;X'=A',B'。
步骤3:图像NSCT分解
将图像A'和B'首先用非采样的正交9-7小波滤波器组{h0,h1;g0,g1}进行多尺度分解,正交9-7小波滤波器组{h0,h1;g0,g1}满足Bezout恒等式,见公式(2),其中h0、g0为9-7小波滤波器组的低通分解滤波器和重构滤波器,h1、g1为高通分解滤波器和重构滤波器;
h0*g0+h1*g1=1 (2)
然后再用非采样的pkva滤波器组{u0,u1;v0,v1}进行多方向分解,pkva滤波器组{u0,u1;v0,v1}满足Bezout恒等式,见公式(3),其中u0、v0为pkva滤波器组的低通分解滤波器和重构滤波器,u1、v1为高通分解滤波器和重构滤波器;
u0*v0+u1*v1=1 (3)
得到A'图像分解后的低频子带系数为B'图像分解后的低频子带系数为A'图像分解后的各子带高频系数为B'图像分解后的各子带高频系数为设融合图像低F频子带系数为各子带高频系数为
其中,J表示NSCT的分解层数;表示图像X的低频子带系数,表示图像X第k(1≤k≤J)层第l个方向的高频子带系数;
步骤4:图像融合系数选择
对低频子带采用边缘能量最大准则来选择融合低频子带系数,对各方向子带采用自适应PCNN模型来选择融合高频系数,具体如下:
(1)低频子带融合准则
用图像边缘能量作为图像融合的算法,计算公式见公式(4);
其中,X=A'、B';(i,j)表示m×n大小X的低频子带中某一系数的位置;
因此,本发明的低频子带融合准则见公式(5);
其中,
(2)各方向子带融合准则
用自适应PCNN模型作为图像融合的算法,当PCNN用于处理二维图像时,计算公式见公式(6);
其中Sij为外部输入,Fij为反馈输入,Yij脉冲输出,aL和aθ分别是线性连接输入Lij和动态阈值θij的衰减时间常数,VL和Vθ分别是连接放大系数和阈值放大系数,通常为常数,本发明取aL=1,aθ=0.2,VL=1,Vθ=20,Wijkl是线性连接输入Lij的加权系数,计算公式见公式(7),其中link是PCNN的链接系数,取link=5;
其中,round函数是四舍五入功能函数;
βij为连接强度,决定了线性连接输入Lij对内部活动项Uij的贡献,传统连接强度β是常数,分别用拉普拉斯区域能量和可见度函数执行滑动邻域操作来自动设置连接强度值,拉普拉斯区域能量计算公式见公式(8),可见度计算公式见公式(9);
其中,δ为可见度函数中的权重系数,取δ=0.65;
取PCNN的迭代次数np为200次,当公式(6)运行次数为200次时,迭代停止;根据各带通方向系数的脉冲输出的点火次数见公式(10)大小来选择融合带通方向子带系数的规则,提出用自适应PCNN模型来选择各方向子带系数公式见公式(11);
步骤5:图像重构
根据上述融合后系数,经过NSCT的逆变换得到的图像就是融合图像;
根据融合准则选择的低频子带系数和各高频子带系数首先用非采样的pkva滤波器组进行多方向重构,再用非采样的正交9-7小波滤波器组进行多尺度重构,最终得到融合图像F。
本发明优点是,首先对源图像进行NSCT得到低频子带系数和各带通方向子带系数,然后对低频子带系数采用边缘信息最大准则来选择融合低频子带系数,各带通子带系数采用基于视觉神经元模型的自适应PCNN模型来选择融合各带通子带系数,最后经NSCT的逆变换获得最终融合图像。目前的NSCT多尺度变换中还是采用拉普拉斯金字塔滤波器组,而拉普拉斯金字塔变换会产生冗余信息,所以本发明在NSCT变换中采用了非采样正交9-7小波变换滤波器组,小波滤波器组不仅分解速度快容易实现而且不会产生冗余信息,采用9-7小波滤波器组提升了分解速度和准确度,此外由于PCNN模型中的连接强度β通常被设为常数,这样就大大限制了PCNN的自动处理和使用的普遍性,本发明采用拉普拉斯区域能量和可见度来自动计算β值,这样就能充分表现PCNN的自动处理能力同时具有普遍使用性,采用自适应PCNN模型能够很好地保留原始图像信息。实验结果表明,本发明算法是非常有效并正确的,并且融合后的图像边缘和空间纹理信息清晰、颜色失真小,没有伪轮廓现象,很好的保留原有图像的特征信息。
附图说明
图1是本发明的流程图;
图2是本发明中NSCT分解的流程;
图3(a)是本发明中NSCT分解中滤波器组的组成,具体为9-7小波滤波器组的组成;
图3(b)是本发明中NSCT分解中滤波器组的组成,具体为pkva滤波器组的组成;
图4是本发明中自适应PCNN分解的流程;
图5(a)为核磁共振医学图像;
图5(b)为正电子发射断层医学图像;
图5(c)为基于DWT的图像融合效果图;
图5(d)为基于离散Curvelet的图像融合效果图;
图5(e)为基于NSCT传统PCNN的图像融合效果图;
图5(f)为本发明的图像融合效果图;
图5(g)为基于DWT的图像融合效果的局部放大图;
图5(h)为基于离散Curvelet的图像融合效果的局部放大图;
图5(i)为基于NSCT传统PCNN的图像融合效果的局部放大图;
图5(j)为本发明的图像融合效果的局部放大图。
具体实施方式
本发明包括下列步骤:
步骤1:初始图像的获取
本发明采用来自同一颅脑256×256大小的核磁共振医学图像A和256×256大小的正电子发射断层医学图像B;
步骤2:图像预处理
由于图像受到噪声等影响,需要对医学图像进行去噪预处理,本发明采用3×3模版的算术均值滤波器G对图像A和B进行滤波处理见公式(1),得到滤波后的图像A'和B';
X'=G*X (1)
其中,X=A,B;X'=A',B';
步骤3:图像NSCT分解
本发明将图像A'和B'首先用非采样的正交9-7小波滤波器组{h0,h1;g0,g1}进行多尺度分解,正交9-7小波滤波器组{h0,h1;g0,g1}满足Bezout恒等式,见公式(2),其中h0、g0为9-7小波滤波器组的低通分解滤波器和重构滤波器,h1、g1为高通分解滤波器和重构滤波器;
h0*g0+h1*g1=1 (2)
然后再用非采样的pkva滤波器组{u0,u1;v0,v1}进行多方向分解,pkva滤波器组{u0,u1;v0,v1}满足Bezout恒等式,见公式(3),其中u0、v0为pkva滤波器组的低通分解滤波器和重构滤波器,u1、v1为高通分解滤波器和重构滤波器。
u0*v0+u1*v1=1 (3)
得到A'图像分解后的低频子带系数为B'图像分解后的低频子带系数为A'图像分解后的各子带高频系数为B'图像分解后的各子带高频系数为设融合图像低F频子带系数为各子带高频系数为
其中,J表示NSCT的分解层数;表示图像X的低频子带系数,表示图像X第k(1≤k≤J)层第l个方向的高频子带系数;
步骤4:图像融合系数选择
本发明对低频子带采用边缘能量最大准则来选择融合低频子带系数,对各方向子带采用自适应PCNN模型来选择融合高频系数;具体如下:
1.低频子带融合准则
本发明用图像边缘能量作为图像融合的算法,计算公式见公式(4)。
其中,X=A'、B';(i,j)表示m×n大小X的低频子带中某一系数的位置;
因此,本发明的低频子带融合准则见公式(5);
其中,
2.各方向子带融合准则
本发明用自适应PCNN模型作为图像融合的算法,当PCNN用于处理二维图像时,计算公式见公式(6)。
其中Sij为外部输入,Fij为反馈输入,Yij脉冲输出,aL和aθ分别是线性连接输入Lij和动态阈值θij的衰减时间常数,VL和Vθ分别是连接放大系数和阈值放大系数,通常为常数,本发明取aL=1,aθ=0.2,VL=1,Vθ=20,Wijkl是线性连接输入Lij的加权系数,计算公式见公式(7),其中link是PCNN的链接系数,本发明取link=5;
其中,round函数是四舍五入功能函数;
βij为连接强度,决定了线性连接输入Lij对内部活动项Uij的贡献,传统连接强度β是常数,本发明分别用拉普拉斯区域能量和可见度函数执行滑动邻域操作来自动设置连接强度值,拉普拉斯区域能量计算公式见公式(8),可见度计算公式见公式(9);
其中,δ为可见度函数中的权重系数,本发明取δ=0.65,
本发明取PCNN的迭代次数np为200次,当公式(6)运行次数为200次时,迭代停止,根据各带通方向系数的脉冲输出的点火次数见公式(10)大小来选择融合带通方向子带系数的规则,本发明提出用自适应PCNN模型来选择各方向子带系数公式见公式(11),
步骤5:图像重构
根据上述融合后系数,经过NSCT的逆变换得到的图像就是融合图像;
根据融合准则选择的低频子带系数和各高频子带系数首先用非采样的pkva滤波器组(见图3)进行多方向重构,再用非采样的正交9-7小波滤波器组(见图3)进行多尺度重构,最终得到融合图像F。
为了验证本发明算法的性能,对多模态医学图像进行仿真并进行评价。仿真中,除了视觉效果以外,还采用平均梯度、边缘强度、信息熵(Entropy)、互信息(MI)作为客观评价指标,其中平均梯度是反映融合图像细节信息和纹理变化,值越大表明图像所包含纹理信息更丰富,边缘强度是反映融合图像边缘轮廓信息,值越大表明图像边缘信息越明显,信息熵(Entropy)是反映融合图像包含的信息量的多少,值越大表明图像信息量越丰富,互信息(MI)是反映融合图像与源图像之间相同信息量的多少,值越大表明融合图像获取的信息越丰富,效果越好。
本仿真分别采用基于DWT的图像融合算法、基于离散Curvelet的图像融合算法、基于Contourlet传统PCNN的图像融合算法和本发明的图像融合算法,融合结果见图5(a)~(j)和表1所示。
表1不同融合算法客观评价指标对比
从图5(c)、5(d)、5(e)、5(f)可以看出,本发明融合算法的融合图像整体亮度高、边缘和空间纹理清晰、颜色失真小,整体效果明显优于其他三种算法的效果,此外从图中箭头所指区域可以表明,本发明方法更多的保留了原始图像的特征信息。从图5(g)、5(h)、5(i)、5(j)可以看出,基于DWT算法、Curvelet算法和Contourlet传统PCNN的融合图像在指头所指区域边界明显模糊,存在伪轮廓现象,而本发明算法的融合图像箭头所指区域边界轮廓很分明,没有伪轮廓现象。从表1可以看出,本发明融合算法的平均梯度、边缘强度、信息熵、互信息指标明显优于其他三种算法,表明本文融合算法不仅大大提高了融合图像的空间纹理细节而且还保留了原来图像的特征信息。

Claims (1)

1.一种基于非采样的轮廓波变换自适应的医学图像融合方法,其特征在于包括下列步骤:
步骤1:初始图像的获取
采用来自同一颅脑256×256大小的核磁共振医学图像A和256×256大小的正电子发射断层医学图像B;
步骤2:图像预处理
对医学图像进行去噪预处理,采用3×3模版的算术均值滤波器G对图像A和B进行滤波处理见公式(1),得到滤波后的图像A'和B';
X'=G*X (1)
其中,X=A,B;X'=A',B';
步骤3:图像NSCT分解
在NSCT多尺度变换中摒弃了常用的会产生冗余信息的拉普拉斯金字塔滤波器组,采用了非采样正交9-7小波滤波器组,将图像A'和B'首先用非采样的正交9-7小波滤波器组{h0,h1;g0,g1}进行多尺度分解,正交9-7小波滤波器组{h0,h1;g0,g1}满足Bezout恒等式,见公式(2),其中h0、g0为9-7小波滤波器组的低通分解滤波器和重构滤波器,h1、g1为高通分解滤波器和重构滤波器;
h0*g0+h1*g1=1 (2)
然后再用非采样的pkva滤波器组{u0,u1;v0,v1}进行多方向分解,pkva滤波器组{u0,u1;v0,v1}满足Bezout恒等式,见公式(3),其中u0、v0为pkva滤波器组的低通分解滤波器和重构滤波器,u1、v1为高通分解滤波器和重构滤波器;
u0*v0+u1*v1=1 (3)
得到A'图像分解后的低频子带系数为B'图像分解后的低频子带系数为A'图像分解后的各子带高频系数为B'图像分解后的各子带高频系数为设融合图像F低频子带系数为各子带高频系数为
其中,J表示NSCT的分解层数;表示图像X的低频子带系数,X=A',B',F,表示图像X第k层第l个方向的高频子带系数,X=A',B',F,1≤k≤J;
步骤4:图像融合系数选择
对低频子带采用边缘能量最大准则来选择融合低频子带系数,对各方向子带采用自适应PCNN模型来选择融合高频系数,具体如下:
(1)低频子带融合准则
用图像边缘能量作为图像融合的算法,计算公式见公式(4);
<mrow> <msubsup> <mi>E</mi> <mi>J</mi> <mi>X</mi> </msubsup> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>&amp;lsqb;</mo> <mi>a</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>a</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>+</mo> <mi>a</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>4</mn> <mo>)</mo> </mrow> </mrow>
其中,X=A'、B';(i,j)表示m×n大小X的低频子带中某一系数的位置;
因此,低频子带融合准则见公式(5);
<mrow> <msubsup> <mi>a</mi> <mi>J</mi> <mi>F</mi> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mi>f</mi> <mi> </mi> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mi>f</mi> <mi> </mi> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>5</mn> <mo>)</mo> </mrow> </mrow>
其中,
<mrow> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>&amp;lsqb;</mo> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>;</mo> </mrow>
<mrow> <msubsup> <mi>E</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>&amp;lsqb;</mo> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>h</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>a</mi> <mi>J</mi> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>*</mo> <msub> <mi>b</mi> <mn>3</mn> </msub> <mrow> <mo>(</mo> <mi>m</mi> <mo>-</mo> <mi>i</mi> <mo>,</mo> <mi>n</mi> <mo>-</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>;</mo> </mrow>
(2)各方向子带融合准则
用自适应PCNN模型作为图像融合的算法,当PCNN用于处理二维图像时,计算公式见公式(6);
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>F</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>S</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>L</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msub> <mi>a</mi> <mi>L</mi> </msub> </mrow> </msup> <mo>*</mo> <msub> <mi>L</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>V</mi> <mi>L</mi> </msub> <mo>*</mo> <munder> <mi>&amp;Sigma;</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> </munder> <msub> <mi>W</mi> <mrow> <mi>i</mi> <mi>j</mi> <mi>k</mi> <mi>l</mi> </mrow> </msub> <msub> <mi>Y</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>U</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <msub> <mi>F</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>*</mo> <mrow> <mo>(</mo> <mn>1</mn> <mo>+</mo> <msub> <mi>&amp;beta;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>*</mo> <msub> <mi>L</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Y</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> <msub> <mi>U</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>&gt;</mo> <msub> <mi>&amp;theta;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> <mi>U</mi> <mi>i</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>&amp;le;</mo> <msub> <mi>&amp;theta;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>&amp;theta;</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <msup> <mi>e</mi> <mrow> <mo>-</mo> <msub> <mi>a</mi> <mi>&amp;theta;</mi> </msub> </mrow> </msup> <mo>*</mo> <mi>&amp;theta;</mi> <mi>i</mi> <mi>j</mi> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msub> <mi>V</mi> <mi>&amp;theta;</mi> </msub> <msub> <mi>Y</mi> <mrow> <mi>i</mi> <mi>j</mi> </mrow> </msub> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>6</mn> <mo>)</mo> </mrow> </mrow>
其中Sij为外部输入,Fij为反馈输入,Yij脉冲输出,aL和aθ分别是线性连接输入Lij和动态阈值θij的衰减时间常数,VL和Vθ分别是连接放大系数和阈值放大系数,VL和Vθ通常为常数,取aL=1,aθ=0.2,VL=1,Vθ=20,Wijkl是线性连接输入Lij的加权系数,计算公式见公式(7),其中link是PCNN的链接系数,取link=5;
其中,round函数是四舍五入功能函数;
βij为连接强度,决定了线性连接输入Lij对内部活动项Uij的贡献,传统连接强度β是常数,分别用拉普拉斯区域能量和可见度函数执行滑动邻域操作来自动设置连接强度值,拉普拉斯区域能量计算公式见公式(8),可见度计算公式见公式(9);
<mrow> <msub> <mi>&amp;beta;</mi> <mi>L</mi> </msub> <mo>=</mo> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>2</mn> </mrow> <mrow> <mi>m</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>2</mn> </mrow> <mrow> <mi>n</mi> <mo>-</mo> <mn>1</mn> </mrow> </munderover> <mtable> <mtr> <mtd> <mrow> <mo>&amp;lsqb;</mo> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <mn>4</mn> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>-</mo> <mn>1</mn> <mo>,</mo> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <mn>4</mn> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>20</mn> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mn>4</mn> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>j</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <mn>4</mn> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>j</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>&amp;rsqb;</mo> <mo>^</mo> <mn>2</mn> </mrow> </mtd> </mtr> </mtable> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>8</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msub> <mi>&amp;beta;</mi> <mi>V</mi> </msub> <mo>=</mo> <mfrac> <mn>1</mn> <mrow> <mi>m</mi> <mo>*</mo> <mi>n</mi> </mrow> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mo>&amp;lsqb;</mo> <msup> <mrow> <mo>(</mo> <mfrac> <mrow> <mi>m</mi> <mo>*</mo> <mi>n</mi> </mrow> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>)</mo> </mrow> <mi>&amp;delta;</mi> </msup> <mo>*</mo> <mo>|</mo> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>-</mo> <mfrac> <mn>1</mn> <mrow> <mi>m</mi> <mo>*</mo> <mi>n</mi> </mrow> </mfrac> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>|</mo> <mo>*</mo> <mfrac> <mrow> <mi>m</mi> <mo>*</mo> <mi>n</mi> </mrow> <mrow> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>i</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>m</mi> </munderover> <munderover> <mi>&amp;Sigma;</mi> <mrow> <mi>j</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>n</mi> </munderover> <mi>d</mi> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>&amp;rsqb;</mo> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>9</mn> <mo>)</mo> </mrow> </mrow>
其中,δ为可见度函数中的权重系数,取δ=0.65;
取PCNN的迭代次数np为200次,当公式(6)运行次数为200次时,迭代停止;根据各带通方向系数的脉冲输出的点火次数X=A',B',见公式(10)大小来选择融合带通方向子带系数的规则,提出用自适应PCNN模型来选择各方向子带系数公式见公式(11);
<mrow> <msubsup> <mi>T</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <mi>X</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>=</mo> <msubsup> <mi>T</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <mi>X</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>-</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>+</mo> <msubsup> <mi>Y</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <mi>X</mi> </msubsup> <mrow> <mo>(</mo> <mi>n</mi> <mi>p</mi> <mo>)</mo> </mrow> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>10</mn> <mo>)</mo> </mrow> </mrow>
<mrow> <msubsup> <mi>d</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <mi>F</mi> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msubsup> <mi>d</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mi>f</mi> <mi> </mi> <msubsup> <mi>T</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&amp;GreaterEqual;</mo> <msubsup> <mi>T</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msubsup> <mi>d</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>,</mo> <mi>i</mi> <mi>f</mi> <mi> </mi> <msubsup> <mi>T</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <msup> <mi>A</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> <mo>&lt;</mo> <msubsup> <mi>T</mi> <mrow> <mi>k</mi> <mi>l</mi> </mrow> <msup> <mi>B</mi> <mo>&amp;prime;</mo> </msup> </msubsup> <mrow> <mo>(</mo> <mi>i</mi> <mo>,</mo> <mi>j</mi> <mo>)</mo> </mrow> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>-</mo> <mo>-</mo> <mo>-</mo> <mrow> <mo>(</mo> <mn>11</mn> <mo>)</mo> </mrow> </mrow>
步骤5:图像重构
根据上述融合后系数,经过NSCT的逆变换得到的图像就是融合图像;
根据融合准则选择的低频子带系数和各高频子带系数首先用非采样的pkva滤波器组进行多方向重构,再用非采样的正交9-7小波滤波器组进行多尺度重构,最终得到融合图像F。
CN201410577546.3A 2014-10-22 2014-10-22 基于非采样的轮廓波变换自适应的医学图像融合方法 Expired - Fee Related CN104282007B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410577546.3A CN104282007B (zh) 2014-10-22 2014-10-22 基于非采样的轮廓波变换自适应的医学图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410577546.3A CN104282007B (zh) 2014-10-22 2014-10-22 基于非采样的轮廓波变换自适应的医学图像融合方法

Publications (2)

Publication Number Publication Date
CN104282007A CN104282007A (zh) 2015-01-14
CN104282007B true CN104282007B (zh) 2017-12-19

Family

ID=52256858

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410577546.3A Expired - Fee Related CN104282007B (zh) 2014-10-22 2014-10-22 基于非采样的轮廓波变换自适应的医学图像融合方法

Country Status (1)

Country Link
CN (1) CN104282007B (zh)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105225213B (zh) * 2015-09-29 2018-03-09 云南大学 一种基于s‑pcnn与拉普拉斯金字塔的彩色图像融合方法
CN105427269A (zh) * 2015-12-09 2016-03-23 西安理工大学 一种基于wemd和pcnn的医学图像融合方法
CN106097303B (zh) * 2016-05-30 2018-11-27 天水师范学院 一种适合处理显微图像pcnn模型的构建方法
CN106251288B (zh) * 2016-07-21 2019-04-09 北京理工大学 基于多分辨力分析的双线阵成像器件亚像元图像合成方法
CN106600572A (zh) * 2016-12-12 2017-04-26 长春理工大学 一种自适应的低照度可见光图像和红外图像融合方法
CN106897999A (zh) * 2017-02-27 2017-06-27 江南大学 基于尺度不变特征变换的苹果图像融合方法
CN107230196B (zh) * 2017-04-17 2020-08-28 江南大学 基于非下采样轮廓波和目标可信度的红外与可见光图像融合方法
CN108399645B (zh) * 2018-02-13 2022-01-25 中国传媒大学 基于轮廓波变换的图像编码方法和装置
CN108907455A (zh) * 2018-08-04 2018-11-30 苏州佩恩机器人有限公司 一种基于激光-可见光融合视觉技术的焊缝跟踪系统与方法
CN109919892A (zh) * 2019-03-18 2019-06-21 西安电子科技大学 滤波器预置深度学习神经网络的图像融合方法
CN110101362B (zh) * 2019-04-29 2021-12-17 中国科学院宁波工业技术研究院慈溪生物医学工程研究所 一种关于oct和octa的图像噪声去除的方法
CN110428392A (zh) * 2019-09-10 2019-11-08 哈尔滨理工大学 一种基于字典学习和低秩表示的医学图像融合方法
CN112415454B (zh) * 2020-11-09 2021-08-03 无锡鸣石峻致医疗科技有限公司 一种adc-t2二维图谱的测量方法、装置、计算机设备及非均匀场磁共振系统
CN114279411B (zh) * 2021-12-27 2023-06-20 浙江中冶勘测设计有限公司 一种基于云计算的坡面侵蚀沟测量系统
CN115222725B (zh) * 2022-08-05 2023-04-18 兰州交通大学 一种基于nsct域pcrgf与双通道pcnn医学图像融合方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722877A (zh) * 2012-06-07 2012-10-10 内蒙古科技大学 基于双通道pcnn的多聚焦图像融合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102722877A (zh) * 2012-06-07 2012-10-10 内蒙古科技大学 基于双通道pcnn的多聚焦图像融合方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
Image Fusion Algorithm Based on Spatial Frequency-Motivated Pulse Coupled Neural Networks in Nonsubsampled Contourlet Transform Domain;QU Xiao-Bo等;《ACTA AUTOMATICA SINICA》;20081231;第34卷(第12期);全文 *
基于NSCT与区域点火PCNN的医学图像融合方法;杨艳春等;《系统仿真学报》;20140228;第26卷(第2期);第2页第3段至第4页 *
基于NSCT和PCNN的红外与可见光图像融合方法;李美丽等;《光电工程》;20100630;第37卷(第6期);第3-4页 *
基于平移不变剪切波变化的医学图像融合;王雷等;《华南理工大学学报(自然科学版)》;20111231;第39卷(第12期);第6页第1段第9-10行 *

Also Published As

Publication number Publication date
CN104282007A (zh) 2015-01-14

Similar Documents

Publication Publication Date Title
CN104282007B (zh) 基于非采样的轮廓波变换自适应的医学图像融合方法
CN109934887B (zh) 一种基于改进的脉冲耦合神经网络的医学图像融合方法
CN112163994B (zh) 一种基于卷积神经网络的多尺度医学图像融合方法
CN103985105B (zh) 基于统计建模的Contourlet域多模态医学图像融合方法
CN104408700A (zh) 基于形态学和pca的轮廓波红外与可见光图像融合方法
Gupta Nonsubsampled shearlet domain fusion techniques for CT–MR neurological images using improved biological inspired neural model
CN103700089B (zh) 一种三维医学图像多尺度异构特征的提取与分类方法
CN104063886A (zh) 一种基于稀疏表示和非局部相似的核磁共振图像重建方法
CN104008537A (zh) 结合cs-ct-chmm的噪声图像融合新方法
CN105139371A (zh) 一种基于pcnn与lp变换的多聚焦图像融合方法
CN104077762A (zh) 一种基于nsst与聚焦区域检测的多聚焦图像融合方法
CN104008536A (zh) 基于cs-chmt和idpcnn的多聚焦噪声图像融合方法
CN116342444B (zh) 一种双通道多模态图像融合方法及电子设备
CN103400360A (zh) 基于Wedgelet和NSCT的多源图像融合方法
CN103985109A (zh) 一种基于3d剪切波变换的特征级医学图像融合方法
Thakur et al. Gradient and multi scale feature inspired deep blind gaussian denoiser
Zhang et al. A novel method of medical image enhancement based on wavelet decomposition
CN106204487A (zh) 一种基于稀疏约束的超声图像去噪方法
Zhang et al. Research on image fusion algorithm based on NSST frequency division and improved LSCN
Zhao et al. A multi-module medical image fusion method based on non-subsampled shear wave transformation and convolutional neural network
Zhang et al. Research on multi-mode medical image fusion algorithm based on wavelet transform and the edge characteristics of images
Guo Real-time medical image denoising and information hiding model based on deep wavelet multiscale autonomous unmanned analysis
Jana et al. NSCT-DCT based Fourier analysis for fusion of multimodal images
Wang et al. Fusion of infrared and visible images based on fuzzy logic and guided filtering
Wang et al. Retracted: Complex image denoising framework with CNN‐wavelet under concurrency scenarios for informatics systems

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20171219

Termination date: 20181022

CF01 Termination of patent right due to non-payment of annual fee