CN105427269A - 一种基于wemd和pcnn的医学图像融合方法 - Google Patents
一种基于wemd和pcnn的医学图像融合方法 Download PDFInfo
- Publication number
- CN105427269A CN105427269A CN201510908280.0A CN201510908280A CN105427269A CN 105427269 A CN105427269 A CN 105427269A CN 201510908280 A CN201510908280 A CN 201510908280A CN 105427269 A CN105427269 A CN 105427269A
- Authority
- CN
- China
- Prior art keywords
- bimf
- component
- image
- pcnn
- fusion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
Abstract
本发明公开了一种基于WEMD和PCNN的医学图像融合方法,具体按照以下步骤实施:首先对源图像进行一层WEMD分解,不仅克服了传统小波方法小波基函数选取困难、自适应差的问题,而且有效避免了传统BEMD方法所得BIMF分量的“灰度斑”现象,加快了分解速度;然后对相应的BIMF分量和残差分量分别根据其图像特性设计了不同的融合规则,以最大限度的提供融合图像的视觉效果,BIMF分量采用基于改进的简化PCNN模型的融合规则选择图像的清晰区域,残差分量采用基于区域能量的融合规则增强图像细节;最后,融合结果通过对融合分量进行WEMD逆变换获得,本发明解决了现有技术中存在的多尺度分解算法自适应性差和所得融合图像边缘与对比度失真严重的问题。
Description
技术领域
本发明属于医学数字图像处理技术领域,具体涉及一种基于WEMD和PCNN的医学图像融合方法。
背景技术
医学图像融合技术是将两种或两种以上互为差异和互为补充的医学影像信息进行适当的处理,使图像中的有用信息在处理后综合表达并显示出来,代替医生主观的人工综合方式,使医生对病情的分析与判断更加准确,提高临床诊断效率和可靠性。
医学图像融合主要包括功能成像图像与功能成像图像、解剖成像图像与解剖成像图像、功能成像图像与解剖成像图像之间的融合。常见的融合类型有CT与MRI图像融合、MRI与MRI图像融合、PET与MRI图像融合和SPECT与MRI图像融合[1]。在众多的医学图像融合技术中,基于多尺度分析的医学图像融合方法如今已成为研究的热点,这类融合方法的关键在于图像多尺度分解工具的选取和融合规则的制定。小波变换以及后小波变换[2]作为重要的多尺度分解工具,已在医学图像融合领域得到了广泛应用[3-7]。然而无论是小波变换还是后小波变换,其在分解过程中,都依赖于预先给定的小波函数,自适应较差,且不同的小波函数所得到的结果差异较大[8]。
二维经验模态分解[9](bidimensionalempiricalmodedecomposition,BEMD)作为一种新的多尺度分解工具,一经提出便吸引了大量学者进行研究,已成为近几年的研究热点。BEMD是基于图像数据本身的,能够自适应的根据图像数据将二维图像信号分解成有限的几个内蕴模函数(bidimensionalintrinsicmodefunction,简称BIMF)和一个残差分量,以表征图像的不同频率特征。然而BEMD由于分解过程中要进行插值操作导致分解相当费时,不利于实时图像处理。而且其分解所得的BIMF分量有“灰度斑”现象,即出现了频率混叠。梁灵飞等人提出的窗口经验模态分解(windowempiricalmode,WEMD)[10]作为一种新的分解工具,则不存在上述问题。
近几年来,学者围绕BEMD在医学图像融合中的应用进行了大量研究[11-15],而这种研究主要集中在融合规则上。文献[11]将特征提取和区域分割分别利用到分解所得的BIMF分量和残差分量上,提出了一种新的区域融合规则;文献[12]对分解所得的BIMF分量采用基于区域能量的融合规则,残差分量则直接相加以获得融合后的残差分量;文献[13]先将分解得到的BIMF分量和残差分量分别输入到脉冲耦合神经网络(pulsecoupledneuralnetwork,PCNN)中以提取图像的纹理和背景特征,再将对应于图像纹理信息和背景信息的系数分别通过PCNN和双通道PCNN(dual-channelpulsecoupledneuralnetwork,DCPCNN)进行融合;文献[14]首先根据幅值能量比将BIMF分为高低频分量,然后将低频分量输入到双通道PCNN中以选取低频融合系数,最后将高频分量、低频分量和残差分量叠加得到融合后的图像;文献[15]提出了m-BIMF的概念,并用m-PCNN[16]获取融合后的m-BIMF分量,而残差分量则采用了一种基于熵的加权融合方案。
综上分析,围绕BEMD的医学融合技术的融合规则主要是基于区域的融合规则和基于脉冲耦合神经网络的融合规则。基于区域的融合规则利用图像的局部区域特征来确定融合系数,能够突出图像的细节信息;基于脉冲耦合神经网络的融合规则利用神经元的脉冲点火特性来选择融合系数,能够保留更多的细节信息。
发明内容
本发明的目的是提供一种基于WEMD和PCNN的医学图像融合方法,解决了现有技术中存在的多尺度分解算法自适应性差和所得融合图像边缘与对比度失真严重的问题。
本发明所采用的技术方案是,一种基于WEMD和PCNN的医学图像融合方法,具体按照以下步骤实施:
步骤1、设有两幅医学图像,分别记为图像A和图像B,将图像A和图像B分别进行配准;
步骤2、对图像A进行一层WEMD分解得到BIMF分量BIMFA和残差分量RA,对图像B进行一层WEMD分解得到BIMF分量BIMFB和残差分量RB;
步骤3、对步骤2得到的BIMF分量BIMFA和BIMF分量BIMFB进行融合,得到融合后的BIMF分量BIMFF;
步骤4、对步骤2得到的残差分量RA和残差分量RB进行融合,得到融合后的残差分量RF;
步骤5、对步骤3得到的融合后的BIMF分量BIMFF和步骤4得到的残差分量RF进行WEMD逆变换,得到融合图像F。
本发明的特点还在于,
步骤3对BIMF分量BIMFA和BIMF分量BIMFB进行融合,按照BIMF分量融合规则,具体过程为:
步骤(3.1)、将BIMF分量BIMFA和BIMF分量BIMFB均归一化到[0,1]之间,作为相应PCNN的馈送输入和
步骤(3.2)、分别计算BIMF分量BIMFA和BIMF分量BIMFB的每个像素的清晰度和作为相应神经元的链接强度;
步骤(3.3)、设定BIMF分量BIMFA和BIMF分量BIMFB的PCNN初始值:Lij(0)=Uij(0)=θij(0)=Yij(0)=0;
步骤(3.4)、按照PCNN模型进行迭代计算,最终得到BIMF分量BIMFA和BIMF分量BIMFB的PCNN输出点火时间映射图矩阵YA和YB,设计算迭代次数为Nmax,当n<Nmax时反复迭代,直到n=Nmax时结束;
步骤(3.5)、设PCNN中每个神经元与周围3×3邻域神经元链接,根据如下判决算子确定YA和YB融合后的BIMF分量BIMFF为:
其中,BIMFF(i,j),BIMFA(i,j)和BIMFB(i,j)分别代表BIMF分量BIMFF和图像A、B在像素点(i,j)位置处的BIMF系数值;ε为阈值;和分别表示像素点(i,j)处点火时间YA(i,j)和YB(i,j)的邻域均值;YA和YB分别为PCNN输出的点火时间映射图矩阵。
步骤(3.4)中的PCNN模型为:
其中阶梯函数Yij(n)的具体表达式为:
式中,n为迭代次数;ij表示像素在图像矩阵中的位置;Fij和Lij分别为馈送输入和链接输入,两者构成神经网络的接收域;Iij为外部输入刺激,这里为像素点(i,j)处的灰度值;Uij为内部活跃信号,属于神经网络的调制域部分;脉冲产生器部分由神经元的外部输出Yij和变阈值函数输出θij构成;βij为链接强度;Wijkl为突触连接权;αL,VL分别为链接输入的时间常数和放大系数;Δt为阈值衰减常数,当Yij取值为θij时表示点火成功,输出一个脉冲,取值为0时表示不输出脉冲,神经元的输出阈值被用来近似表示神经元的点火时间,模型输出为阈值强度的点火映射图。
PCNN的参数设置如下:VL=1.0,αL=0.2,Δt=0.0393,Nmax=200,ε=Δt/2,
步骤(3.2)中链接强度用像素点(i,j)处的清晰度表示具体为:
G(i,j)为像素点(i,j)处的梯度:
f代表原图像,M×N代表邻域窗口的大小,M=N=3。
步骤4对残差分量RA和残差分量RB进行融合,按照残差分量融合规则,具体过程为:
步骤(4.1)、分别按照以下两式计算RA(i,j)和RB(i,j)中心像素(i,j)处的局部区域能量:
其中,M×N代表邻域窗口的大小,M=N=3;w(m,n)表示加权模板,取值为
步骤(4.2)、计算RA(i,j)与RB(i,j)的区域匹配度MAB(i,j):
其中,EAB(i,j)表示RA(i,j)与RB(i,j)的相关区域能量,EAB(i,j)的计算如下:
步骤(4.3)、确定融合后的残差分量RF(i,j)。
步骤(4.3)确定融合后的残差分量RF(i,j)具体为:
设匹配度阈值为T,T=[0.5~1],如果MAB(i,j)<T,则选用局部区域能量最大的系数作为融合系数,即
否则,执行以下加权规则:
得到融合后的残差分量RF(i,j)。
本发明的有益效果是,一种基于WEMD和PCNN的医学图像融合方法,首先对图像进行WEMD分解,不仅克服了传统小波方法小波基函数选取困难、自适应差的问题,而且有效避免了传统BEMD方法所得BIMF分量的“灰度斑”现象,加快了分解速度;然后对BIMF分量和残差分量分别根据其图像特性设计了不同的融合规则,以最大限度的提供融合图像的视觉效果,BIMF分量采用基于改进的简化PCNN模型的融合规则选择图像的清晰区域,残差分量采用基于区域能量的融合规则增强图像细节;最后,融合结果通过对融合分量进行WEMD逆变换获得。因此,将WEMD和PCNN相结合,可以有效提高融合后的医学图像质量,为后续的临床诊断提供参考。
附图说明
图1是本发明一种基于WEMD和PCNN的医学图像融合方法的流程图;
图2是本发明一种基于WEMD和PCNN的医学图像融合方法的图像融合示意图;
图3是本发明一种基于WEMD和PCNN的医学图像融合方法中待融合图像,其中,(a)为CT图像,(b)为MRI图像;
图4是基于文献16提到的m-PCNN方法的融合图像;
图5是基于文献4提到的小波和PCNN的融合图像;
图6是基于文献18提到的NSCT和PCNN的融合图像;
图7是本发明一种基于WEMD和PCNN的医学图像融合方法得到的CT图像和MRI图像的融合图像;
图8是本发明一种基于WEMD和PCNN的医学图像融合方法中待融合图像,其中,(a)为MRI-T1加权图像,(b)为MRI-T2加权图像;
图9是基于文献16提到的m-PCNN方法的融合图像;
图10是基于文献4提到的小波和PCNN的融合图像;
图11是基于文献18提到的NSCT和PCNN的融合图像;
图12是本发明一种基于WEMD和PCNN的医学图像融合方法得到的MRI-T1加权图像和MRI-T2加权图像的融合图像。
具体实施方式
下面结合具体实施方式对本发明进行详细说明。
用于实施的硬件环境是:IntelCorei5处理器,3.20Hz计算机,4GB内存,512M显卡,运行的软件环境是:matlab2014a和Windows764位操作系统。我们用Matlab软件实现了本发明所提出的方法。实验所采用的CT图像和MRI图像来自http://www.metapix.de/indexp.htm,所采用的MRI-T1加权图像和MRI-T2加权图像来自http://www.nlm.nih.gov/research/visible/getting_data.html,且都已经过严格配准。
本发明一种基于WEMD和PCNN的医学图像融合方法,如图1和图2所示,具体按照以下步骤实施:
步骤1、设有两幅医学图像,分别记为图像A和图像B,将图像A和图像B分别进行配准;
步骤2、对图像A进行一层WEMD分解得到BIMF分量BIMFA和残差分量RA,对图像B进行一层WEMD分解得到BIMF分量BIMFB和残差分量RB;
步骤3、对所述步骤2得到的BIMF分量BIMFA和BIMF分量BIMFB进行融合,得到融合后的BIMF分量BIMFF:
对BIMF分量BIMFA和BIMF分量BIMFB进行融合,按照BIMF分量融合规则,具体过程为:
步骤(3.1)、将BIMF分量BIMFA和BIMF分量BIMFB均归一化到[0,1]之间,作为相应PCNN的馈送输入和
步骤(3.2)、分别计算BIMF分量BIMFA和BIMF分量BIMFB的每个像素的清晰度和作为相应神经元的链接强度;
步骤(3.3)、设定BIMF分量BIMFA和BIMF分量BIMFB的PCNN初始值:Lij(0)=Uij(0)=θij(0)=Yij(0)=0;
步骤(3.4)、按照PCNN模型进行迭代计算,最终得到BIMF分量BIMFA和BIMF分量BIMFB的PCNN输出点火时间映射图矩阵YA和YB,设计算迭代次数为Nmax,当n<Nmax时反复迭代,直到n=Nmax时结束;
步骤(3.5)、设PCNN中每个神经元与周围3×3邻域神经元链接,根据如下判决算子确定YA和YB融合后的BIMF分量BIMFF为:
其中,BIMFF(i,j),BIMFA(i,j)和BIMFB(i,j)分别代表BIMF分量BIMFF和图像A、B在像素点(i,j)位置处的BIMF系数值;ε为阈值;和分别表示像素点(i,j)处点火时间YA(i,j)和YB(i,j)的邻域均值;YA和YB分别为PCNN输出的点火时间映射图矩阵。
步骤(3.4)中的PCNN模型为:
其中阶梯函数Yij(n)的具体表达式为:
式中,n为迭代次数;ij表示像素在图像矩阵中的位置;Fij和Lij分别为馈送输入和链接输入,两者构成神经网络的接收域;Iij为外部输入刺激,这里为像素点(i,j)处的灰度值;Uij为内部活跃信号,属于神经网络的调制域部分;脉冲产生器部分由神经元的外部输出Yij和变阈值函数输出θij构成;βij为链接强度;Wijkl为突触连接权;αL,VL分别为链接输入的时间常数和放大系数;Δt为阈值衰减常数,当Yij取值为θij时表示点火成功,输出一个脉冲,取值为0时表示不输出脉冲,神经元的输出阈值被用来近似表示神经元的点火时间,模型输出为阈值强度的点火映射图。
PCNN的参数设置如下:VL=1.0,αL=0.2,Δt=0.0393,Nmax=200,ε=Δt/2,
步骤(3.2)中链接强度用像素点(i,j)处的清晰度表示具体为:
G(i,j)为像素点(i,j)处的梯度:
f代表原图像,M×N代表邻域窗口的大小,M=N=3;
步骤4、对所述步骤2得到的残差分量RA和残差分量RB进行融合,得到融合后的残差分量RF:
对残差分量RA和残差分量RB进行融合,按照残差分量融合规则,具体过程为:
步骤(4.1)、分别按照以下两式计算RA(i,j)和RB(i,j)中心像素(i,j)处的局部区域能量:
其中,M×N代表邻域窗口的大小,M=N=3;w(m,n)表示加权模板,取值为
步骤(4.2)、计算RA(i,j)与RB(i,j)的区域匹配度MAB(i,j):
其中,EAB(i,j)表示RA(i,j)与RB(i,j)的相关区域能量,EAB(i,j)的计算如下:
步骤(4.3)、确定融合后的残差分量RF(i,j):
设匹配度阈值为T,T=[0.5~1],如果MAB(i,j)<T,则选用局部区域能量最大的系数作为融合系数,即
否则,执行以下加权规则:
得到融合后的残差分量RF(i,j)。
步骤5、对步骤3得到的融合后的BIMF分量BIMFF和步骤4得到的残差分量RF进行WEMD逆变换,得到融合图像F。
本发明方法所得的融合结果与其它融合方法所得的融合结果客观效果对比,如表1所示,图像的空间频率(SF)越大,总体活跃度越大,图像融合效果越好;图像的平均梯度(AG)越大,图像的层次越多,融合图像越清晰;图像的标准差(SD)越大,则图像的灰度级分布越分散,图像的反差越大,图像中包含的信息越多;图像的交互信息量(MI)越大,则表示融合图像从源图像中获取的信息越多,融合的效果就越好;图像的边缘保持度(QAB/F)越大,则融合图像保留的源图像边缘信息越多,融合性能越好。
表1融合结果客观评价
从图4、图5、图6、图7的视觉结果可以看出,本发明方法融合结果图像清晰度与对比度最高,边缘失真度最少,视觉效果最优,基本与源图像保持一致。表1结果显示,本发明方法在五个指标中有四个指标均最大:空间频率最大、清晰度最大、交互信息量最大、边缘保持度最大,与图像的视觉效果相一致。
图8为待融合的MRI-T1加权图像、MRI-T2加权图像,图9、图10、图11为文献其他方法得到的融合处理后的图像,图12为本发明方法得到的本发明方法所得的融合处理后的图像,本发明方法融合结果与其它融合方法所得的融合结果客观效果对比,如表2所示:
表2融合结果客观评价
图9、图10、图11、图12的视觉结果可以看出,本发明方法融合结果图像清晰度与对比度最高,边缘失真度最少,视觉效果最优,基本与源图像保持一致。表1结果显示,本发明方法在五个指标中有四个指标均最大:空间频率最大、标准差最大、交互信息量最大、边缘保持度最大,而在清晰度指标上只略逊于基于NSCT的融合方法,是一种十分有效的方法。
本发明方法首次将WEMD应用到多源医学图像融合中,并充分利用基于区域的融合规则和基于脉冲耦合神经网络的融合规则的优越特性,实现了CT与MRI图像和MRI与MRI图像的融合。该方法不仅具有一定的自适应性,能够满足实时医学图像处理的需求,而且所得的融合结果图像基本与源图像保持一致,有效克服了基于小波以及非子采样Contourlet变换的图像融合方法所得融合图像存在边缘失真和基于m-PCNN的图像融合方法所得融合图像存在对比度失真的现象。
参考文献
[1]JamesA.P.,DasarathyB.V..Medicalimagefusion:Asurveyofthestateoftheart[J],InformationFusion,2014,19:4-19.
[2]焦李成,侯彪,王爽等.图像多尺度几何分析理论与应用—后小波分析理论与应用[M].西安:西安电子科技大学出版社,2008:1-24.
[3]LiWei,ZhuXuefeng.Anewalgorithmofmulti-modalitymedicalimagefusionbasedonpulse-coupledneuralnetworks[J].AdvancesinNaturalComputation,LectureNotesinComputerScienceVolume3610,2005,995-1001.
[4]杨艳春,党建武,王阳萍.基于提升小波变换与自适应PCNN的医学图像融合方法[J].计算机辅助设计与图形学学报,2012,24(4):494-499.
[5]L.Yang,B.L.Guo,W.Ni,Multimodalitymedicalimagefusionbasedonmultiscalegeometricanalysisofcontourlettransform,Neurocomputing,2008,72:203–211.
[6]SudebDas,MalayKumarKundu.NSCTbasedmultimodalmedicalimagefusionusingpulse-coupledneuralnetworkandmodifiedspatialfrequency[J].Medical&BiologicalEngineering&Computing(MBEC),2012,50(10):1105-1114.
[7]WangNianyi.MultimodalmedicalimagefusionframeworkbasedonsimplifiedPCNNinnonsubsampledcontourlettransformdomain[J].JournalofMultimedia,2013,8(3):270-276.
[8]PajaresG,delaCruzJM.Awavelet-basedimagefusiontutorial[J].PatternRecognition,2004,37(9):1855-1872.
[9]NunesJC,BouaouneY,DelechelleE,etal.Imageanalysisbybidimensionalempiricalmodedecomposition[J].ImageandVisionComputing,2003,21(12):1019-1026.
[10]梁灵飞.窗口经验模式分解及其在图像处理中的应用[D].北京:北京邮电大学,2010.
[11]郑有志,覃征.基于二维经验模态分解的医学图像融合算法[J].软件学报,2009,20(5):1096–1105.
[12]陈珊,郑琴,秦绪佳.基于二维经验模式分解的医学图像融合方法[J].计算机系统应用,2014,23(6):105–110.
[13]张宝华,刘鹤,张传亭.基于经验模态分解提取纹理的图像融合算法[J].激光技术,2014,38(4):463–468.
[14]ZhangBaohua,ZhangChuanting,WuJianshuai,etal.AmedicalimagefusionmethodbasedonenergyclassificationofBEMDcomponents[J].Optik-InternationalJournalforLightandElectronOptics,2014,125(1):146-153.
[15]FengKongsen,ZhangXiaoli,LiXiongfei.Anovelmethodofmedicalimagefusionbasedonbidimensionalempiricalmodedecomposition[J].JournalofConvergenceInformationTechnology,2011,6(12):84-91.
[16]WangZhaobin,MaYide.Medicalimagefusionusingm-PCNN[J].InformationFusion,2008,9:176-185.
[17]苗启广,王宝树.一种自适应PCNN多聚焦图像融合新方法[J].电子与信息学报,2006,28(3):466-470.
[18]QuXiaobo,YanJingwen,XiaoHongzhi,etal.Imagealgorithmbasedonspatialfrequency-motivatedpulsecoupledneuralnetworksnonsubsampledcontourlettransformdomain[J].ActaAutomaticaSinica,2008,34(12):1508-1514。
Claims (7)
1.一种基于WEMD和PCNN的医学图像融合方法,其特征在于,具体按照以下步骤实施:
步骤1、设有两幅医学图像,分别记为图像A和图像B,将图像A和图像B分别进行配准;
步骤2、对图像A进行一层WEMD分解得到BIMF分量BIMFA和残差分量RA,对图像B进行一层WEMD分解得到BIMF分量BIMFB和残差分量RB;
步骤3、对所述步骤2得到的BIMF分量BIMFA和BIMF分量BIMFB进行融合,得到融合后的BIMF分量BIMFF;
步骤4、对所述步骤2得到的残差分量RA和残差分量RB进行融合,得到融合后的残差分量RF;
步骤5、对所述步骤3得到的融合后的BIMF分量BIMFF和所述步骤4得到的残差分量RF进行WEMD逆变换,得到融合图像F。
2.根据权利要求1所述的一种基于WEMD和PCNN的医学图像融合方法,其特征在于,所述步骤3对BIMF分量BIMFA和BIMF分量BIMFB进行融合,按照BIMF分量融合规则,具体过程为:
步骤(3.1)、将BIMF分量BIMFA和BIMF分量BIMFB均归一化到[0,1]之间,作为相应PCNN的馈送输入和
步骤(3.2)、分别计算BIMF分量BIMFA和BIMF分量BIMFB的每个像素的清晰度和作为相应神经元的链接强度;
步骤(3.3)、设定BIMF分量BIMFA和BIMF分量BIMFB的PCNN初始值:Lij(0)=Uij(0)=θij(0)=Yij(0)=0;
步骤(3.4)、按照PCNN模型进行迭代计算,最终得到BIMF分量BIMFA和BIMF分量BIMFB的PCNN输出点火时间映射图矩阵YA和YB,设计算迭代次数为Nmax,当n<Nmax时反复迭代,直到n=Nmax时结束;
步骤(3.5)、设PCNN中每个神经元与周围3×3邻域神经元链接,根据如下判决算子确定YA和YB融合后的BIMF分量BIMFF为:
其中,BIMFF(i,j),BIMFA(i,j)和BIMFB(i,j)分别代表BIMF分量BIMFF和图像A、B在像素点(i,j)位置处的BIMF系数值;ε为阈值;和分别表示像素点(i,j)处点火时间YA(i,j)和YB(i,j)的邻域均值;YA和YB分别为PCNN输出的点火时间映射图矩阵。
3.根据权利要求2所述的一种基于WEMD和PCNN的医学图像融合方法,其特征在于,所述步骤(3.4)中的PCNN模型为:
其中阶梯函数Yij(n)的具体表达式为:
式中,n为迭代次数;ij表示像素在图像矩阵中的位置;Fij和Lij分别为馈送输入和链接输入,两者构成神经网络的接收域;Iij为外部输入刺激,这里为像素点(i,j)处的灰度值;Uij为内部活跃信号,属于神经网络的调制域部分;脉冲产生器部分由神经元的外部输出Yij和变阈值函数输出θij构成;βij为链接强度;Wijkl为突触连接权;αL,VL分别为链接输入的时间常数和放大系数;Δt为阈值衰减常数,当Yij取值为θij时表示点火成功,输出一个脉冲,取值为0时表示不输出脉冲,神经元的输出阈值被用来近似表示神经元的点火时间,模型输出为阈值强度的点火映射图。
4.根据权利要求3所述的一种基于WEMD和PCNN的医学图像融合方法,其特征在于,所述PCNN的参数设置如下:VL=1.0,αL=0.2,Δt=0.0393,Nmax=200,ε=Δt/2,
5.根据权利要求2所述的一种基于WEMD和PCNN的医学图像融合方法,其特征在于,所述步骤(3.2)中链接强度用像素点(i,j)处的清晰度表示具体为:
G(i,j)为像素点(i,j)处的梯度:
f代表原图像,M×N代表邻域窗口的大小,M=N=3。
6.根据权利要求1所述的一种基于WEMD和PCNN的医学图像融合方法,其特征在于,所述步骤4对残差分量RA和残差分量RB进行融合,按照残差分量融合规则,具体过程为:
步骤(4.1)、分别按照以下两式计算RA(i,j)和RB(i,j)中心像素(i,j)处的局部区域能量:
其中,M×N代表邻域窗口的大小,M=N=3;w(m,n)表示加权模板,取值为
步骤(4.2)、计算RA(i,j)与RB(i,j)的区域匹配度MAB(i,j):
其中,EAB(i,j)表示RA(i,j)与RB(i,j)的相关区域能量,EAB(i,j)的计算如下:
步骤(4.3)、确定融合后的残差分量RF(i,j)。
7.根据权利要求6所述的一种基于WEMD和PCNN的医学图像融合方法,其特征在于,所述步骤(4.3)确定融合后的残差分量RF(i,j)具体为:
设匹配度阈值为T,T=[0.5~1],如果MAB(i,j)<T,则选用局部区域能量最大的系数作为融合系数,即
否则,执行以下加权规则:
得到融合后的残差分量RF(i,j)。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510908280.0A CN105427269A (zh) | 2015-12-09 | 2015-12-09 | 一种基于wemd和pcnn的医学图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510908280.0A CN105427269A (zh) | 2015-12-09 | 2015-12-09 | 一种基于wemd和pcnn的医学图像融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105427269A true CN105427269A (zh) | 2016-03-23 |
Family
ID=55505450
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510908280.0A Pending CN105427269A (zh) | 2015-12-09 | 2015-12-09 | 一种基于wemd和pcnn的医学图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105427269A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189277A (zh) * | 2019-06-05 | 2019-08-30 | 电子科技大学 | 一种基于经验模态分解的高动态范围图像可视化方法 |
CN110992295A (zh) * | 2019-12-20 | 2020-04-10 | 电子科技大学 | 基于小波-red卷积神经网络的低剂量ct重建方法 |
CN111582283A (zh) * | 2020-04-27 | 2020-08-25 | 安创生态科技(深圳)有限公司 | 双视场图像融合方法及装置 |
CN112785522A (zh) * | 2021-01-21 | 2021-05-11 | 国网山西省电力公司电力科学研究院 | 一种基于gwo和bemd优化的自适应pcnn图像去噪方法 |
CN113129235A (zh) * | 2021-04-22 | 2021-07-16 | 深圳市深图医学影像设备有限公司 | 一种医学图像噪声抑制算法 |
CN114445311A (zh) * | 2022-01-19 | 2022-05-06 | 海南大学 | 基于域变换保边滤波器的多源医学图像融合方法和系统 |
CN117408902A (zh) * | 2023-10-23 | 2024-01-16 | 山东锋士信息技术有限公司 | 基于BEMD与IHS变换结合的Ka频段SAR影像彩色化方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5218440A (en) * | 1991-06-07 | 1993-06-08 | Rockwell International Corporation | Switched resistive neural network for sensor fusion |
CN103606138A (zh) * | 2013-08-28 | 2014-02-26 | 内蒙古科技大学 | 一种基于纹理区域划分的医学图像的融合方法 |
CN103617604A (zh) * | 2013-08-28 | 2014-03-05 | 内蒙古科技大学 | 基于二维经验模态分解方法特征提取的图像的融合方法 |
CN103985105A (zh) * | 2014-02-20 | 2014-08-13 | 江南大学 | 基于统计建模的Contourlet域多模态医学图像融合方法 |
CN104282007A (zh) * | 2014-10-22 | 2015-01-14 | 长春理工大学 | 基于非采样的轮廓波变换自适应的医学图像融合方法 |
-
2015
- 2015-12-09 CN CN201510908280.0A patent/CN105427269A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5218440A (en) * | 1991-06-07 | 1993-06-08 | Rockwell International Corporation | Switched resistive neural network for sensor fusion |
CN103606138A (zh) * | 2013-08-28 | 2014-02-26 | 内蒙古科技大学 | 一种基于纹理区域划分的医学图像的融合方法 |
CN103617604A (zh) * | 2013-08-28 | 2014-03-05 | 内蒙古科技大学 | 基于二维经验模态分解方法特征提取的图像的融合方法 |
CN103985105A (zh) * | 2014-02-20 | 2014-08-13 | 江南大学 | 基于统计建模的Contourlet域多模态医学图像融合方法 |
CN104282007A (zh) * | 2014-10-22 | 2015-01-14 | 长春理工大学 | 基于非采样的轮廓波变换自适应的医学图像融合方法 |
Non-Patent Citations (3)
Title |
---|
梁灵飞: "窗口经验模式分解及其在图像处理中的应用", 《中国博士学位论文全文数据库 信息科技辑》 * |
胡钢 等: "结合区域特性和非子采样SPT的图像融合方法", 《计算机辅助设计与图形学学报》 * |
苗启广 等: "一种自适应PCNN多聚焦图像融合新方法", 《电子与信息学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110189277A (zh) * | 2019-06-05 | 2019-08-30 | 电子科技大学 | 一种基于经验模态分解的高动态范围图像可视化方法 |
CN110189277B (zh) * | 2019-06-05 | 2023-03-31 | 电子科技大学 | 一种基于经验模态分解的高动态范围图像可视化方法 |
CN110992295A (zh) * | 2019-12-20 | 2020-04-10 | 电子科技大学 | 基于小波-red卷积神经网络的低剂量ct重建方法 |
CN110992295B (zh) * | 2019-12-20 | 2022-04-19 | 电子科技大学 | 基于小波-red卷积神经网络的低剂量ct重建方法 |
CN111582283A (zh) * | 2020-04-27 | 2020-08-25 | 安创生态科技(深圳)有限公司 | 双视场图像融合方法及装置 |
CN112785522A (zh) * | 2021-01-21 | 2021-05-11 | 国网山西省电力公司电力科学研究院 | 一种基于gwo和bemd优化的自适应pcnn图像去噪方法 |
CN112785522B (zh) * | 2021-01-21 | 2024-02-20 | 国网山西省电力公司电力科学研究院 | 一种基于gwo和bemd优化的自适应pcnn图像去噪方法 |
CN113129235A (zh) * | 2021-04-22 | 2021-07-16 | 深圳市深图医学影像设备有限公司 | 一种医学图像噪声抑制算法 |
CN114445311A (zh) * | 2022-01-19 | 2022-05-06 | 海南大学 | 基于域变换保边滤波器的多源医学图像融合方法和系统 |
CN117408902A (zh) * | 2023-10-23 | 2024-01-16 | 山东锋士信息技术有限公司 | 基于BEMD与IHS变换结合的Ka频段SAR影像彩色化方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105427269A (zh) | 一种基于wemd和pcnn的医学图像融合方法 | |
Li et al. | Laplacian redecomposition for multimodal medical image fusion | |
Zhang et al. | 3D reconstruction for motion blurred images using deep learning-based intelligent systems | |
Singh et al. | Nonsubsampled shearlet based CT and MR medical image fusion using biologically inspired spiking neural network | |
CN103049892B (zh) | 基于相似块矩阵秩最小化的非局部图像去噪方法 | |
Wang et al. | A weighted fidelity and regularization-based method for mixed or unknown noise removal from images on graphs | |
CN104268833B (zh) | 基于平移不变剪切波变换的图像融合方法 | |
CN103093434B (zh) | 基于奇异值分解的非局部维纳滤波图像去噪方法 | |
NL2025814B1 (en) | Precise positioning system for three-dimensional position of tumor by multi-image fusion | |
Gao et al. | Fusion of medical images based on salient features extraction by PSO optimized fuzzy logic in NSST domain | |
Li et al. | Fusion of medical sensors using adaptive cloud model in local Laplacian pyramid domain | |
Shi et al. | Hierarchical residual learning for image denoising | |
Pandey et al. | Segmentation of liver lesions with reduced complexity deep models | |
Chen et al. | A C-GAN denoising algorithm in projection domain for micro-CT | |
Li et al. | Multimodal medical image fusion by cloud model theory | |
CN104361571A (zh) | 基于边缘信息和支持度变换的红外与微光图像融合方法 | |
Zhao et al. | A multi-module medical image fusion method based on non-subsampled shear wave transformation and convolutional neural network | |
CN107067387A (zh) | 基于3d复数剪切波变换域广义统计相关模型的医学图像融合方法 | |
CN103345739B (zh) | 一种基于纹理的高分辨率遥感影像建筑区指数计算方法 | |
Fan et al. | DAGM-fusion: A dual-path CT-MRI image fusion model based multi-axial gated MLP | |
Huang et al. | A design of object detection system in fog | |
Xu et al. | Multiplicative decomposition based image contrast enhancement method using PCNN factoring model | |
Cao et al. | A License Plate Image Enhancement Method in Low Illumination Using BEMD. | |
Kayalvizhi et al. | A modified low power architecture for Gabor filter | |
Meng et al. | Multi-modal MRI image fusion of the brain based on joint bilateral filter and non-subsampled shearlet transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160323 |
|
RJ01 | Rejection of invention patent application after publication |