CN103985105A - 基于统计建模的Contourlet域多模态医学图像融合方法 - Google Patents
基于统计建模的Contourlet域多模态医学图像融合方法 Download PDFInfo
- Publication number
- CN103985105A CN103985105A CN201410058550.9A CN201410058550A CN103985105A CN 103985105 A CN103985105 A CN 103985105A CN 201410058550 A CN201410058550 A CN 201410058550A CN 103985105 A CN103985105 A CN 103985105A
- Authority
- CN
- China
- Prior art keywords
- fusion
- coefficient
- contourlet
- neuron
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Abstract
本发明公开了一种基于统计建模的Contourlet域多模态医学图像融合方法,主要解决医学图像融合时空间分辨率和光谱信息难以均衡的问题。其实现步骤是:1)待融合图像进行IHS变换,得到亮度、色调和饱和度;2)分别对亮度分量执行Contourlet变换,并采用EM算法估计高频子带的上下文隐马尔科夫模型CHMM参数;3)低频子带采用区域绝对值和取大的融合规则,高频子带基于CHMM和改进的脉冲耦合神经网络M-PCNN设计融合规则;4)融合后的高、低频系数执行Contourlet逆变换重构新的亮度分量;5)利用IHS逆变换获得融合图像。本发明能充分整合医学图像的结构和功能信息,有效保护图像细节,改善视觉效果,相比传统的融合方法极大地提高了融合图像的质量。
Description
技术领域
本发明涉及一种基于统计建模的Contourlet域多模态医学图像融合方法,是医学图像处理技术领域的一项融合方法,在临床医学诊断和治疗中有广泛地应用。
背景技术
作为图像融合领域的一个研究分支和研究重点,随着医学影像技术的快速发展,多模态医学图像融合已成为当前国内外的研究热点。不同的医学影像可以提供人体相关脏器和组织的不同信息,如具有较高分辨率的CT和MRI图像提供脏器的解剖形态结构信息,而具有较低分辨率的SPECT和PET图像则提供脏器的功能代谢和血液流动信息。为了弥补单一模态图像信息的不足,为医务工作者提供患者各个器官更为清晰、可靠、准确、全面的描述,有必要通过图像融合方法将不同模态、信息互补的医学影像进行适当的集成,以便了解病变组织或器官的综合信息,从而做出准确的诊断或制订合适的治疗方案。多模态医学图像融合方法是通过处理冗余信息、整合互补信息来提高图像的分辨率,提升视觉效果,增强可识别性,增加图像的准确性,目前已被实际应用于病理分析(Pathologic Analysis)、临床诊断和治疗(Clinical Diagnoses and Therapy)中,且有广泛的研究前景和发展空间。
多模态医学图像融合方法也可大致分为空间域和变换域两类。空间域融合方法是对两幅图像在空间坐标下直接进行运算和叠加,简单直观,但往往不能满足医学应用精确性的要求。变换域融合方法有彩色空间变换法、基于IHS(Intensity-Hue-Saturation--亮度、色度、饱和度)的融合方法、基于主成份分析PCA(Principal Component Analysis)的融合方法、基于拉普拉斯变换LAP(Laplace Transform)的融合方法、基于离散小波变换DWT(Discrete Wavelet Transform)的融合方法以及基于多尺度变换(Multi-scale Decomposition)和脉冲耦合神经网络PCNN(PulseCoupled Neural Network)相结合的融合方法等。相比于彩色空间变换、PCA等方法易导致光谱失真,基于多尺度分解和PCNN相结合的方法能有效防止图像对比度的降低,保护图像细节特征,因而更适合用于多模态医学图像融合。
2002年,Do和Vetterli在继承小波多尺度分析思想的基础上提出了一种“真正”的二维图像稀疏表示方法-Contourlet变换,其基函数分布于多尺度、多方向上,仅用少量系数即可有效地捕获图像中的边缘轮廓及方向性纹理等细节信息,具有高度的方向敏感性和各向异性(Anisotropic),很好地弥补了小波变换的不足,故本发明选用Contourlet作为多尺度变换工具。
Contourlet域分解系数在尺度间、方向间和空间邻域内存在极强的统计相关性,作为一种有效的统计建模技术,隐马尔科夫模型HMM(Hidden Markov Model)能够对图像多尺度变换所得系数的非高斯性(Non-Gaussian)、聚集性(Clustering)和持续性(Persistence)进行准确的描述。基于上下文的隐马尔可夫模型CHMM(Contextual HMM),利用上下文信息(ContextInformation)来充分、有效地捕获Contourlet域高频方向子带系数在尺度间的持续性、尺度内的多方向选择性和空间邻域内的能量聚集特性。因此,本发明采用CHMM对医学图像高频方向子带进行统计建模。
为了提高融合图像的性能,融合规则的选取同样至关重要。通常,取平均、加权取平均或绝对值取大是比较常用的低频系数融合策略,本发明中选用基于区域绝对值和取大的融合规则,更好地保持了图像的对比度。而高频系数通常采用绝对值取大或基于区域特征取大的融合策略,但这些方案均未考虑子带系数不同尺度、不同方向之间潜在的相关性。为了充分提取待融合图像中的互补信息,避免有效细节的丢失,本发明提出改进的脉冲耦合神经网络M-PCNN(Modified PCN)并设计高频融合规则,并使用改进的拉普拉斯能量和SML(Sum-Modified-Laplacian)作为M-PCNN神经元的外部激励输入,CHMM训练参数计算边缘概率密度函数Edge PDF的归一化值作为其链接强度(Linking Strength)取值,获得了较优的融合结果,提高了融合图像的质量。
发明内容
本发明的目的是针对上述现有技术的不足,提出一种基于统计建模的Contourlet域多模态医学图像融合方法,以解决已有的多模态医学图像融合方法所得融合图像空间分辨率不高或光谱信息失真的问题,并充分整合不同模态医学图像的结构信息和功能信息,有效保护图像细节,增强图像对比度和边缘轮廓,改善其视觉效果,提高融合图像的质量。
本发明解决其技术问题所采用的技术方案如下:
一种基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于包括以下步骤:
1)对待融合的两幅多模态医学图像进行IHS变换,得到相应的亮度、色调和饱和度分量;
2)对亮度分量执行Contourlet变换,分解得到不同尺度、不同方向的高、低频子带系数;
3)采用不同的融合规则分别确定融合图像的低频子带系数和高频子带系数;
3.1)对表征图像近似信息的低频子带,采用基于区域绝对值和取大的融合规则进行融合;
3.2)对表征图像细节特征的高频方向子带,采用基于CHMM和M-PCNN的融合规则进行融合;
a)构建高频方向子带系数的CHMM统计模型,利用优化的期望最大化EM算法分初始化和迭代训练两步来估计模型参数,得到每个系数的标准差和概率密度函数,并计算其边缘概率密度函数Edge PDF;
b)采用基于Edge PDF的归一化值作为链接强度,改进的拉普拉斯能量和SML作为外部激励输入的M-PCNN模型设计融合规则,确定各个高频子带融合系数;
4)对步骤3)所得高、低频子带融合系数,执行Contourlet逆变换重新获得新的亮度分量;
5)对新的亮度、色调和饱和度分量进行IHS逆变换获得最终的彩色融合图像。
作为一种优选方案,所述的基于统计建模的Contourlet域多模态医学图像融合方法,步骤2)所述对亮度分量执行Contourlet变换,分解得到不同尺度、不同方向的子带系数 (j=1,2...,J;k=1,2,...,mj;i,l=1,...,Nj),其中J表示分解尺度,k表示每尺度分解的方向子带,i,l表示位置索引,J表示最大分解尺度,mj表示j尺度分解的方向子带最大数目,Nj表示相应子带的系数总个数,A、B分别代表SPECT和MRI图像;
作为一种优选方案,步骤3.1)所述基于区域绝对值和取大的融合规则,具体如下:
a)计算低频系数在3×3邻域内的绝对值之和;
其中,表示SPECT或MRI图像在最粗糙尺度j0,位置(i,l)处的低频系数,Ω是3×3的窗口邻域;
b)确定融合图像在最粗糙尺度j0,位置(i,l)处的低频子带系数:
作为一种优选方案,步骤3.2)中的步骤a)具体如下:
首先,定义轮廓波分解系数之间三种重要关系:对于当前Contourlet系数X,定义位于同一尺度同一方向子带内相邻位置上的8个Contourlet系数为其邻居系数(NX),捕获空间相关性;定义相邻较粗糙尺度对应方向子带内相应空间位置上的Contourlet系数为其父系数(PX),表征跨尺度相关性;定义位于同一尺度不同方向子带内相应空间位置上一组Contourlet系数为其表兄弟系数(CX),体现不同方向间的相关性;
其次,根据新的设计方案计算相应的上下文变量取值,利用两状态、零均值的高斯混合模型GMM来刻画高频方向子带的非高斯分布特性,则每个Contourlet系数都与一个上下文变量和一个隐状态相关联,接着进行CHMM统计建模,由此可以计算其边缘概率密度函数:
其中,(j,k,i,l)分别表示尺度、方向和空间位置索引,Vj,k,i,l为上下文变量,Sj,k,i,l为隐状态变量, 是状态为m时的概率, 是上下文变量取值v的条件下状态为m的概率, 表示高斯条件概率密度函数,均值为零,σj,k,i,l,m表示标准差;
最后,利用优化的期望最大化EM算法分初始化和迭代训练两步来估计模型参数。
作为一种优选方案,步骤3.2)中的步骤b)具体如下:
首先,初始化改进的脉冲耦合神经网络M-PCNN模型参数。所有神经元都处于熄火状态, 设 αL=1.0,αθ=0.2,VL=1.2,Vθ=20,迭代次数Nmax=200,其中j为分解尺度,k为每尺度的方向子带,下标(i,l)为神经元位置索引;
再将边缘概率密度函数Edge PDF归一化至[0,1]区间,作为M-PCNN的链接强度取值;并按照下式计算改进的拉普拉斯能量和SML作为M-PCNN的外部激励输入;
其中,step表示系数间的可变间距,本发明中取值为1,N为区域窗口大小,取值为3。
然后,按照下列公式进行迭代运算,更新模型各个参数值,并统计每个神经元总的脉冲点火次数;
其中,下标(i,l)是神经元对应的图像像素标号,j,k是高频方向子带尺度、方向索引,p,q表示其它神经元与此神经元相连的范围,n为迭代次数;为神经元反馈输入,本实施例中采用能够较好描述图像的轮廓、方向性纹理等细节信息的SML作为M-PCNN的外部激励输入,为神经元链接输入,为神经元内部活动,为神经元输出,用于统计每个神经元总的脉冲点火次数,Wi,l;p,q是相应的突触联接权值矩阵,VL是链接输入的放大系数,和Vθ分别是变阈值函数和阈值放大系数,αL和αθ分别表示链接输入和变阈值函数的时间常数,β为链接强度,其取值决定了神经元之间耦合关系的强弱,本实施例中选用高频方向子带系数的边缘概率密度函数Edge PDF的归一化值。
最后,根据如下公式,选取总的脉冲点火次数较大(即点火最频繁)的M-PCNN神经元所对应的系数作为融合高频方向子带系数:
从而,完成图像各个高频方向子带系数的融合。
本发明相对比现有医学图像融合方法具有如下的优点:
1、本发明采用基于Contourlet域的图像融合方法,相比小波(Wavelet)变换仅能将图像分解为水平、垂直和对角三个高频子带,Contourlet变换在每一尺度都允许分解不同的方向数目,故其对方向信息的表现能力更强,能充分挖掘待融合图像的轮廓、纹理等细节特征,因而更适于处理图像的奇异性,得到信息量更丰富、清晰度更高、质量更好的融合图像。
2、本发明的医学图像融合方法采用Contourlet变换对图像进行多尺度多方向分解,相比于非采样Contourlet变换NSCT(Non-subsampled Contourlet Transform),具有结构灵活、计算复杂度低的优点,因此,更能满足医学应用实时性的需求。
3、本发明的医学图像融合方法对低频近似子带系数,采用基于区域绝对值和取大的融合规则,能有效提高图像的亮度和对比度,改善整体视觉效果;对于高频方向子带系数,利用上下文隐马尔可夫模型来充分捕获Contourlet系数在尺度间、方向间和空间邻域内的统计相关性,进而提出采用基于边缘概率密度函数Edge PDF的归一化值作为链接强度,改进的拉普拉斯能量和SML作为外部激励输入的M-PCNN模型设计融合规则;可以最大限度地保护图像中的边缘轮廓和纹理信息,避免丢失细节,从而增加图像的可信度和可理解性。
附图说明
图1是本发明基于统计建模的Contourlet域多模态医学图像融合方法的流程图。
图2是本发明Contourlet域系数父子关系、最近邻关系和表兄弟关系示意图。
图3是本发明Contourlet域上下文隐马尔科夫模型C-CHMM的结构图。
图4是本发明改进的脉冲耦合神经网络M-PCNN的结构图。
图5(a)是本发明一个实施例的待融合MRI图像。
图5(b)是本发明一个实施例的待融合SPECT图像。
图5(c)-(i)是本发明一个实施例的融合结果示意图。
图中:(c)基于IHS的融合图像;(d)基于PCA的融合图像;(e)基于DWT的融合图像;(f)基于IHS+Wavelet变换的融合图像;(g)基于IHS+Contourlet变换的融合图像;(h)基于IHS+NSCT的融合图像;(i)本发明方法的融合图像。
具体实施方式
下面对本发明的一个实施例(MRI-SPECT医学图像)结合附图作详细说明,本实施例在以本发明技术方案为前提下进行,如图1所示,详细的实施方式和具体的操作步骤如下:
步骤1,对待融合的两幅多模态医学图像进行IHS变换,得到相应的亮度、色调和饱和度分量;
步骤2,对亮度分量分别执行Contourlet变换,分解得到不同尺度、不同方向的高、低频子带系数(j=1,2...,J;k=1,2,...,mj;i,l=1,...,Nj),其中尺度分解LP选用“9-7”双正交滤波器,方向滤波器组DFB选用“pkva”,方向分解参数设为[2,2,3,3],即进行4尺度分解,由粗糙到精细尺度所对应的方向子带数目依次为4,4,8,8;j表示分解尺度,k表示每尺度分解的方向子带,i,l表示位置索引,J表示最大分解尺度,mj表示j尺度分解的方向子带最大数目,Nj表示相应子带的系数总个数,A、B分别代表SPECT和MRI图像;
步骤3,低频近似子带系数融合和高频方向子带系数融合:
1)对表征图像近似信息的低频子带,采用基于区域绝对值和取大的融合规则进行融合:
1.1)计算低频系数在3×3邻域内的绝对值之和;
其中,表示SPECT或MRI图像在最粗糙尺度j0,位置(i,l)处的低频系数,Ω是3×3的窗口邻域;
1.2)确定融合图像在最粗糙尺度j0,位置(i,l)处的低频子带系数:
2)对表征图像细节特征的高频方向子带,采用基于CHMM和M-PCNN的融合规则进行融合;
2.1)构建高频方向子带系数的上下文隐马尔可夫统计模型,利用优化的期望最大化EM算法分初始化和迭代训练两步来估计CHMM参数,得到每个系数的标准差和概率密度函数,并计算其边缘概率密度函数Edge PDF,具体如下:
首先,定义轮廓波分解系数之间三种重要关系:对于当前Contourlet系数X,定义位于同一尺度同一方向子带内相邻位置上的8个Contourlet系数为其邻居系数(NX),捕获空间相关性;定义相邻较粗糙尺度对应方向子带内相应空间位置上的Contourlet系数为其父系数(PX),表征跨尺度相关性;定义位于同一尺度不同方向子带内相应空间位置上一组Contourlet系数为其表兄弟系数(CX),体现不同方向间的相关性。将上述三种系数统称为广义邻居系数(Generalized Neighborhood Coefficients(GNC)),如图2所示;
其次,根据新的上下文设计方案,如图3所示,利用当前Contourlet系数的父节点、8个最近邻节点和两个最近表兄弟节点来计算其对应的V值,
其中, 分别表示当前子带、较粗糙尺度同方向子带和同一尺度两个相邻方向子带系数的平均能量,N为对应子带系数总个数;ω0、ω1分别表示最近邻系数中的直接邻居NA(direct neighbors)和间接邻居NB(diagonal andcounter-diagonal neighbors)所对应的权值因子,ω2、ω3分别表示父系数和两个最近表兄弟系数所对应的权值因子。ωi(i=0,1,2,3)反映了GNC对应的相关性在上下文设计方案中所占比重。通过对多组经验值比较,本实施例中权值因子最终选取ω0=1.0、ω1=0.4、ω2=1.0、ω3=0.6。
再次,利用两状态、零均值的高斯混合模型GMM来刻画高频方向子带的非高斯分布特性,则每个Contourlet系数都与一个上下文变量和一个隐状态相关联,接着进行CHMM统计建模,由此可以计算其边缘概率密度函数:
其中,(j,k,i,l)分别表示尺度、方向和空间位置索引,Vj,k,i,l为上下文变量,Sj,k,i,l为隐状态变量, 是状态为m时的概率, 是上下文变量取值v的条件下状态为m的概率, 表示高斯条件概率密度函数,均值为零,σj,k,i,l,m表示标准差;
最后,利用优化的期望最大化EM算法分初始化和迭代训练两步来估计模型参数,其中EM训练算法中由粗糙到精细各尺度对应的局部窗口大小依次设为5×5、7×7、9×9、11×11,迭代次数分别设为20次和5次。
2.2)采用基于Edge PDF的归一化值作为链接强度,改进的拉普拉斯能量和SML作为外部激励输入的M-PCNN模型设计融合规则,确定各个高频子带融合系数;
首先,初始化改进的脉冲耦合神经网络M-PCNN模型参数。所有神经元都处于熄火状态, 设 αL=1.0,αθ=0.2,VL=1.2,Vθ=20,迭代次数Nmax=200,其中j为分解尺度,k为每尺度的方向子带,下标(i,l)为神经元位置索引;再将边缘概率密度函数Edge PDF归一化至[0,1]区间,作为M-PCNN的链接强度取值;并按照下式计算改进的拉普拉斯能量和SML作为M-PCNN的外部激励输入;
其中,step表示系数间的可变间距,本发明中取值为1,N为区域窗口大小,取值为3。
然后,M-PCNN中每个神经元都包括接受域、调制耦合器和脉冲产生器三部分,如图4所示。按照其描述公式进行迭代运算,更新各参数值,并统计每个神经元总的脉冲点火次数;
其中,下标(i,l)是神经元对应的图像像素标号,j,k是高频方向子带尺度、方向索引,p,q表示其它神经元与此神经元相连的范围,n为迭代次数;为神经元反馈输入,本实施例中采用能够较好描述图像的轮廓、方向性纹理等细节信息的SML作为M-PCNN的外部激励输入,为神经元链接输入,为神经元内部活动,为神经元输出,用于统计每个神经元总的脉冲点火次数,Wi,l;p,q是相应的突触联接权值矩阵,VL是链接输入的放大系数,和Vθ分别是变阈值函数和阈值放大系数,αL和αθ分别表示链接输入和变阈值函数的时间常数,β为链接强度,其取值决定了神经元之间耦合关系的强弱,本实施例中选用高频方向子带系数的边缘概率密度函数Edge PDF的归一化值。M-PCNN模型在调制域进行耦合调制,计算内部活动输入到脉冲产生部分用于产生神经元的脉冲输出脉冲产生器中,若则对应神经元被激活,产生一个脉冲输出,称为一次点火,同时神经元的阈值通过反馈迅速提高,继续进行下一次迭代运算;当超过时,脉冲产生器关闭,神经元停止发放脉冲,阈值开始指数下降,当再次低于时,脉冲产生器再次被打开,对应神经元重新处于激活状态,如此迭代循环直至达到设定的最大迭代次数。
最后,根据如下公式,选取总的脉冲点火次数较大(即点火最频繁)的M-PCNN神经元所对应的系数作为融合高频方向子带系数:
从而,完成图像各个高频方向子带系数的融合。
步骤4,对高、低频子带融合系数执行Contourlet逆变换重新获得新的亮度分量;
步骤5,对新的亮度、色调和饱和度分量进行IHS逆变换获得最终的彩色融合图像。
仿真实验
为了验证本发明的可行性和有效性,采用MRI和SPECT两幅医学图像,大小为256×256,如图5(a)和5(b)所示,根据本发明方法进行融合实验。
综上所述,通过图5的融合结果比较可以看出:本发明方法所得融合图像最大程度地忠于原始信息,更好地保持了待融合图像中的边缘轮廓、纹理等特征,有效避免了光谱信息失真,因而图像的对比度和清晰度更高,细节更突出,主观视觉效果最好,即融合结果更理想。
表1给出了采用各种融合方法所得融合结果的客观评价指标。其中,数据加粗表明对应的多模态医学图像融合方法所得评价指标取值最优。
表1基于各种融合方法的融合性能比较
表1中通过标准差、熵、清晰度、边缘强度、Qw、Qabf和光谱扭曲度来衡量融合图像的质量,进而验证本发明融合方法的可行性和有效性。上表中融合方法一为基于IHS的融合方法,融合方法二为基于主成分分析PCA的融合方法,融合方法三为基于离散Wavelet变换DWT融合方法,融合方法四为基于IHS和Wavelet变换的融合方法,融合方法五为基于IHS和Contourlet变换的融合方法,融合方法六为基于IHS和NSCT的融合方法,融合方法三、四、五、六均采用低频子带取平均、高频子带绝对值取大的融合规则。
由表1数据可知,本发明方法所获得的融合图像在标准差、熵、清晰度、边缘强度、光谱扭曲度等客观评价指标上要优于其它融合方法。标准差反映图像灰度相对于灰度均值的离散情况,其值越大,灰度级越分散,图像反差越大,可看出更多的信息;熵值反映了图像携带信息量的多少,熵值越大,说明包含的信息量越多,融合效果越好;清晰度反映图像对微小细节反差表达的能力,清晰度越高则图像融合效果越好;边缘强度用于衡量图像边缘细节的丰富程度,其值越大,则融合图像的边缘越清晰,效果越好;Qw指标取值越接近1,表明图像融合效果越好;而Qabf利用Sobel边缘检测算子来衡量有多少边缘信息从源图像转移到了融合图像,可综合评价源图像与融合图像之间的结构相似度,其值越接近1,说明图像融合效果越好。光谱扭曲度直接反映了融合影像的光谱失真程度,其值越小,表明融合效果越好。
Claims (7)
1.一种基于统计建模的Contourlet域多模态医学图像融合方法,其特征是:首先对待融合的多模态医学图像进行IHS变换,对得到的亮度分量执行Contourlet变换,并对高频子带系数建立上下文隐马尔可夫CHMM统计模型,然后分别采用区域绝对值和取大以及基于CHMM和改进的脉冲耦合神经网络M-PCNN的融合规则确定低、高频子带融合系数,再执行Contourlet逆变换重构新的亮度分量,最后进行IHS逆变换获得最终的彩色融合图像。
2.根据权利要求1所述的基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于包括以下具体步骤:
1)对待融合的两幅多模态医学图像进行IHS变换,得到相应的亮度、色调和饱和度分量;
2)对亮度分量执行Contourlet变换,分解得到不同尺度、不同方向的高、低频子带系数;
3)采用不同的融合规则分别确定融合图像的低频子带系数和高频子带系数;
3.1)对表征图像近似信息的低频子带,采用基于区域绝对值和取大的融合规则进行融合;
3.2)对表征图像细节特征的高频方向子带,采用基于CHMM和M-PCNN的融合规则进行融合;
a)构建高频方向子带系数的CHMM统计模型,利用优化的期望最大化EM算法分初始化和迭代训练两步来估计模型参数,得到每个系数的标准差和概率密度函数,并计算其边缘概率密度函数Edge PDF;
b)采用基于Edge PDF的归一化值作为链接强度,改进的拉普拉斯能量和SML作为外部激励输入的M-PCNN模型设计融合规则,确定各个高频子带融合系数;
4)对步骤3)所得高、低频子带融合系数,执行Contourlet逆变换重新获得新的亮度分量;
5)对新的亮度、色调和饱和度分量进行IHS逆变换获得最终的彩色融合图像。
3.根据权利要求1或2所述的基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于:步骤2)所述对亮度分量执行Contourlet变换,分解得到不同尺度、不同方向的子带系数(j=1,2...,J;k=1,2,...,mj;i,l=1,...,Nj),其中j表示分解尺度,k表示每尺度分解的方向子带,i,l表示位置索引,J表示最大分解尺度,mj表示j尺度分解的方向子带最大数目,Nj表示相应子带的系数总个数,A、B分别代表SPECT和MRI图像。
4.根据权利要求1或2所述的基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于:步骤3.1)所述基于区域绝对值和取大的融合规则,具体如下:
a)计算低频系数在3×3邻域内的绝对值之和;
其中,表示SPECT或MRI图像在最粗糙尺度j0,位置(i,l)处的低频系数,Ω是3×3的窗口邻域;
b)确定融合图像在最粗糙尺度j0,位置(i,l)处的低频子带系数;
5.根据权利要求1或2所述的基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于:步骤3.2)中的步骤a)具体如下:
首先,定义轮廓波分解系数之间三种重要关系:对于当前Contourlet系数X,定义位于同一尺度同一方向子带内相邻位置上的8个Contourlet系数为其邻居系数(NX),捕获空间相关性;定义相邻较粗糙尺度对应方向子带内相应空间位置上的Contourlet系数为其父系数(PX),表征跨尺度相关性;定义位于同一尺度不同方向子带内相应空间位置上一组Contourlet系数为其表兄弟系数(CX),体现不同方向间的相关性;
其次,根据新的设计方案计算相应的上下文变量取值,利用两状态、零均值的高斯混合模型GMM来刻画高频方向子带系数的非高斯分布特性,则每个Contourlet系数都与一个上下文变量和一个隐状态相关联,接着进行CHMM统计建模,由此可以计算其边缘概率密度函数Edge PDF;
其中,(j,k,i,l)分别表示尺度、方向和空间位置索引,Vj,k,i,l为上下文变量,Sj,k,i,l为隐状态变量, 是状态为m时的概率, 是上下文变量取值v的条件下状态为m的概率, 表示高斯条件概率密度函数,均值为零,σj,k,i,l,m表示标准差;
最后,利用优化的期望最大化EM算法分初始化和迭代训练两步来估计模型参数。
6.根据权利要求1或2所述的基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于:步骤3.2)中的步骤b)具体如下:
首先,初始化改进的脉冲耦合神经网络M-PCNN模型参数。所有神经元都处于熄火状态, 设 αL=1.0,αθ=0.2,VL=1.2,Vθ=20,迭代次数Nmax=200,其中j为分解尺度,k为每尺度的方向子带,下标(i,l)为神经元位置索引;
再将边缘概率密度函数Edge PDF归一化至[0,1]区间,作为M-PCNN的链接强度取值;并按照下式计算改进的拉普拉斯能量和SML作为M-PCNN的外部激励输入;
其中,step表示系数间的可变空间距离,本发明中取值为1,N为区域窗口大小,取值为3;
然后,按照下列公式进行迭代运算,更新参数值,并统计每个神经元总的脉冲点火次数;
其中,下标(i,l)是神经元对应的图像像素标号,j,k是高频方向子带尺度、方向索引,p,q表示其它神经元与此神经元相连的范围,n为迭代次数;为神经元反馈输入,本实施例中采用能够较好描述图像的轮廓、方向性纹理等细节信息的SML作为M-PCNN的外部激励输入,为神经元链接输入,为神经元内部活动,为神经元输出,用于统计每个神经元总的脉冲点火次数,Wi,l;p,q是相应的突触联接权值矩阵,VL是链接输入的放大系数,和Vθ分别是变阈值函数和阈值放大系数,αL和αθ分别表示链接输入和变阈值函数的时间常数,β为链接强度,其取值决定了神经元之间耦合关系的强弱,本实施例中选用高频方向子带系数的边缘概率密度函数Edge PDF的归一化值;
最后,根据如下公式,选取总的脉冲点火次数较大(即点火最频繁)的M-PCNN神经元所对应的系数作为融合高频方向子带系数:
从而,完成图像各个高频方向子带系数的融合。
7.根据权利要求2或6所述的基于统计建模的Contourlet域多模态医学图像融合方法,其特征在于:上述采用M-PCNN模型的融合规则是依据若干次迭代后M-PCNN各个神经元产生的脉冲点火总次数决定高频方向子带融合系数的选取;脉冲点火次数反映了神经元所受外部刺激的大小,表征了Contourlet分解系数中所包含有效细节信息的多少,因此选择总的脉冲点火次数较大(即点火最频繁)的神经元所对应的高频方向子带系数可以包含待融合图像更多的细节特征,进而能获得更优的融合图像;M-PCNN模型在调制域进行耦合调制,计算内部活动输入到脉冲产生部分用于产生神经元的脉冲输出
在脉冲产生部分,若则对应神经元被激活,产生一个脉冲输出,称为一次点火,同时神经元的阈值通过反馈迅速提高,继续进行下一次迭代运算;当超过时,脉冲产生器关闭,神经元停止发放脉冲,阈值开始指数下降,当再次低于时,脉冲产生器再次被打开,对应的神经元重新处于激活状态,如此迭代循环直至达到设定的最大迭代次数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410058550.9A CN103985105B (zh) | 2014-02-20 | 2014-02-20 | 基于统计建模的Contourlet域多模态医学图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410058550.9A CN103985105B (zh) | 2014-02-20 | 2014-02-20 | 基于统计建模的Contourlet域多模态医学图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103985105A true CN103985105A (zh) | 2014-08-13 |
CN103985105B CN103985105B (zh) | 2016-11-23 |
Family
ID=51277063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410058550.9A Active CN103985105B (zh) | 2014-02-20 | 2014-02-20 | 基于统计建模的Contourlet域多模态医学图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103985105B (zh) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331864A (zh) * | 2014-10-21 | 2015-02-04 | 西安电子科技大学 | 基于非下采样轮廓波和视觉显著模型的乳腺影像处理 |
CN104616252A (zh) * | 2015-01-09 | 2015-05-13 | 安徽师范大学 | 基于nsct和pcnn的数字图像增强方法 |
CN105260775A (zh) * | 2015-10-16 | 2016-01-20 | 清华大学 | 实现马尔科夫随机场概率编码的方法及神经电路 |
CN105427269A (zh) * | 2015-12-09 | 2016-03-23 | 西安理工大学 | 一种基于wemd和pcnn的医学图像融合方法 |
CN106709896A (zh) * | 2016-12-08 | 2017-05-24 | 江苏大学 | 一种医学图像融合方法 |
CN106803242A (zh) * | 2016-12-26 | 2017-06-06 | 江南大学 | 基于四元数小波变换的多聚焦图像融合方法 |
CN107194904A (zh) * | 2017-05-09 | 2017-09-22 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN107610165A (zh) * | 2017-09-12 | 2018-01-19 | 江南大学 | 基于多特征的3‑d剪切波域多模态医学序列图像融合方法 |
CN108650509A (zh) * | 2018-04-04 | 2018-10-12 | 浙江工业大学 | 一种多尺度自适应近似无损编解码方法及系统 |
CN108921809A (zh) * | 2018-06-11 | 2018-11-30 | 上海海洋大学 | 整体原则下基于空间频率的多光谱和全色图像融合方法 |
CN109934887A (zh) * | 2019-03-11 | 2019-06-25 | 吉林大学 | 一种基于改进的脉冲耦合神经网络的医学图像融合方法 |
CN110298900A (zh) * | 2019-06-25 | 2019-10-01 | 中山大学 | 一种基于各向异性基函数建立spect重构的方法 |
CN110443775A (zh) * | 2019-06-20 | 2019-11-12 | 吉林大学 | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 |
CN110874581A (zh) * | 2019-11-18 | 2020-03-10 | 长春理工大学 | 细胞工厂生物反应器图像融合方法 |
CN111311530A (zh) * | 2020-01-22 | 2020-06-19 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN112347910A (zh) * | 2020-11-05 | 2021-02-09 | 中国电子科技集团公司第二十九研究所 | 一种基于多模态深度学习的信号指纹识别方法 |
CN113379666A (zh) * | 2021-07-06 | 2021-09-10 | 江南大学 | 基于区间二型模糊集和chmm模型的图像融合方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN100573584C (zh) * | 2008-01-18 | 2009-12-23 | 西安电子科技大学 | 基于成像机理与非采样Contourlet变换多聚焦图像融合方法 |
CN101504766B (zh) * | 2009-03-25 | 2011-09-07 | 湖南大学 | 基于混合多分辨率分解的图像融合方法 |
CN101968882B (zh) * | 2010-09-21 | 2012-08-15 | 重庆大学 | 一种多源图像融合方法 |
CN102446351A (zh) * | 2010-10-15 | 2012-05-09 | 江南大学 | 一种多光谱与高分辨率全色图像融合方法研究 |
-
2014
- 2014-02-20 CN CN201410058550.9A patent/CN103985105B/zh active Active
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331864B (zh) * | 2014-10-21 | 2018-11-23 | 西安电子科技大学 | 基于非下采样轮廓波和视觉显著模型的乳腺影像处理 |
CN104331864A (zh) * | 2014-10-21 | 2015-02-04 | 西安电子科技大学 | 基于非下采样轮廓波和视觉显著模型的乳腺影像处理 |
CN104616252A (zh) * | 2015-01-09 | 2015-05-13 | 安徽师范大学 | 基于nsct和pcnn的数字图像增强方法 |
CN104616252B (zh) * | 2015-01-09 | 2018-01-19 | 安徽师范大学 | 基于nsct和pcnn的数字图像增强方法 |
CN105260775A (zh) * | 2015-10-16 | 2016-01-20 | 清华大学 | 实现马尔科夫随机场概率编码的方法及神经电路 |
CN105260775B (zh) * | 2015-10-16 | 2017-11-21 | 清华大学 | 实现马尔科夫随机场概率编码的方法及神经电路 |
CN105427269A (zh) * | 2015-12-09 | 2016-03-23 | 西安理工大学 | 一种基于wemd和pcnn的医学图像融合方法 |
CN106709896A (zh) * | 2016-12-08 | 2017-05-24 | 江苏大学 | 一种医学图像融合方法 |
CN106803242A (zh) * | 2016-12-26 | 2017-06-06 | 江南大学 | 基于四元数小波变换的多聚焦图像融合方法 |
CN107194904B (zh) * | 2017-05-09 | 2019-07-19 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN107194904A (zh) * | 2017-05-09 | 2017-09-22 | 西北工业大学 | 基于增补机制和pcnn的nsct域图像融合方法 |
CN107610165A (zh) * | 2017-09-12 | 2018-01-19 | 江南大学 | 基于多特征的3‑d剪切波域多模态医学序列图像融合方法 |
CN107610165B (zh) * | 2017-09-12 | 2020-10-23 | 江南大学 | 基于多特征的3-d剪切波域多模态医学序列图像融合方法 |
CN108650509A (zh) * | 2018-04-04 | 2018-10-12 | 浙江工业大学 | 一种多尺度自适应近似无损编解码方法及系统 |
CN108650509B (zh) * | 2018-04-04 | 2020-08-18 | 浙江工业大学 | 一种多尺度自适应近似无损编解码方法及系统 |
CN108921809A (zh) * | 2018-06-11 | 2018-11-30 | 上海海洋大学 | 整体原则下基于空间频率的多光谱和全色图像融合方法 |
CN108921809B (zh) * | 2018-06-11 | 2022-02-18 | 上海海洋大学 | 整体原则下基于空间频率的多光谱和全色图像融合方法 |
CN109934887A (zh) * | 2019-03-11 | 2019-06-25 | 吉林大学 | 一种基于改进的脉冲耦合神经网络的医学图像融合方法 |
CN109934887B (zh) * | 2019-03-11 | 2023-05-30 | 吉林大学 | 一种基于改进的脉冲耦合神经网络的医学图像融合方法 |
CN110443775A (zh) * | 2019-06-20 | 2019-11-12 | 吉林大学 | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 |
CN110443775B (zh) * | 2019-06-20 | 2022-12-16 | 吉林大学 | 基于卷积神经网络的离散小波变换域多聚焦图像融合方法 |
CN110298900A (zh) * | 2019-06-25 | 2019-10-01 | 中山大学 | 一种基于各向异性基函数建立spect重构的方法 |
CN110874581A (zh) * | 2019-11-18 | 2020-03-10 | 长春理工大学 | 细胞工厂生物反应器图像融合方法 |
CN111311530A (zh) * | 2020-01-22 | 2020-06-19 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN111311530B (zh) * | 2020-01-22 | 2022-03-04 | 西安电子科技大学 | 基于方向滤波器及反卷积神经网络的多聚焦图像融合方法 |
CN112347910B (zh) * | 2020-11-05 | 2022-05-31 | 中国电子科技集团公司第二十九研究所 | 一种基于多模态深度学习的信号指纹识别方法 |
CN112347910A (zh) * | 2020-11-05 | 2021-02-09 | 中国电子科技集团公司第二十九研究所 | 一种基于多模态深度学习的信号指纹识别方法 |
CN113379666A (zh) * | 2021-07-06 | 2021-09-10 | 江南大学 | 基于区间二型模糊集和chmm模型的图像融合方法 |
CN113379666B (zh) * | 2021-07-06 | 2024-03-12 | 江南大学 | 基于区间二型模糊集和chmm模型的图像融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN103985105B (zh) | 2016-11-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103985105A (zh) | 基于统计建模的Contourlet域多模态医学图像融合方法 | |
Hou et al. | Brain CT and MRI medical image fusion using convolutional neural networks and a dual-channel spiking cortical model | |
CN103049895B (zh) | 基于平移不变剪切波变换的多模态医学图像融合方法 | |
Bahrami et al. | Comparison of different deep learning architectures for synthetic CT generation from MR images | |
Pham et al. | Current methods in medical image segmentation | |
Zhang et al. | Review of breast cancer pathologigcal image processing | |
Mansoor et al. | Deep learning guided partitioned shape model for anterior visual pathway segmentation | |
CN109035160A (zh) | 医学影像的融合方法及基于融合医学影像学习的图像检测方法 | |
CN104834943A (zh) | 一种基于深度学习的脑肿瘤分类方法 | |
CN104881680A (zh) | 一种基于二维特征和三维特征融合的阿尔茨海默病及轻度认知功能障碍识别方法 | |
CN112674720B (zh) | 基于3d卷积神经网络的阿尔茨海默症的预判断方法 | |
CN107610165A (zh) | 基于多特征的3‑d剪切波域多模态医学序列图像融合方法 | |
CN103617604B (zh) | 基于二维经验模态分解方法特征提取的图像的融合方法 | |
Li et al. | Fusion of medical sensors using adaptive cloud model in local Laplacian pyramid domain | |
CN106910179A (zh) | 基于小波变换的多模态医学图像融合方法 | |
Nair et al. | MAMIF: multimodal adaptive medical image fusion based on B-spline registration and non-subsampled shearlet transform | |
Sreeja et al. | Image fusion through deep convolutional neural network | |
Santhakumar et al. | Analysis of Multimodality Fusion of Medical Image Segmentation Employing Deep Learning | |
CN106504221A (zh) | 基于四元数小波变换上下文结构的医学图像融合新方法 | |
CN109035137A (zh) | 一种基于最优传输理论的多模态医学图像融合方法 | |
Zhang et al. | Research on multi-mode medical image fusion algorithm based on wavelet transform and the edge characteristics of images | |
Poonkodi et al. | 3d-medtrancsgan: 3d medical image transformation using csgan | |
CN106023126A (zh) | 一种基于区域对比的医学图像融合方法 | |
Zhang et al. | Structure-preserving low-dose computed tomography image denoising using a deep residual adaptive global context attention network | |
Rao et al. | Deep learning-based medical image fusion using integrated joint slope analysis with probabilistic parametric steered image filter |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |