CN109816617B - 基于导向滤波和图论显著性的多模态医学图像融合方法 - Google Patents

基于导向滤波和图论显著性的多模态医学图像融合方法 Download PDF

Info

Publication number
CN109816617B
CN109816617B CN201811487076.6A CN201811487076A CN109816617B CN 109816617 B CN109816617 B CN 109816617B CN 201811487076 A CN201811487076 A CN 201811487076A CN 109816617 B CN109816617 B CN 109816617B
Authority
CN
China
Prior art keywords
image
coefficients
sub
representing
band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811487076.6A
Other languages
English (en)
Other versions
CN109816617A (zh
Inventor
李伟生
贾玲慧
冯思琴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201811487076.6A priority Critical patent/CN109816617B/zh
Publication of CN109816617A publication Critical patent/CN109816617A/zh
Application granted granted Critical
Publication of CN109816617B publication Critical patent/CN109816617B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明请求保护一种基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合多模态医学图像,包括步骤:S1得到待融合图像的平滑子带图像和细节子带图像;S2利用图论显著性方法构造融合规则重组平滑子带系数和细节子带系数;S3重构融合后的平滑子带系数和细节子带系数得到融合后的图像。本发明基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。

Description

基于导向滤波和图论显著性的多模态医学图像融合方法
技术领域
本发明属于图像处理技术领域,用于融合多个模态的医学图像,主要是灰色图像(MRI)和伪彩色图像(PET)的融合,即MRI-PET融合和灰度图像(MRI)和灰度图像(CT)的融合即MRI-CT的融合,特别涉及利用导向滤波算法和图论显著性算法。
背景技术
目前,图像融合是图像处理研究领域的一个研究热点,主要的研究方法可概括为两类:基于空域的图像融合方法和基于频域的图像融合方法。
基于空域的图像融合方法是直接对原图像构造融合规则来得到融合图像,常用的基于空域的图像融合方法包括简单的加权平均,基于PCA变换的融合方法和基于IHS变换的融合融合方法。该类方法的优点在于操作简单,时间复杂度低,但会丢失大量的边缘轮廓等重要的细节信息。基于频域的图像融合方法主要包括三大类:基于塔型变换的图像融合方法、基于小波变换的图像融合方法和基于几何变换的图像融合方法。与基于空域的融合方法相比,基于频域的图像融合方法能在多个尺度上提取显著性特征,使得融合后的图像能尽可能多的保留原图像的信息。基于塔型变换的图像融合方法主要将原始图像分解为不同尺度的高频和低频图像,优点在于能提取更多的图像信息,但高频图像不具备方向性;基于小波变换的图像融合方法能在水平、垂直、对角三个方向上进行分解,但不能很好的表示边角信息;基于轮廓波变换的图像融合方法能在多个方向上分解原图像,但不具备平移不变性,会产生伪影。为了解决多尺度分解方法产生伪影和时间复杂度高的问题,李树涛等人提出了基于边缘保持滤波器分解的图像融合方法,具有时间复杂度低,能很好的保留原图像的边缘轮廓信息的优点。
目前图像融合方法众多,虽都各具优点,但也存在很多问题,总结起来主要主要包括(1)时间复杂度高;(2)亮度信息丢失;(3)色彩失真;(4)边缘信息丢失;(5)抗干扰能力差。导向滤波算法具有平滑去噪的能力,图论显著性方法能提取图像的亮度、颜色、方向信息,使得融合后的图像能保留原图像的亮度信息和颜色信息,并具有一定的抗噪能力,因此将两种算法结合起来用于图像融合,能取得很好的融合结果。
发明内容
本发明旨在解决以上现有技术亮度信息丢失,色彩失真和抗噪能力差的问题。提出了一种有效平滑噪声,并将图像分解为多个尺度,能在多个尺度上提取特征的基于导向滤波和图论显著性的多模态医学图像融合方法,主要用于融合灰度图像(MRI)和伪彩色图像(PET),即一种基于导向滤波和图论显著性的多模态医学图像融合方法。本发明的技术方案如下:
一种基于导向滤波和图论显著性的多模态医学图像融合方法,其包括以下步骤:
S1、首先利用导向滤波算法对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,...2L),得到一系列平滑子带图像Ci和一系列细节子带图像Di,Di=I-Ci,其中i表示第i个尺度。
S2、其次,利用图论显著性构造融合规则,主要包含三个步骤:活跃度测量步骤、系数分组步骤及系数重组步骤;
S3、最后利用求和方法对子带图像系数进行重构,得到融合后的图像F,F=FC+FD,FC表示融合后的平滑子带图像FD表示融合后的细节子带图像。
进一步地,所述步骤S1的导向滤波算法假设引导图像I和输出图像Q之间是一个线性模型:
Figure BDA0001894789930000021
式(1)中,ωk表示以i为中心,大小为(2r+1)×(2r+1)的窗口,(ak,bk)是ωk中的两个系数。我们把输入图像P作为引导图像I,要求输出图像Q尽可能多的保留原图像的信息,即输出图像Q和输入图像P的误差尽可能的小,误差表达如下:
Figure BDA0001894789930000031
式(2)中,∈是一个正则化系数,防止求得的ak太大。通过最小二乘法求得:
Figure BDA0001894789930000032
Figure BDA0001894789930000033
式(3)和式(4)中,μk
Figure BDA0001894789930000034
分别表示ωk中I的均值和方差,|ω|表示ωk中的像素总和,/>
Figure BDA0001894789930000035
表示P在ωk中的均值。我们利用导向滤波算法进行图像分解时,利用滑动窗口对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,23),得到一系列平滑子带图像Ci。再通过Di=I-Ci得到一系列细节子带图像Di,其中i表示第i个尺度,i=1,2,3。由于在平滑滤波时(ak,bk)会被多个窗口ωk包含,所以我们最终求得输出图像即平滑子带图像为:
Figure BDA0001894789930000036
式(5)中,
Figure BDA0001894789930000037
|ω|表示ωk中的像素总和,ωi表示以i为中心,大小为(2r+1)×(2r+1)的窗口。
进一步地,所述步骤S2的活跃度测量步骤:由于A和B的平滑子带图像系数包含原图像的大量结构、亮度和颜色信息,利用图论显著性方法来提取这些子带图像的亮度、颜色和方向显著性特征,且每幅子带图像对应生成一幅显著图
Figure BDA0001894789930000038
其中/>
Figure BDA0001894789930000039
和/>
Figure BDA00018947899300000310
表示A和B的平滑子带图像的显著图,GBVS()表示图论显著性方法获取显著图,/>
Figure BDA00018947899300000311
和/>
Figure BDA00018947899300000312
表示A和B的平滑子带图像系数。对于A和B的细节子带图像系数,我们利用信息熵函数/>
Figure BDA00018947899300000313
来衡量每幅子带图像所携带的信息大小,其中pI(i)表示输入图像的像素值,生成显著图/>
Figure BDA00018947899300000314
EN表示信息熵函数,/>
Figure BDA0001894789930000041
和/>
Figure BDA0001894789930000042
表示A和B的细节子带系数的显著图,/>
Figure BDA0001894789930000043
和/>
Figure BDA0001894789930000044
表示A和B的细节子带图像系数。
进一步地,所述步骤S2的活跃度测量步骤中利用图论显著性方法(GBVS)获取显著图的具体步骤为:
(1)特征提取和特征图生成:利用高斯采样方法在图像的r、g、b三个通道上构建图像的颜色、亮度和方向的金字塔,然后用高斯金字塔和中心-周围差值算法计算图像的亮度、颜色和方向特征,并将中心像素的尺度设为c∈{2,3,4},周围像素的尺度设为s=c+δ,δ∈{3,4},以便于能在多个尺度上提取特征,
Figure BDA0001894789930000045
表示点到点的相减。得到亮度特征为:
Figure BDA0001894789930000046
式(6)中,I=(r+g+b)/3,r、g、b表示图像的红、绿、蓝三个通道系数,I(c)和I(s)表示在c和s尺度上求解亮度特征I,I(c,s)表示在c,s尺度上的亮度特征。
通过模拟皮层中的“颜色双竞争”系统表示:在接受野中心,神经元被一种颜色激活而禁止另外一种颜色,而在周围区域则是相反的。在主视觉皮层中,红/绿,绿/红,蓝/黄,黄/蓝颜色对都存在这种空间和色彩竞争关系。因此,产生RG(c,s)和BY(c,s)特征图来反映双竞争关系。RG(c,s)和BY(c,s)表达式如下:
Figure BDA0001894789930000047
Figure BDA0001894789930000048
式(7)和式(8)中,R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-|r-g|/2-b,r、g、b表示图像的红、绿、蓝三个通道系数,R(c)、G(c)、B(c)、Y(c)表示在尺度c上求解R、G、B、Y值,R(s),G(s),B(s),Y(s)表示在尺度s上求解R、G、B、Y值。
采用方向Gabor金字塔得到局部方向信息,得到方向特征图:
Figure BDA0001894789930000049
Figure BDA0001894789930000051
O(c,θ)表示在尺度c和角度为θ时的方向特征,O(s,θ)表示在尺度s和角度为θ时的方向特征。
(2)特征显著性计算和特征显著图生成:研究学者认为一个点与其相邻的点的差异越大,则其显著性越大,所以基于图论显著性方法(GBVS)在得到了多个亮度、颜色和方向特征图后,利用图论的思想和马尔科夫链算法对这些特征图进行显著性计算和特征图组合生成显著图。假设对于特征图M中的点p和点q,两点的不相似性为:
Figure BDA0001894789930000052
式(9)中,M(p)和M(q)分别表示p和q的特征值。
假设特征图M中的所有像素点构成一个全连接图GA,图中任意一个顶点与其他n-1个顶点相连,GA中点p到点q的有向边的权值为:
Figure BDA0001894789930000053
式(10)中
Figure BDA0001894789930000054
(px,py),(qx,qy)表示点p和点q的空间坐标,δ表示随机参数。
在GA中定义马尔科夫链,并将边上的权重归一化到[0,1],使得对于任意一个顶点,作为始点的所有边的权重之和为1。图论显著性方法将GA中的节点类比为马尔科夫链的状态,有向边的权重类比为转移概率,马尔科夫链模型为:
Figure BDA0001894789930000055
式(11)中ai和aj表示状态,pji表示状态转移概率,n表示n个状态,最后能得到稳定状态的马尔科夫链表示特征显著性状态,得到特征显著图S(a1,a2,…,an)。
进一步地,所述步骤S2中的系数分组步骤中,由于显著图的值越大代表所携带的重要信息越多,通过分别比较同一幅原图像的平滑子带和细节子带图的显著图的值的大小来生成决策图D,且决策图的值由0或1组成,构建方式如下:
Figure BDA0001894789930000061
Figure BDA0001894789930000062
式(12)中
Figure BDA0001894789930000063
和/>
Figure BDA0001894789930000064
分别代表图像A的平滑子带图像和细节子带图像的决策图,/>
Figure BDA0001894789930000065
和/>
Figure BDA0001894789930000066
表示A图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3,式(13)中/>
Figure BDA0001894789930000067
和/>
Figure BDA0001894789930000068
分别代表图像B的平滑子带图像和细节子带图像的决策图,
Figure BDA0001894789930000069
和/>
Figure BDA00018947899300000610
表示B图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3。
进一步地,所述步骤S2中的系数重组步骤主要利用加权平均的方法对子带系数进行重组,加权平均方法的思想是把融合系数看做是输入图像与权重图的线性乘积之和,把系数分组步骤中得到的决策图D作为权重图,最后分别对原图像A和B的多个尺度的平滑子带系数和细节子带系数进行重组得到A和B融合的平滑图像系数和细节图像系数的方法如下:
Figure BDA00018947899300000611
Figure BDA00018947899300000612
式(14)和式(15)中,n表示n个尺度,本文中n=3,
Figure BDA00018947899300000613
和/>
Figure BDA00018947899300000614
分别代表图像A的融合后的平滑子带图像系数和细节子带图像系数,/>
Figure BDA00018947899300000615
和/>
Figure BDA00018947899300000616
表示A图像在第i个尺度上的平滑子带系数和细节子带系数,/>
Figure BDA00018947899300000617
和/>
Figure BDA00018947899300000618
表示B图像在第i个尺度上的平滑子带系数和细节子带系数,/>
Figure BDA00018947899300000619
表示在图像A的平滑子带图像和细节子带图像的决策图,/>
Figure BDA00018947899300000620
和/>
Figure BDA00018947899300000621
表示在图像B的平滑子带图像和细节子带图像的决策图,/>
Figure BDA0001894789930000071
的/>
Figure BDA0001894789930000072
和分别代表图像B的融合后的平滑子带图像系数和细节子带图像系数;
最后利用平均加权的方法将A和B的融合后的平滑子带系数和细节子带系数进行融合得到最终融合图像F的平滑子带图像和细节子带图像系数,表达式如下:
Figure BDA0001894789930000073
其中FC和FD分别表示融合后的平滑子带图像系数和细节子带图像系数。
本发明的优点及有益效果如下:
由于基于多尺度分解的融合方法能在多个尺度上提取特征进行融合,且人眼对图像的显著性特征更为敏感,本发明提出一种基于导向滤波算法和图论显著性算法的多模态图像融合方法,利用导向滤波算法将原图像分解为一系列平滑子带图像和细节子带图像,有利于我们在多个尺度上提取特征,能保证融合图像尽可能多的保留原图像的重要信息,并且与其他多尺度分解方法相比,基于导向滤波算法的分解方法时间复杂度较低,保证融合图像且在分解过程中能有效的减少噪声的干扰,增加方法的鲁棒性;同时利用图论的显著性方法来提取平滑子带图像的亮度、颜色和方向特征,能保留灰度图像的亮度信息和伪彩色图像的颜色信息,有效解决其他融合方法融合图像亮度信息丢失和色彩失真问题,保证融合图像的质量。
附图说明
图1是本发明提供优选实施例方法的流程图
图2为输入图像A(MRI)示例
图3为输入图像B(CT)示例
图4为融合后的图像F示例
图5为本专利多模态医学图像的融合实验结果和其他6种方法实验结果
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明的方法流程如图1所示。
本发明涉及了输入原图像示例如图2、图3,融合后图像的示例如图4,本专利图像的融合实验结果和其他6种方法实验结果图示例为图5。
具体步骤:
S1、首先利用导向滤波算法对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,...2l),得到一系列平滑子带图像Ci和一系列细节子带图像Di(Di=I-Ci),本文令L=3;
S2、其次,利用图论显著性构造融合规则,主要包含三个步骤:a)活跃度测量、b)系数分组、c)系数重组。
活跃度测量步骤:由于A和B的平滑子带图像包含原图像的大量结构、亮度和颜色信息,利用图论显著性方法来提取这些子带图像的亮度、颜色和方向显著性特征,且每幅子带图像对应生成一幅显著图
Figure BDA0001894789930000081
其中/>
Figure BDA0001894789930000082
和/>
Figure BDA0001894789930000083
表示A和B的平滑子带图像的显著图,/>
Figure BDA0001894789930000084
和/>
Figure BDA0001894789930000085
表示A和B的平滑子带图像系数。对于A和B的细节子带图像,利用信息熵函数/>
Figure BDA0001894789930000086
来衡量每幅子带图像所携带的信息大小,其中pI(i)表示输入图像的像素值生成显著图S,
Figure BDA0001894789930000087
系数分组:由于显著图的值越大代表所携带的重要信息越多,通过分别比较同一幅原图像的平滑子带和细节子带图的显著图的值的大小来生成决策图D,且决策图的值由0或1组成,构建方式如下:
Figure BDA0001894789930000091
Figure BDA0001894789930000092
式(12)中,
Figure BDA0001894789930000093
和/>
Figure BDA0001894789930000094
分别代表图像A的平滑子带图像和细节子带图像的决策图,
Figure BDA0001894789930000095
和/>
Figure BDA0001894789930000096
表示A图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3,式(13)中,/>
Figure BDA0001894789930000097
和/>
Figure BDA0001894789930000098
分别代表图像B的平滑子带图像和细节子带图像的决策图,/>
Figure BDA0001894789930000099
和/>
Figure BDA00018947899300000910
表示B图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,本文中n=3。
系数重组:利用加权平均的方法对子带系数进行重组,加权平均方法的思想是把融合系数看做是输入图像与权重图的线性乘积之和,本方法把系数重组步骤中得到的决策图D作为权重图,最后分别对原图像A和B的多个尺度的平滑子带系数和细节子带系数进行重组得到A和B融合的平滑图像系数和细节图像系数的方法如下:
Figure BDA00018947899300000911
Figure BDA00018947899300000912
式(14)中的
Figure BDA00018947899300000913
和/>
Figure BDA00018947899300000914
分别代表灰度图像A的融合后的平滑子带图像系数和细节子带图像系数,式(15)中/>
Figure BDA00018947899300000915
的/>
Figure BDA00018947899300000916
和分别代表伪彩色图像B的融合后的平滑子带图像系数和细节子带图像系数。
最后利用平均加权的方法将A和B的融合后的平滑子带系数和细节子带系数进行融合得到最终融合图像F的平滑子带图像和细节子带图像系数,表达式如下:
Figure BDA00018947899300000917
S3、最后利用求和方法对子带图像系数进行重构,得到融合后的图像F(F=FC+FD)。
为了评估本算法的性能,本发明采用哈佛大学公开数据集中的两种病例作为实验图像集,在本实验中主要采用6种基于频域的多尺度分解方法进行对比,分别是基于小波变换的图像融合方法(DWT),基于梯度金字塔变换的图像融合(GRP),基于导向滤波的图像融合方法(GFF),基于非下采样轮廓波变换的图像融合方法(NSCT),基于稀疏表示的图像融合方法(SR)和基于并行显著性的图像融合方法。
本实验选择了哈佛大学公开数据集的四类病例的40张图像和一种加噪图像的10张图像来进行灰度图像(MRI)和伪彩色图像(PET)即MRI-PET的融合和灰度图像(MRI)和灰度图像(CT)即MRI-CT的融合,对图像的融合质量进行定量评价,主要采用SSIM、MI、IWSSIM、QAC、VSI、GSM作为客观评价指标。实验结果对比表如表1,表2和表3所示。
表1 MRI-PET图像融合客观评价指标
Figure BDA0001894789930000101
表2 MRI-CT图像融合客观评价指标
Figure BDA0001894789930000102
/>
Figure BDA0001894789930000111
表3加噪MRI-PET图像融合客观评价指标
Figure BDA0001894789930000112
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (2)

1.一种基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,包括以下步骤:
S1、首先利用导向滤波算法对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,...2L),得到一系列平滑子带图像Ci和一系列细节子带图像Di,Di=I-Ci,其中i表示第i个尺度;I表示亮度特征;
S2、其次,利用图论显著性构造融合规则,主要包含三个步骤:活跃度测量步骤、系数分组步骤及系数重组步骤;
S3、最后利用求和方法对子带图像系数进行重构,得到融合后的图像F,F=FC+FD,FC表示融合后的平滑子带图像,FD表示融合后的细节子带图像;
所述步骤S2的活跃度测量步骤具体包括:
由于A和B的平滑子带图像系数包含原图像的大量结构、亮度和颜色信息,利用图论显著性方法来提取这些子带图像的亮度、颜色和方向显著性特征,且每幅子带图像对应生成一幅显著图
Figure FDA0004127308090000011
其中/>
Figure FDA0004127308090000012
和/>
Figure FDA0004127308090000013
表示A和B的平滑子带图像的显著图,GBVS()表示图论显著性方法获取显著图,/>
Figure FDA0004127308090000014
和/>
Figure FDA0004127308090000015
表示A和B的平滑子带图像系数,对于A和B的细节子带图像系数,利用信息熵函数
Figure FDA0004127308090000016
来衡量每幅子带图像所携带的信息大小,其中pI(i)表示输入图像的像素值,生成显著图/>
Figure FDA0004127308090000017
EN表示信息熵函数,/>
Figure FDA0004127308090000018
和/>
Figure FDA0004127308090000019
表示A和B的细节子带系数的显著图,/>
Figure FDA00041273080900000110
和/>
Figure FDA00041273080900000111
表示A和B的细节子带图像系数;
所述步骤S2的活跃度测量步骤中利用图论显著性方法(GBVS)获取显著图的具体步骤为:
(1)特征提取和特征图生成:利用高斯采样方法在图像的r、g、b三个通道上构建图像的颜色、亮度和方向的金字塔,然后用高斯金字塔和中心-周围差值算法计算图像的亮度、颜色和方向特征,并将中心像素的尺度设为c∈{2,3,4},周围像素的尺度设为s=c+δ,δ∈{3,4},以便于能在多个尺度上提取特征,
Figure FDA0004127308090000021
表示点到点的相减,得到亮度特征为:
Figure FDA0004127308090000022
式中,I=(r+g+b)/3,r、g、b表示图像的红、绿、蓝三个通道系数,I(c)和I(s)表示在c和s尺度上求解亮度特征I,I(c,s)表示在c,s尺度上的亮度特征;
通过模拟皮层中的“颜色双竞争”系统表示:在接受野中心,神经元被一种颜色激活而禁止另外一种颜色,而在周围区域则是相反的,在主视觉皮层中,红/绿,绿/红,蓝/黄,黄/蓝颜色对都存在这种空间和色彩竞争关系,因此,产生RG(c,s)和BY(c,s)特征图来反映双竞争关系,RG(c,s)和BY(c,s)表达式如下:
Figure FDA0004127308090000023
Figure FDA0004127308090000024
/>
式中R=r-(g+b)/2,G=g-(r+b)/2,B=b-(r+g)/2,Y=(r+g)/2-|r-g|/2-b,r、g、b表示图像的红、绿、蓝三个通道系数,R(c)、G(c)、B(c)、Y(c)表示在尺度c上求解R、G、B、Y值,R(s),G(s),B(s),Y(s)表示在尺度s上求解R、G、B、Y值;
采用方向Gabor金字塔得到局部方向信息,得到方向特征图:
Figure FDA0004127308090000025
Figure FDA0004127308090000026
O(c,θ)表示在尺度c和角度为θ时的方向特征,O(s,θ)表示在尺度s和角度为θ时的方向特征;
(2)特征显著性计算和特征显著图生成:研究学者认为一个点与其相邻的点的差异越大,则其显著性越大,所以基于图论显著性方法GBVS在得到了多个亮度、颜色和方向特征图后,利用图论的思想和马尔科夫链算法对这些特征图进行显著性计算和特征图组合生成显著图,假设对于特征图M中的点p和点q,两点的不相似性为:
Figure FDA0004127308090000027
式中M(p)和M(q)分别表示点p和q的特征值;
假设特征图M中的所有像素点构成一个全连接图GA,图中任意一个顶点与其他n-1个顶点相连,GA中点p到点q的有向边的权值为:
Figure FDA0004127308090000031
式中
Figure FDA0004127308090000032
表示点p和点q的空间坐标,σ表示随机参数;
在GA中定义马尔科夫链,并将边上的权重归一化到[0,1],使得对于任意一个顶点,作为始点的所有边的权重之和为1;图论显著性方法将GA中的节点类比为马尔科夫链的状态,有向边的权重类比为转移概率,马尔科夫链模型为:
Figure FDA0004127308090000033
式中ai和aj表示状态,pji表示状态转移概率,n表示n个状态,最后能得到稳定状态的马尔科夫链表示特征显著性状态,得到特征显著图S(a1,a2,...,an);
所述步骤S2中的系数分组步骤中,由于显著图的值越大代表所携带的重要信息越多,通过分别比较同一幅原图像的平滑子带和细节子带图的显著图的值的大小来生成决策图D,且决策图的值由0或1组成,构建方式如下:
Figure FDA0004127308090000034
Figure FDA0004127308090000035
式中
Figure FDA0004127308090000036
和/>
Figure FDA0004127308090000037
分别代表图像A的平滑子带图像和细节子带图像的决策图,/>
Figure FDA0004127308090000038
和/>
Figure FDA0004127308090000039
表示A图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度,n=3,式中
Figure FDA00041273080900000310
和/>
Figure FDA00041273080900000311
分别代表图像B的平滑子带图像和细节子带图像的决策图,/>
Figure FDA00041273080900000312
和/>
Figure FDA00041273080900000313
表示B图像的平滑子带图像和细节子带图像在第i个尺度的显著图,n表示n个尺度;/>
所述步骤S2中的系数重组步骤主要利用加权平均的方法对子带系数进行重组,加权平均方法的思想是把融合系数看做是输入图像与权重图的线性乘积之和,把系数分组步骤中得到的决策图D作为权重图,最后分别对原图像A和B的多个尺度的平滑子带系数和细节子带系数进行重组得到A和B融合的平滑图像系数和细节图像系数的方法如下:
Figure FDA0004127308090000041
Figure FDA0004127308090000042
式中,n表示n个尺度,
Figure FDA0004127308090000043
和/>
Figure FDA0004127308090000044
分别代表图像A的融合后的平滑子带图像系数和细节子带图像系数,/>
Figure FDA0004127308090000045
和/>
Figure FDA0004127308090000046
表示A图像在第i个尺度上的平滑子带系数和细节子带系数,/>
Figure FDA0004127308090000047
Figure FDA0004127308090000048
表示B图像在第i个尺度上的平滑子带系数和细节子带系数,/>
Figure FDA0004127308090000049
表示在图像A的平滑子带图像和细节子带图像的决策图,/>
Figure FDA00041273080900000410
和/>
Figure FDA00041273080900000411
表示在图像B的平滑子带图像和细节子带图像的决策图,/>
Figure FDA00041273080900000412
的/>
Figure FDA00041273080900000413
和分别代表图像B的融合后的平滑子带图像系数和细节子带图像系数;
最后利用平均加权的方法将A和B的融合后的平滑子带系数和细节子带系数进行融合得到最终融合图像F的平滑子带图像和细节子带图像系数,表达式如下:
Figure FDA00041273080900000414
其中FC和FD分别表示融合后的平滑子带图像系数和细节子带图像系数。
2.根据权利要求1所述的基于导向滤波和图论显著性的多模态医学图像融合方法,其特征在于,所述步骤S1的导向滤波算法假设引导图像I和输出图像Q之间是一个线性模型:
Figure FDA00041273080900000415
式中ωk表示以i为中心,大小为(2r+1)×(2r+1)的窗口,(ak,bk)是ωk中的两个系数,把输入图像P作为引导图像I,要求输出图像Q尽可能多的保留原图像的信息,即输出图像Q和输入图像P的误差尽可能的小,误差表达如下:
Figure FDA0004127308090000051
式中∈是一个正则化系数,防止求得的ak太大,通过最小二乘法求得:
Figure FDA0004127308090000052
Figure FDA0004127308090000053
式中,μk
Figure FDA0004127308090000054
分别表示ωk中I的均值和方差,|ω|表示ωk中的像素总和,ωk表示以i为中心,/>
Figure FDA0004127308090000055
表示P在ωk中的均值;/>
利用导向滤波算法进行图像分解时,利用滑动窗口对原始输入图像A和B进行L次不同的平滑操作,平滑半径为r=(21,22,23),得到一系列平滑子带图像Ci,再通过Di=I-Ci得到一系列细节子带图像Di,其中i表示第i个尺度,i=1,2,3,由于在平滑滤波时(ak,bk)会被多个窗口ωk包含,最终求得输出图像即平滑子带图像为:
Figure FDA0004127308090000056
式中,
Figure FDA0004127308090000057
|ω|表示ωk中的像素总和ωk表示以i为中心,大小为(2r+1)×(2r+1)的窗口。/>
CN201811487076.6A 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法 Active CN109816617B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811487076.6A CN109816617B (zh) 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811487076.6A CN109816617B (zh) 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法

Publications (2)

Publication Number Publication Date
CN109816617A CN109816617A (zh) 2019-05-28
CN109816617B true CN109816617B (zh) 2023-05-26

Family

ID=66601962

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811487076.6A Active CN109816617B (zh) 2018-12-06 2018-12-06 基于导向滤波和图论显著性的多模态医学图像融合方法

Country Status (1)

Country Link
CN (1) CN109816617B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111683234B (zh) * 2020-06-04 2022-05-31 深圳开立生物医疗科技股份有限公司 一种内窥镜成像方法、装置及相关设备
CN113313645B (zh) * 2021-05-26 2024-05-03 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、终端及可读存储介质
CN113327207B (zh) * 2021-06-03 2023-12-08 广州光锥元信息科技有限公司 应用于图像人脸优化的方法及装置
CN117437151B (zh) * 2023-12-21 2024-03-08 成都市晶林科技有限公司 一种噪声抑制的伪彩映射方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248150A (zh) * 2017-07-31 2017-10-13 杭州电子科技大学 一种基于导向滤波显著区域提取的多尺度图像融合方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107248150A (zh) * 2017-07-31 2017-10-13 杭州电子科技大学 一种基于导向滤波显著区域提取的多尺度图像融合方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于多尺度分解和显著性区域提取的可见光红外图像融合方法;许磊 等;《激光与光电子学进展》;20171110;第54卷(第11期);第111003-1至111003-9页 *
基于显著性和导向滤波的图像融合算法研究;陈乐瑞 等;《工业控制计算机》;20160525;第29卷(第5期);第110-111页 *
显著性分析在对焦图像融合方面的应用;张学典 等;《光电工程》;20170430;第44卷(第4期);第435-441页 *

Also Published As

Publication number Publication date
CN109816617A (zh) 2019-05-28

Similar Documents

Publication Publication Date Title
CN109816617B (zh) 基于导向滤波和图论显著性的多模态医学图像融合方法
CN108549891B (zh) 基于背景与目标先验的多尺度扩散显著目标检测方法
CN106529447B (zh) 一种小样本人脸识别方法
Montazer et al. An improved radial basis function neural network for object image retrieval
CN107133496B (zh) 基于流形学习与闭环深度卷积双网络模型的基因特征提取方法
Bhatti et al. Advanced color edge detection using clifford algebra in satellite images
CN112634149B (zh) 一种基于图卷积网络的点云去噪方法
Ren et al. Infrared and visible image fusion based on variational auto-encoder and infrared feature compensation
CN109658351A (zh) 一种结合l0梯度约束和局部低秩矩阵恢复的高光谱图像去噪方法
CN104657951A (zh) 图像乘性噪声移除方法
CN113191968B (zh) 三维超声图像盲去噪模型的建立方法及其应用
Wang et al. The PAN and MS image fusion algorithm based on adaptive guided filtering and gradient information regulation
CN111563577B (zh) 基于Unet的跳跃层分频和多尺度鉴别的本征图像分解方法
CN103150722B (zh) 应用四元数分割与图论优化的外周血白细胞边缘提取方法
Lijun et al. Geo‐information mapping improves Canny edge detection method
Liu et al. Circle-net: An unsupervised lightweight-attention cyclic network for hyperspectral and multispectral image fusion
CN108090460A (zh) 基于韦伯多方向描述子的人脸表情识别特征提取算法
CN117350923A (zh) 基于GAN和Transformer的全色与多光谱遥感图像融合方法
CN110472495B (zh) 一种基于图形推理全局特征的深度学习人脸识别方法
Wang et al. [Retracted] A New Method of Denoising Crop Image Based on Improved SVD in Wavelet Domain
CN111340741A (zh) 基于四元数与l1范数的粒子群优化灰度图像增强方法
Zhang et al. An empirical study on the artificial intelligence-aided quantitative design of art images
Song et al. A Novel Fusion Framework Based on Adaptive PCNN in NSCT Domain for Whole‐Body PET and CT Images
CN108021874A (zh) 一种基于空-谱结合的高光谱端元提取预处理方法
CN113642596A (zh) 一种基于社区检测和双路自编码的脑网络分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant