CN103020931A - 基于方向波域隐马尔可夫树模型的多源图像融合方法 - Google Patents

基于方向波域隐马尔可夫树模型的多源图像融合方法 Download PDF

Info

Publication number
CN103020931A
CN103020931A CN2012104933282A CN201210493328A CN103020931A CN 103020931 A CN103020931 A CN 103020931A CN 2012104933282 A CN2012104933282 A CN 2012104933282A CN 201210493328 A CN201210493328 A CN 201210493328A CN 103020931 A CN103020931 A CN 103020931A
Authority
CN
China
Prior art keywords
directionlet
coefficient
image
value
frequency coefficient
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012104933282A
Other languages
English (en)
Other versions
CN103020931B (zh
Inventor
白静
焦李成
王爽
赵白妮
胡波
马文萍
马晶晶
李阳阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xi'an Wien Think Union Data Technology Co Ltd
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN201210493328.2A priority Critical patent/CN103020931B/zh
Publication of CN103020931A publication Critical patent/CN103020931A/zh
Application granted granted Critical
Publication of CN103020931B publication Critical patent/CN103020931B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于方向波域隐马尔可夫树模型的多源图像融合方法,主要解决现有方法中融合规则简单和块效应明显的问题。其实现步骤是:(1)从原始图像得到一幅初期融合图像;(2)用方向波分解原始图像和初期融合图像;(3)建立初期融合图像的方向波域HMT模型,训练得出参数集估计值
Figure DDA00002477091600011
(4)利用得到原始图像的方向波高频系数的后验概率;(5)根据得到的后验概率,采用显著性测量融合规则对原始图像高频系数融合;(6)采用自适应加权融合规则对原始图像低频系数进行融合;(7)对融合后的方向波系数进行方向波逆变换得到融合图像。本发明能提取原始图像更丰富的奇异性特征,充分挖掘数据中的相关性,可用于多源图像的目标识别与计算机的后续处理。

Description

基于方向波域隐马尔可夫树模型的多源图像融合方法
技术领域
本发明属于图像处理技术领域,涉及对多源图像的融合方法,可用于多源图像的目标识别与计算机的后续处理。
背景技术
图像融合是一种对不同来源的图像进行综合处理的技术,早期被应用于多光谱卫星遥感图像的分析和处理中;20世纪80年代初期,Daily,Laner和Todd进行了雷达图像、Landsat-RBV图像、Landsat-MSS图像的融合实验。到80年代后期,图像融合技术开始引起人们的关注,并逐步利用遥感光谱图像的融合来进行地质、矿产、气候、环境的探测与研究。90年代后,随着遥感卫星JERS-1、ERS-1、Radarsat等的出现,图像融合技术成为遥感图像处理的研究热点,其研究领域扩展到对SAR图像、航拍图像、可见光图像、红外图像、医学图像的处理。近年来,图像融合技术已经成为计算机视觉、自动控制、机器人、目标识别跟踪、军事应用等领域的关键技术之一,在遥感、国土探测与规划、地理信息系统、反恐怖安全检测、军事国防方面的目标探测识别与精确定位,以及在农业产量评估、医学图像分析、环境保护和灾情检测与预报等领域的应用有着重要的意义。
传统的图像融合方法如线性加权法、主分量分析法等,这些方法虽然实现简单,但容易产生图像细节模糊。
80年代出现的基于多分辨率的方法主要有基于金字塔和基于小波变换的两种融合方法,其基本思想是首先对原始图像分别进行多尺度分解,在不同尺度上对图像进行融合,最后通过重构获得融合图像。不足之处是不能很好的捕捉图像的边缘和纹理信息,不能充分利用数据之间的相关性,“振铃效应”和块效应很明显。
之后Crouse等人对传统的基于小波变换的融合方法进行了改进,利用小波系数具有非高斯性和持续性的统计特性,同一尺度内及不同尺度间的邻域系数存在相关性的特性,将小波理论与隐马尔可夫模型HMM联系起来,提出了小波域隐马尔可夫模型;Jinzhong Yang等人采用小波域隐马尔可夫树HMT统计模型来捕捉小波系数不同尺度间的相关性,并将该模型用在图像融合上,应用统计学方法对模型参数进行训练来得到融合图像,这类方法存在以下不足:
1)小波系数低频部分的融合规则过于简单,导致许多信息丢失;
2)小波基的特点使得对图像特征的选择缺少方向性,只能有效地表达图像中水平、垂直和对角三个方向的信息,因而不能充分提取出原始图像中的细节信息,影响融合效果;
3)图像中的边缘和轮廓奇异性属于图像的各向异性特征,不能被各向同性小波变换有效地捕捉。
发明内容
本发明的目的在于针对现有方法存在的融合规则简单,未能充分捕捉图像中的边缘等奇异性特征,存在细节模糊和块效应的问题,提出一种基于方向波域隐马尔可夫模型的多源图像融合方法,以提高融合图像的质量。
本发明的技术思路是,利用基于小波变换的融合方法从两幅原始图像得到一幅初始融合图像,使用Velisavljevic′V等人提出的方向波即Directionlet变换,对两幅原始图像和初始融合图像分别进行分解,分别得到三幅图像的Directionlet低频系数和高频系数。对两幅原始图像的Directionlet低频系数进行自适应加权,得到融合图像的Directionlet低频系数;对初始融合图像的Directionlet高频系数建立HMT统计模型,根据Dempster等人提出的EM算法,分别计算两幅原始图像的Directionlet高频系数的后验概率,根据显著性测量的融合规则选择最优的Directionlet高频系数作为融合图像的Directionlet高频系数。通过Directionlet逆变换得到最终的融合图像。其实现步骤包括如下:
(1)输入两幅原始图像,并利用基于小波变换的融合方法从两幅原始图像中得到一幅初期融合图像;
(2)对两幅原始图像与得到的初期融合图像分别进行Directionlet变换,分别得到三幅图像的Directionlet低频系数和高频系数;
(3)对得到的初始融合图像的Directionlet高频系数建立HMT模型,构造该模型的参数集θ;
(4)利用期望最大算法即EM算法对构造的参数集θ进行训练得到它的估计值
Figure BDA00002477091400021
,根据
Figure BDA00002477091400022
分别计算两幅原始图像的每个Directionlet高频系数的后验概率;
(5)对两幅原始图像的Directionlet低频系数采用自适应加权融合规则进行融合,得到融合图像的Directionlet低频系数;
(6)根据步骤(4)中得到的参数集
Figure BDA00002477091400031
和后验概率,对两幅原始图像的Directionlet高频系数采用显著性测量的融合规则进行融合,得到融合图像的Directionlet高频系数;
(7)对上述的融合图像的Directionlet系数进行Directionlet逆变换得到融合图像。
本发明与现有技术相比具有以下优点:
1.本发明中采用了方向波对图像进行变换,相比基于小波变换的方法,能够提取出原始图像中更丰富的边缘和纹理等各向异性特征,能够充分利用原始图像的优势和互补信息,选择最佳的融合系数,且在融合过程中,能够抑制基于小波变换的融合方法存在的方向性混叠和“振铃现象”。
2.本发明利用HMT模型对图像的Directionlet高频系数建模,与传统的基于小波变换的方法相比,能充分挖掘数据之间的相关性,达到更好的融合效果。
3.本发明中,对原始图像的Directionlet低频分量采用自适应加权的融合规则,相比传统的取平均的融合规则更加合理。
本发明对多组类型的图像进行了融合测试,分别从视觉效果和客观评价指标方面对融合结果进行评价,结果均表明本发明方法是有效和可行的。
附图说明
图1是本发明的流程图;
图2是本发明中初期融合图像的方向波域HMT模型参数训练子流程图;
图3是本发明与其它方法对市区遥感图像的融合结果比较图;
图4是本发明与其它方法对高光谱光学相机拍摄的林区图像融合结果比较图;
图5是本发明方法与其它方法对多聚图像融合结果比较图。
具体实施方式
参照图1,对本发明的实现步骤如下:
步骤1:利用现有的基于小波变换的融合方法对两幅原始图像进行融合,得到一幅初期融合图像。
(1a)对两幅原始图像分别进行小波分解,得到其各自对应的小波低频系数和小波高频系数;
(1b)对上述的两幅原始图像的小波低频系数进行平均,得到初期融合图像的小波低频系数;
(1c)对上述的两幅原始图像的小波高频系数,取两者中绝对值较大的作为初期融合图像的小波高频系数;
(1d)对上述的初期融合图像的小波低频系数和高频系数进行小波逆变换,得到初期融合图像。
步骤2:把得到的初期融合图像作为标准图像,分别与待融合的两幅原始图像一起进行Directionlet变换。
(2a)给出一组为±30°,±45°,±60°,0°,90°的方向,并从给出的方向中任意选择两个,分别作为变换方向和队列方向,构造采样矩阵MΛ
M Λ = x 1 y 1 x 2 y 2 = d 1 d 2 ,
其中,x1,x2,y1,y2是构成采样矩阵MΛ的四个整数元素值,x1和y1由变换方向的斜率确定,x2和y2由队列方向的斜率确定,向量d1和d2分别为沿变换方向和队列方向的向量;
(2b)基于整数格理论通过采样矩阵MΛ将所述的两幅原始图像及初期融合图像依次划分为关于整数格Λ的|det(MΛ)|个陪集,每一个陪集对应一个位移矢量sk=(sk1,sk2),其中Λ是由被划分的图像构成的整数格,表达式为Λ={c1d1+c2d2,c1,c2∈Z},|det(MΛ)|是采样矩阵MΛ的行列式的绝对值,k=0,1,2,...,|det(MΛ)|-1,sk1,sk2∈Z,Z为整数域;
(2c)对每个陪集沿变换和队列方向分别进行两次和一次一维正交小波变换,得到相应的高频和低频子带。
步骤3:对得到的初期融合图像的Directionlet高频系数建立HMT模型,构造模型参数集θ。
(3a)对初始融合图像中的每个Directionlet高频系数建立两状态的高斯混合模型,分别得到其高斯混合模型的参数μj,m
Figure BDA00002477091400051
Figure BDA00002477091400052
其中,μj,m表示序号为j的节点的状态变量Sj取值为m时高斯模型的均值,
Figure BDA00002477091400053
表示序号为j的节点的状态变量Sj取值为m时高斯模型的方差,
Figure BDA00002477091400054
表示序号为j的节点的状态变量Sj取值为m时的概率,
m为状态数,取值为1或2;
(3b)利用Directionlet同一方向尺度系数状态间的依赖性,引入状态转移概率表示序号为j的节点的状态Sj为m时它的父节点状态Sρ(j)为n的转移概率,m和n为状态数,取值均为1或2;
(3c)利用上述所得参数组成HMT模型的参数集θ,即
Figure BDA00002477091400056
步骤4:利用期望最大算法即EM算法对构造的参数集θ进行训练,得到它的估计值
Figure BDA00002477091400057
由于图像的HMT模型是一种不完全数据的统计模型,因此本发明采用由Dempster等人在文献“Maximum likelihood from incomplete data via the EM algorithm”中提出的EM算法对HMT模型的参数进行训练。
参照图2,本步骤的具体实现如下:
(4a)选择一个初始模型估计θ0,设置迭代计数器l=0;
(4b)E步:计算每个Directionlet高频系数的隐状态变量S的概率权函数p(S|w,θl),并计算ES[lnf(w,S|θl)|w,θl],其中E(·)为期望函数,ln(·)为取对数,w为该高频系数的值,θl为θ0迭代l次后的值;
(4c)M步:更新参数θl+1=argmaxθES[lnf(w,S|θl)|w,θl],其中argmax(·)为求最大值函数;
(4d)判断|θl+1l|<δ是否满足,如果满足则循环终止,得到
Figure BDA00002477091400058
否则迭代计数器l=l+1,θl=θl+1,返回(4b)继续循环,其中δ为收敛条件,本发明中δ=1×10-4
步骤5:根据估计值
Figure BDA00002477091400061
分别计算两幅原始图像的每个Directionlet高频系数的后验概率。
根据步骤2中得到的两幅原始图像的Directionlet高频系数和步骤4中得到的估计值
Figure BDA00002477091400062
利用EM算法中的E步分别计算两幅原始图像中每个高频系数的后验概率
Figure BDA00002477091400063
其中Sj表示节点j的状态变量,j为该高频系数在HMT模型中的序号,w为该高频系数的值,m为状态数,取值为1或2。
步骤6:对两幅原始图像的Directionlet低频系数采用自适应加权融合规则进行融合,得到融合图像的Directionlet低频系数。
(6a)设两幅原始图像Directionlet系数的低频分量分别为A和B,分别计算A和B中以点(p1,p2)为中心,大小为M×M的邻域内的灰度偏差RA(p1,p2)和RB(p1,p2):
RA(p1,p2)=[∑|cA(p1+p1′,p2+p2′)-MA|2]1/2
RB(p1,p2)=[∑|cB(p1+p1′,p2+p2′)-MB|2]1/2
其中,cA(p1+p′1,p2+p′2)是A中坐标点为(p1+p′1,p2+p′2)处的系数值,
cB(p1+p′1,p2+p′2)是B中坐标点为(p1+p′1,p2+p′2)处的系数值,
(p′1,p′2)为在邻域内以点(p1,p2)为中心的偏移量,
MA是A中以点(p1,p2)为中心的邻域内系数的均值,
MB是B中以点(p1,p2)为中心的邻域内系数的均值,
p1,p2,p′1,p′2均为整数值;
(6b)确定上述A和B中每个系数的加权值为:
ωA(p1,p2)=RA(p1,p2)/(RA(p1,p2)+RB(p1,p2)),
ωB(p1,p2)=RB(p1,p2)/(RA(p1,p2)+RB(p1,p2)),
其中,ωA(p1,p2)为A中坐标为(p1,p2)的系数的加权值,
ωB(p1,p2)为B中坐标为(p1,p2)的系数的加权值;
(6c)利用上述加权值ωA(p1,p2)和ωB(p1,p2)计算融合图像的Directionlet低频系数cL(p1,p2),
cL(p1,p2)=ωA(p1,p2)·cA(p1,p2)+ωB(p1,p2)·cB(p1,p2),
其中cA(p1,p2)和cB(p1,p2)分别是A和B中坐标为(p1,p2)的系数值。
步骤7:根据步骤4中得到的估计值
Figure BDA00002477091400071
和后验概率,对两幅原始图像的Directionlet高频系数采用显著性测量的融合规则进行融合,得到融合图像的Directionlet高频系数。
(7a)设两幅原始图像的Directionlet系数的高频分量分别为C和D;
(7b)任意给定一个节点j,设C中节点j处的高频系数值为wC,D中节点j处的高频系数值为wD,比较wC的后验概率
Figure BDA00002477091400072
与wD的后验概率
Figure BDA00002477091400073
的大小,选择后验概率较大的系数值作为融合图像中该位置的Directionlet高频系数dj
d j = w C , P ( S j C = 2 | w C , θ ^ ) > P ( S j D = 2 | w D , θ ^ ) w D , P ( S j C = 2 | w C , θ ^ ) ≤ P ( S j D = 2 | w D , θ ^ ) ,
其中,
Figure BDA00002477091400075
Figure BDA00002477091400076
分别表示C和D中节点j的状态变量,取值为1时表示节点j处于小状态,取值为2时表示节点j处于大状态,
Figure BDA00002477091400077
为步骤(4)中迭代得到的参数集。
步骤8:对融合后的系数进行Directionlet逆变换得到融合图像。
本发明的融合效果通过以下几组仿真实验进一步说明。
需要说明的是,本发明所提出的方法要求待融合的两幅原始图像至少达到像素级配准,如果没有达到配准要求的源图像,则需先单独进行配准操作,然后再用本方法进行融合处理。本发明中,融合测试针对的是两幅原始图像融合的情况,对于三幅或三幅以上图像融合的问题,可以先对原始图像进行两两融合,再将融合结果进行两两融合,直到得到最终融合结果。本发明所用待融合的原始图像均已达到像素级配准。
1.仿真内容与结果
仿真1,利用本发明方法和其他三种现有方法对两幅遥感图像进行融合,结果如图3所示,其中:
图3(a)和图3(b)分别为待融合的市区遥感图像;
图3(c)为用拉普拉斯金字塔融合方法对图3(a)和图3(b)融合的结果图;
图3(d)为用基于小波变换融合方法对图3(a)和图3(b)融合的结果图;
图3(e)为用小波域HMT模型融合方法对图3(a)和图3(b)融合的结果图;
图3(f)为用本发明方法对图3(a)和图3(b)融合的结果。
仿真2,利用本发明方法和其他三种现有方法对两幅高光谱光学图像进行融合,结果如图4所示,其中:
图4(a)和图4(b)分别为待融合的林区高光谱光学图像;
图4(c)为用拉普拉斯金字塔融合方法对图4(a)和图4(b)融合的结果图;
图4(d)为用基于小波变换融合方法对图4(a)和图4(b)融合的结果图;
图4(e)为用小波域HMT模型融合方法对图4(a)和图4(b)融合的结果图;
图4(f)为用本发明方法对图4(a)和图4(b)融合的结果。
仿真3,利用本发明方法和其他三种现有方法对两幅多聚焦图像进行融合,结果如图5所示,其中:
图5(a)为待融合的左聚焦图像;
图5(b)为待融合的右聚焦图像
图5(c)为用拉普拉斯金字塔融合方法对图5(a)和图5(b)融合的结果图;
图5(d)为用基于小波变换融合方法对图5(a)和图5(b)融合的结果图;
图5(e)为用小波域HMT模型融合方法对图5(a)和图5(b)融合的结果图;
图5(f)为用本发明方法对图5(a)和图5(b)融合的结果。
2.仿真结果分析
(2a)从视觉效果上对图3,图4,图5中各方法的融合结果进行主观评价。
可以看出,本发明方法的融合结果能更好的满足人眼对图像的视觉感受,在边缘和细节保持上都优于其它融合方法,整幅图像看起来比较清晰,融合后的目标场景比较真实,这说明本发明的融合图像较多的保留了待融合图像的细节信息,较少的引入了模糊,而拉普拉斯方法所得的融合图像看起来不够清晰,图像细节信息丢失严重,基于小波变换的融合方法的结果在图像边缘处有明显的锯齿和模糊失真现象,图像中目标场景不是很清晰,存在一定程度的失真现象。
(2b)从客观评价指标上对图3,图4,图5中各方法的融合结果进行评价。
目前,对融合图像的客观评价还没有统一的评价指标,本发明中采用均值,标准差,信息熵,平均梯度,均方根交叉熵作为客观评价指标对融合图像进行评价,所得客观评价指标的数值结果如表1,表2,表3所示。
表1.对图3中各方法的图像融合结果的定量分析
Figure BDA00002477091400091
表2.对图4中各方法的图像融合结果的定量分析
Figure BDA00002477091400092
表3.对图5中各方法的图像融合结果的定量分析
从表1,表2,表3中可以看出,这四种融合方法中的任何一种方法的融合结果在某项客观评价指标上可能会有自身的优势,但没有一种方法能使所有客观评价指标达到最优。综合考虑这几项指标,比起其它方法,本发明方法能够使较多的客观评价指标达到最优,说明本发明的融合方法能综合提高融合图像的信息量,可以得到较好的融合效果。
以上实验结果表明,相比其他三种现有方法,本发明所得融合图像无论从视觉效果还是从客观评价指标方面均有所改善,进而说明本发明所述方法用于图像融合是有效和可行的。

Claims (5)

1.一种基于方向波域隐马尔可夫树模型的多源图像融合方法,包括如下步骤:
(1)输入两幅原始图像,并利用基于小波变换的融合方法从两幅原始图像中得到一幅初期融合图像;
(2)对两幅原始图像与得到的初期融合图像分别进行Directionlet变换,分别得到三幅图像的Directionlet低频系数和高频系数;
(3)对得到的初始融合图像的Directionlet高频系数建立HMT模型,构造该模型的参数集θ;
(4)利用期望最大算法即EM算法对构造的参数集θ进行训练得到它的估计值根据分别计算两幅原始图像的每个Directionlet高频系数的后验概率;
(5)对两幅原始图像的Directionlet低频系数采用自适应加权融合规则进行融合,得到融合图像的Directionlet低频系数;
(6)根据步骤(4)中得到的参数集
Figure FDA00002477091300013
和后验概率,对两幅原始图像的Directionlet高频系数采用显著性测量的融合规则进行融合,得到融合图像的Directionlet高频系数;
(7)对上述的融合图像的Directionlet系数进行Directionlet逆变换得到融合图像。
2.根据权利要求1所述的多源图像融合方法,其中步骤(2)所述的对两幅原始图像与得到的初期融合图像分别进行Directionlet变换,按如下步骤进行:
(2a)给出一组为±30°,±45°,±60°,0°,90°的方向,并从给出的方向中任意选择两个,分别作为变换方向和队列方向,构造采样矩阵MΛ
M Λ = x 1 y 1 x 2 y 2 = d 1 d 2 ,
其中,x1,x2,y1,y2是构成采样矩阵MΛ的四个整数元素值,x1和y1由变换方向的斜率确定,x2和y2由队列方向的斜率确定,向量d1和d2分别为沿变换方向和队列方向的向量;
(2b)基于整数格理论通过采样矩阵MΛ将所述的两幅原始图像及初期融合图像依次划分为关于整数格Λ的|det(MΛ)|个陪集,每一个陪集对应一个位移矢量sk=(sk1,sk2),其中Λ是由被划分的图像构成的整数格,表达式为Λ={c1d1+c2d2,c1,c2∈Z},|det(MΛ)|是采样矩阵MΛ的行列式的绝对值,k=0,1,2,...,|det(MΛ)|-1,sk1,sk2∈Z,Z为整数域;
(2c)对每个陪集沿变换和队列方向分别进行两次和一次一维正交小波变换,得到相应的高频和低频子带。
3.根据权利要求1所述的多源图像融合方法,其中步骤(3)所述的对得到的初始融合图像的Directionlet高频系数建立HMT模型,构造该模型的参数集θ,按如下步骤进行:
(3a)初始融合图像中的每个Directionlet高频系数建立两状态的高斯混合模型,分别得到其高斯混合模型的参数μj,m
Figure FDA00002477091300021
Figure FDA00002477091300022
其中,μj,m表示序号为j的节点的状态变量Sj取值为m时高斯模型的均值,
表示序号为j的节点的状态变量Sj取值为m时高斯模型的方差,
Figure FDA00002477091300024
表示序号为j的节点的状态变量Sj取值为m时的概率,
m为状态数,取值为1或2;
(3b)利用Directionlet同一方向尺度系数状态间的依赖性,引入状态转移概率
Figure FDA00002477091300025
表示序号为j的节点的状态Sj为m时它的父节点状态Sρ(j)为n的转移概率,m和n为状态数,取值均为1或2;
(3c)利用上述所得参数组成HMT模型的参数集θ,即
Figure FDA00002477091300026
4.根据权利要求1所述的多源图像融合方法,其中步骤(5)所述的对两幅原始图像的Directionlet低频系数采用自适应加权融合规则进行融合,按如下步骤进行:
(5a)设两幅原始图像Directionlet系数的低频分量分别为A和B,分别计算A和B中以点(p1,p2)为中心,大小为M×M的邻域内的灰度偏差RA(p1,p2)和RB(p1,p2):
RA(p1,p2)=[∑|cA(p1+p1′,p2+p2′)-MA|2]1/2
RB(p1,p2)=[∑|cB(p1+p1′,p2+p2′)-MB|2]1/2
其中,cA(p1+p′1,p2+p′2)是A中坐标点为(p1+p′1,p2+p′2)处的系数值,
cB(p1+p′1,p2+p′2)是B中坐标点为(p1+p′1,p2+p′2)处的系数值,
(p′1,p′2)为在邻域内以点(p1,p2)为中心的偏移量,
MA是A中以点(p1,p2)为中心的邻域内系数的均值,
MB是B中以点(p1,p2)为中心的邻域内系数的均值,
p1,p2,p′1,p′2均为整数值;
(5b)确定上述A和B中每个系数的加权值为:
ωA(p1,p2)=RA(p1,p2)/(RA(p1,p2)+RB(p1,p2)),
ωB(p1,p2)=RB(p1,p2)/(RA(p1,p2)+RB(p1,p2)),
其中,ωA(p1,p2)为A中坐标为(p1,p2)的系数的加权值,
ωB(p1,p2)为B中坐标为(p1,p2)的系数的加权值;
(5c)利用上述加权值ωA(p1,p2)和ωB(p1,p2)计算融合图像的Directionlet低频系数cL(p1,p2),
cL(p1,p2)=ωA(p1,p2)·cA(p1,p2)+ωB(p1,p2)·cB(p1,p2),
其中cA(p1,p2)和cB(p1,p2)分别是A和B中坐标为(p1,p2)的系数值。
5.根据权利要求1所述的多源图像融合方法,其中步骤(6)所述的对两幅原始图像的Directionlet高频系数采用显著性测量的融合规则进行融合,按如下步骤进行:
(6a)设两幅原始图像的Directionlet系数的高频分量分别为C和D;
(6b)任意给定一个节点j,设C中节点j处的高频系数值为wC,D中节点j处的高频系数值为wD,比较wC的后验概率
Figure FDA00002477091300031
与wD的后验概率的大小,选择后验概率较大的系数值作为融合图像中该位置的Directionlet高频系数dj
d j = w C , P ( S j C = 2 | w C , θ ^ ) > P ( S j D = 2 | w D , θ ^ ) w D , P ( S j C = 2 | w C , θ ^ ) ≤ P ( S j D = 2 | w D , θ ^ ) ,
其中,
Figure FDA00002477091300042
Figure FDA00002477091300043
分别表示C和D中节点j的状态变量,取值为1时表示节点j处于小状态,取值为2时表示节点j处于大状态,为步骤(4)中迭代得到的估计值。
CN201210493328.2A 2012-11-27 2012-11-27 基于方向波域隐马尔可夫树模型的多源图像融合方法 Expired - Fee Related CN103020931B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201210493328.2A CN103020931B (zh) 2012-11-27 2012-11-27 基于方向波域隐马尔可夫树模型的多源图像融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201210493328.2A CN103020931B (zh) 2012-11-27 2012-11-27 基于方向波域隐马尔可夫树模型的多源图像融合方法

Publications (2)

Publication Number Publication Date
CN103020931A true CN103020931A (zh) 2013-04-03
CN103020931B CN103020931B (zh) 2015-05-27

Family

ID=47969498

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201210493328.2A Expired - Fee Related CN103020931B (zh) 2012-11-27 2012-11-27 基于方向波域隐马尔可夫树模型的多源图像融合方法

Country Status (1)

Country Link
CN (1) CN103020931B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400356A (zh) * 2013-08-21 2013-11-20 东南大学 一种基于通用隐马尔可夫树模型的加权图像压缩感知方法
CN107133938A (zh) * 2016-08-31 2017-09-05 电子科技大学 基于小波系数统计模型的鲁棒图像融合方法
CN108198148A (zh) * 2017-12-07 2018-06-22 北京小米移动软件有限公司 图像处理的方法及装置
CN109377466A (zh) * 2018-09-28 2019-02-22 中国科学院长春光学精密机械与物理研究所 一种多小波变换矢量图像融合方法
CN110348542A (zh) * 2019-07-24 2019-10-18 北京师范大学 一种遥感图像特征与地理空间位置的深度融合方法
CN111815550A (zh) * 2020-07-04 2020-10-23 淮阴师范学院 一种基于灰度共生矩阵的红外与可见光图像融合方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425184A (zh) * 2008-10-30 2009-05-06 西安电子科技大学 基于第二代Bandelet域隐马尔科夫树模型的图像分割方法
CN101685158A (zh) * 2009-07-02 2010-03-31 西安电子科技大学 基于隐马尔科夫树模型的sar图像去噪方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101425184A (zh) * 2008-10-30 2009-05-06 西安电子科技大学 基于第二代Bandelet域隐马尔科夫树模型的图像分割方法
CN101685158A (zh) * 2009-07-02 2010-03-31 西安电子科技大学 基于隐马尔科夫树模型的sar图像去噪方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
JING BAI,JIAQI ZHAO,LC JIAO: "Image Segmentation Using Directionlet-domain Hidden Markov Tree Models", 《RADAR (RADAR), 2011 IEEE CIE INTERNATIONAL CONFERENCE ON》, 27 October 2011 (2011-10-27) *
张冬翠: "基于Directionlet变换的图像去噪和融合", 《西安电子科技大学硕士论文》, 15 December 2010 (2010-12-15) *
李晖晖,刘坤: "基于Contourlet域隐马尔可夫树模型的图像融合", 《计算机工程与应用》, 11 November 2011 (2011-11-11) *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103400356A (zh) * 2013-08-21 2013-11-20 东南大学 一种基于通用隐马尔可夫树模型的加权图像压缩感知方法
CN103400356B (zh) * 2013-08-21 2016-02-03 东南大学 一种基于通用隐马尔可夫树模型的加权图像压缩感知方法
CN107133938A (zh) * 2016-08-31 2017-09-05 电子科技大学 基于小波系数统计模型的鲁棒图像融合方法
CN107133938B (zh) * 2016-08-31 2019-08-13 电子科技大学 基于小波系数统计模型的鲁棒图像融合方法
CN108198148A (zh) * 2017-12-07 2018-06-22 北京小米移动软件有限公司 图像处理的方法及装置
CN108198148B (zh) * 2017-12-07 2022-08-05 北京小米移动软件有限公司 图像处理的方法及装置
CN109377466A (zh) * 2018-09-28 2019-02-22 中国科学院长春光学精密机械与物理研究所 一种多小波变换矢量图像融合方法
CN110348542A (zh) * 2019-07-24 2019-10-18 北京师范大学 一种遥感图像特征与地理空间位置的深度融合方法
CN111815550A (zh) * 2020-07-04 2020-10-23 淮阴师范学院 一种基于灰度共生矩阵的红外与可见光图像融合方法
CN111815550B (zh) * 2020-07-04 2023-09-15 淮阴师范学院 一种基于灰度共生矩阵的红外与可见光图像融合方法

Also Published As

Publication number Publication date
CN103020931B (zh) 2015-05-27

Similar Documents

Publication Publication Date Title
CN103020931B (zh) 基于方向波域隐马尔可夫树模型的多源图像融合方法
CN104077599B (zh) 基于深度神经网络的极化sar图像分类方法
CN107341786A (zh) 小波变换与联合稀疏表示的红外与可见光图像融合方法
CN105787439A (zh) 一种基于卷积神经网络的深度图像人体关节定位方法
CN109035188A (zh) 一种基于目标特征驱动的智能图像融合方法
CN105335975B (zh) 基于低秩分解和直方图统计的极化sar图像分割方法
CN105760821A (zh) 基于核空间的分类聚集稀疏表示的人脸识别方法
CN109726748B (zh) 一种基于频带特征融合的gl-cnn遥感图像场景分类方法
CN104268847A (zh) 一种基于交互非局部均值滤波的红外与可见光图像融合方法
CN104268833A (zh) 基于平移不变剪切波变换的图像融合新方法
CN104732244A (zh) 基于小波变换、多策略pso和svm集成的遥感图像分类方法
CN103116881A (zh) 基于PCA与Shearlet变换的遥感图像融合方法
CN113298147B (zh) 基于区域能量和直觉模糊集的图像融合方法及装置
CN112381144A (zh) 非欧与欧氏域空谱特征学习的异构深度网络方法
CN105809650A (zh) 一种基于双向迭代优化的图像融合方法
CN103198456B (zh) 基于方向波域隐马尔可夫树模型的遥感图像融合方法
CN102096913A (zh) 压缩感知框架下的多策略图像融合方法
Liu et al. Image fusion algorithm based on simplified PCNN in nonsubsampled contourlet transform domain
Liu et al. Fusion technique for SAR and gray visible image based on hidden Markov model in non-subsample shearlet transform domain
Zhao et al. Classification method of LiDAR point cloud based on threedimensional convolutional neural network
CN103345739B (zh) 一种基于纹理的高分辨率遥感影像建筑区指数计算方法
Jiang Hyperspectral remote sensing image classification based on deep learning
Yang et al. Semantic perceptive infrared and visible image fusion Transformer
Woldamanuel Grayscale Image Enhancement Using Water Cycle Algorithm
Hussein et al. Semantic segmentation of aerial images using u-net architecture

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20180705

Address after: 710077 Shaanxi provincial science and technology resources co ordination center, room 10, 10 zhang85 Road, Xi'an high tech Zone, A405, China

Patentee after: Xi'an Wien think Union Data Technology Co., Ltd.

Address before: No. 2 Taibai Road, Xi'an, Shaanxi Province, Shaanxi

Patentee before: Xidian University

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20150527

Termination date: 20181127