CN103198456A - 基于方向波域隐马尔可夫树模型的遥感图像融合方法 - Google Patents
基于方向波域隐马尔可夫树模型的遥感图像融合方法 Download PDFInfo
- Publication number
- CN103198456A CN103198456A CN2013100931475A CN201310093147A CN103198456A CN 103198456 A CN103198456 A CN 103198456A CN 2013100931475 A CN2013100931475 A CN 2013100931475A CN 201310093147 A CN201310093147 A CN 201310093147A CN 103198456 A CN103198456 A CN 103198456A
- Authority
- CN
- China
- Prior art keywords
- directionlet
- brightness
- component
- frequency coefficient
- high frequency
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于方向波域隐马尔可夫树模型的遥感图像融合方法,主要解决HIS方法存在光谱失真以及小波变换方法方向信息不足的问题。其实现步骤是:(1)将多光谱图像进行HIS变换,得到H、I、S三个分量;(2)将全色图像和I分量进行方向波变换;(3)对高频系数分别建立HMT模型,训练得出参数集估计值,并计算后验概率;(4)根据后验概率,选择最优的高频系数;(5)采用遗传算法的融合规则对低频系数进行融合;(6)对融合后的系数进行方向波逆变换得到新的I分量,再结合H、S分量进行HIS逆变换,得到最终融合图像。本发明能充分提取源图像的各向异性特征,充分挖掘数据中的相关性,可在提高融合图像细节信息的同时更好的保持多光谱图像的光谱特性不变。
Description
技术领域
本发明属于图像处理技术领域,涉及对多光谱与全色遥感图像的融合技术,可用于军事、农业、地质、海洋、气象以及环保等领域。
背景技术
随着遥感技术的发展,面向各种复杂应用的军用和民用传感器大量涌现。在这些多传感器系统中,信息表现形式的多样性,信息容量、处理速度的要求等都大大超出了人脑的信息综合能力。由于不同类型的传感器信息之间存在一定的冗余性和互补性,如何从采集的数据中提取出更丰富、更可靠、更精确的信息成为当前面临的新问题,于是,一门被称之为信息融合的技术便应运而生。
图像融合是信息融合的重要分支。随着数字传感技术的普及,越来越多的图像传感器被应用于各个领域,这些传感器具有不同的成像机理或者工作于不同的波长范围,可以根据不同的工作环境或者要求,实现不同的图像数据采集功能。图像融合就是将两个或多个来自不同时间、不同媒质或不同表达方式的同一对象的图像进行空间配准,然后采用一定的算法将各图像中所含的优势或者互补信息有机地结合起来产生新图像的技术。图像融合技术通过综合来自多个传感器的图像,扩大了传感器的成像范围、综合了各个传感器的成像优势、提高了获取信息的准确率,具有良好的容错性和鲁棒性,因此被广泛应用于目标识别、计算机视觉、遥感、医学图像处理以及军事应用等领域。
多光谱与全色遥感图像融合是图像融合中一个重要的研究领域。多光谱图像具有丰富的颜色特征,但是缺乏空间细节信息,而高分辨率全色图像分辨率高,却缺少光谱信息,两者融合的目的旨在提高低分辨率多光谱图像空间分辨率的同时尽可能地保留其光谱特性,从而获得一幅光谱信息丰富且细节纹理清晰的融合图像,以便于人眼的观察和计算机的后续处理。
传统的多光谱与全色遥感图像融合方法主要有加权平均方法,基于HIS变换的方法,基于主分量分析(PCA)的方法,基于金字塔变换的方法以及基于小波变换的方法等,但这些方法均有其自身的局限性。加权平均的图像融合方法降低了图像的对比度;基于HIS变换的方法会使融合图像的光谱特性发生扭曲,产生光谱退化现象;基于主分量分析的方法要求被替换和替换的数据之间有较强的相关性,通常情况下,这种条件并不成立,因此导致融合效果不太理想;基于金字塔的方法利用其多尺度、多分辨率的优势,得到了较好的图像融合效果,但由于进行拉普拉斯金字塔分解的过程中,会产生大量的冗余信息,导致融合过程的计算量增大,不利于实时性处理;此外由于图像的金字塔变换方向有限,导致其不能更好的扑捉源图像中的方向信息;基于小波变换方法得到的融合图像细节丰富,纹理清晰,视觉效果优于其他方法,这是由于小波变换具有其它方法所不具备的优良特性:小波分析是一种新的多分辨率分析工具;小波是非冗余的,使得图像经小波分解后的数据总量不会增大;由于人眼对不同方向的高频分量具有不同分辨率,小波分解有方向性,能满足人眼的视觉要求。但小波变换也有其自身的局限性:由一维小波生成的可分离小波,其基函数只有水平,垂直和对角方向,故不能“最优”表示高维空间的奇异性;在标准的二维小波变换DWT中,同尺度下沿水平方向的一维滤波及采样次数与垂直方向相同,是各向同性的,但是图像的边缘和轮廓奇异性却属于图像的各向异性特征,不能被标准二维小波变换有效地捕捉;正交小波变换不具有平移不变性,这会导致图像的边缘部分出现振铃效应,即在一些特征边缘出现虚假轮廓,这使得图像特征的定位和表达不够稳健。
发明内容
本发明的目的在于针对上述现有方法的不足,提出一种基于方向波域隐马尔可夫树模型的遥感图像融合方法,以充分捕捉图像中的边缘等各向异性特征,减少光谱扭曲和细节模糊现象,获得包含丰富光谱信息和细节信息的融合图像。
本发明的技术思路是,利用HIS变换对多光谱图像进行分解得到H、I、S三个分量,将全色图像和I分量进行直方图匹配得到新的全色图像。使用Velisavljevic'V等人提出的方向波即Directionlet变换,对新的全色图像和I分量分别进行分解,得到各自的Directionlet低频系数和高频系数,对Directionlet低频系数采用基于遗传算法的融合规则,得到新的I分量的Directionlet低频系数;对Directionlet高频系数分别建立隐马尔可夫树即HMT统计模型,根据Dempster等人提出的EM算法,分别计算新的全色图像和I分量的Directionlet高频系数的后验概率,根据显著性测量的融合规则选择最优的Directionlet高频系数作为新的I分量的Directionlet高频系数。通过Directionlet逆变换来得到新的I分量,再结合H、S分量由HIS空间逆变换到RGB空间即可得到融合图像。其实现步骤包括如下:
(1)将多光谱图像由红-绿-蓝RGB空间变换到色度-亮度-饱和度HIS空间,得到色度H、亮度I、饱和度S三个分量;
(2)将全色图像与亮度I分量进行直方图匹配,使新的全色图像与亮度I分量具有较强的相关性;
(3)对新的全色图像和亮度I分量分别进行Directionlet变换,得到新的全色图像和亮度I分量的低频系数和高频系数;
(4)对新的全色图像的Directionlet高频系数和亮度I分量的Directionlet高频系数分别建立HMT模型,并构造新的全色图像的模型参数集θ1和亮度I分量的模型参数集θ2;
(5)利用期望最大算法即EM算法分别对新的全色图像的模型参数集θ1和亮度I分量的模型参数集θ2进行训练,得到所述θ1的估计值和所述θ2的估计值根据计算新的全色图像的每个Directionlet高频系数的后验概率PA,根据计算亮度I分量的每个Directionlet高频系数的后验概率PB;
(6)根据新的全色图像的后验概率PA和亮度I分量的后验概率PB,对新的全色图像的Directionlet高频系数和亮度I分量的Directionlet高频系数采用显著性测量的融合规则进行融合,得到新的亮度I分量的Directionlet高频系数
(9)将上述得到的新的亮度I分量与色度H、饱和度S分量相结合,由色度-亮度-饱和度HIS空间反变换到红-绿-蓝RGB空间,即可得到最终融合图像。
本发明与现有技术相比具有以下优点:
1.本发明中采用了Directionlet变换对图像进行分解,相比基于小波变换的方法,能够提取出全色图像中更丰富的边缘和纹理等各向异性特征,且在融合过程中,能够抑制基于小波变换的融合方法存在的方向性混叠和“振铃现象”。
2.本发明利用隐马尔可夫树HMT模型对图像的Directionlet高频系数建模,与传统的基于小波变换的方法相比,能充分挖掘出不同尺度系数之间的相关性,使得整幅图像看起来更加光滑,减少块状效应的产生。
3.本发明对新的全色图像和亮度I分量的Directionlet低频系数采用基于遗传算法的融合规则,遗传算法是问题求解和最优化的有效工具,与传统的加权平均的融合规则相比,遗传算法可以求得最优的低频加权系数,充分利用待融合图像的优势信息,增强图像的对比度。
本发明对多光谱与全色遥感图像进行了融合测试,分别从视觉效果和客观评价指标方面对融合结果进行了评价,结果均表明本发明方法是有效和可行的。
附图说明
图1是本发明的流程图;
图2是Directionlet域隐马尔可夫树HMT模型示意图;
图3是本发明的Directionlet域隐马尔可夫树HMT模型参数训练流程图;
图4是本发明与其它方法对多光谱与全色遥感图像融合结果比较图;
图5是本发明与其它方法对多光谱与全色遥感图像融合结果比较图。
具体实施方式
参照图1,本发明的实现步骤如下:
步骤1:对多光谱图像进行色度-亮度-饱和度HIS变换,获得HIS色彩空间的色度H、亮度I、饱和度S三个分量。
(1a)对多光谱图像的红R、绿G、蓝B三个分量分别进行归一化处理,得到其归一化分量r、g、b:
(1b)利用上述红R、绿G、蓝B三个分量的归一化分量r、g、b来计算色度H、亮度I、饱和度S三个分量的归一化分量h、i、s:
i=(R+G+B)(3·255),i∈[0,1],
s=1-3·min(r,g,b),s∈[0,1];
(1c)将上述归一化分量h、i、s进行转化,得到色度H、亮度I、饱和度S:
H=h×180/π,I=i×255,S=s×100。
步骤2:将全色图像与多光谱图像的亮度I分量进行直方图匹配,使新的全色图像与亮度I分量具有较强的相关性,否则会导致融合图像颜色失真。
直方图匹配是一种对数字图像进行增强的处理方法,其目的并不是为了直接去增强一幅图像,而是为了使一幅图像与另一幅图像的色调尽可能保持一致。这里,以亮度I分量的直方图作为参考对象,去调整全色图像的直方图,使两者具有相似的直方图分布特征。
步骤3:对新的全色图像和亮度I分量分别进行Directionlet变换,得到新的全色图像和亮度I分量的低频系数和高频系数。
(3a)给出一组为±30°,±45°,±60°,0°,90°的方向,并从给出的方向中任意选择两个分别作为变换方向和队列方向,构造采样矩阵MΛ,
其中,x1,x2,y1,y2是构成采样矩阵MΛ的四个整数元素值,x1和y1由变换方向的斜率确定,x2和y2由队列方向的斜率确定,向量d1和d2分别为沿变换方向和队列方向的向量;
(3b)基于整数格理论通过采样矩阵MΛ将新的全色图像和亮度I分量依次划分为关于整数格Λ的|det(MΛ)|个陪集,每一个陪集对应一个位移矢量sk=(sk1,sk2),其中Λ是由被划分的图像构成的整数格,表达式为Λ={c1d1+c2d2,c1,c2∈Z},|det(MΛ)|是采样矩阵MΛ的行列式的绝对值,k=0,1,2,...,|det(MΛ)|-1,sk1,sk2∈Z,Z为整数域;
(3c)对每个陪集沿变换和队列方向分别进行两次和一次一维正交小波变换,得到相应的高频和低频子带。
步骤4:根据新的全色图像的Directionlet高频系数来构造新的全色图像的隐马尔可夫树HMT模型参数集θ1;根据亮度I分量的Directionlet高频系数来构造亮度I分量的隐马尔可夫树HMT模型参数集θ2。
图像的Directionlet域隐马尔可夫树HMT模型如图2,其中黑色节点代表Directionlet高频系数,白色节点代表与Directionlet高频系数相联系的“隐”状态,连接线代表状态间的依赖关系,该Directionlet域隐马尔可夫树HMT模型参数构造过程如下:
其中,μj,m表示序号为j的节点的状态变量Sj取值为m时高斯模型的均值,
表示序号为j的节点的状态变量Sj取值为m时的概率,
m为状态数,取值为1或2;
(4b)利用Directionlet同一方向尺度系数状态间的马尔可夫依赖性,引入状态转移概率 表示序号为j的节点的状态Sj为m时它的父节点状态Sρ(j)为n的转移概率,m和n为状态数,取值均为1或2;
(4c)利用上述所得参数组成隐马尔可夫树HMT模型的参数集θ,即 θ取θ1或者θ2。
步骤5:利用期望最大算法即EM算法分别对新的全色图像的模型参数集θ1和亮度I分量的模型参数集θ2进行训练,得到所述θ1的估计值和所述θ2的估计值
由于图像的隐马尔可夫树HMT模型是一种不完全数据的统计模型,因此本发明采用由Dempster等人在文献“Maximum likelihood from incomplete data via the EMalgorithm”中提出的EM算法对隐马尔可夫树HMT模型的参数进行训练。
参照图3,本步骤的具体实现如下:
(5a)选择一个初始模型估计θ0,设置迭代计数器l=0;
(5b)E步:计算每个Directionlet高频系数的隐状态变量S的概率权函数p(S|w,θl),并计算ES[lnf(w,S|θl)|w,θl],其中E(·)为期望函数,ln(·)为取对数,w为该高频系数的值,θl为θ0迭代l次后的值;
(5c)M步:更新参数θl+1=argmaxθES[lnf(w,S|θl)|w,θl],其中argmax(·)为求最大值函数;
(5d)判断|θl+1-θl|<δ是否满足,如果满足则循环终止,得到否则迭代计数器l=l+1,θl=θl+1,返回(5b)继续循环,其中δ为收敛条件,本发明中δ=1×10-4,θ取θ1或者θ2,取或者
根据步骤3中得到的新的全色图像的Directionlet高频系数和亮度I分量的Directionlet高频系数以及步骤5中得到的估计值和利用EM算法中的E步计算新的全色图像中每个高频系数的后验概率和亮度I分量中每个高频系数的后验概率其中和表示新的全色图像的高频系数和亮度I分量的高频系数在节点j的状态变量,j为位置坐标,和为新的全色图像和亮度I分量的高频系数,m为状态数,取值为1或2。
步骤7:根据新的全色图像的后验概率和亮度I分量的后验概率,对新的全色图像的Directionlet高频系数和亮度I分量的Directionlet高频系数采用显著性测量的融合规则进行融合,得到新的亮度I分量的Directionlet高频系数。
(7b)任意给定一个节点j,所述中节点j处的高频系数值为所述中节点j处的高频系数值为所述中节点j处的高频系数值为比较的后验概率与的后验概率的大小,选择后验概率较大的系数作为新的亮度I分量中节点j的Directionlet高频系数
步骤8:对新的全色图像的Directionlet低频系数和亮度I分量的Directionlet低频系数采用基于遗传算法的融合规则,得到新的亮度I分量的Directionlet低频系数。
在基于遗传算法的融合规则中,适应度函数可以根据实际的图像融合目的来选择。本发明选择图像的信息熵作为适应度函数,种群大小为50,最大进化代数为100,杂交概率为0.9,变异概率为0.01,离散精度为0.001。
步骤9:对上述新的亮度I分量的Directionlet低频系数和高频系数进行Directionlet逆变换,得到新的亮度I分量。
步骤10:将新的亮度I分量与上述色度H、饱和度S分量进行HIS逆变换为红-绿-蓝RGB空间,即可得到最终融合图像。
本发明的融合效果通过多光谱与全色遥感图像的融合仿真实验进一步说明。
1.仿真内容与结果
仿真1,利用本发明方法和基于小波域隐马尔可夫树HMT模型的方法对多光谱与全色遥感图像进行融合,结果如图4所示,其中:
图4(a)为多光谱图像;
图4(b)为全色图像;
图4(c)为基于小波域隐马尔可夫树HMT模型的方法对图4(a)和图4(b)融合的结果图;
图4(d)为本发明方法对图4(a)和图4(b)融合的结果图。
仿真2,利用本发明方法和基于小波域隐马尔可夫树HMT模型的方法对多光谱与全色遥感图像进行融合,结果如图5所示,其中:
图5(a)为多光谱图像;
图5(b)为全色图像;
图5(c)为基于小波域隐马尔可夫树HMT模型的方法对图5(a)和图5(b)融合的结果图;
图5(d)为本发明方法对图5(a)和图5(b)融合的结果图。
2.仿真结果分析
(2a)从视觉效果上对图4、图5中的融合结果进行主观评价。
从视觉效果上对上述融合图像进行评价,可以看出本发明方法在提高融合图像细节信息的同时更好地保留了多光谱图像的光谱信息,融合图像色彩更接近源多光谱图像,说明本发明方法引入了较少的光谱失真,因此视觉效果相比基于小波域隐马尔可夫树HMT模型的图像融合结果好;
(2b)从客观评价指标上对图4,图5中各方法的融合结果进行评价。
目前,对融合图像的客观评价还没有统一的评价指标,本发明中采用均值、标准差、信息熵、平均梯度、相关系数、偏差指数、光谱扭曲度作为客观评价指标对融合图像进行评价,所得客观评价指标的数值结果如表1所示。
表1多光谱与全色遥感图像融合结果的客观评价指标
从表1可以看出,本发明融合结果的大多数客观指标都优于基于小波域隐马尔可夫树HMT模型方法的融合结果,尤其是针对光谱信息的评价指标,说明本发明方法在提高融合图像细节信息的同时更好的保持了多光谱图像的光谱信息,即本发明方法在光谱保持度和空间分辨率提高上达到了很好的折中。
以上实验结果表明,相比基于小波域隐马尔可夫树HMT模型的方法,本发明所得融合图像无论从视觉效果还是从客观评价指标方面均得到了较满意的结果,进而说明本发明所述方法用于多光谱与全色遥感图像融合的有效和可行性。
Claims (4)
1.一种基于方向波域隐马尔可夫树模型的遥感图像融合方法,包括如下步骤:
(1)将多光谱图像由红-绿-蓝RGB空间变换到色度-亮度-饱和度HIS空间,得到色度H、亮度I、饱和度S三个分量;
(2)将全色图像与亮度I分量进行直方图匹配,使新的全色图像与亮度I分量具有较强的相关性;
(3)对新的全色图像和亮度I分量分别进行Directionlet变换,得到新的全色图像和亮度I分量的低频系数和高频系数;
(5)利用期望最大算法即EM算法分别对新的全色图像的模型参数集θ1和亮度I分量的模型参数集θ2进行训练,得到所述θ1的估计值和所述θ2的估计值根据θ1计算新的全色图像的每个Directionlet高频系数的后验概率PA,根据计算亮度I分量的每个Directionlet高频系数的后验概率PB;
(6)根据新的全色图像的后验概率PA和亮度I分量的后验概率PB,对新的全色图像的Directionlet高频系数和亮度I分量的Directionlet高频系数采用显著性测量的融合规则进行融合,得到新的亮度I分量的Directionlet高频系数
(9)将上述得到的新的亮度I分量与色度H、饱和度S分量相结合,由色度-亮度-饱和度HIS空间反变换到红-绿-蓝RGB空间,即可得到最终融合图像。
2.根据权利要求1所述的多光谱与全色遥感图像融合方法,其中步骤(3)所述的对新的全色图像和亮度I分量分别进行Directionlet变换,按如下步骤进行:
(2a)给出一组为±30°,±45°,±60°,0°,90°的方向,并从给出的方向中任意选择两个分别作为变换方向和队列方向,构造采样矩阵MΛ,
其中,x1,x2,y1,y2是构成采样矩阵MΛ的四个整数元素值,x1和y1由变换方向的斜率确定,x2和y2由队列方向的斜率确定,向量d1和d2分别为沿变换方向和队列方向的向量;
(2b)基于整数格理论通过采样矩阵MΛ将新的全色图像和亮度I分量依次划分为关于整数格Λ的|det(MΛ)|个陪集,每一个陪集对应一个位移矢量sk=(sk1,sk2),其中Λ是由被划分的图像构成的整数格,表达式为Λ={c1d1+c2d2,c1,c2∈Z},|det(MΛ)|是采样矩阵MΛ的行列式的绝对值,k=0,1,2,...,|det(MΛ)|-1,sk1,sk2∈Z,Z为整数域;
(2c)对每个陪集沿变换和队列方向分别进行两次和一次一维正交小波变换,得到相应的高频和低频子带。
3.根据权利要求1所述的多光谱与全色遥感图像融合方法,其中步骤(4)所述的对新的全色图像的Directionlet高频系数建立HMT模型,构造该模型的参数集θ1,按如下步骤进行:
m为状态数,取值为1或2;
(3b)利用Directionlet同一方向尺度系数状态间的马尔可夫依赖性,引入状态转移概率 表示序号为j的节点的状态Sj为m时它的父节点状态Sρ(j)为n的转移概率,m和n为状态数,取值均为1或2;
(3c)利用上述所得参数组成HMT模型的参数集θ1,即
4.根据权利要求1所述的多光谱与全色图像融合方法,其中步骤(6)所述的对新的全色图像的Directionlet高频系数和亮度I分量的Directionlet高频系数采用显著性测量的融合规则进行融合,按如下步骤进行:
(4b)任意给定一个节点j,所述中节点j处的高频系数值为所述中节点j处的高频系数值为所述中节点j处的高频系数值为比较的后验概率与的后验概率的大小,选择后验概率较大的系数作为亮度I的新的分量中节点j的Directionlet高频系数
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310093147.5A CN103198456B (zh) | 2013-03-21 | 2013-03-21 | 基于方向波域隐马尔可夫树模型的遥感图像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310093147.5A CN103198456B (zh) | 2013-03-21 | 2013-03-21 | 基于方向波域隐马尔可夫树模型的遥感图像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103198456A true CN103198456A (zh) | 2013-07-10 |
CN103198456B CN103198456B (zh) | 2015-06-03 |
Family
ID=48720967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310093147.5A Expired - Fee Related CN103198456B (zh) | 2013-03-21 | 2013-03-21 | 基于方向波域隐马尔可夫树模型的遥感图像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103198456B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400356A (zh) * | 2013-08-21 | 2013-11-20 | 东南大学 | 一种基于通用隐马尔可夫树模型的加权图像压缩感知方法 |
CN103679661A (zh) * | 2013-12-25 | 2014-03-26 | 北京师范大学 | 一种基于显著性分析的自适应遥感图像融合方法 |
CN105631872A (zh) * | 2015-12-28 | 2016-06-01 | 西安电子科技大学 | 基于多特征点的遥感图像配准方法 |
CN107154020A (zh) * | 2017-05-02 | 2017-09-12 | 中国科学院空间应用工程与技术中心 | 一种基于Curvelet变换的影像融合方法及系统 |
CN112766083A (zh) * | 2020-12-30 | 2021-05-07 | 中南民族大学 | 基于多尺度特征融合的遥感场景分类方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639537A (zh) * | 2009-09-04 | 2010-02-03 | 西安电子科技大学 | 基于方向波域混合高斯模型的sar图像噪声抑制方法 |
CN101877125A (zh) * | 2009-12-25 | 2010-11-03 | 北京航空航天大学 | 一种基于小波域统计信号的图像融合处理方法 |
-
2013
- 2013-03-21 CN CN201310093147.5A patent/CN103198456B/zh not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639537A (zh) * | 2009-09-04 | 2010-02-03 | 西安电子科技大学 | 基于方向波域混合高斯模型的sar图像噪声抑制方法 |
CN101877125A (zh) * | 2009-12-25 | 2010-11-03 | 北京航空航天大学 | 一种基于小波域统计信号的图像融合处理方法 |
Non-Patent Citations (4)
Title |
---|
JING BAI,JIAQI ZHAO,LC JIAO: "Image Segmentation Using Directionlet-domain Hidden Markov Tree Models", 《RADAR (RADAR), 2011 IEEE CIE INTERNATIONAL CONFERENCE ON》 * |
宋梦馨 等: "结合Contourlet和HSI变换的组合优化遥感图像融合方法", 《计算机辅助设计与图形学学报》 * |
张冬翠: "基于Directionlet变换的图像去噪和融合", 《西安电子科大硕士论文》 * |
李晖晖 等: "基于Contourlet 域隐马尔可夫树模型的图像融合", 《计算机工程与应用》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400356A (zh) * | 2013-08-21 | 2013-11-20 | 东南大学 | 一种基于通用隐马尔可夫树模型的加权图像压缩感知方法 |
CN103400356B (zh) * | 2013-08-21 | 2016-02-03 | 东南大学 | 一种基于通用隐马尔可夫树模型的加权图像压缩感知方法 |
CN103679661A (zh) * | 2013-12-25 | 2014-03-26 | 北京师范大学 | 一种基于显著性分析的自适应遥感图像融合方法 |
CN103679661B (zh) * | 2013-12-25 | 2016-09-28 | 北京师范大学 | 一种基于显著性分析的自适应遥感图像融合方法 |
CN105631872A (zh) * | 2015-12-28 | 2016-06-01 | 西安电子科技大学 | 基于多特征点的遥感图像配准方法 |
CN105631872B (zh) * | 2015-12-28 | 2018-06-26 | 西安电子科技大学 | 基于多特征点的遥感图像配准方法 |
CN107154020A (zh) * | 2017-05-02 | 2017-09-12 | 中国科学院空间应用工程与技术中心 | 一种基于Curvelet变换的影像融合方法及系统 |
CN112766083A (zh) * | 2020-12-30 | 2021-05-07 | 中南民族大学 | 基于多尺度特征融合的遥感场景分类方法及系统 |
CN112766083B (zh) * | 2020-12-30 | 2023-10-27 | 中南民族大学 | 基于多尺度特征融合的遥感场景分类方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN103198456B (zh) | 2015-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Shao et al. | Remote sensing image fusion with deep convolutional neural network | |
CN111709902A (zh) | 基于自注意力机制的红外和可见光图像融合方法 | |
CN103198456B (zh) | 基于方向波域隐马尔可夫树模型的遥感图像融合方法 | |
CN106462771A (zh) | 一种3d图像的显著性检测方法 | |
CN104376565B (zh) | 基于离散余弦变换和稀疏表示的无参考图像质量评价方法 | |
CN107451984A (zh) | 一种基于混合多尺度分析的红外与可见光图像融合算法 | |
CN103020933B (zh) | 一种基于仿生视觉机理的多源图像融合方法 | |
CN105447840B (zh) | 基于主动采样与高斯过程回归的图像超分辨方法 | |
CN104268833B (zh) | 基于平移不变剪切波变换的图像融合方法 | |
CN106327459A (zh) | 基于udct和pcnn的可见光与红外图像融合算法 | |
CN109242834A (zh) | 一种基于卷积神经网络的无参考立体图像质量评价方法 | |
CN112967178B (zh) | 一种图像转换方法、装置、设备及存储介质 | |
CN109360175A (zh) | 一种红外与可见光的图像融合方法 | |
CN101562675A (zh) | 基于Contourlet变换的无参考型图像质量评测方法 | |
CN108053396A (zh) | 一种多失真图像质量的无参考评价方法 | |
CN109493309A (zh) | 一种保持显著性信息的红外与可见光图像变分融合方法 | |
CN109410157A (zh) | 基于低秩稀疏分解和pcnn的图像融合方法 | |
CN109242812A (zh) | 基于显著性检测与奇异值分解的图像融合方法及装置 | |
CN110084782A (zh) | 基于图像显著性检测的全参考图像质量评价方法 | |
CN108805866A (zh) | 基于四元数小波变换深度视感知的图像注视点检测方法 | |
CN102855616A (zh) | 基于多尺度字典学习的图像融合方法 | |
CN108171656A (zh) | 基于稀疏表示的自适应全局字典遥感图像超分辨方法 | |
CN109784401A (zh) | 一种基于acgan的极化sar图像分类方法 | |
CN105809650B (zh) | 一种基于双向迭代优化的图像融合方法 | |
Kekre et al. | Image fusion using Kekre's hybrid wavelet transform |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20150603 Termination date: 20200321 |