CN101359049A - 一种遥感影像融合方法 - Google Patents
一种遥感影像融合方法 Download PDFInfo
- Publication number
- CN101359049A CN101359049A CNA200710119865XA CN200710119865A CN101359049A CN 101359049 A CN101359049 A CN 101359049A CN A200710119865X A CNA200710119865X A CN A200710119865XA CN 200710119865 A CN200710119865 A CN 200710119865A CN 101359049 A CN101359049 A CN 101359049A
- Authority
- CN
- China
- Prior art keywords
- sigma
- formula
- beta
- contourlet
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种基于多尺度通用传感器模型和Contourlet域隐马尔可夫树模型(CHMT,Contourlet-domain Hidden Markov Tree)相结合的遥感影像融合方法,通过结合Contourlet变换和隐马尔可夫树模型,在多尺度通用传感器模型的框架下,对融合的Contourlet系数进行最大后验概率估计,建立了一种基于CHMT模型的遥感影像融合方法。本发明首次将CHMT模型与多尺度通用传感器模型相结合用于遥感影像融合研究,并成功地将待融合图像进行主成份变换后的第一主成份用于真实场景的先验概率估计,在提高融合影像空间细节信息的同时,有效地保持多光谱影像的光谱信息。
Description
技术领域
本发明涉及一种遥感影像融合方法,特别涉及一种基于多尺度通用传感器模型与Contourlet域隐马尔可夫树(CHMT,Contourlet-domain Hidden MarkovTree)模型相结合的遥感影像融合方法。
背景技术
早期的图像融合主要以图像视觉增强为目的,采用代数运算法、彩色空间法等。目前常用的图像融合技术有IHS融合、Brovey融合、分量替换法、小波变换法等。随着新的数学理论和计算智能理论等被应用到图像融合领域,如小波包、Curvelet、Contourlet、模糊数学和数学形态学等的使用,很大程度上推进了图像融合理论和技术的发展。然而,这些方法的理论解释大多都停留在单纯的图像处理层面,没有一个通用传感器模型的融合方法作为理论依据。
CHMT模型是一种非常重要而有效的统计建模数学工具,它将Contourlet变换(即“轮廓波”变换)和隐马尔可夫模型(HMM,Hidden Markov Model)的各自特性集于一体,在图像处理和计算机视觉的各个方面,比如去噪,图像分割等等,起到了很好的效果。但目前还没有其在遥感图像融合领域应用的报道。
发明内容
本发明目的在于提供一种遥感影像融合方法;本发明的另一个目的在于提供一种基于多尺度通用传感器模型与CHMT模型相结合的遥感影像融合方法。
本发明目的是通过如下技术方案实现的:
一种遥感影像融合方法,基于多尺度通用传感器模型与CHMT模型相结合,得融合后的影像。
本发明遥感影像融合方法包括如下步骤:建立Contourlet域多尺度通用传感器模型,计算得到由传感器观测的图像经Contourlet变换后在相应尺度某方向子波段上对应位置处的观测值;对传感器的观测值应用主成分变换,获取第一主成分分量,作为对实际场景的先验估计,然后对其利用CHMT模型进行训练,获得条件概率,最后,计算得在Contourlet分解的某尺度某方向波段上实际场景的最大后验估计值;采用最小二乘法求得待融合影像的传感器系数,然后根据实际场景的最大后验估计值,求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即得融合后的影像。
本发明遥感影像融合方法具体包括如下步骤:
A、建立Contourlet域通用传感器模型,其可以表示为:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,i=1,2,…,q为传感器的数量,也可认为是待融合的波段数,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置,lk是实际场景L经Contourlet变换后在k处的值,oi,k是由传感器i观测的图像oi经Contourlet变换后在k处的值,βi,k和αi,k分别是经Contourlet变换后第i个传感器在k处的增益和偏差,ni,k表示经Contourlet变换后的噪声,是高斯白噪声,即ni,k~N(0,σi,k 2);将公式(1)式写成向量的形式为:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目;
B、在通用传感器模型的理论下,根据公式(2)的成像模型,已知观测值Ok的情况下,真实场景lk的后验概率可以表示为:
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7)式,求得融合后的Contourlet系数表达式;接下来采用最小二乘方法要对αk,m和βk,m进行估计;分别得到βk,m和αk,m的估计值和
上述本发明遥感影像融合方法中A步骤优选为:
对于客观存在的一个场景L,可以使用不同的传感器对其进行观测并成像;在一定的观测条件之下,利用某个特定的传感器,可以得到对场景L的一个观测图像O;可以用一个线性模型来表示由传感器i得到的观测图像Oi与实际场景L之间的关系:
Oi=BiL+Ai+Ni 公式(8)
其中,i=1,2,…,q为传感器的数量,Bi是第i个传感器的增益,Ai是第i个传感器的偏差,Ni是第i个传感器的噪声,是与真实场景L无关的高斯白噪声;在成像过程中,针对某一特定的传感器,其增益参数和偏差参数是相对稳定的,因此,该模型中的参数以及噪声的分布特性都假定在空间位置上是缓慢变化的;
为了应用多分辨塔式融合的方法,需要将空间域的通用成像模型转换到需要的变换域(如小波域、Contourlet域等);由于Contourlet变换为线性变换,因此,在空间域的成像模型经变换到Contourlet域之后,变换系数之间的这种线性关系保持不变,即:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置;ni,k表示经Contourlet变换后的噪声,依然是高斯白噪声,即ni,k~N(0,σi,k 2);为描述方便,将公式(1)写成向量的形式:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目,也可认为是待融合的波段数;
假定噪声是与真实场景L无关的高斯白噪声,因此,经过Contourlet变换后,可以认为噪声依然是一种高斯白噪声,即:
其中,
上述本发明遥感影像融合方法中B步骤优选为:
根据成像模型,利用最大后验概率方法求解不同传感器影像融合后的影像的问题可以表述为在已知观测值ok的情况下,求真实场景值lk的最大后验概率根据贝叶斯公式,在ok的条件下lk的后验概率可以表示为如下形式:
然后,通过求解真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok),即可求得在ok的条件下lk的后验概率p(lk|ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,可以使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;那么,可以得到条件概率密度:
由此可得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m 公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,可以得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
上述本发明遥感影像融合方法中C步骤优选为:
对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),即可求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即可得融合后的影像。
本发明通过结合Contourlet变换和隐马尔可夫树模型,在多尺度通用传感器模型的框架下,对融合后的Contourlet系数进行最大后验概率估计,建立了一种基于多尺度通用传感器模型的遥感影像融合方法。本发明遥感影像融合方法首次将CHMT模型与多尺度通用传感器模型相结合用于融合研究,并成功地将待融合图像进行主成份变换后的第一主成份用于真实场景的先验概率估计,结果表明,本发明遥感影像融合方法在提高融合影像空间细节信息的同时,可以有效地保持多光谱影像的光谱信息,进一步推动了遥感影像融合理论和技术的发展。
附图说明
图1是本发明所述方法与常用方法的融合效果比较图;
图2是本发明所述方法的流程图。
其中,图1(a)为AIRSAR C波段HH极化影像;图1(b)为SPOT4多光谱影像(波段组合为3、2和1);图1(c)为使用主成分融合法(PCA)的结果;图1(d)为IHS融合法(HIS)的结果;图1(e)为模极大值小波融合法(MWF)的结果;图1(f)为基于多尺度通用传感器模型融合法(CHMT)的结果。
下述实施例用于进一步说明本发明但不限于本发明。
实验例1本发明方法与其他方法的融合效果比较实验
将本发明方法(实施例1)与其他方法(PCA方法、IHS方法、MWF方法)进行融合效果比较实验(见图1):从目视效果比较来看,4种方法在提高融合结果清晰度的基础之上,均能够在一定程度上保持SPOT XS影像的光谱信息。在细节保留方面,PCA方法和MWF方法的效果比较突出,但PCA方法得到的结果的颜色与SPOT XS影像相比有些失真,且失真的程度比其他两种方法严重。IHS方法的结果目视效果不佳,并在图像上出现了一些“黑洞”。CHMT方法能够较好地保持光谱信息,并提高了融合结果的清晰度。
性能分析:对于遥感图像融合效果的评价,应综合考虑空间细节信息的增强与光谱信息的保持。所以,一般应综合利用两类统计参数来进行分析与评价:一类反映空间细节信息,如信息熵(Entropy)和清晰度(Average Gradient);另一类反映光谱信息,如扭曲程度(Spectral Distortion)与相关系数(Correlation Coefficient)。
表1列出了AIRSAR C-HH影像与SPOT XS多光谱影像融合结果的统计结果。总体来看,与目视比较的结果相一致,各个方法均提高了融合结果的清晰度。均值方面,各种方法的差别不大;各种方法的熵和平均梯度(A.G.)均有较大提高,表明各种方法都提高了融合结果的清晰度,其中MWF方法的平均梯度提高最为显著。在光谱信息保持方面,通过观察光谱扭曲(S.D.)和相关系数(C.C.)发现,PCA方法的第1波段与SPOT XS影像的第1波段保持的较好,相关系数达到0.9,但第2、3波段却均为负相关,表明PCA方法融合的结果严重偏离了多光谱影像,这一点与目视比较的结果一致。IHS方法不论是清晰度方面还是光谱保持方面,均不如MWF和CHMT方法。比较MWF方法和CHMT方法,结果发现,MWF方法在提高融合结果的清晰度方面优于CHMT方法(MWF的平均梯度高于CHMT方法的平均梯度),而CHMT方法的光谱扭曲和相关系数均好于MWF方法,表明CHMT方法保持光谱信息的能力优于MWF方法。
表1 融合结果的性能评价指标比较
下述实施例均能实现上述实验例的效果。
具体实施方式
实施例1:
对SAR与可见光影像进行融合,采用AIRSAR C波段HH极化影像作为SAR影像,其距离向分辨率约为6米,方位向分辨率约为9米,如图1(a);采用SPOT4 XS影像的3、2、1波段组合作为多光谱影像,其空间分辨率为20米,如图1(b);
I、将AIRSAR影像重采样为9米×9米;将SPOT4 XS影像与AIRSAR影像配准后,也重采样为9米×9米;
II、将AIRSAR影像与SPOT4 XS影像的4个波段的数据应用主成份变换,获取第一主成分分量PC1;
III、对第一主成份PC1利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)和uk,m;
对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(1),求得融合后的Contourlet系数表达式;
V、接下来要采用最小二乘法对αk,m和βk,m进行估计,具体做法是:假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将公式(17)和(18)代入公式(7),即可求得融合后的Contourlet系数值;
VI、对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即可得融合后的影像。
实施例2:本发明遥感影像融合方法
A、建立Contourlet域通用传感器模型,其可以表示为:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,i=1,2,…,q为传感器的数量,也可认为是待融合的波段数,k代表位置,即经变换后的Contourlet系数在某一尺度其对应的某一方向子波段中的位置,lk是实际场景L经Contourlet变换后在k处的值,oi,k是由传感器i观测的图像Oi经Contourlet变换后在k处的值,βi,k和αi,k分别是经Contourlet变换后第i个传感器在k处的增益和偏差,ni,k表示经Contourlet变换后的噪声,是高斯白噪声,即ni,k~N(0,σi,k 2);将公式(1)写成向量的形式为:
ok=βklk+αk+nk 公式(2)
各字母代表的含义如公式(3)所示;其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目;
B、在通用传感器模型的理论下,根据公式(2)的成像模型,已知观测值ok的情况下,真实场景lk的后验概率可以表示为:
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量PC1,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来采用最小二乘方法对αk,m和βk,m进行估计,分别得到βk,m和αk,m的估计值和
实施例3:本发明遥感影像融合方法
A、对于客观存在的一个场景L,使用不同的传感器对其进行观测并成像;在一定的观测条件之下,利用某个特定的传感器,可以得到对场景L的一个观测图像O;可以用一个线性模型来表示由传感器i得到的观测图像Oi与实际场景L之间的关系:
Oi=BiL+Ai+Ni 公式(8)
其中,i=1,2,…,q为传感器的数量,Bi是第i个传感器的增益,Ai是第i个传感器的偏差,Ni是第i个传感器的噪声,是与真实场景L无关的高斯白噪声;在成像过程中,针对某一特定的传感器,其增益参数和偏差参数是相对稳定的,因此,该模型中的参数以及噪声的分布特性都假定在空间位置上是缓慢变化的;
为了应用多分辨塔式融合的方法,需要将空间域的通用成像模型转换到需要的变换域(如小波域、Contourlet域等);由于Contourlet变换为线性变换,因此,在空间域的成像模型经变换到Contourlet域之后,变换系数之间的这种线性关系保持不变,即:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置;ni,k表示经Contourlet变换后的噪声,依然是高斯白噪声,即ni,k~N(0,σi,k 2);为描述方便,将公式(1)写成向量的形式:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目,也可认为是待融合的波段数;
假定噪声是与真实场景L无关的高斯白噪声,因此,经过Contourlet变换后,可以认为噪声依然是一种高斯白噪声,即:
其中,
B、在通用传感器模型的理论下,根据公式(2)的成像模型,已知观测值ok的情况下,真实场景lk的后验概率可以表示为:
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量PC1,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来采用最小二乘方法对αk,m和βk,m进行估计,分别得到βk,m和αk,m的估计值和
实施例4:本发明遥感影像融合方法
A、建立Contourlet域通用传感器模型,其可以表示为:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,i=1,2,…,q为传感器的数量,也可认为是待融合的波段数,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置,lk是实际场景L经Contourlet变换后在k处的值,oi,k是由传感器i观测的图像oi经Contourlet变换后在k处的值,βi,k和αi,k分别是经Contourlet变换后第i个传感器在k处的增益和偏差,ni,k表示经Contourlet变换后的噪声,是高斯白噪声,即ni,k~N(0,σi,k 2);将公式(1)式写成向量的形式为:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目;
B、根据成像模型,利用最大后验概率方法求解不同传感器影像融合后的影像的问题可以表述为在已知观测值ok的情况下,求真实场景值lk的最大后验概率根据贝叶斯公式,在ok的条件下lk的后验概率可以表示为如下形式:
然后,通过求解真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok),即可求得在ok的条件下lk的后验概率p(lk|ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,可以使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;那么,可以得到条件概率密度:
由此可得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m 公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,可以得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来采用最小二乘方法要对αk,m和βk,m进行估计;分别得到βk,m和αk,m的估计值和
实施例5:本发明遥感影像融合方法
A、建立Contourlet域通用传感器模型,其可以表示为:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,i=1,2,…,q为传感器的数量,也可认为是待融合的波段数,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置,lk是实际场景L经Contourlet变换后在k处的值,oi,k是由传感器i观测的图像oi经Contourlet变换后在k处的值,βi,k和αi,k分别是经Contourlet变换后第i个传感器在k处的增益和偏差,ni,k表示经Contourlet变换后的噪声,是高斯白噪声,即ni,k~N(0,σi,k 2);将公式(1)式写成向量的形式为:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目;
B、在通用传感器模型的理论下,根据公式(2)的成像模型,已知观测值Ok的情况下,真实场景lk的后验概率可以表示为:
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),即可求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即可得融合后的影像。
实施例6:本发明遥感影像融合方法
A、对于客观存在的一个场景L,使用不同的传感器对其进行观测并成像;在一定的观测条件之下,利用某个特定的传感器,可以得到对场景L的一个观测图像O;可以用一个线性模型来表示由传感器i得到的观测图像Oi与实际场景L之间的关系:
Oi=BiL+Ai+Ni 公式(8)
其中,i=1,2,…,q为传感器的数量,Bi是第i个传感器的增益,Ai是第i个传感器的偏差,Ni是第i个传感器的噪声,是与真实场景L无关的高斯白噪声;在成像过程中,针对某一特定的传感器,其增益参数和偏差参数是相对稳定的,因此,该模型中的参数以及噪声的分布特性都假定在空间位置上是缓慢变化的;
为了应用多分辨塔式融合的方法,需要将空间域的通用成像模型转换到需要的变换域(如小波域、Contourlet域等);由于Contourlet变换为线性变换,因此,在空间域的成像模型经变换到Contourlet域之后,变换系数之间的这种线性关系保持不变,即:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置;ni,k表示经Contourlet变换后的噪声,依然是高斯白噪声,即ni,k~N(0,σi,k 2);为描述方便,将公式(1)写成向量的形式:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目,是待融合的波段数;
假定噪声是与真实场景L无关的高斯白噪声,因此,经过Contourlet变换后,可以认为噪声依然是一种高斯白噪声,即:
其中,
B、根据成像模型,利用最大后验概率方法求解不同传感器影像融合后的影像的问题可以表述为在已知观测值ok的情况下,求真实场景值lk的最大后验概率根据贝叶斯公式,在ok的条件下lk的后验概率可以表示为如下形式:
然后,通过求解真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok),即可求得在ok的条件下lk的后验概率p(lk|ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,可以使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;那么,可以得到条件概率密度:
由此可得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m 公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,可以得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7)式,求得融合后的Contourlet系数表达式;接下来采用最小二乘方法要对αk,m和βk,m进行估计;分别得到βk,m和αk,m的估计值和
实施例7:本发明遥感影像融合方法
A、对于客观存在的一个场景L,使用不同的传感器对其进行观测并成像;在一定的观测条件之下,利用某个特定的传感器,可以得到对场景L的一个观测图像O;可以用一个线性模型来表示由传感器i得到的观测图像Oi与实际场景L之间的关系:
Oi=BiL+Ai+Ni 公式(8)
其中,i=1,2,…,q为传感器的数量,Bi是第i个传感器的增益,Ai是第i个传感器的偏差,Ni是第i个传感器的噪声,是与真实场景L无关的高斯白噪声;在成像过程中,针对某一特定的传感器,其增益参数和偏差参数是相对稳定的,因此,该模型中的参数以及噪声的分布特性都假定在空间位置上是缓慢变化的;
为了应用多分辨塔式融合的方法,需要将空间域的通用成像模型转换到需要的变换域(如小波域、Contourlet域等);由于Contourlet变换为线性变换,因此,在空间域的成像模型经变换到Contourlet域之后,变换系数之间的这种线性关系保持不变,即:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置;ni,k表示经Contourlet变换后的噪声,依然是高斯白噪声,即ni,k~N(0,σi,k 2);为描述方便,将公式(1)写成向量的形式:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目,是待融合的波段数;
假定噪声是与真实场景L无关的高斯白噪声,因此,经过Contourlet变换后,可以认为噪声依然是一种高斯白噪声,即:
其中,
B、在通用传感器模型的理论下,根据公式(2)的成像模型,已知观测值Ok的情况下,真实场景lk的后验概率可以表示为:
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),即可求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即可得融合后的影像。
实施例8:本发明遥感影像融合方法
A、建立Contourlet域通用传感器模型,其可以表示为:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,i=1,2,…,q为传感器的数量,是待融合的波段数,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置,lk是实际场景L经Contourlet变换后在k处的值,oi,k是由传感器i观测的图像oi经Contourlet变换后在k处的值,βi,k和αi,k分别是经Contourlet变换后第i个传感器在k处的增益和偏差,ni,k表示经Contourlet变换后的噪声,是高斯白噪声,即ni,k~N(0,σi,k 2);将公式(1)式写成向量的形式为:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目;
B、根据成像模型,利用最大后验概率方法求解不同传感器影像融合后的影像的问题可以表述为在已知观测值ok的情况下,求真实场景值lk的最大后验概率根据贝叶斯公式,在ok的条件下lk的后验概率可以表示为如下形式:
然后,通过求解真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok),即可求得在ok的条件下lk的后验概率p(lk|ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,可以使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;那么,可以得到条件概率密度:
由此可得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m 公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,可以得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),即可求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即可得融合后的影像。
实施例9:本发明遥感影像融合方法
A、对于客观存在的一个场景L,使用不同的传感器对其进行观测并成像;在一定的观测条件之下,利用某个特定的传感器,可以得到对场景L的一个观测图像O;可以用一个线性模型来表示由传感器i得到的观测图像Oi与实际场景L之间的关系:
Oi=BiL+Ai+Ni 公式(8)
其中,i=1,2,…,q为传感器的数量,Bi是第i个传感器的增益,Ai是第i个传感器的偏差,Ni是第i个传感器的噪声,是与真实场景L无关的高斯白噪声;在成像过程中,针对某一特定的传感器,其增益参数和偏差参数是相对稳定的,因此,该模型中的参数以及噪声的分布特性都假定在空间位置上是缓慢变化的;
为了应用多分辨塔式融合的方法,需要将空间域的通用成像模型转换到需要的变换域(如小波域、Contourlet域等);由于Contourlet变换为线性变换,因此,在空间域的成像模型经变换到Contourlet域之后,变换系数之间的这种线性关系保持不变,即:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置;ni,k表示经Contourlet变换后的噪声,依然是高斯白噪声,即ni,k~N(0,σi,k 2);为描述方便,将公式(1)写成向量的形式:
ok=βklk+αk+nk 公式(2)
其中,lk=[l1,k l2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目,是待融合的波段数;
假定噪声是与真实场景L无关的高斯白噪声,因此,经过Contourlet变换后,可以认为噪声依然是一种高斯白噪声,即:
其中,
B、根据成像模型,利用最大后验概率方法求解不同传感器影像融合后的影像的问题可以表述为在已知观测值ok的情况下,求真实场景值lk的最大后验概率根据贝叶斯公式,在ok的条件下lk的后验概率可以表示为如下形式:
然后,通过求解真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok),即可求得在ok的条件下lk的后验概率p(lk|ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,可以使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;那么,可以得到条件概率密度:
由此可得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m 公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,可以得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景l的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,可得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),即可求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即可得融合后的影像。
Claims (9)
1、一种遥感影像融合方法,其特征在于基于多尺度通用传感器模型与CHMT模型相结合获得融合后的影像。
2、如权利要求1所述的一种遥感影像融合方法,其特征在于该方法包括如下步骤:
建立Contourlet域多尺度通用传感器模型,计算得到由传感器观测的图像经Contourlet变换后在相应尺度某方向子波段上对应位置处的观测值;对传感器的观测值应用主成分变换,获取第一主成分分量,作为对实际场景的先验估计,然后对其利用CHMT模型进行训练,获得条件概率,最后,计算得在Contourlet分解的某尺度某方向波段上实际场景的最大后验估计值;采用最小二乘法求得待融合影像的传感器系数,然后根据实际场景的最大后验估计值,求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即得融合后的影像。
3、如权利要求1或2所述的一种遥感影像融合方法,其特征在于该方法包括如下步骤:
A、建立Contourlet域通用传感器模型,其表示为:
oi,k=βi,klk+αi,k+ni,k公式(1)
其中,i=1,2,…,q为传感器的数量或待融合的波段数,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置,lk是实际场景L经Contourlet变换后在k处的值,oi,k是由传感器i观测的图像oi经Contourlet变换后在k处的值,βi,k和αi,k分别是经Contourlet变换后第i个传感器在k处的增益和偏差,ni,k表示经Contourlet变换后的噪声,是高斯白噪声,即ni,k~N(0,σi,k 2);将公式(1)式写成向量的形式为:
ok=βklk+αk+nk公式(2)
其中,lk=[l1,kl2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目;
B、在通用传感器模型的理论下,根据公式(2)的成像模型,已知观测值Qk的情况下,真实场景lk的后验概率表示为:
其中,后验均值和方差分别为:
真实场景1的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
C、对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7)式,求得融合后的Contourlet系数表达式;接下来采用最小二乘方法要对αk,m和βk,m进行估计;分别得到βk,m和αk,m的估计值和
4、如权利要求3所述的一种遥感影像融合方法,其特征在于其中所述的步骤A为:
对于客观存在的一个场景L,使用不同的传感器对其进行观测并成像;在一定的观测条件之下,利用某个特定的传感器,得到对场景L的一个观测图像O;用一个线性模型来表示由传感器i得到的观测图像Oi与实际场景L之间的关系:
Oi=BiL+Ai+Ni公式(8)
其中,i=1,2,…,q为传感器的数量,Bi是第i个传感器的增益,Ai是第i个传感器的偏差,Ni是第i个传感器的噪声,是与真实场景L无关的高斯白噪声;在成像过程中,针对某一特定的传感器,其增益参数和偏差参数是相对稳定的,因此,该模型中的参数以及噪声的分布特性都假定在空间位置上是缓慢变化的;
为了应用多分辨塔式融合的方法,需要将空间域的通用成像模型转换到需要的变换域(如小波域、Contourlet域等);由于Contourlet变换为线性变换,因此,在空间域的成像模型经变换到Contourlet域之后,变换系数之间的这种线性关系保持不变,即:
oi,k=βi,klk+αi,k+ni,k 公式(1)
其中,k代表位置,即经变换后的系数在某一尺度其对应的某一方向子波段中的位置;ni,k表示经Contourlet变换后的噪声,依然是高斯白噪声,即ni,k~N(0,σi,k 2);为描述方便,将公式(2)写成向量的形式:
ok=βklk+αk+nk公式(2)
其中,lk=[l1,kl2,k…lq,k],代表场景L经Contourlet分解后在相应层中某方向子波段上对应位置的系数,q为传感器的数目,也可认为是待融合的波段数;
假定噪声是与真实场景L无关的高斯白噪声,因此,经过Contourlet变换后,噪声依然是一种高斯白噪声,即:
其中,
5、如权利要求3所述的一种遥感影像融合方法,其特征在于其中所述的步骤B为:
然后,通过求解真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok),即可求得在ok的条件下lk的后验概率p(lk|ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;得到条件概率密度:
由此得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景1的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2最后,得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
6、如权利要求4所述的一种遥感影像融合方法,其特征在于其中所述的步骤B为:
求真实场景经Contourlet变换后lk的概率密度p(lk)、传感器图像经Contourlet变换后的条件概率密度p(ok|lk)和传感器图像经Contourlet变换后的概率密度p(ok);
用高斯混合模型来描述经Contourlet变换后lk的概率密度p(lk),即:
其中,pk(m)是在位置k处的系数是状态m的概率,M代表状态数;f(lk|m)是真实场景经Contourlet变换后的条件概率,使用高斯分布来进行描述:
uk,m代表在状态m时的均值,σk,m 2代表状态m时的方差;得到条件概率密度:
由此得边缘概率密度p(ok)为:
其中,
Uk,m=E(ok)=βk,mμk,m+αk,m公式(15)
最后,将公式(11)、(13)和(14)代入公式(10)整理后,得到后验概率p(lk|ok):
其中,后验均值和方差分别为:
真实场景1的估计值:首先对q个传感器的观测值应用主成分变换,获取第一主成分分量,然后对其利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)、uk,m和σk,m 2,最后,得在Contourlet分解的某尺度某方向波段上lk的最大后验估计为:
7、如权利要求3所述的一种遥感影像融合方法,其特征在于其中所述的步骤C为:
对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),即求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即得融合后的影像。
8、如权利要求4、5或6任一所述的一种遥感影像融合方法,其特征在于其中所述的步骤C为:
对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;接下来要对αk,m和βk,m进行估计;在这里,采用最小二乘方法;该方法假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将和公式(17)和(18)代入公式(7),求得融合后的Contourlet系数;对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,得融合后的影像。
9、一种遥感影像融合方法,其特征在于该方法包括如下步骤:对SAR与可见光影像进行融合,采用AIRSAR C波段HH极化影像作为SAR影像,其距离向分辨率约为6米,方位向分辨率约为9米,;采用SPOT4XS影像的3、2、1波段组合作为多光谱影像,其空间分辨率为20米;
I、将AIRSAR影像重采样为9米×9米;将SPOT4XS影像与AIRSAR影像配准后,也重采样为9米×9米;
II、将AIRSAR影像与SPOT4XS影像的4个波段的数据应用主成份变换,获取第一主成分分量PC1;
III、对第一主成份PC1利用CHMT模型进行训练,获得条件概率p(m|lk,m,θo)和uk,m;
对于经过Contourlet变换得到的待融合图像的各个方向子波段应用公式(7),求得融合后的Contourlet系数表达式;
V、接下来要采用最小二乘法对αk,m和βk,m进行估计,具体做法是:假设在一个较小的区域内Rk内(譬如5×5的窗口),βk,m、αk,m、和σk,m 2是常量,通过假设该窗口内的观测值服从高斯分布,并利用窗口内的一阶和二阶统计量,得到βk,m和αk,m的最小二乘估计值:
其中,λ是修正噪声协方差矩阵 的主特征值,u是主特征值对应的主特征向量,∑o和μa分别如下:
式中,N代表小区域Rk内的像素个数;最后,将公式(17)和(18)代入公式(7),求得融合后的Contourlet系数值;
Ⅵ、对所有尺度所有方向波段进行融合处理之后,应用逆Contourlet变换,即得融合后的影像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710119865XA CN101359049B (zh) | 2007-08-01 | 2007-08-01 | 一种遥感影像融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN200710119865XA CN101359049B (zh) | 2007-08-01 | 2007-08-01 | 一种遥感影像融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101359049A true CN101359049A (zh) | 2009-02-04 |
CN101359049B CN101359049B (zh) | 2012-05-23 |
Family
ID=40331543
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN200710119865XA Expired - Fee Related CN101359049B (zh) | 2007-08-01 | 2007-08-01 | 一种遥感影像融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101359049B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663725A (zh) * | 2012-03-05 | 2012-09-12 | 西北工业大学 | 基于线特征和控制点的可见光和sar图像配准方法 |
CN103942768A (zh) * | 2013-01-18 | 2014-07-23 | 诺基亚公司 | 图像融合的方法和装置 |
CN103745487B (zh) * | 2013-12-20 | 2016-07-06 | 西北工业大学 | 基于结构化稀疏先验的贝叶斯高光谱解混压缩感知方法 |
CN107705274A (zh) * | 2017-08-21 | 2018-02-16 | 中国核电工程有限公司 | 一种基于数学形态学多尺度的微光与红外图像融合方法 |
CN111292396A (zh) * | 2020-01-16 | 2020-06-16 | 武汉轻工大学 | 图像样本集生成方法、设备、装置及存储介质 |
CN117496360A (zh) * | 2024-01-02 | 2024-02-02 | 中国科学院空天信息创新研究院 | 频域知识继承的遥感基础模型轻量化方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1316431C (zh) * | 2004-11-05 | 2007-05-16 | 北京师范大学 | 基于小波变换的可调节遥感影像融合方法 |
-
2007
- 2007-08-01 CN CN200710119865XA patent/CN101359049B/zh not_active Expired - Fee Related
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102663725A (zh) * | 2012-03-05 | 2012-09-12 | 西北工业大学 | 基于线特征和控制点的可见光和sar图像配准方法 |
CN102663725B (zh) * | 2012-03-05 | 2014-07-16 | 西北工业大学 | 基于线特征和控制点的可见光和sar图像配准方法 |
CN103942768A (zh) * | 2013-01-18 | 2014-07-23 | 诺基亚公司 | 图像融合的方法和装置 |
US9501852B2 (en) | 2013-01-18 | 2016-11-22 | Nokia Technologies Oy | Method and apparatus for image fusion |
CN103942768B (zh) * | 2013-01-18 | 2017-05-24 | 诺基亚技术有限公司 | 图像融合的方法和装置 |
CN103745487B (zh) * | 2013-12-20 | 2016-07-06 | 西北工业大学 | 基于结构化稀疏先验的贝叶斯高光谱解混压缩感知方法 |
CN107705274A (zh) * | 2017-08-21 | 2018-02-16 | 中国核电工程有限公司 | 一种基于数学形态学多尺度的微光与红外图像融合方法 |
CN107705274B (zh) * | 2017-08-21 | 2022-04-19 | 中国核电工程有限公司 | 一种基于数学形态学多尺度的微光与红外图像融合方法 |
CN111292396A (zh) * | 2020-01-16 | 2020-06-16 | 武汉轻工大学 | 图像样本集生成方法、设备、装置及存储介质 |
CN111292396B (zh) * | 2020-01-16 | 2023-08-29 | 武汉轻工大学 | 图像样本集生成方法、设备、装置及存储介质 |
CN117496360A (zh) * | 2024-01-02 | 2024-02-02 | 中国科学院空天信息创新研究院 | 频域知识继承的遥感基础模型轻量化方法 |
CN117496360B (zh) * | 2024-01-02 | 2024-05-14 | 中国科学院空天信息创新研究院 | 频域知识继承的遥感基础模型轻量化方法 |
Also Published As
Publication number | Publication date |
---|---|
CN101359049B (zh) | 2012-05-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101359049B (zh) | 一种遥感影像融合方法 | |
CN103049892B (zh) | 基于相似块矩阵秩最小化的非局部图像去噪方法 | |
CN103093441B (zh) | 基于变换域的非局部均值和双变量模型的图像去噪方法 | |
CN102063708B (zh) | 基于Treelet和非局部均值的图像去噪 | |
CN110992292B (zh) | 一种增强型低秩稀疏分解模型医学ct图像去噪方法 | |
CN105279740A (zh) | 一种基于稀疏正则化的图像去噪方法 | |
CN101950414A (zh) | 自然图像非局部均值去噪方法 | |
CN101944230B (zh) | 基于多尺度的自然图像非局部均值去噪方法 | |
CN101685158B (zh) | 基于隐马尔科夫树模型的sar图像去噪方法 | |
CN103116881A (zh) | 基于PCA与Shearlet变换的遥感图像融合方法 | |
CN105761223A (zh) | 一种基于图像低秩性的迭代降噪方法 | |
CN105427264A (zh) | 一种基于群稀疏系数估计的图像重构方法 | |
CN102968781A (zh) | 基于nsct和稀疏表示的图像融合方法 | |
CN103077507B (zh) | 基于Beta算法的多尺度SAR图像降噪方法 | |
CN101894365A (zh) | 一种自适应变分遥感影像融合方法 | |
CN102855616A (zh) | 基于多尺度字典学习的图像融合方法 | |
CN109685730A (zh) | 一种基于自适应非局域均值的小波去噪方法 | |
CN106067165A (zh) | 基于聚类化稀疏随机场的高光谱图像去噪方法 | |
CN102496143B (zh) | 基于chelesky分解和近似奇异值分解的稀疏K-SVD噪声抑制方法 | |
Milone et al. | Denoising and recognition using hidden Markov models with observation distributions modeled by hidden Markov trees | |
CN105138860B (zh) | 一种基于边界投影最优梯度的高光谱非线性解混方法 | |
CN104978716A (zh) | 一种基于线性最小均方误差估计的sar图像降噪方法 | |
CN101950413B (zh) | 基于非下采样Contourlet域MRF模型的SAR图像降斑方法 | |
CN103530857B (zh) | 基于多尺度的卡尔曼滤波图像去噪方法 | |
CN106991659B (zh) | 一种适应大气湍流变化的多帧自适应光学图像恢复方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20120523 Termination date: 20120801 |