CN109285133A - 一种细节增强的遥感图像数据时空谱一体化融合方法 - Google Patents

一种细节增强的遥感图像数据时空谱一体化融合方法 Download PDF

Info

Publication number
CN109285133A
CN109285133A CN201811142766.8A CN201811142766A CN109285133A CN 109285133 A CN109285133 A CN 109285133A CN 201811142766 A CN201811142766 A CN 201811142766A CN 109285133 A CN109285133 A CN 109285133A
Authority
CN
China
Prior art keywords
image
indicate
blending
blending image
wave band
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811142766.8A
Other languages
English (en)
Inventor
林连雷
王建峰
杨京礼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin Institute of Technology
Original Assignee
Harbin Institute of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin Institute of Technology filed Critical Harbin Institute of Technology
Priority to CN201811142766.8A priority Critical patent/CN109285133A/zh
Publication of CN109285133A publication Critical patent/CN109285133A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

一种细节增强的遥感图像数据时空谱一体化融合方法,它属于遥感图像融合技术领域。本发明解决了现有的遥感图像数据融合方法在平滑图像噪声的同时,也会平滑掉图像细节信息的问题。本发明首先采用拉普拉斯算子对Y和Z进行边缘增强,因此能够在平滑图像噪声的同时保留图像细节信息;然后利用融合图像与Y′之间的空间退化模型和融合图像与Z′之间的时空谱关系模型,计算Y′对融合图像的一致性约束、Z′对融合图像的一致性约束和图像空间关系的描述,并得到目标函数;最后通过共轭梯度算法求解目标函数,利用求解结果计算出融合图像。与现有方法相比,本发明的方法在平滑掉图像噪声的同时,可以保留95%以上的图像细节信息。本发明可以应用于遥感图像融合技术领域用。

Description

一种细节增强的遥感图像数据时空谱一体化融合方法
技术领域
本发明属于遥感图像融合技术领域,具体涉及一种遥感图像数据时空谱一体化融合方法。
背景技术
现有的遥感图像融合方法采用三种不同的层级,分别为数据级别、特征级别和决策级别,根据目标的不同,遥感图像融合可分为多视空间融合,空谱融合和时空融合。
大多数现有的遥感图像数据融合方法只能应用于整合空间、时间和光谱分辨率其中的两个指标,因此不能获得最高的时间、空间、光谱分辨率融合图像。此外,一些遥感图像数据融合方法旨在合并来自一个或两个传感器的补充信息,不能充分利用来自更多传感器的互补观测信息。在一体化融合理论方法发展中,国内学者做出了较大贡献。从2010年开始,武汉大学在国家自然科学基金的资助下开始相关研究,首次提出了时空谱一体化融合的概念与基于最大后验概率理论的融合框架,并取得了一定的研究成果。香港中文大学对遥感图像数据的时、空、谱关联模型进行了进一步探索,同样基于最大后验估计理论,提出了一种新的时空谱一体融合方法,但仍然是针对两个传感器数据的融合方面。Meng等人、Wu等人在3个传感器融合方面取得了重要进展,但没有全面考虑时、空、谱特征。之后Meng等人进一步提出了一个统一的融合框架,既能够有效融合时、空、谱互补信息,同时消除了传感器数量的限制,然而该方法嵌入的先验模型为Gauss-Markov模型,虽然能够有效的平滑图像噪声,但该模型也会平滑掉图像细节信息,进而影响了融合图像的细节信息,造成图像拍摄的视觉效果不佳。
发明内容
本发明的目的是为解决现有的遥感图像数据融合方法在平滑图像噪声的同时,也会平滑掉图像细节信息的问题。
本发明为解决上述技术问题采取的技术方案是:
一种细节增强的遥感图像数据时空谱一体化融合方法,该方法包括以下步骤:
步骤一、采用拉普拉斯算子对多视图像Y和辅助多源观察图像Z进行边缘增强,得到增强后的多视图像Y′和辅助多源观察图像Z′;
步骤二、建立融合图像x与Y′之间的空间退化模型和融合图像x与Z′之间的时空谱关系模型,计算出Y′对融合图像x的一致性约束p(Y′|x)、Z′对融合图像x的一致性约束p(Z′|x)和图像空间关系的描述p(x);
步骤三、根据步骤二计算出的p(Y′|x)、p(Z′|x)和p(x),得到目标函数F(x)的表达式;
步骤四、通过共轭梯度算法求解目标函数F(x),并利用目标函数F(x)的求解结果计算融合图像x。
本发明的有益效果是:本发明提供了一种细节增强的遥感图像数据时空谱一体化融合方法,本发明首先采用拉普拉斯算子对多视图像和辅助多源观察图像进行边缘增强,因此能够在平滑图像噪声的同时保留图像细节信息;然后利用融合图像与增强后的多视图像之间的空间退化模型和融合图像与辅助多源观察图像之间的时空谱关系模型,计算增强后的多视图像对融合图像的一致性约束、辅助多源观察图像对融合图像的一致性约束和图像空间关系的描述,并进一步得到目标函数;最后通过共轭梯度算法求解目标函数,利用目标函数的求解结果计算出融合图像。与现有方法相比,本发明的方法在平滑掉图像噪声的同时,可以保留95%以上的图像细节信息。
附图说明
图1是本发明的一种细节增强的遥感图像数据时空谱一体化融合方法流程图;
具体实施方式
具体实施方式一:如图1所示,本实施方式所述的一种细节增强的遥感图像数据时空谱一体化融合方法,该方法包括以下步骤:
步骤一、采用拉普拉斯算子对多视图像Y和辅助多源观察图像Z进行边缘增强,得到增强后的多视图像Y′和辅助多源观察图像Z′;
步骤二、建立融合图像x与Y′之间的空间退化模型和融合图像x与Z′之间的时空谱关系模型,计算出Y′对融合图像x的一致性约束p(Y′|x)、Z′对融合图像x的一致性约束p(Z′|x)和图像空间关系的描述p(x);
步骤三、根据步骤二计算出的p(Y′|x)、p(Z′|x)和p(x),得到目标函数F(x)的表达式;
步骤四、通过共轭梯度算法求解目标函数F(x),并利用目标函数F(x)的求解结果计算融合图像x。
具体实施方式二:本实施方式与具体实施方式一不同的是:步骤一的具体过程为:
多视图像Y={y1,...,yk,...},yk是第k个观测图像,K是多视图像的总数;为了获取k时刻的高分辨率融合图像,前提是在给定的时间K时刻有观测图像yk,一般来说,图像Y具有更高的光谱和时间分辨率,但空间分辨率较低。因此,我们认为Y是空间退化的图像。相对应的的增强融合过程得到的x是具有较高空间分辨率的图像。
辅助多源观察图像Z={z1,z2...,zn,...zN},其中:zn代表第n个图像,N是辅助多源观察图像的总数;通常是一个全色图像或多光谱(MS),具有更高的空间分辨率,但光谱或时间分辨率较低。一体化融合框架能完成不同类型的融合任务,包括多视图空间融合,空间谱融合,时空融合,时空谱融合。
拉普拉斯算子(Laplace)是一个二阶线性微分算子,与一阶线性微分算子相比,二阶微分的边缘定位能力更强,锐化效果更好。假设多视图像Y为二维图像,Y的函数表达式为f(x,y),x,y分别是二维图像的横坐标和纵坐标,Laplace算子定义为:
对于任意阶微分算子都是线性算子,所以二阶微分算子和后面的一阶微分算子都可以用生成模板然后卷积的方式得出结果。根据微分的定义有:
将公式(2)、(3)与拉普拉斯算子定义相结合得到:
将拉普拉斯算子表示成模板的形式以便编程需要,则拉普拉斯算子的扩展模板为
从模板形式可以看出,如果在图像中一个较暗的区域中出现了一个亮点,那么使用拉普拉斯算子运算可以使这个亮点变得更亮。因为图像中的边缘就是那些灰度发生跳变的区域,所以拉普拉斯锐化模板在边缘的细节增强过程中有很大作用。
最后将计算像素与其周边像素的加权差值然后再叠加到原图中,得到细节增强后的图像。则增强后的多视图像Y′的函数表达式g(x,y)为:
其中:c为权重系数;c的取值和上文的模板定义有关系,当模板中心数值取正时,c=-1,相反c=1;
同理,得到增强后的辅助多源观察图像Z′。
具体实施方式三:本实施方式与具体实施方式二不同的是:步骤二的具体过程为:
融合图像x与Y'之间的空间退化模型表示如下:
y′k,b=DSk,bMkxb+vk,b,1≤b≤Bx,1≤k≤K (6)
y′k,b表示Y′的第k个图像的第b个波段的退化观测图像,xb代表融合图像x的第b个波段,Bx为波段的总数,Mk表示运动矩阵,Sk,b表示光学模糊矩阵,D是下采样矩阵,vk,b是由传感器和外界环境引起的零均值高斯噪声;
对公式(6)进行简化,则空间退化模型表示为:
y′k,b=Ay,k,bxb+vk,b (7)
其中:Ay,k,b表示融合图像x和Y′之间的空间退化矩阵图像,Ay,k,b=DSk,bMk
融合图像x与Z′之间的时空谱关系模型表示如下:
z′n,q=ψn,qCn,qAz,n,qxqn,q+vn,q,1≤q≤Bz,n,1≤n≤N (8)
z′n,q表示Z′的第n幅图像的第q个波段的退化观测图像,xq代表融合图像x的第q个光谱带,Bz,n为光谱带的总数,Az,n,q表示融合图像x和Z′之间的空间退化矩阵图像,Cn,q表示光谱相关性矩阵,ψn,q为时间相关矩阵,τn,q为时偏移量,vn,q代表零均值传感器噪声;
则融合图像x的估计值表示如下:
p(x|Y′,Z′)代表融合图像x对Y'和Z′的一致性约束;代表当p(x|Y′,Z′)取最大值时,对应的x的取值;
根据贝叶斯公式得:
其中:p(Y′|x)表示Y'对融合图像x的一致性约束,p(Z′|x)表示Z′对融合图像x的一致性约束,p(x)代表图像空间关系的描述;
假设传感器和外界环境引起的零均值高斯噪声vk,b服从随机高斯分布,则p(Y′|x)表示如下:
其中:p(y′k,b|xb)表示Y′的第k个图像的第b个波段的退化观测图像对融合图像x的第b个波段的一致性约束;ay,k,b是vk,b的方差,Bx是光谱波段号,φ1φ2表示y′k,b的空间维度,||·||2表示2范数;
假设vn,q服从随机高斯分布,则p(Z′|x)表示如下:
其中:p(z′n,q|xq)表示Z′的第n幅图像的第q个波段对融合图像x的第q个波段的一致性约束;az,n,q表示噪声vn,q的方差,H1H2表示z′n,q的空间维度;
第三个概率密度函数p(x)是图像先验知识,用来描述图像的空间关系。我们引入Huber-Markov先验模型。相比于Gauss-Markov模型,该模型可以在融合过程中消除噪声带来的不稳定现象,并保持影像边缘,即细节增强。基于拉普拉斯算子的三维空谱的自适应加权,则p(x)表示为:
其中:ax,b是随机高斯分布的噪声vx,b的方差,L1L2表示空间维度,ρ(·)为Huber函数,Qxb表示自适应加权三维拉普拉斯算子矩阵。且Qxb表示为:
是根据重采样得到的融合图像的初始估计值,β是参数,由(21)表示:
其中μ为阈值参数。假设融合图像只有几个光谱波段,其光谱曲线是不连续的,因此令β=0是可行的。相反,如果所需的图像是一个高光谱图像,可以假定光谱曲线是连续的,因此,自适应加权的先验项可以有效地保持光谱的曲线,降低光谱失真。假设不同的光谱波段之间的区别很小,光谱约束就越强。表示第b个波段的光谱维度的梯度。
具体实施方式四:本实施方式与具体实施方式三不同的是:步骤三的具体过程为:
将公式(11)、(13)和(15)代入公式(10),根据对数函数的单调性进行处理,则目标函数F(x)表示为正则最小化问题,即根据对数函数的单调性并进行简化处理,很多参数都可以删除,最后的目标函数可以表示为正则最小化问题,融合图像x的估计值的表达式为:
其中:表示当F(x)取最小值时,对应的x的取值为估计值
其中第一项表示x和y′之间的一致性约束,第二项表示x和z′之间的关系,第三项表示先验图像。λ1和λ2分别表示各部分的权重系数,λ1和λ2与噪声方差相关,ωn,q表示z′n,q对融合图像x的贡献;它是自适应计算ωn,q=λ′n,qUn得到的。Un是由z′n和x的相关性计算得到。它是假定相关性越大,贡献越大。辅助参数λ′n,q为自适应地调整融合图像各个光谱带的空间细节平衡,表示为每个波段的融合图像,表示为
λ′n,q=f(zn,q,x)/min[f(z'1,2,x),...f(z'1,q,x)...f(z'n,q,x)]
其中f(z'n,q,x)表示融合的z'n,q光谱带数量。λ1和λ2与噪声方差相关,参数用来调节三个部分的比重。
具体实施方式五:本实施方式与具体实施方式四不同的是:步骤四的具体过程为:
通过共轭梯度算法求解目标函数F(x)的过程如下:
对目标函数F(x)的xb求导得:
表示对目标函数F(xb)求导,的转置,表示融合图像x的第b个波段对应的光谱相关性矩阵;
融合图像x的第b个波段的估计值通过连续迭代得到:
xb,d+1=xbdeb,d (19)
其中,xb,d+1表示第d+1次迭代后融合图像x的第b个波段,eb,d表示第d次迭代的搜索方向,搜索方向的初始值为即对于第1次迭代,搜索方向为接下来的搜索方向与当前迭代以及之前的搜索方向相关,θd为迭代步长;
F(xb)d为第d次迭代对应的目标函数;则第d+1次迭代的搜索方向eb,d+1为:
中间变量
利用第d+1次迭代的搜索方向eb,d+1计算出第d+2次迭代后融合图像x的第b个波段xb,d+2,利用xb,d+2计算出F(xb)d+2
以此类推,计算出每次迭代对应的目标函数;利用目标函数F(x)的求解结果计算融合图像x的具体过程为:将每次迭代对应的目标函数分别代入公式(16),计算出每次迭代的目标函数对应的融合图像x的第b个波段的估计值,直至时,则停止迭代,将作为融合图像x的第b个波段的估计值,其中ζ为迭代终止阈值;
同理,计算出融合图像x的其余波段的估计值,得到融合图像x。

Claims (5)

1.一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,该方法包括以下步骤:
步骤一、采用拉普拉斯算子对多视图像Y和辅助多源观察图像Z进行边缘增强,得到增强后的多视图像Y′和辅助多源观察图像Z′;
步骤二、建立融合图像x与Y′之间的空间退化模型和融合图像x与Z′之间的时空谱关系模型,计算出Y′对融合图像x的一致性约束p(Y′|x),以及Z′对融合图像x的一致性约束p(Z′|x)和图像空间关系的描述p(x);
步骤三、根据步骤二计算出的p(Y′|x)、p(Z′|x)和p(x),得到目标函数F(x)的表达式;
步骤四、通过共轭梯度算法求解目标函数F(x),并利用目标函数F(x)的求解结果计算融合图像x。
2.根据权利要求1所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤一的具体过程为:
多视图像Y={y1,y2...,yk,...yK},其中yk是第k个观测图像,K是多视图像的总数;辅助多源观察图像Z={z1,z2...,zn,...zN},其中:zn代表第n个图像,N是辅助多源观察图像的总数;
拉普拉斯算子是一个二阶线性微分算子,假设多视图像Y为二维图像,Y的函数表达式为f(x,y),则拉普拉斯算子定义为:
根据微分的定义有:
将公式(2)、(3)与拉普拉斯算子定义相结合得到:
则增强后的多视图像Y′的函数表达式g(x,y)为:
其中:c为权重系数;
同理,得到增强后的辅助多源观察图像Z′。
3.根据权利要求2所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤二的具体过程为:
融合图像x与Y'之间的空间退化模型表示如下:
y′k,b=DSk,bMkxb+vk,b,1≤b≤Bx,1≤k≤K (6)
y′k,b表示Y′的第k个图像的第b个波段的退化观测图像,xb代表融合图像x的第b个波段,Bx为波段的总数,Mk表示运动矩阵,Sk,b表示光学模糊矩阵,D是下采样矩阵,vk,b是由传感器和外界环境引起的零均值高斯噪声;
对公式(6)进行简化,则空间退化模型表示为:
y′k,b=Ay,k,bxb+vk,b (7)
其中:Ay,k,b表示融合图像x和Y′之间的空间退化矩阵图像,Ay,k,b=DSk,bMk
融合图像x与Z′之间的时空谱关系模型表示如下:
z′n,q=ψn,qCn,qAz,n,qxqn,q+vn,q,1≤q≤Bz,n,1≤n≤N (8)
z′n,q表示Z′的第n幅图像的第q个波段的退化观测图像,xq代表融合图像x的第q个光谱带,Bz,n为光谱带的总数,Az,n,q表示融合图像x和Z′之间的空间退化矩阵图像,Cn,q表示光谱相关性矩阵,ψn,q为时间相关矩阵,τn,q为时偏移量,vn,q代表零均值传感器噪声;
则融合图像x的估计值表示如下:
p(x|Y′,Z′)代表融合图像x对Y'和Z′的一致性约束;代表当p(x|Y′,Z′)取最大值时,对应的x的取值;
根据贝叶斯公式得:
其中:p(Y′|x)表示Y'对融合图像x的一致性约束,p(Z′|x)表示Z′对融合图像x的一致性约束,p(x)代表图像空间关系的描述;
假设传感器和外界环境引起的零均值高斯噪声vk,b服从随机高斯分布,则p(Y′|x)表示如下:
其中:p(y′k,b|xb)表示Y′的第k个图像的第b个波段的退化观测图像对融合图像x的第b个波段的一致性约束;ay,k,b是噪声vk,b的方差,φ1φ2表示y′k,b的空间维度,||·||2表示2范数;
假设vn,q服从随机高斯分布,则p(Z′|x)表示如下:
其中:表示Z′的第n幅图像的第q个波段对融合图像x的第q个波段的一致性约束;az,n,q表示噪声vn,q的方差,H1H2表示z′n,q的空间维度;
基于拉普拉斯算子的三维空谱的自适应加权,则p(x)表示为:
其中:ax,b是随机高斯分布的噪声vx,b的方差,L1L2表示空间维度,ρ(·)为Huber函数,Qxb表示自适应加权三维拉普拉斯算子矩阵。
4.根据权利要求3所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤三的具体过程为:
将公式(11)、(13)和(15)代入公式(10),则目标函数F(x)表示为正则最小化问题:
其中:表示当F(x)取最小值时,对应的x的取值为估计值
λ1和λ2分别表示各部分的权重系数,ωn,q表示z′n,q对融合图像x的贡献。
5.根据权利要求4所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤四的具体过程为:
对目标函数F(x)的xb求导得:
表示对目标函数F(xb)求导,为Ay,k,b的转置,表示融合图像x的第b个波段对应的光谱相关性矩阵;
融合图像x的第b个波段的估计值通过连续迭代得到:
xb,d+1=xbdeb,d (19)
其中,xb,d+1表示第d+1次迭代后融合图像x的第b个波段,eb,d表示第d次迭代的搜索方向,搜索方向的初始值为θd为迭代步长;
F(xb)d为第d次迭代对应的目标函数;则第d+1次迭代的搜索方向eb,d+1为:
中间变量
利用第d+1次迭代的搜索方向eb,d+1计算出第d+2次迭代后融合图像x的第b个波段xb,d+2,再利用xb,d+2计算出F(xb)d+2
以此类推,计算出每次迭代对应的目标函数;将每次迭代对应的目标函数分别代入公式(16),计算出每次迭代的目标函数对应的融合图像x的第b个波段的估计值,直至时停止迭代,将作为融合图像x的第b个波段的估计值,其中ζ为迭代终止阈值;
同理,计算出融合图像x的其余波段的估计值,得到融合图像x。
CN201811142766.8A 2018-09-28 2018-09-28 一种细节增强的遥感图像数据时空谱一体化融合方法 Pending CN109285133A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811142766.8A CN109285133A (zh) 2018-09-28 2018-09-28 一种细节增强的遥感图像数据时空谱一体化融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811142766.8A CN109285133A (zh) 2018-09-28 2018-09-28 一种细节增强的遥感图像数据时空谱一体化融合方法

Publications (1)

Publication Number Publication Date
CN109285133A true CN109285133A (zh) 2019-01-29

Family

ID=65182514

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811142766.8A Pending CN109285133A (zh) 2018-09-28 2018-09-28 一种细节增强的遥感图像数据时空谱一体化融合方法

Country Status (1)

Country Link
CN (1) CN109285133A (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751036A (zh) * 2019-09-17 2020-02-04 宁波大学 一种基于分波段及分块策略的高光谱/多光谱影像快速融合方法
CN111742329A (zh) * 2020-05-15 2020-10-02 安徽中科智能感知产业技术研究院有限责任公司 一种基于多源遥感数据融合和深度神经网络的矿山开采典型地物动态监测方法及平台
CN111882511A (zh) * 2020-07-09 2020-11-03 广东海洋大学 基于积分增强梯度迭代神经网络的多源遥感图像融合方法
CN112017135A (zh) * 2020-07-13 2020-12-01 香港理工大学深圳研究院 一种遥感影像数据时空融合的方法、系统及设备
CN112767292A (zh) * 2021-01-05 2021-05-07 同济大学 一种用于时空融合的地理加权空间混合分解方法
CN112906577A (zh) * 2021-02-23 2021-06-04 清华大学 多源遥感图像的融合方法
CN113627357A (zh) * 2021-08-13 2021-11-09 哈尔滨工业大学 一种高空间-高光谱分辨率遥感图像本征分解方法及系统
CN115000107A (zh) * 2022-06-02 2022-09-02 广州睿芯微电子有限公司 多光谱成像芯片、多光谱成像组件、制备方法及移动终端
CN115204314A (zh) * 2022-08-12 2022-10-18 西南交通大学 基于车载obu的多源数据融合方法和车载obu

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130011078A1 (en) * 2011-02-03 2013-01-10 Massachusetts Institute Of Technology Hyper-Resolution Imaging
CN102915529A (zh) * 2012-10-15 2013-02-06 黄波 基于遥感“时-空-谱-角”的一体化融合技术及其系统
CN105809148A (zh) * 2016-03-29 2016-07-27 中国科学院遥感与数字地球研究所 基于遥感时空谱融合的作物干旱识别及风险评估方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130011078A1 (en) * 2011-02-03 2013-01-10 Massachusetts Institute Of Technology Hyper-Resolution Imaging
CN102915529A (zh) * 2012-10-15 2013-02-06 黄波 基于遥感“时-空-谱-角”的一体化融合技术及其系统
CN105809148A (zh) * 2016-03-29 2016-07-27 中国科学院遥感与数字地球研究所 基于遥感时空谱融合的作物干旱识别及风险评估方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HUANFENG SHEN等: "An Integrated Framework for the Spatio–Temporal–Spectral Fusion of Remote Sensing Images", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 *
吴娱: "《数字图像处理》", 31 October 2017, 北京邮电大学出版社 *
孟祥超: "多源时—空—谱光学遥感影像的变分融合方法", 《中国优秀博士学位论文全文数据库基础科学辑》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110751036A (zh) * 2019-09-17 2020-02-04 宁波大学 一种基于分波段及分块策略的高光谱/多光谱影像快速融合方法
CN111742329A (zh) * 2020-05-15 2020-10-02 安徽中科智能感知产业技术研究院有限责任公司 一种基于多源遥感数据融合和深度神经网络的矿山开采典型地物动态监测方法及平台
CN111742329B (zh) * 2020-05-15 2023-09-12 安徽中科智能感知科技股份有限公司 一种基于多源遥感数据融合和深度神经网络的矿山开采典型地物动态监测方法及平台
CN111882511A (zh) * 2020-07-09 2020-11-03 广东海洋大学 基于积分增强梯度迭代神经网络的多源遥感图像融合方法
CN112017135B (zh) * 2020-07-13 2021-09-21 香港理工大学深圳研究院 一种遥感影像数据时空融合的方法、系统及设备
CN112017135A (zh) * 2020-07-13 2020-12-01 香港理工大学深圳研究院 一种遥感影像数据时空融合的方法、系统及设备
CN112767292A (zh) * 2021-01-05 2021-05-07 同济大学 一种用于时空融合的地理加权空间混合分解方法
CN112767292B (zh) * 2021-01-05 2022-09-16 同济大学 一种用于时空融合的地理加权空间混合分解方法
CN112906577A (zh) * 2021-02-23 2021-06-04 清华大学 多源遥感图像的融合方法
CN112906577B (zh) * 2021-02-23 2024-04-26 清华大学 多源遥感图像的融合方法
CN113627357A (zh) * 2021-08-13 2021-11-09 哈尔滨工业大学 一种高空间-高光谱分辨率遥感图像本征分解方法及系统
CN115000107A (zh) * 2022-06-02 2022-09-02 广州睿芯微电子有限公司 多光谱成像芯片、多光谱成像组件、制备方法及移动终端
CN115204314A (zh) * 2022-08-12 2022-10-18 西南交通大学 基于车载obu的多源数据融合方法和车载obu
CN115204314B (zh) * 2022-08-12 2023-05-30 西南交通大学 基于车载obu的多源数据融合方法和车载obu

Similar Documents

Publication Publication Date Title
CN109285133A (zh) 一种细节增强的遥感图像数据时空谱一体化融合方法
CN109859147B (zh) 一种基于生成对抗网络噪声建模的真实图像去噪方法
CN107123089A (zh) 基于深度卷积网络的遥感图像超分辨重建方法及系统
CN114119444B (zh) 一种基于深度神经网络的多源遥感图像融合方法
CN110210524B (zh) 一种图像增强模型的训练方法、图像增强方法及装置
CN104835130A (zh) 一种多曝光图像融合方法
CN107507135A (zh) 基于编码光圈和靶标的图像重构方法
CN103530848A (zh) 一种非均匀光照图像二次曝光的实现方法
CN112837224A (zh) 一种基于卷积神经网络的超分辨率图像重建方法
CN103559684B (zh) 基于平滑校正的图像恢复方法
AU2013258866B2 (en) Reducing the dynamic range of image data
CN117197627B (zh) 一种基于高阶退化模型的多模态图像融合方法
CN104732492A (zh) 一种深度图像的去噪方法
Li et al. A self-learning image super-resolution method via sparse representation and non-local similarity
Liu et al. Video frame interpolation via optical flow estimation with image inpainting
CN112184646A (zh) 基于梯度域导向滤波和改进pcnn的图像融合方法
Liu et al. Facial image inpainting using attention-based multi-level generative network
CN110060226B (zh) 基于人类视觉梯度转化和全变差参数自适应图像融合方法
Jiji et al. Extended depth of focus imaging using optics and image processing
CN112862684A (zh) 一种深度图超分辨率重建和去噪神经网络的数据处理方法
Shuang et al. Algorithms for improving the quality of underwater optical images: A comprehensive review
Diana Earshia et al. A guided optimized recursive least square adaptive filtering based multi-variate dense fusion network model for image interpolation
CN112927164B (zh) 一种基于深度卷积神经网络的无参考低照度图像增强方法
Liu et al. Research on image enhancement algorithm based on artificial intelligence
Altantawy et al. Bi-perspective Fisher discrimination for single depth map upsampling: A self-learning classification-based approach

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190129