CN109285133A - 一种细节增强的遥感图像数据时空谱一体化融合方法 - Google Patents
一种细节增强的遥感图像数据时空谱一体化融合方法 Download PDFInfo
- Publication number
- CN109285133A CN109285133A CN201811142766.8A CN201811142766A CN109285133A CN 109285133 A CN109285133 A CN 109285133A CN 201811142766 A CN201811142766 A CN 201811142766A CN 109285133 A CN109285133 A CN 109285133A
- Authority
- CN
- China
- Prior art keywords
- image
- indicate
- blending
- blending image
- wave band
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000003595 spectral effect Effects 0.000 title claims abstract description 31
- 230000002123 temporal effect Effects 0.000 title claims abstract description 22
- 230000002708 enhancing effect Effects 0.000 title claims abstract description 20
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 15
- 238000002156 mixing Methods 0.000 claims abstract description 76
- 238000000034 method Methods 0.000 claims abstract description 22
- 230000015556 catabolic process Effects 0.000 claims abstract description 9
- 238000006731 degradation reaction Methods 0.000 claims abstract description 9
- 239000011159 matrix material Substances 0.000 claims description 18
- 238000001228 spectrum Methods 0.000 claims description 17
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 230000007850 degeneration Effects 0.000 claims description 6
- 239000008186 active pharmaceutical agent Substances 0.000 claims description 4
- 238000009795 derivation Methods 0.000 claims description 4
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 claims description 2
- 230000003287 optical effect Effects 0.000 claims description 2
- 238000005070 sampling Methods 0.000 claims description 2
- 230000004927 fusion Effects 0.000 abstract description 20
- 238000007796 conventional method Methods 0.000 abstract description 2
- 238000009499 grossing Methods 0.000 abstract description 2
- 230000010354 integration Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 241001270131 Agaricus moelleri Species 0.000 description 1
- 244000025254 Cannabis sativa Species 0.000 description 1
- 241001269238 Data Species 0.000 description 1
- 238000012952 Resampling Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000153 supplemental effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
一种细节增强的遥感图像数据时空谱一体化融合方法,它属于遥感图像融合技术领域。本发明解决了现有的遥感图像数据融合方法在平滑图像噪声的同时,也会平滑掉图像细节信息的问题。本发明首先采用拉普拉斯算子对Y和Z进行边缘增强,因此能够在平滑图像噪声的同时保留图像细节信息;然后利用融合图像与Y′之间的空间退化模型和融合图像与Z′之间的时空谱关系模型,计算Y′对融合图像的一致性约束、Z′对融合图像的一致性约束和图像空间关系的描述,并得到目标函数;最后通过共轭梯度算法求解目标函数,利用求解结果计算出融合图像。与现有方法相比,本发明的方法在平滑掉图像噪声的同时,可以保留95%以上的图像细节信息。本发明可以应用于遥感图像融合技术领域用。
Description
技术领域
本发明属于遥感图像融合技术领域,具体涉及一种遥感图像数据时空谱一体化融合方法。
背景技术
现有的遥感图像融合方法采用三种不同的层级,分别为数据级别、特征级别和决策级别,根据目标的不同,遥感图像融合可分为多视空间融合,空谱融合和时空融合。
大多数现有的遥感图像数据融合方法只能应用于整合空间、时间和光谱分辨率其中的两个指标,因此不能获得最高的时间、空间、光谱分辨率融合图像。此外,一些遥感图像数据融合方法旨在合并来自一个或两个传感器的补充信息,不能充分利用来自更多传感器的互补观测信息。在一体化融合理论方法发展中,国内学者做出了较大贡献。从2010年开始,武汉大学在国家自然科学基金的资助下开始相关研究,首次提出了时空谱一体化融合的概念与基于最大后验概率理论的融合框架,并取得了一定的研究成果。香港中文大学对遥感图像数据的时、空、谱关联模型进行了进一步探索,同样基于最大后验估计理论,提出了一种新的时空谱一体融合方法,但仍然是针对两个传感器数据的融合方面。Meng等人、Wu等人在3个传感器融合方面取得了重要进展,但没有全面考虑时、空、谱特征。之后Meng等人进一步提出了一个统一的融合框架,既能够有效融合时、空、谱互补信息,同时消除了传感器数量的限制,然而该方法嵌入的先验模型为Gauss-Markov模型,虽然能够有效的平滑图像噪声,但该模型也会平滑掉图像细节信息,进而影响了融合图像的细节信息,造成图像拍摄的视觉效果不佳。
发明内容
本发明的目的是为解决现有的遥感图像数据融合方法在平滑图像噪声的同时,也会平滑掉图像细节信息的问题。
本发明为解决上述技术问题采取的技术方案是:
一种细节增强的遥感图像数据时空谱一体化融合方法,该方法包括以下步骤:
步骤一、采用拉普拉斯算子对多视图像Y和辅助多源观察图像Z进行边缘增强,得到增强后的多视图像Y′和辅助多源观察图像Z′;
步骤二、建立融合图像x与Y′之间的空间退化模型和融合图像x与Z′之间的时空谱关系模型,计算出Y′对融合图像x的一致性约束p(Y′|x)、Z′对融合图像x的一致性约束p(Z′|x)和图像空间关系的描述p(x);
步骤三、根据步骤二计算出的p(Y′|x)、p(Z′|x)和p(x),得到目标函数F(x)的表达式;
步骤四、通过共轭梯度算法求解目标函数F(x),并利用目标函数F(x)的求解结果计算融合图像x。
本发明的有益效果是:本发明提供了一种细节增强的遥感图像数据时空谱一体化融合方法,本发明首先采用拉普拉斯算子对多视图像和辅助多源观察图像进行边缘增强,因此能够在平滑图像噪声的同时保留图像细节信息;然后利用融合图像与增强后的多视图像之间的空间退化模型和融合图像与辅助多源观察图像之间的时空谱关系模型,计算增强后的多视图像对融合图像的一致性约束、辅助多源观察图像对融合图像的一致性约束和图像空间关系的描述,并进一步得到目标函数;最后通过共轭梯度算法求解目标函数,利用目标函数的求解结果计算出融合图像。与现有方法相比,本发明的方法在平滑掉图像噪声的同时,可以保留95%以上的图像细节信息。
附图说明
图1是本发明的一种细节增强的遥感图像数据时空谱一体化融合方法流程图;
具体实施方式
具体实施方式一:如图1所示,本实施方式所述的一种细节增强的遥感图像数据时空谱一体化融合方法,该方法包括以下步骤:
步骤一、采用拉普拉斯算子对多视图像Y和辅助多源观察图像Z进行边缘增强,得到增强后的多视图像Y′和辅助多源观察图像Z′;
步骤二、建立融合图像x与Y′之间的空间退化模型和融合图像x与Z′之间的时空谱关系模型,计算出Y′对融合图像x的一致性约束p(Y′|x)、Z′对融合图像x的一致性约束p(Z′|x)和图像空间关系的描述p(x);
步骤三、根据步骤二计算出的p(Y′|x)、p(Z′|x)和p(x),得到目标函数F(x)的表达式;
步骤四、通过共轭梯度算法求解目标函数F(x),并利用目标函数F(x)的求解结果计算融合图像x。
具体实施方式二:本实施方式与具体实施方式一不同的是:步骤一的具体过程为:
多视图像Y={y1,...,yk,...},yk是第k个观测图像,K是多视图像的总数;为了获取k时刻的高分辨率融合图像,前提是在给定的时间K时刻有观测图像yk,一般来说,图像Y具有更高的光谱和时间分辨率,但空间分辨率较低。因此,我们认为Y是空间退化的图像。相对应的的增强融合过程得到的x是具有较高空间分辨率的图像。
辅助多源观察图像Z={z1,z2...,zn,...zN},其中:zn代表第n个图像,N是辅助多源观察图像的总数;通常是一个全色图像或多光谱(MS),具有更高的空间分辨率,但光谱或时间分辨率较低。一体化融合框架能完成不同类型的融合任务,包括多视图空间融合,空间谱融合,时空融合,时空谱融合。
拉普拉斯算子(Laplace)是一个二阶线性微分算子,与一阶线性微分算子相比,二阶微分的边缘定位能力更强,锐化效果更好。假设多视图像Y为二维图像,Y的函数表达式为f(x,y),x,y分别是二维图像的横坐标和纵坐标,Laplace算子定义为:
对于任意阶微分算子都是线性算子,所以二阶微分算子和后面的一阶微分算子都可以用生成模板然后卷积的方式得出结果。根据微分的定义有:
将公式(2)、(3)与拉普拉斯算子定义相结合得到:
将拉普拉斯算子表示成模板的形式以便编程需要,则拉普拉斯算子的扩展模板为
从模板形式可以看出,如果在图像中一个较暗的区域中出现了一个亮点,那么使用拉普拉斯算子运算可以使这个亮点变得更亮。因为图像中的边缘就是那些灰度发生跳变的区域,所以拉普拉斯锐化模板在边缘的细节增强过程中有很大作用。
最后将计算像素与其周边像素的加权差值然后再叠加到原图中,得到细节增强后的图像。则增强后的多视图像Y′的函数表达式g(x,y)为:
其中:c为权重系数;c的取值和上文的模板定义有关系,当模板中心数值取正时,c=-1,相反c=1;
同理,得到增强后的辅助多源观察图像Z′。
具体实施方式三:本实施方式与具体实施方式二不同的是:步骤二的具体过程为:
融合图像x与Y'之间的空间退化模型表示如下:
y′k,b=DSk,bMkxb+vk,b,1≤b≤Bx,1≤k≤K (6)
y′k,b表示Y′的第k个图像的第b个波段的退化观测图像,xb代表融合图像x的第b个波段,Bx为波段的总数,Mk表示运动矩阵,Sk,b表示光学模糊矩阵,D是下采样矩阵,vk,b是由传感器和外界环境引起的零均值高斯噪声;
对公式(6)进行简化,则空间退化模型表示为:
y′k,b=Ay,k,bxb+vk,b (7)
其中:Ay,k,b表示融合图像x和Y′之间的空间退化矩阵图像,Ay,k,b=DSk,bMk;
融合图像x与Z′之间的时空谱关系模型表示如下:
z′n,q=ψn,qCn,qAz,n,qxq+τn,q+vn,q,1≤q≤Bz,n,1≤n≤N (8)
z′n,q表示Z′的第n幅图像的第q个波段的退化观测图像,xq代表融合图像x的第q个光谱带,Bz,n为光谱带的总数,Az,n,q表示融合图像x和Z′之间的空间退化矩阵图像,Cn,q表示光谱相关性矩阵,ψn,q为时间相关矩阵,τn,q为时偏移量,vn,q代表零均值传感器噪声;
则融合图像x的估计值表示如下:
p(x|Y′,Z′)代表融合图像x对Y'和Z′的一致性约束;代表当p(x|Y′,Z′)取最大值时,对应的x的取值;
根据贝叶斯公式得:
其中:p(Y′|x)表示Y'对融合图像x的一致性约束,p(Z′|x)表示Z′对融合图像x的一致性约束,p(x)代表图像空间关系的描述;
假设传感器和外界环境引起的零均值高斯噪声vk,b服从随机高斯分布,则p(Y′|x)表示如下:
其中:p(y′k,b|xb)表示Y′的第k个图像的第b个波段的退化观测图像对融合图像x的第b个波段的一致性约束;ay,k,b是vk,b的方差,Bx是光谱波段号,φ1φ2表示y′k,b的空间维度,||·||2表示2范数;
假设vn,q服从随机高斯分布,则p(Z′|x)表示如下:
其中:p(z′n,q|xq)表示Z′的第n幅图像的第q个波段对融合图像x的第q个波段的一致性约束;az,n,q表示噪声vn,q的方差,H1H2表示z′n,q的空间维度;
第三个概率密度函数p(x)是图像先验知识,用来描述图像的空间关系。我们引入Huber-Markov先验模型。相比于Gauss-Markov模型,该模型可以在融合过程中消除噪声带来的不稳定现象,并保持影像边缘,即细节增强。基于拉普拉斯算子的三维空谱的自适应加权,则p(x)表示为:
其中:ax,b是随机高斯分布的噪声vx,b的方差,L1L2表示空间维度,ρ(·)为Huber函数,Qxb表示自适应加权三维拉普拉斯算子矩阵。且Qxb表示为:
是根据重采样得到的融合图像的初始估计值,β是参数,由(21)表示:
其中μ为阈值参数。假设融合图像只有几个光谱波段,其光谱曲线是不连续的,因此令β=0是可行的。相反,如果所需的图像是一个高光谱图像,可以假定光谱曲线是连续的,因此,自适应加权的先验项可以有效地保持光谱的曲线,降低光谱失真。假设不同的光谱波段之间的区别很小,光谱约束就越强。表示第b个波段的光谱维度的梯度。
具体实施方式四:本实施方式与具体实施方式三不同的是:步骤三的具体过程为:
将公式(11)、(13)和(15)代入公式(10),根据对数函数的单调性进行处理,则目标函数F(x)表示为正则最小化问题,即根据对数函数的单调性并进行简化处理,很多参数都可以删除,最后的目标函数可以表示为正则最小化问题,融合图像x的估计值的表达式为:
其中:表示当F(x)取最小值时,对应的x的取值为估计值
其中第一项表示x和y′之间的一致性约束,第二项表示x和z′之间的关系,第三项表示先验图像。λ1和λ2分别表示各部分的权重系数,λ1和λ2与噪声方差相关,ωn,q表示z′n,q对融合图像x的贡献;它是自适应计算ωn,q=λ′n,qUn得到的。Un是由z′n和x的相关性计算得到。它是假定相关性越大,贡献越大。辅助参数λ′n,q为自适应地调整融合图像各个光谱带的空间细节平衡,表示为每个波段的融合图像,表示为
λ′n,q=f(zn,q,x)/min[f(z'1,2,x),...f(z'1,q,x)...f(z'n,q,x)]
其中f(z'n,q,x)表示融合的z'n,q光谱带数量。λ1和λ2与噪声方差相关,参数用来调节三个部分的比重。
具体实施方式五:本实施方式与具体实施方式四不同的是:步骤四的具体过程为:
通过共轭梯度算法求解目标函数F(x)的过程如下:
对目标函数F(x)的xb求导得:
表示对目标函数F(xb)求导,为的转置,表示融合图像x的第b个波段对应的光谱相关性矩阵;
融合图像x的第b个波段的估计值通过连续迭代得到:
xb,d+1=xb+θdeb,d (19)
其中,xb,d+1表示第d+1次迭代后融合图像x的第b个波段,eb,d表示第d次迭代的搜索方向,搜索方向的初始值为即对于第1次迭代,搜索方向为接下来的搜索方向与当前迭代以及之前的搜索方向相关,θd为迭代步长;
F(xb)d为第d次迭代对应的目标函数;则第d+1次迭代的搜索方向eb,d+1为:
中间变量
利用第d+1次迭代的搜索方向eb,d+1计算出第d+2次迭代后融合图像x的第b个波段xb,d+2,利用xb,d+2计算出F(xb)d+2;
以此类推,计算出每次迭代对应的目标函数;利用目标函数F(x)的求解结果计算融合图像x的具体过程为:将每次迭代对应的目标函数分别代入公式(16),计算出每次迭代的目标函数对应的融合图像x的第b个波段的估计值,直至时,则停止迭代,将作为融合图像x的第b个波段的估计值,其中ζ为迭代终止阈值;
同理,计算出融合图像x的其余波段的估计值,得到融合图像x。
Claims (5)
1.一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,该方法包括以下步骤:
步骤一、采用拉普拉斯算子对多视图像Y和辅助多源观察图像Z进行边缘增强,得到增强后的多视图像Y′和辅助多源观察图像Z′;
步骤二、建立融合图像x与Y′之间的空间退化模型和融合图像x与Z′之间的时空谱关系模型,计算出Y′对融合图像x的一致性约束p(Y′|x),以及Z′对融合图像x的一致性约束p(Z′|x)和图像空间关系的描述p(x);
步骤三、根据步骤二计算出的p(Y′|x)、p(Z′|x)和p(x),得到目标函数F(x)的表达式;
步骤四、通过共轭梯度算法求解目标函数F(x),并利用目标函数F(x)的求解结果计算融合图像x。
2.根据权利要求1所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤一的具体过程为:
多视图像Y={y1,y2...,yk,...yK},其中yk是第k个观测图像,K是多视图像的总数;辅助多源观察图像Z={z1,z2...,zn,...zN},其中:zn代表第n个图像,N是辅助多源观察图像的总数;
拉普拉斯算子是一个二阶线性微分算子,假设多视图像Y为二维图像,Y的函数表达式为f(x,y),则拉普拉斯算子定义为:
根据微分的定义有:
将公式(2)、(3)与拉普拉斯算子定义相结合得到:
则增强后的多视图像Y′的函数表达式g(x,y)为:
其中:c为权重系数;
同理,得到增强后的辅助多源观察图像Z′。
3.根据权利要求2所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤二的具体过程为:
融合图像x与Y'之间的空间退化模型表示如下:
y′k,b=DSk,bMkxb+vk,b,1≤b≤Bx,1≤k≤K (6)
y′k,b表示Y′的第k个图像的第b个波段的退化观测图像,xb代表融合图像x的第b个波段,Bx为波段的总数,Mk表示运动矩阵,Sk,b表示光学模糊矩阵,D是下采样矩阵,vk,b是由传感器和外界环境引起的零均值高斯噪声;
对公式(6)进行简化,则空间退化模型表示为:
y′k,b=Ay,k,bxb+vk,b (7)
其中:Ay,k,b表示融合图像x和Y′之间的空间退化矩阵图像,Ay,k,b=DSk,bMk;
融合图像x与Z′之间的时空谱关系模型表示如下:
z′n,q=ψn,qCn,qAz,n,qxq+τn,q+vn,q,1≤q≤Bz,n,1≤n≤N (8)
z′n,q表示Z′的第n幅图像的第q个波段的退化观测图像,xq代表融合图像x的第q个光谱带,Bz,n为光谱带的总数,Az,n,q表示融合图像x和Z′之间的空间退化矩阵图像,Cn,q表示光谱相关性矩阵,ψn,q为时间相关矩阵,τn,q为时偏移量,vn,q代表零均值传感器噪声;
则融合图像x的估计值表示如下:
p(x|Y′,Z′)代表融合图像x对Y'和Z′的一致性约束;代表当p(x|Y′,Z′)取最大值时,对应的x的取值;
根据贝叶斯公式得:
其中:p(Y′|x)表示Y'对融合图像x的一致性约束,p(Z′|x)表示Z′对融合图像x的一致性约束,p(x)代表图像空间关系的描述;
假设传感器和外界环境引起的零均值高斯噪声vk,b服从随机高斯分布,则p(Y′|x)表示如下:
其中:p(y′k,b|xb)表示Y′的第k个图像的第b个波段的退化观测图像对融合图像x的第b个波段的一致性约束;ay,k,b是噪声vk,b的方差,φ1φ2表示y′k,b的空间维度,||·||2表示2范数;
假设vn,q服从随机高斯分布,则p(Z′|x)表示如下:
其中:表示Z′的第n幅图像的第q个波段对融合图像x的第q个波段的一致性约束;az,n,q表示噪声vn,q的方差,H1H2表示z′n,q的空间维度;
基于拉普拉斯算子的三维空谱的自适应加权,则p(x)表示为:
其中:ax,b是随机高斯分布的噪声vx,b的方差,L1L2表示空间维度,ρ(·)为Huber函数,Qxb表示自适应加权三维拉普拉斯算子矩阵。
4.根据权利要求3所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤三的具体过程为:
将公式(11)、(13)和(15)代入公式(10),则目标函数F(x)表示为正则最小化问题:
其中:表示当F(x)取最小值时,对应的x的取值为估计值
λ1和λ2分别表示各部分的权重系数,ωn,q表示z′n,q对融合图像x的贡献。
5.根据权利要求4所述的一种细节增强的遥感图像数据时空谱一体化融合方法,其特征在于,所述步骤四的具体过程为:
对目标函数F(x)的xb求导得:
表示对目标函数F(xb)求导,为Ay,k,b的转置,表示融合图像x的第b个波段对应的光谱相关性矩阵;
融合图像x的第b个波段的估计值通过连续迭代得到:
xb,d+1=xb+θdeb,d (19)
其中,xb,d+1表示第d+1次迭代后融合图像x的第b个波段,eb,d表示第d次迭代的搜索方向,搜索方向的初始值为θd为迭代步长;
F(xb)d为第d次迭代对应的目标函数;则第d+1次迭代的搜索方向eb,d+1为:
中间变量
利用第d+1次迭代的搜索方向eb,d+1计算出第d+2次迭代后融合图像x的第b个波段xb,d+2,再利用xb,d+2计算出F(xb)d+2;
以此类推,计算出每次迭代对应的目标函数;将每次迭代对应的目标函数分别代入公式(16),计算出每次迭代的目标函数对应的融合图像x的第b个波段的估计值,直至时停止迭代,将作为融合图像x的第b个波段的估计值,其中ζ为迭代终止阈值;
同理,计算出融合图像x的其余波段的估计值,得到融合图像x。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811142766.8A CN109285133A (zh) | 2018-09-28 | 2018-09-28 | 一种细节增强的遥感图像数据时空谱一体化融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811142766.8A CN109285133A (zh) | 2018-09-28 | 2018-09-28 | 一种细节增强的遥感图像数据时空谱一体化融合方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109285133A true CN109285133A (zh) | 2019-01-29 |
Family
ID=65182514
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811142766.8A Pending CN109285133A (zh) | 2018-09-28 | 2018-09-28 | 一种细节增强的遥感图像数据时空谱一体化融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109285133A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751036A (zh) * | 2019-09-17 | 2020-02-04 | 宁波大学 | 一种基于分波段及分块策略的高光谱/多光谱影像快速融合方法 |
CN111742329A (zh) * | 2020-05-15 | 2020-10-02 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于多源遥感数据融合和深度神经网络的矿山开采典型地物动态监测方法及平台 |
CN111882511A (zh) * | 2020-07-09 | 2020-11-03 | 广东海洋大学 | 基于积分增强梯度迭代神经网络的多源遥感图像融合方法 |
CN112017135A (zh) * | 2020-07-13 | 2020-12-01 | 香港理工大学深圳研究院 | 一种遥感影像数据时空融合的方法、系统及设备 |
CN112767292A (zh) * | 2021-01-05 | 2021-05-07 | 同济大学 | 一种用于时空融合的地理加权空间混合分解方法 |
CN112906577A (zh) * | 2021-02-23 | 2021-06-04 | 清华大学 | 多源遥感图像的融合方法 |
CN113627357A (zh) * | 2021-08-13 | 2021-11-09 | 哈尔滨工业大学 | 一种高空间-高光谱分辨率遥感图像本征分解方法及系统 |
CN115000107A (zh) * | 2022-06-02 | 2022-09-02 | 广州睿芯微电子有限公司 | 多光谱成像芯片、多光谱成像组件、制备方法及移动终端 |
CN115204314A (zh) * | 2022-08-12 | 2022-10-18 | 西南交通大学 | 基于车载obu的多源数据融合方法和车载obu |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130011078A1 (en) * | 2011-02-03 | 2013-01-10 | Massachusetts Institute Of Technology | Hyper-Resolution Imaging |
CN102915529A (zh) * | 2012-10-15 | 2013-02-06 | 黄波 | 基于遥感“时-空-谱-角”的一体化融合技术及其系统 |
CN105809148A (zh) * | 2016-03-29 | 2016-07-27 | 中国科学院遥感与数字地球研究所 | 基于遥感时空谱融合的作物干旱识别及风险评估方法 |
-
2018
- 2018-09-28 CN CN201811142766.8A patent/CN109285133A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20130011078A1 (en) * | 2011-02-03 | 2013-01-10 | Massachusetts Institute Of Technology | Hyper-Resolution Imaging |
CN102915529A (zh) * | 2012-10-15 | 2013-02-06 | 黄波 | 基于遥感“时-空-谱-角”的一体化融合技术及其系统 |
CN105809148A (zh) * | 2016-03-29 | 2016-07-27 | 中国科学院遥感与数字地球研究所 | 基于遥感时空谱融合的作物干旱识别及风险评估方法 |
Non-Patent Citations (3)
Title |
---|
HUANFENG SHEN等: "An Integrated Framework for the Spatio–Temporal–Spectral Fusion of Remote Sensing Images", 《IEEE TRANSACTIONS ON GEOSCIENCE AND REMOTE SENSING》 * |
吴娱: "《数字图像处理》", 31 October 2017, 北京邮电大学出版社 * |
孟祥超: "多源时—空—谱光学遥感影像的变分融合方法", 《中国优秀博士学位论文全文数据库基础科学辑》 * |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110751036A (zh) * | 2019-09-17 | 2020-02-04 | 宁波大学 | 一种基于分波段及分块策略的高光谱/多光谱影像快速融合方法 |
CN111742329A (zh) * | 2020-05-15 | 2020-10-02 | 安徽中科智能感知产业技术研究院有限责任公司 | 一种基于多源遥感数据融合和深度神经网络的矿山开采典型地物动态监测方法及平台 |
CN111742329B (zh) * | 2020-05-15 | 2023-09-12 | 安徽中科智能感知科技股份有限公司 | 一种基于多源遥感数据融合和深度神经网络的矿山开采典型地物动态监测方法及平台 |
CN111882511A (zh) * | 2020-07-09 | 2020-11-03 | 广东海洋大学 | 基于积分增强梯度迭代神经网络的多源遥感图像融合方法 |
CN112017135B (zh) * | 2020-07-13 | 2021-09-21 | 香港理工大学深圳研究院 | 一种遥感影像数据时空融合的方法、系统及设备 |
CN112017135A (zh) * | 2020-07-13 | 2020-12-01 | 香港理工大学深圳研究院 | 一种遥感影像数据时空融合的方法、系统及设备 |
CN112767292A (zh) * | 2021-01-05 | 2021-05-07 | 同济大学 | 一种用于时空融合的地理加权空间混合分解方法 |
CN112767292B (zh) * | 2021-01-05 | 2022-09-16 | 同济大学 | 一种用于时空融合的地理加权空间混合分解方法 |
CN112906577A (zh) * | 2021-02-23 | 2021-06-04 | 清华大学 | 多源遥感图像的融合方法 |
CN112906577B (zh) * | 2021-02-23 | 2024-04-26 | 清华大学 | 多源遥感图像的融合方法 |
CN113627357A (zh) * | 2021-08-13 | 2021-11-09 | 哈尔滨工业大学 | 一种高空间-高光谱分辨率遥感图像本征分解方法及系统 |
CN115000107A (zh) * | 2022-06-02 | 2022-09-02 | 广州睿芯微电子有限公司 | 多光谱成像芯片、多光谱成像组件、制备方法及移动终端 |
CN115204314A (zh) * | 2022-08-12 | 2022-10-18 | 西南交通大学 | 基于车载obu的多源数据融合方法和车载obu |
CN115204314B (zh) * | 2022-08-12 | 2023-05-30 | 西南交通大学 | 基于车载obu的多源数据融合方法和车载obu |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109285133A (zh) | 一种细节增强的遥感图像数据时空谱一体化融合方法 | |
CN109859147B (zh) | 一种基于生成对抗网络噪声建模的真实图像去噪方法 | |
CN107123089A (zh) | 基于深度卷积网络的遥感图像超分辨重建方法及系统 | |
CN114119444B (zh) | 一种基于深度神经网络的多源遥感图像融合方法 | |
CN110210524B (zh) | 一种图像增强模型的训练方法、图像增强方法及装置 | |
CN104835130A (zh) | 一种多曝光图像融合方法 | |
CN107507135A (zh) | 基于编码光圈和靶标的图像重构方法 | |
CN103530848A (zh) | 一种非均匀光照图像二次曝光的实现方法 | |
CN112837224A (zh) | 一种基于卷积神经网络的超分辨率图像重建方法 | |
CN103559684B (zh) | 基于平滑校正的图像恢复方法 | |
AU2013258866B2 (en) | Reducing the dynamic range of image data | |
CN117197627B (zh) | 一种基于高阶退化模型的多模态图像融合方法 | |
CN104732492A (zh) | 一种深度图像的去噪方法 | |
Li et al. | A self-learning image super-resolution method via sparse representation and non-local similarity | |
Liu et al. | Video frame interpolation via optical flow estimation with image inpainting | |
CN112184646A (zh) | 基于梯度域导向滤波和改进pcnn的图像融合方法 | |
Liu et al. | Facial image inpainting using attention-based multi-level generative network | |
CN110060226B (zh) | 基于人类视觉梯度转化和全变差参数自适应图像融合方法 | |
Jiji et al. | Extended depth of focus imaging using optics and image processing | |
CN112862684A (zh) | 一种深度图超分辨率重建和去噪神经网络的数据处理方法 | |
Shuang et al. | Algorithms for improving the quality of underwater optical images: A comprehensive review | |
Diana Earshia et al. | A guided optimized recursive least square adaptive filtering based multi-variate dense fusion network model for image interpolation | |
CN112927164B (zh) | 一种基于深度卷积神经网络的无参考低照度图像增强方法 | |
Liu et al. | Research on image enhancement algorithm based on artificial intelligence | |
Altantawy et al. | Bi-perspective Fisher discrimination for single depth map upsampling: A self-learning classification-based approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190129 |