CN116935214B - 一种卫星多源遥感数据的时空谱融合方法 - Google Patents

一种卫星多源遥感数据的时空谱融合方法 Download PDF

Info

Publication number
CN116935214B
CN116935214B CN202310766409.3A CN202310766409A CN116935214B CN 116935214 B CN116935214 B CN 116935214B CN 202310766409 A CN202310766409 A CN 202310766409A CN 116935214 B CN116935214 B CN 116935214B
Authority
CN
China
Prior art keywords
image
spectrum
fusion
hyperspectral image
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310766409.3A
Other languages
English (en)
Other versions
CN116935214A (zh
Inventor
张雷
张帅飞
邹清顺
杨与春
蓝兴发
郭碧莲
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujian Dingyang Information Technology Co ltd
Original Assignee
Fujian Dingyang Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujian Dingyang Information Technology Co ltd filed Critical Fujian Dingyang Information Technology Co ltd
Priority to CN202310766409.3A priority Critical patent/CN116935214B/zh
Publication of CN116935214A publication Critical patent/CN116935214A/zh
Application granted granted Critical
Publication of CN116935214B publication Critical patent/CN116935214B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/194Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02ATECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
    • Y02A40/00Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
    • Y02A40/10Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Remote Sensing (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种卫星多源遥感数据的时空谱融合方法,包括:获取待测目标区域的原始高光谱图像和先验高光谱图像,对原始高光谱图像和先验高光谱图像进行线性光谱解混的变换处理,获得时空融合数据;对原始高光谱图像进行多尺度训练和全色锐化的处理,获得全色锐化结果;获取雷达图像,提取全色锐化结果的空谱特征和雷达图像的高程特征,对空谱特征和高程特征进行数据融合,获得多源融合数据;基于多光谱图像光谱分辨率增强方法将时空融合数据与多源融合数据进行融合,获得最终融合数据,对待测目标区域的地表形变进行实时监测。本发明实现了多源遥感数据的数据融合,辅助对地表形变情况进行实时监测,保证了监测结果的准确性和实效性。

Description

一种卫星多源遥感数据的时空谱融合方法
技术领域
本发明属于时空谱遥感数据融合技术领域,特别是涉及一种卫星多源遥感数据的时空谱融合方法。
背景技术
多源遥感数据融合是利用不同空间分辨率、不同时间分辨率和不同光谱分辨率的光学遥感数据,甚至是光学遥感数据与雷达数据所各自具有的不同数据特点,融合出能够综合多源数据特征的融合影像的方法。它对提高遥感影像利用效率和提高遥感应用效果都具有重要的意义。
遥感数据的时、空、谱尺度问题是影响地表形变参数监测的重要原因之一。由于对地遥感设备扫过同一区域时具有时间性的差异和土地覆盖类别的差异,因此需要获得同时具有高的时间、空间和光谱分辨率的遥感数据,然而由于传感器设计的局限性,时间、空间和光谱分辨率具有互斥性,不可能兼得三项指标。因此,亟需提出一种卫星多源遥感数据的时空谱融合方法。
发明内容
本发明的目的是提供一种卫星多源遥感数据的时空谱融合方法,以解决上述现有技术存在的问题。
为实现上述目的,本发明提供了一种卫星多源遥感数据的时空谱融合方法,包括以下步骤:
获取待测目标区域的任意时刻的原始高光谱图像和先验高光谱图像,对所述原始高光谱图像和先验高光谱图像进行线性光谱解混的变换处理,获得时空融合数据;
对所述原始高光谱图像进行多尺度训练和全色锐化的处理,获得全色锐化结果;
获取待测目标区域的雷达图像,提取所述全色锐化结果的空谱特征和雷达图像的高程特征,对空谱特征和高程特征进行数据融合,获得多源融合数据;
基于多光谱图像光谱分辨率增强方法将所述时空融合数据与所述多源融合数据进行融合,获得最终融合数据,基于所述最终融合数据对待测目标区域的地表形变进行实时监测。
可选地,获得时空融合数据的过程包括:分别构建所述原始高光谱图像和先验高光谱图像的线性光谱解混模型;基于所述线性光谱解混模型建立优化模型,并对所述优化模型进行线性光谱解混逆变换,获得时空融合数据。
可选地,构建原始高光谱图像的线性光谱解混模型的过程包括:基于预设比例尺度的空间降采样矩阵对理想丰度图像进行处理,获得原始高光谱图像的粗糙丰度图像,基于所述粗糙丰度图像以及原始高光谱图像的光谱端元和加性噪声,获得原始高光谱图像的线性光谱解混模型。
可选地,构建先验高光谱图像的线性光谱解混模型的过程包括:对理想丰度图像和地物变化参数进行处理,获得先验高光谱图像的精细丰度图像,基于所述精细丰度图像以及先验高光谱图像的光谱端元和加性噪声,获得先验高光谱图像的线性光谱解混模型。
可选地,建立优化模型的过程包括:基于原始高光谱图像和先验高光谱图像的线性光谱解混模型、理想丰度图像的正则化项及对应的平衡参数和空-谱变化因子的正则化项及对应的平衡参数,构建优化模型。
可选地,获得全色锐化结果的过程包括:基于所述拉普拉斯金字塔深度学习模型对所述原始高光谱图像进行多尺度训练,获得改善后的高光谱图像;获取待测目标区域的光学全色图像,基于主成分替代模型将所述光学全色图像与改善后的高光谱图像进行全色锐化,获得全色锐化结果。
可选地,对所述空谱特征和高程特征进行数据融合的过程包括:基于图特征融合方法获取变换矩阵,基于所述变换矩阵对所述空谱特征和高程特征进行数据融合。
本发明的技术效果为:
本发明将待测目标区域的原始数据和先验数据进行时空融合,然后将待测目标区域内的遥感数据和雷达数据进行空谱数据融合,最后将时空融合的数据和空谱融合的数据进行最终的数据融合,实现了对遥感数据的多源数据融合,最终的融合数据能够辅助对待测目标区域的地表形变情况进行实时监测,并且保证了监测结果的准确性和实效性。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例中的卫星多源遥感数据的时空谱融合方法流程示意图;
图2为本发明实施例中的基于拉普拉斯金字塔深度学习的全色锐化模型示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
如图1所示,本实施例中提供一种卫星多源遥感数据的时空谱融合方法,包括以下步骤:
步骤1:假设C是T1时刻原始高光谱图像,具有B个波段和N个像元。F是获得的任意时刻精细多源先验高光谱图像,具有B个波段和NS2个像元,其中S是两幅图像的比例尺度。
分别对原始高光谱图像C和任意时刻的多源先验高光谱图像F建立线性光谱解混模型。假设图像的光谱可以看作纯物质中数目为P的光谱端元组合,原始高光谱图像C和先验高光谱图像F的光谱解混模型如下所示:
ZC=MAC+NC (1)
ZF=MAF+NF (2)
其中,AC∈RP×N分别是ZC的粗糙丰度图像和ZF的精细丰度图像。假设两图像中所具有的纯物质相同,即光谱端元都为M∈RB×P。NC∈RB×N和/>分别表示两图像的加性噪声。而理想的丰度图像/>往往被认为通过比例尺度为S的空间降采样矩阵/>变成粗糙丰度图像AC,即AC=HD。因此原始高光谱图像C的光谱解混模型重新表示为:
ZC=MHD+NC (3)
步骤2:利用地物变化参数将两种图像的地物变化通过丰度图像进行关联,表示为AF=αH,则精细先验高光谱图像F的光谱解混模型重新表示为:
ZF=MαH+NF (4)
步骤3:对公式(3)和公式(4)建立优化模型,如公式(5)所示。
其中,R(H)是理想丰度图像H的正则化项,R(α)是空-谱变化因子α的正则化项,λH和λθ为平衡参数。
步骤3:时空融合结果Z可以通过公式(6)线性光谱解混逆变换得到:
步骤4:建立基于拉普拉斯金字塔深度学习的全色锐化模型,如图2所示,原始高光谱图像C经过拉普拉斯金字塔深度学习模型进行多尺度训练,得到改善的高光谱图像设x表示低分辨率高光谱图像,θ是将要被优化的网络参数。拉普拉斯金字塔深度学习模型目标是学习一个映射函数f来生成一个高分辨率的图像/>使它接近地面真实的高分辨率图像y。第s级上用rs表示产生的残差图像,xs为上采样的低分辨率图像,ys为其相应的高分辨率图像,则理想的高分辨率图像将会通过ys=xs+rs获得。
步骤5:应用主成分替代模型将光学全色图像P与改善的高光谱图像进行全色锐化得到全色锐化结果/>该模型首先将高光谱图像/>通过线性变换投影到另一个空间,以便将空间结构与光谱信息分离到不同成分中。随后,利用全色图像P替换包含空间结构的成分,进而增强变换域图像的空间分辨率。最后,应用逆变换获得最终的全色锐化结果。
步骤6:建立基于图方法的特征融合模型,提取全色锐化结果的空谱特征和机载雷达图像YL的高程特征,将两者特征进行融合得到多源融合结果YM。首先使用预定义大小和形状的形态打开或关闭结构元素,从全色锐化结果/>中提取带的空谱特征/>(n是特征数量),并从机载雷达图像YL中提取带的高程特征/>假设和/>表示由空谱和高程特征叠加的矢量。基于图特征融合方法的目标是找到一种能够实现/>特征融合的变换矩阵R。矩阵R定义为:
其中Kxy∈{0,1}来自定义为图边界的矩阵K。
基于多光谱图像光谱分辨率增强方法将所述时空融合数据与所述多源融合数据进行融合,获得最终融合数据,基于所述最终融合数据对待测目标区域的地表形变进行实时监测。
本实施例将待测目标区域的原始数据和先验数据进行时空融合,然后将待测目标区域内的遥感数据和雷达数据进行空谱数据融合,最后将时空融合的数据和空谱融合的数据进行最终的数据融合,实现了对多源遥感数据的数据融合,最终的融合数据能够辅助对待测目标区域的地表形变情况进行实时监测,并且保证了监测结果的准确性和实效性。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。

Claims (3)

1.一种卫星多源遥感数据的时空谱融合方法,其特征在于,包括以下步骤:
获取待测目标区域的任意时刻的原始高光谱图像和先验高光谱图像,对所述原始高光谱图像和先验高光谱图像进行线性光谱解混的变换处理,获得时空融合数据;
对所述原始高光谱图像进行多尺度训练和全色锐化的处理,获得全色锐化结果;
获取待测目标区域的雷达图像,提取所述全色锐化结果的空谱特征和雷达图像的高程特征,对空谱特征和高程特征进行数据融合,获得多源融合数据;
基于多光谱图像光谱分辨率增强方法将所述时空融合数据与所述多源融合数据进行融合,获得最终融合数据,基于所述最终融合数据对待测目标区域的地表形变进行实时监测;
获得时空融合数据的过程包括:分别构建所述原始高光谱图像和先验高光谱图像的线性光谱解混模型;基于所述线性光谱解混模型建立优化模型,并对所述优化模型进行线性光谱解混逆变换,获得时空融合数据;
构建原始高光谱图像的线性光谱解混模型的过程包括:基于预设比例尺度的空间降采样矩阵对理想丰度图像进行处理,获得原始高光谱图像的粗糙丰度图像,基于所述粗糙丰度图像以及原始高光谱图像的光谱端元和加性噪声,获得原始高光谱图像的线性光谱解混模型,所述原始高光谱图像的线性光谱解混模型表示为:,其中,/>为光谱端元,/>为理想丰度图像,/>为空间降采样矩阵,/>为粗糙丰度图像的加性噪声;
构建先验高光谱图像的线性光谱解混模型的过程包括:对理想丰度图像和地物变化参数进行处理,获得先验高光谱图像的精细丰度图像,基于所述精细丰度图像以及先验高光谱图像的光谱端元和加性噪声,获得先验高光谱图像的线性光谱解混模型,所述先验高光谱图像的线性光谱解混模型表示为:,其中,/>为精细丰度图像的加性噪声;
建立优化模型的过程包括:基于原始高光谱图像和先验高光谱图像的线性光谱解混模型、理想丰度图像的正则化项及对应的平衡参数和空-谱变化因子的正则化项及对应的平衡参数,构建优化模型,所述优化模型表示为:,其中,是理想丰度图像/>的正则化项,/>是空-谱变化因子/>的正则化项,/>和/>为平衡参数。
2.根据权利要求1所述的卫星多源遥感数据的时空谱融合方法,其特征在于,
获得全色锐化结果的过程包括:基于拉普拉斯金字塔深度学习模型对所述原始高光谱图像进行多尺度训练,获得改善后的高光谱图像;获取待测目标区域的光学全色图像,基于主成分替代模型将所述光学全色图像与改善后的高光谱图像进行全色锐化,获得全色锐化结果。
3.根据权利要求1所述的卫星多源遥感数据的时空谱融合方法,其特征在于,
对所述空谱特征和高程特征进行数据融合的过程包括:基于图特征融合方法获取变换矩阵,基于所述变换矩阵对所述空谱特征和高程特征进行数据融合。
CN202310766409.3A 2023-06-27 2023-06-27 一种卫星多源遥感数据的时空谱融合方法 Active CN116935214B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310766409.3A CN116935214B (zh) 2023-06-27 2023-06-27 一种卫星多源遥感数据的时空谱融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310766409.3A CN116935214B (zh) 2023-06-27 2023-06-27 一种卫星多源遥感数据的时空谱融合方法

Publications (2)

Publication Number Publication Date
CN116935214A CN116935214A (zh) 2023-10-24
CN116935214B true CN116935214B (zh) 2024-04-12

Family

ID=88378172

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310766409.3A Active CN116935214B (zh) 2023-06-27 2023-06-27 一种卫星多源遥感数据的时空谱融合方法

Country Status (1)

Country Link
CN (1) CN116935214B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117804368B (zh) * 2023-12-26 2024-09-20 山东大学 一种基于高光谱成像技术的隧道围岩变形监测方法及系统
CN117592005B (zh) * 2024-01-19 2024-04-26 中国科学院空天信息创新研究院 Pm2.5浓度卫星遥感估算方法、装置、设备及介质
CN117726915B (zh) * 2024-02-07 2024-05-28 南方海洋科学与工程广东省实验室(广州) 遥感数据空谱融合方法及装置、存储介质与终端

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665438B1 (en) * 1999-05-05 2003-12-16 American Gnc Corporation Method for hyperspectral imagery exploitation and pixel spectral unmixing
CN105809148A (zh) * 2016-03-29 2016-07-27 中国科学院遥感与数字地球研究所 基于遥感时空谱融合的作物干旱识别及风险评估方法
CN109492527A (zh) * 2018-09-28 2019-03-19 南京航空航天大学 一种基于全色锐化技术的遥感图像亚像元定位方法
CN110070518A (zh) * 2019-03-15 2019-07-30 南京航空航天大学 一种基于双路径支持下的高光谱图像超分辨率制图方法
CN112883823A (zh) * 2021-01-21 2021-06-01 南京航空航天大学 一种基于多源遥感数据融合的土地覆盖类别亚像素定位方法
CN113516646A (zh) * 2021-07-26 2021-10-19 云南电网有限责任公司电力科学研究院 一种多传感器图像数据的高光谱分辨率增强方法及装置
WO2022222352A1 (zh) * 2021-04-22 2022-10-27 海南大学 基于残差网络的遥感全色和多光谱图像分布式融合方法
CN115984155A (zh) * 2022-12-12 2023-04-18 武汉大学 一种基于光谱解混的高光谱、多光谱和全色图像融合方法
CN116229287A (zh) * 2023-05-10 2023-06-06 中国科学院合肥物质科学研究院 基于复杂林地环境的遥感亚像元疫木检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103198463B (zh) * 2013-04-07 2014-08-27 北京航空航天大学 基于整体结构和空间细节信息融合的光谱图像全色锐化方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665438B1 (en) * 1999-05-05 2003-12-16 American Gnc Corporation Method for hyperspectral imagery exploitation and pixel spectral unmixing
CN105809148A (zh) * 2016-03-29 2016-07-27 中国科学院遥感与数字地球研究所 基于遥感时空谱融合的作物干旱识别及风险评估方法
CN109492527A (zh) * 2018-09-28 2019-03-19 南京航空航天大学 一种基于全色锐化技术的遥感图像亚像元定位方法
CN110070518A (zh) * 2019-03-15 2019-07-30 南京航空航天大学 一种基于双路径支持下的高光谱图像超分辨率制图方法
CN112883823A (zh) * 2021-01-21 2021-06-01 南京航空航天大学 一种基于多源遥感数据融合的土地覆盖类别亚像素定位方法
WO2022222352A1 (zh) * 2021-04-22 2022-10-27 海南大学 基于残差网络的遥感全色和多光谱图像分布式融合方法
CN113516646A (zh) * 2021-07-26 2021-10-19 云南电网有限责任公司电力科学研究院 一种多传感器图像数据的高光谱分辨率增强方法及装置
CN115984155A (zh) * 2022-12-12 2023-04-18 武汉大学 一种基于光谱解混的高光谱、多光谱和全色图像融合方法
CN116229287A (zh) * 2023-05-10 2023-06-06 中国科学院合肥物质科学研究院 基于复杂林地环境的遥感亚像元疫木检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于Gram Schmidt变换的高光谱遥感图像改进融合方法;于海洋等;《地理与地理信息科学》;20070930;第23卷(第5期);第39-42页 *

Also Published As

Publication number Publication date
CN116935214A (zh) 2023-10-24

Similar Documents

Publication Publication Date Title
CN116935214B (zh) 一种卫星多源遥感数据的时空谱融合方法
Li et al. YOLOSR-IST: A deep learning method for small target detection in infrared remote sensing images based on super-resolution and YOLO
CN110544212B (zh) 基于层级特征融合的卷积神经网络高光谱图像锐化方法
CN113066030B (zh) 一种基于空谱融合网络的多光谱图像全色锐化方法及系统
Wang et al. Enhanced image prior for unsupervised remoting sensing super-resolution
US20190114744A1 (en) Enhancing observation resolution using continuous learning
Jing et al. Cloud removal for optical remote sensing imagery using the SPA-CycleGAN network
Li et al. ConvFormerSR: Fusing transformers and convolutional neural networks for cross-sensor remote sensing imagery super-resolution
Fu et al. Sparsity constrained fusion of hyperspectral and multispectral images
Zhang et al. Considering nonoverlapped bands construction: A general dictionary learning framework for hyperspectral and multispectral image fusion
Li et al. Multi-scale attention-based lightweight network with dilated convolutions for infrared and visible image fusion
Singh et al. A non-conventional review on image fusion techniques
Kumar et al. Enhanced machine perception by a scalable fusion of RGB–NIR image pairs in diverse exposure environments
Patel et al. ThermISRnet: an efficient thermal image super-resolution network
Fu et al. Optical and SAR image fusion method with coupling gain injection and guided filtering
Zheng et al. Dehaze-TGGAN: Transformer-Guide Generative Adversarial Networks with Spatial-Spectrum Attention for Unpaired Remote Sensing Dehazing
Bosch et al. Towards image and video super-resolution for improved analytics from overhead imagery
Pacot et al. Cloud removal from aerial images using generative adversarial network with simple image enhancement
Albanwan et al. Image Fusion in Remote Sensing: An Overview and Meta Analysis
Lee et al. Dehazing Remote Sensing and UAV Imagery: A Review of Deep Learning, Prior-based, and Hybrid Approaches
Zaveri et al. An optimized region-based color transfer method for night vision application
Dong et al. An Adaptive Weighted Regression and Guided Filter Hybrid Method for Hyperspectral Pansharpening
Müller Extended retinex and optimized image sharpening for hidden detail uncovering, visual range improvement, and image enhancement
Chu et al. Postprocessing framework for land cover classification optimization based on iterative self-adaptive superpixel segmentation
Ma et al. Incorporating inconsistent auxiliary images in haze removal of very high resolution images

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant