CN116935214B - 一种卫星多源遥感数据的时空谱融合方法 - Google Patents
一种卫星多源遥感数据的时空谱融合方法 Download PDFInfo
- Publication number
- CN116935214B CN116935214B CN202310766409.3A CN202310766409A CN116935214B CN 116935214 B CN116935214 B CN 116935214B CN 202310766409 A CN202310766409 A CN 202310766409A CN 116935214 B CN116935214 B CN 116935214B
- Authority
- CN
- China
- Prior art keywords
- image
- spectrum
- fusion
- hyperspectral image
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001228 spectrum Methods 0.000 title claims abstract description 65
- 238000007500 overflow downdraw method Methods 0.000 title claims abstract description 11
- 230000004927 fusion Effects 0.000 claims abstract description 53
- 238000000034 method Methods 0.000 claims abstract description 25
- 230000009466 transformation Effects 0.000 claims abstract description 13
- 238000012544 monitoring process Methods 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims abstract description 6
- 230000003595 spectral effect Effects 0.000 claims description 13
- 239000011159 matrix material Substances 0.000 claims description 11
- 238000005457 optimization Methods 0.000 claims description 10
- 239000000654 additive Substances 0.000 claims description 7
- 230000000996 additive effect Effects 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 claims description 7
- 238000013136 deep learning model Methods 0.000 claims description 4
- 238000006467 substitution reaction Methods 0.000 claims description 3
- 238000010276 construction Methods 0.000 claims 1
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A40/00—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production
- Y02A40/10—Adaptation technologies in agriculture, forestry, livestock or agroalimentary production in agriculture
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Remote Sensing (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种卫星多源遥感数据的时空谱融合方法,包括:获取待测目标区域的原始高光谱图像和先验高光谱图像,对原始高光谱图像和先验高光谱图像进行线性光谱解混的变换处理,获得时空融合数据;对原始高光谱图像进行多尺度训练和全色锐化的处理,获得全色锐化结果;获取雷达图像,提取全色锐化结果的空谱特征和雷达图像的高程特征,对空谱特征和高程特征进行数据融合,获得多源融合数据;基于多光谱图像光谱分辨率增强方法将时空融合数据与多源融合数据进行融合,获得最终融合数据,对待测目标区域的地表形变进行实时监测。本发明实现了多源遥感数据的数据融合,辅助对地表形变情况进行实时监测,保证了监测结果的准确性和实效性。
Description
技术领域
本发明属于时空谱遥感数据融合技术领域,特别是涉及一种卫星多源遥感数据的时空谱融合方法。
背景技术
多源遥感数据融合是利用不同空间分辨率、不同时间分辨率和不同光谱分辨率的光学遥感数据,甚至是光学遥感数据与雷达数据所各自具有的不同数据特点,融合出能够综合多源数据特征的融合影像的方法。它对提高遥感影像利用效率和提高遥感应用效果都具有重要的意义。
遥感数据的时、空、谱尺度问题是影响地表形变参数监测的重要原因之一。由于对地遥感设备扫过同一区域时具有时间性的差异和土地覆盖类别的差异,因此需要获得同时具有高的时间、空间和光谱分辨率的遥感数据,然而由于传感器设计的局限性,时间、空间和光谱分辨率具有互斥性,不可能兼得三项指标。因此,亟需提出一种卫星多源遥感数据的时空谱融合方法。
发明内容
本发明的目的是提供一种卫星多源遥感数据的时空谱融合方法,以解决上述现有技术存在的问题。
为实现上述目的,本发明提供了一种卫星多源遥感数据的时空谱融合方法,包括以下步骤:
获取待测目标区域的任意时刻的原始高光谱图像和先验高光谱图像,对所述原始高光谱图像和先验高光谱图像进行线性光谱解混的变换处理,获得时空融合数据;
对所述原始高光谱图像进行多尺度训练和全色锐化的处理,获得全色锐化结果;
获取待测目标区域的雷达图像,提取所述全色锐化结果的空谱特征和雷达图像的高程特征,对空谱特征和高程特征进行数据融合,获得多源融合数据;
基于多光谱图像光谱分辨率增强方法将所述时空融合数据与所述多源融合数据进行融合,获得最终融合数据,基于所述最终融合数据对待测目标区域的地表形变进行实时监测。
可选地,获得时空融合数据的过程包括:分别构建所述原始高光谱图像和先验高光谱图像的线性光谱解混模型;基于所述线性光谱解混模型建立优化模型,并对所述优化模型进行线性光谱解混逆变换,获得时空融合数据。
可选地,构建原始高光谱图像的线性光谱解混模型的过程包括:基于预设比例尺度的空间降采样矩阵对理想丰度图像进行处理,获得原始高光谱图像的粗糙丰度图像,基于所述粗糙丰度图像以及原始高光谱图像的光谱端元和加性噪声,获得原始高光谱图像的线性光谱解混模型。
可选地,构建先验高光谱图像的线性光谱解混模型的过程包括:对理想丰度图像和地物变化参数进行处理,获得先验高光谱图像的精细丰度图像,基于所述精细丰度图像以及先验高光谱图像的光谱端元和加性噪声,获得先验高光谱图像的线性光谱解混模型。
可选地,建立优化模型的过程包括:基于原始高光谱图像和先验高光谱图像的线性光谱解混模型、理想丰度图像的正则化项及对应的平衡参数和空-谱变化因子的正则化项及对应的平衡参数,构建优化模型。
可选地,获得全色锐化结果的过程包括:基于所述拉普拉斯金字塔深度学习模型对所述原始高光谱图像进行多尺度训练,获得改善后的高光谱图像;获取待测目标区域的光学全色图像,基于主成分替代模型将所述光学全色图像与改善后的高光谱图像进行全色锐化,获得全色锐化结果。
可选地,对所述空谱特征和高程特征进行数据融合的过程包括:基于图特征融合方法获取变换矩阵,基于所述变换矩阵对所述空谱特征和高程特征进行数据融合。
本发明的技术效果为:
本发明将待测目标区域的原始数据和先验数据进行时空融合,然后将待测目标区域内的遥感数据和雷达数据进行空谱数据融合,最后将时空融合的数据和空谱融合的数据进行最终的数据融合,实现了对遥感数据的多源数据融合,最终的融合数据能够辅助对待测目标区域的地表形变情况进行实时监测,并且保证了监测结果的准确性和实效性。
附图说明
构成本申请的一部分的附图用来提供对本申请的进一步理解,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1为本发明实施例中的卫星多源遥感数据的时空谱融合方法流程示意图;
图2为本发明实施例中的基于拉普拉斯金字塔深度学习的全色锐化模型示意图。
具体实施方式
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
需要说明的是,在附图的流程图示出的步骤可以在诸如一组计算机可执行指令的计算机系统中执行,并且,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。
实施例一
如图1所示,本实施例中提供一种卫星多源遥感数据的时空谱融合方法,包括以下步骤:
步骤1:假设C是T1时刻原始高光谱图像,具有B个波段和N个像元。F是获得的任意时刻精细多源先验高光谱图像,具有B个波段和NS2个像元,其中S是两幅图像的比例尺度。
分别对原始高光谱图像C和任意时刻的多源先验高光谱图像F建立线性光谱解混模型。假设图像的光谱可以看作纯物质中数目为P的光谱端元组合,原始高光谱图像C和先验高光谱图像F的光谱解混模型如下所示:
ZC=MAC+NC (1)
ZF=MAF+NF (2)
其中,AC∈RP×N和分别是ZC的粗糙丰度图像和ZF的精细丰度图像。假设两图像中所具有的纯物质相同,即光谱端元都为M∈RB×P。NC∈RB×N和/>分别表示两图像的加性噪声。而理想的丰度图像/>往往被认为通过比例尺度为S的空间降采样矩阵/>变成粗糙丰度图像AC,即AC=HD。因此原始高光谱图像C的光谱解混模型重新表示为:
ZC=MHD+NC (3)
步骤2:利用地物变化参数将两种图像的地物变化通过丰度图像进行关联,表示为AF=αH,则精细先验高光谱图像F的光谱解混模型重新表示为:
ZF=MαH+NF (4)
步骤3:对公式(3)和公式(4)建立优化模型,如公式(5)所示。
其中,R(H)是理想丰度图像H的正则化项,R(α)是空-谱变化因子α的正则化项,λH和λθ为平衡参数。
步骤3:时空融合结果Z可以通过公式(6)线性光谱解混逆变换得到:
步骤4:建立基于拉普拉斯金字塔深度学习的全色锐化模型,如图2所示,原始高光谱图像C经过拉普拉斯金字塔深度学习模型进行多尺度训练,得到改善的高光谱图像设x表示低分辨率高光谱图像,θ是将要被优化的网络参数。拉普拉斯金字塔深度学习模型目标是学习一个映射函数f来生成一个高分辨率的图像/>使它接近地面真实的高分辨率图像y。第s级上用rs表示产生的残差图像,xs为上采样的低分辨率图像,ys为其相应的高分辨率图像,则理想的高分辨率图像将会通过ys=xs+rs获得。
步骤5:应用主成分替代模型将光学全色图像P与改善的高光谱图像进行全色锐化得到全色锐化结果/>该模型首先将高光谱图像/>通过线性变换投影到另一个空间,以便将空间结构与光谱信息分离到不同成分中。随后,利用全色图像P替换包含空间结构的成分,进而增强变换域图像的空间分辨率。最后,应用逆变换获得最终的全色锐化结果。
步骤6:建立基于图方法的特征融合模型,提取全色锐化结果的空谱特征和机载雷达图像YL的高程特征,将两者特征进行融合得到多源融合结果YM。首先使用预定义大小和形状的形态打开或关闭结构元素,从全色锐化结果/>中提取带的空谱特征/>(n是特征数量),并从机载雷达图像YL中提取带的高程特征/>假设和/>表示由空谱和高程特征叠加的矢量。基于图特征融合方法的目标是找到一种能够实现/>特征融合的变换矩阵R。矩阵R定义为:
其中Kxy∈{0,1}来自定义为图边界的矩阵K。
基于多光谱图像光谱分辨率增强方法将所述时空融合数据与所述多源融合数据进行融合,获得最终融合数据,基于所述最终融合数据对待测目标区域的地表形变进行实时监测。
本实施例将待测目标区域的原始数据和先验数据进行时空融合,然后将待测目标区域内的遥感数据和雷达数据进行空谱数据融合,最后将时空融合的数据和空谱融合的数据进行最终的数据融合,实现了对多源遥感数据的数据融合,最终的融合数据能够辅助对待测目标区域的地表形变情况进行实时监测,并且保证了监测结果的准确性和实效性。
以上所述,仅为本申请较佳的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (3)
1.一种卫星多源遥感数据的时空谱融合方法,其特征在于,包括以下步骤:
获取待测目标区域的任意时刻的原始高光谱图像和先验高光谱图像,对所述原始高光谱图像和先验高光谱图像进行线性光谱解混的变换处理,获得时空融合数据;
对所述原始高光谱图像进行多尺度训练和全色锐化的处理,获得全色锐化结果;
获取待测目标区域的雷达图像,提取所述全色锐化结果的空谱特征和雷达图像的高程特征,对空谱特征和高程特征进行数据融合,获得多源融合数据;
基于多光谱图像光谱分辨率增强方法将所述时空融合数据与所述多源融合数据进行融合,获得最终融合数据,基于所述最终融合数据对待测目标区域的地表形变进行实时监测;
获得时空融合数据的过程包括:分别构建所述原始高光谱图像和先验高光谱图像的线性光谱解混模型;基于所述线性光谱解混模型建立优化模型,并对所述优化模型进行线性光谱解混逆变换,获得时空融合数据;
构建原始高光谱图像的线性光谱解混模型的过程包括:基于预设比例尺度的空间降采样矩阵对理想丰度图像进行处理,获得原始高光谱图像的粗糙丰度图像,基于所述粗糙丰度图像以及原始高光谱图像的光谱端元和加性噪声,获得原始高光谱图像的线性光谱解混模型,所述原始高光谱图像的线性光谱解混模型表示为:,其中,/>为光谱端元,/>为理想丰度图像,/>为空间降采样矩阵,/>为粗糙丰度图像的加性噪声;
构建先验高光谱图像的线性光谱解混模型的过程包括:对理想丰度图像和地物变化参数进行处理,获得先验高光谱图像的精细丰度图像,基于所述精细丰度图像以及先验高光谱图像的光谱端元和加性噪声,获得先验高光谱图像的线性光谱解混模型,所述先验高光谱图像的线性光谱解混模型表示为:,其中,/>为精细丰度图像的加性噪声;
建立优化模型的过程包括:基于原始高光谱图像和先验高光谱图像的线性光谱解混模型、理想丰度图像的正则化项及对应的平衡参数和空-谱变化因子的正则化项及对应的平衡参数,构建优化模型,所述优化模型表示为:,其中,是理想丰度图像/>的正则化项,/>是空-谱变化因子/>的正则化项,/>和/>为平衡参数。
2.根据权利要求1所述的卫星多源遥感数据的时空谱融合方法,其特征在于,
获得全色锐化结果的过程包括:基于拉普拉斯金字塔深度学习模型对所述原始高光谱图像进行多尺度训练,获得改善后的高光谱图像;获取待测目标区域的光学全色图像,基于主成分替代模型将所述光学全色图像与改善后的高光谱图像进行全色锐化,获得全色锐化结果。
3.根据权利要求1所述的卫星多源遥感数据的时空谱融合方法,其特征在于,
对所述空谱特征和高程特征进行数据融合的过程包括:基于图特征融合方法获取变换矩阵,基于所述变换矩阵对所述空谱特征和高程特征进行数据融合。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310766409.3A CN116935214B (zh) | 2023-06-27 | 2023-06-27 | 一种卫星多源遥感数据的时空谱融合方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310766409.3A CN116935214B (zh) | 2023-06-27 | 2023-06-27 | 一种卫星多源遥感数据的时空谱融合方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116935214A CN116935214A (zh) | 2023-10-24 |
CN116935214B true CN116935214B (zh) | 2024-04-12 |
Family
ID=88378172
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310766409.3A Active CN116935214B (zh) | 2023-06-27 | 2023-06-27 | 一种卫星多源遥感数据的时空谱融合方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116935214B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117804368B (zh) * | 2023-12-26 | 2024-09-20 | 山东大学 | 一种基于高光谱成像技术的隧道围岩变形监测方法及系统 |
CN117592005B (zh) * | 2024-01-19 | 2024-04-26 | 中国科学院空天信息创新研究院 | Pm2.5浓度卫星遥感估算方法、装置、设备及介质 |
CN117726915B (zh) * | 2024-02-07 | 2024-05-28 | 南方海洋科学与工程广东省实验室(广州) | 遥感数据空谱融合方法及装置、存储介质与终端 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6665438B1 (en) * | 1999-05-05 | 2003-12-16 | American Gnc Corporation | Method for hyperspectral imagery exploitation and pixel spectral unmixing |
CN105809148A (zh) * | 2016-03-29 | 2016-07-27 | 中国科学院遥感与数字地球研究所 | 基于遥感时空谱融合的作物干旱识别及风险评估方法 |
CN109492527A (zh) * | 2018-09-28 | 2019-03-19 | 南京航空航天大学 | 一种基于全色锐化技术的遥感图像亚像元定位方法 |
CN110070518A (zh) * | 2019-03-15 | 2019-07-30 | 南京航空航天大学 | 一种基于双路径支持下的高光谱图像超分辨率制图方法 |
CN112883823A (zh) * | 2021-01-21 | 2021-06-01 | 南京航空航天大学 | 一种基于多源遥感数据融合的土地覆盖类别亚像素定位方法 |
CN113516646A (zh) * | 2021-07-26 | 2021-10-19 | 云南电网有限责任公司电力科学研究院 | 一种多传感器图像数据的高光谱分辨率增强方法及装置 |
WO2022222352A1 (zh) * | 2021-04-22 | 2022-10-27 | 海南大学 | 基于残差网络的遥感全色和多光谱图像分布式融合方法 |
CN115984155A (zh) * | 2022-12-12 | 2023-04-18 | 武汉大学 | 一种基于光谱解混的高光谱、多光谱和全色图像融合方法 |
CN116229287A (zh) * | 2023-05-10 | 2023-06-06 | 中国科学院合肥物质科学研究院 | 基于复杂林地环境的遥感亚像元疫木检测方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103198463B (zh) * | 2013-04-07 | 2014-08-27 | 北京航空航天大学 | 基于整体结构和空间细节信息融合的光谱图像全色锐化方法 |
-
2023
- 2023-06-27 CN CN202310766409.3A patent/CN116935214B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6665438B1 (en) * | 1999-05-05 | 2003-12-16 | American Gnc Corporation | Method for hyperspectral imagery exploitation and pixel spectral unmixing |
CN105809148A (zh) * | 2016-03-29 | 2016-07-27 | 中国科学院遥感与数字地球研究所 | 基于遥感时空谱融合的作物干旱识别及风险评估方法 |
CN109492527A (zh) * | 2018-09-28 | 2019-03-19 | 南京航空航天大学 | 一种基于全色锐化技术的遥感图像亚像元定位方法 |
CN110070518A (zh) * | 2019-03-15 | 2019-07-30 | 南京航空航天大学 | 一种基于双路径支持下的高光谱图像超分辨率制图方法 |
CN112883823A (zh) * | 2021-01-21 | 2021-06-01 | 南京航空航天大学 | 一种基于多源遥感数据融合的土地覆盖类别亚像素定位方法 |
WO2022222352A1 (zh) * | 2021-04-22 | 2022-10-27 | 海南大学 | 基于残差网络的遥感全色和多光谱图像分布式融合方法 |
CN113516646A (zh) * | 2021-07-26 | 2021-10-19 | 云南电网有限责任公司电力科学研究院 | 一种多传感器图像数据的高光谱分辨率增强方法及装置 |
CN115984155A (zh) * | 2022-12-12 | 2023-04-18 | 武汉大学 | 一种基于光谱解混的高光谱、多光谱和全色图像融合方法 |
CN116229287A (zh) * | 2023-05-10 | 2023-06-06 | 中国科学院合肥物质科学研究院 | 基于复杂林地环境的遥感亚像元疫木检测方法 |
Non-Patent Citations (1)
Title |
---|
基于Gram Schmidt变换的高光谱遥感图像改进融合方法;于海洋等;《地理与地理信息科学》;20070930;第23卷(第5期);第39-42页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116935214A (zh) | 2023-10-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN116935214B (zh) | 一种卫星多源遥感数据的时空谱融合方法 | |
Li et al. | YOLOSR-IST: A deep learning method for small target detection in infrared remote sensing images based on super-resolution and YOLO | |
CN110544212B (zh) | 基于层级特征融合的卷积神经网络高光谱图像锐化方法 | |
CN113066030B (zh) | 一种基于空谱融合网络的多光谱图像全色锐化方法及系统 | |
Wang et al. | Enhanced image prior for unsupervised remoting sensing super-resolution | |
US20190114744A1 (en) | Enhancing observation resolution using continuous learning | |
Jing et al. | Cloud removal for optical remote sensing imagery using the SPA-CycleGAN network | |
Li et al. | ConvFormerSR: Fusing transformers and convolutional neural networks for cross-sensor remote sensing imagery super-resolution | |
Fu et al. | Sparsity constrained fusion of hyperspectral and multispectral images | |
Zhang et al. | Considering nonoverlapped bands construction: A general dictionary learning framework for hyperspectral and multispectral image fusion | |
Li et al. | Multi-scale attention-based lightweight network with dilated convolutions for infrared and visible image fusion | |
Singh et al. | A non-conventional review on image fusion techniques | |
Kumar et al. | Enhanced machine perception by a scalable fusion of RGB–NIR image pairs in diverse exposure environments | |
Patel et al. | ThermISRnet: an efficient thermal image super-resolution network | |
Fu et al. | Optical and SAR image fusion method with coupling gain injection and guided filtering | |
Zheng et al. | Dehaze-TGGAN: Transformer-Guide Generative Adversarial Networks with Spatial-Spectrum Attention for Unpaired Remote Sensing Dehazing | |
Bosch et al. | Towards image and video super-resolution for improved analytics from overhead imagery | |
Pacot et al. | Cloud removal from aerial images using generative adversarial network with simple image enhancement | |
Albanwan et al. | Image Fusion in Remote Sensing: An Overview and Meta Analysis | |
Lee et al. | Dehazing Remote Sensing and UAV Imagery: A Review of Deep Learning, Prior-based, and Hybrid Approaches | |
Zaveri et al. | An optimized region-based color transfer method for night vision application | |
Dong et al. | An Adaptive Weighted Regression and Guided Filter Hybrid Method for Hyperspectral Pansharpening | |
Müller | Extended retinex and optimized image sharpening for hidden detail uncovering, visual range improvement, and image enhancement | |
Chu et al. | Postprocessing framework for land cover classification optimization based on iterative self-adaptive superpixel segmentation | |
Ma et al. | Incorporating inconsistent auxiliary images in haze removal of very high resolution images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |