CN112733596A - 一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用 - Google Patents
一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用 Download PDFInfo
- Publication number
- CN112733596A CN112733596A CN202011393002.3A CN202011393002A CN112733596A CN 112733596 A CN112733596 A CN 112733596A CN 202011393002 A CN202011393002 A CN 202011393002A CN 112733596 A CN112733596 A CN 112733596A
- Authority
- CN
- China
- Prior art keywords
- image
- remote sensing
- spatial resolution
- fusion
- forest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004927 fusion Effects 0.000 title claims abstract description 113
- 238000000034 method Methods 0.000 title claims abstract description 90
- 230000008859 change Effects 0.000 title claims abstract description 66
- 238000012544 monitoring process Methods 0.000 title claims abstract description 43
- 238000007781 pre-processing Methods 0.000 claims abstract description 11
- 238000004422 calculation algorithm Methods 0.000 claims description 111
- 238000012937 correction Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 10
- 238000011160 research Methods 0.000 abstract description 33
- 238000011156 evaluation Methods 0.000 abstract description 16
- 238000004458 analytical method Methods 0.000 abstract description 6
- 238000005516 engineering process Methods 0.000 abstract description 6
- 238000009826 distribution Methods 0.000 abstract description 4
- 238000010276 construction Methods 0.000 description 25
- 230000008569 process Effects 0.000 description 25
- 238000007637 random forest analysis Methods 0.000 description 23
- 239000011159 matrix material Substances 0.000 description 22
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 21
- 230000003595 spectral effect Effects 0.000 description 18
- 238000002310 reflectometry Methods 0.000 description 17
- 238000012549 training Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 15
- 238000000354 decomposition reaction Methods 0.000 description 13
- 230000003044 adaptive effect Effects 0.000 description 10
- 238000003066 decision tree Methods 0.000 description 10
- 238000006731 degradation reaction Methods 0.000 description 9
- 230000002829 reductive effect Effects 0.000 description 9
- 238000005070 sampling Methods 0.000 description 9
- 230000009466 transformation Effects 0.000 description 9
- 230000007704 transition Effects 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000003384 imaging method Methods 0.000 description 8
- 230000005855 radiation Effects 0.000 description 8
- 230000015556 catabolic process Effects 0.000 description 7
- 230000001965 increasing effect Effects 0.000 description 7
- 238000005457 optimization Methods 0.000 description 7
- 238000004451 qualitative analysis Methods 0.000 description 7
- 238000004445 quantitative analysis Methods 0.000 description 7
- 238000012216 screening Methods 0.000 description 7
- 238000001228 spectrum Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000001303 quality assessment method Methods 0.000 description 6
- 238000012795 verification Methods 0.000 description 6
- 230000036961 partial effect Effects 0.000 description 5
- 238000011161 development Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000000513 principal component analysis Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000010521 absorption reaction Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 3
- 235000019646 color tone Nutrition 0.000 description 3
- 238000005520 cutting process Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 238000002474 experimental method Methods 0.000 description 3
- 230000002411 adverse Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000010835 comparative analysis Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 238000011158 quantitative evaluation Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012876 topography Methods 0.000 description 2
- 235000002566 Capsicum Nutrition 0.000 description 1
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 239000000443 aerosol Substances 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 229910052799 carbon Inorganic materials 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010219 correlation analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000004069 differentiation Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 238000005315 distribution function Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 230000002401 inhibitory effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 238000000611 regression analysis Methods 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 241000894007 species Species 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000005728 strengthening Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000011426 transformation method Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/30—Noise filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Image Processing (AREA)
Abstract
本发明涉及森林监测,具体涉及一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用。其方案包括以下步骤:(1)采集地物遥感数据;(2)对所采集的地物遥感数据预处理;(3)构建森林影像融合模型。因此本发明研究了单时相遥感影像时空融合技术,利用已有的中空间分辨率遥感影像和高空间分辨率遥感影像(简称中高空间分辨率遥感影像)生成某时刻缺失的、高质量的高空间分辨率融合影像,并将高空间分辨率融合影像应用到森林资源变化监测中,对森林资源的空间分布及其利用状况进行观测分析与评价,及时掌握森林资源现状和覆盖变化动态,为林业规划与政策实施提供重要依据。
Description
技术领域
本发明涉及森林监测,具体涉及一种基于中高空间分辨率遥感影像融合的森林资源变化 监测方法及应用。
背景技术
森林资源是陆地上占地面积最大、分布最广、成分最复杂、功能最完善的自然资源,也 是陆地生态系统的主体,它在维持物种多样性、储碳、蓄水、提供生物资源和维持生态平衡 中发挥着不可替代的作用。森林资源受自然或非自然因素的影响,其面积、质量以及功能在 不断发生变化,是一种动态的可再生资源。准确地掌握森林资源的消长变化情况是加强国家 生态文明建设的前提,也是维持社会经济可持续发展的必要措施。根据国家林业局发布的统 计数据可知,2018年我国森林的总面积为31.2亿亩,森林覆盖率为21.66%,相对上次清查 结果,我国森林资源展现出数量增长以及质量提高的特点。然而,根据联合国粮农组织(Food nd Agriculture Organization of the United Nations,FAO)的《全球森林资源评估报告2015》阐 述可知全球森林覆盖率的平均水平为30.6%,相比之下,中国的森林覆盖率低于世界平均水 平,森林资源总量相对不足,因此中国目前仍是一个森林资源相对缺乏的国家。林业管理部 门需要快速且准确的森林资源信息获取手段,及时掌握森林资源的变化情况,从而实现科学 的森林经营管理和森林资源的可持续发展。
传统以人工地面调查为主的森林资源监测方法存在工作量大、成本高、耗时长且效率低 等问题,难以满足当前森林资源变化监测的需求。遥感技术具有探测地面范围广、获取地面 信息速度快以及受地面限制少等优点,能快速反应出真实的地形、地貌,且能有效地节省人 力、物力,成为了当前森林资源变化监测快速获取信息的重要手段之一。如今,随着遥感技 术的飞速发展,遥感影像的空间分辨率也逐渐提高,与中空间分辨率遥感影像和低空间分辨 率遥感影像对比,高空间分辨率遥感影像探测区域的混合像元更少且获取的地物纹理特征更 为丰富,同时其空间细节表现能力更强。因此如何设计利用遥感影像监测森林资源变化是一 项意义十分重大的课题。
发明内容
为解决传统方法存在的问题,本发明提供一种基于中高空间分辨率遥感影像融合的森林 资源变化监测方法及应用。本发明的基于中高空间分辨率遥感影像融合的森林资源变化监测 方法,其方案包括以下步骤:
(1)采集地物遥感数据;
(2)对所采集的地物遥感数据预处理;
(3)构建森林影像融合模型;
本发明的另一优选方案是,步骤(1)采集遥感数据采集高空间分辨率遥感影像和中空 间分辨率遥感影像数据。本发明更进一步地,采集GF-2号遥感影像作为高空间分辨率遥感 影像,采集Landsat 8遥感影像作为中空间分辨率遥感影像。
本发明另一优选方案是,步骤(2)对所采集的遥感数据预处理包括辐射定标、大气校 正、正射校正、影像配准、插值、裁剪和波段选择的处理。
本发明的另一优选方案是,步骤(3)构建影像融合模型包括建立基于STARFM算法和 SSIF算法的Landsat 8OLI影像和GF-2 MSS影像的时空融合框架,将Landsat 8OLI影像与GF-2 MSS影像的时空融合。
本发明还提供所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法在森林 资源变化监测领域的应用。
本发明的特色:
(1)研究基于重建的时空融合算法中的STARFM算法,构建出适用于Landsat 8OLI影 像与GF-2 MSS影像的STARFM算法时空融合框架,利用该框架计算出t0时刻Landsat8OLI 影像与GF-2 MSS影像间的光谱差异、t0时刻Landsat 8OLI影像与tk时刻Landsat 8OLI影像间 的时间差异以及中心像元与滑动窗口内相似像元间的空间距离;完成相似像元的筛选;调节 滑动窗口的大小,确立该参数对高空间分辨率融合影像质量的影响。
(2)研究基于学习的时空融合算法中的SSIF算法,考虑Landsat 8OLI影像与GF-2MSS 影像间的空间分辨率差异倍数,设定合适的参数,构建出适用于Landsat 8OLI影像与GF-2 MSS影像的SSIF算法时空融合框架。
(3)评价STARFM算法与SSIF算法生成的高空间分辨率融合影像质量,以2017年10月9日Landsat 8OLI与GF-2 MSS影像作为对照影像,采用定量分析和定性分析的质量评定方法,选出融合质量最佳的高空间分辨率融合影像。
(4)高空间分辨率融合影像的森林资源变化监测应用,主要对对融合质量最佳的2017 年10月9日高空间分辨率融合影像和2017年1月16日GF-2 MSS影像进行分类体系的建立; 分别计算上述两景影像的纹理特征、植被指数以及归一化水体指数,将其与光谱特征相结合 作为分类特征集;采用目视解译法根据建立的分类体系在分类特征集上选取训练样本;考虑 到遥感影像在生成的过程中易受到噪声的干扰,构建基于自适应阈值小波去噪和随机森林相 结合的分类模型以提高影像的分类精度,并将其与随机森林分类的结果进行精度对比;最后 采用分类后比较法获得研究区2017年1月至10月间森林资源的增减变化情况以及转化方向。
随着遥感技术的快速发展以及森林资源变化监测精准化的需求增加,高空间分辨率遥感 影像成为当前森林资源变化监测的主要数据源。但由于高空间分辨率遥感影像受到其传感器 硬件设备的限制,存在“时空矛盾”问题,再加上不利条件(大气、云污染等)对传感器成 像的影响,导致高质量的高空间分辨率遥感影像数量较少,限制了高空间分辨率遥感影像在 林业领域的应用。因此本发明研究了单时相遥感影像时空融合技术,利用已有的中空间分辨 率遥感影像和高空间分辨率遥感影像(简称中高空间分辨率遥感影像)生成某时刻缺失的、 高质量的高空间分辨率融合影像,并将高空间分辨率融合影像应用到森林资源变化监测中, 对森林资源的空间分布及其利用状况进行观测分析与评价,及时掌握森林资源现状和覆盖变 化动态,为林业规划与政策实施提供重要依据。
具体实施方式
以下提供本发明的具体实施例,以助于进一步理解本发明。
1.1实施例地区概况
本应用区域位于安徽省宣城市,处于旌德县与泾县交界的区域,地理坐标为 118°24’24E~118°28’E、30°23’3”N~30°25’27”N。研究区平均日照时数为1971.9h,全年太阳总辐射量为113.2kcal/cm2,地貌主要由丘陵地貌和山间盆谷地貌组成,地形呈东西向矩形,地 势中部平缓。
1.2数据获取与遥感数据预处理
本发明选用GF-2号遥感影像作为高空间分辨率遥感影像,Landsat 8作为中空间分辨率 遥感影像。其中GF-2号遥感影像来源于地理空间数据云(http://www.gscloud.cn/)。Landsat 8的实验数据下载自USGS GLOVIS(http://glovis.usgs.gov/),地图投影为UTM-WGS 1984投影 坐标系。本发明使用的GF-2号遥感影像数据采集时间分别为2017年1月16日、2017年10 月9日,Landsat 8遥感影像数据采集时间为2017年1月26日(研究发现,选取相差10天 内的数据,地表反射率变化较小,可忽略不计)、2017年10月9日,其中2017年10月9 日的GF-2号遥感影像是对预测结果进行评价的数据。遥感数据整体含云量低于6%,其中研 究区范围的影像数据含云量为0,可视度良好。
1.2.1遥感数据介绍
Landsat系列卫星(陆地卫星)由美国国家航空航天局(NASA)和美国地质勘探局(USGS) 共同监管。Landsat 8卫星为2013年发射,该卫星以其优异的性能,向地面输送高质量的地 表观测数据。
Landsat 8卫星为近极地太阳同步轨道类型,影像成像宽幅为185×185KM,轨道高度 705KM,轨道倾角为98.2°,降交点时间为10:00AM,数据下行速度为300Mbps。分别载荷OLI(Operational Land Imager)陆地成像仪和TIRS(Thermal Infrared Sensor)热红外传感器。 Landsat 8卫星的波段信息表如表2.1所示。OLI陆地成像仪共包含9个波段,覆盖了从红外 到可见光的不同波长范围,该传感器成像的空间分辨率为30米,另包含一个15米的全色波 段。
高分二号(GF-2号)遥感卫星搭载了1米空间分辨率的全色相机和4米空间分辨率的 多光谱相机,于2014年8月19日在太原发射成功,其具有亚米级别的空间分辨率,是迄今为止我国自行研发的民用低轨道光学遥感卫星中空间分辨率最高的遥感卫星(见表2.2)。同 时GF-2号卫星的辐射精度和定位能力等均达到了国际先进水平,GF-2号的诞生标志着我国 遥感卫星进入了亚米级“高分时代”。GF-2和Landsat 8卫星轨道参数对比如表2.3所示。
表2.1 Landsat 8卫星波段信息表
表2.2 GF-2号卫星波段信息表
表2.3 GF-2号卫星和Landsat 8卫星轨道参数对比
1.2.2数据预处理
遥感影像数据在生成过程中,难以避免不确定因素从而产生误差,这在一定程度上影 响了遥感影像的质量。数据预处理是遥感影像融合前需做的重要工作,该步骤可以减少大气、 气溶胶、拍摄角度等因素对影像融合的干扰,提高遥感影像空间位置的精准性和光谱信息的 真实性。
本发明分别对覆盖研究区的四景遥感影像数据(两景Landsat 8OLI影像数据和两景 GF-2号遥感影像数据)进行数据预处理,包括辐射定标、大气校正、正射校正、影像配准、插值、裁剪和波段选择等,具体流程如下:
(1)辐射定标
遥感影像通常使用无量纲的数字量化值(DN值)进行信息记录,值的大小常与传感器中辐射分辨率、地物发射率、大气透过率以及散射率等参数有关,在遥感定量分析中常使用辐射亮度值、反射率值和温度值等物理量作为分析参量。辐射定标是指使用大气纠正技术 将影像数据的DN值转变为辐射亮度值和反射率值等物理量的过程,以此完成传感器本身误 差的纠正。
辐射定标可被分为绝对定标以及相对定标两种类型,其中利用公式(2.1)可将传感器 各波谱通道观测DN值转换为辐射亮度值:
L=Gain×DN+Bias (2.1)
式(2.1)中,Gain为增益;DN为遥感影像像元亮度值;Bias为偏移量;辐射亮度值L的SI单位为W/(Sr×m2)。利用式(2.2)可计算反射率值:
式(2.2)中,ESUN为太阳光谱辐射量,d为日地距离参数,θ为太阳天顶角。
本发明利用PIE 6.1-BASIC遥感影像处理软件对实验影像数据分别进行辐射定标处理。
(2)大气校正
大气校正是为了消除大气对太阳辐射和目标辐射产生的影响,从而获取目标反射率、 辐射强度和地表温度等真实物理模型参数的过程,同时也是反演地表真实反射率的过程。
本发明使用6S大气辐射传输模型进行大气校正,6S模型假设在无大气存在的前提下, 采用了SOS(Successive Order of Scattering)方法计算出大气的散射作用和吸收作用并将其产 生的误差进行消除,从而减少了大气对影像成像的影响,是大气校正模型中精度较高的一种。 由于目前暂时没有对全色波段进行大气校正处理的有效方法,因此本发明的大气校正仅对 GF-2号遥感影像的多光谱波段(GF-2 MSS影像)和Landsat 8OLI影像的多光谱波段进行。
(3)正射校正
由于受到坡度和坡向影响,遥感影像中地形复杂的山区区域存在严重的地形效应(Orographic),地形效应会使地物的光谱特征发生改变从而导致地物难以被精准识别。正射 校正(Orthorectification)可利用地面控制点和待校正区域的数字高程模型(DigitalElevation Model,DEM)数据通过补偿不规则的地形起伏引起的地物亮度变化,减少同类地物的颜色 差异性,纠正因地形起伏而引起的几何畸变(影像倾斜、投影差和像点位移等),从而使遥 感影像更好的反映地表地物真实光谱反射率值。
本发明利用PIE6.1-BASIC遥感影像处理软件对GF-2 MSS影像进行正射校正,采用的30m 高程数据(DEM)来源于91卫图软件。
(4)影像配准
遥感影像配准是把不同时间、同源或异源传感器下获取的同一区域的两景或多景影像 进行匹配校正的处理过程。影像配准环节是遥感影像融合环节中尤为关键的过程,由于不同 传感器成像条件存在一定的差异,从不同传感器在同一区域获取的影像的空间位置亦存在一 定的偏移,因此需要对参与时空融合的中空间分辨率遥感影像和高空间分辨率遥感影像进行 影像配准。
本发明利用PIE6.1-BASIC遥感影像处理软件对四景实验影像(两景GF-2 MSS和两景 Landsat 8OLI)进行影像配准,将GF-2 MSS影像设定为基准影像。
(5)插值
影像的插值是指利用已知临近像元点的灰度值生成未知像元点的灰度值,从而由原始 空间分辨率影像再生出空间分辨率相对更高的影像。本发明为了保证中高空间分辨率遥感影 像像元规格的一致性,需对中空间分辨率影像做插值处理,本发明的处理方法采用三次卷积 内插算法,本算法通过选取采样点与周边十六个邻近像元的加权距离计算新的栅格值,具体 的操作步骤与双线性内插(Bilinear Interpolation)算法一致。本发明使用三次卷积内插(Cubic ConvolutionInterpolation)算法对Landsat 8OLI影像进行插值,使其矩阵规格大小与GF-2 MSS 影像保持一致。
(6)裁剪
经过上述预处理后的Landsat 8OLI影像和GF-2 MSS影像数据由于扫描宽幅的不同,在 进行中高空间分辨率遥感影像融合前需要进行裁剪。本步骤需配合插值进行,先对Landsat 8 OLI影像与GF-2 MSS影像相交区域进行裁剪,再对裁剪后的Landsat 8OLI影像进行插值处理, 最后对插值处理后的Landsat 8OLI影像与GF-2 MSS影像进行再次裁剪,从而确保研究区的 Landsat 8OLI影像和GF-2 MSS影像的像元个数保持一致。
(7)波段选择
由于本次实验参与运算的Landsat 8OLI影像拥有8个波段,而GF-2 MSS影像仅包含R、 G、B和NIR四个波段,为了方便实验数据后续的融合与对比,应对Landsat 8OLI影像进行 波段提取。本发明使用ENVI软件中的Layer stacking工具对Landsat 8OLI影像进行R、G、B、 NIR四个波段的提取。
2中高空间分辨率遥感影像融合算法
中高空间分辨率遥感影像融合属于遥感影像时空融合范畴,其融合目的是得到任一有 中空间分辨率遥感影像存在时的高空间分辨率融合影像。本发明采用基于重建算法的 STARFM算法和基于学习的SSIF算法,完成单时相Landsat 8OLI影像和GF-2 MSS影像融合模 型构建。
2.1基于重建的时空融合算法
2.1.1时空自适应反射率融合算法
时空自适应反射率融合算法(Spatial and temporal adaptive reflectancefusion model, STARFM)是一种经典的遥感影像时空融合算法,该算法最初被使用在MODIS反射率数据和 Landsat ETM+(之后统称为Landsat)反射率数据上,用以融合出预测时间下MODIS影像数 据对应时刻的Landsat影像数据。发明人根据混合像元分解的思想,在忽略不同源传感器中 的几何误差和大气校正误差的前提下,假设t时刻下MODIS影像同质像元的表观反射率Ct是 Landsat影像同质像元表观反射率Ft i和同质像元覆盖率的集合,则Ct的计算公式如式(3.1) 所示:
式(3.1)中,i为Landsat影像的像元位置。接下来,在理想情况下Landsat影像与MODIS 影像间反射率的差值不随时间的变化而改变,则t0时刻下Landsat影像反射率和MODIS影像 反射率的差值与tk时刻两者的差值相等。如式(3.2)所示:
L(xi,yj,t0)-M(xi,yj,t0)=L(xi,yj,tk)-M(xi,yj,tk) (3.2)
式(3.2)中,L(xi,yj,t0)为t0时刻(xi,yj)像元在Landsat影像中的反射率值; M(xi,yj,t0)为t0时刻(xi,yj)像元在MODIS影像中的反射率值;L(xi,yj,tk)为tk时刻 (xi,yj)像元在Landsat影像中的反射率值。
然而,在实际情况中,这种条件很难满足,原因如下:①MODIS影像的空间分辨率较低,混合像元较多,同质像元较少;②从t0到tk时刻,地表类型可能发生了变化;③地表植 被物候、光照条件和双向反射率分布函数(Bidirectional Reflectance DistributionFunction,BRDF) 都有可能随着时间的变化而发生改变。因此在实际情况下,并不能直接采用式(3.2)完成 目标日期Landsat影像反射率值的计算,STARFM算法构建了一个带有权重的Landsat和 MODIS反射率关系的模型。该模型定义了一个滑动窗口(w×w),利用周边相似像元的信 息计算滑动窗口内的空间距离、光谱距离和时间距离,以此构建权重系数。三个权重构建参 数的函数模型如下:
(1)t0时刻Landsat影像与MODIS影像间的光谱差异:
Sijk=|L(xi,yj,t0)-M(xi,yj,t0)| (3.3)
式(3.3)中,L(xi,yj,t0)为t0时刻Landsat影像(xi,yj)位置对应的反射率值,M(xi,yj,t0) 为t0时刻MODIS影像(xi,yi)位置对应的反射率值,k为采用的影像对序号。如果Sijk的值 越小,意味着Landsat影像像元的光谱特征与其临近像元值很接近。因此,该像元会被分配 一个较高的权值。
(2)t0时刻MODIS影像与时刻MODIS影像间的时间差异:
Tijk=|M(xi,yj,tk)-M(xi,yj,t0)| (3.4)
式(3.4)中,M(xi,yj,tk)为tk时刻MODIS影像像元(xi,yj)位置对应的反射率值, 如果Tijk值越小,意味着t0到tk时间范围内,地表变化越小,因此其对应的权值更高。
(3)中心像元与滑动窗口内相似像元间的空间距离:
式(3.5)中,(xw/2,yw/2)为滑动窗口的中心像元,(xi,yj)为周围像元,通常来说, 相似的临近像元为中心像元提供的信息更多。因此,dijk越小则该像元被赋予的权重越大。 为了增大空间距离的动态变化范围,因此将实际距离转换为相对距离,如下式所示:
式(3.6)中:A是常数,它定义了空间距离对光谱和时间距离的相对重要性,A值越小,Dijk的动态变化范围越大,通常A的取值为2。将光谱、时间和空间距离以乘法运算进 行合并可得公式(3.7):
Cijk=Sijk×Tijk×Dijk (3.7)
为了减少光谱差异变化对上述公式的敏感度,可将式(3.7)变换为:
Cijk=ln(Sijk×B+1)×ln(Tijk×B+1)×Dijk (3.8)
式(3.8)中,B为尺度因子,假设反射率的值域范围为0~10000时,B为10000。即 可得到一个权重函数的构建公式:
从而可得预测的时刻tk的Landsat遥感影像的关系函数,如式(3.10)所示:
值得注意的是,STARFM算法中,滑动窗口大小设定和相似像元的筛选会对融合影像的 精度产生影响,所以还可根据影像的实际情况进行调参,生成精度更高的高空间分辨率融合 影像。
2.1.2基于STARFM算法的中高空间分辨率遥感影像融合
本发明根据STARFM算法的思想,以Matlab软件为平台,建立了基于Landsat 8OLI影 像和GF-2 MSS影像的STARFM融合框架,具体流程如下:
首先应对Landsat 8OLI影像与GF-2 MSS影像进行预处理操作,以确保研究区中Landsat 8OLI影像与GF-2 MSS影像的像元个数相同;然后分别对预处理后的中高空间分辨率遥感影 像进行相似像元的筛选,由于GF-2号遥感影像缺少质量评估波段(QualityAssessment,QA), 不满足阈值法的相似像元筛选条件,因此本发明采用了基于非监督分类的像元筛选法,根据 聚类结果作为邻域像元是否被划分为一类的判断依据,对实验影像中的相似像元进行筛选。 接下来对输入影像逐波段(Blue、Green、Red、NIR)计算滑动窗口内相似像元的光谱差异 值(式(3.3))、时间差异值(式(3.4))以及周边像元与中心像元的空间距离(式(3.5)) 从而构造权重函数;最后根据式(3.10)即可生成tk时刻下的高空间分辨率融合影像。
2.2基于学习的时空融合算法
基于单对影像的稀疏时空融合模型(Spatiotemporal Satellite Image FusionThrough One-Pair Image Learning,SSIF)是基于SPSTFM算法的改进,完成单对遥感影像基于稀疏表示 的时空融合,因此本发明选择SSIF算法对中高空间分辨率遥感影像进行融合。SSIF算法本质 上是一个双层的基于稀疏表示的遥感影像超分辨率重建模型。
2.2.1基于稀疏表示理论的遥感影像超分辨率重建
2.2.1.1遥感影像退化模型
遥感影像是由搭载在遥感平台上的传感器以摄影、航空扫描或者微波成像等成像方式 获取的数字图像,其基本单位为像素,由DN值来记录地表信息的灰度值,遥感影像的超分 辨率重建是利用某种转换模型对低分辨率影像进行信息互补,从而重构出高分辨率影像(相 对的高与低)的过程。假设低分辨率影像L与其对应的高分辨率影像H之间满足某种降质关 系,则可以将低分辨率影像L看作是高分辨率影像H通过一系列下采样、模糊等退化过程得 来的结果,因此两者的关系可以由一个遥感影像退化模型建立,如关系式(3.11)所示:
L=SBH+n (3.11)
式(3.11)中,L为低分辨率影像;H为高分辨率影像;S为下采样矩阵;B表示模糊 过程;n是由H转换为L时生成的噪声。
遥感影像的超分辨率重建是遥感影像退化模型的逆过程,需要引入先验知识进行求解, 而目前稀疏表示理论是最有效的办法之一。
2.2.1.2遥感影像稀疏表示
经研究可知,由于遥感影像本身便具有相关性与冗余性,因此,大部分遥感影像可被 稀疏表示。遥感影像的稀疏表示模型如式(3.12)所示:
min||α||0 s.t.X=D×α (3.12)
式(3.12)中,‖*‖0为L0范数,即矩阵中非0元素的个数;X表示原始影像;D=[d1,d2,…,dk], D表示字典矩阵;dk表示基本信号,即基原子;α=[α1,α2,…,αk]为X的稀疏表示;αk为稀 疏表示系数,若在α中有k个非0向量,则称信号X在字典D下为k稀疏的。
K为字典D中原子的数目,其中各方框代表原子特征的集合,N为原子的维度。由K和N的关系,可以将其划分为:K>N时,D为过完备字典(over-complete);K=N时,D为 完备字典(complete);K<N时,D为欠完备字典(under-complete)。当D满足过完备条件 时,影像X可以用过完备字典中有限原子数进行稀疏表示。α为稀疏表示系数。
可见,影像X的稀疏表示可从合适的过完备字典中获取,而稀疏表示过程中应利用尽 可能少的原子对影像X进行近似表示,又可理解为应要求稀疏表示系数α大部分等于或接近 于0,即假设中包含F个非零项,满足条件F<N<<K。为了度量稀疏系数α中非零元素的 个数,通常采用L0范数进行表示,式(3.12)中求解L0范数是最简单的稀疏测度方式,然而使用L0范数正则化实现稀疏是一个NP-hard(Non-determined Polynomial Hard)问题,因 此常将式(3.12)转化为:
式(3.13)中,ε为测量的噪声水平或稀疏表示误差,‖*‖1为L1范数,代表矩阵中元素的绝对值之和。
通过引入一个拉格朗日乘数可将式(3.13)进一步优化为无约束优化问题:
式(3.14)中,γ为拉格朗日乘数,可对影像的保真度以及稀疏系数的稀疏程度进行调 解,其中α的0元素越多表示稀疏性越好。
综合可得,稀疏表示中存在两个优化变量分别为字典D和稀疏系数α,这个优化问题 的解决方式一般是先固定一个优化变量,再优化另一个变量,最后交替进行的过程。目前稀 疏稀系数求解算法可分为贪婪算法和基于凸优化两种,根据相关文献可得贪婪算法相较凸优 化算法具有更佳的性能,因此常采用贪婪算法进行稀疏编码。
2.2.1.3字典构建
遥感影像超分辨率重建的效果往往取决于字典D构造的好坏,本发明采用基于学习的字 典构建方法来进行字典构建。
本发明的基于学习的字典构建方法是以训练样本集为数据源,然后使用机器学习的方 式生成字典,本发明在SSIF算法中运用K-SVD字典学习。
K-SVD(K-singular value decomposition)字典学习算法是K-means的一种衍生算法。本 算法根据误差最小原则,通过SVD对误差项Ek进行分解,选择误差最小的分解项对字典和 稀疏表示系数进行更新,最后经过交替迭代的过程得到最优解。K-SVD字典学习算法的具体 步骤如下所示:
(1)从原始样本中随机选取k个列向量,对字典D进行初始化,并将所有列向量进行归一化处理,设定迭代次数r;
(2)固定字典D,利用OMP算法(式3.15)对每个训练样本的稀疏表示系数进行求解;
(3)对步骤(2)得到的字典D,逐原子进行字典更新,再利用式(3.16)对误差矩阵进行奇异值分解(Singular Value Decomposition,SVD)提取出矩阵中最重要的特征;
EK=UΔVT (3.16)
(4)对字典D和稀疏表示系数αi进行迭代更新,直至获取最终字典。
基于稀疏表示原理的超分辨率重建的主要任务在于使用基于稀疏表示的方法获得不同 空间分辨率影像间的关系,从而完成另一时刻下高分辨率影像的预测构建,因此需要分别建 立高、低分辨率影像(相对的高与低)特征块下的高、低分辨率字典,并建立两者的关系。 由于字典构造过程中,若同时对高低分辨率影像对应的位置进行影像块的采样,那么最终得 到的高低分辨率字典同样满足遥感影像退化模型(式(3.11)),可得表达式(3.17):
DL=SBDH+n (3.17)
将式(3.17)带入遥感影像的稀疏表示模型(式(3.12))中可得:
XL=SBDL×α+n1 (3.18)
式(3.18)中XL为低分辨率影像,同理可得:
XH=SBDH×α+n2 (3.19)
通过观察式(3.18)和式(3.19)可得,不同空间分辨率影像XL和XH在基于稀疏表示的超分辨率重建过程中拥有相同的稀疏表示系数α,因此我们可以将相同的稀疏表示系数α作为从低分辨率遥感影像到高分辨率遥感影像重建的桥梁,实现超分辨率重建。
2.2.2基于单对影像的稀疏时空融合算法
SSIF算法使用的影像数据与STARM算法的一致,均以t0时刻的Landsat影像、MODIS影像和tk时刻的MODIS影像为数据源。考虑到Landsat影像(高分辨率影像)和MODIS影 像(低分辨率影像)间空间分辨率差距较大,若将两者直接融合将导致巨大的预测误差。而 解决这一问题的办法就是提高MODIS影像的空间分辨率,然后将空间分辨率提高的MODIS 影像与原始Landsat影像相融合。通过遥感影像退化模型(式(3.11))的思想,假设MODIS 影像(对应的波段)是Landsat影像通过一系列下采样、模糊等退化过程得来的结果。考虑 到超分辨率重建上限的问题,利用基于稀疏表示的超分辨率重建原理将t0、tk时刻下的MODIS 影像的空间分辨率提升、重建成空间分辨率介于MODIS和Landsat影像间的过渡影像,再利 用高通滤波的方式将过渡影像和Landsat影像的信息进行汇集,从而生成预测时刻tk下的Landsat影像。
假设t0时刻下的Landsat影像和MODIS影像分别为L0、M0;tk时刻下的MODIS影像为Mk;生成的过渡影像分别为T0、Tk。MODIS影像的超分辨率重建包括两个步骤,即利用已 知的M0和L0建立字典训练集然后完成过渡影像的构建。具体的步骤如下所示:
(1)高低分辨率字典训练
获取t0时刻下MODIS影像和Landsat影像的高分辨率特征(从L0-M0的差值影像中提取特征块)和低分辨率特征(M0的特征块),将两个特征块进行列化操作,输入至K-SVD字 典训练模型中,获取低分辨率字典:
式(3.20)中,X为由MODIS梯度影像特征块列化后的采样矩阵,Λ为对应于X的每一列的稀疏系数,其中给定的稀疏系数Λ*为满秩矩阵(non-singular matrix),DL为求得的低分 辨率字典。由于高分辨率字典与低分辨率字典间拥有相同的稀疏表示系数,因此可用式(3.21) 进行对应的高分辨率字典训练。
式(3.21)需要利用式(3.22)广义逆矩阵(generalized inverse matrix)进行求解:
DG=Y(Λ*)+=YΛ*T(Λ*Λ*T)-1 (3.22)
(2)过渡影像构建
字典训练结束后,利用其进行过渡影像的构建。过渡预测影像Tk基于tk时刻的MODIS 影像Mk生成,首先按照字典训练中同样的方式对Mk的梯度特征影像块进行采样,假设Xk (Xk为Mk的样本块)的第i列为Xki,采用贪婪算法中的OMP算法可以将其对应的低分辨率字典DL的稀疏系数矩阵进行求解,从而获取每个低分辨率影像块中一一对应的稀疏系数矩阵。基于稀疏表示原理(式3.12)利用tk时刻下MODIS影像(M0)的稀疏系数αk和t0时刻 下字典对中的高分辨率字典,即可得到tk时刻下高低分辨率影像的差值影像Yk,最终可求得 过渡预测影像Tk,同理可得t0时刻下的过渡预测影像T0。
(3)高通滤波
由于用于字典训练的t0时刻下Landsat影像与MODIS影像间的差值影像在物候变化以 及地表的覆盖类型变化上具有较高程度的相似性,因此假设过渡预测影像T0与Tk间服从线性 变化关系,则可得下列线性变换模型:
Tk=a×T0+b (3.23)
Lk=a×L0+b (3.24)
由式(3.23)和(3.24)可推导出tk时刻下Landsat影像的求解公式:
2.2.3基于SSIF算法的中高空间分辨率遥感影像融合
本发明基于SSIF算法模型,以t0时刻的Landsat 8OLI影像(简称L1)、GF-2 MSS影像(简称G1)和tk时刻的Landsat 8OLI影像(简称L2)为数据源,建立基于Landsat 8OLI影像 和GF-2 MSS影像的SSIF融合框架,从而预测出tk时刻的GF-2 MSS影像(简称G2)。由于 考虑到Landsat 8OLI与GF-2 MSS影像间的空间分辨率差距较大,直接对两者进行融合会产生 较大的误差,因此在假设Landsat 8OLI与GF-2 MSS影像间存在降质关系的前提下分别利用式(3.20)以及式(3.21)获取中高空间分辨率遥感影像的字典对,再基于字典学习的超分辨率重建思想生成介于Landsat 8OLI与GF-2 MSS影像之间空间分辨率的过渡影像(Trans 1、Trans 2),最后通过高通调制的方式(式3.25)获得预测时刻下的高空间分辨率融合影像。
在本实验中Landsat 8OLI影像与GF-2 MSS影像间空间分辨率差距为7.5倍,空间分辨 率差异较大,因此本发明基于该融合框架有以下几个要点需要注意:
(1)第一层框架中,降采样和升采样的流程采用了MATLAB中的三次卷积内插法,第一次升采样和降采样过程分别将输入的Landsat 8OLI影像以及GF-2 MSS影像的空间分辨率 变换为10m(将影像升降的倍率控制在4倍以内),则第一层差值计算的是10m空间分辨率的Landsat 8OLI影像与GF-2 MSS影像间的差值,因此生成的预测影像G2′空间分辨率也为10m。第一层框架的高通滤波过程生成了10m空间分辨率的预测影像G2′。
(2)第二层框架中,分别将第一层框架生成的预测影像G2′(10m空间分辨率)作为t2时 刻的低空间分辨率影像输入,t0时刻预处理后GF-2 MSS影像和t1时刻升采样后的GF-2MSS 影像(4m空间分辨率)作为t0时刻的高空间分辨率影像输入。完成两次高通滤波的迭代过 程即可生成tk时刻的高空间分辨率融合影像G2(4m空间分辨率)。
3中高空间分辨率遥感影像融合模型的质量评定
3.1融合质量评定指标
中高空间分辨率遥感影像融合的目的是为了得到与原始高空间分辨率遥感影像空间结 构、光谱特征无限接近的相同空间分辨率数值大小的高空间分辨率融合影像,从而解决高空 间分辨率遥感影像缺失的问题,因此对上文中基于STARFM算法和SSIF算法的Landsat 8OLI 与GF-2 MSS影像融合实验结果进行质量评定。
融合结果的质量评定一般采用定量分析和定性分析两种方式。所谓定性分析,就是通 过人工进行目视判读,检测融合影像的色调、饱和度是否与真实GF-2 MSS影像一致,纹理 特征以及地物的边缘特征相较原始Landsat 8OLI影像是否有所增强,地物的可分离性和清晰 度相较原始Landsat 8OLI影像是否得到了提高。定量分析则是依据多元统计分析相关的数学 理论进行,采用一些技术指标从客观上评价融合影像与原始GF-2 MSS影像的相似度。遥感 影像中,空间分辨率的数值大小可代表影像细节的可见程度,但每一观测目标的可分辨能力 并不全完取决于这一数值,它还取决于观测目标的形状大小以及其与周围地物或背景环境间 的亮度和结构差异。因此本研究选则了结构相似性(SSIM)、信噪比(PSNR)以及线性相关 系数(CC)三种具有代表性的精度评价指数对融合影像进行质量评价,三者相关概念如下:
(1)结构相似性
结构相似性(structural similarity index,SSIM)是衡量影像和影像间相似性的一项度量 指标,该指数从成像的角度把影像的结构信息定义成独立于亮度(Luminance)、对比度 (Contrast)以及反映影像中物体结构(Structure)的属性,将均值用以作为亮度的近似估 计参数,采用标准差作为对比度的近似估计参数,视协方差为结构相似程度的度量参数。可 用下式对SSIM进行数学定义:
式(4.1)中,x为融合影像,y为原始影像,是x的平均值,μy是y的平均值,σx 2是 x的方差,σy 2是y的方差,σxy为预测影像和实际影像间的协方差。结构相似性的阈值范 围为0到1。若两张图越相似则SSIM的值越接近1;当两张图一模一样时,SSIM的值等于 1。
(2)峰值信噪比
峰值信噪比(Peak signal to Noise Ratio,PSNR)是常用的信号失真衡量指标,它可用来 衡量融合影像与原始影像的接近程度。计算公式如下所示:
式(4.2)中:MSE(mean square error)表示融合影像x与原始影像y的均方误差,H、W分别表示遥感影像的行数和列数,n为影像采样点位数,将式(4.2)的运算结果带入式(4.3)中即可获取融合影像与原始影像间的PSNR值,若PSNR的值大于40dB说明融合影 像与原始影像十分接近,在30dB和40dB之间则说明融合影像略有失真,小于30dB则说明 融合影像质量差,与原始影像间差距大。
(3)相关系数
利用相关分析法对生成的的高空间分辨率融合影像与原始GF-2 MSS影像的波段间的相 似度进行评价,采用的评价指标为相关系数(Correlation Coefficient,CC),相关系数可度量 变量与变量间线性相关的程度,其定义如下所示:
式(4.4)中:cov(x,y)为x与y之间的协方差,cov(x,x)为x的方差,cov(y,y)为y的方差。相关系数CC表示对融合结果与真实结果进行线性拟合得到的斜率,如果CC越接近1,表明融合精度越高。
3.2融合结果质量对比分析
3.2.1融合结果
本发明分别基于STARFM算法和SSIF算法的思想构建了以Landsat 8OLI影像与GF-2 MSS影像为数据源的时空融合框架,将2017年1月26日Landsat 8OLI影像、2017年10月9日Landsat 8OLI影像和2017年1月16日GF-2 MSS影像作为输入,可得2017年10月9日高 空间分辨率融合影像及其局部效果图,由于STARFM算法中滑动窗口的大小参数设定决定了参与权重函数构造的相似像元个数,从而影响影像融合质量,因此本发明在综合考虑研究区的 大小和Landsat 8OLI与GF-2 MSS的影像特性后,运用非监督分类法进行相似像元筛选。将影 像非监督分类的分类数设定为5,并分别将滑动窗口的大小设定为3×3、5×5、7×7、9×9, 可得到4组参数组合下的高空间分辨率融合影像。图1a是STARFM算法生成的高空间分辨率 融合影像图(3*3),图1b是图1a的局部放大效果图;图2a是STARFM算法生成的高空间 分辨率融合影像图(5*5),图2b是图2a的局部放大效果图;图3a是STARFM算法生成的高空间分辨率融合影像图(7*7),图3b是图3a的局部放大效果图;图4a是STARFM算法 生成的高空间分辨率融合影像图(9*9),图4b是图4a的局部放大效果图;图5a是基于SSIF 算法生成的高空间分辨率融合影像图,图5b是图5a的局部放大效果图。
3.2.2融合质量对比分析
对高空间分辨率融合影像的色调进行对比,发现STARFM算法中不同滑动窗口融合出 的影像的色调一致但相较原始GF-2 MSS影像更深,如林地区域,有较为明显的失真,而SSIF 算法融合出的影像在色调上与原始GF-2 MSS影像较为接近;对融合影像的饱和度进行对比, 可知SSIF算法的融合影像饱和度最好,林地、建筑等地类的色彩鲜艳,但裸地和水体的饱 和度相较原始影像有些差异,STARFM算法的融合影像与原始影像的饱和度差异较大;将融 合影像的清晰度进行对比,可以发现STARFM和SSIF算法融合影像的对地辨析能力相较原始 的Landsat 8OLI影像在一定程度上均有所提高,如在Landsat 8OLI影像上无法分辨的公路、 房屋、河岸等建设用地在融合影像上均能较为清晰的呈现,但通过局部效果图可知STARFM 算法融合出的影像存在“光斑”现象,且随着滑动窗口大小的增加,融合影像的“光斑”数量逐 渐增多,融合影像也愈模糊,影响地物的判别。相比之下SSIF融合影像且不存在“光斑”现象, 清晰度更佳,特别是河流边界、山脉、道路、耕地等区域边界清晰,与其他地物的可分离性 强,林地等区域纹理细腻。总之,从定性分析的角度来看,STARFM算法中3*3滑动窗口大 小的融合影像相较其他规格的滑动窗口融合出的影像的“光斑”数量最少、清晰度更佳,但总 体上说SSIF算法融合出的高空间分辨率融合影像无论是在色调上、饱和度上、清晰度上均 与原始GF-2 MSS影像更接近。
对影像进行主观上的定性分析后,采用PSNR、SSIM以及CC这三项客观评价指标对研 究区的融合结果进行客观上的定量评价,评价结果如表4.1所示。
表4.1研究区高空间分辨率融合影像定量分析统计表
由表4.1可得,STARFM算法中3*3滑动窗口的评价指标相对最高,而随着滑动窗口的 增大,PSNR、SSIM以及CC三个评价指标均表现出逐渐减少的趋势,这说明生成的高空间分 辨率融合影像随着滑动窗口的增大在逐渐失真,与原始GF-2 MSS影像的相似度逐渐降低。 这是由于遥感影像中“同物异谱”以及“同谱异物”现象普遍存在,影像经过非监督分类后的结 果误差较大,导致相似像元的筛选不够精确,而滑动窗口越大,愈多与中心像元不相关的光 谱信息被引入至中心像元的构建,导致误差增大,此外,随着滑动窗口的增大,算法的计算 时间会增长,在难以提高影像融合质量的同时,还增加了算法的复杂度,降低效率。综合定 量评价的结果和定性评价的结果可得,STARFM算法中滑动窗口设定为3×3大小的高空间 分辨率融合影像表现最佳。因此本发明将滑动窗口为3×3情况下STARFM算法融合结果与 SSIF算法融合结果进行对比。对比可得,近红外波段中SSIF算法生成的高空间分辨率融合影 像相较STARFM算法生成的高空间分辨率融合影像的PSNR提高了3.01,SSIM提高了0.1, CC提高了0.03;红光波段中,SSIF算法生成的高空间分辨率融合影像相较STARFM算法生成 的高空间分辨率融合影像的PSNR提高了3.38,SSIM提高了0.29,CC提高了0.06;绿光波 段中,SSIF算法生成的高空间分辨率融合影像相较STARFM算法生成的高空间分辨率融合影 像的PSNR提高了6.53,SSIM提高了0.11,CC提高了0.14;蓝光波段中,SSIF算法的融合 影像相较STARFM算法的融合影像的PSNR提高了2.11,SSIM提高了0.24,CC提高了0.03。
此外本发明利用ENVI软件的散点图绘制功能对STARFM算法中滑动窗口大小为3×3 的高空间分辨率融合影像与SSIF算法生成的高空间分辨率融合影像中四个波段与真实GF-2MSS影像的四个波段进行回归分析,对高空间分辨率融合影像与研究区2017年10月9日GF-2 MSS验证影像间的相似程度进行可视化展示。结果发现SSIF算法相较STARFM算法具有更好的拟合特性。
定量分析结果与定性分析结果相吻合,这说明SSIF算法生成的高空间分辨率融合影像 与研究区2017年10月9日GF-2 MSS验证影像间的相似度更高。
4高空间分辨率融合影像的森林资源变化监测模型的应用
基于遥感的森林资源变化监测的主要目的是对不同时间、相同区域的遥感影像数据进 行变化信息的提取,从而客观掌握森林资源发生变化的具体地理位置、转变类型和森林资源 变化的数量。遥感影像中,中低空间分辨率遥感影像具有时间分辨率高且单景影像覆盖面积 广的特点,但是由于其空间分辨率低,因此影像中包含的混合像元较多,监测结果往往比较 粗糙,难以满足林业精准化的需求。目前,GF-2号遥感影像在森林资源的精准识别和变化 监测方面已有较多的研究,但是由于受到传感器硬件限制以及不利天气的影响,GF-2号卫 星对地的观测频次较低,且高质量的GF-2号遥感影像的数量往往小于其生成数量,因此本 发明利用时空融合技术,完成了预测时间下Landsat 8OLI影像的信息弥补,生成了预测时间 下的高空间分辨率融合影像,并将其应用到森林资源变化监测中。
通过高空间分辨率融合影像质量评定结果可知,SSIF算法生成的高空间分辨率融合影像 质量相较STARFM算法生成的高空间分辨率融合影像质量更佳,因此对2017年1月16日的 GF-2 MSS影像和SSIF算法生成的2017年10月9日高空间分辨率融合影像进行信息提取和 分类。此外由于遥感影像在采集与生成过程中不可避免的受到噪声的影响,因此本章节提出 了基于自适应阈值小波去噪和随机森林相结合的分类方法,首先采用自适应阈值小波去噪法 对遥感影像进行去噪处理,然后采用随机森林的方法对遥感影像进行分类,最后采用分类后 比较法进行信息对比分析,获得研究区2017年1月16日至2017年10月9日间森林资源 的变化情况。
4.1影像分类
4.1.1分类体系的建立
在进行遥感影像分类前,需根据研究区影像包含信息和研究目的建立分类体系。根据 《土地利用现状分类》(GB/T 21010-2017)和《森林资源规划设计调查主要技术规定》(GB/T26424-2010),林业地类划分标准如表5.1所示,该分类体系是根据国家林地以及森林资源的宏观情况而制定的。
森林资源是林地及其所生长的森林有机体的总称,林地资源是构成森林资源的主体。 本发明所指的森林资源是针对林地资源而言,而考虑到高空间分辨率融合影像与实际GF-2 MSS影像间还存在些许差异,以及4m空间分辨率的GF-2 MSS影像其自身特征不足,对林 地类型的识别能力有限,难以进行精细区分,因此本发明将研究区的灌木林地、疏林地和有 林地等统称为林地,非林地被划分为建设用地、耕地、水体以及未利用地,其中居民区、城 镇公路和其他建设用地统称为建设用地。
表5.1林业地类划分标准表
Table5.1 Table of criteria for classification of forest land
4.1.2分类特征信息提取
特征信息提取的目的在于以最少、最显著的特征表征影像的全部信息,在降低维度的 同时提高不同地物间的区分度以对地类进行最大程度的区分。
(1)光谱特征
本发明分别选用2017年1月16日的GF-2 MSS影像和SSIF算法生成的2017年10月9日高空间分辨率融合影像的红、绿、蓝、近红外四个波段为光谱特征变量参与分类。
(2)纹理特征
主成分分析(PCA)是一种基于图像统计地变换方法,被广泛地用于遥感影像的降维、 遥感影像增强、遥感影像信息提取等方面,是一种成熟的遥感影像处理方法。PCA是通过线 性变换的方式将原先所有重复或者关系紧密的变量删除,然后建立相关性低且具有代表性的 线性组合,这个新的组合又被称为主成分。该方法在保留原始影像数据的主要信息的同时还 能降低不同波段间影像信息间的冗余度。图像的线性变换用公式(5.1)来表达:
Y=TX (5.1)
式(5.1)中,X表示需要变换的原始矩阵,Y表示经过处理后的矩阵,T表示产生线性变换的矩阵。主成分变换后的新变量中包含n个行向量,分别被称为第一主成分(PC1), 第二主成分(PC2),…,第n主成分(PCn)。一般来说,影像中95%以上的信息包含于前两 个主成分中,因此本发明运用ENVI 5.3软件对数据源的光谱特征(红、绿、蓝、近红外波段)
进行主成分分析,最终提取前两个主成分。
纹理通常被定义为图像的某些局部属性或者局部区域内,像元灰度级的空间分布及空 间相互关系,其提供了影像的结构信息。当地物组成复杂且地物面积大于影像的空间分辨率 时,影像呈现明显的纹理特征,由于仅靠光谱特征难以完全区分各类地物,而不同的地类存 在纹理上的差异,各类研究结果表明,增加合适的纹理特征可以提高遥感影像分类的精确度。 因此,在进行遥感影像的信息提取前可将地物的光谱信息与纹理特征进行结合。
本发明利用ENVI 5.3软件中的Co-occurrence Measures纹理分析工具对主成分变换后的 第一个主成分和第二个主成分进行灰度共生矩阵计算,分别采用了7×7的基窗口,将灰度 量化级别设定为64,进行纹理特征的提取。本发明选取了对比度(Contrast)、方差(Variance)、 均值(Mean)三种纹理特征作为影像分类的辅助特征信息。
(3)植被指数
植被指数是衡量地表植被状况的有效指标,这类指数通过将影像间不同波段(常指可 见光红色波段以及近红外波段)按照线性或者非线性方式进行组合,用以增强植被特征信息, 其中归一化植被指数以及比值植被指数是常用的两种植被指数,两者均利用了植被在红光波 段有很强的吸收能力以及对近红外波段有很强的反射能力的特点,对近红外波段和红光波段 进行波段运算。
归一化植被指数(NDVI)是对红光波段和近红外波段进行归一化运算从而增强植被信 息。该指数处于[-1,1]之间,当NDVI的值大于0时,表示地表有植被覆盖;当NDVI值小于 等于0时,表示地表无植被覆盖或者地表被云层、水体或雪等非林地覆盖,总之NDVI指数能增强林地与非林地间的区分度。其运算公式如式(5.2)所示:
式(5.2)中,Band(NIR)为遥感影像中近红外波段的反射率值,Band(R)为遥感影像中可见光红光波段的反射率值。
比值植被指数(RVI)是对近红外波段和可见光红色波段做除法运算以增强植被信息, 与归一化植被指数的理念一致。通常来说,健康绿色植被覆盖区域的RVI值远大于1,而RVI 值在1附近时表示该区域无植被覆盖或植被覆盖度低。运算公式如式(5.3)所示:
(4)归一化水体指数
本研究区存在较大面积的水域,为了增大水体与林地以及水体与其他地类的对比度, 常使用归一化差异水体指数(NDWI)。由于水体的光谱相应曲线从绿光波段到红外波段是递 减趋势,而植被的光谱相应曲线反之,因此该指数不仅能突出水体的特征信息,还可以削弱 土壤和植被的特征信息。数学关系式如式(5.4)所示:
式(5.4)中,Band(G)为遥感影像中可见光绿色波段的反射率值。本发明提取的分类特征参数如表5.2所示,根据下列特征参数集对研究区进行分类。
表5.2特征参数统计
Table 5.2 Statistic of characteristic parameters
4.1.3影像自适应阈值小波去噪
信号通常分为高频和低频信号,其中低频信号包含了图像大范围、大尺度的有用信息, 而高频信号反映了图像的边缘以及细节信息,同时它也是噪声集中的位置。根据相关研究证 明,小波去噪(wavelet denoising)得益于其多分辨率性、低熵性、去相关性、选基灵活性 等特点,能有效地去除遥感影像中的噪声。
本发明采用小波阈值去噪法,将含噪信号Sn作为输入,首先完成信号的小波分解,即 将输入信号Sn中的低频和高频信号分离,然后根据选定的阈值法的相关理论对分解后的高 频系数进行阈值量化处理,最后用处理后的小波系数进行小波逆变换完成信号重构获得去噪 后的信号Sn’。
小波阈值去噪过程中,阈值的选取是关键,若阈值选取过大,影像处理过于平滑,导致 影像信息严重缺失,若阈值选取过小,去噪效果则不理想。传统的统一阈值(Universal Threshold)法的计算原理是去除所有大于高频小波系数中最大幅度的小波系数,但由于它趋 于“过扼杀”小波系数,导致重构后的影像过于平滑,影像信息失真度较高,而自适应阈值法 则可以有效地克服这一缺点。自适应阈值法将小波分解的每一层都视为相互独立的个体,然 后根据每层小波系数幅值各自的特点,自适应地在每层分解的水平、垂直、对角三个方向分 别寻找一个最匹配的阈值进行去噪处理,从而将噪声从三个方向分离开来。因此本发明选择 基于SURE准测的自适应阈值小波去噪法对遥感影像进行去噪处理,基本步骤如下所示:
(1)将获取的特征参数集作为实验图像,进行4层小波分解,采用的小波基为sym8,分解得到小波高频和低频信号,获取各个分解尺度下的小波系数W。
(2)将影像的每一维度视为相互独立,根据4层分解后的小波系数分别在其分解水平、 垂直、对角三个方向依据SURE原理对高频系数进行阈值量化。使用公式(5.5)求出r(i)为 最小值时对应的下标i。
式(5.5)中,δ为噪声信号的标准差,S(i)为各个小波系数的平方。最后根据公式(5.6) 可获得阈值TSURE。
(3)经过小波重构,获得去噪后的影像。
4.1.4随机森林分类
本发明采用随机森林分类算法作为分类模型。
随机森林算法可分为两个阶段:
(1)训练阶段
利用Bootstrap(自助法)对训练样本有放回的随机采样,约有2/3训练数据集为袋内 数据,1/3的训练数据集为袋外数据(Out-of-Bag,OOB),产生OOB误差;然后,根据个 训练样本子集生成棵决策树,每颗决策树基于基尼系数最小原则进行结点分裂,构建出随机森林分类器模型。
(2)分类阶段
随机森林分类过程是将测试样本集作为分类模型的输入,根据最大投票准则,投票次数 最多的类别被输出获取分类结果,即分类结果取决于多棵树的最大投票准则表决结果。
随机森林算法中以下两个参数的设定会影响模型的准确度,分别为决策树的数目N和 每棵决策树节点分裂时选择的特征变量个数F,决策树是组成随机森林的基分类器,其数目 过多会导致算法的计算成本提高,收敛性受到影响;决策树数目过少则无法保证模型的分类 精度,同样,F过小会导致单棵决策树的分类精度降低,从而影响随机森林分类模型的精度; F值过大会降低随机森林的分类效率。本发明将决策树数目设定为300,节点分裂选择的特 征变量个数为特征参数总数的平方根,被设定为4。
4.1.4.1分类
(1)随机森林分类
运用随机森林的分类方法对2017年1月16日GF-2 MSS影像和SSIF算法生成的2017年10月9日的高空间分辨率融合影像进行分类。
(2)基于自适应阈值小波去噪和随机森林相结合的分类
运用自适应阈值小波去噪和随机森林相结合的分类方法对2017年1月16日GF-2MSS 影像和SSIF算法生成的2017年10月9日的高空间分辨率融合影像进行分类。
4.1.4.2精度评价和对比分析
分类结果的精度评价是对分类结果可信度的一种衡量,混淆矩阵是精度评价的标准形 式。混淆矩阵是通过计算分类数据集和验证数据集的像元得到的一种比较矩阵,用来验证对 应位置下分类数据集与验证数据集的类别是否一致,从而获取影像的分类精度。本发明采用 目视解译法分别对2017年1月16日和2017年10月9日的GF-2 MSS影像进行随机采样, 作为真实地类样本,构建验证样本数据集,最后使用混淆矩阵的计算结果来评价影像的分类 精度。
本发明采用自适应阈值小波去噪和随机森林相结合的分类方法进一步提高影像的分类 精度。
4.2森林资源变化监测结果
本发明采用分类后比较法进行两期影像的变化监测,可得研究区的森林资源覆盖变化 专题图,专题图中包括以下10个类型:未发生变化的区域、林地变成未利用地、林地变成 耕地、林地变成水体、林地变成建设用地、未利用地变林地、耕地变林地、水体变林地、建设用地变林地以及其他情况,其中非林地间的地物变化统称为其他。
根据研究结果,在2017年1月到10月间,林地变为未利用地面积为468496m2,变化率 为0.94%,林地成为耕地的面积为1339424m2,变化率为2.78%,林地变成水体的面积为19632 m2,变化率为0.04%,林地变为建设用地的面积为306640m2,变化率为0.64%,总计林地的 减少面积为2134192m2。未利用变为林地的面积为525520m2,变化率为1.09%,耕地转变为 林地面积为860120m2,变化率为1.79%,水体变林地的面积为66768m2,变化率为0.14%, 建设地变为林地面积为24784m2,变化率为0.05%,总计林地增加面积为1477192m2。总体来 说2017年1月到10月间研究区的林地面积减少了657000m2,即森林覆盖率下降了1.36%,森 林资源减少。
4.3精度评价
为了对本发明研究区获得的森林资源变化监测结果进行有效地验证,研究过程中采用 目视解译法对比两期原始GF-2 MSS影像,分别对未变化区域、林地变未利用地区域、林地 变耕地区域、林地变水体区域、林地变建设用地区域、未利用地变林地区域、耕地变林地区 域、水体变林地区域、建设用地变林地区域以及其他区域,各提取100个样本点作为验证样 本数据集,然后利用ENVI软件对研究区的森林资源覆盖变化结果图进行精度评价,结果如 表5.8所示:
表5.8研究区森林资源变化监测结果精度评价
Fig 5.8 Precision evaluation of forest resource change monitoringresults in the research area
由表5.8可得,未变化区域、林地变未利用地和其他区域的分类精度最高,均高于85%, 但林地变耕地区域、林地变水体区域、林地变建设用地、未利用地变林地以及水体变林地的 分类精度较差,均低于70%,主要在于两期影像存在一定的分类误差且由于分类后比较是逐 像元比较,若两期影像间存在一定的配准误差,则对变化监测结果存在一定的影响;另外林 地与耕地的光谱特性相近,在分类时易导致两者间出现错分或漏分的情况,影响监测结果; 此外SSIF算法生成的高空间分辨率融合影像与同时刻下的GF-2 MSS影像间还存在一定的差 别,这亦会影响监测结果。但研究区森林资源变化监测结果的总体精度高于80%,可为林业 管理部门提供辅助决策服务。
本发明研究利用2017年1月16日GF-2 MSS影像和基于SSIF时空融合算法生成的2017 年10月9日高空间分辨率融合影像进行森林资源变化监测,首先建立分类体系,将研究区 分为林地、耕地、建设用地、林地以及水体五大类,然后对影像进行分类特征信息提取,合 成为13个波段的影像多特征集,然后提出了一种基于自适应阈值小波去噪与随机森林相结 合的分类方法,并将其与随机森林分类方法进行比较,结果发现本发明提出的分类方法相较 随机森林分类方法的总体分类精度和Kappa系数均有所提高。最后采用分类后比较法对两期 影像进行对比,可知研究区2017年1月16日至2017年10月9日间,林地面积减少了 657000m2,即森林覆盖率下降了1.36%,森林资源减少。通过精度评价可得,森林资源变化 结果的总体精度为80.2%,Kappa系数为0.78。
本发明应用以安徽省宣城市旌德县与泾县交界的区域为研究区,根据Landsat8OLI影 像与GF-2 MSS影像特征建立了基于STARFM算法和SSIF算法的时空融合框架,生成了2017 年10月9日研究区4m空间分辨率的高空间分辨率融合影像,并将其应用于森林资源变化 监测中。由实施结果可知:
(1)运用STARFM算法生成的高空间分辨率融合影像存在“光斑”现象,滑动窗口越大, “光斑”数量越多,影像质量越差,这说明本发明采用的非监督分类相似像元的筛选条件不 够严格,因而导致在滑动窗口增大时,越多无关的地类信息被引入至中心像元的构建,“稀 释”了真实地类信息的权重,从而产生无法识别的噪点,降低了影像对地的辨析能力。另一 方面,滑动窗口的增大会增加高空间分辨率融合影像的生成时间,这是由于滑动窗口的增大 意味着程序中的循环次数增多,计算量加大,从而导致高空间分辨率融合影像获取效率降低。
(2)从定性分析结果可得SSIF算法生成的高空间分辨率融合影像无论是在饱和度还是 在色调上呈现的效果均与原始GF-2 MSS真彩色影像更接近,纹理较为清晰,并且未产生“光 斑”现象;从定量分析的结果可得SSIF算法的结构相似性(SSIM)、信噪比(PSNR)和线性 相关系数(CC)相较STARFM算法更高。这是由于STARFM算法是基于线性且地物不变的假设,又采取了“一步到位”的插值方式,将30m空间分辨率的Landsat 8OLI影像直接升采 样至4m,易为后面的影像重建过程引入误差,导致生成的预测时间下的高空间分辨率融合 影像与原始GF-2 MSS影像差异较大;而SSIF算法是一种非线性算法,该算法利用基于稀疏 表示理论的遥感影像超分辨率重建原理生成的过渡空间分辨率遥感影像可有效地缓解Landsat 8OLI影像与GF-2 MSS影像间的差异,减少影像信息间的传递误差。因此SSIF算法相较STARFM算法具有更强的数据适应能力。
(3)基于自适应阈值小波去噪和随机森林相结合的分类方法能更好的减少影像分类产 生的“椒盐噪声”。这是由于自适应阈值小波去噪在保留了影像中原始光谱信息的基础上剔除 了影像中部分高频分量从而抑制了影像中的“噪声”,减少了影像分类过程中的不确定性因素, 进一步提高了影像的分类精度。表明了基于自适应阈值小波去噪和随机森林相结合的分类方 法具有一定可行性。
(4)利用SSIF算法生成的高空间分辨率融合影像与原始GF-2 MSS影像相似度较高, 能有效地解决GF-2号遥感影像的“时空矛盾”问题。
由于高空间分辨率遥感影像受限于重访周期和数据质量的影响,难以达到高频次的地 表观测,严重约束了高空间分辨率遥感影像在林业方面的应用,而利用本发明建立的以单时 相Landsat 8OLI与GF-2 MSS影像对为数据源的SSIF算法融合框架,在不需要密集调用高空 间分辨率卫星资源的情况下,便可提高高空间分辨率遥感影像的时间分辨率,从而更加迅速 地掌握森林资源现状和消长变化信息,为林业管理部门提供辅助决策服务。
Claims (7)
1.一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法,其特征在于,包括如下步骤:
(1)采集地物遥感数据;
(2)对所采集的地物遥感数据预处理;
(3)构建森林影像融合模型。
2.根据权利要求1所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法,其特征在于,步骤(1)采集遥感数据采集高空间分辨率遥感影像和中空间分辨率遥感影像数据。
3.根据权利要求2所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法,其特征在于,步骤(1)采集遥感数据采集高空间分辨率遥感影像和中空间分辨率遥感影像数据分别为:采集GF-2号遥感影像作为高空间分辨率遥感影像,采集Landsat 8遥感影像作为中空间分辨率遥感影像。
4.根据权利要求1所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法,其特征在于,步骤(2)对所采集的遥感数据预处理包括辐射定标、大气校正、正射校正、影像配准、插值、裁剪和波段选择的处理。
5.根据权利要求1所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法,其特征在于,步骤(3)构建影像融合模型包括建立基于STARFM算法和SSIF算法的时空融合。
6.根据权利要求5所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法,其特征在于,步骤(3)构建影像融合模型具体为建立基于STARFM算法和SSIF算法的时空融合Landsat 8OLI影像和GF-2MSS影像的时空融合框架,将Landsat 8OLI影像与GF-2MSS影像的时空融合。
7.权利要求1至6任意一项权利要求所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法的应用,其特征在于,所述基于中高空间分辨率遥感影像融合的森林资源变化监测方法应用于监测森林资源变化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011393002.3A CN112733596A (zh) | 2020-12-01 | 2020-12-01 | 一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011393002.3A CN112733596A (zh) | 2020-12-01 | 2020-12-01 | 一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112733596A true CN112733596A (zh) | 2021-04-30 |
Family
ID=75598389
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011393002.3A Pending CN112733596A (zh) | 2020-12-01 | 2020-12-01 | 一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112733596A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240758A (zh) * | 2021-05-28 | 2021-08-10 | 珠江水利委员会珠江水利科学研究院 | 基于融合衍生指数的遥感影像融合方法、系统、设备及介质 |
CN113407596A (zh) * | 2021-06-23 | 2021-09-17 | 北京华云星地通科技有限公司 | 基于交叉辐射定标的气象遥感数据精度检验分析系统 |
CN113689414A (zh) * | 2021-08-30 | 2021-11-23 | 扎赉诺尔煤业有限责任公司 | 一种高寒地区长时间序列高频率ndvi生成方法和装置 |
CN113850139A (zh) * | 2021-08-25 | 2021-12-28 | 南京林业大学 | 一种基于多源遥感的森林年际物候监测方法 |
CN114782846A (zh) * | 2022-06-20 | 2022-07-22 | 绵阳天仪空间科技有限公司 | 一种灾后救援引导系统及方法 |
CN115019198A (zh) * | 2022-08-08 | 2022-09-06 | 中国科学院空天信息创新研究院 | 高频次遥感观测影像迭代更新制图方法 |
CN117522023A (zh) * | 2023-11-07 | 2024-02-06 | 中国人民解放军战略支援部队航天工程大学 | 一种基于图模型的遥感影像需求融合方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400364A (zh) * | 2013-06-06 | 2013-11-20 | 武汉大学 | 一种森林资源变化监测方法 |
CN110645961A (zh) * | 2019-09-27 | 2020-01-03 | 佛山科学技术学院 | 基于遥感和ndvi的森林资源动态变化检测方法 |
US20200082151A1 (en) * | 2018-09-06 | 2020-03-12 | National Central University | Method of Top-of-Atmosphere Reflectance-Based Spatiotemporal Image Fusion Using Aerosol Optical Depth |
-
2020
- 2020-12-01 CN CN202011393002.3A patent/CN112733596A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103400364A (zh) * | 2013-06-06 | 2013-11-20 | 武汉大学 | 一种森林资源变化监测方法 |
US20200082151A1 (en) * | 2018-09-06 | 2020-03-12 | National Central University | Method of Top-of-Atmosphere Reflectance-Based Spatiotemporal Image Fusion Using Aerosol Optical Depth |
CN110645961A (zh) * | 2019-09-27 | 2020-01-03 | 佛山科学技术学院 | 基于遥感和ndvi的森林资源动态变化检测方法 |
Non-Patent Citations (2)
Title |
---|
张明月: "基于MDD数据集的时谱融合算法设计与实现", 《中国优秀硕士学位论文全文数据库 基础科学辑》, pages 38 - 40 * |
李大成等: "一种单时相高分辨率遥感影像时空融合算法", 《计算机工程与应用》, pages 1 - 9 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113240758A (zh) * | 2021-05-28 | 2021-08-10 | 珠江水利委员会珠江水利科学研究院 | 基于融合衍生指数的遥感影像融合方法、系统、设备及介质 |
CN113407596A (zh) * | 2021-06-23 | 2021-09-17 | 北京华云星地通科技有限公司 | 基于交叉辐射定标的气象遥感数据精度检验分析系统 |
CN113850139A (zh) * | 2021-08-25 | 2021-12-28 | 南京林业大学 | 一种基于多源遥感的森林年际物候监测方法 |
CN113689414A (zh) * | 2021-08-30 | 2021-11-23 | 扎赉诺尔煤业有限责任公司 | 一种高寒地区长时间序列高频率ndvi生成方法和装置 |
CN113689414B (zh) * | 2021-08-30 | 2023-12-15 | 扎赉诺尔煤业有限责任公司 | 一种高寒地区长时间序列高频率ndvi生成方法和装置 |
CN114782846A (zh) * | 2022-06-20 | 2022-07-22 | 绵阳天仪空间科技有限公司 | 一种灾后救援引导系统及方法 |
CN114782846B (zh) * | 2022-06-20 | 2022-11-08 | 绵阳天仪空间科技有限公司 | 一种灾后救援引导系统及方法 |
CN115019198A (zh) * | 2022-08-08 | 2022-09-06 | 中国科学院空天信息创新研究院 | 高频次遥感观测影像迭代更新制图方法 |
CN115019198B (zh) * | 2022-08-08 | 2022-10-18 | 中国科学院空天信息创新研究院 | 高频次遥感观测影像迭代更新制图方法 |
CN117522023A (zh) * | 2023-11-07 | 2024-02-06 | 中国人民解放军战略支援部队航天工程大学 | 一种基于图模型的遥感影像需求融合方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112733596A (zh) | 一种基于中高空间分辨率遥感影像融合的森林资源变化监测方法及应用 | |
Chen et al. | Spatially and temporally weighted regression: A novel method to produce continuous cloud-free Landsat imagery | |
CN111598019B (zh) | 基于多源遥感数据的作物类型与种植模式识别方法 | |
Rogers et al. | Reducing signature variability in unmixing coastal marsh Thematic Mapper scenes using spectral indices | |
Song et al. | Spatiotemporal satellite image fusion through one-pair image learning | |
CN109993237B (zh) | 基于高分卫星光学遥感数据的水体快速提取方法及系统 | |
US8411905B2 (en) | Generating agricultural information products using remote sensing | |
CN111242224B (zh) | 一种基于无人机提取分类样本点的多源遥感数据分类方法 | |
CN112991288B (zh) | 基于丰度图像锐化重构的高光谱遥感图像融合方法 | |
CN102750701A (zh) | 针对Landsat TM和ETM图像的厚云及其阴影检测方法 | |
CN113222054B (zh) | 基于特征比值指数的遥感影像融合方法、系统、设备及介质 | |
CN114821349A (zh) | 顾及谐波模型系数和物候参数的森林生物量估算方法 | |
Hu et al. | Retrieval of the canopy leaf area index in the BOREAS flux tower sites using linear spectral mixture analysis | |
CN111383203A (zh) | 基于分区域拟合的全色与多光谱遥感图像融合方法 | |
CN112329790B (zh) | 一种城市不透水面信息快速提取方法 | |
Fernandes et al. | A multi-scale approach to mapping effective leaf area index in boreal Picea mariana stands using high spatial resolution CASI imagery | |
CN115203624B (zh) | 一种基于时序遥感的任意时刻地表环境综合评估方法 | |
Hu et al. | A spatial constraint and deep learning based hyperspectral image super-resolution method | |
CN112102218B (zh) | 一种生成高空间分辨率多光谱影像的融合方法 | |
CN109447916A (zh) | 一种基于高分辨率遥感影像的水质定量方法 | |
Li et al. | Multi-sensor multispectral reconstruction framework based on projection and reconstruction | |
Colditz | Time series generation and classification of MODIS data for land cover mapping | |
Mngadi et al. | Quantifying carbon stock variability of species within a reforested urban landscape using texture measures derived from remotely sensed imagery | |
Meenakshisundaram | Quality assessment of IKONOS and Quickbird fused images for urban mapping | |
Yang et al. | Practical image fusion method based on spectral mixture analysis |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |