CN117576570B - 一种全天候水汽反演弹性方法、系统、设备及介质 - Google Patents
一种全天候水汽反演弹性方法、系统、设备及介质 Download PDFInfo
- Publication number
- CN117576570B CN117576570B CN202410056494.9A CN202410056494A CN117576570B CN 117576570 B CN117576570 B CN 117576570B CN 202410056494 A CN202410056494 A CN 202410056494A CN 117576570 B CN117576570 B CN 117576570B
- Authority
- CN
- China
- Prior art keywords
- inversion
- data
- near infrared
- band
- inversion model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Chemical compound O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 38
- 238000012549 training Methods 0.000 claims abstract description 22
- 239000005442 atmospheric precipitation Substances 0.000 claims abstract description 16
- 238000007637 random forest analysis Methods 0.000 claims description 10
- 238000012417 linear regression Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 6
- 238000010801 machine learning Methods 0.000 description 12
- 238000012360 testing method Methods 0.000 description 7
- 238000012795 verification Methods 0.000 description 7
- 230000002123 temporal effect Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 238000004422 calculation algorithm Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 241000208818 Helianthus Species 0.000 description 1
- 235000003222 Helianthus annuus Nutrition 0.000 description 1
- 238000010521 absorption reaction Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000000873 masking effect Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 238000004611 spectroscopical analysis Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W1/00—Meteorology
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01W—METEOROLOGY
- G01W1/00—Meteorology
- G01W1/14—Rainfall or precipitation gauges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/01—Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/52—Scale-space analysis, e.g. wavelet analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/58—Extraction of image or video features relating to hyperspectral data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/776—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/194—Terrestrial scenes using hyperspectral data, i.e. more or other wavelengths than RGB
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Environmental & Geological Engineering (AREA)
- Environmental Sciences (AREA)
- Computational Linguistics (AREA)
- Atmospheric Sciences (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Biodiversity & Conservation Biology (AREA)
- Remote Sensing (AREA)
- Data Mining & Analysis (AREA)
- Ecology (AREA)
- Biophysics (AREA)
- Astronomy & Astrophysics (AREA)
- Molecular Biology (AREA)
- Hydrology & Water Resources (AREA)
- Biomedical Technology (AREA)
- Radiation Pyrometers (AREA)
Abstract
本发明公开一种全天候水汽反演弹性方法、系统、设备及介质,涉及水汽反演技术领域,包括:获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果。融合近红外和热红外波段,实现在有云干扰条件下获得高精度水汽信息。
Description
技术领域
本发明涉及水汽反演技术领域,特别是涉及一种全天候水汽反演弹性方法、系统、设备及介质。
背景技术
传统的水汽观测技术,如地基设备或空基遥感,在一定程度上满足了科研需求。其中,地基的全球卫星导航系统(the Global Navigation Satellite System,GNSS)观测优点在于高精度、有连续的长时间序列、全天候,其缺点在于测站分布稀疏、空间分辨率不高。遥感技术反演水汽优点在于高空间分辨率,但其时间分辨率很低,且在有云情况下反演精度往往受到严重影响。
目前存在的机器学习水汽反演技术手段也只有单独使用热红外(Thermalinfrared,TIR)波段或近红外(Near Infrared,NIR)波段,而没有将这两个波段进行结合,并且大部分只进行晴空条件下的反演,全天候条件下的反演在有云情况的精度不高。
发明内容
为了解决上述问题,本发明提出了一种全天候水汽反演弹性方法、系统、设备及介质,融合近红外和热红外波段,实现在有云干扰条件下获得高精度水汽信息。
为了实现上述目的,本发明采用如下技术方案:
第一方面,本发明提供一种全天候水汽反演弹性方法,包括:
获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行时空匹配分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;
获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果。
作为可选择的实施方式,所述时空观测数据包括年积日、经纬度、高程、太阳的天顶角和方位角以及遥感卫星传感器的天顶角和方位角;
所述近红外数据包括由原始反射率计算获得的两通道比和三通道比;
所述热红外数据包括由原始发射率计算获得的27波段亮温至32波段亮温,以及31波段与27波段的亮温差值、31波段与28波段的亮温差值,31波段与29波段的亮温差值、31波段与30波段的亮温差值、31波段与32波段的亮温差值和28波段与27波段的亮温差值;
云等级数据包括有云、不确定晴空、可能晴空和确信晴空的云等级的划分。
作为可选择的实施方式,对于第一近红外反演模型,参数组合为时空观测数据、近红外数据的两通道比和三通道比。
作为可选择的实施方式,对于热红外反演模型,参数组合为时空观测数据、热红外数据的27波段亮温和28波段亮温。
作为可选择的实施方式,对于第二近红外反演模型,参数组合为时空观测数据、近红外的两通道比、三通道比和云等级数据。
作为可选择的实施方式,第一近红外反演模型和第二近红外反演模型采用反向传播神经网络,热红外反演模型采用随机森林模型。
作为可选择的实施方式,根据得到的两个反演结果采用多元线性回归方法得到最终的大气可降水量,即:
;
其中,为大气可降水量,/>为第一近红外反演模型的反演结果,为热红外反演模型的反演结果。
第二方面,本发明提供一种全天候水汽反演弹性系统,包括:
训练模块,被配置为获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行时空匹配分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;
反演模块,被配置为获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果。
第三方面,本发明提供一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成第一方面所述的方法。
第四方面,本发明提供一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成第一方面所述的方法。
与现有技术相比,本发明的有益效果为:
本发明提出了一种全天候水汽反演弹性方法,将近红外和热红外波段相结合来进行反演,以及在热红外全天候反演结果中选取有云情况下的最佳组合,即输入参数包含27波段和28波段,提高在有云情况下的水汽反演精度;通过机器学习方法,利用NIR和TIR波长范围的各自优势,提高所有天气条件下大气可降水量的检索精度,结合基于NIR数据的预测结果,通过应用反向传播神经网络(Back Propagation Neural Network,BPNN)和随机森林(Random Forests,RF),在多云的情况下,采用多元线性回归(Multiple LinearRegression,MLR)来估计NIR和TIR结果之间的权重比。
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
图1为本发明实施例1提供的全天候水汽反演弹性方法流程图;
图2为本发明实施例1提供的全天候水汽反演弹性方法实现框图;
图3为本发明实施例1提供的不同参数输入组的结果;
图4为本发明实施例1提供的时间预测精度散点图;
图5为基于年积日变化的本发明实施例1方法的结果和MOD05与GNSS PWV比较的结果示意图;
图6为本发明实施例1提供的空间预测精度结果图;
图7为本发明实施例1提供的各测站的结果验证地理分布示意图;
图8为本发明实施例1提供的某一时刻下拍摄的影像的验证结果图。
具体实施方式
下面结合附图与实施例对本发明做进一步说明。
应该指出,以下详细说明都是示例性的,旨在对本发明提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本发明所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本发明的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,术语“包括”和“包含”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
实施例1
NIR和TIR光谱的利用是遥感中水汽反演的核心。通道比法是NIR光谱中反演水汽的常规技术,分裂窗算法主要用于标准TIR水汽反演。这两种传统方法在多云条件下反演PWV时都表现出较差的能力,促使学者们需要借助云掩模信息来消除受云影响的像素点来缓解这一限制。云在NIR和TIR波段都会显著干扰遥感观测,影响水汽反演精度。因此,云掩模技术通常被用来识别和消除受影响的像素,从而提高检索结果的可靠性。基于NIR和TIR光谱的水汽反演,许多研究人员使用机器学习技术来提高结果的准确性。例如,有研究利用NIR原始通道比作为大气可降水量(Precipitable Water Vapor,PWV)反演的机器学习参数,但其只关注晴空条件,没有解决云或其他复杂天气模式的影响。还有研究利用多个机器学习模型并整合GPS台站数据和其他参考数据进行模型的训练和验证,通过这种方式,提高所有天气条件下NIR观测的PWV产品的准确性,但其在有云情况下结果精度提升不高。研究中分辨率成像光谱仪(Moderate-resolution Imaging Spectroradiometer,MODIS)的NIR波段的研究人员基本上忽视了来自其他水汽吸收通道的信息,如发射的TIR波段。在TIR机器学习反演水汽领域,研究人员使用葵花8号卫星Himawari-8卫星的晴空数据集进行训练,结合AHI成像仪(Advanced Himawari Imager)的9个红外亮度温度(亮温)、6个双通道差异以及观测条件,包括时间、纬度、经度和卫星天顶角。此外,有研究通过提出一种基于集成机器学习的新的PWV反演方法,改进了分裂窗协方差-方差比模型,利用梯度提升决策树算法建立亮度温度、GNSS测站反演的PWV数据以及相关表面参数之间的模型。然而,目前的机器学习方法仅应用于NIR波段反演水汽主要局限于晴空条件,且没有与其他波段集成,在全天候条件下有云时精度不高。
由此,本实施例提供一种全天候水汽反演弹性方法,如图1所示,包括:
获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行时空匹配分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;
获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果。
结合图2,具体包括以下步骤:
S1:选用中分辨率成像光谱仪MODIS的近红外和红外波段数据、地理信息数据、云掩膜数据以及通过GNSS测站反演的PWV数据,将GNSS反演结果(下述简称GNSS PWV数据)和遥感影像进行时空匹配并分组,具体包括:
首先,获取GNSS测站的GNSS PWV数据以及MODIS的MOD021KM(原始观测数据)、MOD03(地理信息数据)、MOD35(云掩膜数据)和MOD05(MODIS官方水汽产品数据);空间匹配是通过使用最近点方法识别GNSS站坐标1 km内的MODIS影像像素,时间匹配是指GNSS PWV数据与MODIS影像的拍摄时间匹配。
考虑到时空因素,将时空匹配后得到的匹配点随机分组,如表1所示分成五组,然后根据测站的位置将这些匹配点分开,20%用于空间预测测试(即测试集2),80%用于时间预测测试和模型训练。
在80%的测站中,又分成了四个子集,一个子集用于训练第一近红外反演模型(下述简称BPNN1模型)和热红外反演模型(下述简称RF模型),称为训练集1(40%);第二个子集用于训练MLR模型,即训练集2(20%);第三个子集用于验证BPNN1模型、BPNN2模型和 RF模型的精度,即验证集(20%);其余的子集用于时间预测测试,即测试集1(20%)。在无云条件下,训练集1和训练集2合并以训练第二近红外反演模型(下述简称BPNN2模型)。
表1 匹配点的分组
S2:构建机器学习子模型;机器学习参数包括年积日、经纬度、高程、太阳的天顶角和方位角以及遥感卫星传感器天顶角和方位角。
对MOD35提供的云掩模数据进行分类,并创建云级等级系统,其中,值1、2、3和4分别对应于云掩模中的“有云”、“不确定晴空”、“可能晴空”和“确信晴空”。经过如表2和图3的输入参数比较,其中,图3中的(a)代表近红外数据,图3中的(b)代表热红外数据。对于BPNN1模型,使用训练集1进行训练,输入参数选择年积日、经纬度、高程、太阳的天顶角和方位角、遥感卫星传感器天顶角和方位角、近红外的两通道比和三通道比;对于RF模型,使用训练集1进行训练,输入参数选择有云情况下效果最好的组合:年积日、经纬度、高程、太阳的天顶角和方位角、遥感卫星传感器天顶角和方位角、热红外数据的27波段亮温和28波段亮温(即组5);对于BPNN2模型,使用训练集1和训练集2同时训练,输入参数选择和BPNN1模型相同,并额外添加云等级。以上训练过程均以对应GNSS PWV作为真值来训练。
表2 不同参数输入组
S3:构建融合近红外、热红外波段观测的全天候水汽反演弹性方法,该方法结合近红外波段和红外波段的优点,在有云情况下通过红外波段的高穿透性提高精度,在无云情况下则选择高精度的近红外波段。
具体为:
判断所得匹配点判断是否有云,如果匹配点有云,将近红外和红外数据分别通过训练好的反向传播神经网络(Backpropagation Neural Network,BPNN)和随机森林(Random Forest,RF)得到各自结果,再将两个结果通过多元线性回归(Multiple LinearRegression,MLR)结合;如果匹配点无云,则单独将近红外通过训练好的BPNN网络得到结果。
。
本实施例在水汽反演过程中将近红外和热红外波段相结合来进行反演,以及在热红外全天候反演结果中选取有云情况下的最佳组合,即输入参数包含27、28波段;旨在通过机器学习方法,利用NIR和TIR波长范围的各自优势,提高所有天气条件下大气可降水量PWV的检索精度,结合基于NIR数据的预测结果,通过应用BPNN网络和RF模型,在多云的情况下,采用多元线性回归来估计NIR和TIR结果之间的权重比。
实验结果
(1)时间预测精度与MOD05的比较。
利用测试集1验证了本发明所得结果的时间预测准确性。如图4所为本发明方法和MOD05与GNSS PWV在时间验证下的有云、其他情况和全天候场景的比较;其中,图4中的(a)为本发明方法在有云情况下的结果,图4中的(b)为方法在其他情况下的结果,图4中的(c)为方法在全天候场景下的结果,图4中的(d)为MOD05方法在有云情况下的结果,图4中的(e)为MOD05方法在其他情况下的结果,图4中的(f)为MOD05方法在全天候场景下的结果。
通过比较图4中的(a)和图4中的(d),可以看出,方法在有云条件下显著提高准确性,与MOD05相比,将RMSE降低了9.5269mm,从而提高了69.47%的准确性。通过比较图4中的(b)和图4中的(e),可以看出,方法在不确定和晴朗条件下的准确性方面也优于MOD05,RMSE降低3.3702mm,准确性提高66.56%。通过比较图4中的(c)和图4中的(f),可以看出,方法在所有天气条件下与MOD05相比,RMSE降低6.9335mm,准确性提高69.06%。
与GNSS相比的MOD05结果显示,其在有云条件下的PWV被严重低估。这归因于MOD05采用的反演方法受到云层阻碍严重,反演得到的水汽含量是云层之上的水汽含量,导致对PWV的估计不准确。相反,GNSS测量是从地面向上进行的,其高穿透性能够避免云层带来的问题,成功解决MOD05的这一限制,证明了其能有效克服PWV估计中云层所带来的挑战。
还对方法和MOD05与GNSS PWV结果随年积日(DOY)的变化进行对比分析,对每天对所有测站计算关键性能指标包括RMSE、标准差(Standard Deviation,STD)和偏差Bias,如图5所示;其中,图5中的(a)、(b)、(c)分别为全天候情况下方法和MOD05方法在RMSE、STD和Bias的比较结果,图5中的(d)、(e)、(f)分别为有云情况下方法和MOD05方法在RMSE、STD和Bias的比较结果,图5中的(g)、(h)、(i)分别为其他情况下方法和MOD05方法在RMSE、STD和Bias的比较结果。
通过比较图5中的(a)、(b)、(d)、(e)、(g)和(h),可以发现,方法的预测精度不受时间变化的显著影响。相比之下,MOD05的预测精度受时间变化的影响更大。MOD05的全天候结果显示,其在夏季的RMSE最大,达到17.23mm,这主要是由于该季节PWV量级较大。然而,方法可以保持在6.42mm以下,并且不受PWV量级的影响。
通过比较图5中的(c)、(f)和(i),可以发现,在有云条件下,与GNSS PWV相比,MOD05发生严重的低估。与此同时,与GNSS PWV相比,MOD05在不确定和晴朗条件下又显示出显著的高估。基于以上发现,可以说明方法具有很好的时间预测精度,其精度在一年内的任何天气条件下基本不受时间变化的影响。
(2)空间预测精度与MOD05的比较。
为了评估本发明在不同空间尺度上的准确性,使用测试集2进行验证,如图6所示,其中,图6中的(a)、(b)和(c)分别为方法在有云、其他情况和全天候条件下的空间预测精度,图6中的(d)、(e)和(f)分别为MOD05方法在有云、其他情况和全天候条件下的空间预测精度。
通过比较图6中的(a)和(d),在有云条件下,方法相对于MOD05的空间预测精度显著提高,RMSE降低9.8182mm,精度提高69.84%。通过比较图6中的(b)和(e),在不确定和晴空的情况下,与MOD05相比,方法的RMSE降低了3.4446mm,精度提高了67.49%。通过比较图6中的(c)和(f),发现在全天候条件下,与MOD05相比,的RMSE降低7.0251mm,精度提高69.50%。与图5的结果类似,与GNSS相比,MOD05的结果低估有云条件下的实际PWV,有效地克服了MOD05对于云的限制。
此外,还全面比较在有云、其他条件和全天候情况下,本发明方法和MOD05的结果随地理位置的变化而变化的情况,如图7所示;其中,图7中的(a)、(b)、(c)为在有云、其他条件和全天候情况下,本发明的RMSE结果随地理位置的变化情况;图7中的(d)、(e)、(f)为在有云、其他条件和全天候情况下,MOD05的RMSE结果随地理位置的变化情况;图7中的(g)、(h)、(i)为在有云、其他条件和全天候情况下,本发明的Bias结果随地理位置的变化情况;图7中的(j)、(k)、(l)为在有云、其他条件和全天候情况下,MOD05的Bias结果随地理位置的变化情况。
具体而言,在海拔较高的北美西部山区,MOD05的RMSE相比于东部更低。与内陆地区相比,沿海地区的RMSE也更高,与较高纬度地区相比,较低纬度地区的RMSE也更高。这主要是由于低海拔和低纬度地区的PWV量级较大,导致RMSE较高。然而,与MOD05相比,本发明的RMSE受空间变化的影响较小,且值一般较小。另一方面,MOD05的RMSE随空间位置的变化而显著变化,且幅度更大。在比较图7中的(g)至(l)时,观察到MOD05的Bias随空间变化而显著变化,导致幅度相对较大。比较图7中的(j)至(l)时可以看出,这一现象可以归因于MOD05较高的空间变异性。相比之下,本发明的Bias保持稳定且幅度较小。基于这一分析,可以得出结论,本发明比MOD05具有更好的空间预测精度和稳定性。
此外,如图8所示,还选择某一时刻下拍摄的一张影像进行验证,其中,图8中的(a)、(c)、(d)分别为GNSS PWV、MOD05 PWV和本发明PWV,图8中的(b)为云等级,图8中的(e)和(f)分别为MOD05 PWV和本发明PWV与GNSS PWV的差值。可以清楚地看到影像左下角和右上角的多云区域,其中MOD05 PWV明显小于GNSS PWV,在图像右下角的晴空区域,MOD05 PWV大于GNSS PWV,而本发明在这两种情况下均表现出更好的改善效果,且全天候结果更接近GNSS。
实施例2
本实施例提供一种全天候水汽反演弹性系统,包括:
训练模块,被配置为获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行时空匹配分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;
反演模块,被配置为获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果。
此处需要说明的是,上述模块对应于实施例1中所述的步骤,上述模块与对应的步骤所实现的示例和应用场景相同,但不限于上述实施例1所公开的内容。需要说明的是,上述模块作为系统的一部分可以在诸如一组计算机可执行指令的计算机系统中执行。
在更多实施例中,还提供:
一种电子设备,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成实施例1中所述的方法。为了简洁,在此不再赘述。
应理解,本实施例中,处理器可以是中央处理单元CPU,处理器还可以是其他通用处理器、数字信号处理器DSP、专用集成电路ASIC,现成可编程门阵列FPGA或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
存储器可以包括只读存储器和随机存取存储器,并向处理器提供指令和数据、存储器的一部分还可以包括非易失性随机存储器。例如,存储器还可以存储设备类型的信息。
一种计算机可读存储介质,用于存储计算机指令,所述计算机指令被处理器执行时,完成实施例1中所述的方法。
实施例1中的方法可以直接体现为硬件处理器执行完成,或者用处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器、闪存、只读存储器、可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器,处理器读取存储器中的信息,结合其硬件完成上述方法的步骤。为避免重复,这里不再详细描述。
本领域普通技术人员可以意识到,结合本实施例描述的各示例的单元及算法步骤,能够以电子硬件或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
上述虽然结合附图对本发明的具体实施方式进行了描述,但并非对本发明保护范围的限制,所属领域技术人员应该明白,在本发明的技术方案的基础上,本领域技术人员不需要付出创造性劳动即可做出的各种修改或变形仍在本发明的保护范围以内。
Claims (6)
1.一种全天候水汽反演弹性方法,其特征在于,包括:
获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行时空匹配分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;
对于第一近红外反演模型,参数组合为时空观测数据、近红外数据的两通道比和三通道比;
对于热红外反演模型,参数组合为时空观测数据、热红外数据的27波段亮温和28波段亮温;
对于第二近红外反演模型,参数组合为时空观测数据、近红外的两通道比、三通道比和云等级数据;
获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果;
根据得到的两个反演结果采用多元线性回归方法得到最终的大气可降水量,即;
其中,为大气可降水量,/>为第一近红外反演模型的反演结果,为热红外反演模型的反演结果。
2.如权利要求1所述的一种全天候水汽反演弹性方法,其特征在于,
所述时空观测数据包括年积日、经纬度、高程、太阳的天顶角和方位角以及遥感卫星传感器的天顶角和方位角;
所述近红外数据包括两通道比和三通道比;
所述热红外数据包括27波段亮温至32波段亮温,以及31波段与27波段的亮温差值、31波段与28波段的亮温差值,31波段与29波段的亮温差值、31波段与30波段的亮温差值、31波段与32波段的亮温差值和28波段与27波段的亮温差值;
云等级数据包括有云、不确定晴空、可能晴空和确信晴空的云等级的划分。
3.如权利要求1所述的一种全天候水汽反演弹性方法,其特征在于,第一近红外反演模型和第二近红外反演模型采用反向传播神经网络,热红外反演模型采用随机森林模型。
4.一种全天候水汽反演弹性系统,其特征在于,包括:
训练模块,被配置为获取时空观测数据、近红外数据、热红外数据和云等级数据,通过对四类数据进行时空匹配分组,以不同的参数组合分别训练得到第一近红外反演模型、第二近红外反演模型和热红外反演模型;
对于第一近红外反演模型,参数组合为时空观测数据、近红外数据的两通道比和三通道比;
对于热红外反演模型,参数组合为时空观测数据、热红外数据的27波段亮温和28波段亮温;
对于第二近红外反演模型,参数组合为时空观测数据、近红外的两通道比、三通道比和云等级数据;
反演模块,被配置为获取当前待测点的四类数据并判断是否处于有云情况;若是,则采用第一近红外反演模型和热红外反演模型分别进行反演,根据得到的两个反演结果得到最终的大气可降水量;否则根据第二近红外反演模型得到最终的反演结果;
根据得到的两个反演结果采用多元线性回归方法得到最终的大气可降水量,即;
其中,为大气可降水量,/>为第一近红外反演模型的反演结果,为热红外反演模型的反演结果。
5.一种电子设备,其特征在于,包括存储器和处理器以及存储在存储器上并在处理器上运行的计算机指令,所述计算机指令被处理器运行时,完成权利要求1-3任一项所述的方法。
6.一种计算机可读存储介质,其特征在于,用于存储计算机指令,所述计算机指令被处理器执行时,完成权利要求1-3任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410056494.9A CN117576570B (zh) | 2024-01-16 | 2024-01-16 | 一种全天候水汽反演弹性方法、系统、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410056494.9A CN117576570B (zh) | 2024-01-16 | 2024-01-16 | 一种全天候水汽反演弹性方法、系统、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117576570A CN117576570A (zh) | 2024-02-20 |
CN117576570B true CN117576570B (zh) | 2024-04-12 |
Family
ID=89864745
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410056494.9A Active CN117576570B (zh) | 2024-01-16 | 2024-01-16 | 一种全天候水汽反演弹性方法、系统、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117576570B (zh) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103293522A (zh) * | 2013-05-08 | 2013-09-11 | 中国科学院光电研究院 | 一种中红外双通道遥感数据地表温度反演方法及装置 |
CN110726653A (zh) * | 2019-09-25 | 2020-01-24 | 中国电子科技集团公司第二十七研究所 | 基于天地一体化信息的pm2.5浓度监测方法 |
CN114065931A (zh) * | 2022-01-11 | 2022-02-18 | 山东大学 | 基于物理模型和神经网络融合的陆地水汽反演方法及系统 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
FR3026496B1 (fr) * | 2014-09-26 | 2016-12-02 | Reuniwatt | Ensemble et procede de detection pour l'identification et le suivi de nuage dans une zone du ciel observee |
CN106909722B (zh) * | 2017-02-10 | 2019-07-26 | 广西壮族自治区气象减灾研究所 | 一种近地面气温的大面积精准反演方法 |
CN108761484A (zh) * | 2018-04-26 | 2018-11-06 | 江苏省气象台 | 一种基于多源卫星遥感数据的海雾监测方法 |
-
2024
- 2024-01-16 CN CN202410056494.9A patent/CN117576570B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103293522A (zh) * | 2013-05-08 | 2013-09-11 | 中国科学院光电研究院 | 一种中红外双通道遥感数据地表温度反演方法及装置 |
CN110726653A (zh) * | 2019-09-25 | 2020-01-24 | 中国电子科技集团公司第二十七研究所 | 基于天地一体化信息的pm2.5浓度监测方法 |
CN114065931A (zh) * | 2022-01-11 | 2022-02-18 | 山东大学 | 基于物理模型和神经网络融合的陆地水汽反演方法及系统 |
Non-Patent Citations (4)
Title |
---|
FY-3近红外与热红外资料大气柱水汽总量反演对比;周爱明;鲍艳松;魏鸣;陆其峰;;遥感技术与应用;20170815(04);全文 * |
research on soil moisture inversion method based on Ga-BP neural network model;liang y等;international journal of remote sensing;20181231;全文 * |
TRMM/VIRS热红外通道陆地大气可降水汽总量分裂窗反演;王永前;施建成;曾巧林;王皓;冯文兰;;遥感学报;20160125(01);全文 * |
基于MODIS热红外波段与投影寻踪模型的水汽反演方法;林奕桐;叶骏菲;王永前;钟仕全;;国土资源遥感;20180905(03);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117576570A (zh) | 2024-02-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109580003B (zh) | 一种静止气象卫星热红外数据估算近地面大气温度方法 | |
Tan et al. | Improved forest change detection with terrain illumination corrected Landsat images | |
US20190331831A1 (en) | Sea fog monitoring method based on multi-source satellite remote sensing data | |
CN112051222A (zh) | 一种基于高分卫星影像的河湖水质监测方法 | |
CN106407656A (zh) | 一种基于高分辨率卫星影像数据的气溶胶光学厚度反演方法 | |
CN107679476B (zh) | 一种海冰类型遥感分类方法 | |
KR20200059085A (ko) | 해양 표층 표류부이 관측 수온자료와 인공위성 적외영상자료를 활용한 해양 표층 해수면온도 산출 방법 | |
CN102778675B (zh) | 一种卫星遥感影像大气校正方法及其模块 | |
CN103293084A (zh) | 基于多光谱气象卫星信息的海雾全天时全天候反演方法 | |
CN113205475A (zh) | 基于多源卫星遥感数据的森林高度反演方法 | |
CN103500325A (zh) | 基于光学和热红外遥感影像的表碛覆盖型冰川识别方法 | |
Jeong et al. | Improved multiple matching method for observing glacier motion with repeat image feature tracking | |
Chen et al. | An all-sky 1 km daily surface air temperature product over mainland China for 2003–2019 from MODIS and ancillary data | |
CN102789004A (zh) | 夜间降雨率的卫星反演方法 | |
CN111104888A (zh) | Aviris高分辨率数据支持的云检测算法自动生成技术 | |
Wang et al. | Sea ice classification with convolutional neural networks using Sentinel-L scansar images | |
CN113033063A (zh) | 海表温度的反演方法、装置、电子设备及存储介质 | |
Cao et al. | A new global gridded sea surface temperature data product based on multisource data | |
CN102073038A (zh) | 基于微小地形的遥感影像的地形校正的方法 | |
CN117576570B (zh) | 一种全天候水汽反演弹性方法、系统、设备及介质 | |
CN117710508A (zh) | 基于改进条件生成对抗网络的近地表温度反演方法和装置 | |
Sadeghi et al. | Effects of TanDEM-X acquisition parameters on the accuracy of digital surface models of a boreal forest canopy | |
CN111175231A (zh) | 冠层植被指数的反演方法、装置及服务器 | |
Goerner et al. | Monitoring of the Ecuadorian mountain rainforest with remote sensing | |
CN109406911B (zh) | 星载微波传感器低频通道无线电频率干扰检测及校正方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |