CN114117886A - 一种用于多光谱遥感水深反演方法 - Google Patents
一种用于多光谱遥感水深反演方法 Download PDFInfo
- Publication number
- CN114117886A CN114117886A CN202111261071.3A CN202111261071A CN114117886A CN 114117886 A CN114117886 A CN 114117886A CN 202111261071 A CN202111261071 A CN 202111261071A CN 114117886 A CN114117886 A CN 114117886A
- Authority
- CN
- China
- Prior art keywords
- water depth
- data
- remote sensing
- inversion
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 77
- 238000000034 method Methods 0.000 title claims abstract description 31
- 238000013135 deep learning Methods 0.000 claims abstract description 20
- 230000004927 fusion Effects 0.000 claims abstract description 17
- 238000011160 research Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000012549 training Methods 0.000 claims description 20
- 230000005855 radiation Effects 0.000 claims description 13
- 238000010586 diagram Methods 0.000 claims description 7
- 238000012937 correction Methods 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 6
- 230000006870 function Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 6
- 238000012360 testing method Methods 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 5
- 238000010521 absorption reaction Methods 0.000 claims description 3
- 238000010606 normalization Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 claims description 3
- 238000002310 reflectometry Methods 0.000 abstract description 4
- 238000005259 measurement Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000012417 linear regression Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F30/00—Computer-aided design [CAD]
- G06F30/20—Design optimisation, verification or simulation
- G06F30/27—Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Computer Hardware Design (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明提供了一种基于深度学习的遥感图像融合的水深反演方法,该方法包括以下步骤:S1、分别对研究区域的多光谱和全色遥感影像进行预处理;S2、对于处理后的影像进行图像融合,进而得到研究区域的反射率数据;S3、获取实测的水深数据,并对数据进行预处理,根据经纬度位置信息,将水深数据与反射率数据一一对应;S4、建立传统的水深反演模型,利用所述传统反演模型得到整个研究区域的水深数据;S5、基于深度学习建立RNN、LSTM以及GRU模型,进行水深反演;S6、利用部分样本点来验证对比传统水深模型以及RNN、LSTM和GRU模型的反演结果,随后输出所述深度学习模型得到的水深值。
Description
技术领域
本发明涉及一种用于多光谱遥感水深反演方法,属于光学遥感领域。
背景技术
水深是海洋领域的重要参数之一,是进行各种海洋活动的基础,具有重要的意义。获取实测数据常用的手段有单波束、多波束等,定位精度和水深测量精度较高,但是需要较大的人力、物力,并且在浅海区及难以到达的区域无法作业,对于海况要求较高。随着遥感技术的快速发展,基于遥感手段的水深反演,可以全天不间断监测,不受时间气候条件制约,效率较高。在多年的卫星遥感技术发展中,国内外学者在水深反演中做了大量的研究工作,推导出了Stumpf模型、单波段、双波段线性回归模型等反演模型。
传统的光学遥感水深反演模型已经趋近于成熟状态,基本可以分为基于回归模型和浅层机器学习的水深反演。但深度学习在水深反演中的应用较少,深度学习是一种基于人工神经网络技术的多层神经网络模型,具备优秀的非线性拟合能力以及良好的泛化能力。将深度学习模型运用于水深反演将有助于提高水深反演的精度和效率,具有广阔的应用前景。
发明内容
发明目的:本发明提供了一种基于深度学习的遥感图像融合的水深反演方法,针对目前水深反演模型精度和效率较低的问题。
技术方案:本发明提供了一种基于深度学习的遥感图像融合的水深反演方法,包括以下步骤:
S1、对研究区域的多光谱和全色波段的遥感影像进行预处理,辐射定标及大气校正;
S2、对预处理后的多光谱和全色波段的影像进行图像融合,得到具有高分辨率的多光谱影像;
S3、获取实测的水深数据,在ArcGIS中多值提取至点,将样本点的实测水深数据与各个波段的辐射亮度值数据一一对应,生成格式化的数据集;
S4、基于深度学习建立RNN、LSTM以及GRU模型,将各个波段的辐射亮度值作为输入层,水深数据作为输出,对模型进行训练,得到最优的水深反演模型;
S5、重新采集待研究区域的水深数据,在ArcGIS中,采用多值提取至点的操作,将样本点的实测水深数据与各个波段的辐射亮度值数据一一对应,生成格式化的数据集,将各个波段的辐射亮度值输入到步骤S4得到最优的水深反演模型,并绘制最优的水深反演模型得到的水深反演值与实测值分布散点图。
进一步地,所述步骤S1中,图像预处理过程为:对多光谱遥感影像和全色波段进行辐射定标,将记录的原始灰度值DN转换成大气顶部的光谱辐射亮度值;对辐射定标后的多光谱影像采用FLASSH方法进行大气校正除大气散射、吸收、反射引起的误差。
进一步地,所述步骤S2中,图像融合为采用Gram-Schmidt方法,将低分辨率的多光谱影像与高分辨率的单波段全色影像融合生成高分辨率多光谱遥感影像。
进一步地,所述步骤S3中,获取格仁错湖泊研究区域的实测的水深数据,导入ArcGIS,并利用多值提取至点的操作,将样本点的实测水深数据与辐射亮度数据一一对应,生成格式化的数据集。
进一步地,所述步骤S4中,基于深度学习建立RNN、LSTM以及GRU模型,对模型进行训练:将S3中制作的数据集作为深度学习训练过程的输入,数据集中包括了样本点的经纬度坐标、水深值、各个波段的辐射亮度值,在输入数据前对数据进行归一化处理,随机将90%的数据作为为训练集和10%的数据作为测试集,波段的辐射亮度值作为输入层,实测水深数据作为输出层,利用训练集进行训练,设置网络层,每层网络的单元个数,每次输入网络的批训练个数,学习率的超参数,正向传播后,计算损失函数,再进行反向传播,更新参数,再重复上述操作,多次试验,不断调整参数,得到最优模型。
进一步地,所述步骤S5中,重新采集待研究区域的水深数据,在ArcGIS中,采用多值提取至点的操作,将样本点的实测水深数据与各个波段的辐射亮度值数据一一对应,生成格式化的数据集,将各个波段的辐射亮度值输入到步骤S4得到最优的水深反演模型,并绘制最优的水深反演模型得到的水深反演值与实测值分布散点图。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
(1)解决只使用单一影像作为遥感数据源,分辨率低影响反演效果、反演精度和效率较低的问题。
(2)在流程中增加了多源数据的图像融合操作,采用Gram-Schmidt方法,将低分辨率的多光谱影像与高分辨率的单波段全色影像重采样生成高分辨率多光谱影像遥感,使得处理后的影像既有较高的空间分辨率,又具有多光谱特征,提高了反演精度和处理效率。
(3)在水深反演模块中采用深度学习和传统反演水深模型同时进行反演,并对多种模型进行精度对比评价,能够获得更加准确的水深数据值。
附图说明
图1为本发明的流程图;
图2为本发明中RNN模型结构图;
图3为本发明中LSTM模型结构图;
图4为本发明中GRU模型结构图。
具体实施方式
下面结合实施例及附图对发明进一步说明,但不用来限制本发明的范围。
如图1所示,本实施例提供一种基于深度学习的遥感图像融合的水深反演方法,具体包括如下步骤:
S1、对格仁错湖泊研究区域的Landsat8多光谱波段影像和B8全色波段图像进行预处理:对多光谱遥感图像和全色波段图像进行辐射定标,将记录的原始灰度值DN转换成光谱辐射亮度值;对辐射定标后的多光谱影像采用FLASSH大气校正方法进行大气校正除大气散射、吸收、反射引起的误差,反演地物真实的表面反射率。
S2、对于处理后的影像进行图像融合,进而得到研究区域各波段的反射率数据:图像融合为采用Gram-Schmidt方法,将预处理后的分辨率为30m的多光谱影像与分辨率为15m的全色波段影像融合生成高分辨率多光谱遥感影像。
S3、从国家青藏高原科学数据中心网站获取由Lowrance HDS-5声纳测深仪获得的实测的水深数据,测量时间为2017年7月2日,所测原始数据包含较多的无效深度数据,后期整理时,已经过筛选剔除;该数据测量时,选择的测量合理,保证了数据涵盖了各个深度梯度,可以直接进行建模和验证:获取研究区域的实测水深数据,导入ArcGIS中,并利用多值提取至点的操作,将样本点的实测水深数据与影像各波段辐射亮度值一一对应,生成格式化的数据集。
S4、基于深度学习建立RNN、LSTM以及GRU模型,对模型进行训练:将S3中制作的数据集作为深度学习训练过程的输入,数据集中包括了样本点的经纬度坐标、水深值、各个波段的辐射亮度值,在输入数据前对数据进行归一化处理,随机将90%的数据作为为训练集和10%的数据作为测试集,波段的辐射亮度值作为输入层,实测水深数据作为输出层,利用训练集进行训练,设置网络层,每层网络的单元个数,每次输入网络的批训练个数,学习率的超参数,正向传播后,计算损失函数,再进行反向传播,更新参数,再重复上述操作,多次试验,不断调整参数,得到最优模型。
RNN是具有隐藏状态的神经网络。RNN之所以称为循环神经网络,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆并应用于当前输出的计算中,即隐藏层之间的节点不再是无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。RNN模型中涉及的原理公式如下:
ot=g(Vst)
st=f(Uxt+Wst-1)
其中,ot是输出值,st是隐藏层的值,V是输出层的权重矩阵,g是激活函数,U是输入x的权重矩阵,W是上一次的值作为这一次的输入的权重矩阵,f是激活函数。
LSTM是一种特殊的RNN,主要是为了解决长序列训练过程中的梯度消失和梯度爆炸问题。简单来说,就是相比普通的RNN,LSTM能够在更长的序列中有更好的表现。LSTM模型中涉及的原理公式如下:
it=σ(Wi·[ht-1,Xt]+bi)
ft=σ(Wf·[ht-1,Xt]+bf)
C't=tanh(WC·[ht-1,Xt]+bc)
ot=σ(Wo·[ht-1,Xt]+bo)
Ct=ft*Ct+it*C't
ht=ot*tanh(Ct)
其中,Xt、ht-1,为输入,it输入门,ft是遗忘门,ot是输出门,ht为输出,Ct、Ct-1为状态,C't为候选状态。
GRU是循环神经网络的一种。和LSTM一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。GRU模型中涉及的原理公式如下:
Zt=σ(Wzxt+Uzht-1+bZ)
rt=σ(Wtxt+Utht-1+br)
S6、利用未建模样本点,利用部分样本点来验证,同传统水深模型以及RNN、LSTM和GRU模型的反演水深数据结果与水深实测值之间的误差进行对比分析,采用平均绝对误差(MAE)、均方误差(MSE)、平均相对误差(MRE)、决定系数(R2)作为精度评价指标,并绘制各模型得到的水深反演值与实测值分布散点图。
平均绝对误差(MAE)、均方误差(MSE)、平均相对误差(MRE)、决定系数(R2)四个评价指标评估模型。这四种指标原理公式如下:
与已有水深反演方法相比,本发明基于深度学习的遥感图像融合水深反演方法,图像融合部分采用Gram-Schmidt方法,将低分辨率的多光谱影像与高分辨率的单波段全色影像重采样生成高分辨率多光谱影像遥感,使得处理后的影像既有较高的空间分辨率,又具有多光谱特征,提高了反演精度和处理效率。在水深反演部分增加了基于深度学习的模型,提高了水深反演的效率;同时进行多种模型的对比,能够得到更加准确的水深数据值。
以上显示和描述了本发明的基本原理、主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等同物界定。
Claims (5)
1.一种基于深度学习的遥感图像融合的水深反演方法,其特征在于,该方法包括以下步骤:
S1、对研究区域的多光谱和全色波段的遥感影像进行预处理,辐射定标及大气校正;
S2、对预处理后的多光谱和全色波段的影像进行图像融合,得到具有高分辨率的多光谱影像;
S3、获取研究区域的实测的水深数据,在ArcGIS中多值提取至点,将样本点的实测水深数据与各个波段的辐射亮度值数据一一对应,生成格式化的数据集;
S4、基于深度学习建立RNN、LSTM以及GRU模型,将各个波段的辐射亮度值作为输入,水深数据作为输出,对模型进行训练,得到误差最小的模型作为最优的水深反演模型;
S5、重新采集待研究区域的水深数据,在ArcGIS中,采用多值提取至点的操作,将样本点的实测水深数据与各个波段的辐射亮度值数据一一对应,生成格式化的数据集,将各个波段的辐射亮度值输入到步骤S4中得到最优的水深反演模型,并绘制最优的水深反演模型得到的水深反演值与实测值分布散点图。
2.根据权利要求1所述的一种基于深度学习的遥感图像融合的水深反演方法,其特征在于,所述步骤S1中,遥感影像进行预处理方法为:对多光谱遥感影像和全色波段进行辐射定标,将记录的原始灰度值DN转换成大气顶部的光谱辐射亮度值;对辐射定标后的多光谱影像采用FLASSH方法进行大气校正消除大气散射、吸收、反射引起的误差。
3.根据权利要求1所述的一种基于深度学习的遥感图像融合的水深反演方法,其特征在于,所述步骤S2中,图像融合为采用Gram-Schmidt方法,将低分辨率的多光谱影像与高分辨率的单波段全色影像融合生成高分辨率多光谱遥感影像。
4.根据权利要求1所述的一种基于深度学习的遥感图像融合的水深反演方法,其特征在于,所述步骤S3中,获取研究区域的实测的水深数据,导入ArcGIS,并利用多值提取至点的操作,将样本点的实测水深数据与辐射亮度数据一一对应,生成格式化的数据集。
5.根据权利要求1所述的一种基于深度学习的遥感图像融合的水深反演方法,其特征在于,所述步骤S5中,基于深度学习建立RNN、LSTM以及GRU模型,对模型进行训练:将S3中制作的数据集作为深度学习训练过程的输入,数据集中包括了样本点的经纬度坐标、水深值、各个波段的辐射亮度值,在输入数据前对数据进行归一化处理,随机将90%的数据作为为训练集和10%的数据作为测试集,波段的辐射亮度值作为输入层,实测水深数据作为输出层,利用训练集进行训练,设置网络层,每层网络的单元个数,每次输入网络的批训练个数,学习率的超参数,正向传播后,计算损失函数,再进行反向传播,更新参数,再重复上述操作,多次试验,不断调整参数,得到各个模型的最终训练模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111261071.3A CN114117886A (zh) | 2021-10-28 | 2021-10-28 | 一种用于多光谱遥感水深反演方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111261071.3A CN114117886A (zh) | 2021-10-28 | 2021-10-28 | 一种用于多光谱遥感水深反演方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114117886A true CN114117886A (zh) | 2022-03-01 |
Family
ID=80377505
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111261071.3A Pending CN114117886A (zh) | 2021-10-28 | 2021-10-28 | 一种用于多光谱遥感水深反演方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114117886A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114993268A (zh) * | 2022-04-13 | 2022-09-02 | 南京信息工程大学 | 结合CatBoost的水深反演方法、装置及存储介质 |
CN117274831A (zh) * | 2023-09-04 | 2023-12-22 | 大连海事大学 | 一种基于机器学习与高光谱卫星遥感影像的近岸浑浊水体水深反演方法 |
CN117474763A (zh) * | 2023-12-26 | 2024-01-30 | 青岛埃克曼科技有限公司 | 基于神经网络的沿海低分辨率水深数据高分辨率化方法 |
CN117496278A (zh) * | 2024-01-03 | 2024-02-02 | 自然资源部第二海洋研究所 | 基于辐射传输参数应用卷积神经网络的水深地图反演方法 |
CN117523321A (zh) * | 2024-01-03 | 2024-02-06 | 自然资源部第二海洋研究所 | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 |
CN117557899A (zh) * | 2023-10-13 | 2024-02-13 | 广东省科学院广州地理研究所 | 基于多光谱遥感影像的水体提取方法、装置以及存储介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657392A (zh) * | 2018-12-28 | 2019-04-19 | 北京航空航天大学 | 一种基于深度学习的高光谱遥感水深反演方法 |
AU2021100533A4 (en) * | 2021-01-28 | 2021-04-22 | Qingdao Agricultural University | Soil salinity at Yellow River Delta Inversion Method based on Landsat 8 |
-
2021
- 2021-10-28 CN CN202111261071.3A patent/CN114117886A/zh active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109657392A (zh) * | 2018-12-28 | 2019-04-19 | 北京航空航天大学 | 一种基于深度学习的高光谱遥感水深反演方法 |
AU2021100533A4 (en) * | 2021-01-28 | 2021-04-22 | Qingdao Agricultural University | Soil salinity at Yellow River Delta Inversion Method based on Landsat 8 |
Non-Patent Citations (2)
Title |
---|
吴忠强等: "基于多源影像融合去云的水深遥感反演研究――以哨兵-2A和资源三号为例", 《测绘与空间地理信息》, vol. 42, no. 11, 30 November 2019 (2019-11-30), pages 0 - 3 * |
马毅等: "浅海水深光学遥感研究进展", 《海洋科学进展》, vol. 36, no. 03, 31 July 2018 (2018-07-31), pages 331 - 351 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114993268A (zh) * | 2022-04-13 | 2022-09-02 | 南京信息工程大学 | 结合CatBoost的水深反演方法、装置及存储介质 |
CN117274831A (zh) * | 2023-09-04 | 2023-12-22 | 大连海事大学 | 一种基于机器学习与高光谱卫星遥感影像的近岸浑浊水体水深反演方法 |
CN117557899A (zh) * | 2023-10-13 | 2024-02-13 | 广东省科学院广州地理研究所 | 基于多光谱遥感影像的水体提取方法、装置以及存储介质 |
CN117474763A (zh) * | 2023-12-26 | 2024-01-30 | 青岛埃克曼科技有限公司 | 基于神经网络的沿海低分辨率水深数据高分辨率化方法 |
CN117474763B (zh) * | 2023-12-26 | 2024-04-26 | 青岛埃克曼科技有限公司 | 基于神经网络的沿海低分辨率水深数据高分辨率化方法 |
CN117496278A (zh) * | 2024-01-03 | 2024-02-02 | 自然资源部第二海洋研究所 | 基于辐射传输参数应用卷积神经网络的水深地图反演方法 |
CN117523321A (zh) * | 2024-01-03 | 2024-02-06 | 自然资源部第二海洋研究所 | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 |
CN117496278B (zh) * | 2024-01-03 | 2024-04-05 | 自然资源部第二海洋研究所 | 基于辐射传输参数应用卷积神经网络的水深地图反演方法 |
CN117523321B (zh) * | 2024-01-03 | 2024-04-09 | 自然资源部第二海洋研究所 | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114117886A (zh) | 一种用于多光谱遥感水深反演方法 | |
CN110738252B (zh) | 空间自相关的机器学习卫星降水数据降尺度方法、系统 | |
CN111007021A (zh) | 基于一维卷积神经网络的高光谱水质参数反演系统及方法 | |
CN114547017B (zh) | 一种基于深度学习的气象大数据融合方法 | |
CN110555841B (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
CN112180369B (zh) | 基于深度学习的一维综合孔径辐射计海面风速反演方法 | |
CN112215525B (zh) | 一种湖库水质反演及可视化评价方法 | |
CN113324923B (zh) | 一种结合时空融合与深度学习的遥感水质反演方法 | |
CN114331842B (zh) | 结合地形特征的dem超分辨率重建方法 | |
CN103197303B (zh) | 基于多传感器的地表二向反射特性反演方法及系统 | |
CN112906300A (zh) | 基于双通道卷积神经网络的极化sar土壤湿度反演方法 | |
CN117933095B (zh) | 一种基于机器学习的地表发射率实时反演及同化方法 | |
CN103745489A (zh) | 一种基于压缩感知建立基站信号场强地图的方法 | |
CN116824393A (zh) | 基于迁移学习与半监督回归模型的湖泊叶绿素反演方法 | |
CN116579228A (zh) | 一种基于地形分类超分模型的天气预报模式空间降尺度方法 | |
CN115952743A (zh) | 耦合随机森林和hasm的多源降水数据协同降尺度方法和系统 | |
CN115293983A (zh) | 一种融合多层级互补特征的自适应图像超分辨率复原方法 | |
CN117437230B (zh) | 基于图像修复的光伏电站功率预测方法及系统 | |
CN118038223B (zh) | 基于ai的遥感数据样本信息融合与多尺度重构方法及系统 | |
CN118470562B (zh) | 基于星载激光雷达点云的水深反演方法 | |
CN114820329B (zh) | 基于高斯过程大核注意力装置引导的曲面测量方法及装置 | |
CN112905561B (zh) | 一种基于深度双模态的气象参数精细尺度转化方法 | |
CN118296463A (zh) | 基于湖泊底部分类的内陆湖泊水深反演方法 | |
CN117576334B (zh) | 基于数字孪生技术的水下实景三维数据底板获取方法 | |
CN115964958B (zh) | 通量观测足迹与遥感像元空间尺度的匹配方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |