CN117523321A - 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 - Google Patents
基于被动遥感光谱图像应用神经网络的光学浅水分类方法 Download PDFInfo
- Publication number
- CN117523321A CN117523321A CN202410004256.3A CN202410004256A CN117523321A CN 117523321 A CN117523321 A CN 117523321A CN 202410004256 A CN202410004256 A CN 202410004256A CN 117523321 A CN117523321 A CN 117523321A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- neural network
- wave bands
- radiation transmission
- data set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 title claims abstract description 100
- 230000003287 optical effect Effects 0.000 title claims abstract description 28
- 238000000034 method Methods 0.000 title claims abstract description 25
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 18
- 230000003595 spectral effect Effects 0.000 title claims abstract description 9
- 230000005540 biological transmission Effects 0.000 claims abstract description 36
- 230000005855 radiation Effects 0.000 claims abstract description 35
- 238000002310 reflectometry Methods 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 22
- 238000003062 neural network model Methods 0.000 claims abstract description 16
- 238000011065 in-situ storage Methods 0.000 claims abstract description 11
- 238000001228 spectrum Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 6
- 238000012546 transfer Methods 0.000 claims description 6
- 238000012937 correction Methods 0.000 claims description 4
- 238000012876 topography Methods 0.000 claims description 4
- 238000005259 measurement Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000012625 in-situ measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 230000035515 penetration Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/30—Assessment of water resources
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
本发明公开了一种基于被动遥感光谱图像应用神经网络的光学浅水分类方法,包括:根据卫星数据获取先验水深数据点,对被动遥感图像做预处理后,使用红绿蓝波段的遥感反射率计算辐射传输数据,将红绿蓝波段的遥感反射率和辐射传输数据组成特征数据集;获取先验水深数据点对应位置的红绿蓝波段的遥感反射率和辐射传输数据作为浅水训练数据集;根据已知的原位测深数据集,获取深水区位置对应的红绿蓝波段的遥感反射率和辐射传输数据作为深水训练数据集;将浅水训练数据集和深水训练数据集输入神经网络模型训练;将特征数据集输入训练好的神经网络模型中,获取分类结果。本发明突出了光谱数据的光学特点,能够精确、快速地分类水体环境。
Description
技术领域
本发明涉及信号处理领域,尤其涉及一种基于被动遥感光谱图像应用神经网络的光学浅水分类方法。
背景技术
近岸浅水环境是世界上最具社会经济重要性和生产力的生态系统之一,对近岸浅水环境的监测是一项重要任务。除了监测此类生态系统中底部基质的变化外,一个所需的参数是底部深度,因为它不仅对于海上航行很重要,而且对于沿海环境管理也很重要。许多具有良好空间分辨率成像仪的被动水色卫星,例如Landsat-8(30 m分辨率)、Sentinel-2(20 m分辨率)和 Coastal Zone Imager(50 m分辨率),一直在对沿海地区进行常规测量,测量得到的被动遥感图像是作为观察海洋水体性质的基础资料。随着主动遥感卫星冰、云和陆地高程卫星二号(ICESat-2)的发射和运行,该卫星搭载的先进地形激光高度计系统(ATLAS)能够获得高精度的水深地形数据。由于激光雷达的穿透能力有限,目前ATLAS仅能够获得50米以内的水深信息,这部分水深信息对应的恰好是光学浅水区域水体。
对于浅水区域的管理,首先需要区分出浅水与深水区域。传统光学深水区与和浅水区域的分类主要基于原位测深数据,原位测量需要实地测量,这种方式效率低下且成本昂贵。或者采用目视解译的方式,通过人工区别被动遥感图像的深水区、浅水区,这种方式效率十分低下,且只能粗略区分水域。基于上述问题,基于ATLAS水深数据能够高效率生成光学浅水区的数据集,基于该水深数据能够高效率生成光学浅水区的数据集,不再依靠实地测量的方式获得浅水信息。而神经网络的方法由于拥有强大的分类能力,可以很好地辅助水体的分类。结合两者的分类方法能够很好地构建水体分类的新方法。
发明内容
针对现有技术的不足,本发明提出一种基于被动遥感光谱图像应用神经网络的光学浅水分类方法。
具体技术方案如下:
一种基于被动遥感光谱图像应用神经网络的光学浅水分类方法,包括以下步骤:
S1:获得ICESat-2 ATL03数据中的指定位置海底地形测深点作为先验水深数据点,并获取该区域的被动遥感图像;
S2:对所述被动遥感图像进行预处理,获得包含不同波段对应的遥感反射率的光谱图像;
S3:使用预处理后的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率,分别计算对应波段之间的辐射传输数据;
S4:获取所述先验水深数据点对应位置的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率和辐射传输数据,并将其作为浅水训练数据集;
S5:根据已知的原位测深数据集,随机选取与先验水深数据点数量相等的深水区位置对应的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率和辐射传输数据,并将其作为深水训练数据集;原位测深数据集为实地测出的一系列水深数据;
S6:将浅水训练数据集和深水训练数据集输入神经网络模型进行训练,得到训练好的神经网络模型;
S7:将预处理后的被动遥感图像中的红色波段、绿色波段、蓝色波段的遥感反射率,对应波段之间的辐射传输数据组成整幅图像的特征数据集;将所述特征数据集输入训练好的神经网络模型中,获取整幅被动遥感图像的光学深水区和光学浅水区分类结果。
进一步地,所述S3中,被动遥感图像的辐射传输数据计算表达式如下:
;
;
;
式中,P1是蓝、绿波段之间的辐射传输数据层信息,P2是红、绿波段之间的辐射传输数据层信息,P3是红、蓝波段之间的辐射传输数据层信息;R红是被动遥感图像中红色波段的遥感反射率,R绿是被动遥感图像中绿色波段的遥感反射率,R蓝是被动遥感图像中蓝色波段的遥感反射率。
进一步地,所述S2中,预处理的操作包括大气校正。
进一步地,所述S1中,采用DBSCAN算法获取先验水深数据点。
进一步地,所述S6中,神经网络模型是一种双层的前向反馈神经网络,在隐藏层具有S形传递函数,在输出层具有线性传递函数,隐藏层的大小设置为50。
进一步地,所述S5中,深水区为水深在50米以上的区域。
本发明的有益效果是:
本发明方法采用ICESat-2测量的先验水深数据点替代没有原位测深数据的区域的数据,帮助水体分类;采用被动遥感图像的辐射传输数据,可以更好突出光谱数据的光学特点;结合了神经网络模型进行训练,能够精确、快速地分类水体环境。
附图说明
图1是本发明提出的基于被动遥感光谱图像应用神经网络的光学浅水分类方法的流程图。
图2是采用本发明方法得到的分类结果与真实值的对比图,其中,(a)为原位测量水深地图,(b)为采用本发明方法得到的深水区域、浅水区域的分类结果示意图。
具体实施方式
下面根据附图和优选实施例详细描述本发明,本发明的目的和效果将变得更加明白,以下结合附图和实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
一种基于被动遥感光谱图像应用神经网络的光学浅水分类方法,包括以下步骤:
S1:获得ICESat-2 ATL03数据中的指定位置海底地形测深点作为先验水深数据点,并获取研究区域的被动遥感图像。ICESat-2 ATL03数据中的指定位置海底地形测深点数据可以获得实测测量设备(如船只)无法到达的区域的测深数据。本实施例中采用DBSCAN算法获取先验水深数据点,这种算法效率较高。
S2:预处理S1获得的原始被动遥感图像,进行大气校正,去除大气对图像影响,大气校正后获取处理过的光谱图像,该光谱图像包含蓝色波段、红色波段和绿色波段遥感反射率;预处理后的被动遥感图像需要包含蓝色波段、红色波段和绿色波段的光谱数据。
S3:根据S2获得的预处理后的被动遥感图像获取被动遥感图像的辐射传输数据,充分挖掘被动遥感图像的光学传输信息,有利于提高分类准确性。被动遥感图像的辐射传输数据计算方法为:
;
;
;
式中,P1是蓝、绿波段之间的辐射传输数据层信息,P2是红、绿波段之间的辐射传输数据层信息,P3是红、蓝波段之间的辐射传输数据层信息;R红是被动遥感图像中红色波段的遥感反射率,R绿是被动遥感图像中绿色波段的遥感反射率,R蓝是被动遥感图像中蓝色波段的遥感反射率。
S4:由于ICESat-2测深性能限制,只能测量50m以内的水深,因此可以根据ICESat-2先验水深数据点,获取ICESat-2先验水深数据点对应位置的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率和辐射传输数据,并将其作为浅水训练数据集。
S5:根据已知的原位测深数据集,随机选取与ICESat-2先验水深数据点数量相等的、50米以上的水深位置对应的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率和辐射传输数据,并将其作为深水训练数据集。原位测深数据集为使用实测测量设备(如船只)实地测出的一系列水深数据,可视为标准的水深数据。
S6:将浅水训练数据集和深水训练数据集输入神经网络模型进行训练,得到训练好的神经网络模型。神经网络模型是一种双层的前向反馈神经网络(Feedforward NeuralNetwork,以下简称FFNN),在隐藏层具有S形传递函数,在输出层具有线性传递函数,隐藏层的大小设置为50。神经网络模型的输入数据包容性强,准确率高。
S7:将整幅预处理后的被动遥感图像中的蓝色波段遥感反射率、红色波段遥感反射率、绿色波段遥感反射率,S3获得的三个辐射传输数据(即P1、P2、P3)组成深度为6的含辐射传输信息的整幅图像的特征数据集。将特征数据集输入S6训练好的神经网络模型中,获取整幅被动遥感图像的光学深水区和光学浅水区分类结果。
下面以一个具体实施案例来说明本发明方法的效果。
该实施例采用某岛附近水域的某卫星遥感影像,结合从ICESat2卫星ATL03文件中提取的水深数据,通过本发明方法进行光学浅水区和深水区的分类。采用NCEI持续更新的数字高程模型数据作为原位测深数据进行训练和最终分类结果的对比,原位测深数据如图2中的(a)所示。通过本发明方法分类的水体类型结果如图2中的(b)所示。通过与图2中的(a)对比可以看到,本发明方法可以很好的分类浅水区域(图2中的(a)中除陆地外的浅色水域)和光学深水区域(图2中的(a)中除陆地外的深色水域),吻合度较高,通过本发明方法有助于后续对浅水区域的进一步处理。
本领域普通技术人员可以理解,以上所述仅为发明的优选实例而已,并不用于限制发明,尽管参照前述实例对发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实例记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在发明的精神和原则之内,所做的修改、等同替换等均应包含在发明的保护范围之内。
Claims (6)
1.一种基于被动遥感光谱图像应用神经网络的光学浅水分类方法,其特征在于,包括以下步骤:
S1:获得ICESat-2 ATL03数据中的指定位置海底地形测深点作为先验水深数据点,并获取该区域的被动遥感图像;
S2:对所述被动遥感图像进行预处理,获得包含不同波段对应的遥感反射率的光谱图像;
S3:使用预处理后的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率,分别计算对应波段之间的辐射传输数据;
S4:获取所述先验水深数据点对应位置的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率和辐射传输数据,并将其作为浅水训练数据集;
S5:根据已知的原位测深数据集,随机选取与先验水深数据点数量相等的深水区位置对应的被动遥感图像中红色波段、绿色波段、蓝色波段的遥感反射率和辐射传输数据,并将其作为深水训练数据集;原位测深数据集为实地测出的一系列水深数据;
S6:将浅水训练数据集和深水训练数据集输入神经网络模型进行训练,得到训练好的神经网络模型;
S7:将预处理后的被动遥感图像中的红色波段、绿色波段、蓝色波段的遥感反射率,对应波段之间的辐射传输数据组成整幅图像的特征数据集;将所述特征数据集输入训练好的神经网络模型中,获取整幅被动遥感图像的光学深水区和光学浅水区分类结果。
2.根据权利要求1所述的基于被动遥感光谱图像应用神经网络的光学浅水分类方法,其特征在于,所述S3中,被动遥感图像的辐射传输数据计算表达式如下:
;
;
;
式中,P1是蓝、绿波段之间的辐射传输数据层信息,P2是红、绿波段之间的辐射传输数据层信息,P3是红、蓝波段之间的辐射传输数据层信息;R红是被动遥感图像中红色波段的遥感反射率,R绿是被动遥感图像中绿色波段的遥感反射率,R蓝是被动遥感图像中蓝色波段的遥感反射率。
3.根据权利要求1所述的基于被动遥感光谱图像应用神经网络的光学浅水分类方法,其特征在于,所述S2中,预处理的操作包括大气校正。
4.根据权利要求1所述的基于被动遥感光谱图像应用神经网络的光学浅水分类方法,其特征在于,所述S1中,采用DBSCAN算法获取先验水深数据点。
5.根据权利要求1所述的基于被动遥感光谱图像应用神经网络的光学浅水分类方法,其特征在于,所述S6中,神经网络模型是一种双层的前向反馈神经网络,在隐藏层具有S形传递函数,在输出层具有线性传递函数,隐藏层的大小设置为50。
6.根据权利要求1所述的基于被动遥感光谱图像应用神经网络的光学浅水分类方法,其特征在于,所述S5中,深水区为水深在50米以上的区域。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410004256.3A CN117523321B (zh) | 2024-01-03 | 2024-01-03 | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410004256.3A CN117523321B (zh) | 2024-01-03 | 2024-01-03 | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117523321A true CN117523321A (zh) | 2024-02-06 |
CN117523321B CN117523321B (zh) | 2024-04-09 |
Family
ID=89751609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410004256.3A Active CN117523321B (zh) | 2024-01-03 | 2024-01-03 | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117523321B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176001A (zh) * | 2011-02-10 | 2011-09-07 | 哈尔滨工程大学 | 一种基于透水波段比值因子的水深反演方法 |
CN102855494A (zh) * | 2012-08-20 | 2013-01-02 | 中国测绘科学研究院 | 一种卫星遥感影像的水体提取方法及装置 |
US20130286377A1 (en) * | 2012-04-27 | 2013-10-31 | SATOP GmbH | Using Multispectral Satellite Data to Determine Littoral Water Depths Despite Varying Water Turbidity |
CN109657392A (zh) * | 2018-12-28 | 2019-04-19 | 北京航空航天大学 | 一种基于深度学习的高光谱遥感水深反演方法 |
CN114117886A (zh) * | 2021-10-28 | 2022-03-01 | 南京信息工程大学 | 一种用于多光谱遥感水深反演方法 |
CN116295285A (zh) * | 2023-02-14 | 2023-06-23 | 国家海洋信息中心 | 基于区域自适应的浅海水深遥感反演方法 |
CN116379935A (zh) * | 2023-02-24 | 2023-07-04 | 广东省科学院广州地理研究所 | 基于多光谱影像的岛礁浅海水深预测方法、装置以及设备 |
-
2024
- 2024-01-03 CN CN202410004256.3A patent/CN117523321B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102176001A (zh) * | 2011-02-10 | 2011-09-07 | 哈尔滨工程大学 | 一种基于透水波段比值因子的水深反演方法 |
US20130286377A1 (en) * | 2012-04-27 | 2013-10-31 | SATOP GmbH | Using Multispectral Satellite Data to Determine Littoral Water Depths Despite Varying Water Turbidity |
CN102855494A (zh) * | 2012-08-20 | 2013-01-02 | 中国测绘科学研究院 | 一种卫星遥感影像的水体提取方法及装置 |
CN109657392A (zh) * | 2018-12-28 | 2019-04-19 | 北京航空航天大学 | 一种基于深度学习的高光谱遥感水深反演方法 |
CN114117886A (zh) * | 2021-10-28 | 2022-03-01 | 南京信息工程大学 | 一种用于多光谱遥感水深反演方法 |
CN116295285A (zh) * | 2023-02-14 | 2023-06-23 | 国家海洋信息中心 | 基于区域自适应的浅海水深遥感反演方法 |
CN116379935A (zh) * | 2023-02-24 | 2023-07-04 | 广东省科学院广州地理研究所 | 基于多光谱影像的岛礁浅海水深预测方法、装置以及设备 |
Non-Patent Citations (1)
Title |
---|
施英妮等: "《基于神经网络方法的高光谱遥感浅海水深反演》", 《高技术通讯》, vol. 18, no. 1, 31 January 2008 (2008-01-31), pages 71 - 76 * |
Also Published As
Publication number | Publication date |
---|---|
CN117523321B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Lu et al. | Object-oriented change detection for landslide rapid mapping | |
CN108428220B (zh) | 静止轨道卫星序列遥感影像海岛礁区域自动几何校正方法 | |
CN111832518A (zh) | 基于时空融合的tsa遥感影像土地利用方法 | |
CN111781146A (zh) | 利用高分辨率卫星光学影像的波浪参数反演方法 | |
CN110555841A (zh) | 基于自注意图像融合和dec的sar图像变化检测方法 | |
JP2019537151A (ja) | 画像処理装置、画像処理方法及び画像処理プログラム | |
Wang et al. | Sea ice classification with convolutional neural networks using Sentinel-L scansar images | |
Yang et al. | Evaluation and mitigation of rain effect on wave direction and period estimation from X-band marine radar images | |
Chen et al. | A novel scheme for extracting sea surface wind information from rain-contaminated x-band marine radar images | |
CN114724045A (zh) | 一种濒陆浅海水下地形反演方法 | |
CN113269028B (zh) | 一种基于深度卷积神经网络的水体变化检测方法和系统 | |
CN117523321B (zh) | 基于被动遥感光谱图像应用神经网络的光学浅水分类方法 | |
CN117557897A (zh) | 目标农作物的倒伏监测方法、装置、电子设备及存储介质 | |
CN115235431B (zh) | 一种基于光谱分层的浅海水深反演方法及系统 | |
Zhang et al. | Feature Bands Based Unsupervised Hyperspectral Underwater Target Detection Near the Coastline | |
CN116070735A (zh) | 一种基于边长和方位向差规则的黄海绿潮分布区及其漂移预测初始场制作方法 | |
Hashim et al. | Geometric and radiometric evaluation of RazakSAT medium-sized aperture camera data | |
Hayes et al. | Estimating dredge-induced turbidity using drone imagery | |
CN112418156B (zh) | 基于无监督分类的光学遥感图像海面舰船目标检测方法 | |
CN114926727A (zh) | 一种基于神经网络与集成学习的水下地形提取方法 | |
Zhu et al. | Offshore platform detection based on harris detector and intensity-texture image from Sentinel_2A image | |
Elshazly et al. | Evaluating remote sensing approaches for mapping the bathymetry of Lake Manzala, Egypt | |
CN117496278B (zh) | 基于辐射传输参数应用卷积神经网络的水深地图反演方法 | |
Fröjse | Multitemporal satellite images for urban change detection | |
Urbański | The extraction of coastline using OBIA and GIS |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |