CN117456369B - 智能化红树林生长情况的视觉识别方法 - Google Patents
智能化红树林生长情况的视觉识别方法 Download PDFInfo
- Publication number
- CN117456369B CN117456369B CN202311793242.6A CN202311793242A CN117456369B CN 117456369 B CN117456369 B CN 117456369B CN 202311793242 A CN202311793242 A CN 202311793242A CN 117456369 B CN117456369 B CN 117456369B
- Authority
- CN
- China
- Prior art keywords
- data
- model
- mangrove
- image
- remote sensing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 240000002044 Rhizophora apiculata Species 0.000 title claims abstract description 133
- 238000000034 method Methods 0.000 title claims abstract description 70
- 230000000007 visual effect Effects 0.000 title claims abstract description 24
- 238000012544 monitoring process Methods 0.000 claims abstract description 65
- 238000012549 training Methods 0.000 claims abstract description 62
- 238000013136 deep learning model Methods 0.000 claims abstract description 32
- 230000007246 mechanism Effects 0.000 claims abstract description 21
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 20
- 238000001228 spectrum Methods 0.000 claims abstract description 12
- 238000012795 verification Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 20
- 238000012360 testing method Methods 0.000 claims description 18
- 238000011156 evaluation Methods 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 17
- 238000004458 analytical method Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 238000011068 loading method Methods 0.000 claims description 11
- 238000011176 pooling Methods 0.000 claims description 11
- 238000007781 pre-processing Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 9
- 238000013519 translation Methods 0.000 claims description 9
- 230000005856 abnormality Effects 0.000 claims description 8
- 238000004891 communication Methods 0.000 claims description 8
- 230000004913 activation Effects 0.000 claims description 7
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 7
- 238000011160 research Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000013507 mapping Methods 0.000 claims description 5
- 239000002689 soil Substances 0.000 claims description 5
- 241000120622 Rhizophoraceae Species 0.000 claims description 4
- 238000012937 correction Methods 0.000 claims description 4
- 238000005520 cutting process Methods 0.000 claims description 4
- 238000001914 filtration Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 claims description 4
- 238000010606 normalization Methods 0.000 claims description 4
- 230000001360 synchronised effect Effects 0.000 claims description 4
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 4
- 238000011049 filling Methods 0.000 claims description 3
- 238000001556 precipitation Methods 0.000 claims description 3
- 230000003595 spectral effect Effects 0.000 abstract description 14
- 238000002372 labelling Methods 0.000 abstract description 10
- 230000001537 neural effect Effects 0.000 abstract description 6
- 230000009286 beneficial effect Effects 0.000 description 4
- 230000007613 environmental effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000036541 health Effects 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 238000013480 data collection Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000007726 management method Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 241000894007 species Species 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000010485 coping Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/10—Detection; Monitoring
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Mathematical Physics (AREA)
- Remote Sensing (AREA)
- Astronomy & Astrophysics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Processing (AREA)
Abstract
本发明涉及一种智能化红树林生长情况的视觉识别方法,属于红树林监测技术领域。一种智能化红树林生长情况的视觉识别方法,包括如下步骤:S1、进行数据采集与数据标注;S2、对训练数据进行数据增强,以扩充数据集并增强模型的泛化能力;S3、遥感数据和气象数据进行整合;S4、构建卷积神经深度学习模型学习图像中的空间和光谱特征;S5、引入多尺度,建立多尺度注意力机制;S6、对模型的预测结果进行不确定性建模;S7、部署实时监测系统;S8、整合远程传感器和物联网设备。通过获取的红树林的光谱和空间信息,使用卷积神经网络学习图像中的空间和光谱特征,使得模型能够更好地理解遥感图像,为红树林的监测提供了有效智能化工具。
Description
技术领域
本发明涉及红树林监测技术领域,特别是涉及一种智能化红树林生长情况的视觉识别方法。
背景技术
传统的勘察监测方式需要人工进行勘探,通过人工勘探效率低且无法应对各类灾害。
发明内容
基于此,有必要针对传统人工勘察监测方式效率低且无法应对各类灾害的问题,提供一种智能化红树林生长情况的视觉识别方法。
一种智能化红树林生长情况的视觉识别方法,包括如下步骤:
S1、进行数据采集与数据标注,采集遥感数据,获取红树林的光谱和空间信息,并获取对应的气象数据;
S2、对训练数据进行数据增强,包括旋转、翻转、缩放、平移、亮度和对比度调整,以扩充数据集并增强模型的泛化能力;
S3、遥感数据和气象数据进行整合;
S4、构建卷积神经深度学习模型学习图像中的空间和光谱特征;
S5、引入多尺度,建立多尺度注意力机制;
S6、对模型的预测结果进行不确定性建模,以提供对识别结果的置信度评估;
S7、部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况;
S8、整合远程传感器和物联网设备,以获取地面真实数据,验证和校准模型的预测结果。
本申请公开了一种智能化红树林生长情况的视觉识别方法,通过获取的红树林的光谱和空间信息,这对于了解红树林的健康状态、物种分布和生态系统变化至关重要。提供了基础数据,为后续的分析和模型训练提供了关键信息。通过数据增强扩充了数据集,增加了模型的泛化能力,使其更好地适应不同场景和变化。提高了模型的稳健性,减轻了过拟合的风险,从而提高了模型的性能。将遥感数据和气象数据整合,有助于更全面地理解红树林生态系统,同时考虑环境因素的影响。为建模提供更全面的背景信息,提高模型的准确性和可解释性。使用卷积神经网络学习图像中的空间和光谱特征,使得模型能够更好地理解遥感图像。提高了图像识别的准确性和效率,为红树林的监测提供了有效工具。引入多尺度注意力机制提高了模型对不同尺度信息的关注程度,更好地捕捉图像中的细节和整体信息。提高了模型对复杂场景的适应性,增强了模型的性能。对模型的预测结果进行不确定性建模,提供了对识别结果的置信度评估。提高了模型的可信度,帮助用户理解模型预测的可靠性,尤其在关键决策时具有重要作用。部署实时监测系统,对收集的遥感图像进行实时识别,及时更新红树林生长情况。实现了及时响应和监测,有助于保护红树林生态系统,提高了对潜在问题的预警能力。整合远程传感器和物联网设备,验证和校准模型的预测结果。提高了模型的可靠性和精度,确保模型输出与地面真实情况一致,增强了模型在实际应用中的信任度。
另外,本申请上述技术方案提供的技术方案还可以具有如下附加技术特征:
上述任一技术方案中,所述步骤S1中,进行数据采集与数据标注,采集遥感数据,获取红树林的光谱和空间信息,并获取对应的气象数据的具体步骤如下:
S11、选择卫星数据或航拍图像作为遥感数据,确保获取的数据与研究区域相匹配,收集不同季节的遥感数据,获取遥感数据的光谱数据,所述光谱数据包括可见光、红外线波段;
S12、获取与遥感数据时间同步的气象数据,所述气象数据包括降水、温度、湿度和风速;
S13、对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物;
S14、标注元数据,记录标注数据的元数据,所述元数据包括图像来源、拍摄时间和地理坐标信息,将标注的信息存储在数据库中。
上述任一技术方案中,所述步骤S13中,对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物的具体步骤如下:
S131、选择支持多类别标注和多边形标注的图像标注工具;
S132、标注图像中的红树林区域,使用多边形工具勾勒出每个红树林区域的边界,对不同类型的红树林进行分类标注,所述分类包括红树林物种和生长阶段;
S133、同时标注图像中的其他地物,所述其他地物包括水域、其他植被和人工结构。
上述任一技术方案中,所述步骤S2中,对训练数据进行数据增强,包括旋转、翻转、缩放、平移、亮度和对比度调整,以扩充数据集并增强模型的泛化能力的具体步骤如下:
S21、选择数据增强方法,所述数据增强方法包括旋转、翻转、缩放、平移、亮度和对比度调整,将所述数据增强方法通过随机的变换应用于原始图像;
S22、加载原始的标注过的图像,并确保图像和标签信息同时被加载;
S23、从训练数据集中随机选择一张图像作为数据增强的对象;
S24、将增强后的图像保存到新的训练数据集中,并保留相应的标签信息;
S25、重复上述步骤,直到获得原始图像的两倍或三倍数量的增强图像。
上述任一技术方案中,选择数据增强方法,所述数据增强方法包括旋转、翻转、缩放、平移、亮度和对比度调整,将所述数据增强方法通过随机的变换应用于原始图像的具体步骤如下:
S211、选取原始图像并随机选择一个角度,通过旋转矩阵在指定的范围内对图像进行旋转,模拟不同角度下的红树林观测;
S212、选取原始图像并随机选择水平翻转或垂直翻转;
S213、选取原始图像并随机选择一个缩放因子,对图像进行缩放操作;
S214、选取原始图像并在指定的范围内对图像进行随机平移,模拟图像在不同位置的观测;
S215、选取原始图像随机调整原始图像的亮度和对比度。
上述任一技术方案中,所述步骤S3中,对遥感数据和气象数据进行整合的具体步骤如下:
S31、通过插值对遥感数据和气象数据进行时空对齐,确保它们在时间和空间上一致;
S32、将遥感数据和气象数据转换为相同的数据格式,以便于后续的整合和处理;
S33、根据红树林所在的区域,从遥感数据中选定区域,通过地理信息系统工具选择并裁剪遥感数据中的选定区域;
S34、对气象数据进行空间插值,填充选定区域内没有气象数据的地方;
S35、将遥感数据和气象数据合并成一个综合的数据集,确保每个时间点都有相应的遥感数据和气象数据;
S36、在综合数据集上进行特征工程,计算生长特征,将生长特征作为模型的输入,以提高对红树林状态的识别性能;
S37、获取气象数据的时间序列数据并进行整合,对整合的时间序列数据进行分析,以发现潜在的模式和关联;
S38、利用整合的数据集进行深度学习模型的训练,并使用验证集进行模型的验证和调整。
上述任一技术方案中,所述步骤S4中,构建卷积神经深度学习模型学习图像中的空间和光谱特征的具体步骤如下:
S41、加载已标注的红树林图像数据集,所述数据集包括训练集和验证集,将图像数据进行预处理,以适应神经网络的输入要求;
S42、将数据增强后的图像和标签按批次加载到模型中,并确保每个批次中的图像和标签一一对应;
S43、选择卷积神经网络的架构,在模型中添加卷积层,选择卷积核大小和步幅,为每个卷积层添加激活函数,在卷积层之后添加池化层,使用平均池化来减小特征图的尺寸,同时在卷积层后添加批量归一化层;
S44、添加输出层,并选择激活函数,同时,在卷积层和输出层之间添加全连接层,将卷积部分提取的特征映射转化为对红树林生长情况的判别;
S45、选择损失函数、优化器和评价指标编译模型,使用准备好的训练集进行模型训练,监控训练过程中的损失函数和评价指标;
S46、使用验证集对训练好的模型进行验证,评估模型的泛化性能,调整超参数以提高模型的性能,根据验证结果调整模型结构和学习率,优化模型性能;
S47、保存经过训练和验证的模型,使用测试集对保存的模型进行测试,评估模型在新数据上的性能,对模型进行可解释性分析。
上述任一技术方案中,引入多尺度,建立多尺度注意力机制的步骤如下:
S51、通过缩放原始图像在不同尺度下生成原始图像的多个版本,确保每个版本都能捕捉到不同尺度的信息;
S52、调整卷积神经网络的输入层,以接受多个尺度的输入,确保卷积神经网络的输入层能够适应不同尺度的输入;
S53、在卷积神经网络添加多尺度特征提取模块,多尺度特征提取模块包含不同大小的卷积核或池化核的模块,同时在卷积神经网络引入多尺度特征融合模块,将来自不同尺度的特征进行融合;
S54、在模型中引入多尺度注意力机制,通过输入特征计算注意力权重,将计算得到的注意力权重应用于输入特征,以加权得到更加关注红树林生长情况的特征表示,将来自多个尺度的注意力加权特征整合到网络中,以替代原始的特征表示;
S55、在训练集上对整个模型进行训练,同时在验证集上监控模型性能,根据验证性能调整模型的注意力机制的权重,使用测试集对训练好的模型进行测试,评估模型在新数据上的性能。
上述任一技术方案中,对模型的预测结果进行不确定性建模的具体步骤如下:
S61、选择不确定性建模方法,在深度学习模型的输出层进行设计,以同时输出预测值和与之相关的不确定性;
S62、对输入数据进行采样,通过多次随机采样模型参数,生成多个不同的预测结果,使用采样的结果,计算深度学习模型输出的不确定性;
S63、在训练过程中,引入不确定性估计层,并根据深度学习模型预测与真实标签之间的不确定性调整损失函数,使用验证集评估模型的不确定性估计性能,并调整不确定性建模的采样次数或不确定性估计层的结构;
S64、使用测试集对模型进行最终评估,包括模型的准确性和不确定性估计的性能,并将模型的预测结果和不确定性估计结果可视化,以便更好地理解模型对于红树林生长情况的判断以及不确定性的来源,将不确定性建模的模型集成到实时监测系统中,确保模型可以提供准确的预测和相应的不确定性估计。
上述任一技术方案中,所述步骤S7中,部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况的具体步骤如下:
S71、采集卫星影像和气象站数据中红树林相关跟踪数据,对采集到的数据通过去噪、校正、对齐进行预处理,以确保数据的准确性和一致性;
S72、集成训练好的深度学习模型到实时监测系统中,确保模型能够实时处理新采集到的数据;
S73、对实时采集到的数据进行预测,使用深度学习模型输出红树林生长情况的预测结果,根据跟踪数据和模型输出,及时更新系统中的信息和数据库;
S74、利用不确定性建模方法,对模型输出的不确定性进行估计,将不确定性信息集成到监测系统中,提高对模型预测的信任度;
S75、当监测系统检测到异常或者红树林生长情况变化时,触发报警;
S76、将监测到的实时数据和模型输出存储到数据库中,以便后续的分析和回溯。
上述任一技术方案中,所述步骤S8中,整合远程传感器和物联网设备,获取地面真实数据,验证和校准模型的预测结果的具体步骤如下:
S81、选择适用于红树林监测的传感器,所述传感器包括摄像头、气象传感器和土壤湿度传感器,部署传感器网络,确保覆盖监测区域;
S82、设置传感器以定时或实时方式采集数据,根据传感器类型和通信协议,获取传感器采集到的原始数据;
S83、部署物联网设备,用于接收、处理和传输传感器数据,确保物联网设备的位置和通信能力能够满足整个监测区域的需求;
S84、在物联网设备或云平台上进行数据处理,对传感器采集到的原始数据进行滤波、校正和预处理,将处理后的数据存储在数据库中,以便后续的分析和查询;
S85、在物联网云平台上建立实时监测系统,通过仪表盘或可视化界面实时显示红树林生长情况,设置警报机制及时发现异常。
附图说明
图1为智能化红树林生长情况的视觉识别方法的流程示意图;
图2为进行数据采集与数据标注,采集遥感数据,获取红树林的光谱和空间信息,并获取对应的气象数据的流程示意图;
图3为对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物的流程示意图;
图4为对训练数据进行数据增强,包括旋转、翻转、缩放、平移、亮度和对比度调整,以扩充数据集并增强模型的泛化能力的流程示意图;
图5为选择数据增强方法,所述数据增强方法包括旋转、翻转、缩放、平移、亮度和对比度调整,将所述数据增强方法通过随机的变换应用于原始图像的流程示意图;
图6为对遥感数据和气象数据进行整合的流程示意图;
图7为构建卷积神经深度学习模型学习图像中的空间和光谱特征的流程示意图;
图8为引入多尺度,建立多尺度注意力机制的流程示意图;
图9为对模型的预测结果进行不确定性建模的流程示意图;
图10为部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况的流程示意图;
图11为整合远程传感器和物联网设备,以获取地面真实数据,验证和校准模型的预测结果的流程示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
下面参照附图描述本发明一些实施例所述智能化红树林生长情况的视觉识别方法。
如图1所示,本实施例公开了一种智能化红树林生长情况的视觉识别方法,包括如下步骤:
S1、进行数据采集与数据标注,采集遥感数据,获取红树林的光谱和空间信息,并获取对应的气象数据;
S2、对训练数据进行数据增强,包括旋转、翻转、缩放、平移、亮度和对比度调整,以扩充数据集并增强模型的泛化能力;
S3、遥感数据和气象数据进行整合;
S4、构建卷积神经深度学习模型学习图像中的空间和光谱特征;
S5、引入多尺度,建立多尺度注意力机制;
S6、对模型的预测结果进行不确定性建模,以提供对识别结果的置信度评估;
S7、部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况;
S8、整合远程传感器和物联网设备,以获取地面真实数据,验证和校准模型的预测结果。
本申请公开了一种智能化红树林生长情况的视觉识别方法,通过获取的红树林的光谱和空间信息,这对于了解红树林的健康状态、物种分布和生态系统变化至关重要。提供了基础数据,为后续的分析和模型训练提供了关键信息。通过数据增强扩充了数据集,增加了模型的泛化能力,使其更好地适应不同场景和变化。提高了模型的稳健性,减轻了过拟合的风险,从而提高了模型的性能。将遥感数据和气象数据整合,有助于更全面地理解红树林生态系统,同时考虑环境因素的影响。为建模提供更全面的背景信息,提高模型的准确性和可解释性。使用卷积神经网络学习图像中的空间和光谱特征,使得模型能够更好地理解遥感图像。提高了图像识别的准确性和效率,为红树林的监测提供了有效工具。引入多尺度注意力机制提高了模型对不同尺度信息的关注程度,更好地捕捉图像中的细节和整体信息。提高了模型对复杂场景的适应性,增强了模型的性能。对模型的预测结果进行不确定性建模,提供了对识别结果的置信度评估。提高了模型的可信度,帮助用户理解模型预测的可靠性,尤其在关键决策时具有重要作用。部署实时监测系统,对收集的遥感图像进行实时识别,及时更新红树林生长情况。实现了及时响应和监测,有助于保护红树林生态系统,提高了对潜在问题的预警能力。整合远程传感器和物联网设备,验证和校准模型的预测结果。提高了模型的可靠性和精度,确保模型输出与地面真实情况一致,增强了模型在实际应用中的信任度。
如图2所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S1中,进行数据采集与数据标注,采集遥感数据,获取红树林的光谱和空间信息,并获取对应的气象数据的具体步骤如下:
S11、选择卫星数据或航拍图像作为遥感数据,确保获取的数据与研究区域相匹配,收集不同季节的遥感数据,获取遥感数据的光谱数据,光谱数据包括可见光、红外线波段;
S12、获取与遥感数据时间同步的气象数据,气象数据包括降水、温度、湿度和风速;
S13、对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物;
S14、标注元数据,记录标注数据的元数据,元数据包括图像来源、拍摄时间和地理坐标信息,将标注的信息存储在数据库中。
通过选择与研究区域相匹配的卫星数据或航拍图像,确保数据的准确性和代表性。提高了遥感数据的适用性,确保所获得的信息与实际研究对象相符,增强了研究的可信度。获取与遥感数据时间同步的气象数据,包括降水、温度、湿度和风速信息。提供了环境背景信息,有助于理解遥感数据中的变化与气象因素之间的关系,为模型的解释性和应用提供更多线索。对遥感数据进行详细的图像标注,包括红树林物种、生长阶段和其他地物。为监督学习提供了有监督训练所需的标签数据,使模型能够更好地理解图像中的各个元素,提高模型的分类和检测准确性。记录标注数据的元数据,包括图像来源、拍摄时间和地理坐标信息。为数据管理提供了关键信息,确保数据可追溯性和可重复性,有助于验证和验证数据的质量,同时也方便后续的数据分析和共享。
如图3所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S13中,对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物的具体步骤如下:
S131、选择支持多类别标注和多边形标注的图像标注工具;
S132、标注图像中的红树林区域,使用多边形工具勾勒出每个红树林区域的边界,对不同类型的红树林进行分类标注,分类包括红树林物种和生长阶段;
S133、同时标注图像中的其他地物,其他地物包括水域、其他植被和人工结构。
通过选择支持多类别和多边形标注的图像标注工具,为复杂场景的标注提供更灵活的选择。提高了标注的精度和灵活性,使得标注工作更符合实际场景的多样性,同时为后续模型训练提供更准确的标签信息。使用多边形工具勾勒出每个红树林区域的边界,对不同类型的红树林进行分类标注,包括红树林物种和生长阶段。提供了高精度的红树林边界信息和详细的分类标签,为模型学习红树林的空间和光谱特征提供了准确的参考,增强了模型对不同红树林类别的识别能力。同时标注图像中的其他地物,包括水域、其他植被和人工结构。提供了全面的地物标注,有助于模型在红树林环境中识别并区分其他影响因素。这有助于提高模型的泛化能力,使其在复杂场景中更加稳定。
如图4所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S2中,对训练数据进行数据增强的步骤如下:
S21、选择数据增强方法,数据增强方法包括旋转、翻转、缩放、平移、亮度和对比度调整,将数据增强方法通过随机的变换应用于原始图像;
S22、加载原始的标注过的图像,并确保图像和标签信息同时被加载;
S23、从训练数据集中随机选择一张图像作为数据增强的对象;
S24、将增强后的图像保存到新的训练数据集中,并保留相应的标签信息;
S25、重复上述步骤,直到获得原始图像的两倍或三倍数量的增强图像。
通过选择了旋转、翻转、缩放、平移、亮度和对比度调整等多种数据增强方法。提供了对图像进行多方面变换的手段,有助于训练模型更好地适应各种情况,提高了模型的稳定性和泛化能力。确保原始图像和标签信息同时被加载。保证了数据的一致性,确保进行数据增强时,图像和标签的对应关系不被破坏,提高了数据处理的准确性。从训练数据集中随机选择一张图像作为数据增强的对象。确保了数据增强的多样性,使得模型在训练过程中能够学到更丰富的特征,增强了模型的泛化能力。将增强后的图像保存到新的训练数据集中,并保留相应的标签信息。扩充了训练数据集,使得模型在学习过程中能够接触更多的变化,减轻了过拟合风险,提高了模型的性能。重复上述步骤,直到获得原始图像的两倍或三倍数量的增强图像。进一步增加了训练数据的数量,提高了模型对各种变化的适应性,增加了模型的稳定性,有助于提升模型的性能。
如图5所示,除上述实施例的特征以外,本实施例进一步限定了:选择数据增强方法,所述数据增强方法包括旋转、翻转、缩放、平移、亮度和对比度调整,将所述数据增强方法通过随机的变换应用于原始图像的具体步骤如下:
S211、选取原始图像并随机选择一个角度,通过旋转矩阵在指定的范围内对图像进行旋转,模拟不同角度下的红树林观测;
S212、选取原始图像并随机选择水平翻转或垂直翻转;
S213、选取原始图像并随机选择一个缩放因子,对图像进行缩放操作;
S214、选取原始图像并在指定的范围内对图像进行随机平移,模拟图像在不同位置的观测;
S215、选取原始图像随机调整原始图像的亮度和对比度。
随机选择一个角度,在指定的范围内对图像进行旋转,模拟不同角度下的红树林观测。提高了模型对红树林在不同方向和观测角度下的识别能力,增强了模型的稳定性。随机选择水平翻转或垂直翻转图像。扩充了数据集,使模型能够学到红树林在水平和垂直方向上的不同特征,增强了模型的泛化性。随机选择一个缩放因子,对图像进行缩放操作。增加了模型对红树林在不同尺度下的适应性,提高了模型的泛化能力,对应用在不同分辨率的图像上具有重要作用。在指定的范围内对图像进行随机平移,模拟图像在不同位置的观测。有助于模型学习红树林在不同位置的特征,增加了模型对于不同观测位置的适应性,提高了模型的稳定性。随机调整原始图像的亮度和对比度。增加了数据的多样性,使模型能够适应不同光照条件下的红树林图像,提高了模型的鲁棒性和适应性。
如图6所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S3中,对遥感数据和气象数据进行整合的具体步骤如下:
S31、通过插值对遥感数据和气象数据进行时空对齐,确保它们在时间和空间上一致;
S32、将遥感数据和气象数据转换为相同的数据格式,以便于后续的整合和处理;
S33、根据红树林所在的区域,从遥感数据中选定区域,通过地理信息系统工具选择并裁剪遥感数据中的选定区域;
S34、对气象数据进行空间插值,填充选定区域内没有气象数据的地方;
S35、将遥感数据和气象数据合并成一个综合的数据集,确保每个时间点都有相应的遥感数据和气象数据;
S36、在综合数据集上进行特征工程,计算生长特征,将生长特征作为模型的输入,以提高对红树林状态的识别性能;
S37、获取气象数据的时间序列数据并进行整合,对整合的时间序列数据进行分析,以发现潜在的模式和关联;
S38、利用整合的数据集进行深度学习模型的训练,并使用验证集进行模型的验证和调整。
通过插值对遥感数据和气象数据进行时空对齐,确保它们在时间和空间上一致。提高了数据的一致性,确保了数据在模型训练中能够正确反映时间和空间的关联,增强了模型的准确性。将遥感数据和气象数据转换为相同的数据格式,方便后续整合和处理。简化了数据的管理和处理,确保数据的一致性,提高了数据处理的效率。根据红树林所在的区域,从遥感数据中选定区域,并通过地理信息系统工具进行裁剪。提高了数据的精度,使得模型只关注红树林所在的特定区域,减少了无关信息的干扰,提高了模型的训练效率和准确性。对气象数据进行空间插值,填充选定区域内没有气象数据的地方。确保了每个时间点的数据完整性,避免了缺失数据对模型训练的不利影响,提高了模型的稳定性。将遥感数据和气象数据合并成一个综合的数据集,确保每个时间点都有相应的遥感数据和气象数据。构建了一个全面的数据集,为模型提供了多模态信息,使得模型能够更好地理解红树林的状态和环境条件。在综合数据集上进行特征工程,计算生长特征,将生长特征作为模型的输入。引入了专门设计的特征,提高了模型对红树林状态的识别性能,有助于模型更好地捕捉生态系统的动态变化。获取气象数据的时间序列数据并进行整合,对整合的时间序列数据进行分析,以发现潜在的模式和关联。提供了对气象数据的深入理解,有助于模型更好地理解气象因素对红树林的影响,增强了模型的解释性。利用整合的数据集进行深度学习模型的训练,并使用验证集进行模型的验证和调整。构建了一个综合、高质量的数据集,为深度学习模型提供了更好的训练和验证环境,提高了模型的性能。
如图7所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S4中,构建卷积神经深度学习模型学习图像中的空间和光谱特征的具体步骤如下:
S41、加载已标注的红树林图像数据集,数据集包括训练集和验证集,将图像数据进行预处理,以适应神经网络的输入要求;
S42、将数据增强后的图像和标签按批次加载到模型中,并确保每个批次中的图像和标签一一对应;
S43、选择卷积神经网络的架构,在模型中添加卷积层,选择卷积核大小和步幅,为每个卷积层添加激活函数,在卷积层之后添加池化层,使用平均池化来减小特征图的尺寸,同时在卷积层后添加批量归一化层;
S44、添加输出层,并选择激活函数,同时,在卷积层和输出层之间添加全连接层,将卷积部分提取的特征映射转化为对红树林生长情况的判别;
S45、选择损失函数、优化器和评价指标编译模型,使用准备好的训练集进行模型训练,监控训练过程中的损失函数和评价指标;
S46、使用验证集对训练好的模型进行验证,评估模型的泛化性能,调整超参数以提高模型的性能,根据验证结果调整模型结构和学习率,优化模型性能;
S47、保存经过训练和验证的模型,使用测试集对保存的模型进行测试,评估模型在新数据上的性能,对模型进行可解释性分析。
通过加载已标注的红树林图像数据集,包括训练集和验证集,并对图像数据进行预处理以适应神经网络的输入要求。为模型提供了经过预处理的数据,确保数据的可用性和适应性,提高了模型对输入数据的处理效率。将数据增强后的图像和标签按批次加载到模型中,确保每个批次中的图像和标签一一对应。通过数据增强提高了数据集的多样性,增加了模型的泛化能力,确保训练数据的有效利用。选择卷积神经网络的架构,包括卷积层、激活函数、池化层和批量归一化层等。构建了一个合理的卷积神经网络架构,有助于模型提取图像中的空间和光谱特征,增强了模型对红树林图像的理解能力。在卷积层和输出层之间添加全连接层,将卷积部分提取的特征映射转化为对红树林生长情况的判别。引入全连接层,有助于模型将卷积部分学到的特征映射与红树林的生长情况建立联系,提高了模型的分类性能。选择损失函数、优化器和评价指标,编译模型,并使用准备好的训练集进行模型训练。通过指定损失函数和优化器,以及监控评价指标,有助于模型按照预期的方向进行训练,提高了模型的学习效果。使用验证集对训练好的模型进行验证,评估模型的泛化性能,调整超参数以提高模型的性能。通过验证集的评估,有助于调整模型的结构和学习率,提高了模型的泛化能力和性能。保存了训练好的模型,方便在实际应用中进行使用,通过测试集评估模型在未见过的数据上的表现,提供了对模型性能的更全面的了解。对模型进行可解释性分析,了解模型对红树林生长状态的判别依据。提供了对模型决策的解释,增强了对模型输出的信任度,帮助理解模型在实际应用中的应用场景
如图8所示,除上述实施例的特征以外,本实施例进一步限定了:引入多尺度,建立多尺度注意力机制的步骤如下:
S51、通过缩放原始图像在不同尺度下生成原始图像的多个版本,确保每个版本都能捕捉到不同尺度的信息;
S52、调整卷积神经网络的输入层,以接受多个尺度的输入,确保卷积神经网络的输入层能够适应不同尺度的输入;
S53、在卷积神经网络添加多尺度特征提取模块,多尺度特征提取模块包含不同大小的卷积核或池化核的模块,同时在卷积神经网络引入多尺度特征融合模块,将来自不同尺度的特征进行融合;
S54、在模型中引入多尺度注意力机制,通过输入特征计算注意力权重,将计算得到的注意力权重应用于输入特征,以加权得到更加关注红树林生长情况的特征表示,将来自多个尺度的注意力加权特征整合到网络中,以替代原始的特征表示;
S55、在训练集上对整个模型进行训练,同时在验证集上监控模型性能,根据验证性能调整模型的注意力机制的权重,使用测试集对训练好的模型进行测试,评估模型在新数据上的性能。
通过缩放原始图像在不同尺度下生成多个版本,确保每个版本都能捕捉到不同尺度的信息。提高了模型对红树林图像在不同观测尺度下的识别能力,增强了模型对红树林生态系统多样性的理解。调整神经网络的输入层,以接受多个尺度的输入,确保神经网络的输入层能够适应不同尺度的输入。为模型提供了对多尺度输入的支持,增强了模型对红树林图像多尺度特征的感知能力。在神经网络中添加多尺度特征提取模块,包含不同大小的卷积核或池化核的模块,并引入多尺度特征融合模块,将来自不同尺度的特征进行融合。提高了模型对红树林图像多尺度特征的提取和整合能力,有助于更全面地捕捉图像的空间和光谱信息。在模型中引入多尺度注意力机制,通过计算注意力权重,将权重应用于输入特征,以加权得到更关注红树林生长情况的特征表示。提高了模型对于不同尺度特征的关注度,使模型能够更有针对性地关注对红树林状态判别重要的信息,提升了模型的性能。在训练集上对整个模型进行训练,同时在验证集上监控模型性能,根据验证性能调整模型的注意力机制的权重。通过在验证集上的监控和调整,确保了模型的泛化能力,并提高了模型在实际应用中的性能。在测试集上对模型进行评估,进一步验证了模型在新数据上的性能。
如图9所示,除上述实施例的特征以外,本实施例进一步限定了:对模型的预测结果进行不确定性建模的具体步骤如下:
S61、选择不确定性建模方法,在深度学习模型的输出层进行设计,以同时输出预测值和与之相关的不确定性;
S62、对输入数据进行采样,通过多次随机采样模型参数,生成多个不同的预测结果,使用采样的结果,计算深度学习模型输出的不确定性;
S63、在训练过程中,引入不确定性估计层,并根据深度学习模型预测与真实标签之间的不确定性调整损失函数,使用验证集评估模型的不确定性估计性能,并调整不确定性建模的采样次数或不确定性估计层的结构;
S64、使用测试集对模型进行最终评估,包括模型的准确性和不确定性估计的性能,并将模型的预测结果和不确定性估计结果可视化,以便更好地理解模型对于红树林生长情况的判断以及不确定性的来源,将不确定性建模的模型集成到实时监测系统中,确保模型可以提供准确的预测和相应的不确定性估计。
通过在深度学习模型的输出层进行设计,同时输出预测值和与之相关的不确定性,可能涉及在输出层添加附加的不确定性估计层。提供了对模型预测的不确定性的额外信息,使模型的预测更为可靠。对输入数据进行多次随机采样模型参数,生成多个不同的预测结果,使用采样的结果计算深度学习模型输出的不确定性提供了对模型预测的多样性评估,增强了对不确定性的把握,使模型更能反映出在给定输入下的不同可能性。在训练过程中引入不确定性估计层,并根据深度学习模型预测与真实标签之间的不确定性调整损失函数。通过损失函数的调整,使模型在训练过程中更关注具有不确定性的样本,提高了模型对不确定性的感知和学习能力。通过验证集的性能评估,使得模型的不确定性估计更加准确,提高了模型在实际场景中的可靠性。使用测试集对模型进行最终评估,包括模型的准确性和不确定性估计的性能,将模型的预测结果和不确定性估计结果可视化。提供了对模型性能的最终评估,同时通过可视化结果,使用户更好地理解模型对红树林生长情况判断的依据以及不确定性的来源。将不确定性建模的模型集成到实时监测系统中,确保模型可以提供准确的预测和相应的不确定性估计。提高了实时监测系统的可信度,使系统在面对不确定性情况时能够更加谨慎和灵活地进行决策,增强了系统的稳定性。
如图10所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S7中,部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况的具体步骤如下:
S71、采集卫星影像和气象站数据中红树林相关跟踪数据,对采集到的数据通过去噪、校正、对齐进行预处理,以确保数据的准确性和一致性;
S72、集成训练好的深度学习模型到实时监测系统中,确保模型能够实时处理新采集到的数据;
S73、对实时采集到的数据进行预测,使用深度学习模型输出红树林生长情况的预测结果,根据跟踪数据和模型输出,及时更新系统中的信息和数据库;
S74、利用不确定性建模方法,对模型输出的不确定性进行估计,将不确定性信息集成到监测系统中,提高对模型预测的信任度;
S75、当监测系统检测到异常或者红树林生长情况变化时,触发报警;
S76、将监测到的实时数据和模型输出存储到数据库中,以便后续的分析和回溯。
采集卫星影像和气象站数据中红树林相关跟踪数据,并对采集到的数据进行去噪、校正、对齐等预处理,以确保数据的准确性和一致性。提高了数据的质量,确保了后续模型的输入数据具有高可信度,增强了模型的训练和预测性能。将之前训练好的深度学习模型集成到实时监测系统中,确保模型能够实时处理新采集到的数据。使监测系统能够随时调用深度学习模型进行实时预测,保持对红树林生长情况的持续监测。对实时采集到的数据进行预测,使用深度学习模型输出红树林生长情况的预测结果,根据跟踪数据和模型输出,及时更新系统中的信息和数据库。提供了实时的红树林生长情况预测,确保监测系统中的信息与实际情况保持一致,支持系统用户做出及时决策。利用不确定性建模方法,对模型输出的不确定性进行估计,将不确定性信息集成到监测系统中,提高对模型预测的信任度。增加了对模型输出的透明度和可解释性,使系统用户能够更全面地理解模型预测的可靠性。当监测系统检测到异常或者红树林生长情况变化时,触发报警。提供了对重要事件的实时响应,帮助用户及时处理潜在问题,保障红树林生态系统的健康和可持续发展。将监测到的实时数据和模型输出存储到数据库中,以便后续的分析和回溯。提供了对历史数据的存档,支持对红树林生长趋势的长期分析,为科学研究和管理决策提供了有力的支持。
如图11所示,除上述实施例的特征以外,本实施例进一步限定了:步骤S8中,整合远程传感器和物联网设备,以获取地面真实数据,验证和校准模型的预测结果的具体步骤如下:
S81、选择适用于红树林监测的传感器,传感器包括摄像头、气象传感器和土壤湿度传感器,部署传感器网络,确保覆盖监测区域;
S82、设置传感器以定时或实时方式采集数据,根据传感器类型和通信协议,获取传感器采集到的原始数据;
S83、部署物联网设备,用于接收、处理和传输传感器数据,确保物联网设备的位置和通信能力能够满足整个监测区域的需求;
S84、在物联网设备或云平台上进行数据处理,对传感器采集到的原始数据进行滤波、校正和预处理,将处理后的数据存储在数据库中,以便后续的分析和查询;
S85、在物联网云平台上建立实时监测系统,通过仪表盘或可视化界面实时显示红树林生长情况,设置警报机制及时发现异常。
通过选择适用于红树林监测的传感器,包括摄像头、气象传感器和土壤湿度传感器,并部署传感器网络以确保覆盖监测区域。供了多维度的监测数据,包括图像、气象和土壤湿度信息,使得对红树林生态系统的全面监测成为可能。设置传感器以定时或实时方式采集数据,根据传感器类型和通信协议获取传感器采集到的原始数据。提供了时序性的数据流,使得对红树林生长情况的动态变化能够被及时捕捉和记录。部署物联网设备,用于接收、处理和传输传感器数据,确保设备位置和通信能力满足整个监测区域的需求。建立了数据传输通道,将采集到的数据传输到后续处理和存储阶段,确保数据的流畅性和连续性。在物联网设备或云平台上进行数据处理,对传感器采集到的原始数据进行滤波、校正和预处理,将处理后的数据存储在数据库中。保证了数据的质量和准确性,为后续分析提供了高质量的输入数据。在物联网云平台上建立实时监测系统,通过仪表盘或可视化界面实时显示红树林生长情况,设置警报机制及时发现异常。提供了对红树林生态系统的实时监测和可视化展示,使用户能够及时了解红树林的状态,同时通过警报机制实现对异常情况的快速响应。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (6)
1.一种智能化红树林生长情况的视觉识别方法,其特征在于,包括如下步骤:
S11、选择卫星数据或航拍图像作为遥感数据,确保获取的数据与研究区域相匹配,收集不同季节的遥感数据,获取遥感数据的光谱数据,所述光谱数据包括可见光、红外线波段;
S12、获取与遥感数据时间同步的气象数据,所述气象数据包括降水、温度、湿度和风速;
S13、对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物;
S14、标注元数据,记录标注数据的元数据,所述元数据包括图像来源、拍摄时间和地理坐标信息,将标注的信息存储在数据库中;
S2、对训练数据进行数据增强,包括旋转、翻转、缩放、平移、亮度和对比度调整,以扩充数据集并增强模型的泛化能力;
S31、通过插值对遥感数据和气象数据进行时空对齐,确保它们在时间和空间上一致;
S32、将遥感数据和气象数据转换为相同的数据格式,以便于后续的整合和处理;
S33、根据红树林所在的区域,从遥感数据中选定区域,通过地理信息系统工具选择并裁剪遥感数据中的选定区域;
S34、对气象数据进行空间插值,填充选定区域内没有气象数据的地方;
S35、将遥感数据和气象数据合并成一个综合的数据集,确保每个时间点都有相应的遥感数据和气象数据;
S36、在综合数据集上进行特征工程,计算生长特征,将生长特征作为模型的输入,以提高对红树林状态的识别性能;
S37、获取气象数据的时间序列数据并进行整合,对整合的时间序列数据进行分析,以发现潜在的模式和关联;
S38、利用整合的数据集进行深度学习模型的训练,并使用验证集进行模型的验证和调整;
S41、加载已标注的红树林图像数据集,所述数据集包括训练集和验证集,将图像数据进行预处理,以适应神经网络的输入要求;
S42、将数据增强后的图像和标签按批次加载到模型中,并确保每个批次中的图像和标签一一对应;
S43、选择卷积神经网络的架构,在模型中添加卷积层,选择卷积核大小和步幅,为每个卷积层添加激活函数,在卷积层之后添加池化层,使用平均池化来减小特征图的尺寸,同时在卷积层后添加批量归一化层;
S44、添加输出层,并选择激活函数,同时,在卷积层和输出层之间添加全连接层,将卷积部分提取的特征映射转化为对红树林生长情况的判别;
S45、选择损失函数、优化器和评价指标编译模型,使用准备好的训练集进行模型训练,监控训练过程中的损失函数和评价指标;
S46、使用验证集对训练好的模型进行验证,评估模型的泛化性能,调整超参数以提高模型的性能,根据验证结果调整模型结构和学习率,优化模型性能;
S47、保存经过训练和验证的模型,使用测试集对保存的模型进行测试,评估模型在新数据上的性能,对模型进行可解释性分析;
S51、通过缩放原始图像在不同尺度下生成原始图像的多个版本,确保每个版本都能捕捉到不同尺度的信息;
S52、调整卷积神经网络的输入层,以接受多个尺度的输入,确保卷积神经网络的输入层能够适应不同尺度的输入;
S53、在卷积神经网络添加多尺度特征提取模块,多尺度特征提取模块包含不同大小的卷积核或池化核的模块,同时在卷积神经网络引入多尺度特征融合模块,将来自不同尺度的特征进行融合;
S54、在模型中引入多尺度注意力机制,通过输入特征计算注意力权重,将计算得到的注意力权重应用于输入特征,以加权得到更加关注红树林生长情况的特征表示,将来自多个尺度的注意力加权特征整合到网络中,以替代原始的特征表示;
S55、在训练集上对整个模型进行训练,同时在验证集上监控模型性能,根据验证性能调整模型的注意力机制的权重,使用测试集对训练好的模型进行测试,评估模型在新数据上的性能;
S6、对模型的预测结果进行不确定性建模,以提供对识别结果的置信度评估;
S7、部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况;
S8、整合远程传感器和物联网设备,以获取地面真实数据,验证和校准模型的预测结果。
2.根据权利要求1所述的智能化红树林生长情况的视觉识别方法,其特征在于,所述步骤S13中,对遥感数据进行图像标注,图像标注内容包括红树林物种、生长阶段和其他地物的具体步骤如下:
S131、选择支持多类别标注和多边形标注的图像标注工具;
S132、标注图像中的红树林区域,使用多边形工具勾勒出每个红树林区域的边界,对不同类型的红树林进行分类标注,所述分类包括红树林物种和生长阶段;
S133、同时标注图像中的其他地物,所述其他地物包括水域、其他植被和人工结构。
3.根据权利要求1所述的智能化红树林生长情况的视觉识别方法,其特征在于,所述步骤S2中,对训练数据进行数据增强,包括旋转、翻转、缩放、平移、亮度和对比度调整,以扩充数据集并增强模型的泛化能力的具体步骤如下:
S21、选择数据增强方法,所述数据增强方法包括旋转、翻转、缩放、平移、亮度和对比度调整,将所述数据增强方法通过随机的变换应用于原始图像;
S22、加载原始的标注过的图像,并确保图像和标签信息同时被加载;
S23、从训练数据集中随机选择一张图像作为数据增强的对象;
S24、将增强后的图像保存到新的训练数据集中,并保留相应的标签信息;
S25、重复上述步骤,直到获得原始图像的两倍或三倍数量的增强图像。
4.根据权利要求1所述的智能化红树林生长情况的视觉识别方法,其特征在于,所述步骤S6中,对模型的预测结果进行不确定性建模的具体步骤如下:
S61、选择不确定性建模方法,在深度学习模型的输出层进行设计,以同时输出预测值和与之相关的不确定性;
S62、对输入数据进行采样,通过多次随机采样模型参数,生成多个不同的预测结果,使用采样的结果,计算深度学习模型输出的不确定性;
S63、在训练过程中,引入不确定性估计层,并根据深度学习模型预测与真实标签之间的不确定性调整损失函数,使用验证集评估模型的不确定性估计性能,并调整不确定性建模的采样次数或不确定性估计层的结构;
S64、使用测试集对模型进行最终评估,包括模型的准确性和不确定性估计的性能,并将模型的预测结果和不确定性估计结果可视化,以便更好地理解模型对于红树林生长情况的判断以及不确定性的来源,将不确定性建模的模型集成到实时监测系统中,确保模型可以提供准确的预测和相应的不确定性估计。
5.根据权利要求1所述的智能化红树林生长情况的视觉识别方法,其特征在于,所述步骤S7中,部署实时监测系统,对收集的遥感图像进行实时识别,并及时更新生长情况的具体步骤如下:
S71、采集卫星影像和气象站数据中红树林相关跟踪数据,对采集到的数据通过去噪、校正、对齐进行预处理,以确保数据的准确性和一致性;
S72、集成训练好的深度学习模型到实时监测系统中,确保模型能够实时处理新采集到的数据;
S73、对实时采集到的数据进行预测,使用深度学习模型输出红树林生长情况的预测结果,根据跟踪数据和模型输出,及时更新系统中的信息和数据库;
S74、利用不确定性建模方法,对模型输出的不确定性进行估计,将不确定性信息集成到监测系统中,提高对模型预测的信任度;
S75、当监测系统检测到异常或者红树林生长情况变化时,触发报警;
S76、将监测到的实时数据和模型输出存储到数据库中,以便后续的分析和回溯。
6.根据权利要求1所述的智能化红树林生长情况的视觉识别方法,其特征在于,所述步骤S8中,整合远程传感器和物联网设备,以获取地面真实数据,验证和校准模型的预测结果的具体步骤如下:
S81、选择适用于红树林监测的传感器,所述传感器包括摄像头、气象传感器和土壤湿度传感器,部署传感器网络,确保覆盖监测区域;
S82、设置传感器以定时或实时方式采集数据,根据传感器类型和通信协议,获取传感器采集到的原始数据;
S83、部署物联网设备,用于接收、处理和传输传感器数据,确保物联网设备的位置和通信能力能够满足整个监测区域的需求;
S84、在物联网设备或云平台上进行数据处理,对传感器采集到的原始数据进行滤波、校正和预处理,将处理后的数据存储在数据库中,以便后续的分析和查询;
S85、在物联网云平台上建立实时监测系统,通过仪表盘或可视化界面实时显示红树林生长情况,设置警报机制及时发现异常。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311793242.6A CN117456369B (zh) | 2023-12-25 | 2023-12-25 | 智能化红树林生长情况的视觉识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311793242.6A CN117456369B (zh) | 2023-12-25 | 2023-12-25 | 智能化红树林生长情况的视觉识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117456369A CN117456369A (zh) | 2024-01-26 |
CN117456369B true CN117456369B (zh) | 2024-02-27 |
Family
ID=89589659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311793242.6A Active CN117456369B (zh) | 2023-12-25 | 2023-12-25 | 智能化红树林生长情况的视觉识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456369B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118587611B (zh) * | 2024-08-07 | 2024-10-29 | 北京航空航天大学杭州创新研究院 | 一种变色立木遥感智能监测系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110926430A (zh) * | 2019-11-22 | 2020-03-27 | 海南省林业科学研究所 | 一种空地一体化红树林监测系统及控制方法 |
CN112307992A (zh) * | 2020-11-04 | 2021-02-02 | 北京大学深圳研究生院 | 一种基于无人机可见光遥感的红树植物自动识别方法 |
CN112580982A (zh) * | 2020-12-21 | 2021-03-30 | 北京市测绘设计研究院 | 一种基于多时相遥感和casa模型的生态保护红线实施评估 |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及系统 |
CN116958771A (zh) * | 2023-07-28 | 2023-10-27 | 北京元境数字科技有限公司 | 一种计算机视觉识别系统及方法 |
CN117079130A (zh) * | 2023-08-23 | 2023-11-17 | 广东海洋大学 | 一种基于红树林生境的智能信息管理方法及系统 |
-
2023
- 2023-12-25 CN CN202311793242.6A patent/CN117456369B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110926430A (zh) * | 2019-11-22 | 2020-03-27 | 海南省林业科学研究所 | 一种空地一体化红树林监测系统及控制方法 |
WO2021184891A1 (zh) * | 2020-03-20 | 2021-09-23 | 中国科学院深圳先进技术研究院 | 遥感影像地物分类方法及系统 |
CN112307992A (zh) * | 2020-11-04 | 2021-02-02 | 北京大学深圳研究生院 | 一种基于无人机可见光遥感的红树植物自动识别方法 |
CN112580982A (zh) * | 2020-12-21 | 2021-03-30 | 北京市测绘设计研究院 | 一种基于多时相遥感和casa模型的生态保护红线实施评估 |
CN116958771A (zh) * | 2023-07-28 | 2023-10-27 | 北京元境数字科技有限公司 | 一种计算机视觉识别系统及方法 |
CN117079130A (zh) * | 2023-08-23 | 2023-11-17 | 广东海洋大学 | 一种基于红树林生境的智能信息管理方法及系统 |
Non-Patent Citations (1)
Title |
---|
刘孝贤等.一种红树林智能植树机器人的设计.《南方农机》.2023,第54卷(第14期),第128-131页. * |
Also Published As
Publication number | Publication date |
---|---|
CN117456369A (zh) | 2024-01-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Vos et al. | CoastSat: A Google Earth Engine-enabled Python toolkit to extract shorelines from publicly available satellite imagery | |
Jiang et al. | Advancing opportunistic sensing in hydrology: A novel approach to measuring rainfall with ordinary surveillance cameras | |
CN112990262B (zh) | 一种草原生态数据监测与智能决策一体化解决系统 | |
CN108764372A (zh) | 数据集的构建方法和装置、移动终端、可读存储介质 | |
Mann et al. | Automatic flower detection and phenology monitoring using time‐lapse cameras and deep learning | |
CN110598784A (zh) | 基于机器学习的建筑垃圾分类方法及装置 | |
WO2015157643A1 (en) | Solar energy forecasting | |
CN113095434A (zh) | 目标检测方法及装置、电子设备、存储介质 | |
CN117456369B (zh) | 智能化红树林生长情况的视觉识别方法 | |
CN112464766A (zh) | 一种农田地头自动识别方法及系统 | |
CN113160150A (zh) | 基于多类型样本融合与多复杂网络的线网异物入侵ai检测方法与装置 | |
CN112651358A (zh) | 一种目标检测方法、装置、网络摄像机及存储介质 | |
CN113435254A (zh) | 一种基于哨兵二号影像的耕地深度学习提取方法 | |
Schäfer et al. | Classifying Land Cover from Satellite Images Using Time Series Analytics. | |
WO2021147055A1 (en) | Systems and methods for video anomaly detection using multi-scale image frame prediction network | |
CN116935310B (zh) | 基于深度学习的实时视频监控鸟类密度估计方法及系统 | |
CN117407710A (zh) | 高光谱遥感水质参数反演方法、装置、电子设备及存储介质 | |
CN117036843A (zh) | 目标检测模型训练方法、目标检测方法和装置 | |
Padilha et al. | Content-aware detection of temporal metadata manipulation | |
Liu et al. | Ground-based cloud classification using weighted local binary patterns | |
CN114549970A (zh) | 融合全局细粒度信息的夜间小目标果实检测方法及系统 | |
Yadav et al. | Supervised learning based greenery region detection using unnamed aerial vehicle for smart city application | |
CN114511787A (zh) | 一种基于神经网络的遥感图像地物信息生成方法及其系统 | |
CN114170548B (zh) | 一种基于深度学习的油田现场微目标检测方法及系统 | |
CN116824488A (zh) | 一种基于迁移学习的目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |