CN116258908A - 一种基于无人机遥感影像数据的地灾预测评估分类方法 - Google Patents
一种基于无人机遥感影像数据的地灾预测评估分类方法 Download PDFInfo
- Publication number
- CN116258908A CN116258908A CN202310255810.0A CN202310255810A CN116258908A CN 116258908 A CN116258908 A CN 116258908A CN 202310255810 A CN202310255810 A CN 202310255810A CN 116258908 A CN116258908 A CN 116258908A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- ground disaster
- sensing image
- training
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 38
- 238000011156 evaluation Methods 0.000 title claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 73
- 238000012795 verification Methods 0.000 claims abstract description 19
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 7
- 238000002372 labelling Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims abstract description 7
- 238000003786 synthesis reaction Methods 0.000 claims abstract description 7
- 230000006870 function Effects 0.000 claims description 30
- 230000008569 process Effects 0.000 claims description 14
- 238000010606 normalization Methods 0.000 claims description 9
- 230000011218 segmentation Effects 0.000 claims description 7
- 230000003321 amplification Effects 0.000 claims description 6
- 238000003199 nucleic acid amplification method Methods 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 238000013499 data model Methods 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000009795 derivation Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 abstract description 3
- 238000013507 mapping Methods 0.000 abstract description 2
- 238000005516 engineering process Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000012502 risk assessment Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/28—Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于无人机遥感影像数据的地灾预测评估分类方法,属于地质测绘技术领域。本发明包括以下步骤:S1:选取遥感影像数据与相应区域的数字高程数据进行数据合成,得到初始样本集;S2:对S1中得到的初始样本集进行预处理,得到预处理样本集;S3:对S2中的预处理样本集进行标签标记,得到地灾特征标签样本集;S4:构建训练网络模型,经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型;S5:将无人机采集到的遥感影像数据输入预测网络模型进行预测,通过预测网络模型进行地灾评估分类。本发明在少量的样本以及有限的算力支持下,高效、精准地识别遥感影像中的地灾类型与预测评估。
Description
技术领域
本发明涉及地质测绘技术领域,具体涉及一种基于无人机遥感影像数据的地灾预测评估分类方法。
背景技术
伴随科技的快速发展和进步,无人机遥感技术也获得了很大的提升,相关技术也在不断完善。利用无人机遥感技术开展地灾监测工作,可以获得相应的信息数据,并及时传输到相关决策部门,确保技术人员能够高效地开展信息数据处理工作。和传统的卫星处理技术相比,无人机遥感技术在图像分辨率上具有明显优势,清晰度较高,这对确保监测数据的准确性具有重要的意义。
地质灾害的频繁发生提醒着减灾防灾的严峻性,针对此情况,需要在地灾识别时对地灾区域进行制图,区分地灾边界,识别地灾的分布情况,以便使用这些信息为地灾调查研究、次生灾害预警和风险评估提供数据基础。地灾识别的首要工作即是选择识别方法,多年来,地灾识别的方法也经历了漫长地发展,早期多是依靠人工进行地灾识别,使用传统方法进行实地地质调绘,所得的结果虽然精确,但是存在较大的风险。在航空航天遥感技术发展后,针对无人机或卫星遥感影像又涌现了很多方法,针对影像解译分析,从目视解译到计算机判读,所有地灾识别方法都需要考虑的是识别的准确性。在大部分方法准确性已经能达到一定的程度的现在,如何在保证准确性的同时,针对大量数据,提高效率快速识别并准确分类评估成为了研究的热点。
发明内容
针对现有技术中存在的问题,本发明提供一种基于无人机遥感影像数据的地灾预测评估分类方法,其目的在于:在少量的样本以及有限的算力支持下,高效、精准地识别遥感影像中的地灾类型与预测评估。
本发明采用的技术方案如下:
一种基于无人机遥感影像数据的地灾预测评估分类方法,包括以下步骤:
S1:选取含有地灾特征的遥感影像数据与相应区域的数字高程数据进行数据合成,得到初始样本集;
S2:对S1中得到的初始样本集进行预处理,预处理包括:图像扩增、归一化处理,得到预处理样本集;
S3:对S2中的预处理样本集中的遥感影像数据进行地灾特征标签标记,得到地灾特征标签样本集;
S4:将S3中得到的地灾特征标签样本集输入语义分割网络构建训练网络模型,经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型;
S5:将无人机采集到的遥感影像数据输入预测网络模型进行预测,通过预测网络模型进行地灾评估分类。
优选的,所述S1中,选取空间分辨率为0.2m~0.9m范围的地灾遥感影像与相应区域的数字高程数据模型进行数据合成,得到含有数字高程数据的地灾遥感影像的初始样本集。
优选的,所述S2中的图像扩增包括:对图像中心进行裁剪;对图像颜色的对比度、饱和度和零度进行变换;对图像四个角和中心进行裁剪得到五分图像;对图像进行灰度变换;使用固定值进行像素填充;随机仿射变换;随机区域裁剪;随机水平翻转;随机旋转;随机垂直翻转。
优选的,所述S2中的归一化处理为:
将S1中得到的初始样本集输入层的原始图像统一、特征值大小范围调小,公式如下:
x′对应的是像素点经过图像归一化操作后的的像素值,x为待处理影像各点的像素值,min(x)和max(x)分别是图像中找到的最小和最大像素值。
优选的,所述S3的具体过程为:采用ArcGIS的编辑器将预处理样本集中遥感影像的地灾特征区域进行矢量图斑绘制,生成边界框,ArcGIS工具里的要素包络矩形转面生成最小包裹矩形,然后输出并保存为切片。
优选的,所述S4中构建训练网络模型的过程为:
使用基于深度学习框架Tensorflow的Mask RCNN算法进行训练和测试,采用人工标注以及部分公开数据集的标签标注样本进行识别训练,基于主干网络ResNet获取并输出Feature Map,然后经过特征金字塔FPN进行采样并合并地灾特征输出,得到训练网络模型。
优选的,所述S4中经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型的过程为:
S4中的语义分割网络为候选区域网络,通过候选区域网络,将训练网络模型输出的训练集的地灾特征和验证集的地灾特征均以每一个像素为中心生成锚框,其中训练集的锚框位置坐标为x_a,y_a,训练集的锚框宽、高为w_a,h_a,验证集的锚框位置坐标为x*,y*,偏移公式为:
借助验证集的锚框在有地灾特征标签样本集的各个图像上的移动,帮助候选区域网络训练,然后对训练集的锚框进行分类任务和回归任务,分类任务计算每个训练集的锚框得分,判断有无地灾的概率,回归任务是找到训练集的锚框位置,以左下、右上两点表示锚框的位置,以训练集的锚框得分情况排序,根据概率划分正负例;
候选区域网络分类基于Softmax函数,Softmax函数如下式:
其中aj表示j类别前向计算的概率,Sj为经过Softmax函数计算后的概率;
使用的交叉熵损失函数如下式:
其中yj表示真实标签,Sj表示概率;
SmoothL1函数:
对应损失函数
L=∑i∈{x,y,w,h}SmoothL1(ti-ti *) (7)
根据锚框的偏差值,通过SmoothL1 LOSS用偏移量可以计算损失值,代入损失函数求导后的结果可更新权重参数实现反向传播,即S4中所述的迭代,通过训练集与验证集的拟合程度判断是否完成模型训练,并得到预测网络模型。
优选的,所述S5中将无人机采集到的遥感影像数据输入预测网络模型进行预测的过程为:
将无人机采集到的遥感影像数据输入预测网络模型,得到预测网络模型结果,用ROI Align提取其对应的地灾特征,并在分类分支中判断这些地灾特征的类型,同时回归调整之前的验证集的锚框,其中ROI Align损失函数为:
在Mask分支中由全连接网络生成Mask,该项操作与Faster RCNN中的分类与回归操作并行;比较输入的无人机采集到的遥感影像的mask与预测网络模型的mask每个像素点信息,采用binary_cross_entropy二分类交叉熵损失函数:
其中yi为预测概率,y1i为真实概率,当且仅当两者值相同时,loss值为0达到理想值。预测和真实值的概率相差越大时,loss值也越大,根据loss值更改权重参数实现反向传播。
优选的,所述S5中的通过预测网络模型进行地灾评估分类过程为:
根据将无人机采集到的遥感影像数据输入预测网络模型得到的预测结果,对具有地灾特征的遥感影像进行评估分类,评估分类所使用的Mask RCNN的损失函数如下式:
L=Lcls+Lbox+Lmask (11)
其中损失函数各项分别是目标分类框的分类损失Lcls、回归损失Lbox和mask损失Lmask,在Faster RCNN上改进的Mask RCNN沿用了Faster RCNN的损失,对于m×m范围的roi,Lmask有m×m×类别的输出,对于每个像素都有对应的sigmoid函数,Lmask为所有像素二进制交叉熵的平均,对于影像首先识别出k分类的mask特征,然后把bounding box包围的mask区域映射为m×m的mask区域特征,然后计算其二值交叉熵平均并对具有地灾特征的遥感影像进行评估分类。
综上所述,由于采用了上述技术方案,本发明的有益效果是:
1.可识别出无人机遥感影像中的地灾特征,并对地灾类型进行分类评估;
2.本方案可以在相似度较高或者地灾特征不明显时保证无人机遥感影像识别提取地灾结果的可靠性;并且结合数字高程数据,相似度较高的无人机遥感影像并不会对识别提取结果产生影响。;
3.有效的减少了算力损耗,大幅的加速了对地灾特征的提取速度;
4.能够有效的对含有数字高程数据和不含有数字高程数据的模型输出结果的质量进行评估。根据学习率、损失值的大小和输入输出的数据集,实现模型的自动化微调。
附图说明
本发明将通过例子并参照附图的方式说明,其中:
图1为本发明的流程图。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请实施例的描述中,需要说明的是,术语“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,或者是该发明产品使用时惯常摆放的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
下面结合图1对本发明作详细说明。
如图1所示:
一种基于无人机遥感影像数据的地灾预测评估分类方法,包括以下步骤:
S1:选取含有地灾特征的遥感影像数据与相应区域的数字高程数据进行数据合成,得到初始样本集;
S2:对S1中得到的初始样本集进行预处理,预处理包括:图像扩增、归一化处理,得到预处理样本集;
S3:对S2中的预处理样本集中的遥感影像数据进行地灾特征标签标记,得到地灾特征标签样本集;
S4:将S3中得到的地灾特征标签样本集输入语义分割网络构建训练网络模型,经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型;
S5:将无人机采集到的遥感影像数据输入预测网络模型进行预测,通过预测网络模型进行地灾评估分类。
S1中,选取空间分辨率为0.2m~0.9m范围的地灾遥感影像与相应区域的数字高程数据模型进行数据合成,得到含有数字高程数据的地灾遥感影像的初始样本集。
S2中的图像扩增包括:对图像中心进行裁剪;对图像颜色的对比度、饱和度和零度进行变换;对图像四个角和中心进行裁剪得到五分图像;对图像进行灰度变换;使用固定值进行像素填充;随机仿射变换;随机区域裁剪;随机水平翻转;随机旋转;随机垂直翻转。
S2中的归一化处理为:
将S1中得到的初始样本集输入层的原始图像统一、特征值大小范围调小,公式如下:
x′对应的是像素点经过图像归一化操作后的的像素值,x为待处理影像各点的像素值,min(x)和max(x)分别是图像中找到的最小和最大像素值。
S3的具体过程为:采用ArcGIS的编辑器将预处理样本集中遥感影像的地灾特征区域进行矢量图斑绘制,生成边界框,ArcGIS工具里的要素包络矩形转面生成最小包裹矩形,然后输出并保存为切片。
S4中构建训练网络模型的过程为:使用基于深度学习框架Tensorflow的MaskRCNN算法进行训练和测试,采用人工标注以及部分公开数据集的标签标注样本进行识别训练,基于主干网络ResNet获取并输出Feature Map,然后经过特征金字塔FPN进行采样并合并地灾特征输出,得到训练网络模型。
S4中经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型的过程为:S4中的语义分割网络为候选区域网络,通过候选区域网络,将训练网络模型输出的训练集的地灾特征和验证集的地灾特征均以每一个像素为中心生成锚框,其中训练集的锚框位置坐标为x_a,y_a,训练集的锚框宽、高为w_a,h_a,验证集的锚框位置坐标为x*,y*,偏移公式为:
借助验证集的锚框在有地灾特征标签样本集的各个图像上的移动,帮助候选区域网络训练,然后对训练集的锚框进行分类任务和回归任务,分类任务计算每个训练集的锚框得分,判断有无地灾的概率,回归任务是找到训练集的锚框位置,以左下、右上两点表示锚框的位置,以训练集的锚框得分情况排序,根据概率划分正负例;候选区域网络分类基于Softmax函数,Softmax函数如下式:
其中aj表示j类别前向计算的概率,Sj为经过Softmax函数计算后的概率;使用的交叉熵损失函数如下式:
其中yj表示真实标签,Sj表示概率;
SmoothL1函数:
对应损失函数
L=∑i∈{x,y,w,h}SmoothL1(ti-ti *) (7)
根据锚框的偏差值,通过SmoothL1 LOSS用偏移量可以计算损失值,代入损失函数求导后的结果可更新权重参数实现反向传播,即S4中所述的迭代,通过训练集与验证集的拟合程度判断是否完成模型训练,并得到预测网络模型。
S5中将无人机采集到的遥感影像数据输入预测网络模型进行预测的过程为:将无人机采集到的遥感影像数据输入预测网络模型,得到预测网络模型结果,用ROI Align提取其对应的地灾特征,并在分类分支中判断这些地灾特征的类型,同时回归调整之前的验证集的锚框,其中ROI Align损失函数为:
在Mask分支中由全连接网络生成Mask,该项操作与Faster RCNN中的分类与回归操作并行;比较输入的无人机采集到的遥感影像的mask与预测网络模型的mask每个像素点信息,采用binary_cross_entropy二分类交叉熵损失函数:
其中yi为预测概率,y1i为真实概率,当且仅当两者值相同时,loss值为0达到理想值。预测和真实值的概率相差越大时,loss值也越大,根据loss值更改权重参数实现反向传播。
S5中的通过预测网络模型进行地灾评估分类过程为:根据将无人机采集到的遥感影像数据输入预测网络模型得到的预测结果,对具有地灾特征的遥感影像进行评估分类,评估分类所使用的Mask RCNN的损失函数如下式:
L=Lcls+Lbox+Lmask (11)
其中损失函数各项分别是目标分类框的分类损失Lcls、回归损失Lbox和mask损失Lmask,在Faster RCNN上改进的Mask RCNN沿用了Faster RCNN的损失,对于m×m范围的roi,Lmask有m×m×类别的输出,对于每个像素都有对应的sigmoid函数,Lmask为所有像素二进制交叉熵的平均,对于影像首先识别出k分类的mask特征,然后把bounding box包围的mask区域映射为m×m的mask区域特征,然后计算其二值交叉熵平均并对具有地灾特征的遥感影像进行评估分类。
以上所述实施例仅表达了本申请的具体实施方式,其描述较为具体和详细,但并不能因此而理解为对本申请保护范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请技术方案构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。
Claims (9)
1.一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,包括以下步骤:
S1:选取含有地灾特征的遥感影像数据与相应区域的数字高程数据进行数据合成,得到初始样本集;
S2:对S1中得到的初始样本集进行预处理,预处理包括:图像扩增、归一化处理,得到预处理样本集;
S3:对S2中的预处理样本集中的遥感影像数据进行地灾特征标签标记,得到地灾特征标签样本集;
S4:将S3中得到的地灾特征标签样本集输入语义分割网络构建训练网络模型,经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型;
S5:将无人机采集到的遥感影像数据输入预测网络模型进行预测,通过预测网络模型进行地灾评估分类。
2.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S1中,选取空间分辨率为0.2m~0.9m范围的地灾遥感影像与相应区域的数字高程数据模型进行数据合成,得到含有数字高程数据的地灾遥感影像的初始样本集。
3.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S2中的图像扩增包括:对图像中心进行裁剪;对图像颜色的对比度、饱和度和零度进行变换;对图像四个角和中心进行裁剪得到五分图像;对图像进行灰度变换;使用固定值进行像素填充;随机仿射变换;随机区域裁剪;随机水平翻转;随机旋转;随机垂直翻转。
5.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S3的具体过程为:采用ArcGIS的编辑器将预处理样本集中遥感影像的地灾特征区域进行矢量图斑绘制,生成边界框,ArcGIS工具里的要素包络矩形转面生成最小包裹矩形,然后输出并保存为切片。
6.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S4中构建训练网络模型的过程为:
使用基于深度学习框架Tensorflow的Mask RCNN算法进行训练和测试,采用人工标注以及部分公开数据集的标签标注样本进行识别训练,基于主干网络ResNet获取并输出Feature Map,然后经过特征金字塔FPN进行采样并合并地灾特征输出,得到训练网络模型。
7.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S4中经过迭代将训练网络模型输出的训练集与验证集进行拟合,判断是否完成模型训练,得到预测网络模型的过程为:
S4中的语义分割网络为候选区域网络,通过候选区域网络,将训练网络模型输出的训练集的地灾特征和验证集的地灾特征均以每一个像素为中心生成锚框,其中训练集的锚框位置坐标为x_a,y_a,训练集的锚框宽、高为w_a,h_a,验证集的锚框位置坐标为x*,y*,偏移公式为:
借助验证集的锚框在有地灾特征标签样本集的各个图像上的移动,帮助候选区域网络训练,然后对训练集的锚框进行分类任务和回归任务,分类任务计算每个训练集的锚框得分,判断有无地灾的概率,回归任务是找到训练集的锚框位置,以左下、右上两点表示锚框的位置,以训练集的锚框得分情况排序,根据概率划分正负例;
候选区域网络分类基于Softmax函数,Softmax函数如下式:
其中aj表示j类别前向计算的概率,Sj为经过Softmax函数计算后的概率;
使用的交叉熵损失函数如下式:
其中yj表示真实标签,Sj表示概率;
SmoothL1函数:
对应损失函数
L=∑i∈{x,y,w,h}SmoothL1(ti-ti *) (7)
根据锚框的偏差值,通过SmoothL1 LOSS用偏移量可以计算损失值,代入损失函数求导后的结果可更新权重参数实现反向传播,即S4中所述的迭代,通过训练集与验证集的拟合程度判断是否完成模型训练,并得到预测网络模型。
8.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S5中将无人机采集到的遥感影像数据输入预测网络模型进行预测的过程为:
将无人机采集到的遥感影像数据输入预测网络模型,得到预测网络模型结果,用ROIAlign提取其对应的地灾特征,并在分类分支中判断这些地灾特征的类型,同时回归调整之前的验证集的锚框,其中ROI Align损失函数为:
在Mask分支中由全连接网络生成Mask,该项操作与Faster RCNN中的分类与回归操作并行;比较输入的无人机采集到的遥感影像的mask与预测网络模型的mask每个像素点信息,采用binary_cross_entropy二分类交叉熵损失函数:
其中yi为预测概率,y1i为真实概率,当且仅当两者值相同时,loss值为0达到理想值。预测和真实值的概率相差越大时,loss值也越大,根据loss值更改权重参数实现反向传播。
9.根据权利要求1所述的一种基于无人机遥感影像数据的地灾预测评估分类方法,其特征在于,所述S5中的通过预测网络模型进行地灾评估分类过程为:
根据将无人机采集到的遥感影像数据输入预测网络模型得到的预测结果,对具有地灾特征的遥感影像进行评估分类,评估分类所使用的Mask RCNN的损失函数如下式:
L=Lcls+Lbox+Lmask (11)
其中损失函数各项分别是目标分类框的分类损失Lcls、回归损失Lbox和mask损失Lmask,在Faster RCNN上改进的Mask RCNN沿用了Faster RCNN的损失,对于m×m范围的roi,Lmask有m×m×类别的输出,对于每个像素都有对应的sigmoid函数,Lmask为所有像素二进制交叉熵的平均,对于影像首先识别出k分类的mask特征,然后把bounding box包围的mask区域映射为m×m的mask区域特征,然后计算其二值交叉熵平均并对具有地灾特征的遥感影像进行评估分类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310255810.0A CN116258908A (zh) | 2023-03-16 | 2023-03-16 | 一种基于无人机遥感影像数据的地灾预测评估分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310255810.0A CN116258908A (zh) | 2023-03-16 | 2023-03-16 | 一种基于无人机遥感影像数据的地灾预测评估分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116258908A true CN116258908A (zh) | 2023-06-13 |
Family
ID=86680798
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310255810.0A Pending CN116258908A (zh) | 2023-03-16 | 2023-03-16 | 一种基于无人机遥感影像数据的地灾预测评估分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116258908A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118172575A (zh) * | 2024-05-15 | 2024-06-11 | 济南市勘察测绘研究院 | 一种测绘数据智能管理系统 |
-
2023
- 2023-03-16 CN CN202310255810.0A patent/CN116258908A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN118172575A (zh) * | 2024-05-15 | 2024-06-11 | 济南市勘察测绘研究院 | 一种测绘数据智能管理系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110148130B (zh) | 用于检测零件缺陷的方法和装置 | |
US20220084186A1 (en) | Automated inspection system and associated method for assessing the condition of shipping containers | |
CN109241985B (zh) | 一种图像识别方法及装置 | |
CN112967243A (zh) | 一种基于yolo的深度学习芯片封装裂纹缺陷检测方法 | |
CN113920107A (zh) | 一种基于改进yolov5算法的绝缘子破损检测方法 | |
CN113160192A (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
CN111612784A (zh) | 一种基于分类优先yolo网络的钢板表面缺陷检测方法 | |
CN110135514B (zh) | 一种工件分类方法、装置、设备及介质 | |
CN110135327B (zh) | 一种基于多区域特征学习模型的驾驶员行为识别方法 | |
CN111242899B (zh) | 基于图像的瑕疵检测方法及计算机可读存储介质 | |
CN115439458A (zh) | 基于深度图注意力的工业图像缺陷目标检测算法 | |
CN113850749A (zh) | 训练缺陷侦测器的方法 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN115761513A (zh) | 一种半监督深度学习的山区大型滑坡智能遥感识别方法 | |
CN113393442A (zh) | 列车零部件异常检测方法、系统、电子设备及存储介质 | |
CN111507398A (zh) | 基于目标检测的变电站金属仪器锈蚀识别方法 | |
CN114549493A (zh) | 一种基于深度学习的磁芯缺陷检测系统及方法 | |
CN114972316A (zh) | 基于改进YOLOv5的电池壳端面缺陷实时检测方法 | |
CN116258908A (zh) | 一种基于无人机遥感影像数据的地灾预测评估分类方法 | |
CN113313678A (zh) | 一种基于多尺度特征融合的精子形态学自动分析方法 | |
CN110889418A (zh) | 一种气体轮廓识别方法 | |
CN113887455B (zh) | 一种基于改进fcos的人脸口罩检测系统及方法 | |
CN114170625A (zh) | 一种上下文感知、噪声鲁棒的行人搜索方法 | |
CN114663803A (zh) | 基于视频流的物流中心挂装类服装分类方法及装置 | |
CN112256906A (zh) | 在显示屏上标记批注的方法、装置和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |