CN117456470A - 一种基于航拍影像的供后用地监测方法及系统 - Google Patents
一种基于航拍影像的供后用地监测方法及系统 Download PDFInfo
- Publication number
- CN117456470A CN117456470A CN202311705281.6A CN202311705281A CN117456470A CN 117456470 A CN117456470 A CN 117456470A CN 202311705281 A CN202311705281 A CN 202311705281A CN 117456470 A CN117456470 A CN 117456470A
- Authority
- CN
- China
- Prior art keywords
- image
- land
- shooting
- aerial
- calculating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000012544 monitoring process Methods 0.000 title claims abstract description 36
- 238000003062 neural network model Methods 0.000 claims abstract description 23
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 13
- 238000003709 image segmentation Methods 0.000 claims abstract description 8
- 238000010276 construction Methods 0.000 claims description 40
- 230000011218 segmentation Effects 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 12
- 238000012795 verification Methods 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000000638 solvent extraction Methods 0.000 claims description 6
- 244000025254 Cannabis sativa Species 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 4
- 238000012360 testing method Methods 0.000 claims description 4
- 238000013075 data extraction Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 2
- 238000004458 analytical method Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 abstract description 2
- 238000001514 detection method Methods 0.000 abstract 1
- 230000006870 function Effects 0.000 description 9
- 230000008569 process Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
Abstract
本申请公开了一种基于航拍影像的供后用地监测方法及系统,方法包括:采用卡壳法计算拍摄地块的用地红线的最小外接矩形;根据所述最小外接矩形计算拍摄地块的拍摄点位置;利用蚁群算法规划最优航线;无人机根据所述最优航线航拍第一影像,并进行命名;根据所述第一影像的姿态参数和图片相关性,结合所述最小外接矩形的位置信息,匹配出对应的第一影像并进行归档分类,得到第二影像;收集所述第二影像的数据集并进行分类标记,将所述数据集输入至预先训练好的U‑net神经网络模型进行图像分割,得到地物分类标签图;根据所述分类标签图的类别占比,对用地状态作出判别。实现自动化供地状态多时相分析,达到检测预警的效果。
Description
技术领域
本申请涉及航拍影像用地监测技术领域,尤其涉及一种基于航拍影像的供后用地监测方法及系统。
背景技术
为加强土地管理,持续推进对建设用地供后开发利用实施全过程监管,实现从规划管理、土地储备、土地供应和供后监管全过程管控。需要对区域内历年国有土地出让(划拨)地块每月需定期进行无人机航拍监测,对用地状态作出判别。目前常规的无人机拍摄地块方式,需人工操控无人机至航拍点上方,手动调整飞行高度和相机角度进行拍摄;外业拍摄的照片根据卫星影像、用地红线位置以及作业员的记忆,人工分类整理每一期的拍摄照片;最后,根据照片对所摄地块的用地状态进行人工判别并记录。而这些方法存在以下不足:
(1)人工操控无人机拍摄,操作繁琐且作业效率低,难以分辨地块范围,易造成拍摄范围不全或漏拍等错误;
(2)无人机拍摄的照片文件名默认按数字顺序编号,无法按地块进行归档分类,人工整理资料工作量大;
(3)每期拍摄的照片数量多,后期人工判别地块的供地状态,效率低且无法有效对地块进行多时相的分析。
发明内容
本申请的主要目的在于克服现有技术的缺点与不足,提供一种基于航拍影像的供后用地监测方法及系统,能够自动规划最优航线,以通过航拍的影像有效地对地块进行多时相的分析。
第一方面,本申请提供了一种基于航拍影像的供后用地监测方法,方法包括下述步骤:
根据拍摄地块的用地红线资料,采用卡壳法计算用地红线的最小外接矩形;
根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置;
对所述拍摄地块进行分块,利用蚁群算法对所述分块内的所述拍摄点位置进行排序,规划最优航线;
无人机根据所述最优航线自动化航拍第一影像,并根据拍摄点位置和拍摄角度对所述航拍第一影像进行命名;所述命名是对所述第一影像的正视图、侧视图和俯视图进行命名;
根据所述第一影像的姿态参数和图片相关性,结合所述用地红线的最小外接矩形的位置信息,自动匹配出对应的第一影像并进行归档分类,得到第二影像;
收集所述第二影像的数据集并进行分类标记,将所述数据集输入至预先训练好的U-net神经网络模型进行图像分割,得到所述第二影像的地物分类标签图;所述U-net神经网络模型包括编码器-解码器;其中,所述编码器用于逐步压缩输入第二影像的特征;所述解码器用于将编码器得到的特征图还原为与输入第二影像相同尺寸的分割结果;
根据所述地物分类标签图的类别占比,对用地状态作出判别;所述用地状态包括阶段性闲置状态、施工状态和施工停止状态。
作为优选的技术方案,所述根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置是根据最小外接矩形四个角点坐标,以垂直于矩形长边作为无人机航向角,以相机俯仰角Picth的默认值、相机画面覆盖范围超出矩形区域预设值为初始参数,基于摄影测量共线方程计算无人机航高,最后根据后方交会原理计算拍摄点位置的坐标值,具体的计算步骤为:
首先,将相机俯仰角Picth设为默认值,相机垂直视场角Vfov为已知值,计算角θ1、θ2:
其次,根据相机高度CH、宽度CW、焦距f0、无人机航向角a以及第一影像画幅外扩系数k,计算拍摄点航高H:
其中,高度CH、宽度CW、焦距f0、无人机航向角a为已知数,k=1.2;若H>限高,则返回重新调整俯仰角Picth,直至H≤限高;
计算第一影像覆盖地面梯形高度Ht:
最后,计算得到拍摄点坐标X,Y:
其中,X0、Y0为外接矩形长边的中点坐标。
作为优选的技术方案,所述归档分类的步骤包括:
所述归档分类的步骤包括:
提取所述第一影像的信息;
根据所述第一影像的信息进行影像匹配;
根据第一影像匹配结果对第一影像进行分类和优化。
作为优选的技术方案,所述提取所述航拍第一影像的信息,具体为:
读取所述航拍第一影像的GPS点坐标、姿态角信息,并储存到信息字典exif;
读取所有用地红线的最小外接矩形shp的四个角点坐标并求取最小外接矩形的中心点坐标,同时读取最小外接矩形shp的属性信息,并储存到最小外接矩形shp属性字典;
遍历第一影像的信息字典exif,获取所述航拍第一影像的拍摄点的GPS点坐标、俯仰角、航偏角及拍摄高度;
遍历所述最小外接矩形shp属性字典,获取所述最小外接矩形shp的中心坐标。
作为优选的技术方案,所述根据所述航拍第一影像的信息进行影像匹配;具体为:
计算拍摄点位置与最小外接矩形shp中心点的水平理论距离s,通过拍摄高度与水平理论距离s计算实际拍摄俯仰角jd;
通过第一影像航偏角及水平理论距离s计算实际航拍的第一影像中心地面点二维坐标;
计算用地红线最小外接矩形中心与实际计算航拍的第一影像中心地面点的水平距离s_cs,预设水平距离s_cs的阈值,若小于预设的阈值则列入匹配第一影像列表;
此外,将满足实际拍摄俯仰角jd和水平距离s_cs参数的第一影像匹配后,利用航偏角与最小外接矩形长短边的角度关系设置角度参数jdcs,将与最小外接矩形长边垂直的标记为正视图,与最小外接矩形短边垂直的标记为侧视图,俯仰角p>85°标记为俯视图。
作为优选的技术方案,所述根据第一影像匹配结果对第一影像进行分类和优化;具体为:
根据数据提取阶段获取的最小外接矩形shp字段属性信息,按单位名称自动生成文件夹;
利用数据匹配结果与生成的文件夹名字挂接,将匹配结果按单位名称分类放入文件夹;
若存在不同最小外接矩形shp之间距离近且面积小,则存在计算的空间距离S'相近,出现误匹配情况,如果匹配到的第一影像数量大于3,则通过遍历上一期的第一影像,利用sklearn库的metrics.mutual_info_score函数计算上一期的第一影像与匹配第一影像的互信息值,根据互信息值最大的上一期第一影像文件名获取到对应的地块信息,若列表中有3张第一影像匹配到同一地块,则认为3张第一影像的互信息值匹配结果正确;若小于3张第一影像,则认为互信息值匹配无效,第一影像列入手动整理的名单,后续进行人工判别整理。
作为优选的技术方案,所述收集所述第二影像的数据集并进行分类标记,包括:
收集所述第二影像的数据集,并将所述数据集划分为训练样本集和验证集;
对所述第二影像的数据集进行旋转、缩放和翻转,以调整所述第二影像的亮度和对比度,并随机增加高斯噪声,同时将所述第二影像切分为预设尺寸的像素图像;
将所述第二影像分类多类地物,分别对应不同的分类代码,并采用人工矢量化,判断所述第二影像对应的地物类别并进行标记,再通过矢量转栅格数据操作,制作分类标签图;所述多类地物,包括裸地、草地、植被、建筑、建设用地、道路、水体及农用。
作为优选的技术方案,所述编码器包括五个下采样层,下采样层之间对输入的第二影像数据集采用两个3x3卷积层和一个2x2池化层进行下采样,最后输出影像的特征图;
所述解码器包括四个上采样层,上采样层之间对所述特征图进行一次反卷积操作,一次跳跃连接加上两次3x3的卷积操作,并在U-net神经网络模型的末端使用一次1×1的卷积,最后输出U-net神经网络模型分割结果;
在得到所述分割结果后,对所述分割结果与真实标签进行比较,采用JaccardLoss损失函数评估模型,并通过反向传播算法更新模型参数,使得模型逐渐学习到更准确的分割结果;
最后,使用验证集来评估模型的性能,计算验证集上的损失,直至测试集损失函数收敛,得到训练好的U-net神经网络模型。
作为优选的技术方案,所述阶段性闲置状态的判别条件包括:草地和植被占比增加,且建筑和建设用地占比无明显增加、裸地占比无明显变化、草地和植被占比增加,裸地占比减少的情况持续半年;当满足其中一种条件,则判别为闲置未动工,作闲置用地提醒;
所述施工状态的判别条件为:
建筑和建设用地占明显增加,判别为动工提示,经人工判断后列入正在动工列表;
所述施工停止状态的判别条件为:
已列入动工列表的地块,连续半年占比趋于稳定,判别为施工停止状态,作施工停止状态提醒;需经人工判断是否属于工程已竣工,再列入已竣工列表。
第二方面,本申请提供了一种基于航拍影像的供后用地监测系统,应用于所述的基于航拍影像的供后用地监测方法,
包括外接矩形模块、拍摄点位置模块、规划航线模块、影像命名模块、归档分类模块、训练模型模块以及状态判别模块;
所述外接矩形模块,用于根据拍摄地块的用地红线资料,采用卡壳法计算用地红线的最小外接矩形;
所述拍摄点位置模块,用于根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置;
所述规划航线模块,用于对所述拍摄地块进行分块,利用蚁群算法对所述分块内的所述拍摄点位置进行排序,规划最优航线;
所述影像命名模块,用于无人机根据所述最优航线自动化航拍第一影像,并根据拍摄点位置和拍摄角度对所述航拍第一影像进行命名;所述命名是对所述第一影像的正视图、侧视图和俯视图进行命名;
所述归档分类模块,用于根据所述第一影像的姿态参数和图片相关性,结合所述最小外接矩形的位置信息,自动匹配出对应的第一影像并进行归档分类,得到第二影像;
所述训练模型模块,用于收集所述第二影像的数据集并进行分类标记,将所述数据集输入至预先训练好的U-net神经网络模型进行图像分割,得到所述第二影像的地物分类标签图;所述U-net神经网络模型包括编码器-解码器;其中,所述编码器用于逐步压缩输入第二影像的特征;所述解码器用于将编码器得到的特征图还原为与输入第二影像相同尺寸的分割结果;
所述状态判别模块,用于根据所述地物分类标签图的类别占比,对用地状态作出判别;所述用地状态包括阶段性闲置状态、施工状态和施工停止状态。
综上所述,与现有技术相比,本申请提供的技术方案带来的有效效果至少包括:
1.利用蚁群算法对一个区块内的拍摄点进行排序,自动规划最优航线;
2.无人机自动执行规划航线拍摄任务,无需人工干涉,提高外业效率,为多时相监测提供视角一致的影像;
3.影像自动归档分类可以避免人工整理归档过程产生的错误,提高供后用地项目的管理效率;
4.基于U-net神经网络的图像分割模型可对每一期的影像地物进行分类,根据地物类别的变化比例可分析出供地状态的变化,进而实现自动化预警,减少人工判别的工作量。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本申请一个实施例提供的一种基于航拍影像的供后用地监测方法的流程图;
图2为本申请一个实施例无人机相机与拍摄目标空间关系示意图;
图3为本申请一个实施例无人机相机倾斜拍摄示意图;
图4为本申请一个实施例提供的一种基于航拍影像的供后用地监测系统的方框图。
具体实施方式
为了使本技术领域的人员更好地理解本申请方案,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述。显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本申请所描述的实施例可以与其它实施例相结合。
请参阅图1,在本申请的一个实施例中提供了一种基于航拍影像的供后用地监测方法,包括下述步骤:
S1、根据拍摄地块的用地红线资料,采用卡壳法计算用地红线的最小外接矩形;
进一步的,所述用地红线资料,主要为CAD矢量图形文件;
S2、根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置;
具体的,根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置,步骤为:
根据最小外接矩形四个角点坐标,以垂直于矩形长边作为无人机航向角,以相机俯仰角Picth的默认值-50°、相机画面覆盖范围超出矩形区域20%为初始参数,基于摄影测量共线方程计算无人机航高,如果航高低于无人机最低飞行高度(最低飞行高度需根据现场建构筑物高度人为设定),则以最低飞行高度为航高;反之,如果航高高于无人机限飞高度(大疆无人机限高500米,部分区域限高120米),则以限飞高度为航高;以1°为步长逐步调整相机俯仰角Picth,直至相机画幅覆盖范围超出矩形区域20%,最后根据后方交会原理计算拍摄点位置的坐标值,其具体的计算过程为:
请参阅图3,首先,将相机俯仰角Picth设为默认值-50°,相机垂直视场角Vfov为已知值,计算角θ1、θ2:
其次,根据相机高度CH、宽度CW、焦距f0、无人机航向角a以及第一影像画幅外扩系数k,计算航高H:
其中,高度CH、宽度CW、焦距f0、无人机航向角a为已知数,k=1.2;若H>限高,则返回重新调整俯仰角Picth,直至H≤限高;
请参阅图2,计算第一影像覆盖地面梯形高度Ht:
最后,计算得到拍摄点坐标X,Y:
其中,X0、Y0为外接矩形长边的中点坐标。
S3、对所述拍摄地块进行分块,利用蚁群算法对所述分块内的所述拍摄点位置进行排序,规划最优航线;
进一步的,根据无人机的续航、信号条件、交通条件等,对所有拍摄地块作业区域进行分块;然后基于蚁群算法,以最短飞行路径为目标函数,将分块内的拍摄点位置进行排序,得到最优的航线。
S4、无人机根据所述最优航线自动化航拍第一影像,并根据拍摄点位置和拍摄角度对所述航拍第一影像进行命名;所述命名是对所述第一影像的正视图、侧视图和俯视图进行命名;
进一步的,无人机以一个月为一个周期,每拍摄一次,即可获取所有地块的正视、侧视以及俯视三个方向的影像。
S5、根据所述第一影像的姿态参数和图片相关性,结合所述用地红线的最小外接矩形的位置信息,自动匹配出对应的第一影像并进行归档分类,得到第二影像;
具体的,归档分类包括:
S51、提取所述第一影像的信息;
S51-1、读取所述航拍第一影像的GPS点坐标、姿态角信息,并储存到信息字典exif;
S51-2、读取所有用地红线的最小外接矩形shp的四个角点坐标并求取最小外接矩形的中心点坐标,同时读取最小外接矩形shp的属性信息,并储存到最小外接矩形shp属性字典;所述最小外接矩形shp的属性信息包括地块使用者、编号和拍摄类型;
S51-3、遍历第一影像的信息字典exif(第一层),获取第一影像的拍摄点的GPS点坐标、俯仰角、航偏角及拍摄高度;
S51-4、遍历最小外接矩形shp属性字典(第二层),获取所述最小外接矩形shp的中心坐标。
S52、根据所述第一影像的信息进行影像匹配;
S52-1、计算拍摄点位置与最小外接矩形shp中心点的水平理论距离s,通过拍摄高度与水平距离s计算实际拍摄俯仰角jd;信息字典exif中储存的俯仰角为航线设置角度,不是实际俯仰角,实际计算角度jd设置阈值为30°、-60°满足正视和侧视要求,设置jd阈值为80°、-90°满足俯视角度要求;
S52-2、通过第一影像航偏角及水平理论距离s计算实际航拍的第一影像中心地面点二维坐标;
S52-3、计算项目用地红线最小外接矩形与实际计算拍摄的第一影像的中心地面的水平距离s_cs,设置水平距离s_cs的阈值为30米,若小于预设的阈值则列入匹配第一影像列表;
S52-4、将满足的实际拍摄俯仰角jd和scs参数的第一影像匹配后,利用航偏角与用地红线最小外接矩形长短边的角度关系设置角度参数jdcs,将与最小外接矩形长边垂直的标记为正视图,与最小外接矩形短边垂直的标记为侧视图,俯仰角p>85°标记为俯视图。(根据航线规划软件定义,拍摄正视图必定与矩形长边平行,拍摄侧视图必定与矩形短边平行)
S53、根据第一影像匹配结果对第一影像进行分类和优化,具体为:
S53-1、根据数据提取阶段获取的最小外接矩形shp字段属性信息,按单位名称自动生成文件夹;
S53-2、利用数据匹配结果与生成的文件夹名字挂接,将匹配结果按单位名称分类放入文件夹;
S53-3、若存在不同最小外接矩形shp之间距离近且面积小,则存在计算的空间距离S'相近,出现误匹配情况,如果匹配到的第一影像数量大于3;则通过遍历上一期的第一影像,利用sklearn库的metrics.mutual_info_score函数计算上一期的第一影像与匹配第一影像的互信息值,根据互信息值最大的上一期第一影像文件名获取到对应的地块信息,若列表中有3张第一影像匹配到同一地块,则认为该3张第一影像的互信息值匹配结果正确;若小于3张则认为互信息值匹配无效,第一影像列入手动整理的名单,后续进行人工判别整理。
S6、收集所述第二影像的数据集并进行分类标记,将所述数据集输入至预先训练好的U-net神经网络模型进行图像分割,得到所述第二影像的地物分类标签图;所述U-net神经网络模型包括编码器-解码器;其中,所述编码器用于逐步压缩输入第二影像的特征;所述解码器用于将编码器得到的特征图还原为与输入第二影像相同尺寸的分割结果;
S61、所述第二影像进行像素分类标记,从而构建数据集,具体步骤包括:
S61-1、收集并准备用于训练和测试的多个地块多期的航拍影像,随机数据集划分,构建训练样本集:将70%作为数据集,30%作为验证集;
S61-2、数据集增强:对影像进行几何变换(旋转、缩放、翻转)、调整影像亮度和对比度、随机增加高斯噪声,将影像切分成512*512像素图像;
S61-3、制作分类标签图:分为裸地、草地、植被、建筑、建设用地、道路、水体、农用地等8类地物,分别对应1~8的分类代码;采用人工矢量化,判断航拍影像对应的地物类别并进行标记,再通过矢量转栅格数据操作,制作分类标签图;
S62、U-net神经网络模型;
S62-1、所述编码器包括五个下采样层,下采样层之间对输入的第二影像数据集采用两个3x3卷积层和一个2x2池化层(步长为2)组成的模块进行下采样,最后输出影像的特征图;
S62-2、所述解码器包括四个上采样层,上采样层之间对所述特征图进行一次反卷积操作,一次跳跃连接加上两次3x3的卷积操作,并在U-net神经网络模型的末端使用一次1×1的卷积,最后输出U-net神经网络模型的分割结果;
S62-3、在得到所述分割结果后,对所述分割结果与真实标签进行比较,采用Jaccard Loss损失函数评估模型,即用于衡量模型预测结果与真实标签之间的相似性;并通过反向传播算法更新模型参数,使得模型逐渐学习到更准确的分割结果;训练过程会持续多个周期,每个周期遍历一次整个训练集;
S62-4、最后,使用验证集来评估模型的性能,计算验证集上的损失,直至测试集损失函数收敛,得到训练好的U-net神经网络模型。
S7、根据所述地物分类标签图的类别占比,对用地状态作出判别;所述用地状态包括阶段性闲置状态、施工状态和施工停止状态。
具体的,所述阶段性闲置状态的判别条件包括:(1)草地和植被占比增加,且建筑和建设用地占比无明显增加、(2)裸地占比无明显变化、(3)草地和植被占比增加,裸地占比减少的情况持续半年;当满足这三种条件中的一种,即可判别为闲置未动工,作闲置用地提醒;
所述施工状态的判别条件为:
建筑和建设用地占明显增加,判别为动工提示,经人工判断后列入正在动工列表;
所述施工停止状态的判别条件为:
已列入动工列表的地块,连续半年占比趋于稳定,判别为施工停止状态,作施工停止状态提醒;需经人工判断是否属于工程已竣工,再列入已竣工列表。
综上所述,本申请通过计算用地红线的最小外接矩形,并根据外接矩形计算拍摄点位置,采用蚁群算法规划最优航线,实现无人机自动化外业拍摄采集用地影像,提高了拍摄效率,且使得拍摄范围更全面;同时,针对外业航拍影像按项目归档分类繁琐的问题,利用每期航拍影像的姿态参数和图片相关性,结合每期供后用地红线外接矩形的位置信息,自动匹配出项目对应的航拍影像并进行归档分类;最后采用基于U-net神经网络的航拍影像分类识别方法,分析地块不同时相的变化,自动预警,减少后期人工干预工作量。
需要说明的是,对于前述的各方法实施例,为了简便描述,将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某些步骤可以采用其它顺序或者同时进行。
基于与上述实施例中的一种基于航拍影像的供后用地监测方法相同的思想,本申请还提供了一种基于航拍影像的供后用地监测系统,该系统可用于执行上述一种基于航拍影像的供后用地监测方法。为了便于说明,一种基于航拍影像的供后用地监测系统实施例的结构示意图中,仅仅示出了与本申请实施例相关的部分,本领域技术人员可以理解,图示结构并不构成对装置的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
请参阅图4,在本申请的另一个实施例中,提供了一种航拍影像的供后用地监测系统100,该系统包括外接矩形模块101、拍摄点位置模块102、规划航线模块103、影像命名模块104、归档分类模块105、训练模型模块106以及状态判别模块107;
所述外接矩形模块101,用于根据收集到的拍摄地块的用地红线资料,采用卡壳法计算用地红线的最小外接矩形;
所述拍摄点位置模块102,用于根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置;
所述规划航线模块103,用于对所述拍摄地块进行分块,利用蚁群算法对分块内的拍摄点位置进行排序,规划最优航线;
所述影像命名模块104,用于无人机根据所述最优航线自动化航拍第一影像,并根据拍摄点位置和拍摄角度对所述航拍第一影像进行命名;
所述归档分类模块105,用于根据所述第一影像的姿态参数和图片相关性,结合所述最小外接矩形的位置信息,自动匹配出对应的第一影像的命名并进行归档分类,得到第二影像;
所述训练模型模块106,用于对所述第二影像进行像素分类标记,从而构建数据集,将所述数据集输入至预先训练好的U-net神经网络模型进行图像分割,得到所述第二影像的地物分类标签图;所述U-net神经网络模型包括编码器-解码器;其中,所述编码器用于逐步压缩输入影像的特征;所述解码器用于将编码器得到的特征图还原为与输入第二影像相同尺寸的分割结果;
所述状态判别模块107,用于根据所述地物分类标签图的类别占比,对用地状态作出判别;所述用地状态包括阶段性闲置状态、施工状态和施工停止状态。
需要说明的是,本申请的一种基于航拍影像的供后用地监测系统与本申请的一种基于航拍影像的供后用地监测方法一一对应,在上述一种基于航拍影像的供后用地监测方法的实施例阐述的技术特征及其有益效果均适用于一种基于航拍影像的供后用地监测系统的实施例中,具体内容可参见本申请方法实施例中的叙述,此处不再赘述,特此声明。
此外,上述实施例的一种基于航拍影像的供后用地监测系统的实施方式中,各程序模块的逻辑划分仅是举例说明,实际应用中可以根据需要,例如出于相应硬件的配置要求或者软件的实现的便利考虑,将上述功能分配由不同的程序模块完成,即将所述一种基于航拍影像的供后用地监测系统的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分功能。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
上述实施例为本申请较佳的实施方式,但本申请的实施方式并不受上述实施例的限制,其他的任何未背离本申请的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本申请的保护范围之内。
Claims (10)
1.一种基于航拍影像的供后用地监测方法,其特征在于,包括下述步骤:
根据拍摄地块的用地红线资料,采用卡壳法计算用地红线的最小外接矩形;
根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置;
对所述拍摄地块进行分块,利用蚁群算法对分块内的所述拍摄点位置进行排序,规划最优航线;
无人机根据所述最优航线自动化航拍第一影像,并根据拍摄点位置和拍摄角度对所述航拍第一影像进行命名;所述命名是对所述第一影像的正视图、侧视图和俯视图进行命名;
根据所述第一影像的姿态参数和图片相关性,结合所述最小外接矩形的位置信息,自动匹配出对应的第一影像并进行归档分类,得到第二影像;
收集所述第二影像的数据集并进行分类标记,将所述数据集输入至预先训练好的U-net神经网络模型进行图像分割,得到所述第二影像的地物分类标签图;所述U-net神经网络模型包括编码器-解码器;其中,所述编码器用于逐步压缩输入第二影像的特征;所述解码器用于将编码器得到的特征图还原为与输入第二影像相同尺寸的分割结果;
根据所述地物分类标签图的类别占比,对用地状态作出判别;所述用地状态包括阶段性闲置状态、施工状态和施工停止状态。
2.根据权利要求1所述基于航拍影像的供后用地监测方法,其特征在于,所述根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置是根据最小外接矩形四个角点坐标,以垂直于矩形长边作为无人机航向角,以相机俯仰角Picth的默认值、相机画面覆盖范围超出矩形区域预设值为初始参数,基于摄影测量共线方程计算无人机航高,最后根据后方交会原理计算拍摄点位置的坐标值,具体的计算步骤为:
首先,将相机俯仰角Picth设为默认值,相机垂直视场角Vfov为已知值,计算角θ1、θ2:
其次,根据相机高度CH、宽度CW、焦距f0、无人机航向角a以及第一影像画幅外扩系数k,计算拍摄点航高H:
其中,高度CH、宽度CW、焦距f0、无人机航向角a为已知数,k=1.2;若H>限高,则返回重新调整俯仰角Picth,直至H≤限高;
计算第一影像覆盖地面梯形高度Ht:
最后,计算得到拍摄点坐标X,Y:
其中,X0、Y0为外接矩形长边的中点坐标。
3.根据权利要求1所述基于航拍影像的供后用地监测方法,其特征在于,所述归档分类的步骤包括:
提取所述第一影像的信息;
根据所述第一影像的信息进行影像匹配;
根据第一影像匹配结果对第一影像进行分类和优化。
4.根据权利要求3所述基于航拍影像的供后用地监测方法,其特征在于,所述提取所述航拍第一影像的信息,具体为:
读取所述航拍第一影像的GPS点坐标、姿态角信息,并储存到信息字典exif;
读取所有用地红线的最小外接矩形shp的四个角点坐标并求取最小外接矩形的中心点坐标,同时读取最小外接矩形shp的属性信息,并储存到最小外接矩形shp属性字典;
遍历第一影像的信息字典exif,获取所述航拍第一影像的拍摄点的GPS点坐标、俯仰角、航偏角及拍摄高度;
遍历所述最小外接矩形shp属性字典,获取所述最小外接矩形shp的中心坐标。
5.根据权利要求3所述基于航拍影像的供后用地监测方法,其特征在于,所述根据所述航拍第一影像的信息进行影像匹配;具体为:
计算拍摄点位置与最小外接矩形shp中心点的水平理论距离s,通过拍摄高度与水平理论距离s计算实际拍摄俯仰角jd;
通过第一影像航偏角及水平理论距离s计算实际航拍的第一影像中心地面点二维坐标;
计算用地红线最小外接矩形中心与实际计算航拍的第一影像中心地面点的水平距离s_cs,预设水平距离s_cs的阈值,若小于预设的阈值则列入匹配第一影像列表;
此外,将满足实际拍摄俯仰角jd和水平距离s_cs参数的第一影像匹配后,利用航偏角与最小外接矩形长短边的角度关系设置角度参数jdcs,将与最小外接矩形长边垂直的标记为正视图,与最小外接矩形短边垂直的标记为侧视图,俯仰角p>85°标记为俯视图。
6.根据权利要求3所述基于航拍影像的供后用地监测方法,其特征在于,所述根据第一影像匹配结果对第一影像进行分类和优化;具体为:
根据数据提取阶段获取的最小外接矩形shp字段属性信息,按单位名称自动生成文件夹;
利用数据匹配结果与生成的文件夹名字挂接,将匹配结果按单位名称分类放入文件夹;
若存在不同最小外接矩形shp之间距离近且面积小,则存在计算的空间距离S'相近,出现误匹配情况,如果匹配到的第一影像数量大于3,则通过遍历上一期的第一影像,利用sklearn库的metrics.mutual_info_score函数计算上一期的第一影像与匹配第一影像的互信息值,根据互信息值最大的上一期第一影像文件名获取到对应的地块信息,若列表中有3张第一影像匹配到同一地块,则认为3张第一影像的互信息值匹配结果正确;若小于3张第一影像,则认为互信息值匹配无效,第一影像列入手动整理的名单,后续进行人工判别整理。
7.根据权利要求1所述基于航拍影像的供后用地监测方法,其特征在于,所述收集所述第二影像的数据集并进行分类标记,包括:
收集所述第二影像的数据集,并将所述数据集划分为训练样本集和验证集;
对所述第二影像的数据集进行旋转、缩放和翻转,以调整所述第二影像的亮度和对比度,并随机增加高斯噪声,同时将所述第二影像切分为预设尺寸的像素图像;
将所述第二影像分类多类地物,分别对应不同的分类代码,并采用人工矢量化,判断所述第二影像对应的地物类别并进行标记,再通过矢量转栅格数据操作,制作分类标签图;所述多类地物,包括裸地、草地、植被、建筑、建设用地、道路、水体及农用。
8.根据权利要求1所述基于航拍影像的供后用地监测方法,其特征在于,所述编码器包括五个下采样层,下采样层之间对输入的第二影像数据集采用两个3x3卷积层和一个2x2池化层进行下采样,最后输出影像的特征图;
所述解码器包括四个上采样层,上采样层之间对所述特征图进行一次反卷积操作,一次跳跃连接加上两次3x3的卷积操作,并在U-net神经网络模型的末端使用一次1×1的卷积,最后输出U-net神经网络模型的分割结果;
在得到所述分割结果后,对所述分割结果与真实标签进行比较,采用Jaccard Loss损失函数评估模型,并通过反向传播算法更新模型参数,使模型逐渐学习到更准确的分割结果;
最后,使用验证集来评估模型的性能,计算验证集上的损失,直至测试集损失函数收敛,得到训练好的U-net神经网络模型。
9.根据权利要求1所述基于航拍影像的供后用地监测方法,其特征在于,所述阶段性闲置状态的判别条件包括:草地和植被占比增加,且建筑和建设用地占比无明显增加、裸地占比无明显变化、草地和植被占比增加,裸地占比减少的情况持续半年;当满足其中一种条件,则判别为闲置未动工,作闲置用地提醒;
所述施工状态的判别条件为:
建筑和建设用地占明显增加,判别为动工提示,经人工判断后列入正在动工列表;
所述施工停止状态的判别条件为:
已列入动工列表的地块,连续半年占比趋于稳定,判别为施工停止状态,作施工停止状态提醒;需经人工判断是否属于工程已竣工,再列入已竣工列表。
10.一种基于航拍影像的供后用地监测系统,其特征在于,应用于权利要求1-9中任一项所述的基于航拍影像的供后用地监测方法,包括外接矩形模块、拍摄点位置模块、规划航线模块、影像命名模块、归档分类模块、训练模型模块以及状态判别模块;
所述外接矩形模块,用于根据拍摄地块的用地红线资料,采用卡壳法计算用地红线的最小外接矩形;
所述拍摄点位置模块,用于根据所述最小外接矩形计算拍摄地块每宗地的拍摄点位置;
所述规划航线模块,用于对所述拍摄地块进行分块,利用蚁群算法对分块内的所述拍摄点位置进行排序,规划最优航线;
所述影像命名模块,用于无人机根据所述最优航线自动化航拍第一影像,并根据拍摄点位置和拍摄角度对所述航拍第一影像进行命名;所述命名是对所述第一影像的正视图、侧视图和俯视图进行命名;
所述归档分类模块,用于根据所述第一影像的姿态参数和图片相关性,结合所述最小外接矩形的位置信息,自动匹配出对应的第一影像并进行归档分类,得到第二影像;
所述训练模型模块,用于收集所述第二影像的数据集并进行分类标记,将所述数据集输入至预先训练好的U-net神经网络模型进行图像分割,得到所述第二影像的地物分类标签图;所述U-net神经网络模型包括编码器-解码器;其中,所述编码器用于逐步压缩输入第二影像的特征;所述解码器用于将编码器得到的特征图还原为与输入第二影像相同尺寸的分割结果;
所述状态判别模块,用于根据所述地物分类标签图的类别占比,对用地状态作出判别;所述用地状态包括阶段性闲置状态、施工状态和施工停止状态。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311705281.6A CN117456470A (zh) | 2023-12-12 | 2023-12-12 | 一种基于航拍影像的供后用地监测方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311705281.6A CN117456470A (zh) | 2023-12-12 | 2023-12-12 | 一种基于航拍影像的供后用地监测方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117456470A true CN117456470A (zh) | 2024-01-26 |
Family
ID=89583896
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311705281.6A Pending CN117456470A (zh) | 2023-12-12 | 2023-12-12 | 一种基于航拍影像的供后用地监测方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117456470A (zh) |
-
2023
- 2023-12-12 CN CN202311705281.6A patent/CN117456470A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103337052B (zh) | 面向宽幅遥感影像的自动几何纠正方法 | |
CN103218783B (zh) | 基于控制点影像数据库的卫星遥感图像快速几何纠正方法 | |
AU2015404580B2 (en) | Condition detection using image processing | |
AU2015404215B2 (en) | Vegetation management for power line corridor monitoring using computer vision | |
AU2023206133A1 (en) | System and method for detecting features in aerial images using disparity mapping and segmentation techniques | |
Viswanathan et al. | Vision based robot localization by ground to satellite matching in gps-denied situations | |
CN112084869B (zh) | 一种基于紧致四边形表示的建筑物目标检测方法 | |
Alvioli et al. | Topography-driven satellite imagery analysis for landslide mapping | |
US11288953B2 (en) | Wildfire defender | |
CN113706480A (zh) | 一种基于关键点多尺度特征融合的点云3d目标检测方法 | |
CN103235810A (zh) | 遥感影像控制点数据智能检索方法 | |
CN112766417A (zh) | 一种利用现场照片识别目标地块土地利用现状地类的方法及系统 | |
CN107563366A (zh) | 一种定位方法及装置、电子设备 | |
CN112396701A (zh) | 卫星图像的处理方法、装置、电子设备和计算机存储介质 | |
CN109657540B (zh) | 枯死树定位方法及系统 | |
CN110636248B (zh) | 目标跟踪方法与装置 | |
EP3376160A1 (en) | Method and system for identifying urban objects | |
Li et al. | 3D map system for tree monitoring in hong kong using google street view imagery and deep learning | |
CN115867939A (zh) | 用于空中到地面配准的系统和方法 | |
Koc-San et al. | A model-based approach for automatic building database updating from high-resolution space imagery | |
CN117456470A (zh) | 一种基于航拍影像的供后用地监测方法及系统 | |
CN115376018A (zh) | 建筑物高度及占地面积计算方法、装置、设备及存储介质 | |
CN113887544B (zh) | 图像处理方法、装置、电子设备及计算机可读存储介质 | |
Liang et al. | Efficient match pair selection for matching large-scale oblique UAV images using spatial priors | |
CN113836251A (zh) | 一种认知地图构建方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |