CN116486282A - 一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质 - Google Patents
一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质 Download PDFInfo
- Publication number
- CN116486282A CN116486282A CN202310613134.XA CN202310613134A CN116486282A CN 116486282 A CN116486282 A CN 116486282A CN 202310613134 A CN202310613134 A CN 202310613134A CN 116486282 A CN116486282 A CN 116486282A
- Authority
- CN
- China
- Prior art keywords
- category
- sample
- data
- training
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000004519 manufacturing process Methods 0.000 title claims abstract description 20
- 238000003860 storage Methods 0.000 title claims abstract description 8
- 238000012549 training Methods 0.000 claims abstract description 59
- 238000012795 verification Methods 0.000 claims abstract description 19
- 239000011159 matrix material Substances 0.000 claims abstract description 13
- 238000002372 labelling Methods 0.000 claims abstract description 10
- 238000000034 method Methods 0.000 claims description 19
- 238000001914 filtration Methods 0.000 claims description 15
- 238000000605 extraction Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 238000010276 construction Methods 0.000 abstract description 6
- 239000000284 extract Substances 0.000 abstract 1
- 238000005259 measurement Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000002159 abnormal effect Effects 0.000 description 1
- 238000005054 agglomeration Methods 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005305 interferometry Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 239000003643 water by type Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/188—Vegetation
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Molecular Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Astronomy & Astrophysics (AREA)
- Remote Sensing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质,包括基于图像中的各个地物,确定降高区域类别,降高区域类别包括植被和房屋建筑;从图像中选取局部区域作为样本区;对样本区中每个像素进行类别标注,获得训练样本,训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本;在Tensor Flow框架下,训练U‑Net模型;将待测试图像输入至训练完成的U‑Net模型中,获得分类预测数据;基于混淆矩阵对分类预测数据进行精度验证,符合,提取到降高区域数据,不符合,调整U‑Net模型参数并修改训练样本重新训练直至符合,基于降高区域数据,制作数字高程模型。本发明使用的U‑Net模型,自动提取降高区域,有效提高了DEM的生产效率。
Description
技术领域
本发明涉及立体卫星数据图像处理技术领域,具体涉及一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质。
背景技术
数字高程模型(digital elevation model,DEM)是通过规则格网点描述地面高程信息的栅格数据集,在工程测量、地形三维建模、辅助遥感影像分类、地质勘察参考等各个领域中都有着广泛的应用。DEM获取方法主要包括外业实地测量、光学遥感立体卫星测量、激光雷达以及合成孔径雷达干涉测量等。其中,基于ZY-3卫星影像生产DEM成为测绘部门获取地形数据的重要手段,为新型基础测绘、实景三维、天地图等应用提供了高效、高精度的立体影像和地理信息产品。
基于卫星数据生产DEM的常规方法包括数字表面模型(Digital Surface Model,DSM)提取和基于DSM数据的非地面点滤除两大技术流程。其中,DSM提取主要基于作业区立体卫星数据,及其对应的区域网平差优化后的RPC参数,建立立体像对,通过多模型、多基线算法自动匹配,对云、雪、阴影覆盖区域,水域及其它异常匹配区域进行人机交互编辑,得到精细化的DSM成果。DEM生产以DSM成果为数据源,首先,对植被、房屋建筑、桥梁等具有表面高程信息的地物(即为降高区域)进行自动滤波处理,获取真实地表的高程值;其次,结合人工立体量测,对滤波后高程值不准确(密集林地、高大建筑区、沟、谷等)的区域进行人工处理,得到最终的DEM产品。降高区域提取是DEM生产流程中最耗时的环节,也是影响DEM成果一致性的主要因素。
发明内容
为解决现有技术中存在的上述问题,本发明提供一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质。
本发明公开了一种基于深度学习的数字高程模型制作方法,包括:
采集立体卫星数据图像;
基于所述立体卫星数据图像中的各个地物,确定降高区域类别,所述降高区域类别包括植被和房屋建筑;
从所述立体卫星数据图像中选取连续或多块独立的可代表整景地表景观形态的局部区域作为样本区;
基于所述降高区域类别,对所述样本区中每个像素进行类别标注,获得训练样本,所述训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本,所述其他类别样本为所述植被类别样本和房屋建筑类别样本的剩余区域类别样本;
在Tensor Flow框架下,用所述训练样本训练U-Net模型;
将待测试的立体卫星数据图像输入至训练完成的U-Net模型中,获得分类预测数据;
基于混淆矩阵对所述分类预测数据进行精度验证,若符合,则提取到降高区域数据,若不符合,则调整所述U-Net模型参数并修改训练样本重新迭代训练直至精度符合要求;
将所述立体卫星数据图像输入至训练好的所述U-Net模型中,基于数字正射影像,获取所述立体卫星数据图像中的降高区域数据;
对所述降高区域数据进行滤波处理,并对滤波后高程值不准确的区域通过所述立体卫星数据图像中的数字表面模型进行矫正,得到数字高程模型。
优选的是,所述混淆矩阵是按照分类预测数据和真实的类别数据进行汇总,其由n行n列组成,n为类别数据,pij是分类预测数据中第i类和真实的类别数据第j类所占的组成部分,为分类预测数据所得到的第i类的总和,/>为真实的类别数据的第j类的总和,P为训练样本总数。
优选的是,通过混淆矩阵的总体准确率以及各类别的准确率进行精度验证,其验证公式为:
式中:P为训练样本总数;n为类别数;P c为总体准确率;PKK为分类预测数据中正确的第K类的像素总个数;K为第K类。
优选的是,所述准确率的值范围在[0,1]之间。
优选的是,所述样本区是以一景影像为基本单元,并从所述一景影像中选取连续或多块独立的可代表整景地表景观形态的局部区域。
优选的是,所述训练样本中不同类别的样本数量相等。
优选的是,类别标注时要满足像素分类的平面精度和属性精度,所述平面精度为样本采集的地物界线和位置与影像上地物的边界和位置的对应程度;所述属性精度为样本图斑进行属性赋值时,与真实地表属性的对应程度。
本发明还提供一种基于深度学习的数字高程模型制作系统,包括:
采集模块,用于采集立体卫星数据图像;
确定类别模块,用于基于所述立体卫星数据图像中的各个地物,确定降高区域类别,所述降高区域类别包括植被和房屋建筑;
选取模块,用于从所述立体卫星数据图像中选取连续或多块独立的可代表整景地表景观形态的局部区域作为样本区;
标注模块,用于基于所述降高区域类别,对所述样本区中每个像素进行类别标注,获得训练样本,所述训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本,所述其他类别样本为所述植被类别样本和房屋建筑类别样本的剩余区域类别样本;
训练模块,用于在Tensor Flow框架下,用所述训练样本训练U-Net模型;
预测模块,用于将待测试的立体卫星数据图像输入至训练完成的U-Net模型中,获得分类预测数据;
验证模块,用于基于混淆矩阵对所述分类预测数据进行精度验证,若符合,则提取到降高区域数据,若不符合,则调整所述U-Net模型参数并修改训练样本重新迭代训练直至精度符合要求;
降高区域提取模块,用于将所述立体卫星数据图像输入至训练好的所述U-Net模型中,基于数字正射影像,获取所述立体卫星数据图像中的降高区域数据;
制作模块,用于对所述降高区域数据进行滤波处理,并对滤波后高程值不准确的区域通过所述立体卫星数据图像中的数字表面模型进行矫正,得到数字高程模型。
本发明还提供一种电子设备,包括:处理器;存储器;以及程序,
其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行上述的方法。
本发明还提供一种存储介质,其上存储有计算机程序,所述计算机程序被处理器执行上述的方法。
与现有技术相比,本发明的有益效果为:
本发明用深度学习语义分割中的U-Net模型,快速实现了大范围降高区域的自动提取,有效提高了DEM的生产效率。
附图说明
图1为本发明基于深度学习的数字高程模型制作方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
下面结合附图对本发明做进一步的详细描述:
参照图1,本发明公开了一种基于深度学习的数字高程模型制作方法,包括:
采集立体卫星数据图像;
基于立体卫星数据图像中的各个地物,确定降高区域类别,降高区域类别包括植被和房屋建筑;
具体地,降高区域指具有一定高度的地表附着物,主要包括建筑、桥梁、林地、灌木等非地面区域。考虑到桥梁的目标特征较小,且在大范围作业区域中分布非常稀疏,通常位于河流水系或高架等级道路沿线,采用自适应滤波或人工立体编辑的方法能够快速去除高程信息,得到符合技术要求的地形数据。然而,植被和房屋建筑两种地类的优势度高,因此,降高区域类别包括植被和房屋建筑,将其他区域划分为其他类别。故植被”和“房屋建筑”指具有高度信息的地面物体,“其他”类别指不具有表面高度、与地形高程信息一致的地表物体,如水域、裸露地、道路等。
从立体卫星数据图像中选取连续或多块独立的可代表整景地表景观形态的局部区域作为样本区;
具体地,样本区是以一景影像为基本单元,并从一景影像中选取连续或多块独立的可代表整景地表景观形态的局部区域。
基于降高区域类别,对样本区中每个像素进行类别标注,获得训练样本,训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本,其他类别样本为植被类别样本和房屋建筑类别样本的剩余区域类别样本;
具体地,样本标注时以一景影像为基本单元,采用人工采集边界的方式获取“植被”和“房屋建筑”的样本标签,剩下区域划分为“其他”类型。样本标注时首先从一景影像中选取连续或多块独立的可代表整景地表景观形态的局部区域,区域内的每个像素都有相对应的归属类别,避免选取没有明显分界线或由于云雪覆盖、图像质量不佳等因素导致地类较难判读的区域。选好样本区后,按照地类的自然边界采集“植被”和“房屋建筑”,剩余区域均为“其他”类别。目视能看到的地物都应采集并赋予对应的属性值,但考虑到实际操作性及采集效率问题,本申请中将采集图斑的最小面积控制在400像素,地类边界清晰明确的,可适当缩小采集指标,地类边界相对不明晰的,可适当放大采集指标,面积太小无法采集的可“就近就大”与周围地类合并。采集边线时重点关注地物的自然属性,以及在影像上的颜色、形状、纹理特性,不做任何人为推理。成功训练一个深度卷积神经网络需要大量的训练样本,但实际生产应用中需要综合考虑工作量与效率的协调关系。因此,研究过程中通过综合比对试验,将样本量控制在0.2-0.3景。不同类别之间样本数量的不平衡也会对卷积神经网络的分类结果会产生一定程度的影响,因此,不同类别的样本数量应尽量平衡,不能差距太大,故训练样本中不同类别的样本数量相等。类别标注时要满足像素分类的平面精度和属性精度,平面精度为样本采集的地物界线和位置与影像上地物的边界和位置的对应程度;属性精度为样本图斑进行属性赋值时,与真实地表属性的对应程度。
在Tensor Flow框架下,用训练样本训练U-Net模型;
具体地,U-Net模型其左侧为压缩通道(Contracting Path),可视为一个编码器,由四个子模块组成,是典型的卷积神经网络结构,每个子模块包含两个卷积层,子模块后为基于max pool实现的下采样层;右侧为扩展通道(Expansive Path),可视为一个解码器,也包含四个子模块,影像分辨率通过上采样处理后依次上升,直到与输入图像的分辨率一致。U-Net模型的每一个隐藏层都有较多的特征维数,有利于模型学习更加多样、全面的特征。模型的“U”型结构让影像的裁剪和拼接过程更加直观、合理,高层特征与底层特征图的拼接以及卷积的反复、连续操作,使得模型能从上下文和细节信息组合中得到更加精确的输入特征图。研究中采用Tensor Flow框架训练,对U-net模型参数微调的基础上,从遥感影像中分割出植被、房屋建筑,实现降高区域信息的自动提取。
将待测试的立体卫星数据图像输入至训练完成的U-Net模型中,获得分类预测数据;
具体地,采用U-Net模型分类预测是,将其他”类别掩膜处理后,得到降高区域提取结果。结果表明,在样本可靠的条件下,采用U-Net模型提取降高区域取得了较好的分类结果,能够实现降高区域与非地面点区域(裸露地表、水域等)的自动区分。其中,具有显著植被光谱和纹理特征的区域提取效果最好,如稀疏林地、密集林地、行道树等,分类结果转为矢量后,矢量边界与实际地物类型的几何套合精度总体较好,约85%区域可控制在2个像素内;房屋建筑也取得了较好的提取结果,团聚式与零散房屋建筑均得到了有效的分类,约70%区域的几何套合精度可达2个像素以内。
基于混淆矩阵对分类预测数据进行精度验证,若符合,则提取到降高区域数据,若不符合,则调整U-Net模型参数并修改训练样本重新迭代训练直至精度符合要求。
具体地,混淆矩阵是按照分类预测数据和真实的类别数据进行汇总,其由n行n列组成,n为类别数据,pij是分类预测数据中第i类和真实的类别数据第j类所占的组成部分,为分类预测数据所得到的第i类的总和,/>为真实的类别数据的第j类的总和,P为训练样本总数。通过混淆矩阵的总体准确率以及各类别的准确率进行精度验证,准确率的值范围在[0,1]之间,值越大分类结果越好,其验证公式为:
式中:P为训练样本总数;n为类别数;P c为总体准确率;PKK为分类预测数据中正确的第K类的像素总个数;K为第K类。
将立体卫星数据图像输入至训练好的U-Net模型中,基于数字正射影像,采用深度学习的方法,自动获取立体卫星数据图像中的降高区域数据;
对降高区域数据进行滤波处理,获取真实地表的高程值,再结合立体卫星数据图像中的数字表面模型,对滤波后高程值不准确的区域进行矫正,得到数字高程模型。
本发明还提供一种基于深度学习的数字高程模型制作系统,包括:
采集模块,用于采集立体卫星数据图像;
确定类别模块,用于基于立体卫星数据图像中的各个地物,确定降高区域类别,降高区域类别包括植被和房屋建筑;
选取模块,用于从立体卫星数据图像中选取连续或多块独立的可代表整景地表景观形态的局部区域作为样本区;
标注模块,用于基于降高区域类别,对样本区中每个像素进行类别标注,获得训练样本,训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本,其他类别样本为植被类别样本和房屋建筑类别样本的剩余区域类别样本;
训练模块,用于在Tensor Flow框架下,用训练样本训练U-Net模型;
预测模块,用于将待测试的立体卫星数据图像输入至训练完成的U-Net模型中,获得分类预测数据;
验证模块,用于基于混淆矩阵对分类预测数据进行精度验证,若符合,则提取到降高区域数据,若不符合,则调整U-Net模型参数并修改训练样本重新迭代训练直至精度符合要求;
降高区域提取模块,用于将立体卫星数据图像输入至训练好的U-Net模型中,基于数字正射影像,获取立体卫星数据图像中的降高区域数据;
制作模块,用于对降高区域数据进行滤波处理,并对滤波后高程值不准确的区域通过立体卫星数据图像中的数字表面模型进行矫正,得到数字高程模型。
本发明还提供一种电子设备,包括:处理器;存储器;以及程序,
其中程序被存储在存储器中,并且被配置成由处理器执行,程序包括用于执行上述的方法。
本发明还提供一种存储介质,其上存储有计算机程序,计算机程序被处理器执行上述的方法。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种基于深度学习的数字高程模型制作方法,其特征在于,包括:
采集立体卫星数据图像;
基于所述立体卫星数据图像中的各个地物,确定降高区域类别,所述降高区域类别包括植被和房屋建筑;
从所述立体卫星数据图像中选取连续或多块独立的可代表整景地表景观形态的局部区域作为样本区;
基于所述降高区域类别,对所述样本区中每个像素进行类别标注,获得训练样本,所述训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本,所述其他类别样本为所述植被类别样本和房屋建筑类别样本的剩余区域类别样本;
在Tensor Flow框架下,用所述训练样本训练U-Net模型;
将待测试的立体卫星数据图像输入至训练完成的U-Net模型中,获得分类预测数据;
基于混淆矩阵对所述分类预测数据进行精度验证,若符合,则提取到降高区域数据,若不符合,则调整所述U-Net模型参数并修改训练样本重新迭代训练直至精度符合要求;
将所述立体卫星数据图像输入至训练好的所述U-Net模型中,基于数字正射影像,获取所述立体卫星数据图像中的降高区域数据;
对所述降高区域数据进行滤波处理,并对滤波后高程值不准确的区域通过所述立体卫星数据图像中的数字表面模型进行矫正,得到数字高程模型。
2.根据权利要求1所述的基于深度学习的数字高程模型制作方法,其特征在于,所述混淆矩阵是按照分类预测数据和真实的类别数据进行汇总,其由n行n列组成,n为类别数据,pij是分类预测数据中第i类和真实的类别数据第j类所占的组成部分,为分类预测数据所得到的第i类的总和,/>为真实的类别数据的第j类的总和,P为训练样本总数。
3.根据权利要求2所述的基于深度学习的数字高程模型制作方法,其特征在于,通过混淆矩阵的总体准确率以及各类别的准确率进行精度验证,其验证公式为:
式中:P为训练样本总数;n为类别数;P c为总体准确率;PKK为分类预测数据中正确的第K类的像素总个数;K为第K类。
4.根据权利要求3所述的基于深度学习的数字高程模型制作方法,其特征在于,所述准确率的值范围在[0,1]之间。
5.根据权利要求4所述的基于深度学习的数字高程模型制作方法,其特征在于,所述样本区是以一景影像为基本单元,并从所述一景影像中选取连续或多块独立的可代表整景地表景观形态的局部区域。
6.根据权利要求5所述的基于深度学习的数字高程模型制作方法,其特征在于,所述训练样本中不同类别的样本数量相等。
7.根据权利要求6所述的基于深度学习的数字高程模型制作方法,其特征在于,类别标注时要满足像素分类的平面精度和属性精度,所述平面精度为样本采集的地物界线和位置与影像上地物的边界和位置的对应程度;所述属性精度为样本图斑进行属性赋值时,与真实地表属性的对应程度。
8.一种基于深度学习的数字高程模型制作系统,其特征在于,包括:
采集模块,用于采集立体卫星数据图像;
确定类别模块,用于基于所述立体卫星数据图像中的各个地物,确定降高区域类别,所述降高区域类别包括植被和房屋建筑;
选取模块,用于从所述立体卫星数据图像中选取连续或多块独立的可代表整景地表景观形态的局部区域作为样本区;
标注模块,用于基于所述降高区域类别,对所述样本区中每个像素进行类别标注,获得训练样本,所述训练样本包括植被类别样本、房屋建筑类别样本和其他类别样本,所述其他类别样本为所述植被类别样本和房屋建筑类别样本的剩余区域类别样本;
训练模块,用于在Tensor Flow框架下,用所述训练样本训练U-Net模型;
预测模块,用于将待测试的立体卫星数据图像输入至训练完成的U-Net模型中,获得分类预测数据;
验证模块,用于基于混淆矩阵对所述分类预测数据进行精度验证,若符合,则提取到降高区域数据,若不符合,则调整所述U-Net模型参数并修改训练样本重新迭代训练直至精度符合要求;
降高区域提取模块,用于将所述立体卫星数据图像输入至训练好的所述U-Net模型中,基于数字正射影像,获取所述立体卫星数据图像中的降高区域数据;
制作模块,用于对所述降高区域数据进行滤波处理,并对滤波后高程值不准确的区域通过所述立体卫星数据图像中的数字表面模型进行矫正,得到数字高程模型。
9.一种电子设备,其特征在于,包括:处理器;存储器;以及程序,
其中所述程序被存储在所述存储器中,并且被配置成由处理器执行,所述程序包括用于执行如权利要求1-7所述的方法。
10.一种存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行如权利要求1-7所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310613134.XA CN116486282A (zh) | 2023-05-29 | 2023-05-29 | 一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310613134.XA CN116486282A (zh) | 2023-05-29 | 2023-05-29 | 一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116486282A true CN116486282A (zh) | 2023-07-25 |
Family
ID=87227077
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310613134.XA Pending CN116486282A (zh) | 2023-05-29 | 2023-05-29 | 一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116486282A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117433513A (zh) * | 2023-12-21 | 2024-01-23 | 云南淼泉测绘工程有限公司 | 一种地形测绘的地图构建方法及系统 |
-
2023
- 2023-05-29 CN CN202310613134.XA patent/CN116486282A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117433513A (zh) * | 2023-12-21 | 2024-01-23 | 云南淼泉测绘工程有限公司 | 一种地形测绘的地图构建方法及系统 |
CN117433513B (zh) * | 2023-12-21 | 2024-03-08 | 云南淼泉测绘工程有限公司 | 一种地形测绘的地图构建方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111986099B (zh) | 基于融合残差修正的卷积神经网络的耕地监测方法及系统 | |
CN109840553B (zh) | 耕地作物类型的提取方法及系统、存储介质、电子设备 | |
CN108830870B (zh) | 基于多尺度结构学习的卫星影像高精度农田边界提取方法 | |
CN113034689A (zh) | 基于激光点云的地形三维模型及地形图构建方法和系统、存储介质 | |
CN111553245A (zh) | 基于机器学习算法和多源遥感数据融合的植被分类方法 | |
CN112712535A (zh) | 基于模拟困难样本的Mask-RCNN滑坡分割方法 | |
CN109146889A (zh) | 一种基于高分辨率遥感图像的农田边界提取方法 | |
CN111738144A (zh) | 一种基于Google Earth Engine云平台的地表水体产品生成方法和系统 | |
CN109829425B (zh) | 一种农田景观小尺度地物分类方法及系统 | |
CN114595975A (zh) | 基于深度学习模型的无人机遥感松材线虫病害监测方法 | |
CN107918776A (zh) | 一种基于机器视觉的用地规划方法、系统及电子设备 | |
CN109961510B (zh) | 一种基于三维点云重构技术的高切坡地质快速编录方法 | |
CN112881294B (zh) | 一种基于无人机的红树林林分健康度评价方法 | |
Nardinocchi et al. | Classification and filtering of laser data | |
CN115294293B (zh) | 基于低空航摄成果自动化编译高精地图道路参考线的方法 | |
CN109492606A (zh) | 多光谱矢量图获取方法及系统、三维单体化方法及系统 | |
CN115690081A (zh) | 一种树木计数方法、系统、存储介质、计算机设备及终端 | |
CN115187866A (zh) | 基于高分辨率影像的生态图斑提取方法 | |
CN116486282A (zh) | 一种基于深度学习的数字高程模型制作方法及系统、电子设备、存储介质 | |
CN113781431A (zh) | 基于城市点云数据的绿视率计算方法 | |
CN115641412A (zh) | 基于高光谱数据的三维语义地图的生成方法 | |
Lei et al. | A novel algorithm of individual tree crowns segmentation considering three-dimensional canopy attributes using UAV oblique photos | |
CN115825984A (zh) | 一种基于激光点云的输电线路巡检系统及巡检方法 | |
CN113033386B (zh) | 一种基于高分辨率遥感影像的输电线路通道隐患识别方法及系统 | |
CN114067245A (zh) | 一种铁路外部环境隐患识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |