CN115423975A - 一种基于可见光影像及深度学习算法的地面高程提取方法 - Google Patents
一种基于可见光影像及深度学习算法的地面高程提取方法 Download PDFInfo
- Publication number
- CN115423975A CN115423975A CN202211035808.4A CN202211035808A CN115423975A CN 115423975 A CN115423975 A CN 115423975A CN 202211035808 A CN202211035808 A CN 202211035808A CN 115423975 A CN115423975 A CN 115423975A
- Authority
- CN
- China
- Prior art keywords
- image
- model
- ground
- channel
- deep learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 25
- 238000000605 extraction Methods 0.000 title claims abstract description 17
- 238000000034 method Methods 0.000 claims abstract description 47
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000005259 measurement Methods 0.000 claims abstract description 13
- 238000002372 labelling Methods 0.000 claims abstract description 9
- 230000000873 masking effect Effects 0.000 claims abstract description 8
- 238000012549 training Methods 0.000 claims description 19
- 238000012795 verification Methods 0.000 claims description 19
- 230000008569 process Effects 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 7
- 238000006243 chemical reaction Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 10
- 238000005520 cutting process Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012805 post-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000010008 shearing Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- DHSSDEDRBUKTQY-UHFFFAOYSA-N 6-prop-2-enyl-4,5,7,8-tetrahydrothiazolo[4,5-d]azepin-2-amine Chemical compound C1CN(CC=C)CCC2=C1N=C(N)S2 DHSSDEDRBUKTQY-UHFFFAOYSA-N 0.000 description 1
- 238000012935 Averaging Methods 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 238000004132 cross linking Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000001617 migratory effect Effects 0.000 description 1
- 230000035772 mutation Effects 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 229950008418 talipexole Drugs 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/05—Geographic models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Geometry (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Remote Sensing (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于可见光影像及深度学习算法的地面高程提取方法,将测区的正射影像和坡度图整合为与该测区对应的四通道的影像,并获得与该测区对应的对植被等地物进行标注处理后的类标签图,将四通道影像和类标签图送入UNET模型中进行深度学习,得到地物识别模型,进而将待测影像送入该识别模型中进行预测,得到地物识别的分类结果图,依据该分类结果图对该待测影像依次进行掩膜、空洞填补处理得到去除地物的数字高程模型。通过本方法,在不损失空间分辨率、保留DSM中地面高程真值的情况下,更好的消除了植被等地物对对面高程的影像。
Description
技术领域
本发明涉及地面高程提取领域,特别是一种基于可见光影像及深度学习算法的地面高程提取方法。
背景技术
目前利用倾斜摄影测量技术对可见光影像进行数字表面模型(DSM)的制作已较为成熟,但倾斜摄影测量技术获得的是包含地物高度的表面高程。在平方公里及以上范围的大型工程设计中,地形中多含有植被等覆盖物,如果直接用数字表面模型DSM生成等高线,则会出现高程异常区域,不能反应真实的地形情况,因此为了还原地面高程,通常需要滤除植被等地物高度。对于此项工作,目前仍采用人工打高程点的方式进行内业后处理工作,其耗费大量的人力和时间,且自动化程度低、效率不高。
发明内容
本发明提供一种基于可见光影像及深度学习算法的地面高程提取方法,利用无人机搭载光学相机获取厘米级空间分辨率的DSM与正射影像(DOM)数据,研究并提出了改进的深度学习算法,实现了植被的精细分类,以及研究并提出了适用于植被区域的空洞填补算法,实现了植被区域高程的修正,最终构建出研究区的高精度数字高程模型(DEM)。
本发明所采用的技术手段如下所述:
一种基于可见光影像及深度学习算法的地面高程提取方法,通过以下步骤获得去除地物影响的数字高程模型:
步骤一:获得一测区对应的正射影像,并获得该测区对应的坡度图,进一步整合该正射影像和坡度图得到该测区对应的包含RGB通道和坡度通道的四通道影像;
步骤二:对步骤一中得到的与该测区对应的四通道影像进行地物标注处理得到类标签图;
步骤三:将步骤一中得到的四通道影像和步骤二中得到的类标签图输入UNET模型深度学习,得到对四个通道及地物分类的识别模型M;
步骤四:将待预测影像进行步骤一的处理得到对应的四通道待预测影像,并将该四通道待预测影像输入步骤三生成的识别模型M中进行预测,并对预测生成的影像文件进一步检修处理得到待预测影像的地物分类结果图;
步骤五:根据步骤四中得到的地物分类结果图进行地物掩膜处理,并对掩膜处理后的空洞进行空洞填补,得到去除地物的数字高程模型。
作为优选,通过以下步骤获得与测区对应的正射影像和坡度图:
a1:通过光学相机获得测区内的海量像片,并通过无人机数据处理软件将该测区的海量像片处理得到与该测区匹配的正射影像和数字表面模型;进一步,
a2:通过对与该测区匹配的数字表面模型进行逐像元计算坡度,得到该测区的坡度图。
作为优选,将步骤一中得到的正射影像和坡度图进行格式转换和归一化处理,得到包含正射影像的RGB三通道和坡度图的坡度通道的四通道影像,该四通道影像为浮点型数据。
作为优选,步骤二中的标注处理包括对正射影像中的各地物进行类名和类标签值标注。
作为优选,在步骤三中得到该四通道影像和类标签图后,进一步将该四通道影像和类标签图进行剪切处理,并对剪切处理后的相同大小的样本进行增强处理后得到样本集,进一步将该样本集输入UNET模型中进行深度学习训练。
作为优选,对该四通道影像和类标签图处理后得到的样本集进一步分为样本训练集和样本验证集;
将样本训练集输入UNET模型中进行训练得到RGB和坡度通道识别及地物分类识别的初始模型;
进一步将样本验证集输入该初始模型中进行验证预测,根据验证结果优化初始模型得到最终识别模型M。
作为优选,通过样本验证集进行优化初始模型的方式包括将样本验证集输入初始模型并输出预测结果后,计算各通道和各地物分类中的每一项的预测结果和真值的交并比,并进一步计算所有项的均交并比,最终得到满足验证条件的识别模型M。
作为优选,步骤四中得到四通道待预测影像后,进一步将该四通道待预测影像进行剪切处理得到与剪切四通道影像和类标签图后得到的样本相同大小的待预测样本,并将该待预测样本作增强处理后输入识别模型M中进行预测。
作为优选,步骤五中的掩膜处理包括:以步骤四中检修得到的待预测影像的地物分类结果图为掩膜,以待预测影像在执行步骤一处理时在无人机数据处理软件中处理得到的数字表面模型为待掩膜对象,进行掩膜处理。
作为优选,步骤五中空洞填补方法选用线性三维插值方法填补空洞。
本发明与现有的技术相比具有如下优点:
1.本发明可通过改进的深度学习算法实现地物的精准识别,并提出了适用于植被等地物区域的空洞填补算法,实现地物区域高程的修正,最终构建出高精度数字高程模型DEM。
2.本发明首次在通过深度学习算法进行高程提取领域同时引入了坡度图和正射影像DOM,便于精准快速识别待测影像中的地物。
3.本方法首次在大比例尺地形图(1:500-1:2000)制作中引入UNET模型,并进行改进,构建了适用于无人机可见光影像的植被精细分类算法,算法具备更多地物识别的扩展能力。
4.本方法首次在大比例尺地形图(1:500-1:2000)制作中提出了基于不规则三角网的多空洞DEM影像填补算法,实现了树木等导致的高程异常的修正。
5.使用本方法不损失空间分辨率,保留DSM中地面高程真值的同时,消除了植被区域的影响,可以显著提高DEM及地形图的成图效率和精度。且本方法提出的DEM生成流程和方法,不同于以往基于DSM的后期处理思路,提高了自动化水平和内业人员的工作效率。
附图说明
图1为本发明基于可见光影像及深度学习算法的地面高程提取方法的流程示意图。
图2为一实施例中某测区的包含植被区域的俯视图。
图3为图2对应的等高线图。
图4为一实施例中获取照片的对应测区范围及相控点分布图。
图5为对图4测区内照片处理得到的正射影像DOM。
图6为对图4测区内照片处理得到的数字表面模型DSM。
图7为对正射影像DOM格式转换和归一化处理后选取的一样本区dom13N。
图8为对数字表面模型DSM格式转换和归一化处理后选取的一图7中样本区位置对应的样本区slope13N。
图9为对多通道影像标注处理后得到的矢量影像。
图10为图9对应的栅格数据影像。
图11为对多通道影像和类标签图进行剪切和增强处理后得到的样本数据集。
图12对待预测四通道影像进行剪切和增强处理后得到的待预测数据(样本)集。
图13为与待预测影像对应的预测结果矢量图。
图14为根据预测结果矢量图进行掩膜处理后得到的包含空洞的DEM影像。
图15为与进行空洞填补后得到的DEM影像对应的登高线和原待测数字表面模型DSM生成等高线的叠加图。
具体实施方式
具体的,结合说明书附图1-15,给出以下具体方案:
结合一某灰场地形图测图项目,对本方法进行说明。项目测区面积约12平方公里,成图比例尺为1:500。本项目外业采用飞马D2000无人机搭载SONY a6000相机,并集成具有RTK功能的POS和IMU系统。SONY a6000相机传感器大小为23.5X15.5mm,有效像素2400万,焦距25mm。
在该项目中,测区内沟壑纵横,如图2所示,为该实施例测区的包含植被区域的俯视图,如框中区域,为沟内多散布的高大树木,若直接使用数字表面模型DSM生成如图3所示的等高线,可以看到,存在多个高程异常区域(黑色团块),不能反映真实的地形状况,给挖填方计算带来误差。
因此对于以上存在的问题,按照实际操作步骤,如图1所示,本方法提出一具体实施例:
第一步,使用无人机搭载光学相机获取一选区内的海量厘米级空间分辨率照片,选区主要选用平方公里级的植被稀疏区域。须同步获取照片的内外方位元素信息,须同步布设满足规范要求的像片控制点。
具体的,该实施例项目航拍时间为2020年5月17日,天气晴朗。飞行高度约300米,飞行航向的照片重叠度≥70%,优选是80%,飞行旁向的照片重叠度≥60%,优选是65%。本项目共拍摄3619张照片,相片平均空间分辨率0.05m,单张照片范围约280m*212m,测区内共布设29个相控点,如图4所示,为本项目测区范围及相控点分布图。其中,图4中(a)为测区范围及相控点分布图,图4中(b)为相控点。
第二步,使用无人机数据处理软件将第一步中获取的照片、照片控制点及内方位元素信息输入到上述无人机数据处理软件中,得到与该测区相匹配的正射影像(DOM)和数字表面模型(DSM)。该步骤得到的正射影像DOM及数字表面模型DSM,是后续处理的基础影像。其中无人机数据处理软件采用Context Capture软件。如图5和图6分别为使用该软件处理后的与该测区对应的正射影像DOM与数字表面模型DSM(tif格式)。
第三步,将第二步中得到的数字表面模型DSM转换为对应的坡度图。通常,得到的正射影像DOM为RGB三通道8位无符号整型,数字表面模型DSM为32位浮点型。且由于正射影像DOM与数字表面模型DSM对植被均较为敏感,如正射影像DOM中植被表现为光谱和纹理特征,数字表面模型DSM表现为高程梯度突变和纹理特征。在此,本方法通过对数字表面模型DSM逐像元计算坡度,得到与该选区对应的坡度图。坡度计算考虑中心像元的8领域,如下表1所示为中心像元e及周围8像元的位置示意图:
a | b | c |
d | e | f |
g | h | i |
表1
假设a、b、c、d、e、f、g、h、i分别为高程值,x_cellsize和y_cellsize为x方向和y方向的常用单位距离,为计算中心像元e的坡度,需分别计算像元e在x方向上的变化率(公式(1))和像元e在y方向上的变化率(公式(2)):
[dz/dx]=((c+2f+i)-(a+2d+g)/(8*x_cellsize) (1)
[dz/dy]=((g+2h+i)-(a+2b+c))/(8*y_cellsize) (2)
进而得到像元e处的坡度值(公式(3)):
以及,通过将两种数据进行格式转换与归一化,得到包含RGB通道和坡度通道的4通道浮点型数据影像图。本方法首次将正射影像DOM与坡度图两种数据同时用于植被分类的深度学习算法,结合类标签图等植被分类文件,进行植被分类深度学习提取。当然本方法同样可以适用于其他地物或干扰物的分类,在本实施例中主要以测图中的植被分类进行说明,以及也可在此基础上再引入其他通道影像,整合为方便后续植被分类提取的多通道影像。
其中格式转换即将正射影像和坡度图均转换为同一的浮点型数据,并将正射影像的RGB三个通道和坡度通道进行整合得到4通道图;其归一化处理即统一在0-1之间取值。具体的,根据dsm.tif生成坡度图slope.tif(取值范围0.0000-90.0000),对其进行归一化处理,得到单通道浮点型数据slopeN.tif(取值范围0.0000-1.0000)。以及正射影像DOM为RGB三通道8位无符号整型格式(取值范围0-255),对各通道数据归一化处理,得到3通道浮点型数据domN.tif(取值范围0.0000-1.0000)。从输出的与正射影像DOM对应的3通道浮点型数据domN.tif的与坡度图对应的单通道浮点型数据slopeN.tif中各选取一块区域作为样本区,分别为如图7所示的样本区dom13N.tif和如图8所示的样本区slope13N.tif。并进一步对数据进行拼接,得到包含R、G、B、坡度的4通道数据sample.tif(取值范围0.0000-1.0000),保持投影和影像行列与原图一致。
第四步,对第三步中得到的四通道影像(或使用第二步中得到的正射影像)进行植被等地物的标签标注处理。具体的,使用遥感数据处理软件对影像进行判读,该遥感数据处理软件选用ArcGIS软件,详细标注出相应的植被区域,生成与影像相匹配的矢量多边形,为其属性值添加类名和类标签值字段(如背景0,植被1,可根据地物类型扩展更多类),并保存成如图9所示的矢量文件(label.shp),并进一步使用ArcGIS软件将该矢量文件label.shp转成与该四通道影像相同大小(分辨率和行列数均相同)和投影方式的如图10所示的栅格文件,即类标签图(label.tif)。
第五步,将在第四步中得到的类标签图label.tif与第三步中生成的四通道影像sample.tif进行影像剪切处理,即将第四步中得到的分类标签图和第三步中得到的多通道影像剪切为相同大小的样本图,同时做样本增强处理(如旋转、模糊、增加噪声等),其增强处理的一特征为对标注的需识别部分进行增强显示,便于更好学习识别;增强处理得到相同大小、且满足32整数倍大小的四通道图与对应的类标签图的样本数据集,如图11为四通道影像和类标签图进行剪切和增强处理后得到的样本数据集,共计6000张,影像大小均为512*512像素。
第六步,将在第五步中生成的样本数据集随机分成两部分,一部分用于模型训练,即训练数据集,一部分用于模型的验证,即验证数据集。
在该具体的实施例中,优选将第五步中生成的样本数据集按照9:1的比例分成两部分,比例为9的部分用于模型训练,比例为1的部分用于模型验证。并将训练数据集与验证数据集的文件名索引保存至文件。
第七步,通过UNET模型对第六步中的训练数据集进行多通道识别和地物分类识别训练。UNET可以在少量训练样本时取得高效的分类结果,其根据任务需求调整参数,包括数据的通道个数、类别个数、迭代次数、学习率等。在本实施例中,主干网络的结构采用VGG16模型,采用Relu函数作为激活函数,采用交叉熵与softmax函数计算损失。使用步骤6生成的训练数据集与初始模型文件(可迁移学习)作为输入,进行400轮训练,最终实现可进行R、G、B、及坡度的4通道数据训练和预测的UNET植被分类模型,生成一系列初始模型文件(*.pth)。
第八步,将第六步中的验证数据集和第七步中生成的初始模型文件作为输入进行验证训练,计算每个通道和各地物类别识别的预测值与真实值的均交并比(MIOU),其为对模型更新的参考因素之一,通过该均交并比对该初始模型的参数进行修改,优选计算得到的均交并比为优,否则修改模型参数,对模型进行迭代和优化,更新模型文件(*.pth)得到最终预测识别模型(M)。其中,均交并比MIOU的计算步骤如下:
(1)计算混淆造成矩阵;
(2)计算每个通道和地物类别的交并比IOU_i,公式为:
IOU_i=TP_i/(TP_i+FN_i+FP_i)
其中:
TP_i为真正值,即真实值和预测值的交集;
FN_i为假负值,即真实值去掉真实值和预测值交集的部分;
FP_i为假正值,即预测值去掉真实值和预测值交集的部分;
(3)对每一个类的IOU求平均得到均交并比MIOU。
第九步,对待预测影像进行第二步和第三步的处理,得到与待预测影像相对应的包含RGB三通道和坡度通道的四通道待预测影像。
第十步,然后将第九步中得到的四通道待预测影像进行第五步的剪切、增强处理,得到如图12所示的与待预测影像对应的待预测数据(样本)集,其每个样本的尺寸与第五步中得到的四通道影像和类标签图进行剪切增强处理后得到的样本的尺寸相同。以及,得到的带预测数据文件需保留原待测影像的投影和地理坐标信息,以方便定位与拼接。数据文件的命名规则为“文件名_原图总行数_原图总列数_起始行号_起始列号.tif”。
第十一步,将第十步中生成的待预测数据集和第八步中得到的识别模型文件送入最终预测识别模型中进行预测,得到植被预测结果数据集。
第十二步,将第十一步中得到的预测结果进行影像镶嵌(即拼接),得到与第九步中的原四通道待预测影像相同大小和投影的预测结果。
第十三步,对在第十二步中得到的预测结果进行栅格转矢量,如图13得到与待预测影像对应的预测结果矢量图,可以在图中得到圈中的植被的边界范围。
第十四步,对第十三步中得到的预测结果矢量文件叠加至步骤9的4通道待预测影像上,进行交互式编辑,增加、删除和修改漏检误检区域,进一步提高植被的识别率,检修得到全覆盖的含多通道信息识别和植被等地物分类识别的地物分类结果图。
第十五步,将第十四步中得到的检修后的分类结果作为掩膜,对与待预测影像对应的在无人机数据处理软件中处理得到的数字表面模型DSM进行掩膜处理,得到如图14所示的包含若干空洞(植被区域)的DEM影像。
第十六步,以第十五步中得到的含有空洞的DEM影像为基础,提取DEM影像中每个植被(或地物)区域的最小矩形边界,并进行适当外扩(2个像素),记录其左上角、右下角位置,得到相应的索引文件。
第十七步,根据第十六步中得到的索引文件,从左至右,从上至下,依次进行空洞填补。对每个存在空洞的子区,采用线性插值方法,进行三维空间插值。也即以线性插值方法根据已有的第十六步中确定的矩形边界等点位确定内插点,并进一步以三角形为基础,按Delaunay方法先找出内插点四周的3个点构成三角形,内插点在三角形内,以此通过确定的内插点构建满足Delaunay准则的Delaunay三角网曲面。采用该方法得到连续平滑的曲面,即高程面。以及,在构建高程面的过程中,算法保留原象素值,同时填入缺失象素值,即通过矩形区域内的已知点的像素值按照线性插值方法确定内插点的像素值,并根据插值点的位置和像素值递归至为整个Delaunay三角网曲面赋值,得到如图15所示的平滑且连续的待测研究区DEM数据影像,在该图中,断续线为采用本方法得到的等高线,实线为直接使用数字表面模型DSM生成的等高线。本方法首次提出了多空洞DEM影像填补算法,弥补了该领域的空白。
本方法适用于植被较稀疏区域的DEM提取,尤其可用于平方公里级区域的大比例尺地形图(1:500-1:2000)的生成。通过本方法,可不改变真实的地面高程值,进行植被滤除,并对相应区域的地面高程进行填补,自动化水平高,可大幅提高业内人员的工作效率。
Claims (10)
1.一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,通过以下步骤获得去除地物影响的数字高程模型:
步骤一:获得一测区对应的正射影像,并获得该测区对应的坡度图,进一步整合该正射影像和坡度图得到该测区对应的包含RGB通道和坡度通道的四通道影像;
步骤二:对步骤一中得到的与该测区对应的四通道影像进行地物标注处理得到类标签图;
步骤三:将步骤一中得到的四通道影像和步骤二中得到的类标签图输入UNET模型深度学习,得到对四个通道及地物分类的识别模型M;
步骤四:将待预测影像进行步骤一的处理得到对应的四通道待预测影像,并将该四通道待预测影像输入步骤三生成的识别模型M中进行预测,并对预测生成的影像文件进一步检修处理得到待预测影像的地物分类结果图;
步骤五:根据步骤四中得到的地物分类结果图进行地物掩膜处理,并对掩膜处理后的空洞进行空洞填补,得到去除地物的数字高程模型。
2.根据权利要求1所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,通过以下步骤获得与测区对应的正射影像和坡度图:
a1:通过光学相机获得测区内的海量像片,并通过无人机数据处理软件将该测区的海量像片处理得到与该测区匹配的正射影像和数字表面模型;进一步,
a2:通过对与该测区匹配的数字表面模型进行逐像元计算坡度,得到该测区的坡度图。
3.根据权利要求1所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,将步骤一中得到的正射影像和坡度图进行格式转换和归一化处理,得到包含正射影像的RGB三通道和坡度图的坡度通道的四通道影像,该四通道影像为浮点型数据。
4.根据权利要求1所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,步骤二中的标注处理包括对正射影像中的各地物进行类名和类标签值标注。
5.根据权利要求1所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,在步骤三中得到该四通道影像和类标签图后,进一步将该四通道影像和类标签图进行剪切处理,并对剪切处理后的相同大小的样本进行增强处理后得到样本集,进一步将该样本集输入UNET模型中进行深度学习训练。
6.根据权利要求5所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,对该四通道影像和类标签图处理后得到的样本集进一步分为样本训练集和样本验证集;
将样本训练集输入UNET模型中进行训练得到RGB和坡度通道识别及地物分类识别的初始模型;
进一步将样本验证集输入该初始模型中进行验证预测,根据验证结果优化初始模型得到最终识别模型M。
7.根据权利要求6所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,通过样本验证集进行优化初始模型的方式包括将样本验证集输入初始模型并输出预测结果后,计算各通道和各地物分类中的每一项的预测结果和真值的交并比,并进一步计算所有项的均交并比,最终得到满足验证条件的识别模型M。
8.根据权利要求5所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,步骤四中得到四通道待预测影像后,进一步将该四通道待预测影像进行剪切处理得到与剪切四通道影像和类标签图后得到的样本相同大小的待预测样本,并将该待预测样本作增强处理后输入识别模型M中进行预测。
9.根据权利要求2所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,步骤五中的掩膜处理包括:以步骤四中检修得到的待预测影像的地物分类结果图为掩膜,以待预测影像在执行步骤一处理时在无人机数据处理软件中处理得到的数字表面模型为待掩膜对象,进行掩膜处理。
10.根据权利要求1所述的一种基于可见光影像及深度学习算法的地面高程提取方法,其特征在于,步骤五中空洞填补方法选用线性三维插值方法填补空洞。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211035808.4A CN115423975A (zh) | 2022-08-26 | 2022-08-26 | 一种基于可见光影像及深度学习算法的地面高程提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211035808.4A CN115423975A (zh) | 2022-08-26 | 2022-08-26 | 一种基于可见光影像及深度学习算法的地面高程提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115423975A true CN115423975A (zh) | 2022-12-02 |
Family
ID=84200489
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211035808.4A Pending CN115423975A (zh) | 2022-08-26 | 2022-08-26 | 一种基于可见光影像及深度学习算法的地面高程提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115423975A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310915A (zh) * | 2023-05-22 | 2023-06-23 | 山东科技大学 | 基于uav与深度学习的尾矿干滩指标识别方法 |
-
2022
- 2022-08-26 CN CN202211035808.4A patent/CN115423975A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116310915A (zh) * | 2023-05-22 | 2023-06-23 | 山东科技大学 | 基于uav与深度学习的尾矿干滩指标识别方法 |
CN116310915B (zh) * | 2023-05-22 | 2023-08-18 | 山东科技大学 | 基于uav与深度学习的尾矿干滩指标识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Jiménez-Jiménez et al. | Digital terrain models generated with low-cost UAV photogrammetry: Methodology and accuracy | |
CN113128405B (zh) | 一种结合语义分割与点云处理的植物识别与模型构建方法 | |
Marzolff et al. | The potential of 3D gully monitoring with GIS using high-resolution aerial photography and a digital photogrammetry system | |
Javernick et al. | Modeling the topography of shallow braided rivers using Structure-from-Motion photogrammetry | |
CN113034689A (zh) | 基于激光点云的地形三维模型及地形图构建方法和系统、存储介质 | |
CN107451982B (zh) | 一种基于无人机影像的高郁闭度林分树冠面积获取方法 | |
CN115424135A (zh) | 一种用于植被提取深度学习的四通道影像处理方法 | |
Zeybek | Classification of UAV point clouds by random forest machine learning algorithm | |
Barbarella et al. | Assessment of DEM derived from very high-resolution stereo satellite imagery for geomorphometric analysis | |
Ramli et al. | Homogeneous tree height derivation from tree crown delineation using Seeded Region Growing (SRG) segmentation | |
Bandyopadhyay et al. | Classification and extraction of trees and buildings from urban scenes using discrete return LiDAR and aerial color imagery | |
Demir | Using UAVs for detection of trees from digital surface models | |
CN116561509A (zh) | 顾及植被类型的城市植被地上生物量精确反演方法及系统 | |
CN112668534A (zh) | 基于数字正射影像和数字表面模型反演林区植被高度的方法 | |
Yang et al. | Airborne LiDAR and photogrammetric point cloud fusion for extraction of urban tree metrics according to street network segmentation | |
CN115423975A (zh) | 一种基于可见光影像及深度学习算法的地面高程提取方法 | |
Yin et al. | Individual tree parameters estimation for chinese fir (cunninghamia lanceolate (lamb.) hook) plantations of south china using UAV Oblique Photography: Possibilities and Challenges | |
Sefercik et al. | Consistency analysis of RTK and Non-RTK UAV DSMs in vegetated areas | |
Stark et al. | Long-term assessment of terrain changes and calculation of erosion rates in an alpine catchment based on SfM-MVS processing of historical aerial images. How camera information and processing strategy affect quantitative analysis | |
Senn et al. | On‐site geometric calibration of RPAS mounted sensors for SfM photogrammetric geomorphological surveys | |
CN112561981A (zh) | 一种融合影像信息的摄影测量点云滤波方法 | |
CN110580468B (zh) | 一种基于影像匹配点云的单木结构参数提取的方法 | |
CN115760885B (zh) | 基于消费级无人机影像的高郁闭度湿地森林参数提取方法 | |
CN116883664A (zh) | 遥感影像分割方法、装置、设备和计算机可读存储介质 | |
Peeroo et al. | Building extraction for 3D city modelling using airborne laser scanning data and high-resolution aerial photo |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |