CN116434054A - 一种基于线面结合的密集遥感地物提取方法 - Google Patents
一种基于线面结合的密集遥感地物提取方法 Download PDFInfo
- Publication number
- CN116434054A CN116434054A CN202310182246.4A CN202310182246A CN116434054A CN 116434054 A CN116434054 A CN 116434054A CN 202310182246 A CN202310182246 A CN 202310182246A CN 116434054 A CN116434054 A CN 116434054A
- Authority
- CN
- China
- Prior art keywords
- remote sensing
- result
- network model
- dense
- line
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 135
- 230000011218 segmentation Effects 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims abstract description 33
- 230000004927 fusion Effects 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 36
- 238000012360 testing method Methods 0.000 claims description 23
- 230000000694 effects Effects 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 5
- 238000009826 distribution Methods 0.000 claims description 4
- 230000003044 adaptive effect Effects 0.000 claims description 3
- 238000005520 cutting process Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 claims description 3
- 230000004048 modification Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 2
- 230000001502 supplementing effect Effects 0.000 abstract description 4
- 238000007670 refining Methods 0.000 abstract description 3
- 230000007547 defect Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 238000012805 post-processing Methods 0.000 description 3
- 238000012217 deletion Methods 0.000 description 2
- 230000037430 deletion Effects 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
一种基于线面结合的密集遥感地物提取方法,包括:选定最终需要提取的目标应用区域影像数据,并用于绘制样本;挑选、设计语义边缘提取网络模型以及语义分割网络模型;利用语义边缘提取网络模型和语义分割网络模型对高分遥感影像训练数据进行训练,获得密集遥感地物的语义边缘提取网络模型和语义分割网络模型;对目标应用区高分遥感影像大图数据分别进行预测,获得应用区域密集遥感地物的线结果和面结果;将面预测结果进行二值化和去小图斑处理,线预测结果进行细化和补断线处理;将处理后的面结果和线结果矢量化,并使用融合算法融合面和线的矢量化结果得到最终密集遥感地物提取结果。本发明能获得精确的结果,并减少人工劳动。
Description
技术领域
本发明属于遥感影像处理以及遥感信息提取领域,涉及到遥感信息提取相关的语义边缘提取方法、语义分割方法以及一系列后处理方法。具体来说本发明采用语义边缘提取以及语义分割结合的方法来对密集遥感地物进行综合提取,并采用一系列后处理方法融合语义边缘与语义分割的提取结果得到密集遥感地物最终的提取结果。本发明可以适用于多种高分遥感影像的密集遥感地物提取任务。
背景技术
如今,高分辨率遥感影像已经成为遥感信息提取领域最重要的研究资料之一。高分遥感影像比中低分辨率的遥感影像有着更加丰富和精确的地物细节信息,这使得高分遥感影像拥有更高的应用价值和意义。高分遥感影像在各种遥感相关任务中扮演着不可或缺的重要角色,其不仅在目标检测、语义分割等高热度领域占据重要地位,还在地物识别等遥感专业领域起着不可替代的作用。遥感地物有着十分丰富的类型,这在高分辨率遥感影像中更为明显,对于不同种类的地物分类有着不同的提取方法和要求,但最终目的都是为了更高精度地提取想要的地物信息。遥感地物提取方法中,深度学习方法占据重要地位,深度学习已经在农业地块分类、建筑物提取、道路提取等研究领域发挥重要作用。
在高分辨率遥感影像中,有一些地物具有高密度的特点,比如成片分布的耕地,密集的城镇房屋建筑等。密集地物个体往往相互紧邻,个体之间边界重合率较高,并且在一片区域内,分布十分密集。同时密集地物的边缘特征跟普通地物的边缘特征有着明显的不同之处,普通地物的边界往往是目标地物与非目标地物的分界线,而密集遥感地物的边界不仅包含这种目标地物与非目标地物的边界,同时还包含大量目标地物个体之间的边界。密集地物具有的复杂边界和密集分布带来的复杂信息量是密集地物提取任务中的巨大挑战。常用的深度学习提取方法中,语义分割方法和语义边缘检测方法是目前热度最高,效果最好的,但是对于密集遥感地物的提取任务,两者仍存在一些不足。语义分割能够将目标物体的整体内部元素提取出来,不会发生提取物体边界不完整的问题,但是语义分割很难做到真正的边界准确性,并且语义分割在密集遥感地物的提取中存在一定的缺陷,其提取的结果只包含目标地物内部元素和目标地物与非目标地物的边界,并不包目标地物个体间的边界。这使得语义分割方法很难在密集遥感地物提取任务中单独使用。语义边缘检测能够提取到目标地物与非目标地物的边界,也能够提取到目标地物之间的边界,但是由于图像质量参差以及物体本身边界不明显导致的提取边缘断开的问题是语义边缘提取任务经常碰到的难题,因此语义边缘能够对密集遥感地物进行提取,但是断线会导致提取精度很难提高。目前,对于密集遥感地物提取任务还没有一种有效的方法能够做到高质量、高精度提取,对于高分遥感影像中密集遥感地物个体较小、密度较大、边缘类型复杂导致的地物提取不够完整、提取不够精确。
发明内容
本发明要克服现有技术的上述缺点,提供一种基于线面结合的密集遥感地物提取方法。
考虑到语义边缘提取和语义分割两种提取方式的不足和优势,结合两种提取方法进行同步提取,以语义边缘提取为主任务,以语义分割为辅助任务,可以使两种提取方式的优势相互补充,克服两种方式的不足。融合语义边缘提取结果和语义分割提取结果,能够克服语义边缘提取方法中提取边界不完整和语义分割方法中提取边界不准确、个体间边界缺失的问题。语义边缘提取与语义分割的提取结果并不是最终需要的提取结果,遥感地物提取的最终目标是得到矢量化的地块图斑。因此,密集遥感地物提取最终应用的关键步骤是矢量化以及语义边缘提取结果和语义分割提取结果的融合。本发明将采用语义边缘提取和语义分割结合的方法,实现高分遥感影像的密集遥感地物的精细提取,并通过矢量化方法得到密集遥感地物的线结果和面结果,然后以线结果为主,面结果为辅,融合线面结果最终得到高质量、高精度的矢量化结果。
本发明的一种基于线面结合的密集遥感地物提取方法,线其实就是语义边缘提取,面其实就是语义分割。本发明利用语义边缘提取和语义分割相结合,融合线提取结果和面提取结果,克服了语义边缘提取方法中提取边界不完整和语义分割方法中提取边界不准确、个体间边界缺失的问题。两种提取方法提取的结果经过后处理融合之后,可以明显改善两个方法单独使用的提取效果,提取结果可以部分甚至完全取代人工绘制的图斑,从而能够减少制作图斑的高昂人工劳动力的投入。为实现上述目标,本发明提出的技术方案包括语义边缘提取和语义分割模型的挑选、设计、训练、测试、应用和线面结果的后处理、矢量化、融合等过程。
为了实现提取目标,本发明的一种基于线面结合的密集遥感地物提取方法,包括步骤如下:
步骤1:选定最终需要提取的目标应用区域影像数据,并准备将目标应用区的数据用于绘制样本。选定区域需包含大量密集遥感地物(密集耕地、密集建筑等)。
步骤1.1:选定并获取最终方法的应用区域高分遥感影像大图数据。
步骤1.2:选取密集遥感地物较多的区域进行裁图,并对具体密集遥感地物(密集耕地、密集建筑等)进行人工标注。
步骤1.3:检查标注样本,对人工标注样本进行优化和挑选。
步骤1.4:对标注好的密集遥感地物样本进行划分,按比例将样本分为训练集和测试集。
步骤2:从高分遥感影像的特点以及密集遥感地物的特点挑选、设计语义边缘提取网络模型以及语义分割网络模型,使之适合高分遥感影像中密集遥感地物的提取任务。
步骤2.1:结合高分遥感影像以及密集遥感地物的特点挑选适合的语义边缘提取网络模型以及语义分割网络模型结构,首先需要网络本身性能优秀,然后就是需要与密集遥感地物相匹配,也就是说网络本身需要对密集遥感地物敏感,能够胜任密集且小的遥感物体的提取任务。
针对语义边缘提取部分,为了减少影像中边缘像素和非边缘像素的分布极为不平衡的问题的影响,引入边缘比例参数β来减少这种影响。
L=-βΣlogPr(yj=1)-(1-β)ΣlogPr(yj=0)#(1)
步骤2.2:获取到合适的网络结构之后,进行超参数的适应性更改,使之能够在密集遥感地物上取得高质量的提取结果。
步骤2.3:得到合适的超参数之后,可以直接作为最终网络结构使用,也可以做出针对性结构改进,以达到更好的提取效果。
步骤3:利用步骤2设计改进的适用于密集遥感地物的语义边缘提取网络模型和语义分割网络模型对步骤1中准备的高分遥感影像训练数据分别进行训练,获得密集遥感地物的语义边缘提取网络模型和语义分割网络模型,然后利用步骤1中的测试数据对模型进行评估,根据评估结果决定是否重复步骤2对网络模型结构及参数进行微调,获取最终最优提取模型。
步骤3.1:将步骤1中分出的训练数据分成两份,并分别改造成为语义边缘提取网络模型和语义分割网络模型可输入的数据格式。
步骤3.2:将语义边缘提取训练集数据输入到语义边缘提取网络模型进行训练,将语义分割训练集数据输入语义分割网络模型进行训练,直到两个模型达到拟合。
步骤3.3:利用步骤1中准备的测试数据分成两份,分别改造成语义边缘提取网络模型和语义分割网络模型可输入的数据格式。使用测试数据对训练好的模型进行测试,并根据情况决定是否重复步骤2对网络再次进行结构及超参数调整,直到获得较优模型,得到最终的密集遥感地物的语义边缘提取网络模型和语义分割网络模型。
步骤4:利用步骤3中训练好的两种网络模型对步骤1中准备的目标应用区高分遥感影像大图数据分别进行预测,获得应用区域密集遥感地物的线结果和面结果。
步骤4.1:将步骤1中目标应用区高分遥感影像大图数据分成两份分别改造成为两种网络模型可输入的数据格式。
步骤4.2:将应用区大图数据分别输入训练好的语义边缘提取网络模型以及语义分割网络模型,分别得到线预测结果和面预测结果。
步骤5:将步骤4中的面预测结果进行二值化和去小图斑处理。将步骤4中的线预测结果进行细化和补断线处理。
步骤5.1:得到的面预测结果是灰度的,需要使用二值化对预测的面结果及进行二值化,然后再用去小图斑算法对面结果除去小面积图斑,得到处理后的面结果。
去小图斑算法公式如下,block(i)是面结果的第i个块区域,PIXEL_VALUE代表块区域中的灰度值,THRESHOLD代表去除小图斑块区域面积大小的阈值,当面积大于等于阈值时,块区域的像素值不变仍为255,当块区域面积小于阈值时块区域的像素值变为0,与背景值一样,将小图斑去除。
步骤5.2:得到的线预测结果中的边缘都是比较粗的,使用细化算法对边缘细化,同时使用补断线算法对短线进行修补,得到处理后的线结果。
细化算法公式如下,p(i)代表第i个像素点,_VAL表示像素点的灰度值,isSke用来判断像素点是否位于边缘的骨架上。当像素点灰度值大于0并且像素点位于边缘骨架上,则保留该点,像素值不变为255。当像素点灰度值为0或者像素点不在边缘骨架上,则删除该点,像素值为0。对全图像素执行完之后,即可得到细化之后的结果。
步骤6:将步骤5中的得到的处理后的面结果和线结果矢量化,并使用融合算法融合面和线的矢量化结果得到最终密集遥感地物提取结果。
步骤6.1:将步骤5的处理后的面结果转为面矢量结果。
步骤6.2:将步骤5的处理后的线结果转为线矢量结果,然后线矢量结果转为面矢量结果。
步骤6.3:利用融合算法,以线结果为主,面结果为辅,融合两个矢量结果,得到最终密集遥感地物提取结果。
本发明的优点是:本发明将采用语义边缘提取和语义分割结合的方法,实现高分遥感影像的密集遥感地物的精细提取,并通过矢量化方法得到密集遥感地物的线结果和面结果,然后以线结果为主,面结果为辅,融合线面结果最终得到高质量、高精度的矢量化结果;能克服对于高分遥感影像中密集遥感地物个体较小、密度较大、边缘类型复杂导致的地物提取不够完整、提取不够精确的缺点。并减少人工劳动,能够提高图斑生产效率。
附图说明
图1是本发明方法的流程图;
图2是密集地物的语义边缘样本示例;
图3是密集地物的语义分割样本示例;
图4是使用本发明获得的线结果和面结果;
图5是使用本发明获得的线面融合提取结果在影像上的展示;
图6是使用本发明在应用区影像大图上的线面融合提取结果在影像上的展示。
具体实施方式
为了更好地理解本发明的具体内容,以下结合附图及实施例,对本发明进行更加详细的介绍。
(1)数据准备阶段的主要任务包括准备目标应用区域遥感影像大图数据,以及裁剪应用区域数据影像,用于绘制密集遥感地物数据样本。
(1.1)选定方法最终的应用区域,并下载目标应用区域的高分遥感影像大图数据。
(1.1)根据选择的高分遥感数据影像,选取密集遥感地物较多的区域进行裁图,密集地物可以是密集耕地、密集建筑等,最终可以根据实际地物覆盖情况选择其中一种或者多种密集地物作为提取目标,并对具体密集遥感地物进行人工标注,人工标注的方法主要是沿着地物边缘进行标注,标注工具可以根据实际情况选择。
(1.2)检查标注样本,该步骤是十分重要的一个环节,样本中的信息准确性将会直接影像到最终的提取效果。为了保证样本的可靠性,需要对对人工标注样本进行细致的优化和挑选。
(1.3)该步骤是将样本划分为训练集和测试集,对标注好的密集遥感地物样本进行划分,按比例将样本进行划分。划分时可以按照9:1、8:2、7:3等比例划分为训练集和测试集。划分时需要训练集和测试集均匀分布于标注样本中,也就是说无论是训练集和测试集都需要具有整体样本的代表性。
(2)网络模型的挑选和优化是所有步骤中最重要的步骤之一,一个好的网络模型能够获得更加精确的提取结果,这会影响到最终的提取效果。从高分遥感影像的特点以及密集遥感地物的特点设计或修改语义边缘提取网络模型和语义分割网络模型,网络模型需要本身具有良好的提取性能和效果,优化之后使之适合高分遥感影像中密集遥感地物的边缘提取任务。
(2.1)结合高分遥感影像以及密集遥感地物的特点挑选适合的语义边缘提取和语义分割网络结构,首先需要网络本身性能优秀。挑选时可以根据网络在公开数据集上的表现进行初步筛选,然后选取密集遥感地物样本对网络进行测试,以选择出较优的网络结构。然后网络结构还需要与密集遥感地物相匹配,也就是说网络本身需要对密集遥感地物敏感,或者网络的适应性很好,能够胜任密集且小物体的提取任务。
针对语义边缘提取部分,为了减少影像中边缘像素和非边缘像素的分布极为不平衡的问题的影响,引入边缘比例参数β来减少这种影响。
L=-βΣlogPr(yj=1)-(1-β)ΣlogPr(yj=0)#(1)
(2.2)获取到合适的语义边缘提取网络模型和语义分割网络模型之后,可以熟悉网络模型的具体结构,利用自制自制或者公开数据集对网络进行测试,根据测试结果,对选择的网络模型结构进行超参数的适应性更改,使之能够在密集遥感地物上取得与普通地物相当甚至更好的效果。
(2.3)得到合适的超参数之后,若网络结构已经能够实行密集遥感地物的提取任务,可以直接作为最终网络结构使用。如果效果欠佳,或者想要更好的提取效果,也可以对网络模型结构做出针对性改进,以达到更好的提取效果。
(3)利用步骤2设计改进的适用于密集遥感地物的边缘提取网络模型以及语义分割网络模型对步骤1中准备的高分遥感影像训练数据进行训练,获得密集遥感地物的语义边缘提取网络模型和语义分割网络模型。模型的迭代次数可以根据测试时的拟合迭代次数进行设定,迭代次数跟数据集大小以及网络性能和电脑性能相关,次数不能太少也不宜过多,可以根据训练过程中的损失函数来预估合适的训练次数。
(3.1)将步骤1中分出的训练数据复制为两份,分别改造成为语义边缘提取网络模型和语义分割网络模型可输入的数据格式。一般高分遥感影像的图片格式为tif、png或者jpg,通道数一般为三通道或者四通道。标注的标签一般转换为tif、png或者jpg的二值灰度图片,通道数一般为单通道。
(3.2)将改好格式的两份训练集数据分别输入语义边缘提取网络模型和语义分割网络模型训练,训练的迭代次数可以根据测试时拟合的迭代次数来设置,训练过程中的损失函数值用来监控模型的训练情况,损失函数值将会一直下降,直到模型达到拟合之后,损失函数将会小范围波动达到稳定。
(3.3)利用步骤1中准备的测试数据分成两份,分别改造成语义边缘提取网络模型和语义分割网络模型可输入的数据格式。使用测试数据对训练好的网络模型进行测试,并根据情况决定是否重复步骤2对网络再次进行结构及超参数调整,直到获得较优模型,得到最终的密集遥感地物的语义边缘提取网络模型和语义分割网络模型。
(4)利用步骤3中训练好的两种网络模型对步骤1中准备的目标应用区高分遥感影像大图数据分别进行预测,获得应用区域密集遥感地物的线结果和面结果。
(4.1)将步骤1中目标应用区高分遥感影像大图数据分成两份分别改造成为两种网络模型可输入的数据格式。
(4.2)将应用区大图数据分别输入训练好的语义边缘提取网络模型以及语义分割网络模型,分别得到线预测结果和面预测结果。
(5)将步骤4中语义分割网络模型预测的面结果进行二值化、去小图斑处理,为面结果的矢量化做准备。将步骤4中语义边缘提取网络模型预测的线结果进行细化、补断线处理,为线结果矢量化做准备。
(5.1)语义分割网络模型预测得到的面结果是灰度的,不能直接转为矢量,并且面结果会存在许多细小图斑,也会影响矢量化结果。因此首先需要对灰度的面结果二值化,方便后续矢量化。由于大量的小图斑会让矢量化结果出现许多细小碎斑,影响矢量化结果的准确性,需要对二值化后的面结果使用去小图斑处理。
去小图斑算法公式如下,block(i)是面结果的第i个块区域,PIXEL_VALUE代表块区域中的像素值,THRESHOLD代表去除小图斑块区域面积大小的阈值,当面积大于等于阈值时,块区域的像素值不变仍为255,当块区域面积小于阈值时块区域的像素值变为0,与背景值一样,将小图斑去除。
(5.2)语义边缘提取网络模型预测结果中的边缘较粗,一般会有几个到十几个像素,这对线结果的矢量化是有影响的,所以需要进行细化处理。同时还需要根据线结果对断线进行修补,以达到更好的效果。
细化算法公式如下,p(i)代表第i个像素点,_VAL表示像素点的灰度值,isSke用来判断像素点是否位于边缘的骨架上。当像素点灰度值大于0并且像素点位于边缘骨架上,则保留该点,像素值不变为255。当像素点灰度值为0或者像素点不在边缘骨架上,则删除该点,像素值为0。对全图像素执行完之后,即可得到细化之后的结果。
(6)将步骤5中的得到的处理后的面结果和线结果矢量化,并使用融合算法融合面和线的矢量化结果得到最终密集遥感地物提取结果。
(6.1)将步骤5的处理后的面结果利用面矢量化算法转为面矢量结果。
(6.2)将步骤5的处理后的线结果利用线矢量化算法转为线矢量结果,然后利用面矢量化算法将线矢量结果转为面矢量结果。
(6.3)利用融合算法,融合两个面矢量结果。线结果的矢量化结果边界比较准确,但是没有完整闭合的地块在矢量化过程中存在图斑缺失。面结果矢量化的结果边界准确性较低,但是可以用来补充线矢量化缺失的图斑。融合时以线结果得到的面矢量为主,面结果得到的面矢量作为补充,得到最终密集遥感地物提取结果。
经过实践证明,本发明能够得到较为理想的密集遥感地物提取结果,其提取结果大大优于先前的遥感地物提取方法,获得更加精确的结果,能够减少很多人工劳动,能够提高图斑生产效率,减少不必要的劳动力和经济支出。本发明中所提及方法可广泛应用于高分辨率遥感影像中密集遥感地物的提取任务中。
Claims (7)
1.一种基于线面结合的密集遥感地物提取方法,其特征在于,包括以下步骤:
步骤1:选定最终需要提取的目标应用区域影像数据,并准备将目标应用区的数据用于绘制样本,选定区域需包含大量密集遥感地物(密集耕地、密集建筑等);
步骤2:从高分遥感影像的特点以及密集遥感地物的特点挑选、设计语义边缘提取网络模型以及语义分割网络模型,使之适合高分遥感影像中密集遥感地物的提取任务;
步骤3:利用步骤2设计改进的适用于密集遥感地物的语义边缘提取网络模型和语义分割网络模型对步骤1中准备的高分遥感影像训练数据进行训练,获得密集遥感地物的语义边缘提取网络模型和语义分割网络模型,然后利用步骤1中的测试数据对模型进行评估,根据评估结果决定是否重复步骤2对网络结构及参数进行微调,获取最终最优提取模型;
步骤4:利用步骤3中训练好的语义边缘提取网络模型和语义分割网络模型对步骤1中准备的目标应用区高分遥感影像大图数据分别进行预测,获得应用区域密集遥感地物的线结果和面结果;
步骤5:将步骤4中的面预测结果进行二值化和去小图斑处理;将步骤4中的线预测结果进行细化和补断线处理;
步骤6:将步骤5中的得到的处理后的面结果和线结果矢量化,并使用融合算法融合面和线的矢量化结果得到最终密集遥感地物提取结果。
2.根据权利要求1所述的一种基于线面结合的密集遥感地物提取方法,其特征在于,步骤1包括:
步骤1.1:选定并获取最终方法的应用区域高分遥感影像大图数据;
步骤1.2:选取密集遥感地物较多的区域进行裁图,并对具体密集遥感地物(密集耕地、密集建筑等)进行人工标注;
步骤1.3:检查标注样本,对人工标注样本进行优化和挑选;
步骤1.4:对标注好的密集遥感地物样本进行划分,按比例将样本分为训练集和测试集。
3.根据权利要求1所述的一种基于线面结合的密集遥感地物提取方法,其特征在于,步骤2包括:
步骤2.1:结合高分遥感影像以及密集遥感地物的特点挑选适合的语义边缘提取网络模型以及语义分割网络模型结构,首先需要网络本身性能优秀,然后就是需要与密集遥感地物相匹配,也就是说网络本身需要对密集遥感地物敏感,能够胜任密集且小的遥感物体的提取任务;
针对语义边缘提取部分,为了减少影像中边缘像素和非边缘像素的分布极为不平衡的问题的影响,引入边缘比例参数β来减少这种影响;
L=-βΣlogPryj=1-(1-β)ΣlogPr(yj=0)#1
步骤2.2:获取到合适的网络结构之后,进行超参数的适应性更改,使之能够在密集遥感地物上取得高质量的提取结果;
步骤2.3:得到合适的超参数之后,直接作为最终网络结构使用,或做出针对性结构改进,以达到更好的提取效果。
4.根据权利要求1所述的一种基于线面结合的密集遥感地物提取方法,其特征在于,步骤3包括:
步骤3.1:将步骤1中分出的训练数据分成两份,并分别改造成为语义边缘提取网络模型和语义分割网络模型可输入的数据格式;
步骤3.2:将语义边缘提取训练集数据输入到语义边缘提取网络模型进行训练,将语义分割训练集数据输入语义分割网络模型进行训练,直到两个模型达到拟合;
步骤3.3:利用步骤1中准备的测试数据分成两份,分别改造成语义边缘提取网络模型和语义分割网络模型可输入的数据格式;使用测试数据对训练好的网络模型进行测试,并根据情况决定是否重复步骤2对网络模型再次进行结构及超参数调整,直到获得较优模型,得到最终的密集遥感地物语义边缘提取网络模型和语义分割网络模型。
5.根据权利要求1所述的一种基于线面结合的密集遥感地物提取方法,其特征在于,步骤4包括:
步骤4.1:将步骤1中目标应用区高分遥感影像大图数据分成两份分别改造成为两种网络模型可输入的数据格式;
步骤4.2:将应用区大图数据分别输入训练好的语义边缘提取网络模型以及语义分割网络模型,分别得到线预测结果和面预测结果。
6.根据权利要求1所述的一种基于线面结合的密集遥感地物提取方法,其特征在于,步骤5包括:
步骤5.1:得到的面预测结果是灰度的,需要使用二值化对预测的面结果及进行二值化,然后再用去小图斑算法对面结果除去小面积图斑,得到处理后的面结果;
去小图斑算法公式如下,block(i)是面结果的第i个块区域,PIXEL_VALUE代表块区域中的灰度值,THRESHOLD代表去除小图斑块区域面积大小的阈值,当面积大于等于阈值时,块区域的像素值不变仍为255,当块区域面积小于阈值时块区域的像素值变为0,与背景值一样,将小图斑去除。
步骤5.2:得到的线预测结果中的边缘都是比较粗的,使用细化算法对边缘细化,同时使用补断线算法对短线进行修补,得到处理后的线结果;
细化算法公式如下,p(i)代表第i个像素点,_VAL表示像素点的灰度值,isSke用来判断像素点是否位于边缘的骨架上;当像素点灰度值大于0并且像素点位于边缘骨架上,则保留该点,像素值不变为255;当像素点灰度值为0或者像素点不在边缘骨架上,则删除该点,像素值为0;对全图像素执行完之后,即可得到细化之后的结果;
7.根据权利要求1所述的一种基于线面结合的密集遥感地物提取方法,其特征在于,步骤6包括:
步骤6.1:将步骤5的处理后的面结果转为面矢量结果;
步骤6.2:将步骤5的处理后的线结果转为线矢量结果,然后线矢量结果转为面矢量结果;
步骤6.3:利用融合算法,以线结果为主,面结果为辅,融合两个矢量结果,得到最终密集遥感地物提取结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310182246.4A CN116434054A (zh) | 2023-03-01 | 2023-03-01 | 一种基于线面结合的密集遥感地物提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310182246.4A CN116434054A (zh) | 2023-03-01 | 2023-03-01 | 一种基于线面结合的密集遥感地物提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116434054A true CN116434054A (zh) | 2023-07-14 |
Family
ID=87093256
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310182246.4A Pending CN116434054A (zh) | 2023-03-01 | 2023-03-01 | 一种基于线面结合的密集遥感地物提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116434054A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117349462A (zh) * | 2023-12-06 | 2024-01-05 | 自然资源陕西省卫星应用技术中心 | 一种遥感智能解译样本数据集生成方法 |
-
2023
- 2023-03-01 CN CN202310182246.4A patent/CN116434054A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117349462A (zh) * | 2023-12-06 | 2024-01-05 | 自然资源陕西省卫星应用技术中心 | 一种遥感智能解译样本数据集生成方法 |
CN117349462B (zh) * | 2023-12-06 | 2024-03-12 | 自然资源陕西省卫星应用技术中心 | 一种遥感智能解译样本数据集生成方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109859171B (zh) | 一种基于计算机视觉和深度学习的楼面缺陷自动检测方法 | |
CN108961235B (zh) | 一种基于YOLOv3网络和粒子滤波算法的缺陷绝缘子识别方法 | |
CN112287807B (zh) | 一种基于多分支金字塔神经网络的遥感影像道路提取方法 | |
CN110263717B (zh) | 一种融入街景影像的土地利用类别确定方法 | |
CN111553303B (zh) | 基于卷积神经网络的遥感正射影像密集建筑物提取方法 | |
CN110070008B (zh) | 一种采用无人机图像的桥梁病害识别方法 | |
CN106934418B (zh) | 一种基于卷积递归网络的绝缘子红外诊断方法 | |
CN112884791B (zh) | 一种构建大规模遥感影像语义分割模型训练样本集的方法 | |
CN108305253B (zh) | 一种基于多倍率深度学习的病理图像分类方法 | |
CN110956207B (zh) | 一种光学遥感影像全要素变化检测方法 | |
CN110008877B (zh) | 一种基于Faster RCNN的变电站隔离开关检测识别方法 | |
CN111210869A (zh) | 一种蛋白质冷冻电镜结构解析模型训练方法和解析方法 | |
CN116434054A (zh) | 一种基于线面结合的密集遥感地物提取方法 | |
CN104680185A (zh) | 基于边界点重分类的高光谱图像分类方法 | |
CN116310882A (zh) | 基于高分辨率遥感影像的林业信息识别方法 | |
CN116205876A (zh) | 基于多尺度标准化流的无监督笔记本外观缺陷检测方法 | |
CN111104850A (zh) | 一种基于残差网络的遥感影像建筑物自动提取方法和系统 | |
CN115170479A (zh) | 一种沥青路面修补病害自动提取方法 | |
CN113077438B (zh) | 针对多细胞核彩色图像的细胞核区域提取方法及成像方法 | |
CN114332534A (zh) | 一种高光谱图像小样本分类方法 | |
CN113506240A (zh) | 一种基于深度学习的金相晶界提取和连通方法 | |
CN115830302B (zh) | 一种多尺度特征提取融合配电网设备定位识别方法 | |
CN111986802A (zh) | 一种肺腺癌病理分化等级的辅助判定系统及方法 | |
CN115423802A (zh) | 基于深度学习的鳞状上皮肿瘤细胞图片自动分类分割方法 | |
CN109615630A (zh) | 基于图像处理技术的半连续铸造铝硅合金微观组织分析方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |