CN113205023B - 一种基于先验矢量引导的高分影像建筑物提取精处理方法 - Google Patents
一种基于先验矢量引导的高分影像建筑物提取精处理方法 Download PDFInfo
- Publication number
- CN113205023B CN113205023B CN202110443616.6A CN202110443616A CN113205023B CN 113205023 B CN113205023 B CN 113205023B CN 202110443616 A CN202110443616 A CN 202110443616A CN 113205023 B CN113205023 B CN 113205023B
- Authority
- CN
- China
- Prior art keywords
- vector
- image
- building
- segmentation
- prior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 239000013598 vector Substances 0.000 title claims abstract description 106
- 238000000605 extraction Methods 0.000 title claims abstract description 53
- 238000003672 processing method Methods 0.000 title claims abstract description 14
- 230000011218 segmentation Effects 0.000 claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 19
- 238000012545 processing Methods 0.000 claims abstract description 19
- 238000004458 analytical method Methods 0.000 claims abstract description 12
- 238000003709 image segmentation Methods 0.000 claims abstract description 10
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000001228 spectrum Methods 0.000 claims abstract description 9
- 230000002708 enhancing effect Effects 0.000 claims abstract description 8
- 238000012937 correction Methods 0.000 claims abstract description 7
- 230000003595 spectral effect Effects 0.000 claims description 18
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000005056 compaction Methods 0.000 claims description 3
- 238000012804 iterative process Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000013136 deep learning model Methods 0.000 abstract description 3
- 238000004590 computer program Methods 0.000 description 5
- 238000013135 deep learning Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012549 training Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000003860 storage Methods 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/587—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using geographical or spatial information, e.g. location
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/2431—Multiple classes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Image Processing (AREA)
Abstract
本发明提供一种基于先验矢量引导的高分影像建筑物提取精处理方法,包括基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何配准及校正后的数据集;基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑,得到栅矢套合下地物类别分割像斑;采取多数投票法得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性,得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果。本发明显著提高了基于深度学习模型的高分辨率遥感影像建筑物提取质量。
Description
技术领域
本发明涉及遥感应用技术领域,尤其是涉及一种基于先验矢量引导的高分影像建筑物提取精处理方法。
背景技术
近年来,随着计算机计算能力和深度学习算法的发展,以卷积神经网络为基础的建筑物目标检测识别和语义分割逐渐超过了传统算法,大幅提高了海量遥感影像中建筑物目标提取的准确率。目前基于深度学习的语义分割方法分为两类,一类是以R-CNN(Region-based Convolutional Network)系列为代表的基于候选区域的学习方法,另一类是以FCN、U-Net为代表的可以端到端学习的分割算法。第一类基于R-CNN的一系列算法在目标分类、目标检测、语义分割多个任务取得了很好的效果,但是由于要产生候选区域,后续操作都是基于候选区域进行的,因此极大的决定了后续操作的准确率。并且产生候选区域和分类是两个阶段,导致效率降低。因此,学者们又提出了一类可以直接对图像像素分类并且可以端到端训练的语义分割算法。第二类端到端训练方法的基本思想是:直接训练分类器,进行像素级别的分类,利用样本像素级别的标注真值(ground truth)来进行监督训练。模型输入是原图像,利用真值作为监督信息训练分割网络,输出是原图像对应的语义分割图。
基于深度学习的模型在图像分割领域虽然取得了较好的效果,但是也仍然存在一些缺陷。目前基于端到端全卷积网络的建筑物提取方法,都是采用像素级的语义分割策略,由于网络中采用了池化层,造成了位置细节信息的丢失。针对这个问题,网络底层和高层特征的融合缓解了影像中建筑物边缘定位不准确的现象,但并不总是能够对大幅图像块边缘位置的建筑物进行准确提取。此外,深度网络模型中的填充(padding)操作添加了额外的噪声信息到网络的特征映射,这些因素可能导致建筑物边缘的错误分类。基于像素级别的建筑物预测策略是独立地对影像像素进行标记,并不包含影像块之间像素的相邻位置关系。简单进行拼接精处理并不能避免接边造成的“条带效应”,反而会导致影像边缘上下文信息的误用与处理结果的不准确。本发明采取了基于先验矢量引导的深度网络模型提取结果精处理策略,将遥感影像和土地利用矢量进行栅格矢量套合,在矢量边界约束内进行多尺度细分割获取对象,利用GIS矢量边界的约束对高分辨率遥感影像建筑物提取边界和建筑物提取屋顶完整性进行了大幅的增强。
发明内容
为了解决现有技术的缺陷,本发明的技术方案提供了一种基于先验矢量引导的高分影像建筑物提取精处理方法。
本发明提供一种基于先验矢量引导的高分影像建筑物提取精处理方法,包括以下步骤:
步骤一,基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何配准及校正后的数据集;
步骤二,基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑,得到栅矢套合下地物类别分割像斑;
步骤三,采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性,得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果。
而且,所述步骤一中,基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何精细配准及校正后的数据集,实现方式如下,
(1)栅矢套合不一致性分析,包括将高分辨率遥感影像数据源与先验土地利用GIS矢量数据源进行套合,确认土地利用图斑边界与影像中的实际地物边界之间的偏移;
(2)栅矢配准,实现如下,
(a)栅矢数据源地理空间坐标系转换;
(b)计算矢量节点在栅格数据中的位置,得到栅矢坐标,
其中,遥感影像左上角像素的横、纵坐标分别为xleft、ytop,dx和dy分别为遥感影像东西向、南北向的空间分辨率,矢量数据节点在同一坐标系下的坐标为(x,y),则该矢量节点在遥感影像上的行列号为(h,l);
(c)计算矢量多边形内所有节点的位置。
而且,所述步骤二中,基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑,得到栅矢套合下地物类别分割像斑,实现方式如下,
(1)基于分形网络演化算法的多尺度分割,以分割对象的平均异质度最小化作为分割根本原则,在分割前确定异质度的分割参数,包括光谱因子和形状因子,通过从下而上的对象信息来进行合并,最后获取对象层次结构的结果,在迭代过程中分割超像素合并前后光谱特征异质度计算如下所示:
Δhcolor=∑wc(nmerge·σc,merge-(nobj_1·σc,obj_1+nobj_2·σc,obj_2))
其中,Δhcolor为分割合并前后光谱异质度增量,wc表示参与分割合并的波段权重,nmerge、σc,merge分别表示合并后超像素对象的像元个数和光谱方差,nobj_1、nobj_2、σc,obj_1、σc,obj_2分别表示合并前两个对象的像元个数和光谱方差;
(2)迭代过程中分割超像素合并前后形状特征异质度由紧凑度和光滑度因子组成,计算如下所示,
其中,Δhshape为分割合并前后形状异质度增量,Δhcompt、Δhsmooth分别表示分割合并前后紧凑度增量和光滑度增量,wcompt、wsmooth分别为紧凑度和光滑度因子的权重,lmerge、bmerge分别表示合并后对象的周长和最小外接矩形边界周长,lobj_1、lobj_2、bobj_1、bobj_2分别表示合并前两个对象的周长和最小外接矩形边界周长;
(3)分割合并对象的整体异质性计算如下所示,
其中,f表示分割合并前后对象单元异质度的变化,wcolor、wshape分别表示光谱特征异质度和形状特征异质度的权重。
而且,所述步骤三中,采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性,得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果,实现方式如下,
(1)统计栅矢套合下的多尺度细分割结果逐个超像素对象的标签;
(2)结合基于深度模型得到的建筑物对象二值预测图判断超像素与建筑物对象的区域重叠度;
(3)根据多数投票法确定逐个超像素内的建筑物预测结果的像素值,确定逐个超像素的地物类别,增强建筑物预测对象的均质性,得到高分辨率建筑物提取精处理结果。
本发明基于先验矢量引导的高分辨率遥感影像建筑物提取精处理方法,优点是:
(1)由于遥感影像数据与先验GIS矢量数据套合具有不一致性,并且影像中由于地形起伏导致的像点位移,尤其对于非正射投影的高大建筑物,这种位移现象更加明显,通过数据不一致性分析和几何精细配准处理解决影像上的建筑物对象与矢量上的不能够一一对应的问题;
(2)充分考虑影像中地物对象的光谱和空间特征,对相邻影像对象之间的异质性进行定义和度量,将同质性高的像素块进行对象合并,在不同尺度参数下不断迭代,得到不同大小的建筑物对象分割集;
(3)考虑基于分割集结果优化深度模型预测结果提取边界的准确性及提取对象的完整性,采取多数投票法的策略,利用分割集中地物超像素的边界约束实现建筑物屋顶同质性与完整性的增强。
本发明通过融入先验GIS矢量数据的空间和位置约束,进一步减少了错误提取的建筑物对象并且平滑了建筑物屋顶轮廓的边界,可显著提高基于深度学习模型的高分辨率遥感影像建筑物提取结果的数据质量,利于投入实际生产。
附图说明
图1是本发明的原理图。
图2是本发明实施例的一种基于先验矢量引导的高分影像建筑物提取精处理方法流程处理图。
具体实施方式
以下结合附图和实施例详细说明本发明技术方案。
参见图1,本发明提出了一种基于先验矢量引导的高分影像建筑物提取精处理方法。首先,该方法基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到匹配及校正后的数据集;其次,基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑;最后,该方法采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性。该精处理策略通过融入先验GIS矢量数据的空间和位置约束,进一步减少了错误提取的建筑物对象并且平滑了建筑物屋顶轮廓的边界,可显著提高基于深度学习模型的高分辨率遥感影像建筑物提取结果的数据质量,利于投入实际生产。
如图2所示,实施例提供的一种基于先验矢量引导的高分影像建筑物提取精处理方法,包括以下步骤:
步骤一,基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何精细配准及校正后的数据集。得到多源异构数据集预处理结果的具体实施步骤如下:
(1)栅矢套合不一致性分析。将这高分辨率遥感影像数据源与先验土地利用GIS矢量数据源进行套合后,由于数据格式、数据的生成标准等方面的差异性,土地利用图斑边界与影像中的实际地物边界一般都会发生明显的“偏移”。
具体实施时,本发明采用的高分影像可以是国家高分卫星的遥感影像。
(2)栅矢配准。
(a)栅矢数据源地理空间坐标系转换;
(b)计算矢量节点在栅格数据中的位置,即栅矢坐标,如公式(1)所示:
其中,遥感影像左上角像素的横、纵坐标分别为xleft、ytop,dx和dy分别为遥感影像东西向、南北向的空间分辨率,且一般有dx>0,dy<0。矢量数据节点在同一坐标系下的坐标为(x,y),则该矢量节点在遥感影像上的行列号为(h,l)。这些相关的参数xleft、ytop、dx和dy一般都存储在影像对应的大地坐标文件信息中。
(c)计算矢量多边形内所有节点(即矢量多边形各顶点)的位置。
步骤二,基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑。
FNEA分割算法:从影像的单个像元开始分割,计算异质性,异质性低说明是相似的,就两两合并,合并之后必须异质度比合并之前小,这个合并-不断计算异质性的过程采用迭代方式实现。
像素的聚类合并得到的一个“分割对象”包含多个像元(即像素),这个像素聚类的结果即是超像素对象。
本发明利用FNEA分割算法得到栅矢套合下地物类别分割像斑的具体实施步骤如下:
(1)基于分形网络演化(FNEA)算法的多尺度分割,以分割对象的平均异质度最小化作为分割根本原则,在分割前确定异质度的分割参数(光谱因子和形状因子),通过从下而上(bottom-up)的对象信息来进行合并,最后获取对象层次结构的结果。在迭代过程中分割超像素合并前后光谱特征异质度计算如公式(2)所示:
Δhvolor=∑wc(nmerge·σc,merge-(nobj_1·σc,obj_1+nobj_2·σc,obj_2)) (2)
其中,Δhcolor为分割合并前后光谱异质度增量,wc表示参与分割合并的波段权重,nmerge、σc,merge分别表示合并后超像素对象的像元个数和光谱方差,nobj_1、nobj_2、σc,obj_1、σc,obj_2分别表示合并前两个对象obj_1、obj_2的像元个数和光谱方差。
(2)迭代过程中分割超像素合并前后形状特征异质度由紧凑度和光滑度因子组成,计算如公式(3)所示:
其中,Δhshape为分割合并前后形状异质度增量,Δhcompt、Δhsmooth分别表示分割合并前后紧凑度增量和光滑度增量,wcompt、wsmooth分别为紧凑度和光滑度因子的权重,lmerge、bmerge分别表示合并后超像素对象的周长和最小外接矩形边界周长,lobj_1、lobj_2、bobj_1、bobj_2分别表示合并前两个对象obj_1、obj_2的周长和最小外接矩形边界周长
(3)分割合并对象的整体异质性计算如公式(4)所示:
其中,f表示分割合并前后对象单元异质度的变化,wcolor、wshape分别表示光谱特征异质度和形状特征异质度的权重。在先验GIS矢量约束下的高分辨率遥感影像的分割过程中加入形状异质度特征,就是为了降低影像噪声对图像分割的干扰,提高分割算法对纹理图像的适应能力,避免地物类别对象分割过于破碎化。
步骤三,采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性。得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果的步骤如下:
(1)统计栅矢套合下的多尺度细分割结果逐个超像素对象的标签;
(2)结合基于深度模型(优选端到端的语义分割网络模型,如UNet、ResNet等)得到的建筑物对象二值预测图判断超像素与建筑物对象的区域重叠度。
(3)根据多数投票法确定逐个超像素内的建筑物预测结果的像素值,确定逐个超像素的地物类别,增强建筑物预测对象的均质性,得到高分辨率建筑物提取精处理结果,提高屋顶内部完整性的同时增加了屋顶边缘的准确性。
具体实施时,本发明技术方案提出的方法可由本领域技术人员采用计算机软件技术实现自动运行流程,实现方法的系统装置例如存储本发明技术方案相应计算机程序的计算机可读存储介质以及包括运行相应计算机程序的计算机设备,也应当在本发明的保护范围内。
在一些可能的实施例中,提供一种基于先验矢量引导的高分影像建筑物提取精处理系统,包括以下模块,
第一模块,用于基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何配准及校正后的数据集;
第二模块,用于基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑,得到栅矢套合下地物类别分割像斑;
第三模块,用于采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性,得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果。
在一些可能的实施例中,提供一种基于先验矢量引导的高分影像建筑物提取精处理系统,包括处理器和存储器,存储器用于存储程序指令,处理器用于调用存储器中的存储指令执行如上所述的一种基于先验矢量引导的高分影像建筑物提取精处理方法。
在一些可能的实施例中,提供一种基于先验矢量引导的高分影像建筑物提取精处理系统,包括可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序执行时,实现如上所述的一种基于先验矢量引导的高分影像建筑物提取精处理方法。
本文中所描述的具体实施例仅仅是对本发明精神作举例说明。本发明所属技术领域的技术人员可以对所描述的具体实施例做各种各样的修改或补充或采用类似的方式替代,但并不会偏离本发明的精神或者超越所附权利要求书所定义的范围。
Claims (4)
1.一种基于先验矢量引导的高分影像建筑物提取精处理方法,其特征在于,包括以下步骤:
步骤一,基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何配准及校正后的数据集;
步骤二,基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑,得到栅矢套合下地物类别分割像斑;
步骤三,采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性,得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果。
2.根据权利要求1所述的一种基于先验矢量引导的高分影像建筑物提取精处理方法,其特征在于:所述步骤一中,基于栅矢一致性分析对先验矢量与高分辨率遥感影像数据进行数据预处理工作,得到几何精细配准及校正后的数据集,实现方式如下,
(1)栅矢套合不一致性分析,包括将高分辨率遥感影像数据源与先验土地利用GIS矢量数据源进行套合,确认土地利用图斑边界与影像中的实际地物边界之间的偏移;
(2)栅矢配准,实现如下,
(a)栅矢数据源地理空间坐标系转换;
(b)计算矢量节点在栅格数据中的位置,得到栅矢坐标,
其中,遥感影像左上角像素的横、纵坐标分别为xleft、ytop,dx和dy分别为遥感影像东西向、南北向的空间分辨率,矢量数据节点在同一坐标系下的坐标为(x,y),则该矢量节点在遥感影像上的行列号为(h,l);
(c)计算矢量多边形内所有节点的位置。
3.根据权利要求2所述的一种基于先验矢量引导的高分影像建筑物提取精处理方法,其特征在于:所述步骤二中,基于FNEA影像分割算法充分考虑地物的光谱和空间特征,通过设置尺度参数在先验矢量边界的约束内对高分辨率遥感影像进行影像细分割获取一系列不同大小的地物类别像斑,得到栅矢套合下地物类别分割像斑,实现方式如下,
(1)基于分形网络演化算法的多尺度分割,以分割对象的平均异质度最小化作为分割根本原则,在分割前确定异质度的分割参数,包括光谱因子和形状因子,通过从下而上的对象信息来进行合并,最后获取对象层次结构的结果,在迭代过程中分割超像素合并前后光谱特征异质度计算如下所示:
Δhcolor=∑wc(nmerge·σc,merge-(nobj_1·σc,obj_1+nobj_2·σc,obj_2))
其中,Δhcotor为分割合并前后光谱异质度增量,wc表示参与分割合并的波段权重,nmerge、σc,merge分别表示合并后超像素对象的像元个数和光谱方差,nobj_1、nobj_2、σc,obj_1、σc,obj_2分别表示合并前两个对象的像元个数和光谱方差;
(2)迭代过程中分割超像素合并前后形状特征异质度由紧凑度和光滑度因子组成,计算如下所示,
其中,Δhshape为分割合并前后形状异质度增量,Δhcompt、Δhsmooth分别表示分割合并前后紧凑度增量和光滑度增量,wcompt、wsmooth分别为紧凑度和光滑度因子的权重,lmerge、bmerge分别表示合并后对象的周长和最小外接矩形边界周长,lobj_1、lobj_2、bobj_1、bobj_2分别表示合并前两个对象的周长和最小外接矩形边界周长;
(3)分割合并对象的整体异质性计算如下所示,
其中,f表示分割合并前后对象单元异质度的变化,wcolor、wshape分别表示光谱特征异质度和形状特征异质度的权重。
4.根据权利要求3所述的一种基于先验矢量引导的高分影像 建筑物提取精处理方法,其特征在于:所述步骤三中,采取多数投票法的策略得到建筑物目标提取最终结果,在先验GIS土地利用矢量边界的约束内增强建筑物对象屋顶提取结果的同质性与完整性,得到先验GIS土地利用矢量约束下的深度网络模型建筑物提取精处理结果,实现方式如下,
(1)统计栅矢套合下的多尺度细分割结果逐个超像素对象的标签;
(2)结合基于深度模型得到的建筑物对象二值预测图判断超像素与建筑物对象的区域重叠度;
(3)根据多数投票法确定逐个超像素内的建筑物预测结果的像素值,确定逐个超像素的地物类别,增强建筑物预测对象的均质性,得到高分辨率建筑物提取精处理结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110443616.6A CN113205023B (zh) | 2021-04-23 | 2021-04-23 | 一种基于先验矢量引导的高分影像建筑物提取精处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110443616.6A CN113205023B (zh) | 2021-04-23 | 2021-04-23 | 一种基于先验矢量引导的高分影像建筑物提取精处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113205023A CN113205023A (zh) | 2021-08-03 |
CN113205023B true CN113205023B (zh) | 2022-04-15 |
Family
ID=77028337
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110443616.6A Active CN113205023B (zh) | 2021-04-23 | 2021-04-23 | 一种基于先验矢量引导的高分影像建筑物提取精处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113205023B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116030352B (zh) * | 2023-03-29 | 2023-07-25 | 山东锋士信息技术有限公司 | 融合多尺度分割和超像素分割的长时序土地利用分类方法 |
CN116503743B (zh) * | 2023-06-28 | 2023-09-08 | 自然资源部第二海洋研究所 | 一种地理矢量数据和高分遥感图像的最优匹配方法 |
CN118279516B (zh) * | 2024-05-31 | 2024-08-06 | 山东理工大学 | 一种基于激光点云和影像的建筑物结构化模型重建方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751478A (zh) * | 2015-04-20 | 2015-07-01 | 武汉大学 | 一种基于多特征融合的面向对象的建筑物变化检测方法 |
CN105608458A (zh) * | 2015-10-20 | 2016-05-25 | 武汉大学 | 一种高分辨率遥感影像建筑物提取方法 |
AU2018101336A4 (en) * | 2018-09-12 | 2018-10-11 | Hu, Yuan Miss | Building extraction application based on machine learning in Urban-Suburban-Integration Area |
CN112434685A (zh) * | 2021-01-28 | 2021-03-02 | 中国科学院空天信息创新研究院 | 基于地表要素的遥感图像信息精细提取方法 |
-
2021
- 2021-04-23 CN CN202110443616.6A patent/CN113205023B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104751478A (zh) * | 2015-04-20 | 2015-07-01 | 武汉大学 | 一种基于多特征融合的面向对象的建筑物变化检测方法 |
CN105608458A (zh) * | 2015-10-20 | 2016-05-25 | 武汉大学 | 一种高分辨率遥感影像建筑物提取方法 |
AU2018101336A4 (en) * | 2018-09-12 | 2018-10-11 | Hu, Yuan Miss | Building extraction application based on machine learning in Urban-Suburban-Integration Area |
CN112434685A (zh) * | 2021-01-28 | 2021-03-02 | 中国科学院空天信息创新研究院 | 基于地表要素的遥感图像信息精细提取方法 |
Non-Patent Citations (2)
Title |
---|
《Building extraction from VHR remote sensing imagery by combining an improved deep convolutional encoder-decoder architecture and historical land use vector map》;Wenqing Feng等;《International Journal of Remote Sensing》;20200617;全文 * |
《高分辨率遥感影像土地利用变化检测方法研究》;王琰 等;《国土资源遥感》;20120229;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN113205023A (zh) | 2021-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113205023B (zh) | 一种基于先验矢量引导的高分影像建筑物提取精处理方法 | |
CN111563442B (zh) | 基于激光雷达的点云和相机图像数据融合的slam方法及系统 | |
CN111914795B (zh) | 一种航拍图像中旋转目标检测方法 | |
Vargas-Muñoz et al. | Correcting rural building annotations in OpenStreetMap using convolutional neural networks | |
Wei et al. | BuildMapper: A fully learnable framework for vectorized building contour extraction | |
CN112633277A (zh) | 基于深度学习的航道船牌检测、定位及识别方法 | |
CN112784869B (zh) | 一种基于注意力感知与对抗学习的细粒度图像识别方法 | |
Galvanin et al. | Extraction of building roof contours from LiDAR data using a Markov-random-field-based approach | |
CN113902792A (zh) | 基于改进RetinaNet网络的建筑物高度检测方法、系统和电子设备 | |
CN114419430A (zh) | 一种基于SE-U-Net++模型的耕地地块提取方法及装置 | |
CN115511952A (zh) | 一种基于深度相机的装配式铺面三维点云预处理方法 | |
CN114332233B (zh) | 一种激光slam回环检测方法和系统 | |
CN113269049A (zh) | 一种用于检测手写汉字区域的方法 | |
Zhang et al. | A data-driven approach for adding facade details to textured LoD2 CityGML models | |
Xu et al. | Fast and accurate registration of large scene vehicle-borne laser point clouds based on road marking information | |
CN114463503A (zh) | 三维模型和地理信息系统的融合方法及装置 | |
Shen et al. | A raster-based typification method for multiscale visualization of building features considering distribution patterns | |
Zhou et al. | 3D building change detection between current VHR images and past lidar data | |
CN110348311B (zh) | 一种基于深度学习的道路交叉口识别系统及方法 | |
CN117291790A (zh) | 一种sar图像配准方法、装置、设备及介质 | |
CN109919852B (zh) | 一种光学遥感图像的屋顶视角校正方法 | |
CN116958595A (zh) | 一种基于图像块区域特征点的视觉slam回环检测改进方法 | |
JP2003141567A (ja) | 3次元都市モデル生成装置及び3次元都市モデル生成方法 | |
WO2024016368A1 (zh) | 一种掩膜引导的影像镶嵌线的生成方法、装置、计算机设备及存储介质 | |
CN116051771A (zh) | 一种基于无人机倾斜摄影模型的光伏bim屋顶自动建模方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |