CN115205704A - 高分辨率遥感影像小样本高精度建筑分割提取方法及装置 - Google Patents

高分辨率遥感影像小样本高精度建筑分割提取方法及装置 Download PDF

Info

Publication number
CN115205704A
CN115205704A CN202210870003.5A CN202210870003A CN115205704A CN 115205704 A CN115205704 A CN 115205704A CN 202210870003 A CN202210870003 A CN 202210870003A CN 115205704 A CN115205704 A CN 115205704A
Authority
CN
China
Prior art keywords
building
sample
extraction
model
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210870003.5A
Other languages
English (en)
Inventor
徐世武
陶年旺
饶蕾
吕莎
张雪松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Yitu Space Time Technology Co ltd
China University of Geosciences
Original Assignee
Wuhan Yitu Space Time Technology Co ltd
China University of Geosciences
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Yitu Space Time Technology Co ltd, China University of Geosciences filed Critical Wuhan Yitu Space Time Technology Co ltd
Priority to CN202210870003.5A priority Critical patent/CN115205704A/zh
Publication of CN115205704A publication Critical patent/CN115205704A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种高分辨率遥感影像小样本高精度建筑分割提取方法及装置。获取样本集,包括标记样本和未标记样本;划分训练集和验证集;基于带约束的正样本学习算法构建UNet++改进模型并初始化c值;训练模型,得到正样本概率,通过c值将正样本概率转换成标记样本概率,计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,训练完成,训练好的模型为双分支建筑物分割模型;将待测试影像输入训练好的建筑物分割模型进行建筑物分割提取。结合UNet++和带约束的正样本学习算法,可以自动通过人工标记样本的特征调整得到正样本的特征,同时通过双分支模型提高了对粘连建筑边缘检测的局部准确性。

Description

高分辨率遥感影像小样本高精度建筑分割提取方法及装置
技术领域
本发明涉及图像处理技术领域,尤其涉及一种高分辨率遥感影像小样本高精度建筑分割提取方法及装置。
背景技术
为了确保粮食安全,中国开始监测建筑物侵占耕地的情况,使用GF-2卫星遥感数据,覆盖全国,每季度一次,精确到栋,200平方米以上的房屋需要上图,主要以人工方式进行,工作量巨大。目前影像建筑物提取技术研究主要基于超高分辨率(<0.5米),这类影像对比度和颜色饱和度高,房屋边缘锐利,使用传统方法和深度学习依据房屋边角特征提取都能取得很好的效果,完全可以满足建筑占耕的空间技术指标,但是这类影像成本高,采集周期较长,不能满足监测的时间分辨率要求。近来一些学者采用深度神经网络研究基于GF-2号1米分辨率影像的建筑物提取,然而,深度神经网络的下采样带来的空间精度损失造成房屋边界模糊,不能有效的区分楼栋边界。
传统建筑提取的方法大致分为三种:第一种为基于像元的建筑提取,如最大似然法、最小距离法、K-均值、迭代自组织数据分析等。由于只考虑光谱信息,忽略了图像自身的空间特征及地物对象的拓扑关系,造成了图像处理的困难,而且同谱异物和同物异谱的现象导致泛化精度不高;鉴于基于像元方法的局限性,发展出第二种方法:利用面向对象技术提取建筑。它不仅利用地物的光谱信息,更融合了几何信息、结构信息以及纹理特征等,是一种综合的处理方法,然而,目前无法自适应获取分割参数,越充分的特征表达就越需要人工的参与,如此一来就增加了分类的复杂程度;第三种是利用激光雷达数据、合成孔径雷达数据、数字高程模型数据或数字表面模型等数据去辅助提取建筑,但是需要获取大量同期同时空的多源数据,生产成本较高。
随着近几年深度学习算法的迅速发展,将其应用于提取遥感影像中的建筑信息、自动进行监测建筑侵占耕地情况等成为当前热门的研究方向。语义分割方法是遥感影像特征自动提取中最常用的方法之一,但在提取过程中发现存在三个问题:首先,常规的深度学习模型通常要求训练样本中的所有目标类别都要进行标记,对样本的质量要求高,但人工标记的样本有错标漏标等现象,导致训练时错误类别特征混入目标类别特征中,造成特征混淆,目标地类的特征没有被准确提取;其次由于建筑与周围地形(如道路、平地)等环境特征相似、收集影像的传感器类型以及网络模型下采样等方面的影响,导致无法提取边界准确结果;三是可采用的数据源与现有技术不匹配。目前使用传统方法和深度学习依据超高分辨率影像(<0.5米)的房屋边角特征提取能取得很好的效果,但是这类影像成本高,采集周期较长,不能满足监测的时间分辨率要求。
发明内容
为了解决上述技术问题中的至少一个,本发明引入一类分类的带约束的正样本学习算法对多类分类的U-Net++模型进行改进,得到一类分类深度学习模型,并提出一种利用卷积神经网络融合边缘识别结果和区域识别结果的双流模型方法,实现利用低质量样本完成高精度的建筑提取。
根据本发明的一个方面,一种高分辨率遥感影像小样本高精度建筑分割提取方法,包括以下步骤:
S1:获取样本集,所述样本集包括标记样本和未标记样本;
S2:将所述样本集划分为训练集和验证集;
S3:基于带约束的正样本学习算法构建UNet++改进模型并初始化c值(c的物理含义为标记样本占正样本的比例,在本发明应用中即为标记的建筑物占真实建筑物的比例),所述UNet++改进模型为一类分类深度学习模型;
S4:使用所述训练集训练UNet++改进模型,得到正样本概率(在一类分类中,将目标类称为正样本,将其他类称为负样本),通过c值将正样本概率转换成标记样本的概率,并计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,停止训练,得到训练好的建筑物分割模型;
S5:将待测试的高分辨率遥感影像输入所述训练好的建筑物分割模型,输出建筑物分割提取结果。
优选地,步骤S4包括:
S41:依据所述训练集训练UNet++改进模型,得到正样本概率;
S42:根据c值将所述正样本概率转换成为标记样本的概率;
S43:根据所述标记样本的概率与所述训练集中的标记样本的标签计算得到损失函数,并向前传播,自动优化模型参数,包括c值;
S44:在每次迭代的过程中,从所述验证集中抽取部分影像计算验证集的损失函数,判断损失函数的值是否连续N次不下降;若是,则进入步骤S45;否则进入步骤S46;
S45:调整学习率,并进入步骤S47;
S46:继续使用现在的学习率训练UNet++改进模型;并进入步骤S47;
S47:判断是否可以提前停止训练,若是,则进入步骤S49;否则进入步骤S48;
S48:继续判断是否达到预设的迭代次数,若是,则进入步骤S49;否则返回S41;
S49:停止训练,得到训练好的建筑物分割模型,并得到训练好的建筑物分割模型输出的正样本概率。
优选地,所述带约束的正样本学习算法,用于根据c值将所述正样本概率转换成为标记样本的概率,具体的转换公式为:
Figure BDA0003760618160000031
其中,x代表每个像素,G(x)表示标记样本概率,f(x)表示正样本概率。
进一步地,所述改进的UNet++网络包括:编码器和解码器,所述编码器和解码器通过一系列嵌套的密集卷积块连接在一起。
优选地,所述训练好的建筑物分割模型为双分支建筑物分割模型,包括:区域提取流分支和边缘提取流分支。
优选地,步骤S5包括:
待测试的高分辨率遥感影像输入分别输入所述区域提取流分支和边缘提取流分支中;
通过所述区域提取流分支进行建筑面提取,得到建筑区域提取结果;
通过所述边缘提取流分支进行建筑边缘提取,得到建筑边缘提取结果;
将所述建筑区域提取结果和所述建筑边缘提取结果进行二值化点乘处理,得到建筑物分割提取结果。
根据本发明的另一方面,一种高分辨率遥感影像小样本高精度建筑分割提取装置,包括以下模块:
样本集获取模块,用于获取样本集,所述样本集包括标记样本和未标记样本;
样本集划分模块,用于将所述样本集划分为训练集和验证集;
网络构建及初始化模块,用于基于带约束的正样本学习算法构建UNet++改进模型并初始化c值,所述c值为标记样本占正样本的比例;
网络训练模块,用于使用所述训练集训练UNet++改进模型,得到正样本概率,通过c值将正样本概率转换成标记样本的概率,并计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,停止训练,得到训练好的建筑物分割模型;
建筑物分割提取模块,用于将待测试的高分辨率遥感影像输入所述训练好的建筑物分割模型,输出建筑物分割提取结果。
优选地,所述建筑物分割提取模块包括:
建筑区域提取模块,用于通过所述区域提取流分支进行建筑面提取,得到建筑区域提取结果;
建筑边缘提取模块,用于通过所述边缘提取流分支进行建筑边缘提取,得到建筑边缘提取结果;
二值化点乘模块,用于将所述建筑区域提取结果和所述建筑边缘提取结果进行二值化点乘处理,得到建筑物分割提取结果。
本发明提供的技术方案具有以下有益效果:
本发明提出一种精度更高的检测粘连建筑边缘的UNet++改进模型,该模型是在原U-Net++的模型结构基础上,结合带约束的正样本学习算法,通过一个常量c将标记样本与未标记样本的概率值调整到正样本与负样本的概率值,训练时把人工标记的样本当做正样本的子集,模型可以自动通过人工标记样本的特征调整得到正样本的特征,同时使用区域-边缘双流方法进行建筑单体提取,该模型提高了对粘连建筑边缘检测的局部准确性。
附图说明
下面将结合附图及实施例对本发明的具体效果作进一步说明,附图中:
图1是本发明实施例中一种高分辨率遥感影像小样本高精度建筑分割提取方法的流程图;
图2是本发明实施例中UNet++网络架构图;
图3是本发明实施例中双分支建筑物分割模型的检测流程图;
图4是本发明实施例中高分二号卫星耕地数据集上的双分支建筑物分割模型提取结果示例图;(a)卫星图像;(b)标签;(c)UNet++改进模型的提取结果;(d)双分支建筑物分割模型的提取结果。
图5是本发明实施例中一种高分辨率遥感影像小样本高精度建筑分割提取装置的结构图。
具体实施方式
为了对本发明的技术特征、目的和效果有更加清楚的理解,现对照附图详细说明本发明的具体实施方式。
请参考图1,图1是本发明实施例中一种高分辨率遥感影像小样本高精度建筑分割提取方法的流程图,包括以下步骤:
步骤S1:获取样本集,所述样本集包括标记样本和未标记样本;
步骤S2:将所述样本集划分为训练集和验证集;
具体地,将整体样本集进行随机划分,选取90%作为训练集,10%作为验证集。
步骤S3:基于带约束的正样本学习算法构建UNet++改进模型并初始化c值(实验定的缺省值是0.5);
其中,原始UNet++网络是由UNet演变而来的一个语义分割网络。其既考虑到了图像的全局信息,又考虑到了图片的细节信息,这使得建筑物分割工作的精度大大提升,通过将编码器的每层结果拼接到译码器中以得到更好的分割结果。
如图2所示,原始UNet++网络由编码器和解码器组成,它们通过一系列嵌套的密集卷积块连接在一起。UNet++背后的主要思想是在融合之前,弥合编码器和解码器的特征图之间的语义鸿沟。例如,使用具有三个卷积层的密集卷积块来桥接(X0,0,X1,3)之间的语义间隙。
所述带约束的正样本学习算法,用于根据c值所述正样本概率转换成为标记样本的概率,具体的转换公式如下:
Figure BDA0003760618160000061
其中,x代表每一个像素,G(x)表示标记样本概率,f(x)表示正样本概率,c为常量,在网络训练的过程中进行更新。
S4:使用所述训练集训练UNet++改进模型,得到正样本概率,通过c值将正样本概率转换成标记样本的概率,并计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,停止训练,得到训练好的建筑物分割模型;
S4具体包括:
S41:依据所述训练集,包括标记样本与未标记样本(此时的标记样本等于正样本),训练UNet++改进模型,得到正样本概率;
S42:根据c值将所述正样本概率转换成为标记样本的概率;
S43:根据所述标记样本的概率与所述训练集中的标记样本的标签计算得到损失函数,并向前传播,自动优化模型参数,包括c值;
S44:在每次迭代的过程中,从所述验证集中抽取部分影像计算验证集的损失函数,判断损失函数的值是否连续100次不下降;若是,则进入步骤S45;否则进入步骤S46;
S45:调整学习率,并进入步骤S47;
S46:继续使用现在的学习率训练UNet++改进模型;并进入步骤S47;
S47:判断是否可以提前停止训练,即通过验证集进行验证,当损失函数的值没有明显下降时,可提前停止训练,若是,则进入步骤S49;否则进入步骤S48;
S48:继续判断是否达到预设的迭代次数(缺省值为2000),若是,则进入步骤S49;否则返回S41;
S49:停止训练,得到训练好的建筑物分割模型,并得到训练好的建筑物分割模型输出的正样本概率。
S5:将待测试的高分辨率遥感影像输入所述训练好的建筑物分割模型,输出建筑物分割提取结果。
优选地,所述训练好的建筑物分割模型为双分支建筑物分割模型,包括:区域提取流分支和边缘提取流分支。
如图3所示,步骤S5具体包括:
待测试的高分辨率遥感影像输入分别输入所述区域提取流分支和边缘提取流分支中;
通过所述区域提取流分支进行建筑面提取,得到建筑区域提取结果;
通过所述边缘提取流分支进行建筑边缘提取,得到建筑边缘提取结果;
将所述建筑区域提取结果和所述建筑边缘提取结果进行二值化点乘处理,得到建筑物分割提取结果。
为了验证本实施例一种高分辨率遥感影像小样本高精度建筑分割提取方法的有效性,本实施例选取高分二号卫星耕地数据集进行验证,如图4所示,(a)为卫星图像;(b)为标签;(c)为UNet++改进模型的提取结果;(d)为双分支建筑物分割模型的提取结果,通过对比可知,本发明的双分支建筑物分割模型的局部准确性更高。
在一些实施例中,还提供了一种高分辨率遥感影像小样本高精度建筑分割提取装置,如图5所示,该装置包括以下模块:
样本集获取模块1,用于获取样本集,所述样本集包括标记样本和未标记样本;
样本集划分模块2,用于将所述样本集划分为训练集和验证集;
网络构建及初始化模块3,用于基于带约束的正样本学习算法构建UNet++改进模型并初始化c值;
网络训练模块4,用于使用所述训练集训练UNet++改进模型,得到正样本概率,通过c值将正样本概率转换成标记样本的概率,并计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,停止训练,得到训练好的建筑物分割模型;
建筑物分割提取模块5,用于将待测试的高分辨率遥感影像输入所述训练好的建筑物分割模型,输出建筑物分割提取结果。
可选地,所述建筑物分割提取模块5包括:
建筑区域提取模块51,用于通过所述区域提取流分支进行建筑面提取,得到建筑区域提取结果;
建筑边缘提取模块52,用于通过所述边缘提取流分支进行建筑边缘提取,得到建筑边缘提取结果;
二值化点乘模块53,用于将所述建筑区域提取结果和所述建筑边缘提取结果进行二值化点乘处理,得到建筑物分割提取结果。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者系统中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。词语第一、第二、以及第三等的使用不表示任何顺序,可将这些词语解释为标识。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (8)

1.一种高分辨率遥感影像小样本高精度建筑分割提取方法,其特征在于,包括以下步骤:
S1:获取样本集,所述样本集包括标记样本和未标记样本;
S2:将所述样本集划分为训练集和验证集;
S3:基于带约束的正样本学习算法构建UNet++改进模型,并初始化c值,所述c值为标记样本占正样本的比例;
S4:使用所述训练集训练所述UNet++改进模型,得到正样本概率,通过c值将正样本概率转换成标记样本的概率,并计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,停止训练,得到训练好的建筑物分割模型;
S5:将待测试的高分辨率遥感影像输入所述训练好的建筑物分割模型,输出建筑物分割提取结果。
2.如权利要求1所述的高分辨率遥感影像小样本高精度建筑分割提取方法,其特征在于,步骤S4包括:
S41:依据所述训练集训练UNet++改进模型,得到正样本概率;
S42:根据c值将所述正样本概率转换成为标记样本的概率;
S43:根据所述标记样本的概率与所述训练集中的标记样本的标签计算得到损失函数,并向前传播,自动优化模型参数,包括c值;
S44:在每次迭代的过程中,从所述验证集中抽取部分影像计算验证集的损失函数,判断损失函数的值是否连续N次不下降;若是,则进入步骤S45;否则进入步骤S46;
S45:调整学习率,并进入步骤S47;
S46:继续使用现在的学习率训练UNet++改进模型;并进入步骤S47;
S47:判断是否可以提前停止训练,若是,则进入步骤S49;否则进入步骤S48;
S48:继续判断是否达到预设的迭代次数,若是,则进入步骤S49;否则返回S41;
S49:停止训练,得到训练好的建筑物分割模型,并得到训练好的建筑物分割模型输出的正样本概率。
3.如权利要求1所述的高分辨率遥感影像小样本高精度建筑分割提取方法,其特征在于,所述带约束的正样本学习算法,用于根据c值将所述正样本概率转换成为标记样本的概率,具体的转换公式为:
Figure FDA0003760618150000021
其中,x代表每一个像素,G(x)表示标记样本概率,f(x)表示正样本概率,c为标记样本占正样本的比例。
4.如权利要求1所述的高分辨率遥感影像小样本高精度建筑分割提取方法,其特征在于,所述改进的UNet++网络包括:编码器和解码器,所述编码器和解码器通过一系列嵌套的密集卷积块连接在一起。
5.如权利要求1所述的高分辨率遥感影像小样本高精度建筑分割提取方法,其特征在于,所述训练好的建筑物分割模型为双分支建筑物分割模型,包括:区域提取流分支和边缘提取流分支。
6.如权利要求5所述的高分辨率遥感影像小样本高精度建筑分割提取方法,其特征在于,步骤S5包括:
待测试的高分辨率遥感影像输入分别输入所述区域提取流分支和边缘提取流分支中;
通过所述区域提取流分支进行建筑面提取,得到建筑区域提取结果;
通过所述边缘提取流分支进行建筑边缘提取,得到建筑边缘提取结果;
将所述建筑区域提取结果和所述建筑边缘提取结果进行二值化点乘处理,得到建筑物分割提取结果。
7.一种高分辨率遥感影像小样本高精度建筑分割提取装置,其特征在于,包括以下模块:
样本集获取模块,用于获取样本集,所述样本集包括标记样本和未标记样本;
样本集划分模块,用于将所述样本集划分为训练集和验证集;
网络构建及初始化模块,用于基于带约束的正样本学习算法构建UNet++改进模型并初始化c值,所述c值为标记样本占正样本的比例;
网络训练模块,用于使用所述训练集训练UNet++改进模型,得到正样本概率,通过c值将正样本概率转换成标记样本的概率,并计算损失函数,根据损失函数优化模型参数,同时通过验证集进行验证,当损失函数或迭代次数满足预设条件时,停止训练,得到训练好的建筑物分割模型;
建筑物分割提取模块,用于将待测试的高分辨率遥感影像输入所述训练好的建筑物分割模型,输出建筑物分割提取结果。
8.如权利要求7所述的高分辨率遥感影像小样本高精度建筑分割提取装置,其特征在于,所述建筑物分割提取模块包括:
建筑区域提取模块,用于通过所述区域提取流分支进行建筑面提取,得到建筑区域提取结果;
建筑边缘提取模块,用于通过所述边缘提取流分支进行建筑边缘提取,得到建筑边缘提取结果;
二值化点乘模块,用于将所述建筑区域提取结果和所述建筑边缘提取结果进行二值化点乘处理,得到建筑物分割提取结果。
CN202210870003.5A 2022-07-22 2022-07-22 高分辨率遥感影像小样本高精度建筑分割提取方法及装置 Pending CN115205704A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210870003.5A CN115205704A (zh) 2022-07-22 2022-07-22 高分辨率遥感影像小样本高精度建筑分割提取方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210870003.5A CN115205704A (zh) 2022-07-22 2022-07-22 高分辨率遥感影像小样本高精度建筑分割提取方法及装置

Publications (1)

Publication Number Publication Date
CN115205704A true CN115205704A (zh) 2022-10-18

Family

ID=83584703

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210870003.5A Pending CN115205704A (zh) 2022-07-22 2022-07-22 高分辨率遥感影像小样本高精度建筑分割提取方法及装置

Country Status (1)

Country Link
CN (1) CN115205704A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116052019A (zh) * 2023-03-31 2023-05-02 深圳市规划和自然资源数据管理中心(深圳市空间地理信息中心) 适合于大区域高分辨率卫星影像的建成区高质量检测方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116052019A (zh) * 2023-03-31 2023-05-02 深圳市规划和自然资源数据管理中心(深圳市空间地理信息中心) 适合于大区域高分辨率卫星影像的建成区高质量检测方法

Similar Documents

Publication Publication Date Title
CN111460984B (zh) 一种基于关键点与梯度均衡损失的全局车道线检测方法
CN110263717B (zh) 一种融入街景影像的土地利用类别确定方法
CN112837315B (zh) 一种基于深度学习的输电线路绝缘子缺陷检测方法
CN111598098B (zh) 一种基于全卷积神经网络的水尺水位线检测及有效性识别方法
CN111160127B (zh) 一种基于深度卷积神经网络模型的遥感影像处理及检测方法
CN111738113B (zh) 基于双注意力机制与语义约束的高分辨遥感图像的道路提取方法
CN106909902A (zh) 一种基于改进的层次化显著模型的遥感目标检测方法
CN104077760A (zh) 一种航空摄影测量的快速拼接系统及其实现方法
CN113191374B (zh) 基于金字塔注意力网络的PolSAR图像山脊线提取方法
CN111414954B (zh) 一种岩石图像检索方法及其系统
CN113312993B (zh) 一种基于PSPNet的遥感数据土地覆盖分类方法
CN111368766A (zh) 一种基于深度学习的牛脸检测与识别方法
CN114399686A (zh) 一种基于弱监督学习的遥感图像地物识别与分类方法和装置
CN115049841A (zh) 基于深度无监督多步对抗域自适应的高分辨sar图像地物要素提取方法
CN114913498A (zh) 一种基于关键点估计的并行多尺度特征聚合车道线检测方法
CN110084107A (zh) 一种基于改进mrf的高分辨率遥感影像道路提取方法及装置
CN117788822A (zh) 基于无人机低空遥感图像的农田边界定位信息提取方法
CN117496158A (zh) 半监督场景融合改进mbi的对比学习与语义分割方法
CN114266932B (zh) 一种基于自学习的遥感多光谱数据半监督标注方法
Yao et al. Automatic extraction of road markings from mobile laser-point cloud using intensity data
CN115205704A (zh) 高分辨率遥感影像小样本高精度建筑分割提取方法及装置
CN115147727A (zh) 一种遥感影像不透水面提取方法及系统
CN114511787A (zh) 一种基于神经网络的遥感图像地物信息生成方法及其系统
CN116503750A (zh) 融合目标检测和视觉注意机制的大范围遥感影像农村街区式居民地提取方法及系统
CN114998749B (zh) 用于目标检测的sar数据扩增方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination