CN115601662A - 一种高分辨率遥感影像提取建筑物的模型构建方法及应用 - Google Patents
一种高分辨率遥感影像提取建筑物的模型构建方法及应用 Download PDFInfo
- Publication number
- CN115601662A CN115601662A CN202211455618.8A CN202211455618A CN115601662A CN 115601662 A CN115601662 A CN 115601662A CN 202211455618 A CN202211455618 A CN 202211455618A CN 115601662 A CN115601662 A CN 115601662A
- Authority
- CN
- China
- Prior art keywords
- building
- remote sensing
- sensing image
- resolution remote
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000010276 construction Methods 0.000 title claims abstract description 13
- 239000002775 capsule Substances 0.000 claims abstract description 68
- 238000009826 distribution Methods 0.000 claims abstract description 44
- 238000000034 method Methods 0.000 claims abstract description 39
- 238000013528 artificial neural network Methods 0.000 claims abstract description 20
- 238000012545 processing Methods 0.000 claims abstract description 9
- 230000004927 fusion Effects 0.000 claims abstract description 8
- 238000005070 sampling Methods 0.000 claims abstract description 5
- 230000001131 transforming effect Effects 0.000 claims abstract description 4
- 238000000605 extraction Methods 0.000 claims description 18
- 238000012549 training Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 4
- 238000013527 convolutional neural network Methods 0.000 claims description 4
- 238000003860 storage Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000010606 normalization Methods 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000005457 optimization Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Remote Sensing (AREA)
- Medical Informatics (AREA)
- Astronomy & Astrophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种高分辨率遥感影像提取建筑物的模型构建方法及应用,属于遥感影像处理领域。包括:对高分辨率遥感影像进行切片处理;构建胶囊卷积神经网络,提取所述切片处理后的高分辨率遥感影像的浅层特征信息,并从浅层特征图中抽取目标建筑物的一组胶囊;构建胶囊融合模块及线性网络,对融合后的胶囊与所述一组胶囊之间的残差进行变换,得到目标建筑物与各组成部件之间的连接概率,并用连接概率修正先验注意力分布,得到各组成部件的后验注意力分布,拼接所述后验注意力分布,得到目标建筑物的后验注意力分布。上采样后得到从切片处理后的高分辨率遥感影像中预测的目标建筑物;本发明可以提升模型的识别精度及良好的模型泛化能力。
Description
技术领域
本发明属于遥感影像处理领域,更具体地,涉及一种高分辨率遥感影像提取建筑物的模型构建方法及应用。
背景技术
随着卫星遥感技术的成熟、商业化的推进以及全球各国政府的鼓励与推动,卫星遥感得到快速发展,在越来越多的领域得到了应用。从遥感图像中提取建筑物是一项空间密集型任务,是指自动识别遥感图像中的建筑物和非建筑物像素的过程。建筑物提取在许多应用中发挥着重要作用,例如城市规划、人口估计、经济分布、灾害报告等。近年来,随着遥感影像数据的爆炸式增长,深度学习方法成为研究热点。
由于获取条件的不同,大范围区域和长期时间序列的遥感数据集会存在较大的变化和较大的统计分布特征,这将导致深度学习模型的性能下降,只能在源域上有良好表现,也即深度学习方法缺乏泛化性。遥感影像中的地物信息复杂多样,为了提高遥感影像建筑物提取的泛化性,相关学者已经展开了大量研究,并提出了许多算法。这些算法的思路主要有两种,一种是依然基于卷积网络搭建模型,在源域数据集上做更多的数据增强操作,但数据增强依赖于人为设置具体操作;另外一种是基于胶囊网络结构搭建模型,使用胶囊表达更丰富的特征信息,但目前的胶囊网络缺乏可解释性,导致学习到的关系信息是混乱的表达,从而限制了模型的泛化性。
发明内容
针对现有技术的缺陷和改进需求,本发明提供了一种高分辨率遥感影像提取建筑物的模型构建方法及应用,其目的在于提升模型的识别精度及模型泛化能力。
为实现上述目的,按照本发明的一个方面,提供了一种高分辨率遥感影像提取建筑物的模型构建方法,包括:
对高分辨率遥感影像进行切片处理;
构建胶囊卷积神经网络,包括初步特征提取子网络及卷积子网络;所述初步特征提取子网络用于提取所述切片处理后的高分辨率遥感影像的浅层特征信息;所述卷积子网络用于从浅层特征图中抽取目标建筑物的一组胶囊,所述一组胶囊对应于目标建筑物各组成部件的先验注意力分布;
构建胶囊融合模块,用于融合所述一组胶囊,得到融合后的胶囊;
构建线性网络,用于对所述融合后的胶囊与所述一组胶囊之间的残差进行变换,得到目标建筑物与各组成部件之间的连接概率;并用所述连接概率修正各组成部件的先验注意力分布,得到目标建筑物各组成部件的后验注意力分布;
构建拼接模块,用于拼接所述后验注意力分布,得到目标建筑物的后验注意力分布;
构建反卷积操作模块,用于对目标建筑物的后验注意力分布上采样,得到从切片处理后的高分辨率遥感影像中预测的目标建筑物;
计算训练损失,并反向调节所述构建胶囊卷积神经网络及线性网络的参数以使损失收敛;
所述高分辨率遥感影像提取建筑物的模型包括胶囊卷积神经网络、胶囊融合模块、线性网络、拼接模块及反卷积操作模块。
进一步地,所述初步特征提取子网络为resnet50神经网络;
以所述切片处理后的高分辨率遥感影像为样本,以切片处理后的高分辨率遥感影像中建筑物的位置和轮廓为标签,对所述resnet50神经网络进行训练。
进一步地,所述卷积子网络为多通道并行的卷积子网络,每个通道用于抽取一个目标建筑物的一组胶囊。
进一步地,在构建胶囊卷积神经网络之前,还包括:对所述切片处理后的高分辨率遥感影像进行数据增强。
进一步地,所述数据增强的方法包括随机水平翻转,随机竖直翻转及颜色抖动。
进一步地,还包括对数据增强后的高分辨率遥感影像进行归一化和标准化。
进一步地,采用Adadelta优化训练方法对所述模型进行优化训练。
按照本发明的第二方面,提供了一种高分辨率遥感影像提取建筑物的方法,包括:
将待预测的高分辨率遥感影像切片处理后,输入第一方面任意一项所述的模型构建方法所构建的模型中,输出预测的目标建筑物;
将预测的目标建筑物拼接,得到最终的目标建筑物。
进一步地,将预测的目标建筑物拼接时,还包括:通过填充孔洞和去除小连通域,修复所述预测的目标建筑物。
按照本发明的第三方面,提供了一种计算机可读存储介质,包括存储的计算机程序;所述计算机程序被处理器执行时,控制所述计算机可读存储介质所在设备执行第一方面任一项所述的模型构建方法,和/或第二方面所述的高分辨率遥感影像提取建筑物的方法。
总体而言,通过本发明所构思的以上技术方案,能够取得以下有益效果:
(1)本发明的基于胶囊的高分辨率遥感影像提取建筑物的方法,通过构建胶囊卷积神经网络,提取切片后的高分辨率遥感影像的浅层特征信息,抽取目标建筑物的一组胶囊,该组胶囊表达了目标建筑各组成部件的先验注意力分布,将这一组胶囊合并之后得到表达建筑物整体特征分布的建筑物胶囊,计算建筑物各组成部件的胶囊和目标建筑物胶囊之间的关系,通过线性网络将该关系融合到建筑物各组成部件的特征分布中,得到建筑物各组成部件的后验注意力分布,并拼接后上采样以提取目标建筑物。本发明的方法中,通过识别建筑物各组成部件的特征,不断修正目标建筑物各组成部件的先验注意力分布,识别更加精细化,识别的准确度更高;并且,由于学习建筑物的各个部件能够便捷地让模型在不同的视野下更高效和正确的感知目标对象,模型的收敛速度更快;
同时,本方法中的胶囊具有高级语义信息,解码器线性网络输出的目标建筑物各组成部件的后验特征分布是具有可解释的语义信息的特征图,使用这些可解释的特征图来实现信息聚合,从计算机视觉的角度来看,网络输出的特征图实际上代表了建筑物的各组成部件,即本发明的方法使得特征的表达更具解释性;
更重要的是,传统的模型使用特定的数据集训练好之后,只能适用于特征相似的图像的应用,或者适用于特征相似的数据集;而本发明中,由于精细地识别到了建筑物各组成部件的特征,学习到了各部件之间的关系,而不是笼统的识别整个建筑物的特征,使得整个模型并不受限于训练时所用的数据集,与训练时所用的数据集的特征差别较大的陌生数据集同样适用,本方法所构建的模型即使不进行微调,仍然可以降低在陌生数据集上的建筑物提取结果的错误率,并且仿真结果也能够佐证这一结论,即本发明不仅可以有效地提取建筑物,而且可以从源域遥感数据集迁移到另一个数据集实现良好的泛化性。
总而言之,本发明的基于胶囊的高分辨率遥感影像提取建筑物的是一种新的建筑物提取方法,不仅可以有效地提取建筑物,还可以从源域遥感数据集迁移到另一个数据集实现良好的泛化性。
附图说明
图1为本发明实施例提供的高分辨率遥感影像提取建筑物的模型示意图。
图2为本发明实施例提供的高分辨率遥感影像提取建筑物的模型构建流程图。
图3为本发明实施例提供的高分辨率遥感影像提取建筑物的方法在源域遥感数据集上得到的可解释性特征图,其中,图中的(a)-(f)分别表示目标建筑物的5个组成部件的后验分布及原始图像。
图4为陌生遥感数据集上得到的建筑物提取结果,其中,图中的(a)-(d)分别表示原始图像、真实标注、采用现有的卷积网络模型得到的提取结果图及本发明得到的提取结果图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。此外,下面所描述的本发明各个实施方式中所涉及到的技术特征只要彼此之间未构成冲突就可以相互组合。
如图1和图2所示,本发明提供的一种基于胶囊的高分辨率遥感影像提取建筑物的模型构建方法,主要包括如下步骤:
步骤S1、对高分辨率遥感影像进行切片处理,将切片处理后的样本作为数据集,标签为切片后的建筑物的位置和轮廓;由于高分辨率遥感影像的分辨率过高,一般计算机的内存与显存不易承受整幅图像的计算,本实施例中,根据主流语义分割模型常用的512分辨率,将影像切片至长和宽为512像素。
步骤S2、构建胶囊卷积神经网络,该胶囊卷积神经网络包括初步特征提取子网络及多通道并行的卷积子网络;初步特征提取子网络用于提取切片后的高分辨率遥感影像的浅层特征信息;多通道并行的卷积子网络用于从浅层特征图中抽取每个通道对应的目标建筑物的一组胶囊,每个胶囊表示该目标建筑物的一个组成部件信息,即对应于该目标建筑物组成部件的先验注意力分布,该组胶囊反映了该目标建筑物各个组成部件在图像中不同区域的出现概率;
多个通道同时可以抽取多个目标建筑物对应的一组胶囊,一组胶囊反映一个目标建筑物各组成部件的先验注意力分布;每个胶囊为一个向量,用于表达该目标建筑物的一个组成部件信息,如建筑物的屋顶、阳台或窗户等部件的形状、纹理、位置及语义信息。
步骤S3、构建胶囊融合模块,用于融合每个通道对应的目标建筑物的一组胶囊,得到融合后的胶囊,该融合后的胶囊具有更高级的语义信息,能够表达该目标建筑物。
步骤S4、构建线性网络,用于对融合后的胶囊与每个通道对应的目标建筑物的一组胶囊之间的残差进行变换,得到目标建筑物与该目标建筑物组成部件之间的连接概率;并用该连接概率修正目标建筑物各组成部件的先验注意力分布,得到目标建筑物各组成部件的后验注意力分布。具体地,将连接概率与该目标建筑物各组成部件的先验注意力分布进行融合,以修正该目标建筑物先验注意力分布,得到该目标建筑物各组成部件的后验注意力分布。
步骤S5、构建拼接模块,用于对目标建筑物各组成部件的后验注意力分布拼接,得到目标建筑物的后验注意力分布,也即拼接后的目标建筑物特征分布图;
步骤S6、构建反卷积操作模块,用于对目标建筑物后验注意力分布进行上采样,得到预测的目标建筑物的语义分割结果,即从切片处理后的高分辨率遥感影像样本中预测的目标建筑物。
步骤S7、计算目标建筑物各组成部件后验注意力分布与各组成部件先验注意力分布之间的损失,并反向传播计算梯度,并更新胶囊卷积神经网络及线性网络参数,直至损失收敛,使反卷积操作模块输出最终预测的切片后的目标建筑物;本实施例中,使用交叉熵计算训练损失。
其中,基于胶囊的高分辨率遥感影像提取建筑物的模型包括:胶囊卷积神经网络、胶囊融合模块、线性网络、拼接模块及反卷积操作模块。图1中的编码器即为胶囊卷积神经网络,解码器为线性网络。
作为优选,步骤S2中的初步特征提取子网络为预先训练好的resnet50神经网络;其中,在训练resnet50神经网络时,以切片处理后的高分辨率遥感影像作为样本,以切片后的建筑物的位置和轮廓为标签以对resnet50神经网络进行训练。本实施例中,采用在ImageNet上预训练过的resnet50神经网络,可以有效感知建筑物的边、角、颜色等低层信息,使用在ImageNet上预训练的resnet50参数初始化网络的特征提取层,可使网络获得一个良好的初始解,对网络的其他层参数进行服从高斯分布的随机初始化。
作为优选,步骤S2之前还包括对切片后的高分辨率遥感影像提取RGB三通道,进行数据增强,便于能够与通用深度卷积神经网络相兼容。数据增强的方式包括随机水平翻转,随机竖直翻转及颜色抖动;其中,在数据增强时,标注图像跟随RGB图像做同样的处理。
作为优选,还包括对数据增强后的图像进行归一化和标准化。
具体地,步骤S7中,采用Adadelta优化训练方法,对整个模型进行训练。本实施例
中,初始学习率设置为,批处理大小为4,模型训练一共迭代次数为2106,对整个模型进
行训练,直至达到该收敛条件,得到训练好的模型。
将实际的高分辨率遥感影像进行切片处理后,输入训练好的模型中,得到最终预测的切片后的目标建筑物。
将预测的切片后的目标建筑物拼接,得到最终的目标建筑物。
作为优选,将预测的切片后的目标建筑物拼接时,还包括通过填充孔洞和去除小连通域,修复不合理的预测结果。
本发明以Yellow River Dataset(源域遥感数据集)和Massachusetts Dataset(陌生遥感数据集)为例,进一步说明本发明技术方案及有益效果。
本发明实施例中,对源域数据集进行切片至分辨率为512,并进行归一化和标准化,经过统计数据集的图像,可以得到标准化需要RGB的3个通道均值为:0.3515224,0.38427463,0.35403764。标准差为:0.19264674,0.18325084,0.17028946。
先使用ImageNet上预训练的resnet50参数初始化特征提取网络resnet50的低层网络,低层网络可以有效检测到边,角等位置信息,得到浅层特征图;构建多通道并行的卷积子网络的卷积核的模板参数均为(3,3)大小构成的张量。浅层特征输入并行的卷积网络后得到建筑物不同组件的特征,使用注意力池化操作聚合组件的特征图得到组件的胶囊。通过构建胶囊融合模块得到建筑物的胶囊表达。经过线性网络,得到5个建筑物部件的后验分布,如图3中的(a)-(e)所示,(f)为原图。(f)代表原图,(a)到(e)分别为各个部件在空间中的存在概率分布,颜色深浅代表部件存在的概率,某个区域的颜色越深,则部件在该区域被激活的程度越大,即越有可能存在该部件。从(b),(c),(d)中可以较明显地观察到目标建筑物的部件,(b)反映了在第二个通道中,目标建筑物在靠近边缘与中心之间的部件更容易被检测到;(c)反映了在第三个通道中,目标建筑物的边缘部件更容易被检测到;同理,(d)则对应检测到目标建筑物的中心部件。对于(a)和(e),表现出的结果均呈现出目标对象整体被检测到,这是一种较大尺度的部件检测结果。进一步对比(a)和(e),(a)不仅仅在目标建筑物的区域被激活,也在河流的一些局部区域上有激活,这是因为检测的目标中包括了沿河岸线坐落的建筑物。因此,河流也可以广义地被认为是这类建筑物的一种部件。基于上述分析再次观察图3的部件分布结果(a)到(e),均可以在这些可视化结果中看到河岸的边缘具有一定的亮度,这证明河岸已经作为一个部件被模型检测到,而河岸确实属于岸边建筑物的一个重要特征,即具有代表性的一种部件。因此,以上结果证明了本证明在遥感影像特征检测中以部件为检测单元的合理性。
模型训练好之后,更改数据集为陌生遥感数据集,将现有技术中的卷积网络模型作为对照组,采用PA(Pixel Accuracy,像素精度)作为评价指标,PA指的是分类正确的像素数占像素总数的比例,PA的计算定义为:
其中,代表将像素预测为负例且预测正确的像素数量,代表将像素预测为
正例且预测正确的像素数量,代表将像素预测为负例但预测错误的像素数量,代表
将像素预测为正例但预测错误的像素数量,代入对应的像素数量得到。表示真实类别为i,预测类别为j的像素数量。
仿真结果如图4中的(a)-(d)所示,从仿真结果可以看出,传统的卷积网络模型对于目标建筑物的分割结果较差,PA指标仅为34.1%,几乎已经不能检测到建筑物的存在。由于两个数据集的图像信息分布差异,导致传统语义分割方法的表现较差,但对于本发明在陌生数据集上的表现较好,PA高达69.1%,这说明数据集分布的差异对本方法所产生的影响较小,本方法依然能够检测到建筑物的大致存在区域。以上结果表明本发明的基于胶囊的遥感影像建筑物提取模型在陌生遥感数据集上取得了良好的效果,分割结果与真实标注接近,由此证明本发明方法具有良好的泛化性。
本领域的技术人员容易理解,以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种高分辨率遥感影像提取建筑物的模型构建方法,其特征在于,包括:
对高分辨率遥感影像进行切片处理;
构建胶囊卷积神经网络,包括初步特征提取子网络及卷积子网络;所述初步特征提取子网络用于提取所述切片处理后的高分辨率遥感影像的浅层特征信息;所述卷积子网络用于从浅层特征图中抽取目标建筑物的一组胶囊,所述一组胶囊对应于目标建筑物各组成部件的先验注意力分布;
构建胶囊融合模块,用于融合所述一组胶囊,得到融合后的胶囊;
构建线性网络,用于对所述融合后的胶囊与所述一组胶囊之间的残差进行变换,得到目标建筑物与各组成部件之间的连接概率;并用所述连接概率修正各组成部件的先验注意力分布,得到目标建筑物各组成部件的后验注意力分布;
构建拼接模块,用于拼接所述后验注意力分布,得到目标建筑物的后验注意力分布;
构建反卷积操作模块,用于对目标建筑物的后验注意力分布上采样,得到从切片处理后的高分辨率遥感影像中预测的目标建筑物;
计算训练损失,并反向调节所述构建胶囊卷积神经网络及线性网络的参数以使损失收敛;
所述高分辨率遥感影像提取建筑物的模型包括胶囊卷积神经网络、胶囊融合模块、线性网络、拼接模块及反卷积操作模块。
2.根据权利要求1所述的模型构建方法,其特征在于,所述初步特征提取子网络为resnet50神经网络;
以所述切片处理后的高分辨率遥感影像为样本,以切片处理后的高分辨率遥感影像中建筑物的位置和轮廓为标签,对所述resnet50神经网络进行训练。
3.根据权利要求1所述的模型构建方法,其特征在于,所述卷积子网络为多通道并行的卷积子网络,每个通道用于抽取一个目标建筑物的一组胶囊。
4.根据权利要求1所述的模型构建方法,其特征在于,在构建胶囊卷积神经网络之前,还包括:对所述切片处理后的高分辨率遥感影像进行数据增强。
5.根据权利要求4所述的模型构建方法,其特征在于,所述数据增强的方法包括随机水平翻转,随机竖直翻转及颜色抖动。
6.根据权利要求4所述的模型构建方法,其特征在于,还包括对数据增强后的高分辨率遥感影像进行归一化和标准化。
7.根据权利要求1所述的模型构建方法,其特征在于,采用Adadelta优化训练方法对所述模型进行优化训练。
8.一种高分辨率遥感影像提取建筑物的方法,其特征在于,包括:
将待预测的高分辨率遥感影像切片处理后,输入权利要求1-7任意一项所述的模型构建方法所构建的模型中,输出预测的目标建筑物;
将预测的目标建筑物拼接,得到最终的目标建筑物。
9.根据权利要求8所述的方法,其特征在于,将预测的目标建筑物拼接时,还包括:通过填充孔洞和去除小连通域,修复所述预测的目标建筑物。
10.一种计算机可读存储介质,其特征在于,包括存储的计算机程序;所述计算机程序被处理器执行时,控制所述计算机可读存储介质所在设备执行权利要求1-7任一项所述的模型构建方法,和/或权利要求8所述的高分辨率遥感影像提取建筑物的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211455618.8A CN115601662A (zh) | 2022-11-21 | 2022-11-21 | 一种高分辨率遥感影像提取建筑物的模型构建方法及应用 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211455618.8A CN115601662A (zh) | 2022-11-21 | 2022-11-21 | 一种高分辨率遥感影像提取建筑物的模型构建方法及应用 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115601662A true CN115601662A (zh) | 2023-01-13 |
Family
ID=84852850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211455618.8A Pending CN115601662A (zh) | 2022-11-21 | 2022-11-21 | 一种高分辨率遥感影像提取建筑物的模型构建方法及应用 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115601662A (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348038A (zh) * | 2020-11-30 | 2021-02-09 | 江苏海洋大学 | 一种基于胶囊网络的视觉定位方法 |
CN113780149A (zh) * | 2021-09-07 | 2021-12-10 | 北京航空航天大学 | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 |
CN114581770A (zh) * | 2022-02-17 | 2022-06-03 | 深圳信息职业技术学院 | 基于TransUnet的遥感影像建筑物自动提取处理方法 |
CN115311555A (zh) * | 2022-07-15 | 2022-11-08 | 武汉大学 | 一种基于批风格混合的遥感影像建筑物提取模型泛化方法 |
-
2022
- 2022-11-21 CN CN202211455618.8A patent/CN115601662A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348038A (zh) * | 2020-11-30 | 2021-02-09 | 江苏海洋大学 | 一种基于胶囊网络的视觉定位方法 |
CN113780149A (zh) * | 2021-09-07 | 2021-12-10 | 北京航空航天大学 | 一种基于注意力机制的遥感图像建筑物目标高效提取方法 |
CN114581770A (zh) * | 2022-02-17 | 2022-06-03 | 深圳信息职业技术学院 | 基于TransUnet的遥感影像建筑物自动提取处理方法 |
CN115311555A (zh) * | 2022-07-15 | 2022-11-08 | 武汉大学 | 一种基于批风格混合的遥感影像建筑物提取模型泛化方法 |
Non-Patent Citations (1)
Title |
---|
ZHENCHAO TANG,ET AL.: "Capsule–Encoder–Decoder: A Method for Generalizable Building Extraction from Remote Sensing Images", 《REMOTE SENSING》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110378196B (zh) | 一种结合激光点云数据的道路视觉检测方法 | |
CN110059694B (zh) | 电力行业复杂场景下的文字数据的智能识别方法 | |
CN106920243B (zh) | 改进的全卷积神经网络的陶瓷材质件序列图像分割方法 | |
CN106547880B (zh) | 一种融合地理区域知识的多维度地理场景识别方法 | |
CN106897681B (zh) | 一种遥感图像对比分析方法及系统 | |
CN113076871A (zh) | 一种基于目标遮挡补偿的鱼群自动检测方法 | |
CN113313166B (zh) | 基于特征一致性学习的船舶目标自动标注方法 | |
CN112036514B (zh) | 一种图像分类方法、装置、服务器及计算机可读存储介质 | |
CN111626994A (zh) | 基于改进U-Net神经网络的设备故障缺陷诊断方法 | |
CN113420619A (zh) | 一种遥感影像建筑物提取方法 | |
CN111882620A (zh) | 一种基于多尺度信息道路可行驶区域分割方法 | |
CN117274608B (zh) | 基于空间细节感知和注意力引导的遥感图像语义分割方法 | |
CN104484886A (zh) | 一种mr图像的分割方法及装置 | |
CN115410059B (zh) | 基于对比损失的遥感图像部分监督变化检测方法及设备 | |
CN110223310A (zh) | 一种基于深度学习的线结构光中心线和箱体边缘检测方法 | |
CN111079807A (zh) | 一种地物分类方法及装置 | |
CN116205876A (zh) | 基于多尺度标准化流的无监督笔记本外观缺陷检测方法 | |
CN113313678A (zh) | 一种基于多尺度特征融合的精子形态学自动分析方法 | |
CN116977872A (zh) | 一种CNN+Transformer遥感图像检测方法 | |
Chen et al. | Memory-contrastive unsupervised domain adaptation for building extraction of high-resolution remote sensing imagery | |
CN117437647B (zh) | 基于深度学习和计算机视觉的甲骨文字检测方法 | |
CN112381730B (zh) | 一种遥感影像数据扩增方法 | |
CN113673534A (zh) | 一种基于Faster RCNN的RGB-D图像果实检测方法 | |
CN110796716B (zh) | 一种基于多重残差网络和正则化迁移学习的图像着色方法 | |
CN116704512A (zh) | 一种融合语义和视觉信息的仪表识别方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |