CN113420619A - 一种遥感影像建筑物提取方法 - Google Patents
一种遥感影像建筑物提取方法 Download PDFInfo
- Publication number
- CN113420619A CN113420619A CN202110630946.6A CN202110630946A CN113420619A CN 113420619 A CN113420619 A CN 113420619A CN 202110630946 A CN202110630946 A CN 202110630946A CN 113420619 A CN113420619 A CN 113420619A
- Authority
- CN
- China
- Prior art keywords
- building
- remote sensing
- stage
- feature map
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 44
- 238000012549 training Methods 0.000 claims abstract description 50
- 238000000034 method Methods 0.000 claims abstract description 34
- 238000012795 verification Methods 0.000 claims abstract description 28
- 238000013135 deep learning Methods 0.000 claims abstract description 18
- 238000010586 diagram Methods 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 15
- 238000012360 testing method Methods 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 3
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000005457 optimization Methods 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 3
- 238000005070 sampling Methods 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 238000011176 pooling Methods 0.000 claims description 2
- 238000012545 processing Methods 0.000 abstract description 2
- 241000282414 Homo sapiens Species 0.000 description 4
- 238000013461 design Methods 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000013136 deep learning model Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- QNRATNLHPGXHMA-XZHTYLCXSA-N (r)-(6-ethoxyquinolin-4-yl)-[(2s,4s,5r)-5-ethyl-1-azabicyclo[2.2.2]octan-2-yl]methanol;hydrochloride Chemical compound Cl.C([C@H]([C@H](C1)CC)C2)CN1[C@@H]2[C@H](O)C1=CC=NC2=CC=C(OCC)C=C21 QNRATNLHPGXHMA-XZHTYLCXSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000007637 random forest analysis Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012706 support-vector machine Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明属于遥感图像处理技术领域,具体涉及一种遥感影像建筑物提取方法,具体包括:步骤一,制作样本数据集;步骤二,对训练样本进行数据增强;步骤三,采用编码‑解码结构构建深度学习网络模型;步骤四,使用训练样本对网络模型进行训练;步骤五,使用验证样本对网络模型进行验证;步骤六,使用训练好的模型提取建筑物;步骤七,对建筑物提取结果进行精度评价。本发明方法能够快速、准确地提取不同类型、尺度多样的建筑物目标,提高建筑物自动化提取的精度。
Description
技术领域
本发明属于遥感图像处理技术领域,具体涉及一种遥感影像建筑物提取方法。
背景技术
建筑物与人类生活密切相关,是组成城市的关键要素之一。建筑物提取的应用领域广泛,包括国土督察、城市规划、灾害评估和土地利用分析等。由于建筑物类内差异较大,准确地确定每一个像素是否属于建筑物十分困难。因此,从遥感影像中自动识别建筑物目标并提取其精确边缘轮廓信息仍然是一个具有挑战性的研究课题。
从遥感影像中提取建筑物大致可以分为两类方法:一是基于人工设计特征的分类方法,二是基于深度学习的方法。基于人工设计特征的分类方法,依赖于人类对建筑物的观察和理解,具体又可细分为三种:第一种是知识引导,主要通过建立知识约束将对象检测问题转化为假设测试问题,典型的知识约束包括建筑物的几何辐射特性、矩形约束、菱形约束等;第二种是模板匹配,主要基于明确的模板参数对建筑物进行描述,再通过人工设置或样本训练的方式获取参数,最后采用一定的搜索方法,并以相关度最大为原则来确定最佳匹配结果;第三种是监督分类,一般针对建筑物的特点设计数据特征,然后进行特征提取并利用样本数据进行分类器训练,最后使用支持向量机、随机森林、条件随机场等分类器对测试数据中的特征进行分类,进而从分类结果中获取建筑物检测结果。然而,受限于建筑物结构和纹理复杂多样,以及不同数据中光照、分辨率和成像质量的变化,依赖人工设计往往很难对不同成像条件下的建筑物特征进行准确概况,从而导致基于人工设计特征的传统方法缺乏对不同数据的泛化能力。
近年来,深度学习被广泛应用于计算机视觉、自然语言处理、大数据分析等领域,同样也被用于建筑物提取。基于深度学习的建筑物提取方法又可分为两种:第一种是基于候选区域的算法,比如Faster R-CNN,整个过程包含两个阶段,第一阶段先对目标生成候选框,第二阶段再进行分类,该方法存在计算效率低下的问题。第二种是端到端的训练方法,比如FCN、U-Net等,这些模型结构一般是编码器-解码器结构,通过编码器提取特征,解码器利用提取到的特征进行预测,但该类方法没有充分利用编码器提取的遥感影像中不同尺度建筑物的特征信息。
因此,需要设计一种新的遥感影像建筑物提取方法,来改进原有基于深度学习模型的建筑物提取方法,充分融合不同尺度下影像的特征,以达到有效提高多尺度建筑物的自动化提取精度。
发明内容
本发明设计的一种遥感影像建筑物提取方法,用于解决现有技术中对于多尺度建筑物自动化提取精度不高的技术缺点。
本发明的技术方案:
一种遥感影像建筑物提取方法,包括如下步骤:
步骤一,制作样本数据集,包括:采集目标区域遥感影像并进行预处理,采集目标区域遥感影像包含红、绿、蓝三个通道,并人工标注目标区域遥感影像中建筑物区域,得到对应的建筑物标签;
并将目标区域遥感影像与建筑物标签数据按照指定的切片大小进行切片处理,并将切片化后的目标区域遥感影像与建筑物标签数据按照6:2:2的比例分别划分为独立的训练样本、验证样本和测试样本,以构成样本数据集;
步骤二,对训练样本进行数据增强,包括:对步骤一制作的训练样本分别进行90°、180°和270°旋转,水平和垂直翻转,0.5倍、1倍、1.5倍和2倍缩放等数据增强操作;
步骤三,采用编码-解码结构构建深度学习网络模型,包括编码阶段和解码阶段;
步骤四,使用训练样本对网络模型进行训练,包括:将步骤一制作的训练样本经过步骤二数据增强后输入到步骤三所构建的深度学习网络模型中进行训练;训练过程中包括:优化函数、损失函数;
步骤五,使用验证样本对网络模型进行验证,包括:将步骤一制作的验证样本输入到经步骤四训练后的网络模型中进行验证,且验证样本在步骤四的网络训练完成前不能改变,并且验证样本与训练样本和测试样本均不重合;
步骤六,使用训练好的模型提取建筑物,包括:利用步骤五验证好的深度学习网络模型进行建筑物提取,输入步骤一制作的测试样本图像,输出建筑物提取结果;
步骤七,对建筑物提取结果进行精度评价,将建筑物提取结果与相应的真值标签数据进行比较,计算精度指标。
步骤一中所述切片大小设置为1000×1000像素;所述建筑物标签采用one-hot编码处理,使之成为0和1二通道数据,建筑物区域使用二进制编码向量[1,0]表示,非建筑物区域使用二进制编码向量[0,1]表示。
所述步骤三中的编码阶段还包括:在编码阶段采用ResNet101基础网络提取图像特征,并将具有相同尺寸特征图的结构称为阶段,使用ResNet101中各阶段最后一个残差模块输出的特征图,组成输出特征图组{C2、C3、C4、C5},组成自下向上的前向网络,用于提供卷积块注意力机制(CBAM)操作的全局特征。
所述输出特征图组中的参数C2、C3、C4、C5分别表示ResNet101网络中各阶段最后一个残差模块输出的特征图标记,即ResNet101网络中第二阶段最后一个残差模块输出的特征图标记为C2,ResNet101网络中第三阶段最后一个残差模块输出的特征图标记为C3,ResNet101网络中第四阶段最后一个残差模块输出的特征图标记为C4,ResNet101网络中第五阶段最后一个残差模块输出的特征图标记为C5。
所述步骤三的编码阶段还包括:在ResNet101网络第四阶段最后一个残差模块和第五阶段最后一个残差模块引入空洞率分别为2和4的空洞卷积,使得ResNet101网络中第二到第五阶段特征图尺寸变为1/4、1/8、1/8、1/8;
在ResNet101网络中第三、第四和第五阶段的残差模块再引入可变形卷积。
所述步骤三的解码阶段还包括:在解码阶段特征融合时,首先对第五阶段最后一个残差模块输出的特征图C5进行金字塔池化操作,得到融合上下文信息和全局信息的特征图C5';其次,将特征图组{C2、C3、C4、C5}分别进行卷积块注意力机制操作,得到逐层增强后的特征图组{M2、M3、M4、M5},在丰富的特征中筛选出显著的局部特征,实现特征图的逐级增强;然后,将特征图C5'与特征图组{M2、M3、M4、M5}采用自上而下的方式逐级横向密集连接计算特征金字塔。
所述将特征图C5'与特征图组{M2、M3、M4、M5}采用自上而下的方式逐级横向密集连接计算特征金字塔的具体过程包括:
将特征图C5'与M5使用concatenat方式进行叠加,并通过1×1大小卷积操作减少1/2通道数量,得到特征图P5;
将特征图P5与M4使用concatenate方式进行叠加,并通过1×1大小卷积操作减少1/2通道数量,得到特征图P4;
将特征图P5、P4与M3以concatenate方式进行叠加,并通过1×1大小卷积操作减少通道数量,得到特征图P3;
将特征图P5、P4和P3分别进行2倍上采样,并以concatenate方式进行叠加,再将合并结果与M2进行横向连接,得到特征图P2;
至此,通过计算得到融合后的自上而下网络分支{P2、P3、P4、P5};最后,将特征金字塔底端特征图P2上采样至原始输入图像,输入图像大小为1000×1000像素,经过分类器输出提取建筑物特征结果;
所述步骤四中优化函数使用Adam,学习率为0.0001;损失函数使用Dice Loss。
所述步骤四通过计算损失函数误差,采用反向传播算法不断优化调整网络权值和偏置。
所述步骤五对网络模型进行验证还包括:每次步骤四训练时均需输出验证数据结果的误差,当该验证数据误差由逐渐变小的趋势变为逐渐变大的趋势时,终止迭代,模型训练完成。
本发明的有益效果:
本发明设计的一种遥感影像建筑物提取方法,通过引入注意力机制、空洞卷积、可变形卷积等手段增强了不同尺度建筑物的特征提取效果,并使用自上而下方式横向密集连接计算特征金字塔,融合不同层次特征,充分利用深度卷积神经网络中的多尺度信息;
本发明方法能够快速、准确地提取不同类型、尺度多样的建筑物目标,提高建筑物自动化提取的精度。
本发明中步骤六使用训练好的模型提取建筑物,只需将包含建筑物对象的待检测图像输入训练好的深度学习模型中,便可直接输出建筑物提取结果,无需人为干预,体现了对建筑物提取的自动化水平和效率上的提高。
本发明中步骤三构建深度学习网络模型,运用多种技术手段改进特征提取效果,使用创新方式融合多尺度信息,在步骤七对提取结果进行精度评价,通过对比建筑物提取结果与真值标签数据可知,二者吻合度极高,提取结果边界清晰、面积完整,体现了对不同类型、尺度多样的建筑物目标提取精度上的提高。
此外,本发明通过输入待测图像,直接输出建筑物提取结果,不需要其它人为干预,明显提高了建筑物提取的效率。
附图说明
图1为本发明设计的一种遥感影像建筑物提取方法的流程图;
图2为本发明构建的网络模型结构示意图;
图3为本发明实施例中使用的测试样本图像;
图4为采用本发明方法得到的建筑物提取结果图;
图5为实际专家标注的建筑物结果图。
具体实施方式
下面结合附图和实施例对本发明的一种遥感影像建筑物提取方法进行详细说明。
一种遥感影像建筑物提取方法,包括如下步骤:
步骤一,制作样本数据集,包括:采集目标区域遥感影像并进行预处理,采集目标区域遥感影像包含红、绿、蓝三个通道,并人工标注目标区域遥感影像中建筑物区域,得到对应的建筑物标签;
所述切片大小设置为1000×1000像素;所述建筑物标签采用one-hot编码处理,使之成为0和1二通道数据,建筑物区域使用二进制编码向量[1,0]表示,非建筑物区域使用二进制编码向量[0,1]表示。
并将目标区域遥感影像与建筑物标签数据按照指定的切片大小进行切片处理,并将切片化后的目标区域遥感影像与建筑物标签数据按照6:2:2的比例分别划分为独立的训练样本、验证样本和测试样本,以构成样本数据集;
步骤二,对训练样本进行数据增强,包括:对步骤一制作的训练样本分别进行90°、180°和270°旋转,水平和垂直翻转,0.5倍、1倍、1.5倍和2倍缩放等数据增强操作,以提高模型的识别精度和泛化能力。
步骤三,采用编码-解码结构构建深度学习网络模型,包括编码阶段和解码阶段;
所述编码阶段还包括:在编码阶段采用ResNet101基础网络提取图像特征,并将具有相同尺寸特征图的结构称为阶段,使用ResNet101中各阶段最后一个残差模块输出的特征图,组成输出特征图组{C2、C3、C4、C5},组成自下向上的前向网络,用于提供卷积块注意力机制(CBAM)操作的全局特征。
所述输出特征图组中的参数C2、C3、C4、C5分别表示ResNet101网络中各阶段最后一个残差模块输出的特征图标记,即ResNet101网络中第二阶段最后一个残差模块输出的特征图标记为C2,ResNet101网络中第三阶段最后一个残差模块输出的特征图标记为C3,ResNet101网络中第四阶段最后一个残差模块输出的特征图标记为C4,ResNet101网络中第五阶段最后一个残差模块输出的特征图标记为C5。
原始的ResNet101网络中第二到第五阶段特征图尺寸大小分别为原始图像的1/4、1/8、1/16、1/32,
当使用本方法时,在ResNet101网络第四阶段最后一个残差模块和第五阶段最后一个残差模块引入空洞率分别为2和4的空洞卷积(atrous convolution,AC),以代替原始第四阶段和第五阶段的普通卷积时,使得ResNet101网络中第二到第五阶段特征图尺寸变为1/4、1/8、1/8、1/8,提高了特征图尺寸;更大的特征尺寸更有利于后续的特征融合,能使网络较少丢失特征的空间信息。
在ResNet101网络中第三、第四和第五阶段的残差模块再引入可变形卷积(deformable convolution,DC);能让网络在学习特征时额外学习到特征的偏移程度,获得自动适应物体形变的特征表达能力。
所述步骤三的解码阶段还包括:在解码阶段特征融合时,首先对第五阶段最后一个残差模块输出的特征图C5进行金字塔池(pyramid pooling module,PPM)化操作,得到融合上下文信息和全局信息的特征图C5';其次,将特征图组{C2、C3、C4、C5}分别进行卷积块注意力机制操作,得到逐层增强后的特征图组{M2、M3、M4、M5},在丰富的特征中筛选出显著的局部特征,实现特征图的逐级增强;然后,将特征图C5'与特征图组{M2、M3、M4、M5}采用自上而下的方式逐级横向密集连接计算特征金字塔。
所述将特征图C5'与特征图组{M2、M3、M4、M5}采用自上而下的方式逐级横向密集连接计算特征金字塔的具体过程包括:
将特征图C5'与M5使用concatenate方式(concatenate为拼接、叠加含义,在深度学习领域,特征图的结合有两种方式:一种是元素对应相加,即做值的叠加,简称add方式,另一种就是把特征图堆叠到一起,即做通道的合并,简称concatenate方式)进行叠加,并通过1×1大小卷积操作减少1/2通道数量,得到特征图P5;
将特征图P5与M4使用concatenate方式进行叠加,并通过1×1大小卷积操作减少1/2通道数量,得到特征图P4;
将特征图P5、P4与M3以concatenate方式进行叠加,并通过1×1大小卷积操作减少通道数量,得到特征图P3;
将特征图P5、P4和P3分别进行2倍上采样,并以concatenate方式进行叠加,再将合并结果与M2进行横向连接,得到特征图P2;
至此,通过计算得到融合后的自上而下网络分支{P2、P3、P4、P5};最后,将特征金字塔底端特征图P2上采样至原始输入图像,输入图像大小为1000×1000像素,经过分类器输出提取建筑物特征结果;
步骤四,使用训练样本对网络模型进行训练,包括:将步骤一制作的训练样本经过步骤二数据增强后输入到步骤三所构建的深度学习网络模型中进行训练;训练过程中包括:优化函数、损失函数;所述优化函数使用Adam,学习率为0.0001;损失函数使用DiceLoss。所述步骤四通过计算损失函数误差,采用反向传播算法不断优化调整网络权值和偏置。
步骤五,使用验证样本对网络模型进行验证,包括:将步骤一制作的验证样本输入到经步骤四训练后的网络模型中进行验证,且验证样本在步骤四的网络训练完成前不能改变,并且验证样本与训练样本和测试样本均不重合;
所述步骤五对网络模型进行验证还包括:每次步骤四训练时均需输出验证数据结果的误差,当该验证数据误差由逐渐变小的趋势变为逐渐变大的趋势时,终止迭代,模型训练完成;
即:在步骤四的每轮训练中,输入训练样本进行训练时,会输出相应的训练数据结果误差和精度,这个误差和精度用来借助反向传播算法更新网络权值参数;在输入训练样本的同时,也会输入验证样本进行步骤五模型验证,并输出相应的验证数据结果误差和精度,这个误差和精度作为参考,用来评估模型,不用于更新网络权值参数。
步骤六,使用训练好的模型提取建筑物,包括:利用步骤五验证好的深度学习网络模型进行建筑物提取,输入步骤一制作的测试样本图像,输出建筑物提取结果;
步骤七,对建筑物提取结果进行精度评价,将建筑物提取结果与相应的真值标签数据进行比较,计算精度指标。
上面对本发明的实施例作了详细说明,本发明并不限于上述实例,在本领域普通技术人员所具备的知识范围内,还可以在不脱离本发明宗旨的前提下做出各种变化。
Claims (10)
1.一种遥感影像建筑物提取方法,其特征在于,包括如下步骤:
步骤一,制作样本数据集,包括:采集目标区域遥感影像并进行预处理,采集目标区域遥感影像包含红、绿、蓝三个通道,并人工标注目标区域遥感影像中建筑物区域,得到对应的建筑物标签;
并将目标区域遥感影像与建筑物标签数据按照指定的切片大小进行切片处理,并将切片化后的目标区域遥感影像与建筑物标签数据按照6:2:2的比例分别划分为独立的训练样本、验证样本和测试样本,以构成样本数据集;
步骤二,对训练样本进行数据增强,包括:对步骤一制作的训练样本分别进行90°、180°和270°旋转,水平和垂直翻转,0.5倍、1倍、1.5倍和2倍缩放等数据增强操作;
步骤三,采用编码-解码结构构建深度学习网络模型,包括编码阶段和解码阶段;
步骤四,使用训练样本对网络模型进行训练,包括:将步骤一制作的训练样本经过步骤二数据增强后输入到步骤三所构建的深度学习网络模型中进行训练;训练过程中包括:优化函数、损失函数;
步骤五,使用验证样本对网络模型进行验证,包括:将步骤一制作的验证样本输入到经步骤四训练后的网络模型中进行验证,且验证样本在步骤四的网络训练完成前不能改变,并且验证样本与训练样本和测试样本均不重合;
步骤六,使用训练好的模型提取建筑物,包括:利用步骤五验证好的深度学习网络模型进行建筑物提取,输入步骤一制作的测试样本图像,输出建筑物提取结果;
步骤七,对建筑物提取结果进行精度评价,将建筑物提取结果与相应的真值标签数据进行比较,计算精度指标。
2.根据权利要求1所述的一种遥感影像建筑物提取方法,其特征在于:步骤一中所述切片大小设置为1000×1000像素;所述建筑物标签采用one-hot编码处理,使之成为0和1二通道数据,建筑物区域使用二进制编码向量[1,0]表示,非建筑物区域使用二进制编码向量[0,1]表示。
3.根据权利要求2所述的一种遥感影像建筑物提取方法,其特征在于:所述步骤三中的编码阶段还包括:在编码阶段采用ResNet101基础网络提取图像特征,并将具有相同尺寸特征图的结构称为阶段,使用ResNet101中各阶段最后一个残差模块输出的特征图,组成输出特征图组{C2、C3、C4、C5},组成自下向上的前向网络,用于提供卷积块注意力机制(CBAM)操作的全局特征。
4.根据权利要求3所述的一种遥感影像建筑物提取方法,其特征在于:所述输出特征图组中的参数C2、C3、C4、C5分别表示ResNet101网络中各阶段最后一个残差模块输出的特征图标记,即ResNet101网络中第二阶段最后一个残差模块输出的特征图标记为C2,ResNet101网络中第三阶段最后一个残差模块输出的特征图标记为C3,ResNet101网络中第四阶段最后一个残差模块输出的特征图标记为C4,ResNet101网络中第五阶段最后一个残差模块输出的特征图标记为C5。
5.根据权利要求4所述的一种遥感影像建筑物提取方法,其特征在于:所述步骤三的编码阶段还包括:在ResNet101网络第四阶段最后一个残差模块和第五阶段最后一个残差模块引入空洞率分别为2和4的空洞卷积,使得ResNet101网络中第二到第五阶段特征图尺寸变为1/4、1/8、1/8、1/8;
在ResNet101网络中第三、第四和第五阶段的残差模块再引入可变形卷积。
6.根据权利要求1所述的一种遥感影像建筑物提取方法,其特征在于:所述步骤三的解码阶段还包括:在解码阶段特征融合时,首先对第五阶段最后一个残差模块输出的特征图C5进行金字塔池化操作,得到融合上下文信息和全局信息的特征图C5';其次,将特征图组{C2、C3、C4、C5}分别进行卷积块注意力机制操作,得到逐层增强后的特征图组{M2、M3、M4、M5},在丰富的特征中筛选出显著的局部特征,实现特征图的逐级增强;然后,将特征图C5'与特征图组{M2、M3、M4、M5}采用自上而下的方式逐级横向密集连接计算特征金字塔。
7.根据权利要求6所述的一种遥感影像建筑物提取方法,其特征在于:所述将特征图C5'与特征图组{M2、M3、M4、M5}采用自上而下的方式逐级横向密集连接计算特征金字塔的具体过程包括:
将特征图C5'与M5使用concatenat方式进行叠加,并通过1×1大小卷积操作减少1/2通道数量,得到特征图P5;
将特征图P5与M4使用concatenate方式进行叠加,并通过1×1大小卷积操作减少1/2通道数量,得到特征图P4;
将特征图P5、P4与M3以concatenate方式进行叠加,并通过1×1大小卷积操作减少通道数量,得到特征图P3;
将特征图P5、P4和P3分别进行2倍上采样,并以concatenate方式进行叠加,再将合并结果与M2进行横向连接,得到特征图P2;
至此,通过计算得到融合后的自上而下网络分支{P2、P3、P4、P5};最后,将特征金字塔底端特征图P2上采样至原始输入图像,输入图像大小为1000×1000像素,经过分类器输出提取建筑物特征结果。
8.根据权利要求1所述的一种遥感影像建筑物提取方法,其特征在于:所述步骤四中优化函数使用Adam,学习率为0.0001;损失函数使用Dice Loss。
9.根据权利要求1所述的一种遥感影像建筑物提取方法,其特征在于:所述步骤四通过计算损失函数误差,采用反向传播算法不断优化调整网络权值和偏置。
10.根据权利要求9所述的一种遥感影像建筑物提取方法,其特征在于:所述步骤五对网络模型进行验证还包括:每次步骤四训练时均需输出验证数据结果的误差,当该验证数据误差由逐渐变小的趋势变为逐渐变大的趋势时,终止迭代,模型训练完成。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110630946.6A CN113420619A (zh) | 2021-06-07 | 2021-06-07 | 一种遥感影像建筑物提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110630946.6A CN113420619A (zh) | 2021-06-07 | 2021-06-07 | 一种遥感影像建筑物提取方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113420619A true CN113420619A (zh) | 2021-09-21 |
Family
ID=77713959
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110630946.6A Pending CN113420619A (zh) | 2021-06-07 | 2021-06-07 | 一种遥感影像建筑物提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113420619A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887459A (zh) * | 2021-10-12 | 2022-01-04 | 中国矿业大学(北京) | 一种基于改进Unet++的露天矿区采场变化区域检测方法 |
CN113963270A (zh) * | 2021-10-20 | 2022-01-21 | 南宁桂电电子科技研究院有限公司 | 一种高分遥感影像建筑物检测方法 |
CN114119621A (zh) * | 2021-11-30 | 2022-03-01 | 云南电网有限责任公司输电分公司 | 基于深度编解码融合网络的sar遥感图像水域分割方法 |
CN114387512A (zh) * | 2021-12-28 | 2022-04-22 | 南京邮电大学 | 基于多尺度特征融合与增强的遥感影像建筑物提取方法 |
CN114581769A (zh) * | 2022-01-19 | 2022-06-03 | 西南交通大学 | 一种基于无监督聚类的在建房屋识别方法 |
CN114663759A (zh) * | 2022-03-24 | 2022-06-24 | 东南大学 | 一种基于改进DeepLabV3+的遥感影像建筑物提取方法 |
CN117351370A (zh) * | 2023-10-17 | 2024-01-05 | 浙江省国土空间规划研究院 | 一种基于高景卫星影像的超范围建筑物图斑自动提取方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830896A (zh) * | 2018-01-23 | 2018-11-16 | 北斗导航位置服务(北京)有限公司 | 一种基于全卷积网络和建筑阴影几何模型的遥感影像水体斑块提取方法 |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111582194A (zh) * | 2020-05-12 | 2020-08-25 | 吉林大学 | 基于多特征lstm网络的多时相高分辨率遥感影像的建筑物提取方法 |
CN111914686A (zh) * | 2020-07-15 | 2020-11-10 | 云南电网有限责任公司带电作业分公司 | 基于周域关联和模式识别的sar遥感图像水域提取方法、装置及系统 |
CN112668552A (zh) * | 2021-01-18 | 2021-04-16 | 江西省水土保持科学研究院 | 一种基于深度学习的水土保持措施图斑自动提取方法及系统 |
CN112862774A (zh) * | 2021-02-02 | 2021-05-28 | 重庆市地理信息和遥感应用中心 | 一种遥感影像建筑物精确分割方法 |
-
2021
- 2021-06-07 CN CN202110630946.6A patent/CN113420619A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108830896A (zh) * | 2018-01-23 | 2018-11-16 | 北斗导航位置服务(北京)有限公司 | 一种基于全卷积网络和建筑阴影几何模型的遥感影像水体斑块提取方法 |
CN110705457A (zh) * | 2019-09-29 | 2020-01-17 | 核工业北京地质研究院 | 一种遥感影像建筑物变化检测方法 |
CN111582194A (zh) * | 2020-05-12 | 2020-08-25 | 吉林大学 | 基于多特征lstm网络的多时相高分辨率遥感影像的建筑物提取方法 |
CN111914686A (zh) * | 2020-07-15 | 2020-11-10 | 云南电网有限责任公司带电作业分公司 | 基于周域关联和模式识别的sar遥感图像水域提取方法、装置及系统 |
CN112668552A (zh) * | 2021-01-18 | 2021-04-16 | 江西省水土保持科学研究院 | 一种基于深度学习的水土保持措施图斑自动提取方法及系统 |
CN112862774A (zh) * | 2021-02-02 | 2021-05-28 | 重庆市地理信息和遥感应用中心 | 一种遥感影像建筑物精确分割方法 |
Non-Patent Citations (3)
Title |
---|
宋廷强 等: "基于深度学习的高分辨率遥感图像建筑物识别", 《计算机工程与应用》, 25 February 2020 (2020-02-25), pages 26 - 34 * |
宋廷强 等: "基于深度学习的高分辨率遥感图像建筑物识别", 《计算机工程与应用》, pages 2 - 3 * |
田青林 等: "基于注意力金字塔网络的航空影像建筑物变化检测", 《光学学报》, 30 November 2020 (2020-11-30), pages 1 - 10 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113887459A (zh) * | 2021-10-12 | 2022-01-04 | 中国矿业大学(北京) | 一种基于改进Unet++的露天矿区采场变化区域检测方法 |
CN113963270A (zh) * | 2021-10-20 | 2022-01-21 | 南宁桂电电子科技研究院有限公司 | 一种高分遥感影像建筑物检测方法 |
CN114119621A (zh) * | 2021-11-30 | 2022-03-01 | 云南电网有限责任公司输电分公司 | 基于深度编解码融合网络的sar遥感图像水域分割方法 |
CN114387512A (zh) * | 2021-12-28 | 2022-04-22 | 南京邮电大学 | 基于多尺度特征融合与增强的遥感影像建筑物提取方法 |
CN114387512B (zh) * | 2021-12-28 | 2024-04-19 | 南京邮电大学 | 基于多尺度特征融合与增强的遥感影像建筑物提取方法 |
CN114581769A (zh) * | 2022-01-19 | 2022-06-03 | 西南交通大学 | 一种基于无监督聚类的在建房屋识别方法 |
CN114663759A (zh) * | 2022-03-24 | 2022-06-24 | 东南大学 | 一种基于改进DeepLabV3+的遥感影像建筑物提取方法 |
CN117351370A (zh) * | 2023-10-17 | 2024-01-05 | 浙江省国土空间规划研究院 | 一种基于高景卫星影像的超范围建筑物图斑自动提取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110705457B (zh) | 一种遥感影像建筑物变化检测方法 | |
CN113420619A (zh) | 一种遥感影像建筑物提取方法 | |
CN113850825B (zh) | 基于上下文信息和多尺度特征融合的遥感图像道路分割方法 | |
CN108960135B (zh) | 基于高分辨遥感图像的密集舰船目标精确检测方法 | |
CN111950453A (zh) | 一种基于选择性注意力机制的任意形状文本识别方法 | |
CN111932511B (zh) | 一种基于深度学习的电子元器件质量检测方法与系统 | |
CN110675374B (zh) | 一种基于生成对抗网络的二维图像污水流量检测方法 | |
CN111832615A (zh) | 一种基于前景背景特征融合的样本扩充方法及系统 | |
CN111242026B (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN112036249B (zh) | 端对端行人检测及属性识别的方法、系统、介质及终端 | |
CN113971764B (zh) | 一种基于改进YOLOv3的遥感图像小目标检测方法 | |
CN113643268A (zh) | 基于深度学习的工业制品缺陷质检方法、装置及存储介质 | |
CN113496480A (zh) | 一种焊缝图像缺陷的检测方法 | |
CN114511710A (zh) | 一种基于卷积神经网络的图像目标检测方法 | |
CN113962980A (zh) | 基于改进yolov5x的玻璃容器瑕疵检测方法及系统 | |
CN116524189A (zh) | 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法 | |
CN116740758A (zh) | 一种防止误判的鸟类图像识别方法及系统 | |
CN115375925A (zh) | 一种基于相位信息和深度学习的水下声呐图像匹配算法 | |
CN113673534B (zh) | 一种基于Faster RCNN的RGB-D图像果实检测方法 | |
CN112287895A (zh) | 用于河流排污口检测的模型构建方法、识别方法及系统 | |
CN112465821A (zh) | 一种基于边界关键点感知的多尺度害虫图像检测方法 | |
CN117115212A (zh) | 一种自动化检测模型位姿异常及配准方法 | |
CN113255704A (zh) | 一种基于局部二值模式的像素差卷积边缘检测方法 | |
CN111369508A (zh) | 一种金属三维点阵结构的缺陷检测方法及系统 | |
CN113762359B (zh) | 一种面向rd时频数据的深度学习模型评测系统及方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |