CN115841625A - 一种基于改进U-Net模型的遥感建筑物影像提取方法 - Google Patents

一种基于改进U-Net模型的遥感建筑物影像提取方法 Download PDF

Info

Publication number
CN115841625A
CN115841625A CN202310154107.0A CN202310154107A CN115841625A CN 115841625 A CN115841625 A CN 115841625A CN 202310154107 A CN202310154107 A CN 202310154107A CN 115841625 A CN115841625 A CN 115841625A
Authority
CN
China
Prior art keywords
convolution
improved
remote sensing
net model
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310154107.0A
Other languages
English (en)
Other versions
CN115841625B (zh
Inventor
邵艳利
黎鑫
王兴起
魏丹
陈滨
方景龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Original Assignee
Hangzhou Dianzi University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Dianzi University filed Critical Hangzhou Dianzi University
Priority to CN202310154107.0A priority Critical patent/CN115841625B/zh
Publication of CN115841625A publication Critical patent/CN115841625A/zh
Application granted granted Critical
Publication of CN115841625B publication Critical patent/CN115841625B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

本发明提出了一种基于改进U‑Net模型的遥感建筑物影像提取方法。使用U‑Net模型作为骨干网络,在模型的跳跃连接阶段,加入协调注意力门控模块,以更好定位建筑物主体信息并有效整合不同级别语义信息。在模型的桥梁连接部分,引入了高效连续金字塔模块,使用分组的小尺度空洞卷积进行特征提取,并在组内进行特征分层叠加,强化了模型对于捕获建筑物主体间可能存在的空间上下文关系的能力。在模型的解码器部分,引入双向联级深度监督模块,按照从深到浅和从浅到深两个方向依次融合相邻解码器阶段所得的预测图,以实现对不同网络层特定监督,有效提升了模型的多尺度建筑物主体提取能力。

Description

一种基于改进U-Net模型的遥感建筑物影像提取方法
技术领域
本发明属于图像处理技术领域,涉及遥感影像中的建筑物提取,具体涉及一种基于改进U-Net模型的遥感建筑物影像提取方法。
背景技术
建筑物为城市居民的居住、工作、休闲以及其他社会经济活动提供了基本的功能活动空间,对建筑物进行合理管控是实现可持续协调发展城市建设道路的必然之举。随着遥感技术的飞速发展,遥感图像分辨率也在不断提升,高分辨率遥感建筑物影像包含更精确的几何结构、更丰富的纹理特征以及地物特征,快速提取高分辨率遥感影像数据中的建筑物信息,对城市规划、地表动态监测、地图制图和土地利用管理等具有重要意义。近年来,深度学习技术给图像分割领域带来了革命性的影响。过去十年中,基于卷积神经网络的方法在遥感建筑物影像提取中得到了快速地发展。总体而言,现有技术通过基于深度学习的遥感影像建筑物提取模型已经能够实现自动化提取建筑,且各方面效果均优于传统提取方法。
最新的遥感影像建筑物提取模型中,BRRNet首次引入空洞卷积应用于模型桥接阶段,通过级联不同膨胀率的空洞卷积以提取更多的建筑物全局特征信息,但空洞卷积膨胀率的不合理选取容易导致特征提取时失去建筑物部分的局部细节。BMFRNet在深度监督阶段加入多尺度输出融合约束结构,一定程度上提升了模型聚合多尺度语义信息的能力,但其并不能有效凸显出不同解码层提取特征的特性,导致模型多尺度建筑物提取能力差。BOMSCNet在模型桥接阶段引入多尺度上下文感知模块,有效得捕获了建筑物主体的全局上下文特征信息,但遥感影像中建筑物尺度差异大,其模型的多尺度提取能力依旧有待进一步提高。
由于不同的建筑物主体存在形状复杂、边缘信息丰富、尺度大小不一的特点,目前鲜有方法综合考虑诸多特性,同时建筑物本身所具有颜色、纹理等低级特征也未能有效整合利用,因此遥感影像建筑物的自动化精准提取算法仍待进一步研究思考。
发明内容
针对现有技术的不足,本发明提出了一种基于改进U-Net模型的遥感建筑物影像提取方法,采用U-Net作为骨干网络,在跳跃连接阶段增加协调注意力门控模块,在桥接阶段添加高效连续空间金字塔模块,并使用双向联级监督结构,解决遥感影像建筑物提取中建筑物主体难定位、多尺度主体难以充分提取、建筑物形状以及空间上下文信息未能有效利用等问题,提高建筑物提取的准确率,节约人力物力。
一种基于改进U-Net模型的遥感建筑物影像提取方法,具体包括以下步骤:
步骤1、对原始的遥感建筑物图像进行预处理,使用滑动窗口将其裁剪为多张大小相同的子图像,再进行灰度归一化,将图像的灰度值统一在0到1之间。
步骤2、构建一个U-Net模型,然后对其跳跃连接部分、桥接部分以及解码结构进行改进,得到BDS-UNet网络模型,具体操作如下:
步骤2-1、在U-Net模型的跳跃连接部分加入协调注意力门控模块,对每一层卷积编码结果进行门控激活。所述协调注意力门控模块将通道注意力分解为两个一维特征编码过程,分别沿两个空间方向聚合编码器的输入特征,生成的协调注意力热图包含了两个不同空间方向上建筑物主体的空间信息,可以将其互补地应用于输入特征图,以增强关注对象的表示。
步骤2-2、进一步在U-Net模型的桥接部分添加高效连续金字塔模块,对编码器的输出进行分组特征提取,在每个分组内并行使用三个不同膨胀率的空洞卷积,按照膨胀率递增的顺序对空洞卷积的结果进行逐级递加与融合,最终再对不同分组提取到的特征进行融合,得到高效连续金字塔模块的输出。
步骤2-3、在解码器阶段引入双向联级监督结构,具体是在U-Net模型的解码器部分增加两个分支。所述分支对每一层卷积解码结果进行卷积和上采样操作,得到与编码器输入图像大小相同的中间特征图。然后在两个分支内分别按照由浅到深、由深到浅的顺序对中间特征图进行逐层融合,得到不同层级的边缘特征图。最后通过卷积操作将所有边缘特征图进行融合,得到BDS-UNet网络模型的输出预测图。双向联级监督结构通过传播来自相邻上下层的预测结果,迫使每一层都专注于一个特定的规模,以有效提升模型的多尺度建筑物提取能力。
步骤3、向步骤2构建的BDS-UNet网络模型输入带标签的遥感建筑物图像,将双向联级监督结构得到的边缘特征图和模型的输出预测图作为监督依据,使用Adam优化算法进行优化。最后使用训练后的BDS-UNet网络模型完成遥感建筑物影像提取。
本发明具有以下有益效果:
1、本方法提出协调注意力门控模块,对编码器传入跳跃连接的特征进行门控激活,不仅能够减少不同层级特征融合所存在的语义鸿沟,有效整合建筑物本身所具有的颜色、纹理等低级特征,同时还可以更加精准地定位建筑物主体相对位置。
2、利用高效连续金字塔模块提取编码器输出的特征,可以消除空洞卷积在特征提取时带来的栅格化问题,有效整合建筑物主体不同感受野下的空间上下文信息。
3、在解码器部分使用双向联级监督结构对模型进行深度监督,通过传播来自相邻上下层的预测结果,以更好地实现对不同解码层的特定监督,在有效保留小尺度建筑物边缘信息的同时,提升了模型多尺度建筑物主体提取能力。
附图说明
图1 为实施例中构建的BDS-UNet网络模型示意图。
图2 为U-Net网络模型结构示意图。
图3 为协调注意力门控模块结构示意图。
图4 为高效连续金字塔模块结构示意图。
图5 为双向联级监督结构示意图。
图6 为实施例中基于WHU建筑物数据集的实验可视化对比图,其中(a)、(b)分别为原始遥感影像和对应的建筑物影像标签,(c)、(d)、(e)、(f)、(g)分别为使用现有技术中的SegNet、Unet、Deeplab、BRRNet、BMFRNet网络模型从原始遥感影像提取到的建筑物影像,(h)为使用本方法从原始遥感影像提取到的建筑物影像。
具体实施方式
以下结合附图对本发明作进一步的解释说明;
下面根据附图结合WHU建筑物数据集对本发明进行详细说明。本发明整体模型结构如附图1所示,具体步骤如下:
步骤1、对WHU建筑物数据集中的原始数据进行剪裁和归一化,具体操作如下:
步骤1-1、从左上角开始使用滑动窗口,按照从左到右、从上到下的顺序,将原始图像的分辨率统一裁剪到256×256,对于裁剪后分辨率小于256×256的图片进行扩展操作。剔除不完整的图像后,将裁剪得到的4392张图像作为训练集,其余144张图像作为验证集。
步骤1-2、采用图像处理中较为通用的零均值归一化方法对裁剪后图像的灰度值进行归一化处理,将其灰度值统一在0到1之间:
Figure SMS_1
(1)
其中,
Figure SMS_2
表示经过归一化处理后的图像,/>
Figure SMS_3
表示裁剪后的图像,mean(f(x,y))表示灰度平均值,std(f(x,y))表示方差。
步骤2、构建如图1所示的BDS-UNet网络模型,该模型以U-Net结构为骨干,对跳跃连接部分、桥接部分以及解码结构进行改进。如图2所示,所述U-Net结构包括编码器、解码器、跳跃连接部分和桥接部分。图中横向的数值表示图像的通道数,纵向的数值表示图像的分辨率大小。在U-Net结构中编码器对输入图像进行3层卷积和最大池化操作,逐步缩小输入图像的分辨率大小,增加通道数,从而输出不同尺寸的编码特征图。桥接部分将编码器的输出特征图送入解码器。所述解码器通过3层卷积和上采样操作,逐步将特征图的尺寸恢复到与输入图像大小一致,输出预测结果。跳跃连接部分将同尺寸的编码特征图送入解码器,令解码器在每次进行上采样前都与相同尺寸的编码特征图拼接。
步骤2-1、使用协调注意力门控模块提取模型跳跃连接阶段编码器传入的特征,所述协调注意力门控模块的结构如图3所示,该模块包括协调池化、通道压缩和门控激活三个步骤:
步骤2-1-1、将编码器每一层卷积编码结果作为模块输入,分别在水平和垂直两个方向进行尺寸为(H,1)和(1,W)的全局池化操作,得到沿水平和垂直两个空间方向的聚合特征。其中H、W、C分别表示模块输入的高度、宽度和通道数。
步骤2-1-2、对步骤2-1-1得到的两个空间方向的聚合特征进行拼接,得到保存了两个不同方向上的空间上下文特征信息的特征图,大小为(H+W)x1,通道数为C。再使用1×1卷积操作将其通道数缩小为原始通道数的1/r,以减少计算量。在本实施例中r=32。
步骤2-1-3、针对通道数缩小后的特征图分别使用两个1×1卷积操作,生成横向注意力权重图和纵向注意力权重图,然后与模块输入进行点乘,转化为将要传入解码器部分的输出,完成协调注意力门控激活过程。其中,横向注意力图的大小为Wx1,纵向注意力图的大小为1xH,经过1×1卷积操作后,通道数均恢复到C。
步骤2-2、使用高效连续金字塔模块对编码器的输出作进一步的特征提取,如图4所示,所述高效连续金字塔模块包括点积压缩、组内特征逐级融合和组间特征融合三个步骤:
步骤2-2-1、将编码器最后一层的输出特征作为该模块的输入,并分为三个不同分组,在每个分组内均通过逐点卷积压缩空间特征,减少参数量以提升模块特征提取效率。
步骤2-2-2、在每个分组内将压缩后的特征送入三个并联的空洞卷积分支中,然后按照膨胀率从低到高的顺序,逐级叠加三个空洞卷积分支提取到的特征信息,再对叠加的结果进行融合,完成组内层次特征融合。
步骤2-2-3、将三个分组输出的特征进行组间相加融合,得到高效连续金字塔模块的输出特征。
在步骤2-2中,第一个分组内的三个空洞卷积膨胀率分别为(1,2,3),第二个分组的三个空洞卷积膨胀率分别为(1,3,5),第三个分组内的三个空洞卷积膨胀率分别为(1,3,9)。合理的空洞卷积膨胀率可以有效减少栅格化效应带来的影响,同时分组内逐级叠加不同膨胀率空洞卷积提取的特征,这种类残差的结构能够更好地实现梯度回传,有效提升模型捕获不同距离感受野下的空间上下文特征的能力。
步骤2-3、使用双向联级监督结构对解码器部分进行改进,如图5所示:解码器部分在每层使用两次大小为3×3、步长为1的卷积操作,特征图在卷积操作前后的大小不变,每次卷积后都使用批量归一化BN与ReLU函数进行激活,然后再进行一次上采样操作,经过3次上采样后,特征图恢复的尺寸恢复到与输入图像相等。双向联级监督结构在解码器每层的上采样操作之前添加两条分支,每条分支都会进行大小为1x1、步长为1的卷积操作和不同倍数的上采样操作,从而得到与输入图像大小相等的中间特征图。然后再分别按照特征由浅入深和由深入浅的顺序,对两条支路得到的中间特征图进行逐级融合,获得8张边缘特征图:
Figure SMS_4
(2)
Figure SMS_5
(3)
其中,
Figure SMS_6
表示由浅到深融合过程中第s层所得的边缘特征图,/>
Figure SMS_7
表示被由浅到深融合的第i层中间特征图,/>
Figure SMS_8
表示由深到浅融合过程中第s层所得的边缘特征图,/>
Figure SMS_9
表示被由深到浅融合的第i层中间特征图。由于每一张边缘特征图都是通过双向级联结构推断出来的,因此可以有效区分不同层次解码器所提取特征表达出的多尺度信息,从而提升模型的多尺度建筑物提取能力。
最后,将两个分支获得的边缘特征图通过1×1卷积操作进行融合,输出BDS-UNet网络模型的最终预测图。
步骤3、使用训练集图像对步骤2构建的BDS-UNet网络模型进行训练。将双向联级监督结构两个分支得到的8张边缘特征图和1张最终预测图作为监督依据,使用Adam优化算法进行优化,边缘损失函数
Figure SMS_10
和总损失函数/>
Figure SMS_11
分别表示为:
Figure SMS_12
(4)
Figure SMS_13
(5)
其中
Figure SMS_14
和/>
Figure SMS_15
分别是边缘损失和融合损失的权重,在本实施例中
Figure SMS_16
=0.5、/>
Figure SMS_17
=1.1。/>
Figure SMS_18
为所有编码器特征图融合后所得的最终预测结果,/>
Figure SMS_19
是图像中建筑物主体的对应真实值,/>
Figure SMS_20
表示Dice损失函数:
Figure SMS_21
(6)
其中,
Figure SMS_22
为图像中的像素总数,/>
Figure SMS_23
为地面真实值中的第i个像素是否属于一个建筑,/>
Figure SMS_24
表示预测结果中的第i个像素为建筑物的概率。
为了进一步说明本方法的有效性,在步骤1得到的验证集上与SOTA方法进行对比实验,出于全面性考虑,选取了语义分割经典模型U-Net、SegNet和DeeplabV3+,以及遥感建筑物提取模型BRRNet、BMFRNet和BOMSC-Net。
可视化对比结果如图6所示,根据图片可知,本方法所提出的BDS-UNet网络模型的表现均好于其他现有的遥感建筑物提取模型。BRRNet提取出的建筑物主体不完整不连续,而BMFR-Net在多尺度建筑物提取方面表现较差。数值结果如表1所示:
表1
模型 OA(%) Precision(%) Recall(%) IOU(%) F1(%)
U-Net 98.20 90.25 94.00 85.34 92.09
DeepLabV3+ 98.28 91.80 92.84 85.73 92.32
SegNet 98.03 89.43 93.36 84.08 91.35
BRRNet 98.33 91.52 93.68 86.19 92.58
BMFR-Net 97.92 95.06 92.86 88.59 93.95
BOMSC-Net 98.20 95.14 94.50 90.15 94.80
BDS-UNet(ours) 98.91 95.35 94.87 90.68 95.11
其中,OA表示总体精度,是指正确预测的所有像素在所有参与预测的像素中的比例,反映了模型对整体影像样本的建筑物预测能力。Precision表示准确率,是指正确预测为正例的像素在所有被预测正例的像素中所占的比例,反映了模型建筑物提取的全局准确程度。Recall表示召回率,是指正确预测为正例的像素在实际为正例的像素中所占的比例,可以反映模型提取建筑物正例的全面性。IOU表示交并比是所有预测的正例像素在实际正例像素与其并集中的比例。F1分数是准确率和召回率的调和平均值,能够有效评价模型整体分析效果。从表1中的数值可知,本申请提出的BDS-UNet网络模型在各项指标上均优于现有模型。

Claims (9)

1.一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:具体步骤如下:
步骤1、对原始的遥感建筑物图像进行预处理;
步骤2、构建一个U-Net模型,然后在跳跃连接部分加入协调注意力门控模块,对每一层卷积编码结果进行门控激活;接着在U-Net模型的桥接部分添加高效连续金字塔模块,对编码器的输出进行分组特征提取,提取结果传入解码器;最后在解码器部分引入双向联级监督结构,生成边缘特征图,并将边缘特征图的融合结果作为改进U-Net模型的输出预测图;
步骤3、将双向联级监督结构得到的边缘特征图和模型输出预测图作为监督依据,对改进U-Net模型进行优化训练;将步骤1处理后的图像输入训练后的改进U-Net模型完成遥感建筑物影像提取。
2.如权利要求1所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:步骤1中对原始的遥感建筑物图像进行预处理的具体方法为:
步骤1-1、从左上角开始使用滑动窗口,按照从左到右、从上到下的顺序,将原始图像的分辨率统一裁剪到256×256,对于裁剪后分辨率小于256×256的图片进行扩展操作,并剔除不完整的图像;
步骤1-2、采用零均值归一化方法对步骤1-1得到的图像进行灰度归一化处理,将其灰度值统一在0到1之间:
Figure QLYQS_1
(1)
其中,
Figure QLYQS_2
表示经过归一化处理后的图像,
Figure QLYQS_3
表示裁剪后的图像,
Figure QLYQS_4
表示灰度平均值,
Figure QLYQS_5
表示方差。
3.如权利要求1所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:所述改进U-Net模型在编码阶段对输入图像进行3层卷积和下采样操作,每层卷积操作得到的特征图输入协调注意力门控模块进行门控激活;在解码阶段对高效连续金字塔模块的输出特征进行3层卷积和上采样操作,并在每次卷积操作前与协调注意力门控模块输出的同尺度特征图进行拼接。
4.如权利要求1或3所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:所述协调注意力门控模块对每一层卷积编码结果进行门控激活,包括协调池化、通道压缩和门控激活三个步骤:
步骤2-1-1、将编码器一层的卷积编码结果作为模块输入,分别在水平和垂直两个方向进行尺寸为(H,1)和(1,W)的全局池化操作,得到沿水平和垂直两个空间方向的聚合特征;
步骤2-1-2、对步骤2-1-1得到的两个空间方向的聚合特征进行拼接,得到保存了两个不同方向上的空间上下文特征信息的特征图;再使用1×1卷积操作将其通道数缩小为原始通道数的1/32;
步骤2-1-3、针对通道数缩小后的特征图分别使用两个1×1卷积操作,生成横向注意力权重图和纵向注意力权重图,然后与模块输入进行点乘,转化为将要传入解码器部分的输出,完成协调注意力门控激活过程。
5.如权利要求1或3所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:所述高效连续金字塔模块将编码器最后一层的输出特征作为模块输入,包括点积压缩、组内特征逐级融合和组间特征融合三个步骤:
步骤2-2-1、将模块输入分为三个不同分组,在每个分组内均通过逐点卷积压缩空间特征;
步骤2-2-2、在每个分组内将压缩后的特征送入三个并联的空洞卷积分支中,然后按照膨胀率从低到高的顺序,逐级叠加三个空洞卷积分支提取到的特征信息,再对叠加的结果进行融合,完成组内层次特征融合;
步骤2-2-3、将三个分组输出的特征进行组间相加融合,得到高效连续金字塔模块的输出特征。
6.如权利要求5所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:第一个分组内的三个空洞卷积膨胀率分别为(1,2,3),第二个分组的三个空洞卷积膨胀率分别为(1,3,5),第三个分组内的三个空洞卷积膨胀率分别为(1,3,9)。
7.如权利要求1或3所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:双向联级监督结构在解码器每层的上采样操作之前添加两条支路,在支路内进行大小为1x1、步长为1的卷积操作和不同倍数的上采样操作,从而得到与输入图像大小相等的中间特征图;然后再分别按照特征由浅入深和由深入浅的顺序,对两条支路得到的中间特征图进行逐级融合,获得8张边缘特征图:
Figure QLYQS_6
(2)
Figure QLYQS_7
(3)
其中,
Figure QLYQS_8
表示由浅到深融合过程中第s层所得的边缘特征图,
Figure QLYQS_9
表示由深到浅融合过程中第s层所得的边缘特征图;
最后将所有边缘特征图通过1×1卷积操作进行融合,得到改进U-Net模型的输出预测图。
8.如权利要求1所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:使用Adam优化算法对改进U-Net模型进行优化,设置总损失函数L为:
Figure QLYQS_10
(4)
其中
Figure QLYQS_11
为边缘损失函数,
Figure QLYQS_12
表示Dice损失函数:
Figure QLYQS_13
(5)
Figure QLYQS_14
(6)
Figure QLYQS_16
Figure QLYQS_19
分别是边缘损失和融合损失的权重,
Figure QLYQS_22
表示由浅到深融合过程中第s层所得的边缘特征图,
Figure QLYQS_17
表示由深到浅融合过程中第s层所得的边缘特征图;
Figure QLYQS_18
为所有编码器特征图融合后所得的最终预测结果,
Figure QLYQS_21
是图像中建筑物主体的对应真实值;
Figure QLYQS_23
为图像中的像素总数,
Figure QLYQS_15
为地面真实值中的第i个像素是否属于一个建筑,
Figure QLYQS_20
表示预测结果中的第i个像素为建筑物的概率。
9.如权利要求8所述一种基于改进U-Net模型的遥感建筑物影像提取方法,其特征在于:设置
Figure QLYQS_24
=0.5、
Figure QLYQS_25
=1.1。
CN202310154107.0A 2023-02-23 2023-02-23 一种基于改进U-Net模型的遥感建筑物影像提取方法 Active CN115841625B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310154107.0A CN115841625B (zh) 2023-02-23 2023-02-23 一种基于改进U-Net模型的遥感建筑物影像提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310154107.0A CN115841625B (zh) 2023-02-23 2023-02-23 一种基于改进U-Net模型的遥感建筑物影像提取方法

Publications (2)

Publication Number Publication Date
CN115841625A true CN115841625A (zh) 2023-03-24
CN115841625B CN115841625B (zh) 2023-06-06

Family

ID=85580111

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310154107.0A Active CN115841625B (zh) 2023-02-23 2023-02-23 一种基于改进U-Net模型的遥感建筑物影像提取方法

Country Status (1)

Country Link
CN (1) CN115841625B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229336A (zh) * 2023-05-10 2023-06-06 江西云眼视界科技股份有限公司 视频移动目标识别方法、系统、存储介质及计算机
CN117237623A (zh) * 2023-08-04 2023-12-15 山东大学 一种无人机遥感图像语义分割方法及系统

Citations (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284782A (zh) * 2018-09-13 2019-01-29 北京地平线机器人技术研发有限公司 用于检测特征的方法和装置
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN109886106A (zh) * 2019-01-15 2019-06-14 浙江大学 一种基于深度学习的遥感图像建筑物变化检测方法
CN111161287A (zh) * 2019-12-05 2020-05-15 山东科技大学 基于对称双向级联网络深度学习的视网膜血管分割方法
CN111222519A (zh) * 2020-01-16 2020-06-02 西北大学 一种层次化彩绘文物线稿提取模型构建、方法及装置
CN111325766A (zh) * 2020-02-20 2020-06-23 腾讯科技(深圳)有限公司 三维边缘检测方法、装置、存储介质和计算机设备
CN112581486A (zh) * 2020-11-27 2021-03-30 深圳点猫科技有限公司 一种基于双向级联网络的边缘检测方法、装置及设备
US20210166347A1 (en) * 2019-11-29 2021-06-03 NavInfo Europe B.V. Semantic Segmentation Architecture
WO2021184891A1 (zh) * 2020-03-20 2021-09-23 中国科学院深圳先进技术研究院 遥感影像地物分类方法及系统
CN114140437A (zh) * 2021-12-03 2022-03-04 杭州电子科技大学 一种基于深度学习的眼底硬渗出物分割方法
CN114387521A (zh) * 2022-01-14 2022-04-22 中国人民解放军国防科技大学 基于注意力机制和边界损失的遥感影像建筑物提取方法
CN114387512A (zh) * 2021-12-28 2022-04-22 南京邮电大学 基于多尺度特征融合与增强的遥感影像建筑物提取方法
CN114463209A (zh) * 2022-01-25 2022-05-10 广州大学 一种基于深度多特征协同学习的图像修复方法
CN114627006A (zh) * 2022-02-28 2022-06-14 复旦大学 一种基于深度解耦网络的渐进式图像修复方法
CN114676759A (zh) * 2021-03-09 2022-06-28 北京航空航天大学 一种安检图像中违禁物品检测方法及装置
CN114842020A (zh) * 2022-04-20 2022-08-02 新疆大学 一种轻量化的肿瘤图像分割方法
CN114973011A (zh) * 2022-05-18 2022-08-30 哈尔滨理工大学 一种基于深度学习的高分辨率遥感影像建筑物提取方法
CN115512206A (zh) * 2022-10-19 2022-12-23 桂林电子科技大学 适用于低照度环境下的改进版YOLOv5目标检测方法
CN115661505A (zh) * 2022-09-07 2023-01-31 杭州电子科技大学 一种语义感知的图像阴影检测方法

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109284782A (zh) * 2018-09-13 2019-01-29 北京地平线机器人技术研发有限公司 用于检测特征的方法和装置
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN109886106A (zh) * 2019-01-15 2019-06-14 浙江大学 一种基于深度学习的遥感图像建筑物变化检测方法
US20210166347A1 (en) * 2019-11-29 2021-06-03 NavInfo Europe B.V. Semantic Segmentation Architecture
CN111161287A (zh) * 2019-12-05 2020-05-15 山东科技大学 基于对称双向级联网络深度学习的视网膜血管分割方法
CN111222519A (zh) * 2020-01-16 2020-06-02 西北大学 一种层次化彩绘文物线稿提取模型构建、方法及装置
CN111325766A (zh) * 2020-02-20 2020-06-23 腾讯科技(深圳)有限公司 三维边缘检测方法、装置、存储介质和计算机设备
WO2021164280A1 (zh) * 2020-02-20 2021-08-26 腾讯科技(深圳)有限公司 三维边缘检测方法、装置、存储介质和计算机设备
WO2021184891A1 (zh) * 2020-03-20 2021-09-23 中国科学院深圳先进技术研究院 遥感影像地物分类方法及系统
CN112581486A (zh) * 2020-11-27 2021-03-30 深圳点猫科技有限公司 一种基于双向级联网络的边缘检测方法、装置及设备
CN114676759A (zh) * 2021-03-09 2022-06-28 北京航空航天大学 一种安检图像中违禁物品检测方法及装置
CN114140437A (zh) * 2021-12-03 2022-03-04 杭州电子科技大学 一种基于深度学习的眼底硬渗出物分割方法
CN114387512A (zh) * 2021-12-28 2022-04-22 南京邮电大学 基于多尺度特征融合与增强的遥感影像建筑物提取方法
CN114387521A (zh) * 2022-01-14 2022-04-22 中国人民解放军国防科技大学 基于注意力机制和边界损失的遥感影像建筑物提取方法
CN114463209A (zh) * 2022-01-25 2022-05-10 广州大学 一种基于深度多特征协同学习的图像修复方法
CN114627006A (zh) * 2022-02-28 2022-06-14 复旦大学 一种基于深度解耦网络的渐进式图像修复方法
CN114842020A (zh) * 2022-04-20 2022-08-02 新疆大学 一种轻量化的肿瘤图像分割方法
CN114973011A (zh) * 2022-05-18 2022-08-30 哈尔滨理工大学 一种基于深度学习的高分辨率遥感影像建筑物提取方法
CN115661505A (zh) * 2022-09-07 2023-01-31 杭州电子科技大学 一种语义感知的图像阴影检测方法
CN115512206A (zh) * 2022-10-19 2022-12-23 桂林电子科技大学 适用于低照度环境下的改进版YOLOv5目标检测方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
HAIPING YANG 等: "A Postprocessing Method Based on Regions and Boundaries Using Convolutional Neural Networks and a New Dataset for Building Extraction" *
HAO YU 等: "Research on license plate location and recognition in complex environment" *
ZHENFENG SHAO 等: "BRRNet: A Fully Convolutional Neural Network for Automatic Building Extraction From High-Resolution Remote Sensing Images" *
周燕: "基于边缘效应和注意力机制的显著性检测" *
徐胜军 等: "基于多尺度特征融合模型的遥感图像建筑物分割" *
李海燕 等: "BDCN和U-net边缘生成两阶段修复算法" *
陈靖仪: "卷积神经网络的轻量化设计与加速实现" *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116229336A (zh) * 2023-05-10 2023-06-06 江西云眼视界科技股份有限公司 视频移动目标识别方法、系统、存储介质及计算机
CN116229336B (zh) * 2023-05-10 2023-08-18 江西云眼视界科技股份有限公司 视频移动目标识别方法、系统、存储介质及计算机
CN117237623A (zh) * 2023-08-04 2023-12-15 山东大学 一种无人机遥感图像语义分割方法及系统
CN117237623B (zh) * 2023-08-04 2024-03-29 山东大学 一种无人机遥感图像语义分割方法及系统

Also Published As

Publication number Publication date
CN115841625B (zh) 2023-06-06

Similar Documents

Publication Publication Date Title
CN115841625B (zh) 一种基于改进U-Net模型的遥感建筑物影像提取方法
CN101751449B (zh) 一种用于地理信息系统中的空间叠加分析方法和系统
CN113850825A (zh) 基于上下文信息和多尺度特征融合的遥感图像道路分割方法
CN110705457A (zh) 一种遥感影像建筑物变化检测方法
CN112991354B (zh) 一种基于深度学习的高分辨率遥感影像语义分割方法
CN112070779A (zh) 一种基于卷积神经网络弱监督学习的遥感影像道路分割方法
CN110147794A (zh) 一种基于深度学习的无人车室外场景实时分割方法
CN111127538B (zh) 一种基于卷积循环编码-解码结构的多视影像三维重建方法
CN110070091B (zh) 用于街景理解的基于动态插值重建的语义分割方法及系统
CN113345082B (zh) 一种特征金字塔多视图三维重建方法和系统
CN112329780B (zh) 一种基于深度学习的深度图像语义分割方法
CN113034444A (zh) 一种基于MobileNet-PSPNet神经网络模型的路面裂缝检测方法
CN112733693B (zh) 一种全局感知高分辨率遥感影像多尺度残差道路提取方法
CN112418049B (zh) 一种基于高分遥感影像的水体变化检测方法
CN112163447B (zh) 基于Attention和SqueezeNet的多任务实时手势检测和识别方法
CN115331102A (zh) 一种基于深度学习的遥感影像河湖岸线智能监测方法
CN114463340B (zh) 一种边缘信息引导的敏捷型遥感图像语义分割方法
CN115424059A (zh) 一种基于像素级对比学习的遥感土地利用分类方法
CN115908793A (zh) 一种基于位置注意力机制的编解码结构语义分割模型
CN113361496B (zh) 一种基于U-Net的城市建成区统计方法
CN114358246A (zh) 三维点云场景的注意力机制的图卷积神经网络模块
CN113888505A (zh) 一种基于语义分割的自然场景文本检测方法
CN117096867A (zh) 一种短期电力负荷预测方法、装置、系统及存储介质
CN116778238A (zh) 一种基于轻量型结构感知Transformer网络及VHR遥感图像变化检测方法
CN115457464B (zh) 基于transformer和CNN的人群计数方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant