CN112052783A - 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 - Google Patents

一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 Download PDF

Info

Publication number
CN112052783A
CN112052783A CN202010909322.3A CN202010909322A CN112052783A CN 112052783 A CN112052783 A CN 112052783A CN 202010909322 A CN202010909322 A CN 202010909322A CN 112052783 A CN112052783 A CN 112052783A
Authority
CN
China
Prior art keywords
building
pixel
boundary
feature
semantic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010909322.3A
Other languages
English (en)
Other versions
CN112052783B (zh
Inventor
陈杰
何玢
李建辉
郭亚
孙庚�
邓敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Central South University
Original Assignee
Central South University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Central South University filed Critical Central South University
Priority to CN202010909322.3A priority Critical patent/CN112052783B/zh
Publication of CN112052783A publication Critical patent/CN112052783A/zh
Application granted granted Critical
Publication of CN112052783B publication Critical patent/CN112052783B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4007Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括训练数据准备、深层特征提取、边界特征融合、像素语义关联度学习、损失函数计算和生成建筑物伪标注;通过设计边界注意模块,将超像素先验信息和网络提取的边界信息相结合,强化了建筑物边界特征,且通过学习像素之间的语义关联性,将像素间的语义信息在图像中进行有效传播,生成更为完整密集,边界更为清晰的伪标签。同时配合高分遥感影像采用全卷积网络模型训练,实现建筑物特征自动提取。

Description

一种结合像素语义关联和边界注意的高分影像弱监督建筑物 提取方法
技术领域
本发明涉及遥感影像领域,更具体地,涉及一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法。
背景技术
建筑物提取作为遥感影像语义分割的应用之一,对城市地理数据库的建立和更新、城市人口估算、土地覆盖变化等诸多领域有着重要的实践价值。近年来,随着遥感成像技术的飞速发展,卫星影像的空间分辨率及光谱分辨率得到了极大提高,使得建筑物的精确识别与定位成为可能。从遥感影像中提取建筑物的传统方法有基于像元和面向对象两种方式。基于像元的方法是以单个像素为基本单元,主要依据其光谱信息进行分类提取。面向对象的方法是先通过多尺度图像分割技术得到同质多边形对象,再设计特征提取规则进行对象的分类。前者难以顾及高分影像中地物的空间信息;而后者需要人工设计特征,难以应对大范围高分影像的建筑物提取任务。
近年来,由于深度神经网络强大的特征抽象能力和自动化的提取方式,在场景识别、目标检测、语义分割等任务中表现突出,也在建筑物提取方面取得了优异的效果。其中,大部分利用深度卷积神经网络的建筑物提取,都为全监督学习方法,需要像素级的标注。像素级标注制作起来既耗时又耗力,成为了基于深度神经网络语义分割任务的最大挑战之一,这个挑战将许多遥感应用置于“小数据”的模式中,极大地限制了其发展;为此,学者们相继提出弱监督语义分割方法以减少像素级标注的成本。它不再使用像素级的标注,而是使用更弱的标注,如边框、涂鸦和图像级标签。其中,图像级标签由于获取成本最低,受到了广泛的关注。
图像级弱监督模型的训练,主要挑战是基于不完全监督信息生成像素级标签映射。该任务最常用的方法,是借助CAM(class activation map)方法生成与目标语义相关的局部图像区域。CAM方法生成的分割区域(称为分割种子),往往是物体最具鉴别力的区域,对粗略确定物体的位置是有用的。然而,对于语义分割这一任务来说,这些分割种子是稀疏且不完整的。因此,如何有效扩张分割种子的范围,完整准确的挖掘图像中目标全部区域,生成连续密集的伪像素级标签,一直是图像级弱监督语义分割研究重点关注的问题;值得注意的是,弱监督建筑物提取任务除了标注问题,还面临着生成的伪标签边界刻画能力不强的问题。目前在弱监督语义分割的研究中,研究者们通常采用全连接条件随机场等方法对生成的伪标注添加边界约束。在缺乏像素级标注的情况下,这些方法仅利用图像中固有的信息增强边界特征,但边界刻画效果不甚理想。有些研究是利用超像素图像中的形状和边界信息,将其作为网络输入或后处理以强化边界信息。这类方法过于依赖超像素先验中的信息,而忽略了来自图像中的边界信息。因此,弱监督建筑信息提取方法需要充分挖掘图像级标签中的隐含信息,生成范围更完整、边界更清晰的建筑物目标区域;业内急需一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法。
发明内容
本发明目的在于提供一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括以下步骤:
步骤A、训练数据准备,包括生成所有训练高分遥感影像的超像素图、生成建筑物类别热力图、建筑物背景热力图以及初始像素语义关联度标签;
a1、超像素图生成,将获取的高分遥感影像作为训练输入,输入至超像素分割模型中,设定每个超像素图的超像素个数,生成与所有高分遥感影像对应的超像素图G;
a2、建筑物类别热力图生成,将获得的高分遥感影像和高分遥感影像对应的语义标签作为输入,采用卷积神经网络生成CAM分割种子,得到建筑物类别热力图Mb
Figure BDA0002662646940000021
其中,Wb是建筑物类别的权值,T为矩阵转置符号,fcam(x,y)表示在特征图中位于(x,y) 处的特征向量;
a3、背景热力图生成,将步骤a2中的建筑物类别热力图Mb归一化处理得到M′b,将M′b激活值限制在[0,1]的区间范围内;通过式3)进一步计算背景热力图Mbg
Figure BDA0002662646940000022
Mbg(x,y)={1-max M′b(x,y)}α 3);
其中,α是超参数,α数值可设置为[1,+∞]的区间范围,用于调整背景置信分数,本实施例中α优选[1,25];
a4、建筑物可信区域获取和背景可信区域获取,通过步骤a3中的α放大Mbg,激活建筑物目标区域对象,选取建筑物得分大于放大背景得分的坐标作为建筑物可信区域,选取背景得分大于建筑物得分的坐标作为背景可信区域;
a5、像素语义关联度标签生成,得到了建筑物可信区域和背景可信区域后,将遥感影像中的其余区域视为中性区域,根据建筑物可信区域和背景可信区域做成关联矩阵,这个关联矩阵就是像素语义关联度标签,根据确定区域的类别标签为每一对坐标分配标签,对于一对非中性区域的坐标(xi,yi)和(xj,yj)来说,如果遥感影像中两个不同像素同属于同一个类别的可信区域,这两个像素赋关联值为1,不是同一类别的关联值就为0;如果有一个像素是中性区域,就忽略这对坐标。
步骤B、深层特征提取,将获取的高分遥感影像和高分遥感影像对应的语义标签输入至特征压缩模块,获得深层特征图D;
b1、采用VGG16作为基础网络,移除VGG16中第3、4和5个下采样模块的池化层,并用空洞卷积率为3的卷积块代替;
b2、特征压缩,将高分遥感影像和高分遥感影像对应的语义标签输入至卷积块代替的 VGG16网络,代替的第3、4和5个卷积模块输出的特征图的通道数分别为128、256和512维;
b3多尺度特征融合,在b2的基础上将三个特征图串联成一个具有896通道数的单一特征映射;
b4、将单一特征映射再通过1x1的卷积层,生成压缩后的深层特征图D。
步骤C、边界特征融合,将超像素图G、深层特征图D输入至边界注意模块中进行运算与融合,得到边界注意图BA;
s1、获取浅层特征,将特征压缩模块中的第二个卷积模块输出特征图上采样至器第一个卷积模块输出特征图大小,并将上采样后的特征图与第一个卷积模块输出的特征图串联,得到浅层特征
Figure BDA0002662646940000031
其中h为浅层特征图的高度,w为浅层特征图的宽度,c1为浅层特征图S的通道数;
s2、获取深层逆向语义特征,将深层特征图
Figure BDA0002662646940000032
上采样4倍,得到深层特征
Figure BDA0002662646940000033
其中c为深层特征图D的通道数;进一步将
Figure BDA0002662646940000034
处理为深层逆向语义特征
Figure 1
具体是:
Figure BDA0002662646940000042
其中,σ是指Sigmoid函数计算;
s3、获取边界自注意特征,将浅层特征S和深层逆向语义特征
Figure 2
进行Hadamardproduct 运算,得到边界自注意特征N,具体是:
Figure BDA0002662646940000044
其中,⊙指Hadamard product运算;
s4、获取超像素边界特征,将超像素图
Figure BDA0002662646940000045
处理为超像素边界特征,具体是:
Figure BDA0002662646940000046
s5、获取融合边界特征图,将边界自注意特征N和超像素边界特征
Figure BDA0002662646940000047
进行Hadamardproduct运算,并采用一个下采样模块进一步抽象特征图,使其尺寸与经过语义压缩输出的特征图尺寸相同,得到融合边界特征图
Figure BDA0002662646940000048
s6、生成边界注意图,将融合边界特征图B与深层特征图
Figure BDA0002662646940000049
进行串联聚合,再通过卷积块进一步提取特征,生成边界注意图
Figure BDA00026626469400000410
步骤D、像素语义关联度学习,在生成的边界注意图上计算像素之间的语义关联度,并通过转移概率矩阵计算校正建筑物目标热力图;
d1、像素关联度计算,在边界注意图BA上进行像素关联度计算,得到像素语义关联矩阵W,其对角线元素为1,一对特征向量之间的语义关联度是用它们距离定义的;特征 i与特征j之间的语义关联度由Wij表示;
Wij=exp{-||BA(xi-yi)-BA(xj-yj)||1} 7);
其中,(xi,yi)表示边界注意图BA上第i点的坐标,(xj,yj)表示边界注意图BA上第j点的坐标;
d2、对角矩阵计算,对语义关联矩阵的每行数值计算均值并进行归一化处理,将每行标准化后的数值分布在矩阵的主对角线上,其他位置元素为0;
d3、转移概率计算,将计算得到的像素语义关联矩阵转化为转移概率矩阵H,具体是:
H=D-1W⊙β,其中
Figure BDA00026626469400000411
其中,超参数β值大于1,W⊙β是指将W矩阵与超参数β做Hadamard product运算后得到的矩阵,Dii表示对角矩阵D中第i个对角元素的值;
d4、热力图校正,将转移概率矩阵H和热力图相乘,实现像素间的语义传播,通过迭代执行此传播,直至预定义的迭代次数,得到校正后的建筑物类别热力图;
Figure BDA0002662646940000051
其中,vec(·)表示矩阵的向量化,
Figure BDA0002662646940000052
指校正的热力图,t为迭代次数。
步骤E、定义像素关联度损失函数和分类损失函数,对像素语义关联度学习、边界注意模块和特征压缩模块进行优化,并配合VGG16网络中的全局平均池化层(GAP)和全连接层(FC)进行图像类别激活可视化操作(CAM),得到优化后的建筑物目标热力图;
e1、分类损失计算,将高分遥感影像对应的语义标签作为监督信息,包含建筑物的图像标记为1,不包含建筑物的图像标记为0,采用交叉熵损失函数来计算分类损失,具体是:
Figure BDA0002662646940000053
其中m取值为当前输入的批量样本总数;
e2、像素样本对集合构造,具体是考虑建筑图像相邻坐标像素的关联度,得到训练中使用的像素对集合ρ;
Figure BDA0002662646940000054
d(··)是欧氏距离;γ是搜索半径,以此限制选择一对坐标点之间的距离,避免了对建筑物图像进行全图搜索,导致计算效率降低,同时超过一定搜索半径范围的搜索是无效搜索,避免无效搜索;且搜索半径的限制能够有效获得更多正负像素对的训练;γ优选[1,10]。
e3、像素对划分,将ρ分成正负对的两个子集ρ+和ρ-,然后进一步将ρ+分为两个子集:建筑物像素对
Figure BDA0002662646940000055
和背景像素对
Figure BDA0002662646940000056
Figure BDA0002662646940000057
Figure BDA0002662646940000058
其中
Figure BDA0002662646940000059
是指预测的像素i和像素j之间的像素关联度;
e4、子集像素关联度损失计算,具体是计算三个子集的交叉熵:
Figure BDA0002662646940000061
Figure BDA0002662646940000062
Figure BDA0002662646940000063
e5、像素语义关联度损失结合,结合三个子集的损失函数,将像素语义关联的损失函数表示为:
Figure BDA0002662646940000064
e6、总体损失函数计算,包括分类损失和像素关联度损失,具体是:
L=L_cls+λL_aff 18);
其中λ为权重系数,λ取值范围为[0,1]。
步骤F:生成建筑物伪标注,将生成的建筑物伪标注和高分遥感影像作为全卷积神经网络的输入,训练收敛后,实现建筑物特征自动提取;
f1、热力图尺寸恢复,利用双线性插值对步骤E中的热力图进行上采样,使得获取的建筑物热力图尺寸等于高分遥感影像尺寸;
f2、建筑物伪标注生成,将热力图进行像素值的归一化处理,像素值限制在[0,1]的范围内,将热力值高于0.5的像素区域视为建筑物区域,低于该阈值的像素区域视为其他地物,生成建筑物图像的伪分割标注;
f3、建筑物特征自动提取,将建筑物伪标注作为监督信息,将高分遥感影像和建筑物伪标注输入至全卷积网络模型训练,实现建筑物特征自动提取。
本发明具有以下有益效果:
本发明提供了一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括训练数据准备、深层特征提取、边界特征融合、像素语义关联度学习、损失函数计算和生成建筑物伪标注;通过设计边界注意模块,将超像素先验信息和网络提取的边界信息相结合,强化了建筑物边界特征,且通过学习像素之间的语义关联性,将像素间的语义信息在图像中进行有效传播,生成更为完整密集,边界更为清晰的伪标签。同时配合高分遥感影像采用全卷积网络模型训练,实现建筑物特征自动提取。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明一种结合像素语义关联和边界注意的高分遥感影像弱监督建筑物提取方法的流程图;
图2是步骤B中特征压缩模块的处理过程示意图;
图3是步骤C中边界注意模块的处理过程示意图;
图4是本发明建筑物伪标注生成示意图;
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以根据权利要求限定和覆盖的多种不同方式实施。
参见图1至图4,一种结合像素语义关联和边界注意的高分影像弱监督提取方法,包括以下步骤:
步骤A、训练数据准备,包括生成所有训练高分遥感影像的超像素图、生成建筑物类别热力图、建筑物背景热力图以及初始像素语义关联度标签;
a1、超像素图生成,将获取的高分遥感影像作为训练输入,输入至超像素分割模型中,设定每个超像素图的超像素个数,生成与所有高分遥感影像对应的超像素图G;
a2、建筑物类别热力图生成,将获得的高分遥感影像和高分遥感影像对应的语义标签作为输入,采用卷积神经网络生成CAM分割种子,得到建筑物类别热力图Mb
Figure BDA0002662646940000071
其中,Wb是建筑物类别的权值,T为矩阵转置符号,fcam(x,y)表示在特征图中位于(x,y) 处的特征向量;
a3、背景热力图生成,将步骤a2中的建筑物类别热力图Mb归一化处理得到M′b,将M′b激活值限制在[0,1]的区间范围内;通过式3)进一步计算背景热力图Mbg
Figure BDA0002662646940000072
Mbg(x,y)={1-max M′b(x,y)}α 3);
其中,α是超参数,α数值可设置为[1,+∞]的区间范围,用于调整背景置信分数,本实施例中α优选[1,25];
a4、建筑物可信区域获取和背景可信区域获取,通过步骤a3中的α放大Mbg,激活建筑物目标区域对象,选取建筑物得分大于放大背景得分的坐标作为建筑物可信区域,选取背景得分大于建筑物得分的坐标作为背景可信区域;
a5、像素语义关联度标签生成,得到了建筑物可信区域和背景可信区域后,将遥感影像中的其余区域视为中性区域,根据建筑物可信区域和背景可信区域做成关联矩阵,这个关联矩阵就是像素语义关联度标签,根据确定区域的类别标签为每一对坐标分配标签,对于一对非中性区域的坐标(xi,yi)和(xj,yj)来说,如果遥感影像中两个不同像素同属于同一个类别的可信区域,这两个像素赋关联值为1,不是同一类别的关联值就为0;如果有一个像素是中性区域,就忽略这对坐标。
步骤B、深层特征提取,将获取的高分遥感影像和高分遥感影像对应的语义标签输入至特征压缩模块,获得深层特征图D;
b1、采用VGG16作为基础网络,移除VGG16中第3、4和5个下采样模块的池化层,并用空洞卷积率为3的卷积块代替;
b2、特征压缩,将高分遥感影像和高分遥感影像对应的语义标签输入至卷积块代替的 VGG16网络,代替的第3、4和5个卷积模块输出的特征图的通道数分别为128、256和512维;
b3多尺度特征融合,在b2的基础上将三个特征图串联成一个具有896通道数的单一特征映射;
b4、将单一特征映射再通过1x1的卷积层,生成压缩后的深层特征图D。
步骤C、边界特征融合,将超像素图G、深层特征图D输入至边界注意模块中进行运算与融合,得到边界注意图BA;
s1、获取浅层特征,将特征压缩模块中的第二个卷积模块输出特征图上采样至器第一个卷积模块输出特征图大小,并将上采样后的特征图与第一个卷积模块输出的特征图串联,得到浅层特征
Figure BDA0002662646940000081
其中h为浅层特征图的高度,w为浅层特征图的宽度,c1为浅层特征图S的通道数;
s2、获取深层逆向语义特征,将深层特征图
Figure BDA0002662646940000091
上采样4倍,得到深层特征
Figure BDA0002662646940000092
其中c为深层特征图D的通道数;进一步将
Figure BDA0002662646940000093
处理为深层逆向语义特征
Figure 3
具体是:
Figure BDA0002662646940000095
其中,σ是指Sigmoid函数计算;
s3、获取边界自注意特征,将浅层特征S和深层逆向语义特征
Figure BDA0002662646940000096
进行Hadamardproduct 运算,得到边界自注意特征N,具体是:
Figure BDA0002662646940000097
其中,⊙指Hadamard product运算;
s4、获取超像素边界特征,将超像素图
Figure BDA0002662646940000098
处理为超像素边界特征,具体是:
Figure BDA0002662646940000099
s5、获取融合边界特征图,将边界自注意特征N和超像素边界特征
Figure BDA00026626469400000910
进行Hadamardproduct运算,并采用一个下采样模块进一步抽象特征图,使其尺寸与经过语义压缩输出的特征图尺寸相同,得到融合边界特征图
Figure BDA00026626469400000911
s6、生成边界注意图,将融合边界特征图B与深层特征图
Figure BDA00026626469400000912
进行串联聚合,再通过卷积块进一步提取特征,生成边界注意图
Figure BDA00026626469400000913
步骤D、像素语义关联度学习,在生成的边界注意图上计算像素之间的语义关联度,并通过转移概率矩阵计算校正建筑物目标热力图;
d1、像素关联度计算,在边界注意图BA上进行像素关联度计算,得到像素语义关联矩阵W,其对角线元素为1,一对特征向量之间的语义关联度是用它们距离定义的;特征 i与特征j之间的语义关联度由Wij表示;
Wij=exp{-||BA(xi-yi)-BA(xj-yj)||1} 7);
其中,(xi,yi)表示边界注意图BA上第i点的坐标,(xj,yj)表示边界注意图BA上第j点的坐标;
d2、对角矩阵计算,对语义关联矩阵的每行数值计算均值并进行归一化处理,将每行标准化后的数值分布在矩阵的主对角线上,其他位置元素为0;
d3、转移概率计算,将计算得到的像素语义关联矩阵转化为转移概率矩阵H,具体是:
H=D-1W⊙β,其中
Figure BDA0002662646940000101
其中,超参数β值大于1,W⊙β是指将W矩阵与超参数β做Hadamard product运算后得到的矩阵, Dii表示对角矩阵D中第i个对角元素的值;
d4、热力图校正,将转移概率矩阵H和热力图相乘,实现像素间的语义传播,通过迭代执行此传播,直至预定义的迭代次数,得到校正后的建筑物类别热力图;
Figure BDA0002662646940000102
其中,vec(·)表示矩阵的向量化,
Figure BDA0002662646940000103
指校正的热力图,t为迭代次数。
步骤E、定义像素关联度损失函数和分类损失函数,对像素语义关联度学习、边界注意模块和特征压缩模块进行优化,并配合VGG16网络中的全局平均池化层(GAP)和全连接层(FC)进行图像类别激活可视化操作(CAM),得到优化后的建筑物目标热力图;
e1、分类损失计算,将高分遥感影像对应的语义标签作为监督信息,包含建筑物的图像标记为1,不包含建筑物的图像标记为0,采用交叉熵损失函数来计算分类损失,具体是:
Figure BDA0002662646940000104
其中m取值为当前输入的批量样本总数;
e2、像素样本对集合构造,具体是考虑建筑图像相邻坐标像素的关联度,得到训练中使用的像素对集合ρ;建筑物图像中包含建筑物主体以及其他地物(背景),具体考虑建筑图像中建筑物主体和建筑物主体(建筑物像素对),建筑物与其他地物,背景与背景(背景像素对)之间的像素语义关联。
Figure BDA0002662646940000105
d(··)是欧氏距离;γ是搜索半径,以此限制选择一对坐标点之间的距离,避免了对建筑物图像进行全图搜索,导致计算效率降低,同时超过一定搜索半径范围的搜索是无效搜索,避免无效搜索;且搜索半径的限制能够有效获得更多正负像素对的训练;γ优选[1,10]。
e3、像素对划分,将ρ分成正负对的两个子集ρ+和ρ-,然后进一步将ρ+分为两个子集:建筑物像素对
Figure BDA0002662646940000111
和背景像素对
Figure BDA0002662646940000112
Figure BDA0002662646940000113
Figure BDA0002662646940000114
其中
Figure BDA0002662646940000115
是指预测的像素i和像素j之间的像素关联度;
e4、子集像素关联度损失计算,具体是计算三个子集的交叉熵:
Figure BDA0002662646940000116
Figure BDA0002662646940000117
Figure BDA0002662646940000118
e5、像素语义关联度损失结合,结合三个子集的损失函数,将像素语义关联的损失函数表示为:
Figure BDA0002662646940000119
e6、总体损失函数计算,包括分类损失和像素关联度损失,具体是:
L=L_cls+λL_aff 18);
其中λ为权重系数,λ取值范围为[0,1]。
步骤F:生成建筑物伪标注,将生成的建筑物伪标注和高分遥感影像作为全卷积神经网络的输入,训练收敛后,实现建筑物特征自动提取;
f1、热力图尺寸恢复,利用双线性插值对步骤E中的热力图进行上采样,使得获取的建筑物热力图尺寸等于高分遥感影像尺寸;
f2、建筑物伪标注生成,将恢复尺寸的热力图进行像素值的归一化处理,像素值限制在[0,1]的范围内,将热力值高于0.5的像素区域视为建筑物区域,低于该阈值的像素区域视为其他地物,生成建筑物图像的伪分割标注;
f3、建筑物特征自动提取,将建筑物伪标注作为监督信息,将高分遥感影像和建筑物伪标注输入至全卷积网络模型训练,实现建筑物特征自动提取。
需要说明的是,所述高分遥感影像和高分遥感影像对应的语义标签通过互联网下载获取;本发明的卷积神经网络训练基于现有的计算机平台操作。
本发明提供了一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括训练数据准备、深层特征提取、边界特征融合、像素语义关联度学习、损失函数计算和生成建筑物伪标注;通过设计边界注意模块,将超像素先验信息和网络提取的边界信息相结合,强化了建筑物边界特征,且通过学习像素之间的语义关联性,将像素间的语义信息在图像中进行有效传播,生成更为完整密集,边界更为清晰的伪标签。同时配合高分遥感影像采用全卷积网络模型训练,实现建筑物特征自动提取。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,包括以下步骤:
步骤A、训练数据准备,包括生成所有训练高分遥感影像的超像素图、生成建筑物类别热力图、建筑物背景热力图以及初始像素语义关联度标签;
步骤B、深层特征提取,将获取的高分遥感影像和高分遥感影像对应的语义标签输入至特征压缩模块,获得深层特征图D;
步骤C、边界特征融合,将超像素图G、深层特征图D输入至边界注意模块中进行运算与融合,得到边界注意图BA;
步骤D、像素语义关联度学习,在生成的边界注意图上计算像素之间的语义关联度,并通过转移概率矩阵计算校正建筑物目标热力图;
步骤E、定义像素关联度损失函数和分类损失函数,对像素语义关联度学习、边界注意模块和特征压缩模块进行优化,并配合VGG16网络中的全局平均池化层(GAP)和全连接层(FC)进行图像类别激活可视化操作(CAM),得到优化后的建筑物目标热力图;
步骤F:生成建筑物伪标注,将生成的建筑物伪标注和高分遥感影像作为全卷积神经网络的输入,训练收敛后,实现建筑物特征自动提取。
2.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤A具体包括以下步骤:
a1、超像素图生成,将高分遥感影像作为训练输入,输入至超像素分割模型中,设定每个超像素图的超像素个数,生成与所有高分遥感影像对应的超像素图G;
a2、建筑物类别热力图生成,将获得的高分遥感影像和高分遥感影像对应的语义标签作为输入,采用卷积神经网络生成CAM分割种子,得到建筑物类别热力图Mb
Figure FDA0002662646930000012
其中,Wb是建筑物类别的权值,fcam(x,y)表示在特征图中位于(x,y)处的特征向量;
a3、背景热力图生成,将步骤a2中的建筑物类别热力图Mb归一化处理得到M′b,将M′b激活值限制在[0,1]的区间范围内;通过式3)公式进一步计算背景热力图Mbg
Figure FDA0002662646930000011
Mbg(x,y)={1-max M′b(x,y)}α 3);
其中,α是超参数,α数值可设置为[1,+∞]的区间范围,用于调整背景置信分数;
a4、建筑物可信区域获取和背景可信区域获取,通过步骤a3中的α放大Mbg,激活建筑物目标区域对象,选取建筑物得分大于放大背景得分的坐标作为建筑物可信区域,选取背景得分大于建筑物得分的坐标作为背景可信区域;
a5、像素语义关联度标签生成,得到了建筑物可信区域和背景可信区域后,将遥感影像中的其余区域视为中性区域,根据建筑物可信区域和背景可信区域做成关联矩阵,这个关联矩阵就是像素语义关联度标签,根据确定区域的类别标签为每一对坐标分配标签,对于一对非中性区域的坐标(xi,yi)和(xj,yj)来说,如果遥感影像中两个不同像素同属于同一个类别的可信区域,这两个像素赋关联值为1,不是同一类别的关联值就为0;如果有一个像素是中性区域,就忽略这对坐标。
3.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤B具体包括以下步骤:
b1、采用VGG16作为基础网络,移除VGG16中第3、4和5个下采样模块的池化层,并用空洞卷积率为3的卷积块代替;
b2、特征压缩,将高分遥感影像和高分遥感影像对应的语义标签输入至卷积块代替的VGG16网络,代替的第3、4和5个卷积模块输出的特征图的通道数分别为128、256和512维;
b3多尺度特征融合,在b2的基础上将三个特征图串联成一个具有896通道数的单一特征映射;
b4、将单一特征映射再通过1x1的卷积层,生成压缩后的深层特征图D。
4.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤C具体包括以下步骤:
s1、获取浅层特征,将特征压缩模块中的第二个卷积模块输出特征图上采样至器第一个卷积模块输出特征图大小,并将上采样后的特征图与第一个卷积模块输出的特征图串联,得到浅层特征
Figure FDA0002662646930000021
其中h为浅层特征图的高度,w为浅层特征图的宽度,c1为浅层特征图S的通道数;
s2、获取深层逆向语义特征,将深层特征图
Figure FDA0002662646930000022
上采样4倍,得到深层特征
Figure FDA0002662646930000031
其中c为深层特征图D的通道数;进一步将
Figure FDA0002662646930000032
处理为深层逆向语义特征
Figure FDA0002662646930000033
具体是:
Figure FDA0002662646930000034
其中,σ是指Sigmoid函数计算;
s3、获取边界自注意特征,将浅层特征S和深层逆向语义特征
Figure FDA0002662646930000035
进行Hadamardproduct运算,得到边界自注意特征N,具体是:
Figure FDA0002662646930000036
其中,⊙指Hadamard product运算;
s4、获取超像素边界特征,将超像素图
Figure FDA0002662646930000037
处理为超像素边界特征,具体是:
Figure FDA0002662646930000038
s5、获取融合边界特征图,将边界自注意特征N和超像素边界特征
Figure FDA00026626469300000312
进行Hadamardproduct运算,并采用一个下采样模块进一步抽象特征图,使其尺寸与经过语义压缩输出的特征图尺寸相同,得到融合边界特征图
Figure FDA0002662646930000039
s6、生成边界注意图,将融合边界特征图B与深层特征图
Figure FDA00026626469300000310
进行串联聚合,再通过卷积块进一步提取特征,生成边界注意图
Figure FDA00026626469300000311
5.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤D具体包括以下步骤:
d1、像素关联度计算,在边界注意图BA上进行像素关联度计算,得到像素语义关联矩阵W,其对角线元素为1,一对特征向量之间的语义关联度是用它们距离定义的;特征i与特征j之间的语义关联度由Wij表示;
Wij=exp{-‖BA(xi-yi)-BA(xj-yj)‖1} 7);
其中,(xi,yi)表示边界注意图BA上第i点的坐标,(xj,yj)表示边界注意图BA上第j点的坐标;
d2、对角矩阵计算,对语义关联矩阵的每行数值计算均值并进行归一化处理,将每行标准化后的数值分布在矩阵的主对角线上,其他位置元素为0;
d3、转移概率计算,将计算得到的像素语义关联矩阵转化为转移概率矩阵H,具体是:
Figure FDA0002662646930000041
其中,超参数β值大于1,W⊙β是指将W矩阵与超参数β做Hadamard product运算后得到的矩阵,Dii表示对角矩阵D中第i个对角元素的值;
d4、热力图校正,将转移概率矩阵H和热力图相乘,实现像素间的语义传播,通过迭代执行此传播,直至预定义的迭代次数,得到校正后的建筑物类别热力图;
Figure FDA0002662646930000042
其中,vec(·)表示矩阵的向量化,
Figure FDA0002662646930000043
指校正的热力图,t为迭代次数。
6.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤E具体包括以下步骤:
e1、分类损失计算,将高分遥感影像对应的语义标签作为监督信息,包含建筑物的图像标记为1,不包含建筑物的图像标记为0,采用交叉熵损失函数来计算分类损失,具体是:
Figure FDA0002662646930000044
其中m取值为当前输入的批量样本总数;
e2、像素样本对集合构造,具体是考虑建筑图像相邻坐标像素的关联度,得到训练中使用的像素对集合ρ;
Figure FDA0002662646930000045
d(··)是欧氏距离,γ是搜索半径;
e3、像素对划分,将ρ分成正负对的两个子集ρ+和ρ-,然后进一步将ρ+分为两个子集:建筑物像素对
Figure FDA0002662646930000046
和背景像素对
Figure FDA0002662646930000047
Figure FDA0002662646930000048
Figure FDA0002662646930000049
其中
Figure FDA00026626469300000410
是指预测的像素i和像素j之间的像素关联度;
e4、子集像素关联度损失计算,具体是计算三个子集的交叉熵:
Figure FDA00026626469300000411
Figure FDA00026626469300000412
Figure FDA0002662646930000051
e5、像素语义关联度损失结合,结合三个子集的损失函数,将像素语义关联的损失函数表示为:
Figure FDA0002662646930000052
e6、总体损失函数计算,包括分类损失和像素关联度损失,具体是:
L=L_cls+λL_aff 18);
其中λ为权重系数,λ取值范围为[0,1]。
7.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤F具体包括以下步骤:
f1、热力图尺寸恢复,利用双线性插值对步骤E中的热力图进行上采样,使得获取的建筑物热力图尺寸等于高分遥感影像尺寸;
f2、建筑物伪标注生成,将热力图进行像素值的归一化处理,像素值限制在[0,1]的范围内,将热力值高于0.5的像素区域视为建筑物区域,低于该阈值的像素区域视为其他地物,生成建筑物图像的伪分割标注;
f3、建筑物特征自动提取,将建筑物伪标注作为监督信息,将高分遥感影像和建筑物伪标注输入至全卷积网络模型训练,实现建筑物特征自动提取。
8.根据权利要求1-7任一项中所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,所述高分遥感影像和高分遥感影像对应的语义标签通过互联网下载获取。
CN202010909322.3A 2020-09-02 2020-09-02 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 Active CN112052783B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010909322.3A CN112052783B (zh) 2020-09-02 2020-09-02 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010909322.3A CN112052783B (zh) 2020-09-02 2020-09-02 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法

Publications (2)

Publication Number Publication Date
CN112052783A true CN112052783A (zh) 2020-12-08
CN112052783B CN112052783B (zh) 2024-04-09

Family

ID=73607200

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010909322.3A Active CN112052783B (zh) 2020-09-02 2020-09-02 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法

Country Status (1)

Country Link
CN (1) CN112052783B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651931A (zh) * 2020-12-15 2021-04-13 浙江大华技术股份有限公司 建筑物变形监测方法、装置和计算机设备
CN113111916A (zh) * 2021-03-15 2021-07-13 中国科学院计算技术研究所 一种基于弱监督的医学图像语义分割方法和系统
CN113343991A (zh) * 2021-08-02 2021-09-03 四川新网银行股份有限公司 一种特征内增强的弱监督学习方法
CN113436204A (zh) * 2021-06-10 2021-09-24 中国地质大学(武汉) 一种高分辨率遥感影像弱监督建筑物提取方法
CN113505670A (zh) * 2021-06-29 2021-10-15 西南交通大学 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法
CN113642663A (zh) * 2021-08-24 2021-11-12 中国水利水电科学研究院 一种卫星遥感影像水体提取方法
CN113807316A (zh) * 2021-10-08 2021-12-17 南京恩博科技有限公司 烟雾浓度估计模型的训练方法、装置、电子设备及介质
CN114494699A (zh) * 2022-01-28 2022-05-13 福州大学 基于语义传播与前背景感知的图像语义分割方法及系统
CN114820655A (zh) * 2022-04-26 2022-07-29 中国地质大学(武汉) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
CN115424059A (zh) * 2022-08-24 2022-12-02 珠江水利委员会珠江水利科学研究院 一种基于像素级对比学习的遥感土地利用分类方法
CN115472233A (zh) * 2022-01-25 2022-12-13 昆明理工大学 基于热扩散标签传播的半监督集成工业过程软测量建模方法、系统
CN118072138A (zh) * 2024-04-24 2024-05-24 中国地质大学(武汉) 土地覆盖特征提取方法、装置、电子设备及存储介质

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109255790A (zh) * 2018-07-27 2019-01-22 北京工业大学 一种弱监督语义分割的自动图像标注方法
JP2019028657A (ja) * 2017-07-28 2019-02-21 株式会社パスコ 建物領域抽出用の学習済みモデル
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN110163239A (zh) * 2019-01-25 2019-08-23 太原理工大学 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN110210485A (zh) * 2019-05-13 2019-09-06 常熟理工学院 基于注意力机制指导特征融合的图像语义分割方法
CN110334578A (zh) * 2019-05-05 2019-10-15 中南大学 图像级别标注自动提取高分遥感影像建筑物的弱监督方法
CN110555857A (zh) * 2019-08-19 2019-12-10 浙江工业大学 一种语义边缘主导的高分遥感影像分割方法
CN110889449A (zh) * 2019-11-27 2020-03-17 中国人民解放军国防科技大学 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN111127493A (zh) * 2019-11-12 2020-05-08 中国矿业大学 基于注意力多尺度特征融合的遥感图像语义分割方法
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及系统
CN111582175A (zh) * 2020-05-09 2020-08-25 中南大学 一种共享多尺度对抗特征的高分遥感影像语义分割方法

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019028657A (ja) * 2017-07-28 2019-02-21 株式会社パスコ 建物領域抽出用の学習済みモデル
CN109255790A (zh) * 2018-07-27 2019-01-22 北京工业大学 一种弱监督语义分割的自动图像标注方法
CN109446992A (zh) * 2018-10-30 2019-03-08 苏州中科天启遥感科技有限公司 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备
CN110163239A (zh) * 2019-01-25 2019-08-23 太原理工大学 一种基于超像素和条件随机场的弱监督图像语义分割方法
CN110334578A (zh) * 2019-05-05 2019-10-15 中南大学 图像级别标注自动提取高分遥感影像建筑物的弱监督方法
CN110210485A (zh) * 2019-05-13 2019-09-06 常熟理工学院 基于注意力机制指导特征融合的图像语义分割方法
CN110555857A (zh) * 2019-08-19 2019-12-10 浙江工业大学 一种语义边缘主导的高分遥感影像分割方法
CN111127493A (zh) * 2019-11-12 2020-05-08 中国矿业大学 基于注意力多尺度特征融合的遥感图像语义分割方法
CN110889449A (zh) * 2019-11-27 2020-03-17 中国人民解放军国防科技大学 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法
CN111462126A (zh) * 2020-04-08 2020-07-28 武汉大学 一种基于边缘增强的语义图像分割方法及系统
CN111582175A (zh) * 2020-05-09 2020-08-25 中南大学 一种共享多尺度对抗特征的高分遥感影像语义分割方法

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
JIE CHEN: "Multi-Scale Spatial and Channel-wise Attention for Improving Object Detection in Remote Sensing Imagery", 《IEEE GEOSICENCE AND REMOTE SENSING LETTERS》, vol. 17, no. 2020, pages 681 - 685, XP011780550, DOI: 10.1109/LGRS.2019.2930462 *
JIWOON AHN: "Learning Pixel-level Semantic Affinity with Image-level Supervision for Weakly Supervised Semantic Segmentation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 4981 - 4990 *
JIWOON AHN: "Learning Pixel-level Semantic Affinity with Image-level Supervision forWeakly Supervised Semantic Segmentation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 4983 - 4988 *
有三AI: "【技术综述】基于弱监督深度学习的图像分割方法综述", Retrieved from the Internet <URL:https://tianchi.aliyun.com/forum/post/63790> *
杨旭勃: "基于语义分割的卫星影像中道路和小建筑物提取方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2020, pages 028 - 152 *
陈杰等: "融合边界信息的高分辨率遥感影像分割优化算法", 《中国图象图形学报》, no. 2016, pages 1096 - 1105 *

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112651931A (zh) * 2020-12-15 2021-04-13 浙江大华技术股份有限公司 建筑物变形监测方法、装置和计算机设备
CN112651931B (zh) * 2020-12-15 2024-04-26 浙江大华技术股份有限公司 建筑物变形监测方法、装置和计算机设备
CN113111916A (zh) * 2021-03-15 2021-07-13 中国科学院计算技术研究所 一种基于弱监督的医学图像语义分割方法和系统
CN113436204A (zh) * 2021-06-10 2021-09-24 中国地质大学(武汉) 一种高分辨率遥感影像弱监督建筑物提取方法
CN113505670B (zh) * 2021-06-29 2023-06-23 西南交通大学 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法
CN113505670A (zh) * 2021-06-29 2021-10-15 西南交通大学 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法
CN113343991A (zh) * 2021-08-02 2021-09-03 四川新网银行股份有限公司 一种特征内增强的弱监督学习方法
CN113642663A (zh) * 2021-08-24 2021-11-12 中国水利水电科学研究院 一种卫星遥感影像水体提取方法
CN113642663B (zh) * 2021-08-24 2022-03-22 中国水利水电科学研究院 一种卫星遥感影像水体提取方法
CN113807316A (zh) * 2021-10-08 2021-12-17 南京恩博科技有限公司 烟雾浓度估计模型的训练方法、装置、电子设备及介质
CN113807316B (zh) * 2021-10-08 2023-12-12 南京恩博科技有限公司 烟雾浓度估计模型的训练方法、装置、电子设备及介质
CN115472233A (zh) * 2022-01-25 2022-12-13 昆明理工大学 基于热扩散标签传播的半监督集成工业过程软测量建模方法、系统
CN114494699A (zh) * 2022-01-28 2022-05-13 福州大学 基于语义传播与前背景感知的图像语义分割方法及系统
CN114820655A (zh) * 2022-04-26 2022-07-29 中国地质大学(武汉) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
CN114820655B (zh) * 2022-04-26 2024-04-19 中国地质大学(武汉) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
CN115424059A (zh) * 2022-08-24 2022-12-02 珠江水利委员会珠江水利科学研究院 一种基于像素级对比学习的遥感土地利用分类方法
CN115424059B (zh) * 2022-08-24 2023-09-01 珠江水利委员会珠江水利科学研究院 一种基于像素级对比学习的遥感土地利用分类方法
CN118072138A (zh) * 2024-04-24 2024-05-24 中国地质大学(武汉) 土地覆盖特征提取方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112052783B (zh) 2024-04-09

Similar Documents

Publication Publication Date Title
CN112052783B (zh) 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法
CN108573276B (zh) 一种基于高分辨率遥感影像的变化检测方法
CN107092870B (zh) 一种高分辨率影像语义信息提取方法
Pan et al. A generic FCN-based approach for the road-network extraction from VHR remote sensing images–using openstreetmap as benchmarks
Zhong et al. Multiagent object-based classifier for high spatial resolution imagery
CN111401380B (zh) 一种基于深度特征增强和边缘优化的rgb-d图像语义分割方法
CN112347970A (zh) 一种基于图卷积神经网络的遥感影像地物识别方法
CN114694038A (zh) 基于深度学习的高分辨率遥感影像分类方法及系统
CN111640116B (zh) 基于深层卷积残差网络的航拍图建筑物分割方法及装置
CN113988147B (zh) 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置
CN116797787A (zh) 基于跨模态融合与图神经网络的遥感影像语义分割方法
CN112396036B (zh) 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法
Guo et al. Using multi-scale and hierarchical deep convolutional features for 3D semantic classification of TLS point clouds
CN114820655A (zh) 可靠区域作为注意力机制监督的弱监督建筑物分割方法
Li et al. An aerial image segmentation approach based on enhanced multi-scale convolutional neural network
Gao et al. Road extraction using a dual attention dilated-linknet based on satellite images and floating vehicle trajectory data
CN113160291A (zh) 一种基于图像配准的变化检测方法
Bektas Balcik et al. Determination of land cover/land use using spot 7 data with supervised classification methods
CN116645592A (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN113657225B (zh) 一种目标检测方法
Aghayari et al. Building detection from aerial imagery using inception resnet unet and unet architectures
CN118154971A (zh) 一种基于全卷积-动态图网络的sar图像分类方法
Guo et al. A shape and size free-CNN for urban functional zone mapping with high-resolution satellite images and POI data
Kazimi et al. Semantic segmentation of manmade landscape structures in digital terrain models
CN118135209A (zh) 一种基于形状块语义关联度的弱监督语义分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant