CN112052783A - 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 - Google Patents
一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 Download PDFInfo
- Publication number
- CN112052783A CN112052783A CN202010909322.3A CN202010909322A CN112052783A CN 112052783 A CN112052783 A CN 112052783A CN 202010909322 A CN202010909322 A CN 202010909322A CN 112052783 A CN112052783 A CN 112052783A
- Authority
- CN
- China
- Prior art keywords
- building
- pixel
- boundary
- feature
- semantic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 31
- 238000012549 training Methods 0.000 claims abstract description 26
- 230000006870 function Effects 0.000 claims abstract description 18
- 230000004927 fusion Effects 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 11
- 238000002360 preparation method Methods 0.000 claims abstract description 6
- 238000010586 diagram Methods 0.000 claims description 63
- 239000011159 matrix material Substances 0.000 claims description 41
- 238000000034 method Methods 0.000 claims description 24
- 230000011218 segmentation Effects 0.000 claims description 15
- 230000006835 compression Effects 0.000 claims description 11
- 238000007906 compression Methods 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 10
- 230000007704 transition Effects 0.000 claims description 10
- 230000007935 neutral effect Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 9
- 238000005070 sampling Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 claims description 3
- 238000006116 polymerization reaction Methods 0.000 claims description 3
- 238000005096 rolling process Methods 0.000 claims description 3
- 238000012800 visualization Methods 0.000 claims 1
- 238000002372 labelling Methods 0.000 abstract description 8
- 238000013461 design Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 101150064138 MAP1 gene Proteins 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003709 image segmentation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 101150077939 mapA gene Proteins 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4007—Scaling of whole images or parts thereof, e.g. expanding or contracting based on interpolation, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/267—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括训练数据准备、深层特征提取、边界特征融合、像素语义关联度学习、损失函数计算和生成建筑物伪标注;通过设计边界注意模块,将超像素先验信息和网络提取的边界信息相结合,强化了建筑物边界特征,且通过学习像素之间的语义关联性,将像素间的语义信息在图像中进行有效传播,生成更为完整密集,边界更为清晰的伪标签。同时配合高分遥感影像采用全卷积网络模型训练,实现建筑物特征自动提取。
Description
技术领域
本发明涉及遥感影像领域,更具体地,涉及一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法。
背景技术
建筑物提取作为遥感影像语义分割的应用之一,对城市地理数据库的建立和更新、城市人口估算、土地覆盖变化等诸多领域有着重要的实践价值。近年来,随着遥感成像技术的飞速发展,卫星影像的空间分辨率及光谱分辨率得到了极大提高,使得建筑物的精确识别与定位成为可能。从遥感影像中提取建筑物的传统方法有基于像元和面向对象两种方式。基于像元的方法是以单个像素为基本单元,主要依据其光谱信息进行分类提取。面向对象的方法是先通过多尺度图像分割技术得到同质多边形对象,再设计特征提取规则进行对象的分类。前者难以顾及高分影像中地物的空间信息;而后者需要人工设计特征,难以应对大范围高分影像的建筑物提取任务。
近年来,由于深度神经网络强大的特征抽象能力和自动化的提取方式,在场景识别、目标检测、语义分割等任务中表现突出,也在建筑物提取方面取得了优异的效果。其中,大部分利用深度卷积神经网络的建筑物提取,都为全监督学习方法,需要像素级的标注。像素级标注制作起来既耗时又耗力,成为了基于深度神经网络语义分割任务的最大挑战之一,这个挑战将许多遥感应用置于“小数据”的模式中,极大地限制了其发展;为此,学者们相继提出弱监督语义分割方法以减少像素级标注的成本。它不再使用像素级的标注,而是使用更弱的标注,如边框、涂鸦和图像级标签。其中,图像级标签由于获取成本最低,受到了广泛的关注。
图像级弱监督模型的训练,主要挑战是基于不完全监督信息生成像素级标签映射。该任务最常用的方法,是借助CAM(class activation map)方法生成与目标语义相关的局部图像区域。CAM方法生成的分割区域(称为分割种子),往往是物体最具鉴别力的区域,对粗略确定物体的位置是有用的。然而,对于语义分割这一任务来说,这些分割种子是稀疏且不完整的。因此,如何有效扩张分割种子的范围,完整准确的挖掘图像中目标全部区域,生成连续密集的伪像素级标签,一直是图像级弱监督语义分割研究重点关注的问题;值得注意的是,弱监督建筑物提取任务除了标注问题,还面临着生成的伪标签边界刻画能力不强的问题。目前在弱监督语义分割的研究中,研究者们通常采用全连接条件随机场等方法对生成的伪标注添加边界约束。在缺乏像素级标注的情况下,这些方法仅利用图像中固有的信息增强边界特征,但边界刻画效果不甚理想。有些研究是利用超像素图像中的形状和边界信息,将其作为网络输入或后处理以强化边界信息。这类方法过于依赖超像素先验中的信息,而忽略了来自图像中的边界信息。因此,弱监督建筑信息提取方法需要充分挖掘图像级标签中的隐含信息,生成范围更完整、边界更清晰的建筑物目标区域;业内急需一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法。
发明内容
本发明目的在于提供一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括以下步骤:
步骤A、训练数据准备,包括生成所有训练高分遥感影像的超像素图、生成建筑物类别热力图、建筑物背景热力图以及初始像素语义关联度标签;
a1、超像素图生成,将获取的高分遥感影像作为训练输入,输入至超像素分割模型中,设定每个超像素图的超像素个数,生成与所有高分遥感影像对应的超像素图G;
a2、建筑物类别热力图生成,将获得的高分遥感影像和高分遥感影像对应的语义标签作为输入,采用卷积神经网络生成CAM分割种子,得到建筑物类别热力图Mb;
其中,Wb是建筑物类别的权值,T为矩阵转置符号,fcam(x,y)表示在特征图中位于(x,y) 处的特征向量;
a3、背景热力图生成,将步骤a2中的建筑物类别热力图Mb归一化处理得到M′b,将M′b激活值限制在[0,1]的区间范围内;通过式3)进一步计算背景热力图Mbg;
Mbg(x,y)={1-max M′b(x,y)}α 3);
其中,α是超参数,α数值可设置为[1,+∞]的区间范围,用于调整背景置信分数,本实施例中α优选[1,25];
a4、建筑物可信区域获取和背景可信区域获取,通过步骤a3中的α放大Mbg,激活建筑物目标区域对象,选取建筑物得分大于放大背景得分的坐标作为建筑物可信区域,选取背景得分大于建筑物得分的坐标作为背景可信区域;
a5、像素语义关联度标签生成,得到了建筑物可信区域和背景可信区域后,将遥感影像中的其余区域视为中性区域,根据建筑物可信区域和背景可信区域做成关联矩阵,这个关联矩阵就是像素语义关联度标签,根据确定区域的类别标签为每一对坐标分配标签,对于一对非中性区域的坐标(xi,yi)和(xj,yj)来说,如果遥感影像中两个不同像素同属于同一个类别的可信区域,这两个像素赋关联值为1,不是同一类别的关联值就为0;如果有一个像素是中性区域,就忽略这对坐标。
步骤B、深层特征提取,将获取的高分遥感影像和高分遥感影像对应的语义标签输入至特征压缩模块,获得深层特征图D;
b1、采用VGG16作为基础网络,移除VGG16中第3、4和5个下采样模块的池化层,并用空洞卷积率为3的卷积块代替;
b2、特征压缩,将高分遥感影像和高分遥感影像对应的语义标签输入至卷积块代替的 VGG16网络,代替的第3、4和5个卷积模块输出的特征图的通道数分别为128、256和512维;
b3多尺度特征融合,在b2的基础上将三个特征图串联成一个具有896通道数的单一特征映射;
b4、将单一特征映射再通过1x1的卷积层,生成压缩后的深层特征图D。
步骤C、边界特征融合,将超像素图G、深层特征图D输入至边界注意模块中进行运算与融合,得到边界注意图BA;
其中h为浅层特征图的高度,w为浅层特征图的宽度,c1为浅层特征图S的通道数;
其中,σ是指Sigmoid函数计算;
其中,⊙指Hadamard product运算;
s5、获取融合边界特征图,将边界自注意特征N和超像素边界特征进行Hadamardproduct运算,并采用一个下采样模块进一步抽象特征图,使其尺寸与经过语义压缩输出的特征图尺寸相同,得到融合边界特征图
步骤D、像素语义关联度学习,在生成的边界注意图上计算像素之间的语义关联度,并通过转移概率矩阵计算校正建筑物目标热力图;
d1、像素关联度计算,在边界注意图BA上进行像素关联度计算,得到像素语义关联矩阵W,其对角线元素为1,一对特征向量之间的语义关联度是用它们距离定义的;特征 i与特征j之间的语义关联度由Wij表示;
Wij=exp{-||BA(xi-yi)-BA(xj-yj)||1} 7);
其中,(xi,yi)表示边界注意图BA上第i点的坐标,(xj,yj)表示边界注意图BA上第j点的坐标;
d2、对角矩阵计算,对语义关联矩阵的每行数值计算均值并进行归一化处理,将每行标准化后的数值分布在矩阵的主对角线上,其他位置元素为0;
d3、转移概率计算,将计算得到的像素语义关联矩阵转化为转移概率矩阵H,具体是:
其中,超参数β值大于1,W⊙β是指将W矩阵与超参数β做Hadamard product运算后得到的矩阵,Dii表示对角矩阵D中第i个对角元素的值;
d4、热力图校正,将转移概率矩阵H和热力图相乘,实现像素间的语义传播,通过迭代执行此传播,直至预定义的迭代次数,得到校正后的建筑物类别热力图;
步骤E、定义像素关联度损失函数和分类损失函数,对像素语义关联度学习、边界注意模块和特征压缩模块进行优化,并配合VGG16网络中的全局平均池化层(GAP)和全连接层(FC)进行图像类别激活可视化操作(CAM),得到优化后的建筑物目标热力图;
e1、分类损失计算,将高分遥感影像对应的语义标签作为监督信息,包含建筑物的图像标记为1,不包含建筑物的图像标记为0,采用交叉熵损失函数来计算分类损失,具体是:
其中m取值为当前输入的批量样本总数;
e2、像素样本对集合构造,具体是考虑建筑图像相邻坐标像素的关联度,得到训练中使用的像素对集合ρ;
d(··)是欧氏距离;γ是搜索半径,以此限制选择一对坐标点之间的距离,避免了对建筑物图像进行全图搜索,导致计算效率降低,同时超过一定搜索半径范围的搜索是无效搜索,避免无效搜索;且搜索半径的限制能够有效获得更多正负像素对的训练;γ优选[1,10]。
e4、子集像素关联度损失计算,具体是计算三个子集的交叉熵:
e5、像素语义关联度损失结合,结合三个子集的损失函数,将像素语义关联的损失函数表示为:
e6、总体损失函数计算,包括分类损失和像素关联度损失,具体是:
L=L_cls+λL_aff 18);
其中λ为权重系数,λ取值范围为[0,1]。
步骤F:生成建筑物伪标注,将生成的建筑物伪标注和高分遥感影像作为全卷积神经网络的输入,训练收敛后,实现建筑物特征自动提取;
f1、热力图尺寸恢复,利用双线性插值对步骤E中的热力图进行上采样,使得获取的建筑物热力图尺寸等于高分遥感影像尺寸;
f2、建筑物伪标注生成,将热力图进行像素值的归一化处理,像素值限制在[0,1]的范围内,将热力值高于0.5的像素区域视为建筑物区域,低于该阈值的像素区域视为其他地物,生成建筑物图像的伪分割标注;
f3、建筑物特征自动提取,将建筑物伪标注作为监督信息,将高分遥感影像和建筑物伪标注输入至全卷积网络模型训练,实现建筑物特征自动提取。
本发明具有以下有益效果:
本发明提供了一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括训练数据准备、深层特征提取、边界特征融合、像素语义关联度学习、损失函数计算和生成建筑物伪标注;通过设计边界注意模块,将超像素先验信息和网络提取的边界信息相结合,强化了建筑物边界特征,且通过学习像素之间的语义关联性,将像素间的语义信息在图像中进行有效传播,生成更为完整密集,边界更为清晰的伪标签。同时配合高分遥感影像采用全卷积网络模型训练,实现建筑物特征自动提取。
除了上面所描述的目的、特征和优点之外,本发明还有其它的目的、特征和优点。下面将参照图,对本发明作进一步详细的说明。
附图说明
构成本申请的一部分的附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。在附图中:
图1是本发明一种结合像素语义关联和边界注意的高分遥感影像弱监督建筑物提取方法的流程图;
图2是步骤B中特征压缩模块的处理过程示意图;
图3是步骤C中边界注意模块的处理过程示意图;
图4是本发明建筑物伪标注生成示意图;
具体实施方式
以下结合附图对本发明的实施例进行详细说明,但是本发明可以根据权利要求限定和覆盖的多种不同方式实施。
参见图1至图4,一种结合像素语义关联和边界注意的高分影像弱监督提取方法,包括以下步骤:
步骤A、训练数据准备,包括生成所有训练高分遥感影像的超像素图、生成建筑物类别热力图、建筑物背景热力图以及初始像素语义关联度标签;
a1、超像素图生成,将获取的高分遥感影像作为训练输入,输入至超像素分割模型中,设定每个超像素图的超像素个数,生成与所有高分遥感影像对应的超像素图G;
a2、建筑物类别热力图生成,将获得的高分遥感影像和高分遥感影像对应的语义标签作为输入,采用卷积神经网络生成CAM分割种子,得到建筑物类别热力图Mb;
其中,Wb是建筑物类别的权值,T为矩阵转置符号,fcam(x,y)表示在特征图中位于(x,y) 处的特征向量;
a3、背景热力图生成,将步骤a2中的建筑物类别热力图Mb归一化处理得到M′b,将M′b激活值限制在[0,1]的区间范围内;通过式3)进一步计算背景热力图Mbg;
Mbg(x,y)={1-max M′b(x,y)}α 3);
其中,α是超参数,α数值可设置为[1,+∞]的区间范围,用于调整背景置信分数,本实施例中α优选[1,25];
a4、建筑物可信区域获取和背景可信区域获取,通过步骤a3中的α放大Mbg,激活建筑物目标区域对象,选取建筑物得分大于放大背景得分的坐标作为建筑物可信区域,选取背景得分大于建筑物得分的坐标作为背景可信区域;
a5、像素语义关联度标签生成,得到了建筑物可信区域和背景可信区域后,将遥感影像中的其余区域视为中性区域,根据建筑物可信区域和背景可信区域做成关联矩阵,这个关联矩阵就是像素语义关联度标签,根据确定区域的类别标签为每一对坐标分配标签,对于一对非中性区域的坐标(xi,yi)和(xj,yj)来说,如果遥感影像中两个不同像素同属于同一个类别的可信区域,这两个像素赋关联值为1,不是同一类别的关联值就为0;如果有一个像素是中性区域,就忽略这对坐标。
步骤B、深层特征提取,将获取的高分遥感影像和高分遥感影像对应的语义标签输入至特征压缩模块,获得深层特征图D;
b1、采用VGG16作为基础网络,移除VGG16中第3、4和5个下采样模块的池化层,并用空洞卷积率为3的卷积块代替;
b2、特征压缩,将高分遥感影像和高分遥感影像对应的语义标签输入至卷积块代替的 VGG16网络,代替的第3、4和5个卷积模块输出的特征图的通道数分别为128、256和512维;
b3多尺度特征融合,在b2的基础上将三个特征图串联成一个具有896通道数的单一特征映射;
b4、将单一特征映射再通过1x1的卷积层,生成压缩后的深层特征图D。
步骤C、边界特征融合,将超像素图G、深层特征图D输入至边界注意模块中进行运算与融合,得到边界注意图BA;
其中h为浅层特征图的高度,w为浅层特征图的宽度,c1为浅层特征图S的通道数;
其中,σ是指Sigmoid函数计算;
其中,⊙指Hadamard product运算;
s5、获取融合边界特征图,将边界自注意特征N和超像素边界特征进行Hadamardproduct运算,并采用一个下采样模块进一步抽象特征图,使其尺寸与经过语义压缩输出的特征图尺寸相同,得到融合边界特征图
步骤D、像素语义关联度学习,在生成的边界注意图上计算像素之间的语义关联度,并通过转移概率矩阵计算校正建筑物目标热力图;
d1、像素关联度计算,在边界注意图BA上进行像素关联度计算,得到像素语义关联矩阵W,其对角线元素为1,一对特征向量之间的语义关联度是用它们距离定义的;特征 i与特征j之间的语义关联度由Wij表示;
Wij=exp{-||BA(xi-yi)-BA(xj-yj)||1} 7);
其中,(xi,yi)表示边界注意图BA上第i点的坐标,(xj,yj)表示边界注意图BA上第j点的坐标;
d2、对角矩阵计算,对语义关联矩阵的每行数值计算均值并进行归一化处理,将每行标准化后的数值分布在矩阵的主对角线上,其他位置元素为0;
d3、转移概率计算,将计算得到的像素语义关联矩阵转化为转移概率矩阵H,具体是:
其中,超参数β值大于1,W⊙β是指将W矩阵与超参数β做Hadamard product运算后得到的矩阵, Dii表示对角矩阵D中第i个对角元素的值;
d4、热力图校正,将转移概率矩阵H和热力图相乘,实现像素间的语义传播,通过迭代执行此传播,直至预定义的迭代次数,得到校正后的建筑物类别热力图;
步骤E、定义像素关联度损失函数和分类损失函数,对像素语义关联度学习、边界注意模块和特征压缩模块进行优化,并配合VGG16网络中的全局平均池化层(GAP)和全连接层(FC)进行图像类别激活可视化操作(CAM),得到优化后的建筑物目标热力图;
e1、分类损失计算,将高分遥感影像对应的语义标签作为监督信息,包含建筑物的图像标记为1,不包含建筑物的图像标记为0,采用交叉熵损失函数来计算分类损失,具体是:
其中m取值为当前输入的批量样本总数;
e2、像素样本对集合构造,具体是考虑建筑图像相邻坐标像素的关联度,得到训练中使用的像素对集合ρ;建筑物图像中包含建筑物主体以及其他地物(背景),具体考虑建筑图像中建筑物主体和建筑物主体(建筑物像素对),建筑物与其他地物,背景与背景(背景像素对)之间的像素语义关联。
d(··)是欧氏距离;γ是搜索半径,以此限制选择一对坐标点之间的距离,避免了对建筑物图像进行全图搜索,导致计算效率降低,同时超过一定搜索半径范围的搜索是无效搜索,避免无效搜索;且搜索半径的限制能够有效获得更多正负像素对的训练;γ优选[1,10]。
e4、子集像素关联度损失计算,具体是计算三个子集的交叉熵:
e5、像素语义关联度损失结合,结合三个子集的损失函数,将像素语义关联的损失函数表示为:
e6、总体损失函数计算,包括分类损失和像素关联度损失,具体是:
L=L_cls+λL_aff 18);
其中λ为权重系数,λ取值范围为[0,1]。
步骤F:生成建筑物伪标注,将生成的建筑物伪标注和高分遥感影像作为全卷积神经网络的输入,训练收敛后,实现建筑物特征自动提取;
f1、热力图尺寸恢复,利用双线性插值对步骤E中的热力图进行上采样,使得获取的建筑物热力图尺寸等于高分遥感影像尺寸;
f2、建筑物伪标注生成,将恢复尺寸的热力图进行像素值的归一化处理,像素值限制在[0,1]的范围内,将热力值高于0.5的像素区域视为建筑物区域,低于该阈值的像素区域视为其他地物,生成建筑物图像的伪分割标注;
f3、建筑物特征自动提取,将建筑物伪标注作为监督信息,将高分遥感影像和建筑物伪标注输入至全卷积网络模型训练,实现建筑物特征自动提取。
需要说明的是,所述高分遥感影像和高分遥感影像对应的语义标签通过互联网下载获取;本发明的卷积神经网络训练基于现有的计算机平台操作。
本发明提供了一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,包括训练数据准备、深层特征提取、边界特征融合、像素语义关联度学习、损失函数计算和生成建筑物伪标注;通过设计边界注意模块,将超像素先验信息和网络提取的边界信息相结合,强化了建筑物边界特征,且通过学习像素之间的语义关联性,将像素间的语义信息在图像中进行有效传播,生成更为完整密集,边界更为清晰的伪标签。同时配合高分遥感影像采用全卷积网络模型训练,实现建筑物特征自动提取。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (8)
1.一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,包括以下步骤:
步骤A、训练数据准备,包括生成所有训练高分遥感影像的超像素图、生成建筑物类别热力图、建筑物背景热力图以及初始像素语义关联度标签;
步骤B、深层特征提取,将获取的高分遥感影像和高分遥感影像对应的语义标签输入至特征压缩模块,获得深层特征图D;
步骤C、边界特征融合,将超像素图G、深层特征图D输入至边界注意模块中进行运算与融合,得到边界注意图BA;
步骤D、像素语义关联度学习,在生成的边界注意图上计算像素之间的语义关联度,并通过转移概率矩阵计算校正建筑物目标热力图;
步骤E、定义像素关联度损失函数和分类损失函数,对像素语义关联度学习、边界注意模块和特征压缩模块进行优化,并配合VGG16网络中的全局平均池化层(GAP)和全连接层(FC)进行图像类别激活可视化操作(CAM),得到优化后的建筑物目标热力图;
步骤F:生成建筑物伪标注,将生成的建筑物伪标注和高分遥感影像作为全卷积神经网络的输入,训练收敛后,实现建筑物特征自动提取。
2.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤A具体包括以下步骤:
a1、超像素图生成,将高分遥感影像作为训练输入,输入至超像素分割模型中,设定每个超像素图的超像素个数,生成与所有高分遥感影像对应的超像素图G;
a2、建筑物类别热力图生成,将获得的高分遥感影像和高分遥感影像对应的语义标签作为输入,采用卷积神经网络生成CAM分割种子,得到建筑物类别热力图Mb;
其中,Wb是建筑物类别的权值,fcam(x,y)表示在特征图中位于(x,y)处的特征向量;
a3、背景热力图生成,将步骤a2中的建筑物类别热力图Mb归一化处理得到M′b,将M′b激活值限制在[0,1]的区间范围内;通过式3)公式进一步计算背景热力图Mbg;
Mbg(x,y)={1-max M′b(x,y)}α 3);
其中,α是超参数,α数值可设置为[1,+∞]的区间范围,用于调整背景置信分数;
a4、建筑物可信区域获取和背景可信区域获取,通过步骤a3中的α放大Mbg,激活建筑物目标区域对象,选取建筑物得分大于放大背景得分的坐标作为建筑物可信区域,选取背景得分大于建筑物得分的坐标作为背景可信区域;
a5、像素语义关联度标签生成,得到了建筑物可信区域和背景可信区域后,将遥感影像中的其余区域视为中性区域,根据建筑物可信区域和背景可信区域做成关联矩阵,这个关联矩阵就是像素语义关联度标签,根据确定区域的类别标签为每一对坐标分配标签,对于一对非中性区域的坐标(xi,yi)和(xj,yj)来说,如果遥感影像中两个不同像素同属于同一个类别的可信区域,这两个像素赋关联值为1,不是同一类别的关联值就为0;如果有一个像素是中性区域,就忽略这对坐标。
3.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤B具体包括以下步骤:
b1、采用VGG16作为基础网络,移除VGG16中第3、4和5个下采样模块的池化层,并用空洞卷积率为3的卷积块代替;
b2、特征压缩,将高分遥感影像和高分遥感影像对应的语义标签输入至卷积块代替的VGG16网络,代替的第3、4和5个卷积模块输出的特征图的通道数分别为128、256和512维;
b3多尺度特征融合,在b2的基础上将三个特征图串联成一个具有896通道数的单一特征映射;
b4、将单一特征映射再通过1x1的卷积层,生成压缩后的深层特征图D。
4.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤C具体包括以下步骤:
其中h为浅层特征图的高度,w为浅层特征图的宽度,c1为浅层特征图S的通道数;
其中,σ是指Sigmoid函数计算;
其中,⊙指Hadamard product运算;
s5、获取融合边界特征图,将边界自注意特征N和超像素边界特征进行Hadamardproduct运算,并采用一个下采样模块进一步抽象特征图,使其尺寸与经过语义压缩输出的特征图尺寸相同,得到融合边界特征图
5.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤D具体包括以下步骤:
d1、像素关联度计算,在边界注意图BA上进行像素关联度计算,得到像素语义关联矩阵W,其对角线元素为1,一对特征向量之间的语义关联度是用它们距离定义的;特征i与特征j之间的语义关联度由Wij表示;
Wij=exp{-‖BA(xi-yi)-BA(xj-yj)‖1} 7);
其中,(xi,yi)表示边界注意图BA上第i点的坐标,(xj,yj)表示边界注意图BA上第j点的坐标;
d2、对角矩阵计算,对语义关联矩阵的每行数值计算均值并进行归一化处理,将每行标准化后的数值分布在矩阵的主对角线上,其他位置元素为0;
d3、转移概率计算,将计算得到的像素语义关联矩阵转化为转移概率矩阵H,具体是:
其中,超参数β值大于1,W⊙β是指将W矩阵与超参数β做Hadamard product运算后得到的矩阵,Dii表示对角矩阵D中第i个对角元素的值;
d4、热力图校正,将转移概率矩阵H和热力图相乘,实现像素间的语义传播,通过迭代执行此传播,直至预定义的迭代次数,得到校正后的建筑物类别热力图;
6.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤E具体包括以下步骤:
e1、分类损失计算,将高分遥感影像对应的语义标签作为监督信息,包含建筑物的图像标记为1,不包含建筑物的图像标记为0,采用交叉熵损失函数来计算分类损失,具体是:
其中m取值为当前输入的批量样本总数;
e2、像素样本对集合构造,具体是考虑建筑图像相邻坐标像素的关联度,得到训练中使用的像素对集合ρ;
d(··)是欧氏距离,γ是搜索半径;
e4、子集像素关联度损失计算,具体是计算三个子集的交叉熵:
e5、像素语义关联度损失结合,结合三个子集的损失函数,将像素语义关联的损失函数表示为:
e6、总体损失函数计算,包括分类损失和像素关联度损失,具体是:
L=L_cls+λL_aff 18);
其中λ为权重系数,λ取值范围为[0,1]。
7.根据权利要求1所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,步骤F具体包括以下步骤:
f1、热力图尺寸恢复,利用双线性插值对步骤E中的热力图进行上采样,使得获取的建筑物热力图尺寸等于高分遥感影像尺寸;
f2、建筑物伪标注生成,将热力图进行像素值的归一化处理,像素值限制在[0,1]的范围内,将热力值高于0.5的像素区域视为建筑物区域,低于该阈值的像素区域视为其他地物,生成建筑物图像的伪分割标注;
f3、建筑物特征自动提取,将建筑物伪标注作为监督信息,将高分遥感影像和建筑物伪标注输入至全卷积网络模型训练,实现建筑物特征自动提取。
8.根据权利要求1-7任一项中所述的一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法,其特征在于,所述高分遥感影像和高分遥感影像对应的语义标签通过互联网下载获取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010909322.3A CN112052783B (zh) | 2020-09-02 | 2020-09-02 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010909322.3A CN112052783B (zh) | 2020-09-02 | 2020-09-02 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112052783A true CN112052783A (zh) | 2020-12-08 |
CN112052783B CN112052783B (zh) | 2024-04-09 |
Family
ID=73607200
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010909322.3A Active CN112052783B (zh) | 2020-09-02 | 2020-09-02 | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112052783B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651931A (zh) * | 2020-12-15 | 2021-04-13 | 浙江大华技术股份有限公司 | 建筑物变形监测方法、装置和计算机设备 |
CN113111916A (zh) * | 2021-03-15 | 2021-07-13 | 中国科学院计算技术研究所 | 一种基于弱监督的医学图像语义分割方法和系统 |
CN113343991A (zh) * | 2021-08-02 | 2021-09-03 | 四川新网银行股份有限公司 | 一种特征内增强的弱监督学习方法 |
CN113436204A (zh) * | 2021-06-10 | 2021-09-24 | 中国地质大学(武汉) | 一种高分辨率遥感影像弱监督建筑物提取方法 |
CN113505670A (zh) * | 2021-06-29 | 2021-10-15 | 西南交通大学 | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 |
CN113642663A (zh) * | 2021-08-24 | 2021-11-12 | 中国水利水电科学研究院 | 一种卫星遥感影像水体提取方法 |
CN113807316A (zh) * | 2021-10-08 | 2021-12-17 | 南京恩博科技有限公司 | 烟雾浓度估计模型的训练方法、装置、电子设备及介质 |
CN114494699A (zh) * | 2022-01-28 | 2022-05-13 | 福州大学 | 基于语义传播与前背景感知的图像语义分割方法及系统 |
CN114820655A (zh) * | 2022-04-26 | 2022-07-29 | 中国地质大学(武汉) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 |
CN115424059A (zh) * | 2022-08-24 | 2022-12-02 | 珠江水利委员会珠江水利科学研究院 | 一种基于像素级对比学习的遥感土地利用分类方法 |
CN115472233A (zh) * | 2022-01-25 | 2022-12-13 | 昆明理工大学 | 基于热扩散标签传播的半监督集成工业过程软测量建模方法、系统 |
CN118072138A (zh) * | 2024-04-24 | 2024-05-24 | 中国地质大学(武汉) | 土地覆盖特征提取方法、装置、电子设备及存储介质 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109255790A (zh) * | 2018-07-27 | 2019-01-22 | 北京工业大学 | 一种弱监督语义分割的自动图像标注方法 |
JP2019028657A (ja) * | 2017-07-28 | 2019-02-21 | 株式会社パスコ | 建物領域抽出用の学習済みモデル |
CN109446992A (zh) * | 2018-10-30 | 2019-03-08 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备 |
CN110163239A (zh) * | 2019-01-25 | 2019-08-23 | 太原理工大学 | 一种基于超像素和条件随机场的弱监督图像语义分割方法 |
CN110210485A (zh) * | 2019-05-13 | 2019-09-06 | 常熟理工学院 | 基于注意力机制指导特征融合的图像语义分割方法 |
CN110334578A (zh) * | 2019-05-05 | 2019-10-15 | 中南大学 | 图像级别标注自动提取高分遥感影像建筑物的弱监督方法 |
CN110555857A (zh) * | 2019-08-19 | 2019-12-10 | 浙江工业大学 | 一种语义边缘主导的高分遥感影像分割方法 |
CN110889449A (zh) * | 2019-11-27 | 2020-03-17 | 中国人民解放军国防科技大学 | 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN111462126A (zh) * | 2020-04-08 | 2020-07-28 | 武汉大学 | 一种基于边缘增强的语义图像分割方法及系统 |
CN111582175A (zh) * | 2020-05-09 | 2020-08-25 | 中南大学 | 一种共享多尺度对抗特征的高分遥感影像语义分割方法 |
-
2020
- 2020-09-02 CN CN202010909322.3A patent/CN112052783B/zh active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028657A (ja) * | 2017-07-28 | 2019-02-21 | 株式会社パスコ | 建物領域抽出用の学習済みモデル |
CN109255790A (zh) * | 2018-07-27 | 2019-01-22 | 北京工业大学 | 一种弱监督语义分割的自动图像标注方法 |
CN109446992A (zh) * | 2018-10-30 | 2019-03-08 | 苏州中科天启遥感科技有限公司 | 基于深度学习的遥感影像建筑物提取方法及系统、存储介质、电子设备 |
CN110163239A (zh) * | 2019-01-25 | 2019-08-23 | 太原理工大学 | 一种基于超像素和条件随机场的弱监督图像语义分割方法 |
CN110334578A (zh) * | 2019-05-05 | 2019-10-15 | 中南大学 | 图像级别标注自动提取高分遥感影像建筑物的弱监督方法 |
CN110210485A (zh) * | 2019-05-13 | 2019-09-06 | 常熟理工学院 | 基于注意力机制指导特征融合的图像语义分割方法 |
CN110555857A (zh) * | 2019-08-19 | 2019-12-10 | 浙江工业大学 | 一种语义边缘主导的高分遥感影像分割方法 |
CN111127493A (zh) * | 2019-11-12 | 2020-05-08 | 中国矿业大学 | 基于注意力多尺度特征融合的遥感图像语义分割方法 |
CN110889449A (zh) * | 2019-11-27 | 2020-03-17 | 中国人民解放军国防科技大学 | 一种增强边缘的、多尺度的遥感影像建筑物语义特征提取方法 |
CN111462126A (zh) * | 2020-04-08 | 2020-07-28 | 武汉大学 | 一种基于边缘增强的语义图像分割方法及系统 |
CN111582175A (zh) * | 2020-05-09 | 2020-08-25 | 中南大学 | 一种共享多尺度对抗特征的高分遥感影像语义分割方法 |
Non-Patent Citations (6)
Title |
---|
JIE CHEN: "Multi-Scale Spatial and Channel-wise Attention for Improving Object Detection in Remote Sensing Imagery", 《IEEE GEOSICENCE AND REMOTE SENSING LETTERS》, vol. 17, no. 2020, pages 681 - 685, XP011780550, DOI: 10.1109/LGRS.2019.2930462 * |
JIWOON AHN: "Learning Pixel-level Semantic Affinity with Image-level Supervision for Weakly Supervised Semantic Segmentation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 4981 - 4990 * |
JIWOON AHN: "Learning Pixel-level Semantic Affinity with Image-level Supervision forWeakly Supervised Semantic Segmentation", 《2018 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION》, pages 4983 - 4988 * |
有三AI: "【技术综述】基于弱监督深度学习的图像分割方法综述", Retrieved from the Internet <URL:https://tianchi.aliyun.com/forum/post/63790> * |
杨旭勃: "基于语义分割的卫星影像中道路和小建筑物提取方法研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》, no. 2020, pages 028 - 152 * |
陈杰等: "融合边界信息的高分辨率遥感影像分割优化算法", 《中国图象图形学报》, no. 2016, pages 1096 - 1105 * |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112651931A (zh) * | 2020-12-15 | 2021-04-13 | 浙江大华技术股份有限公司 | 建筑物变形监测方法、装置和计算机设备 |
CN112651931B (zh) * | 2020-12-15 | 2024-04-26 | 浙江大华技术股份有限公司 | 建筑物变形监测方法、装置和计算机设备 |
CN113111916A (zh) * | 2021-03-15 | 2021-07-13 | 中国科学院计算技术研究所 | 一种基于弱监督的医学图像语义分割方法和系统 |
CN113436204A (zh) * | 2021-06-10 | 2021-09-24 | 中国地质大学(武汉) | 一种高分辨率遥感影像弱监督建筑物提取方法 |
CN113505670B (zh) * | 2021-06-29 | 2023-06-23 | 西南交通大学 | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 |
CN113505670A (zh) * | 2021-06-29 | 2021-10-15 | 西南交通大学 | 基于多尺度cam和超像素的遥感图像弱监督建筑提取方法 |
CN113343991A (zh) * | 2021-08-02 | 2021-09-03 | 四川新网银行股份有限公司 | 一种特征内增强的弱监督学习方法 |
CN113642663A (zh) * | 2021-08-24 | 2021-11-12 | 中国水利水电科学研究院 | 一种卫星遥感影像水体提取方法 |
CN113642663B (zh) * | 2021-08-24 | 2022-03-22 | 中国水利水电科学研究院 | 一种卫星遥感影像水体提取方法 |
CN113807316A (zh) * | 2021-10-08 | 2021-12-17 | 南京恩博科技有限公司 | 烟雾浓度估计模型的训练方法、装置、电子设备及介质 |
CN113807316B (zh) * | 2021-10-08 | 2023-12-12 | 南京恩博科技有限公司 | 烟雾浓度估计模型的训练方法、装置、电子设备及介质 |
CN115472233A (zh) * | 2022-01-25 | 2022-12-13 | 昆明理工大学 | 基于热扩散标签传播的半监督集成工业过程软测量建模方法、系统 |
CN114494699A (zh) * | 2022-01-28 | 2022-05-13 | 福州大学 | 基于语义传播与前背景感知的图像语义分割方法及系统 |
CN114820655A (zh) * | 2022-04-26 | 2022-07-29 | 中国地质大学(武汉) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 |
CN114820655B (zh) * | 2022-04-26 | 2024-04-19 | 中国地质大学(武汉) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 |
CN115424059A (zh) * | 2022-08-24 | 2022-12-02 | 珠江水利委员会珠江水利科学研究院 | 一种基于像素级对比学习的遥感土地利用分类方法 |
CN115424059B (zh) * | 2022-08-24 | 2023-09-01 | 珠江水利委员会珠江水利科学研究院 | 一种基于像素级对比学习的遥感土地利用分类方法 |
CN118072138A (zh) * | 2024-04-24 | 2024-05-24 | 中国地质大学(武汉) | 土地覆盖特征提取方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112052783B (zh) | 2024-04-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112052783B (zh) | 一种结合像素语义关联和边界注意的高分影像弱监督建筑物提取方法 | |
CN108573276B (zh) | 一种基于高分辨率遥感影像的变化检测方法 | |
CN107092870B (zh) | 一种高分辨率影像语义信息提取方法 | |
Pan et al. | A generic FCN-based approach for the road-network extraction from VHR remote sensing images–using openstreetmap as benchmarks | |
Zhong et al. | Multiagent object-based classifier for high spatial resolution imagery | |
CN111401380B (zh) | 一种基于深度特征增强和边缘优化的rgb-d图像语义分割方法 | |
CN112347970A (zh) | 一种基于图卷积神经网络的遥感影像地物识别方法 | |
CN114694038A (zh) | 基于深度学习的高分辨率遥感影像分类方法及系统 | |
CN111640116B (zh) | 基于深层卷积残差网络的航拍图建筑物分割方法及装置 | |
CN113988147B (zh) | 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置 | |
CN116797787A (zh) | 基于跨模态融合与图神经网络的遥感影像语义分割方法 | |
CN112396036B (zh) | 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法 | |
Guo et al. | Using multi-scale and hierarchical deep convolutional features for 3D semantic classification of TLS point clouds | |
CN114820655A (zh) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 | |
Li et al. | An aerial image segmentation approach based on enhanced multi-scale convolutional neural network | |
Gao et al. | Road extraction using a dual attention dilated-linknet based on satellite images and floating vehicle trajectory data | |
CN113160291A (zh) | 一种基于图像配准的变化检测方法 | |
Bektas Balcik et al. | Determination of land cover/land use using spot 7 data with supervised classification methods | |
CN116645592A (zh) | 一种基于图像处理的裂缝检测方法和存储介质 | |
CN113657225B (zh) | 一种目标检测方法 | |
Aghayari et al. | Building detection from aerial imagery using inception resnet unet and unet architectures | |
CN118154971A (zh) | 一种基于全卷积-动态图网络的sar图像分类方法 | |
Guo et al. | A shape and size free-CNN for urban functional zone mapping with high-resolution satellite images and POI data | |
Kazimi et al. | Semantic segmentation of manmade landscape structures in digital terrain models | |
CN118135209A (zh) | 一种基于形状块语义关联度的弱监督语义分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |