CN114463340B - 一种边缘信息引导的敏捷型遥感图像语义分割方法 - Google Patents
一种边缘信息引导的敏捷型遥感图像语义分割方法 Download PDFInfo
- Publication number
- CN114463340B CN114463340B CN202210021874.XA CN202210021874A CN114463340B CN 114463340 B CN114463340 B CN 114463340B CN 202210021874 A CN202210021874 A CN 202210021874A CN 114463340 B CN114463340 B CN 114463340B
- Authority
- CN
- China
- Prior art keywords
- edge
- semantic segmentation
- feature map
- feature
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000011218 segmentation Effects 0.000 title claims abstract description 88
- 238000000034 method Methods 0.000 title claims abstract description 54
- 238000003708 edge detection Methods 0.000 claims abstract description 36
- 238000004821 distillation Methods 0.000 claims abstract description 23
- 238000012545 processing Methods 0.000 claims abstract description 15
- 238000012549 training Methods 0.000 claims abstract description 13
- 230000006870 function Effects 0.000 claims description 57
- 238000000605 extraction Methods 0.000 claims description 22
- 230000004913 activation Effects 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 12
- 241000282326 Felis catus Species 0.000 claims description 8
- 238000010586 diagram Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000003709 image segmentation Methods 0.000 abstract description 18
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000013528 artificial neural network Methods 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 238000004422 calculation algorithm Methods 0.000 description 11
- 238000003909 pattern recognition Methods 0.000 description 5
- 238000003672 processing method Methods 0.000 description 4
- 101100295091 Arabidopsis thaliana NUDT14 gene Proteins 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 238000012795 verification Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000000137 annealing Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000007635 classification algorithm Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明技术方案提供了一种边缘信息引导的敏捷型遥感图像语义分割方法,采用Pytorch深度学习框架训练,通过主干网络、边缘自蒸馏模块、语义分割分支、边缘检测分支、特征对齐模块的处理来实现遥感图像的分割。本方法具有非常好的延伸拓展性,可根据实际生产需要对本方法中采用的主干网络进行更换。并且考虑到星上等小型物联网设备环境的限制,本框架针对深度神经网络的规模和运行速度进行了优化,便于面向物联网设备的部署和推广,在保证分割精度的情况下实现了模型的快速敏捷型。
Description
技术领域
本发明属于遥感图像分割技术领域,涉及一种遥感图像分割方法,具体涉及一种边缘信息引导的敏捷型遥感图像语义分割方法。
背景技术
近年来,随着卫星和航拍技术的快速发展,高分辨率、高光谱遥感图像的获取难度大大降低。遥感图像分割算法指的是对图像中的每个像素进行预测,是一种像素级别的分类算法,可被广泛应用于土地规划、环境监测和灾害评估等诸多应用场景,具有重大的应用价值。
遥感图像分割是一个具有研究历史的领域,主要经历了基于人工标注的处理方法、基于传统方法的处理方法和基于深度学习的处理方法三个研究历程。
基于人工标注的遥感图像分割算法效率较低,难以对高分辨率、高光谱的遥感图像进行快速有效处理,目前已基本被基于图像处理方法的智能算法替代。
传统的图像分割方法主要是基于颜色、纹理等图像特征手工设计分类器完成图像分析处理,如基于像素级的聚类分割法、利用像素级的阈值分割法、基于像素级的决策树分类法等,这些算法在一定程度上较好的实现了图像分割的需求,但是对手工设计的特征提取器要求较高,且对于数据集的泛化性能较差,难以大规模的应用到背景复杂的通用场景中。
基于深度学习的遥感图像分割方法可对图像进行快速处理,准确解译出相关信息,已成为目前该领域的主流方法。根据设计原理的不同,这些算法可以划分为基于多尺度特征增强方法和上下文增强模型方法两大类。多尺度特征增强方法考虑到图像中多尺度目标对单一尺度感受野特征提取过程带来的挑战进行改善,PSPNet(参考文献Zhao,Hengshuang,et al."Pyramid Scene Parsing Network."IEEE:Computer Vision andPattern Recognition(2017))用一系列池化层对特征图进行重新生成,得到了一系列感受野不同的特征组合。Deeplab系列(Chen,Liangchieh,et al."DeepLab:Semantic ImageSegmentation with Deep Convolutional Nets,Atrous Convolution,and FullyConnected CRFs."IEEE Transactions on Pattern Analysis and MachineIntelligence 40.4(2018):834-848.)将空洞空间金字塔池化(Atrous Spatial PyramidPooling,ASPP)引入到语义分割模型中,借助于空洞卷积的优异性能,这类方法可以在保证特征图分辨率不变的前提下增加感受野,对于语义分割任务而言保证了细节信息的不丢失。考虑到ASPP所运用的并行结构在空间采样上的局限性,DenseASPP(Yang,Maoke,etal."DenseASPP for Semantic Segmentation in Street Scenes."IEEE:ComputerVision and Pattern Recognition(2018):3684-3692.)将图像分类中的优秀结构DenseNet与ASPP进行结合,主干网络的密集跳层连接(Skip Connection)使得模型以很少的参数量实现了特征图的极大丰富化。上下文增强模型方法挖掘像素之间的上下文信息来加强特征图的鲁棒性,CENet(Zhang,Hang,et al."Context Encoding for SemanticSegmentation."IEEE:Computer Vision and Pattern Recognition(2018):7151-7160.)考虑到场景先验信息对于分割结果的重要性,通过上下文编码模块(Context EncodingModule)来捕获全局上下文信息和突出与场景相关联的类别信息。PSANet(Zhao,Hengshuang,et al."PSANet:Point-wise Spatial Attention Network for SceneParsing."european conference on computer vision(2018):270-286.)通过自适应的注意力机制将特征图地每个位置联系起来促进信息传递,解决了神经网络特征信息局部性的缺陷。受Non-Local启发,DANet(Fu,Jun,et al."Dual Attention Network for SceneSegmentation."IEEE:Computer Vision and Pattern Recognition(2019):3146-3154.)在空间和通道两个层面分别进行上下文特征提取,通过局部和全局的上下文信息挖掘来丰富特征图的多样性使得小目标的特征得到加强,从而提升分割性能。然而,此类方法虽然可以有效对全局特征进行空间和通道建模,但是计算量非常庞大,复杂度高,给实际应用带来很多限制。CCNet(Huang,Zilong,et al."CCNet:Criss-Cross Attention for SemanticSegmentation."IEEE:IEEE:Computer Vision and Pattern Recognition(2019).)提出了一个新颖的纵横交叉关注模块,可以以一种更高效的方式从远程依赖中捕获上下文信息。OCRNet(Yuan,Yuhui,Xilin Chen,and Jingdong Wang."Object-ContextualRepresentations for Semantic Segmentation.."IEEE:Computer Vision and PatternRecognition(2019))采用一种由粗到细的方式进行语义分割,结合每一类的类别语义信息给每个像素加权,再和原始的像素特征合并组成最终每个像素的特征表示,在减少冗余计算的同时提升了分割效果。
尽管这些算法已经在图像分割的精度上取得较大进展,但未满足在卫星或者其他小型化物联网设施进行模型部署的需求,所提出的遥感图像分割算法在参数量与推理速度上都应该具备轻量敏捷化,这些算法并没有对遥感图像分割过程的实时性进行较多考量。此外,这些算法没有从图像结构化的角度对目标进行合理建模,在处理细小目标的精度上还存在一定的可提升性。
发明内容
为了解决上述技术问题,本发明充分利用边缘检测任务在对目标进行结构化建模和细节信息捕获上的能力,同时考虑模型自蒸馏策略与特征对齐策略在实现特征相似性中的重要作用,提出一种边缘信息引导的敏捷型图像语义分割方法,在使用轻量化模型(主干网络采用ResNet18)的前提下取得较好的遥感图像分割精度。
本发明所采用的技术方案是:一种边缘信息引导的敏捷型图像语义分割方法,包括以下步骤:
首先构建边缘信息引导的语义分割模型,包括主干网络、边缘自蒸馏模块、边缘检测分支、语义分割分支和特征对齐模块,各模块的处理过程如下;
步骤一,主干网络的特征提取过程,使用ResNet18作为主干网络对输入图像I进行特征提取,生成层次化特征供后续模块使用;
步骤二,边缘自蒸馏模块的边缘预测与自蒸馏过程,融合主干网络提取的层次化特征图进行边缘结果预测,同时利用该模块生成的特征图对主干网络生成的特征图进行自蒸馏;所述边缘自蒸馏模块包括多个卷积块;
步骤三,边缘检测分支预测边缘检测结果,对主干网络生成的特征图进行特征提取之后预测目标边缘;所述边缘检测分支包括一个卷积块和一个卷积层;
步骤四,语义分割分支预测语义分割结果,对主干网络生成的特征图进行特征提取之后预测每个像素的类别,得到语义分割结果图;所述语义分割分支包括一个卷积块和一个卷积层;
步骤五,特征对齐模块对语义分割分支和边缘检测分支生成的特征图进行对齐;所述特征对齐模块包括多个卷积块;
然后采用数据集对构建的边缘信息引导的语义分割模型进行训练,利用训练好的语义分割模型对待分割图像进行语义分割处理。
进一步的,步骤二中边缘自蒸馏模块的具体处理过程如下;
先对主干网络生成的特征图{E1、E2、E3、E4、E5}在通道维度上进行拼接融合,特征图拼接融合之后利用卷积块进一步进行特征提取,得到特征图Fcat,卷积块由卷积层、ReLu激活函数和batchnormal组成,随后使用1×1卷积层将特征图Fcat的输出通道数降低为1得到Fedge,采用加权交叉熵损失函数构建特征图Fedge与边缘真值之间的损失函数Edge_loss1;
然后对主干网络生成的特征图{E1、E2、E3、E4、E5}后各自添加一个卷积块进行特征提取得到特征图{F1、F2、F3、F4、F5},卷积块由卷积层、ReLu激活函数和batchnormal组成;
利用KL散度来对齐上述生成的特征图Fcat与各个阶段得到的特征图{F1、F2、F3、F4、F5},构建得到KL_loss。
进一步的,步骤三中边缘检测分支的具体处理过程如下;
对于主干网络生成的特征图E5,边缘检测分支首先通过一个卷积块进行特征提取,得到特征图K1,紧接着再使用1×1卷积层将特征图转化为尺寸不同的特征图K2,
其中卷积块由卷积层、ReLu激活函数和batchnormal组成;
利用加权交叉熵损失函数构建K2与边缘真值之间的差异性,得到损失函数Edge_loss2。
进一步的,步骤四中语义分割分支的具体处理过程如下;
首先利用卷积块对特征图E5进行特征提取,得到特征图S1,随后利用1×1卷积层将特征图S1的通道数降低为N,N表示数据集中的类别数,得到特征图S2;
所述卷积块由卷积层、ReLu激活函数和batchnormal组成;
利用交叉熵损失函数构建S2与语义分割真值之间的损失函数Seg_loss。
进一步的,步骤五中语义分割分支的具体处理过程如下;
对于语义分割分支中生成的特征图S1和边缘检测分支生成的特征图K1,首先分别通过三个卷积块对特征图进行特征再次提取,分别得到特征图S3和特征图K3,其中卷积块由3×3卷积层、ReLu激活函数和batchnormal组成;
最后利用MSE损失函数衡量S3与K3之间的差异性,将两者对齐并得到特征对齐损失函数FA_loss。
进一步的,所述边缘信息引导的语义分割模型训练时采用的损失函数如下;
L=Seg_loss+KL_loss+FA_loss+0.3×(Edge_loss1+Edge_loss2)
其中,Seg_loss表示语义分割分支的损失函数,用于衡量语义分割预测值与真值之间的差异性,KL_loss为由KL散度计算得到的损失函数,用于边缘自蒸馏模块与主干网络特征图之间的对齐,FA_loss为特征图对齐损失函数,用于语义分割分支与边缘检测分支之间的特征图对齐,Edge_loss1与Edge_loss2分别为边缘自蒸馏模块与边缘检测分支的损失函数。
进一步的,KL_loss的具体计算形式如下所示:
本发明是一种应用于遥感图像分割的方法,与现有的技术相比具有以下优点:
(1)本发明利用边缘检测任务来增强模型对目标的结构化建模能力,同时运用模型自监督方式来对主干网络的浅层特征提取过程进行监督,强化浅层网络的特征表征能力;
(2)通过语义分割分支和边缘检测分支之间的特征对齐模块,强化在特征图上采样过程中的细节信息恢复能力。
(3)结合边缘自蒸馏模块、边缘检测分支和语义分割分支,本发明在主干网络采用轻量化ResNet18的前提下取得了较好的分割结果,较现有遥感图像分割算法相比在精度不发生明显下降的前提下实现了实时性与精度之间的更好权衡性。
附图说明
图1是本发明实施例的遥感图像分割模型。
图2是本发明实施例的图像分割结果,其中(a)为原始的输入图像数据;(b)为图像的分割结果。
具体实施方式
为了便于本领域普通技术人员理解和实施本发明,下面结合附图及实施例对本发明作进一步的详细描述,应当理解,此处所描述的实施示例仅用于说明和解释本发明,并不用于限定本发明。
本发明提供的一种边缘信息引导的敏捷型遥感图像语义分割方法,包括如下步骤:
首先构建边缘信息引导的语义分割模型,包括主干网络、边缘自蒸馏模块、边缘检测分支、语义分割分支和特征对齐模块,各模块的处理过程如下;
步骤一:主干网络的特征提取过程。使用ResNet18作为主干网络对输入图像I进行特征提取,生成层次化特征供后续模块使用;
步骤二:边缘自蒸馏模块的边缘预测与自蒸馏过程。融合主干网络提取的层次化特征图进行边缘结果预测,同时利用该模块生成的特征图对主干网络生成的特征图进行模型自蒸馏;
步骤三:边缘检测分支预测边缘检测结果。对主干网络生成的特征图进行特征提取之后预测目标边缘;
步骤四:语义分割分支预测语义分割结果。对主干网络生成的特征图进行特征提取之后预测每个像素的类别,得到语义分割结果图;
步骤五:特征对齐模块对语义分割分支和边缘检测分支生成的特征图进行对齐;
然后采用数据集对构建的边缘信息引导的语义分割模型进行训练,利用训练好的语义分割模型对待分割图像进行语义分割处理。
下面结合实例和附图,讲解具体的分割流程。
以10000张3×512×512的图像作为训练图像,2000张3×512×512的图像作为测试图像,主要步骤包括:
1.数据集准备和网络超参数:
1.1将10000张按照7:3的比例从中随机选择7000张图像作为训练集,剩余的3000张图像作为验证集用于模型训练过程的验证,为加快模型的训练和测试速度,利用双线性插值将图像下采样为3×128×128。
1.2.把下采样之后的图像转换为以batchsize为12的12×3×128×128规格的张量,准备输入网络模型进行训练,全部数据迭代300次,采用余弦退火学习率下降策略,优化器为Ranger,学习率设置为1×10-3,训练使用的损失函数如下:
L=Seg_loss+KL_loss+FA_loss+0.3×(Edge_loss1+Edge_loss2)
其中,Seg_loss表示语义分割分支的损失函数,用于衡量语义分割预测值与真值之间的差异性,KL_loss为由KL散度计算得到的损失函数,用于边缘自蒸馏模块与主干网络特征图之间的对齐,FA_loss为特征图对齐损失函数,用于语义分割分支与边缘检测分支之间的特征图对齐,Edge_loss1与Edge_loss2分别为边缘自蒸馏模块与边缘检测分支的损失函数。
2.主干网络的特征提取过程:
为实现模型的敏捷快速运算,在模型主干网络部分采用较为轻量化的ResNet18用于基础的层次化特征提取,阶段一到阶段五生成的特征图可分别表示为{E1、E2、E3、E4、E5}。值得注意的是,后续的边缘自蒸馏模块,边缘检测分支与语义分割分支共享主干网络部分,以此来减少不必要的参数量。
3.边缘自蒸馏模块的边缘预测与自蒸馏过程:
3.1.边缘检测结果预测:将主干网络在阶段一到阶段五生成的特征图{E1、E2、E3、E4、E5}在通道维度上拼接融合(concatenation),特征图拼接融合之后利用卷积块进一步进行特征提取,得到尺寸为12×16×128×128的特征图Fcat,卷积块由卷积层、ReLu激活函数和batchnormal组成。随后使用1×1卷积层将特征图Fcat的输出通道数降低为1得到Fedge,采用加权交叉熵损失函数构建特征图Fedge与边缘真值之间的损失函数Edge_loss1,利用非边缘区域与边缘区域的面积之比来降低过多负样本对训练结果带来的不稳定性。
3.2.对主干网络生成的特征图{E1、E2、E3、E4、E5}后各自添加一个卷积块进行特征提取得到尺寸为12×16×128×128的特征图{F1、F2、F3、F4、F5},卷积块由卷积层、ReLu激活函数和batchnormal组成。利用KL散度来对齐上述生成的特征图Fcat与各个阶段得到的特征图{F1、F2、F3、F4、F5},构建得到KL_loss,具体形式如下所示:
4.边缘检测分支预测边缘检测结果:
对于主干网络生成的特征图E5,边缘检测分支首先通过一个卷积块(由卷积层、ReLu激活函数和batchnormal组成)来进行特征提取,得到特征尺寸为12×16×512×512的特征图K1,紧接着再使用1×1卷积层将特征图转化为尺寸为12×1×512×512的K2,利用加权交叉熵损失函数构建K2与边缘真值之间的差异性,得到损失函数Edge_loss2。
5.语义分割分支预测语义分割结果:
语义分割分支首先利用卷积块(由卷积层、ReLu激活函数和batchnormal组成)对特征图E5进行特征提取,得到尺寸为12×16×512×512的特征图S1,随后利用1×1卷积层将特征图S1的通道数降低为8(与数据集中的类别数一致),得到特征图S2。利用交叉熵损失函数构建S2与语义分割真值之间的损失函数Seg_loss。
6.特征对齐过程:
对于语义分割分支中生成的特征图S1和边缘检测分支生成的特征图K1,首先分别通过三个卷积块对特征图进行特征再次提取,分别得到尺寸为12×8×512×512的特征图S3和尺寸为12×8×512×512的特征图K3,其中卷积块由3×3卷积层、ReLu激活函数和batchnormal组成。最后利用MSE损失函数衡量S3与K3之间的差异性,将两者对齐并得到特征对齐损失函数FA_loss。
综合上述方法,本文提出的算法以15.11M的参数量实现81.02%FwIou,较以resnet101为主干网络的结果(参数量为72.32M,FwIou为85.46%)相比,模型精度出现略微下降,但是取得更好的实时性。
应当理解的是,本说明书未详细阐述的部分均属于现有技术。
应当理解的是,上述针对较佳实施例的描述较为详细,并不能因此而认为是对本发明专利保护范围的限制,本领域的普通技术人员在本发明的启示下,在不脱离本发明权利要求所保护的范围情况下,还可以做出替换或变形,均落入本发明的保护范围之内,本发明的请求保护范围应以所附权利要求为准。
Claims (7)
1.一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于,包括如下步骤:
首先构建边缘信息引导的语义分割模型,包括主干网络、边缘自蒸馏模块、边缘检测分支、语义分割分支和特征对齐模块,各模块的处理过程如下;
步骤一,主干网络的特征提取过程,使用ResNet18作为主干网络对输入图像I进行特征提取,生成层次化特征供后续模块使用;
步骤二,边缘自蒸馏模块的边缘预测与自蒸馏过程,融合主干网络提取的层次化特征图进行边缘结果预测,同时利用该模块生成的特征图对主干网络生成的特征图进行自蒸馏;所述边缘自蒸馏模块包括多个卷积块;
步骤三,边缘检测分支预测边缘检测结果,对主干网络生成的特征图进行特征提取之后预测目标边缘;所述边缘检测分支包括一个卷积块和一个卷积层;
步骤四,语义分割分支预测语义分割结果,对主干网络生成的特征图进行特征提取之后预测每个像素的类别,得到语义分割结果图;所述语义分割分支包括一个卷积块和一个卷积层;
步骤五,特征对齐模块对语义分割分支和边缘检测分支生成的特征图进行对齐;所述特征对齐模块包括多个卷积块;
然后采用数据集对构建的边缘信息引导的语义分割模型进行训练,利用训练好的语义分割模型对待分割图像进行语义分割处理。
2.如权利要求1所述的一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于:步骤二中边缘自蒸馏模块的具体处理过程如下;
先对主干网络生成的特征图{E1、E2、E3、E4、E5}在通道维度上进行拼接融合,特征图拼接融合之后利用卷积块进一步进行特征提取,得到特征图Fcat,卷积块由卷积层、ReLu激活函数和batchnormal组成,随后使用1×1卷积层将特征图Fcat的输出通道数降低为1得到Fedge,采用加权交叉熵损失函数构建特征图Fedge与边缘真值之间的损失函数Edge_loss1;
然后对主干网络生成的特征图{E1、E2、E3、E4、E5}后各自添加一个卷积块进行特征提取得到特征图{F1、F2、F3、F4、F5},卷积块由卷积层、ReLu激活函数和batchnormal组成;
利用KL散度来对齐上述生成的特征图Fcat与各个阶段得到的特征图{F1、F2、F3、F4、F5},构建得到KL_loss。
3.如权利要求1所述的一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于:步骤三中边缘检测分支的具体处理过程如下;
对于主干网络生成的特征图E5,边缘检测分支首先通过一个卷积块进行特征提取,得到特征图K1,紧接着再使用1×1卷积层将特征图转化为尺寸不同的特征图K2,
其中卷积块由卷积层、ReLu激活函数和batchnormal组成;
利用加权交叉熵损失函数构建K2与边缘真值之间的差异性,得到损失函数Edge_loss2。
4.如权利要求1所述的一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于:步骤四中语义分割分支的具体处理过程如下;
首先利用卷积块对特征图E5进行特征提取,得到特征图S1,随后利用1×1卷积层将特征图S1的通道数降低为N,N表示数据集中的类别数,得到特征图S2;
所述卷积块由卷积层、ReLu激活函数和batchnormal组成;
利用交叉熵损失函数构建S2与语义分割真值之间的损失函数Seg_loss。
5.如权利要求1所述的一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于:步骤五中语义分割分支的具体处理过程如下;
对于语义分割分支中生成的特征图S1和边缘检测分支生成的特征图K1,首先分别通过三个卷积块对特征图进行特征再次提取,分别得到特征图S3和特征图K3,其中卷积块由3×3卷积层、ReLu激活函数和batchnormal组成;
最后利用MSE损失函数衡量S3与K3之间的差异性,将两者对齐并得到特征对齐损失函数FA_loss。
6.如权利要求1所述的一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于:所述边缘信息引导的语义分割模型训练时采用的损失函数如下;
L=Seg_loss+KL_loss+FA_loss+0.3×(Edge_loss1+Edge_loss2)
其中,Seg_loss表示语义分割分支的损失函数,用于衡量语义分割预测值与真值之间的差异性,KL_loss为由KL散度计算得到的损失函数,用于边缘自蒸馏模块与主干网络特征图之间的对齐,FA_loss为特征图对齐损失函数,用于语义分割分支与边缘检测分支之间的特征图对齐,Edge_loss1与Edge_loss2分别为边缘自蒸馏模块与边缘检测分支的损失函数。
7.如权利要求2所述的一种边缘信息引导的敏捷型遥感图像语义分割方法,其特征在于:KL_loss的具体计算形式如下所示:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210021874.XA CN114463340B (zh) | 2022-01-10 | 2022-01-10 | 一种边缘信息引导的敏捷型遥感图像语义分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210021874.XA CN114463340B (zh) | 2022-01-10 | 2022-01-10 | 一种边缘信息引导的敏捷型遥感图像语义分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114463340A CN114463340A (zh) | 2022-05-10 |
CN114463340B true CN114463340B (zh) | 2024-04-26 |
Family
ID=81409230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210021874.XA Active CN114463340B (zh) | 2022-01-10 | 2022-01-10 | 一种边缘信息引导的敏捷型遥感图像语义分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463340B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115019123B (zh) * | 2022-05-20 | 2023-04-18 | 中南大学 | 一种遥感图像场景分类的自蒸馏对比学习方法 |
CN115810020B (zh) * | 2022-12-02 | 2023-06-02 | 中国科学院空间应用工程与技术中心 | 一种基于语义引导的由粗到细的遥感图像分割方法及系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111462126A (zh) * | 2020-04-08 | 2020-07-28 | 武汉大学 | 一种基于边缘增强的语义图像分割方法及系统 |
CN111683250A (zh) * | 2020-05-13 | 2020-09-18 | 武汉大学 | 一种基于深度学习的生成式遥感图像压缩方法 |
CN112634296A (zh) * | 2020-10-12 | 2021-04-09 | 深圳大学 | 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端 |
CN113343789A (zh) * | 2021-05-20 | 2021-09-03 | 武汉大学 | 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法 |
-
2022
- 2022-01-10 CN CN202210021874.XA patent/CN114463340B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111462126A (zh) * | 2020-04-08 | 2020-07-28 | 武汉大学 | 一种基于边缘增强的语义图像分割方法及系统 |
CN111683250A (zh) * | 2020-05-13 | 2020-09-18 | 武汉大学 | 一种基于深度学习的生成式遥感图像压缩方法 |
CN112634296A (zh) * | 2020-10-12 | 2021-04-09 | 深圳大学 | 门机制引导边缘信息蒸馏的rgb-d图像语义分割方法及终端 |
CN113343789A (zh) * | 2021-05-20 | 2021-09-03 | 武汉大学 | 一种基于局部细节增强与边缘约束的高分辨率遥感影像土地覆盖分类方法 |
Non-Patent Citations (1)
Title |
---|
融合ASPP-Attention和上下文的复杂场景语义分割;杨鑫;于重重;王鑫;陈秀新;;计算机仿真;20200915(第09期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN114463340A (zh) | 2022-05-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112287940B (zh) | 一种基于深度学习的注意力机制的语义分割的方法 | |
CN115049936B (zh) | 一种面向高分遥感影像的边界增强型语义分割方法 | |
CN109829443B (zh) | 基于图像增强与3d卷积神经网络的视频行为识别方法 | |
CN113052210B (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
CN111915592B (zh) | 基于深度学习的遥感图像云检测方法 | |
CN111259786B (zh) | 一种基于视频的外观和运动信息同步增强的行人重识别方法 | |
CN115797931A (zh) | 一种基于双分支特征融合的遥感图像语义分割方法 | |
CN112668494A (zh) | 基于多尺度特征提取的小样本变化检测方法 | |
CN109598269A (zh) | 一种基于多分辨率输入与金字塔膨胀卷积的语义分割方法 | |
CN114463340B (zh) | 一种边缘信息引导的敏捷型遥感图像语义分割方法 | |
CN115690479A (zh) | 一种基于卷积Transformer的遥感图像分类方法及系统 | |
CN111460936A (zh) | 基于U-Net网络的遥感影像建筑物提取方法、系统、电子设备 | |
CN113269224B (zh) | 一种场景图像分类方法、系统及存储介质 | |
CN115457498A (zh) | 一种基于双注意力和密集连接的城市道路语义分割方法 | |
CN113192076B (zh) | 联合分类预测和多尺度特征提取的mri脑肿瘤图像分割方法 | |
CN117830788B (zh) | 一种多源信息融合的图像目标检测方法 | |
CN113780132A (zh) | 一种基于卷积神经网络的车道线检测方法 | |
CN116310871A (zh) | 融合空洞空间金字塔池化的内陆水体提取方法 | |
CN114972753A (zh) | 基于上下文信息聚合和辅助学习的轻量级语义分割方法及系统 | |
CN113343861B (zh) | 一种基于神经网络模型的遥感图像水体区域提取方法 | |
CN118015483A (zh) | 一种地学先验知识引导的轻量化遥感图像云检测方法、系统、设备及介质 | |
CN114581789A (zh) | 一种高光谱图像分类方法及系统 | |
CN118015332A (zh) | 一种遥感影像显著性目标检测方法 | |
CN112418229A (zh) | 一种基于深度学习的无人船海上场景图像实时分割方法 | |
Wang et al. | Hierarchical Kernel Interaction Network for Remote Sensing Object Counting |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |