CN112818777A - 一种基于密集连接与特征增强的遥感图像目标检测方法 - Google Patents

一种基于密集连接与特征增强的遥感图像目标检测方法 Download PDF

Info

Publication number
CN112818777A
CN112818777A CN202110079059.4A CN202110079059A CN112818777A CN 112818777 A CN112818777 A CN 112818777A CN 202110079059 A CN202110079059 A CN 202110079059A CN 112818777 A CN112818777 A CN 112818777A
Authority
CN
China
Prior art keywords
module
feature
layer
remote sensing
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110079059.4A
Other languages
English (en)
Other versions
CN112818777B (zh
Inventor
王道累
杜文斌
朱瑞
韩清鹏
袁斌霞
张天宇
孙嘉珺
李明山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Electric Power University
Original Assignee
Shanghai Electric Power University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Electric Power University filed Critical Shanghai Electric Power University
Priority to CN202110079059.4A priority Critical patent/CN112818777B/zh
Publication of CN112818777A publication Critical patent/CN112818777A/zh
Application granted granted Critical
Publication of CN112818777B publication Critical patent/CN112818777B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Evolutionary Biology (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Remote Sensing (AREA)
  • Astronomy & Astrophysics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于密集连接与特征增强的遥感图像目标检测方法,包括以下步骤:建立遥感图像数据集,将遥感图像数据集输入到遥感图像检测模型进行训练,将待检测的遥感图像输入到训练好的遥感图像检测模型中获取目标检测结果,所述的遥感图像检测模型包括特征提取单元、特征增强单元和特征金字塔单元和预测器,所述的遥感图像检测模型的输入图像依次经过特征提取单元、特征增强单元和特征金字塔单元和预测器处理,获取目标检测结果。与现有技术相比,本发明提升网络的特征提取能力,增大输入图像的分辨率,在减小参数的同时保留了低纬度的特征信息,以适应模型对遥感图像目标的检测。

Description

一种基于密集连接与特征增强的遥感图像目标检测方法
技术领域
本发明涉及遥感图像检测领域,尤其是涉及一种基于密集连接与特征增强的遥感图像目标检测方法。
背景技术
随着遥感技术的飞速发展,高分辨率光学遥感图像的出现,遥感图像因其观察面积大、范围广、连续性强、直观效果好、不受国界和地理条件限制等特点受到国内外广泛重视,而针对遥感图像的目标检测技术也成为研究的热点问题。传统的遥感图像检测方法是利用人工设计特征的方式提取特征信息训练分类器,以滑动窗口的方式获取图像区域,最后通过分类器输出预测结果。这种检测方法不仅资源消耗大,检测速度与准确性往往也无法达到实用要求。近年来,随着计算机硬件技术与深度学习的不断发展,基于卷积神经网络的目标检测算法在目标检测领域已经取得了巨大的进步。基于深度学习的目标检测算法在遥感图像检测领域已经成为主流,但是相比于自然图片的检测,遥感图像检测仍有较大的改进空间。在遥感图像检测中主要有以下问题:1)遥感图像的分辨率较低,被检目标的信息少,背景噪声影响较大,使得一般的目标检测算法无法准确的提取原始图像中的特征信息,造成分类和定位困难,检测效果较差;2)遥感图像中的目标尺度普遍较小,且分布密集,尺寸较小的目标在网络学习过程中极易被忽略,导致网络对小目标的学习不足,降低检测的准确性。
根据中国专利CN202010666889.2公开的一种基于深度神经网络的遥感图像地物分类方法,通过使用ResNet101基础网络对输入遥感图像进行多个层次的卷积和池化处理,将不同尺度的特征图加和,最后进行线性上采样恢复至原始图像大小进行检测。首先在基础网络方面ResNet不足以应对遥感图像分辨率低、目标尺度小等问题。其次,现有技术并未对浅层特征图给予足够的关注,导致检测精度下降。
发明内容
本发明的目的就是为了克服上述现有技术存在的缺陷而提供一种基于密集连接与特征增强的遥感图像目标检测方法。
本发明的目的可以通过以下技术方案来实现:
一种基于密集连接与特征增强的遥感图像目标检测方法,包括以下步骤:建立遥感图像数据集,将遥感图像数据集输入到遥感图像检测模型进行训练,将待检测的遥感图像输入到训练好的遥感图像检测模型中获取目标检测结果,
所述的遥感图像检测模型包括特征提取单元、特征增强单元和特征金字塔单元和预测器,所述的遥感图像检测模型的输入图像依次经过特征提取单元、特征增强单元和特征金字塔单元和预测器处理,获取目标检测结果。
优选地,所述的特征提取单元包括依次连接的下采样模块、阀杆模块和三个密集连接块,输入图像经下采样模块、阀杆模块处理后,依次经过三个密集连接块处理,三个密集连接块依次输出第一特征图、第二特征图和第三特征图。
优选地,所述的阀杆模块包括三条支路,其中第一条支路包括最大池化层,第二条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层和ReLu层,第三条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层和ReLu层,最后将三条支路的输出进行通道拼接后输出。
优选地,所述的特征增强单元包括SPP模块和两个特征增强模块,所述的第一特征图、第二特征图分别经特征增强模块处理获取第一增强特征图和第二增强特征图,所述的第三特征图经SPP模块处理获取第三增强特征图,并将第一增强特征图、第二增强特征图、第三增强特征图送入特征金字塔单元。
优选地,所述的特征增强模块包括四条支路,其中第一条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层和批量归一化层,第二条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3空洞卷积层和批量归一化层,第三条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3空洞卷积层、批量归一化层,第四条支路为残差网络结构中的残差支路,对前三条支路的输出进行通道拼接后与第四条支路输出的特征进行相加,得到经过特征增强模块处理的增强特征图。
优选地,所述的特征增强模块的计算公式为:
Qi=Hi[P(Xj)],i=1,2,3
Wi=Ri(Qi)
Zj=δi[H1,H2,H3]+P(Xj)
式中,Xj表示输入的特征图,P表示由1x1的卷积、BN层和relu层组成的非线性操作组合,Hi表示进行i次由3×3、BN层和relu层组成的非线性操作组合,Qi表示i次卷积操作后的特征图,Ri表示空洞卷积,i=1,2,3时空洞卷积的膨胀率分别为1,3,5,δi[.]表示、特征融合操作,Zj表示融合后的新特征图。
优选地,所述的SPP模块包括三条支路,SPP模块中三条支路均包括最大池化层,将SPP模块中三条支路的输出与SPP模块的输入特征进行拼接得到经过SPP模块处理的增强特征图。
优选地,所述的特征金字塔单元包括第一金字塔支路、第二金字塔支路和第三金字塔支路和多个下采样模块,将所述的第一增强特征图、第二增强特征图、第三增强特征图分别输入第一金字塔支路、第二金字塔支路和第三金字塔支路进行处理后输出,构成特征图金字塔。
优选地,所述的第一金字塔支路包括依次连接的第一卷积模块、第二卷积模块,所述的第二金字塔支路包括依次连接的第一融合模块、第一卷积模块、第二融合模块、第一卷积模块和第二卷积模块,所述的第三金字塔支路包括依次连接的第三融合模块、第一卷积模块、第四融合模块和第二卷积模块,
所述的特征金字塔单元还包括第一下采样模块、第二下采样模块、第三下采样模块和第四下采样模块,所述的第一下采样模块对送入第一金字塔支路的第一增强特征图进行下采样并送入第一融合模块,所述的第二下采样模块对第一金字塔支路中第一卷积模块的输出下采样并送入第二融合模块,所述的第三下采样模块对第二金字塔支路中第一个第一卷积模块的输出下采样并送入第三融合模块,所述的第四下采样模块对第二金字塔支路中第二个第一卷积模块的输出下采样并送入第四融合模块。
优选地,将特征图金字塔的三张特征图划分为N×N个单元格送入预测器进行预测,每个单元格输出一套独立的预测值,所述的预测值包括预测框的偏差值tx,ty,tw,th和置信度,将偏差值解码得到预测框的值bx,by,bw,bh,预测框值的计算公式为:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002908522510000041
Figure BDA0002908522510000042
其中,bx、by为预测框的中心点坐标,bw、bh为预测框的宽和高,t为输出的偏差值,cx、cy为单元格左上的坐标,pw、ph为先验框的宽和高,σ(·)为Sigmoid激活函数处理。
优选地,所述的遥感图像检测模型的损失Loss的计算公式为:
Loss=Lossxy+Losswh+Lossconf+Lossclass
其中,Lossxy为中心坐标损失,Losswh为宽高损失,Lossconf为置信度损失,Lossclass为分类损失。
与现有技术相比,本发明具有如下优点:
与现有的技术相比:
(1)本发明的遥感图像检测模型采用改进DenseNet121作为特征提取单元的骨干网络,引入阀杆模块,有效提升网络的特征提取能力,增大输入图像的分辨率,在减小参数的同时保留了低纬度的特征信息,以适应模型对遥感图像目标的检测;
(2)本发明的特征增强单元的特征增强模块通过多支路并行处理来提高特征提取能力,增加特征图的语义信息,在每个支路上使用不同尺寸卷积核的卷积来提取特征信息,并引入空洞卷积丰富感受野,在保证了相同感受野大小的同时也减少了参数量,使网络的训练与推理速度更快,并特征增强手段提高浅层特征图的语义信息,提高网络对小尺度目标的适应能力;
(3)本发明的特征金字塔单元将经特征增强和SPP处理后的特征图进行下采样处理,使特征图的尺寸与更深层的特征相匹配,并进行特征相加,重复两次自上而下的信息流动,得到最终用于检测的三个特征图,减少网络在训练过程中小目标信息的损失,提升网络对小目标信息的敏感度
附图说明
图1为本发明的流程图;
图2为本发明的遥感图像检测模型的结构示意图;
图3为本发明的特征提取单元的结构示意图;
图4为本发明的阀杆模块的结构示意图;
图5为本发明的特征增强模块的结构示意图;
图6为本发明的SPP模块的结构示意图;
图7为本发明的特征金字塔单元的结构示意图。
具体实施方式
下面结合附图和具体实施例对本发明进行详细说明。注意,以下的实施方式的说明只是实质上的例示,本发明并不意在对其适用物或其用途进行限定,且本发明并不限定于以下的实施方式。
实施例
一种基于密集连接与特征增强的遥感图像目标检测方法,包括以下步骤:建立遥感图像数据集,将遥感图像数据集输入到遥感图像检测模型进行训练,将待检测的遥感图像输入到训练好的遥感图像检测模型中获取目标检测结果,
所述的遥感图像检测模型包括特征提取单元、特征增强单元和特征金字塔单元和预测器,所述的遥感图像检测模型的输入图像依次经过特征提取单元、特征增强单元和特征金字塔单元和预测器处理,获取目标检测结果。
对于本发明的特征提取单元,本实施例中基于DenseNet121网络进行改进,特征提取单元的骨干网络(Backbone)采用DenseNet121网络,在其中加入阀杆模块,得到本实施例中的特征提取单元。
具体地,如图3所示,特征提取单元包括依次连接的下采样模块、阀杆模块和三个密集连接块,输入图像经下采样模块、阀杆模块处理后,依次经过三个密集连接块处理,三个密集连接块依次输出第一特征图、第二特征图和第三特征图。
进一步地,本实施例中,如图3所示,Stem Block为阀杆模块,DenseBlock_1、DenseBlock_2、DenseBlock_3分别为三个密集连接块,网络输入大小为448×448,使用下采样倍率为4,8,16的特征图来进行预测,本实施例中下采样模块为一个7×7的卷积层,输入的图像首先经过一个7×7的卷积层进行初步的处理及下采样,再由阀杆模块处理,得到分辨率为112×112的特征图,然后依次经过三个密集连接块得到第一特征图、第二特征图和第三特征图。
密集连接块的结构如图2所示,密集连接结构(Dense Structure)为密集连接块的基础结构,密集连接块中的每一层特征图的输入都来源于前面所有层的叠加,每个层都会接受其前面所有层作为其额外的输入,其计算表达式为:
xl=Hl(δ[x0,x1,...,xl-1])
其中x0表示通过卷积网络传递的单个图像,xl表示第l层的输出,网络共包含l个层,每层执行Hl(.)操作,Hl(.)表示非线性操作组合,包括BN层、ReLu和卷积层,δ[.]表示Concatenation特征融合操作。
如果每个函数Hl产生k个特征映射,那么xl层则具有k0+k×(l-1)个输入特征映射,其中k0是输入层中的通道数。超参数k为网络的增长率,在DenseNet中设k为12。网络中的每层都可以访问其所在区块中的所有先前的特征图,因此可以访问网络的“集体知识”,可以将特征图视为网络的全局状态,每层将自己的k个特征图添加到此状态,增长率调节每一层对网络整体的贡献量。每个密集连接块之间通过过渡层(Transition)连接,过渡层由批量归一化层(BN)、卷积层(Conv,1×1)和平均池化层(AvgPooling)组成,以此实现卷积网络中的下采样操作,改变特征映射的大小。
阀杆模块包括三条支路,其中第一条支路包括最大池化层,第二条支路包括依次连接的1x1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层和ReLu层,第三条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层和ReLu层,最后将三条支路的输出进行通道拼接后输出。
如图4所示,本实施例中,阀杆模块的输入图像通道数为k,第一条支路为最大池化层(MaxPooling,2×2,k),第二条支路为卷积层(Conv,1×1,k/2)→批量归一化层(BatchNormalization,BN)→ReLu层→卷积层(Conv,3×3,k)→批量归一化层(BN)→ReLu层,第三条支路为卷积层(Conv,1×1,k/2)→卷积层(Conv,3×3,k)→卷积层(Conv,3×3,k),最后将三个输出进行通道拼接(Concatenation)。
对于本发明的特征增强单元,本实施例中提取出下采样倍数为4,8,16的特征图用以预测,对浅提取的特征图进行增强处理,通过多支路并行处理来提高特征提取能力,增加特征图的语义信息,在每个支路上使用不同尺寸卷积核的卷积来提取特征信息,并引入空洞卷积丰富感受野,使用两个3×3的卷积级联替换一个5×5的卷积,在保证了相同感受野大小的同时也减少了参数量,使网络的训练与推理速度更快,对深层特征使用SPP(SpatialPyramid Pooling)进行处理。
具体地,如图2、5、6所示,特征增强单元包括SPP模块和两个特征增强模块,所述的第一特征图、第二特征图分别经特征增强模块处理获取第一增强特征图和第二增强特征图,所述的第三特征图经SPP模块处理获取第三增强特征图,并将第一增强特征图、第二增强特征图、第三增强特征图送入特征金字塔单元。
特征增强模块包括四条支路,其中第一条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层和批量归一化层,第二条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3空洞卷积层和批量归一化层,第三条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3空洞卷积层、批量归一化层,第四条支路为残差网络结构中的残差支路,对前三条支路的输出进行通道拼接后与第四条支路输出的特征进行相加,得到经过特征增强模块处理的增强特征图。
具体地,如图5所示,特征增强模块第一条支路为卷积层(Conv,1×1,k/4)→批量归一化层(BN)→ReLu层→卷积层(Conv,3×3,k/4)→批量归一化层(BN),第二条支路为卷积层(Conv,1×1,k/8)→批量归一化层(BN)→ReLu层→卷积层(Conv,3×3,k/4)→批量归一化层(BN)→ReLu层→空洞卷积层(Conv,3×3,k/4,rate=3)→批量归一化层(BN),第三条支路为卷积层(Conv,1×1,k/8)→批量归一化层(BN)→ReLu层→卷积层(Conv,3×3,3×k/2)→批量归一化层(BN)→ReLu层→卷积层(Conv,3×3,k/4)→批量归一化层(BN)→ReLu层→空洞卷积层(Conv,3×3,k/4,rate=5)→批量归一化层(BN)。对这三条支路的输出进行通道拼接操作,即拼接后经过1×1的卷积(Conv,1×1,k)处理和批量归一化层(BN)处理。最后一条支路为残差网络结构中的残差支路(Shortcut Connection),只进行1×1的卷积操作,与通道拼接后的特征,进行相加(Add)得到最终经过特征增强处理的特征图。
进一步地,特征增强模块的计算公式为:
Qi=Hi[P(Xj)],i=1,2,3
Wi=Ri(Qi)
Zj=δi[H1,H2,H3]+P(Xj)
式中,Xj表示输入的特征图,P表示由1x1的卷积、BN层和relu层组成的非线性操作组合,Hi表示进行i次由3×3、BN层和relu层组成的非线性操作组合,Qi表示i次卷积操作后的特征图,Ri表示空洞卷积,i=1,2,3时空洞卷积的膨胀率分别为1,3,5,δi[.]表示、特征融合操作,Zj表示融合后的新特征图。
SPP模块包括三条支路,SPP模块中三条支路均包括最大池化层,将SPP模块中三条支路的输出与SPP模块的输入特征进行拼接得到经过SPP模块处理的增强特征图。
具体地,如图6所示,SPP模块的第一条支路为最大池化层(MaxPooling,13×13,k),第一条支路为最大池化层(MaxPooling,9×9,k),第一条支路为最大池化层(MaxPooling,5×5,k)。
对于本发明的特征金字塔单元使用重复的自上而下((Double Bottom-up path)的特征金字塔结构,将经特征增强和SPP处理后的特征图进行下采样处理,使特征图的尺寸与更深层的特征相匹配,并进行特征相加,重复两次自上而下的信息流动,得到最终用于检测的三个特征图。
特征金字塔单元包括第一金字塔支路、第二金字塔支路和第三金字塔支路和多个下采样模块,所述的第一增强特征图、第二增强特征图、第三增强特征图分别输入第一金字塔支路、第二金字塔支路和第三金字塔支路进行处理后输出,构成特征图金字塔(FinalFeature Pyramid)。
本实施例中,如图7所示,第一金字塔支路包括依次连接的第一卷积模块、第二卷积模块,所述的第二金字塔支路包括依次连接的第一融合模块、第一卷积模块、第二融合模块、第一卷积模块和第二卷积模块,所述的第三金字塔支路包括依次连接的第三融合模块、第一卷积模块、第四融合模块和第二卷积模块,
所述的特征金字塔单元还包括第一下采样模块、第二下采样模块、第三下采样模块和第四下采样模块,所述的第一下采样模块对送入第一金字塔支路的第一增强特征图进行下采样并送入第一融合模块,所述的第二下采样模块对第一金字塔支路中第一卷积模块的输出下采样并送入第二融合模块,所述的第三下采样模块对第二金字塔支路中第一个第一卷积模块的输出下采样并送入第三融合模块,所述的第四下采样模块对第二金字塔支路中第二个第一卷积模块的输出下采样并送入第四融合模块。
如图7所示,第一卷积模块包括五个卷积层,卷积核分别为1、3、1、3、1,第二卷积模块包括两个卷积层,卷积核分别为3、1。
将特征金字塔的三张特征图划分为N×N个单元格送入预测器进行预测,每个单元格输出一套独立的预测值,所述的预测值包括预测框的偏差值tx,ty,tw,th和置信度,将偏差值解码得到预测框的值bx,by,bw,bh,预测框值的计算公式为:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure BDA0002908522510000091
Figure BDA0002908522510000092
其中,bx、by为预测框的中心点坐标,bw、bh为预测框的宽和高,t为输出的偏差值,cx、cy为单元格左上的坐标,pw、ph为先验框的宽和高,σ(·)为Sigmoid激活函数处理。
预测框的置信度计算公式如下:
Pr(object)*IOU(b,object)=σ(to)
式中σ(to)为边界框置信度,Pr(object)为单元格中包含物体的概率值,若待检目标的中点落在单元格内,则Pr(object)为1,否则为0,IOU(b,object)为模型输出的预测框与真实框的交并比,。通过非极大抑制筛选掉重复度较大的框,最终得到最佳的预测边界框。
本发明中,遥感图像检测模型的损失Loss的计算公式为:
Loss=Lossxy+Losswh+Lossconf+Lossclass
其中,Lossxy为中心坐标损失,Losswh为宽高损失,Lossconf为置信度损失,Lossclass为分类损失。
本发明具体实施时,包括以下步骤:
步骤一:建立数据集。本实施例中所用数据来自RSOD和NWPU NHR-10数据集,针对原始图像进行筛选,剔除了质量较差的图片,并对标注信息进行核验,对错标、漏标的样本进行重新标注,最终得到的数据集包括不同场景下的图片共计1627张,其中训练集1301张,验证集163张,测试集163张,检测目标包括飞机、船舶、储油罐、棒球场、网球场、篮球场、田径场、海港、桥梁和车辆,图片分辨率为600~1000×600~1000。
步骤二:将遥感图像数据集输入到遥感图像检测模型进行训练。本实施例中,实验平台使用的操作系统:Ubuntu16.04;使用的NVIDIA Tesla T4(16G显存);使用的编程语言:python;使用的深度学习框架:Tensorflow。数据增强采用随机裁剪、随机旋转及缩放等操作,初始学习率设置为0.001,学习率的衰减设置为若网络训练的Loss值10个世代不下降学习率便减小10倍,采用随机梯度下降法对总损失函数进行优化训练,训练批次设置为4。
步骤三:将待检测的遥感图像输入到训练好的遥感图像检测模型中获取目标检测结果。
对于本该实施例,可对本发明的遥感图像检测模型进行性能评估,本实施例中使用的评价指标为平均准确率(MAP),通过衡量预测标签框与真实标签框的交并比(IOU)得到每个类别的精确度(Precision)和召回率(Recall),由精确度和召回率所绘制的曲线面积即为准确率均值(AP),多个类别的AP平均值即为平均准确率,其计算可表示为:
Figure BDA0002908522510000101
式中n为类别总数,p表示精准度(Precision),r表示召回率(Recall)。
将使用本发明算法、原始YOLOv3算法、原始DenseNet主干网络的YOLOv3算法、SSD算法、RetinaNet算法以及Faster R-CNN算法得到的结果进行客观比较,结果如表1所示,本文提出的目标检测算法的平均准确率高于其他算法,达到了71.47%,相比于YOLOv3算法提高了6.36%,尤其在小尺度目标检测上,提升了10.98%,并且参数量也小于YOLOv3算法,结果见下表:
表1实验结果对比表
Figure BDA0002908522510000102
上述实施方式仅为例举,不表示对本发明范围的限定。这些实施方式还能以其它各种方式来实施,且能在不脱离本发明技术思想的范围内作各种省略、置换、变更。

Claims (10)

1.一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,包括以下步骤:建立遥感图像数据集,将遥感图像数据集输入到遥感图像检测模型进行训练,将待检测的遥感图像输入到训练好的遥感图像检测模型中获取目标检测结果,
所述的遥感图像检测模型包括特征提取单元、特征增强单元和特征金字塔单元和预测器,所述的遥感图像检测模型的输入图像依次经过特征提取单元、特征增强单元和特征金字塔单元和预测器处理,获取目标检测结果。
2.根据权利要求1所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的特征提取单元包括依次连接的下采样模块、阀杆模块和三个密集连接块,输入图像经下采样模块、阀杆模块处理后,依次经过三个密集连接块处理,三个密集连接块依次输出第一特征图、第二特征图和第三特征图。
3.根据权利要求2所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的阀杆模块包括三条支路,其中第一条支路包括最大池化层,第二条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层和ReLu层,第三条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层和ReLu层,最后将三条支路的输出进行通道拼接后输出。
4.根据权利要求2所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的特征增强单元包括SPP模块和两个特征增强模块,所述的第一特征图、第二特征图分别经特征增强模块处理获取第一增强特征图和第二增强特征图,所述的第三特征图经SPP模块处理获取第三增强特征图,并将第一增强特征图、第二增强特征图、第三增强特征图送入特征金字塔单元。
5.根据权利要求4所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的特征增强模块包括四条支路,其中第一条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层和批量归一化层,第二条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3空洞卷积层和批量归一化层,第三条支路包括依次连接的1×1卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3卷积层、批量归一化层、ReLu层、3×3空洞卷积层、批量归一化层,第四条支路为残差网络结构中的残差支路,对前三条支路的输出进行通道拼接后与第四条支路输出的特征进行相加,得到经过特征增强模块处理的增强特征图。
6.根据权利要求5所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的特征增强模块的计算公式为:
Qi=Hi[P(Xj)],i=1,2,3
Wi=Ri(Qi)
Zj=δi[H1,H2,H3]+P(Xj)
式中,Xj表示输入的特征图,P表示由1x1的卷积、BN层和relu层组成的非线性操作组合,Hi表示进行i次由3×3、BN层和relu层组成的非线性操作组合,Qi表示i次卷积操作后的特征图,Ri表示空洞卷积,i=1,2,3时空洞卷积的膨胀率分别为1,3,5,δi[.]表示、特征融合操作,Zj表示融合后的新特征图。
7.根据权利要求4所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的SPP模块包括三条支路,SPP模块中三条支路均包括最大池化层,将SPP模块中三条支路的输出与SPP模块的输入特征进行拼接得到经过SPP模块处理的增强特征图。
8.根据权利要求4所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的特征金字塔单元包括第一金字塔支路、第二金字塔支路和第三金字塔支路和多个下采样模块,将所述的第一增强特征图、第二增强特征图、第三增强特征图分别输入第一金字塔支路、第二金字塔支路和第三金字塔支路进行处理后输出,构成特征图金字塔。
9.根据权利要求8所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,所述的第一金字塔支路包括依次连接的第一卷积模块、第二卷积模块,所述的第二金字塔支路包括依次连接的第一融合模块、第一卷积模块、第二融合模块、第一卷积模块和第二卷积模块,所述的第三金字塔支路包括依次连接的第三融合模块、第一卷积模块、第四融合模块和第二卷积模块,
所述的特征金字塔单元还包括第一下采样模块、第二下采样模块、第三下采样模块和第四下采样模块,所述的第一下采样模块对送入第一金字塔支路的第一增强特征图进行下采样并送入第一融合模块,所述的第二下采样模块对第一金字塔支路中第一卷积模块的输出下采样并送入第二融合模块,所述的第三下采样模块对第二金字塔支路中第一个第一卷积模块的输出下采样并送入第三融合模块,所述的第四下采样模块对第二金字塔支路中第二个第一卷积模块的输出下采样并送入第四融合模块。
10.根据权利要求8所述的一种基于密集连接与特征增强的遥感图像目标检测方法,其特征在于,将特征图金字塔的三张特征图划分为N×N个单元格送入预测器进行预测,每个单元格输出一套独立的预测值,所述的预测值包括预测框的偏差值tx,ty,tw,th和置信度,将偏差值解码得到预测框的值bx,by,bw,bh,预测框值的计算公式为:
bx=σ(tx)+cx
by=σ(ty)+cy
Figure FDA0002908522500000031
Figure FDA0002908522500000032
其中,bx、by为预测框的中心点坐标,bw、bh为预测框的宽和高,t为输出的偏差值,cx、cy为单元格左上的坐标,pw、ph为先验框的宽和高,σ(·)为Sigmoid激活函数处理。
CN202110079059.4A 2021-01-21 2021-01-21 一种基于密集连接与特征增强的遥感图像目标检测方法 Active CN112818777B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110079059.4A CN112818777B (zh) 2021-01-21 2021-01-21 一种基于密集连接与特征增强的遥感图像目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110079059.4A CN112818777B (zh) 2021-01-21 2021-01-21 一种基于密集连接与特征增强的遥感图像目标检测方法

Publications (2)

Publication Number Publication Date
CN112818777A true CN112818777A (zh) 2021-05-18
CN112818777B CN112818777B (zh) 2022-10-18

Family

ID=75858909

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110079059.4A Active CN112818777B (zh) 2021-01-21 2021-01-21 一种基于密集连接与特征增强的遥感图像目标检测方法

Country Status (1)

Country Link
CN (1) CN112818777B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537070A (zh) * 2021-07-19 2021-10-22 中国第一汽车股份有限公司 一种检测方法、装置、电子设备及存储介质
CN113536986A (zh) * 2021-06-29 2021-10-22 南京逸智网络空间技术创新研究院有限公司 一种基于代表特征的遥感图像中的密集目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084124A (zh) * 2019-03-28 2019-08-02 北京大学 基于特征金字塔网络的特征增强目标检测方法
CN110232316A (zh) * 2019-05-05 2019-09-13 杭州电子科技大学 一种基于改进的dsod模型的车辆检测与识别方法
CN110796037A (zh) * 2019-10-15 2020-02-14 武汉大学 基于轻量级感受野金字塔的星载光学遥感图像舰船目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110084124A (zh) * 2019-03-28 2019-08-02 北京大学 基于特征金字塔网络的特征增强目标检测方法
CN110232316A (zh) * 2019-05-05 2019-09-13 杭州电子科技大学 一种基于改进的dsod模型的车辆检测与识别方法
CN110796037A (zh) * 2019-10-15 2020-02-14 武汉大学 基于轻量级感受野金字塔的星载光学遥感图像舰船目标检测方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PING-YANG CHEN 等: "DRONE-BASED VEHICLE FLOW ESTIMATION AND ITS APPLICATION TO TRAFFIC CONFLICT HOTSPOT DETECTION AT INTERSECTIONS", 《IEEE》, 30 September 2020 (2020-09-30), pages 1 - 3 *
李成跃等: "基于改进 YOLO 轻量化网络的目标检测方法", 《激光与光电子学进展》, 31 July 2020 (2020-07-31), pages 3 *
苏娟等: "用于SAR图像小目标舰船检测的改进SSD算法", 《系统工程与电子技术》, no. 05, 30 May 2020 (2020-05-30), pages 4 - 6 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113536986A (zh) * 2021-06-29 2021-10-22 南京逸智网络空间技术创新研究院有限公司 一种基于代表特征的遥感图像中的密集目标检测方法
WO2023273337A1 (zh) * 2021-06-29 2023-01-05 南京逸智网络空间技术创新研究院有限公司 一种基于代表特征的遥感图像中的密集目标检测方法
CN113537070A (zh) * 2021-07-19 2021-10-22 中国第一汽车股份有限公司 一种检测方法、装置、电子设备及存储介质
CN113537070B (zh) * 2021-07-19 2022-11-22 中国第一汽车股份有限公司 一种检测方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112818777B (zh) 2022-10-18

Similar Documents

Publication Publication Date Title
JP6866495B2 (ja) 画像品質の評価方法及び画像品質の評価システム
CN111126202B (zh) 基于空洞特征金字塔网络的光学遥感图像目标检测方法
CN111127493A (zh) 基于注意力多尺度特征融合的遥感图像语义分割方法
CN110533631A (zh) 基于金字塔池化孪生网络的sar图像变化检测方法
CN112766087A (zh) 一种基于知识蒸馏的光学遥感图像舰船检测方法
CN108334847A (zh) 一种真实场景下的基于深度学习的人脸识别方法
CN109784283A (zh) 基于场景识别任务下的遥感图像目标提取方法
CN112381097A (zh) 一种基于深度学习的场景语义分割方法
CN109165660A (zh) 一种基于卷积神经网络的显著物体检测方法
CN107832835A (zh) 一种卷积神经网络的轻量化方法及装置
CN114419449B (zh) 一种自注意力多尺度特征融合的遥感图像语义分割方法
CN112818777B (zh) 一种基于密集连接与特征增强的遥感图像目标检测方法
CN106339753A (zh) 一种有效提升卷积神经网络稳健性的方法
CN110287806A (zh) 一种基于改进ssd网络的交通标志识别方法
CN111462230A (zh) 一种基于深度强化学习的台风中心定位方法
CN106991666A (zh) 一种适用于多尺寸图片信息的病害图像识别方法
CN112950780B (zh) 一种基于遥感影像的网络地图智能生成方法及系统
CN113160246A (zh) 一种基于深度监督的图像语义分割方法
CN110555841A (zh) 基于自注意图像融合和dec的sar图像变化检测方法
CN111161224A (zh) 基于深度学习的铸件内部缺陷分级评估系统及方法
CN112257793A (zh) 一种基于改进YOLO v3算法的远距离交通标志检测方法
CN112270366B (zh) 基于自适应多特征融合的微小目标检测方法
CN114511710A (zh) 一种基于卷积神经网络的图像目标检测方法
CN113989261A (zh) 基于Unet改进的无人机视角下红外图像光伏板边界分割方法
CN112507904A (zh) 一种基于多尺度特征的教室人体姿态实时检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant