CN112215207A - 联合多尺度和注意力机制的遥感影像飞机目标检测方法 - Google Patents

联合多尺度和注意力机制的遥感影像飞机目标检测方法 Download PDF

Info

Publication number
CN112215207A
CN112215207A CN202011244376.9A CN202011244376A CN112215207A CN 112215207 A CN112215207 A CN 112215207A CN 202011244376 A CN202011244376 A CN 202011244376A CN 112215207 A CN112215207 A CN 112215207A
Authority
CN
China
Prior art keywords
feature map
network
detection
new
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011244376.9A
Other languages
English (en)
Inventor
江刚武
徐佰祺
刘建辉
王鑫
余培东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Information Engineering University of PLA Strategic Support Force
Original Assignee
Information Engineering University of PLA Strategic Support Force
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Information Engineering University of PLA Strategic Support Force filed Critical Information Engineering University of PLA Strategic Support Force
Priority to CN202011244376.9A priority Critical patent/CN112215207A/zh
Publication of CN112215207A publication Critical patent/CN112215207A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种改进YOLO V4网络及联合多尺度和注意力机制的遥感影像飞机目标检测方法。该改进YOLO V4网络采用原有主干网络输出的104×104特征图,作为第一检测尺度;将所述104×104特征图进行2倍下采样与原有FPN网络输出的52×52特征图融合得到新的52×52特征图,作为第二检测尺度;将新的52×52特征图进行2倍下采样与原有FPN网络输出的26×26特征图融合得到新的26×26特征图,作为第三检测尺度;将新的26×26特征图进行2倍下采样与原有FPN网络输出的13×13特征图融合得到新的13×13特征图,作为第四检测尺度;改进YOLO V4网络还包括7‑convs模块,用于对融合后的特征图执行7次卷积。本发明通过融合更多尺度的特征信息,增加注意力机制,对网络进行改进,提高其检测遥感影像飞机目标的性能。

Description

联合多尺度和注意力机制的遥感影像飞机目标检测方法
技术领域
本发明涉及飞机目标检测技术领域,尤其涉及一种联合多尺度和注意力机制的遥感影像飞机目标检测方法。
背景技术
随着科学技术的迅速发展,遥感技术越来越成熟,在民用和军事领域得到了广泛的应用。其中,遥感影像飞机目标检测是遥感技术应用的重要研究方向之一。飞机是重要的民用和军事地物目标,在目标判读、交通安全和应急救援等方面具有重要的应用价值。但遥感影像中的飞机目标尺寸较小,并且排列密集,传统的目标检测技术难以满足快速、高精度的需求。
近年来,基于深度学习的方法广泛应用于遥感影像飞机目标检测。相比于传统的检测方法,基于深度学习的方法具有检测精度高、检测速度快的优点。其中,应用较广泛的是基于卷积神经网络(Convolution Neural Network,CNN)的目标检测算法。基于CNN的目标检测算法可以提取目标深层次的特征信息,泛化能力更好。目前,基于CNN的目标检测算法主要有两类,一类是基于候选区域的双阶段(two-stage)算法,另一类是基于回归的单阶段(one-stage)算法。双阶段算法首先通过选择搜索(Selective Search)或区域推荐网络(Region Proposal Network,RPN)获取候选区域,然后利用卷积神经网络实现目标分类和位置修正,如R-CNN,Fast R-CNN,Faster R-CNN。单阶段算法直接利用卷积神经网络实现目标的分类和位置回归,如SSD,YOLO,YOLO V3,YOLO V4(参考Alexey Bochkovskiy,Chien-Yao Wang,Hong-Yuan Mark Liao.YOLOv4:Optimal Speed and Accuracy of ObjectDetection[J].arXiv:2004.10934,2020)。YOLO V4是在YOLO V3的基础上,对输入端、主干(BackBone)网络、连接(Neck)层、检测网络四个部分进行了改进,在COCO数据集上测试的AP值提升了10%。为更好的融合提取特征,YOLO V4在Neck部分融合了特征金字塔(FeaturePyramid Network,FPN),使用串联(concat)操作对不同尺度特征图进行融合。
虽然YOLO V4的检测性能得到很大提升,但在检测遥感影像飞机目标时仍有改进的空间。首先是遥感影像中的飞机目标尺寸小,且排列密集,直接使用YOLO V4算法会造成飞机特征信息丢失。其次是concat操作只是在通道维度上对特征图进行融合,得到的特征信息不能准确得描述目标。
发明内容
针对采用现有YOLO V4算法进行遥感影像飞机目标检测所存在的飞机特征信息丢失、融合后的特征信息不能准确描述目标的问题,本发明提供一种联合多尺度和注意力机制的遥感影像飞机目标检测方法,通过融合更多尺度的特征信息,增加注意力机制,对网络进行改进,提高其检测遥感影像飞机目标的性能。
第一方面,本发明提供一种改进YOLO V4网络,用于遥感影像飞机目标检测,所述改进YOLO V4网络采用原有主干网络输出的104×104特征图,作为第一检测尺度;将所述104×104特征图进行2倍下采样与原有FPN网络输出的52×52特征图融合得到新的52×52特征图,作为第二检测尺度;将新的52×52特征图进行2倍下采样与原有FPN网络输出的26×26特征图融合得到新的26×26特征图,作为第三检测尺度;将新的26×26特征图进行2倍下采样与原有FPN网络输出的13×13特征图融合得到新的13×13特征图,作为第四检测尺度;
其中,所述改进YOLO V4网络还包括7-convs模块,所述7-convs模块用于对融合后的特征图执行7次卷积。
进一步地,还包括SE Block,所述SE Block用于在特征融合时,在通道维度上为每个像素分配权重。
进一步地,所述7-convs模块包括自底向上的conv 1*1层、conv 3*3层、conv 1*1层、conv 3*3层、conv 1*1层、conv 3*3层和conv 1*1层。
第二方面,本发明提供一种基于上述改进YOLO V4网络的联合多尺度和注意力机制的遥感影像飞机目标检测方法,包括:
步骤1:获取输入图像的4种检测尺度的特征图,所述4种检测尺度分别为第一检测尺度、第二检测尺度、第三检测尺度和第四检测尺度;
步骤2:将所述4种检测尺度的特征图分别进行7次卷积,然后将卷积后的特征图分别输入至对应的SE Block,得到融合后的特征图。
本发明的有益效果:
本发明以YOLO V4为基础,设计了适合联合多尺度和注意力机制的M-YOLO V4网络及方法,用于遥感影像飞机目标检测,将骨干网络输出的104×104特征图输入到FPN层,扩大尺度融合的范围,使特征图能更好的反映飞机目标特征,并将融合后特征图的卷积层数增加到7层,使得特征融合更充分。在特征融合时引入注意力机制,使得特征图在通道维度上能更好的体现特征的重要性和相关性;实验结果表明,与YOLO V4相比,M-YOLO V4算法的平均精度提高了1.63%,具有更高的检测精度,对遥感影像飞机目标的检测效果更好。
附图说明
图1为现有技术提供的YOLO V4网络的FPN网络结构;
图2为本发明实施例提供的改进YOLO V4网络的FPN网络结构;
图3为本发明实施例提供的改进YOLO V4网络结构;
图4为本发明实施例提供的SE Block结构;
图5为本发明实施例提供的飞机目标遥感影像数据的部分样本;
图6为本发明实施例提供的采用原有YOLO V4算法和本发明算法的检测结果;
图7为本发明实施例提供的采用原有YOLO V4算法和本发明算法的PR曲线。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图2所示,本发明实施例提供一种改进YOLO V4网络(本发明中称为M-YOLO V4网络),用于遥感影像飞机目标检测,所述改进YOLO V4网络采用原有主干网络输出的104×104特征图,作为第一检测尺度;将所述104×104特征图进行2倍下采样与原有FPN网络(多尺度特征融合网络)输出的52×52特征图融合得到新的52×52特征图,作为第二检测尺度;将新的52×52特征图进行2倍下采样与原有FPN网络输出的26×26特征图融合得到新的26×26特征图,作为第三检测尺度;将新的26×26特征图进行2倍下采样与原有FPN网络输出的13×13特征图融合得到新的13×13特征图,作为第四检测尺度;其中,所述改进YOLO V4网络还包括7-convs模块,所述7-convs模块用于对融合后的特征图执行7次卷积。
具体地,如图1所示,为原有YOLO V4网络的FPN网络结构。原有FPN网络通过横向连接和上采样的方式,将深层的特征信息自顶向下的传递给低层,进行特征融合。YOLO V4将FPN融合后得到的52×52的特征图,作为第一个检测尺度。然后将其进行2倍下采样与FPN输出的26×26的特征图进行融合,得到新的特征图,作为第二个检测尺度。最后将新的26×26的特征图进行2倍下采样,与FPN输出的13×13的特征图进行融合,得到新的13×13特征图,作为第三个检测尺度。在卷积过程中,所提取的特征逐渐抽象,对于目标的位置信息损失较大,一些小目标的特征信息在卷积过程中容易丢失,当飞机目标尺寸小于13×13时,可能会造成网络的漏检。本发明实施例考虑到在基于CNN的目标检测网络中,高层特征图的尺度小感受野大,包含的特征信息更多,但学习到的小目标特征信息较少;低层特征图的尺度大感受野小,包含的小目标特征信息多,但缺乏整体的语义信息的情况,通过在原有FPN网络的基础上,首先采用原有主干网络输出的104×104特征图,然后将其2倍下采样与52×52特征图融合,可以为目标检测提供更多的位置信息和小目标信息。
同时,本发明实施例提供的7-convs模块可以对融合后的特征图卷积由原来的5次增加至7次,从而可以更充分地融合提取各尺度特征信息。
作为一种可实施方式,所述7-convs模块包括自底向上的conv 1*1层、conv 3*3层、conv 1*1层、conv 3*3层、conv 1*1层、conv 3*3层和conv 1*1层。
实施例2
一般情况下,CNN提取的特征图包含丰富的目标特征信息,同时还有大量的背景信息,会降低检测性能。原有YOLO V4网络使用concat操作对不同尺度的特征图进行融合,但concat操作只是简单的在通道维度上进行连接,不能反映不同特征的重要性和关联性,融合后的特征图不能准确的描述目标。
因此,在上述实施例的基础上,如图3所示,本发明实施例提供的改进YOLO V4网络还包括注意力机制模块,该注意力机制模块采用SENet中的Squeeze-and-ExcitationBlock(简称SE Block);所述SE Block用于在特征融合时,在通道维度上为每个像素分配权重。
具体地,SE Block包括Squeeze、Excitation和Reweight三个部分,如图4所示。Squeeze部分作用是扩大特征图的感受野,使其能够反映全局。首先通过全局池化,得到维度为C×1×1的特征图,然后用全连接层进行降维。对降维后的特征图使用Relu函数进行非线性激活。Excitation部分使用Sigmoid激活函数将特征图中各像素的权重归一化。Reweight部分将输入的特征图与Excitation部分计算的权值相乘,得到各通道特征的权重。
本发明实施例通过在特征图融合后增加注意力机制,可以得到更准确的特征图。
本发明提供的改进YOLO V4网络,以YOLO V4为基础,设计了适合联合多尺度和注意力机制的M-YOLO V4网络,用于遥感影像飞机目标检测,将骨干网络输出的104×104特征图输入到FPN层,扩大尺度融合的范围,使特征图能更好的反映飞机目标特征,并将融合后特征图的卷积层数增加到7层,使得特征融合更充分。在特征融合时引入注意力机制,使得特征图在通道维度上能更好的体现特征的重要性和相关性。
实施例3
基于上述各实施例中的改进YOLO V4网络,本发明实施例提供一种联合多尺度和注意力机制的遥感影像飞机目标检测方法,包括:
S101:获取输入图像的4种检测尺度的特征图,所述4种检测尺度分别为第一检测尺度、第二检测尺度、第三检测尺度和第四检测尺度;
S102:将所述4种检测尺度的特征图分别进行7次卷积,然后将卷积后的特征图分别输入至对应的SE Block,得到融合后的特征图。
本发明提供的联合多尺度和注意力机制的遥感影像飞机目标检测方法,以YOLOV4算法为基础,设计了适合联合多尺度和注意力机制的M-YOLO V4算法,用于遥感影像飞机目标检测,将骨干网络输出的104×104特征图输入到FPN层,扩大尺度融合的范围,使特征图能更好的反映飞机目标特征,并将融合后特征图的卷积层数增加到7层,使得特征融合更充分。在特征融合时引入注意力机制,使得特征图在通道维度上能更好的体现特征的重要性和相关性。
为了验证本发明提供的改进YOLO V4网络和基于改进YOLO V4网络的联合多尺度和注意力机制的遥感影像飞机目标检测方法的有效性,本发明还提供有下述实验。
(一)实验数据与实验环境
本发明使用的飞机目标遥感影像数据来自武汉大学的RSOD-Dataset(Xiao Z,LiuQ,Tang G,et al.Elliptic Fourier transformation-based histograms of orientedgradients for rotationally invariant object detection in remote-sensingimages[J].International Journal of Remote Sensing,2015,36(2):618-644),共446张图片,包含4993个实例,部分数据样本如图5所示。从图5(a)、(b)中可以看出遥感影像中飞机目标尺寸小且排列密集。图5(c)反映出拍摄时光照、气候等环境因素对遥感影像的影响。实验时,随机选取数据集中80%的图片(355张)作为训练集,20%的图片(90张)作为测试集。
实验使用Windows 10操作系统、Intel酷睿i7处理器,显卡为NVIDIA GeForce RTX2070,软件环境为Pycharm,Python3.6,深度学习框架为TensorFlow+Keras。
(二)实验设置与评价指标
使用本发明设计的M-YOLO V4网络结构对数据进行训练。首先冻结模型的前249层进行训练,每批次训练样本(batch size)设置为8,训练迭代(epoch)25次,学习率设置为0.0001。然后解冻模型训练,batch size减小为2,epoch为25,学习率减小为0.00001。
基于深度学习的目标检测与识别一般通过计算模型在测试集中的平均精准度(AP)来评价单一类别目标的检测效果。AP是从准确率(Precision)和召回率(Recall)两个角度来衡量检测算法的准确性,是评价模型准确性的直观评价标准,AP值越大,说明该模型的检测效果越好。用P和R表示准确率和召回率,公式如下:
Figure BDA0002769499820000061
Figure BDA0002769499820000062
其中,TP为实际为目标且被正确识别为的个数;FP为实际为非目标但被识别为目标的个数;FN为实际为目标但被识别为非目标的个数;TN为实际为非目标但被识别为目标的个数。
(三)实验结果与分析
将M-YOLO V4算法与YOOLO V4算法在选择的数据集上进行训练测试,部分检测结果如图6所示。遥感影像中飞机目标尺寸较小,并且受遥感影像成像时光照、气候等因素的影响,YOLO V4算法在检测时会出现漏检、误检情况,如图6(a)(b)(c)所示。本发明设计的M-YOLO V4算法在检测时有所改善,如图6(d)(e)(f)。在图6(d)中,可以检测出影像中不完整的飞机目标,漏检数量减少了2个,但误检数量增加了1个。在图6(e)中,在飞机排列密集的情况下,漏检数量减少了8个。在图6(f)中,消除了误检目标。
基于M-YOLO V4目标检测算法与YOLO V4在实验数据集上的对比结果如图7和表1所示。PR曲线中横轴为R,纵轴为P,曲线与两坐标轴围成的面积为AP值。从图7中可以看出,M-YOLO V4算法较YOLO V4算法AP值提高了1.63%。测试集90张图片中共包含1001个飞机目标,YOLO V4算法检测结果的TP值为836,FP值为303。M-YOLO V4算法检测结果的TP值为852,FP值为285。改进后的M-YOLO V4算法检测正确目标的数量提高了,检测错误目标的数量减少了。可以看出在检测遥感影像飞机目标时,M-YOLO V4算法性能较YOLO V4算法有所提升。
表1M-YOLO V4算法与YOLO V4算法性能对比
TP FP AP
YOLO V4 836 303 82.32%
M-YOLO V4 852 285 83.95%
本发明提出的联合多尺度和注意力机制的遥感影像飞机目标检测算法,以YOLOV4为基础,该算法扩大了FPN层的特征尺度融合范围,增强对低层特征的提取,并引入注意力机制,为不同尺度的特征赋予权值,在通道维度上反映了特征间的相关性和重要性。在RSOD-Dataset数据集上与YOLO V4算法进行了对比实验。实验结果表明,与YOLO V4相比,M-YOLO V4算法的平均精度提高了1.63%,具有更高的检测精度,对遥感影像飞机目标的检测效果更好。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。

Claims (4)

1.一种改进YOLO V4网络,用于遥感影像飞机目标检测,其特征在于,所述改进YOLO V4网络采用原有主干网络输出的104×104特征图,作为第一检测尺度;将所述104×104特征图进行2倍下采样与原有FPN网络输出的52×52特征图融合得到新的52×52特征图,作为第二检测尺度;将新的52×52特征图进行2倍下采样与原有FPN网络输出的26×26特征图融合得到新的26×26特征图,作为第三检测尺度;将新的26×26特征图进行2倍下采样与原有FPN网络输出的13×13特征图融合得到新的13×13特征图,作为第四检测尺度;
其中,所述改进YOLO V4网络还包括7-convs模块,所述7-convs模块用于对融合后的特征图执行7次卷积。
2.根据权利要求1所述的一种改进YOLO V4网络,其特征在于,还包括SE Block,所述SEBlock用于在特征融合时,在通道维度上为每个像素分配权重。
3.根据权利要求2所述的一种改进YOLO V4网络,其特征在于,所述7-convs模块包括自底向上的conv 1*1层、conv 3*3层、conv 1*1层、conv 3*3层、conv 1*1层、conv 3*3层和conv 1*1层。
4.基于权利要求1至3任一所述的改进YOLO V4网络的联合多尺度和注意力机制的遥感影像飞机目标检测方法,其特征在于,包括:
步骤1:获取输入图像的4种检测尺度的特征图,所述4种检测尺度分别为第一检测尺度、第二检测尺度、第三检测尺度和第四检测尺度;
步骤2:将所述4种检测尺度的特征图分别进行7次卷积,然后将卷积后的特征图分别输入至对应的SE Block,得到融合后的特征图。
CN202011244376.9A 2020-11-10 2020-11-10 联合多尺度和注意力机制的遥感影像飞机目标检测方法 Pending CN112215207A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011244376.9A CN112215207A (zh) 2020-11-10 2020-11-10 联合多尺度和注意力机制的遥感影像飞机目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011244376.9A CN112215207A (zh) 2020-11-10 2020-11-10 联合多尺度和注意力机制的遥感影像飞机目标检测方法

Publications (1)

Publication Number Publication Date
CN112215207A true CN112215207A (zh) 2021-01-12

Family

ID=74056666

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011244376.9A Pending CN112215207A (zh) 2020-11-10 2020-11-10 联合多尺度和注意力机制的遥感影像飞机目标检测方法

Country Status (1)

Country Link
CN (1) CN112215207A (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112733821A (zh) * 2021-03-31 2021-04-30 成都西交智汇大数据科技有限公司 一种融合轻量级注意力模型的目标检测方法
CN112990317A (zh) * 2021-03-18 2021-06-18 中国科学院长春光学精密机械与物理研究所 一种弱小目标检测方法
CN112990325A (zh) * 2021-03-24 2021-06-18 南通大学 一种面向嵌入式实时视觉目标检测的轻型网络构建方法
CN113052187A (zh) * 2021-03-23 2021-06-29 电子科技大学 一种基于多尺度特征融合的全局特征对齐目标检测方法
CN113065511A (zh) * 2021-04-21 2021-07-02 河南大学 基于深度学习的遥感图像飞机检测模型及方法
CN113283475A (zh) * 2021-04-27 2021-08-20 南方电网数字电网研究院有限公司 目标检测方法、装置、设备和存储介质
CN114708511A (zh) * 2022-06-01 2022-07-05 成都信息工程大学 基于多尺度特征融合和特征增强的遥感图像目标检测方法
CN116883980A (zh) * 2023-09-04 2023-10-13 国网湖北省电力有限公司超高压公司 一种紫外光绝缘子目标检测方法及系统

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179217A (zh) * 2019-12-04 2020-05-19 天津大学 一种基于注意力机制的遥感图像多尺度目标检测方法

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111179217A (zh) * 2019-12-04 2020-05-19 天津大学 一种基于注意力机制的遥感图像多尺度目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
徐佰祺 等: "联合多尺度特征和注意力机制的遥感影像飞机目标检测", 《测绘科学技术学报》 *

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990317A (zh) * 2021-03-18 2021-06-18 中国科学院长春光学精密机械与物理研究所 一种弱小目标检测方法
CN112990317B (zh) * 2021-03-18 2022-08-30 中国科学院长春光学精密机械与物理研究所 一种弱小目标检测方法
CN113052187A (zh) * 2021-03-23 2021-06-29 电子科技大学 一种基于多尺度特征融合的全局特征对齐目标检测方法
CN112990325A (zh) * 2021-03-24 2021-06-18 南通大学 一种面向嵌入式实时视觉目标检测的轻型网络构建方法
CN112733821A (zh) * 2021-03-31 2021-04-30 成都西交智汇大数据科技有限公司 一种融合轻量级注意力模型的目标检测方法
CN112733821B (zh) * 2021-03-31 2021-07-02 成都西交智汇大数据科技有限公司 一种融合轻量级注意力模型的目标检测方法
CN113065511A (zh) * 2021-04-21 2021-07-02 河南大学 基于深度学习的遥感图像飞机检测模型及方法
CN113065511B (zh) * 2021-04-21 2024-02-02 河南大学 基于深度学习的遥感图像飞机检测模型及方法
CN113283475A (zh) * 2021-04-27 2021-08-20 南方电网数字电网研究院有限公司 目标检测方法、装置、设备和存储介质
CN114708511A (zh) * 2022-06-01 2022-07-05 成都信息工程大学 基于多尺度特征融合和特征增强的遥感图像目标检测方法
CN114708511B (zh) * 2022-06-01 2022-08-16 成都信息工程大学 基于多尺度特征融合和特征增强的遥感图像目标检测方法
CN116883980A (zh) * 2023-09-04 2023-10-13 国网湖北省电力有限公司超高压公司 一种紫外光绝缘子目标检测方法及系统

Similar Documents

Publication Publication Date Title
CN112215207A (zh) 联合多尺度和注意力机制的遥感影像飞机目标检测方法
WO2019149071A1 (zh) 目标检测的方法、装置及系统
Bo et al. Particle pollution estimation from images using convolutional neural network and weather features
CN112418117A (zh) 一种基于无人机图像的小目标检测方法
CN104615986A (zh) 利用多检测器对场景变化的视频图像进行行人检测的方法
CN111815576B (zh) 金属部件腐蚀状况检测方法、装置、设备和存储介质
CN113780145A (zh) 精子形态检测方法、装置、计算机设备和存储介质
CN112613569A (zh) 图像识别方法、图像分类模型的训练方法及装置
CN110059212A (zh) 图像检索方法、装置、设备及计算机可读存储介质
CN113706481A (zh) 精子质量检测方法、装置、计算机设备和存储介质
CN114022752B (zh) 基于注意力特征精细化及对齐的sar目标检测方法
CN116486251A (zh) 一种基于多模态融合的高光谱图像分类方法
CN111435445A (zh) 字符识别模型的训练方法及装置、字符识别方法及装置
CN113327227B (zh) 一种基于MobilenetV3的小麦头快速检测方法
CN108960013B (zh) 一种行人再识别方法及装置
CN117576073A (zh) 一种基于改进YOLOv8模型的道路缺陷检测方法、装置和介质
CN116152576B (zh) 图像处理方法、装置、设备及存储介质
CN117152625A (zh) 一种基于CoordConv和YOLOv5的遥感小目标识别方法、系统、设备及介质
Zhu et al. Scene text relocation with guidance
CN116630753A (zh) 一种基于对比学习的多尺度小样本目标检测方法
CN114022751B (zh) 基于特征细化可变形网络的sar目标检测方法、装置及设备
CN116580324A (zh) 一种基于YOLOv5的无人机对地目标检测方法
CN106446837B (zh) 一种基于运动历史图像的挥手检测方法
CN115100428A (zh) 一种利用上下文感知的目标检测方法
CN109726741B (zh) 一种多目标物体的检测方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210112

WD01 Invention patent application deemed withdrawn after publication