CN113111727B - 一种基于特征对齐的遥感场景下旋转目标检测方法 - Google Patents

一种基于特征对齐的遥感场景下旋转目标检测方法 Download PDF

Info

Publication number
CN113111727B
CN113111727B CN202110297143.3A CN202110297143A CN113111727B CN 113111727 B CN113111727 B CN 113111727B CN 202110297143 A CN202110297143 A CN 202110297143A CN 113111727 B CN113111727 B CN 113111727B
Authority
CN
China
Prior art keywords
branch
layer
regression
detection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110297143.3A
Other languages
English (en)
Other versions
CN113111727A (zh
Inventor
袁媛
李治国
马单丹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Northwestern Polytechnical University
Original Assignee
Northwestern Polytechnical University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Northwestern Polytechnical University filed Critical Northwestern Polytechnical University
Priority to CN202110297143.3A priority Critical patent/CN113111727B/zh
Publication of CN113111727A publication Critical patent/CN113111727A/zh
Application granted granted Critical
Publication of CN113111727B publication Critical patent/CN113111727B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Astronomy & Astrophysics (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于特征对齐的遥感场景下旋转目标检测方法,首先生成训练集,然后在Residual Network和Feature Pyramid Networks的基础上构建目标检测网络,对输入样本图像进行多尺度特征提取,再设计特征对齐模块,将由Feature Pyramid Networks网络得到的回归分支特征和分类分支特征进行特征融合,获得特征对齐后的有效特征,然后再经过由粗到细的检测框回归模块,所提取的特征利用通用卷积生成粗糙的检测框,之后再利用可变形卷积微调粗糙检测框,最终得到定位更加准确的检测框;最后对旋转检测网络进行训练,得到训练好的模型用于实际场景中的旋转目标检测任务。本发明相比现有技术直接预测检测框,检测框位置更加精确,算法的检测速度得到明显的提升。

Description

一种基于特征对齐的遥感场景下旋转目标检测方法
技术领域
本发明属于图像处理技术领域,具体涉及一种旋转目标检测方法。
背景技术
遥感场景下的旋转目标检测是为了判断遥感图像中是否存在目标,并对其进行精确有向定位和分类,在军事和民用领域都具有重要应用。具体地,在军事方面,其可以用于国土入侵监控、军事侦察、军事打击等;在民用方面,可以用于城市交通监控、土地规划、灾情监测等诸多应用。与自然图像中的目标检测任务相比,遥感场景下的目标检测具有以下特点:(1)遥感图像分辨率更高、数据量庞大。(2)遥感目标普遍尺寸较小、密集且具有旋转性。其中,诸如舰船、飞机、汽车等旋转目标是遥感影像的典型检测目标。(3)由于传感器自身物理技术特性、观察视角和成像机理等原因,遥感平台获取的影像通常会混有噪声,并且易受天气、光照等多种因素影响。这些复杂特性使得遥感图像的目标检测充满挑战。因此,如何精确地对遥感场景下的旋转目标进行精确定位和分类具有重要的研究意义。目前,主流的旋转检测算法都是基于深度学习,按照检测阶段的不同,可以将相关工作分为以下两类:
第一种为两阶段的旋转目标检测算法。该类方法主要是基于区域框架进行检测。具体地,第一阶段从图像中生成与类别无关的带有方向性的区域建议,然后对这些区域进行特征提取;第二阶段使用与类别相关的分类器和回归器进行分类和回归;最后利用非极大抑制(Non-Maximum Suppression)等后处理方法得到检测结果。其中,Ding等人在论文“J.Ding,N.Xue,Y.Long,G.Xia,and Q.Lu,Learning roi transformer for detectingoriented objects in aerial.Proc.IEEE Conference on Computer Vision andPattern Recognition,pp.2849–2858,2019”中设计了Rotated Region of Interest(RRoI)将水平感兴趣区域(Horizontal Region of Interest)转换为旋转感兴趣区域(Rotated Region of Interest)。基于RRoI提出了Rotated Position Sensitive RoIAlign(RPS-RoI-Align)模块,在提取旋转不变特征同时实现特征对齐,以促进后续分类和回归。Yang等人在论文“X.Yang,J.Yang,J.Yan,Y.Zhang,T.Zhang,Z.Guo,X.Sun,and K.Fu,Scrdet:Towards more robust detection for small,cluttered and rotatedobjects.Proc.IEEE Conference on International Conference on Computer Vision,pp.8232–8241,2019”中设计了一种采样融合网络,它将多层特征融合到有效的锚点采样中,以提高对于小型目标的检测灵敏度。与此同时,通过抑制噪声和突出物体的特征,将有监督的像素注意力网络和通道注意力网络,用于小而杂乱的目标检测。Xu等人在论文“Y.Xu,M.Fu,Q.Wang,Y.Wang,K.Chen,G.Xia,and X.Bai,Gliding vertex on thehorizontal bounding box for multi-oriented object detection.IEEE Transactionson Pattern Analysis and Machine Intelligence,2020”中通过改变旋转框的表示方式避免了排序的问题。具体地,该方法先检测水平框,然后通过学习水平框四个角点的偏移量达到四边形检测的目的。由于这些方法需要先对建议区域进行提取,所以会极大地影响检测速度。
第二种为单阶段的旋转目标检测算法。这类方法不生成区域建议,而是直接预测对象的类别和位置。Yang等人在论文“X.Yang,J.Yan,Z.Feng,and T.He,R3det:Refinedsingle-stage detector with feature refinement for rotating object.Proc.AAAIConference on Artificial Intelligence,2021”中提出了一种端到端的单阶段旋转检测器,设计了feature refinement module(FRM)模块,使用特征插值获取锚点,通过重构特征图实现对齐目的。Gao等人在论文“Y.Gao,L.Liu,G.Chen,and B.Lei,Drboxlight:A lightobject detection model for remote sensing applications.Proc.IEEEInternational Geoscience and Remote Sensing Symposium,pp.1442–1445,2019”中利用深度可分卷积减小模型的尺寸,同时学习目标的旋转不变性,以获得更好的旋转检测性能。由于这些方法都是在原有水平方框的基础上添加角度,然后直接生成回归方框和类别,因而很难达到较高的精度。
发明内容
为了克服现有技术的不足,本发明提供了一种基于特征对齐的遥感场景下旋转目标检测方法,首先生成训练集,然后在Residual Network和Feature Pyramid Networks的基础上构建目标检测网络,对输入样本图像进行多尺度特征提取,再设计特征对齐模块,将由Feature Pyramid Networks网络得到的回归分支特征和分类分支特征进行特征融合,获得特征对齐后的有效特征,然后再经过由粗到细的检测框回归模块,所提取的特征利用通用卷积生成粗糙的检测框,之后再利用可变形卷积微调粗糙检测框,最终得到定位更加准确的检测框;最后对旋转检测网络进行训练,得到训练好的模型用于实际场景中的旋转目标检测任务。本发明相比现有技术直接预测检测框,检测框位置更加精确,算法的检测速度得到明显的提升。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤1:采集遥感图像,将每一张遥感图像随机裁剪为多张N×N像素大小的图像,构成样本图像;对裁剪后的图像标注目标位置信息,构成标签图像;样本图像和标签图像组成训练集;
步骤2:在训练集中随机以50%的概率对样本图像进行随机翻转,增加样本数量;
步骤3:将样本图像先输入Residual Network,Residual Network的输出再输入Feature Pyramid Networks,对图像进行多尺度特征提取,输出图像的特征为W*H*256;
步骤4:将步骤3的输出图像分别输入粗回归分支、精回归分支和分类分支;粗回归分支由多层通用卷积模块构成;精回归分支由通用卷积模块和可变形卷积模块交叉构成;分类分支由多层通用卷积模块构成;
步骤5:精回归分支的第Bn层可变形卷积模块输出和分类分支的第Cn层输出进行Concat操作,Concat操作后再经过卷积操作,卷积操作后的输出分为两路:第一路与分类分支的第Cn层进行Concat操作,进行特征对齐,获得获得特征对齐后的有效特征,再将有效特征输入分类分支的第Cn+1层;第二路与粗回归分支的第An层进行Concat操作后输入精回归分支的第Bn+1层通用卷积模块;
步骤6:精回归分支的第Bm层可变形卷积模块输出和分类分支的第Cm层输出进行Concat操作,Concat操作后再经过卷积操作,卷积操作后的输出分为两路:第一路与分类分支的第Cm层进行Concat操作,进行特征对齐,获得获得特征对齐后的有效特征,再将有效特征输入分类分支的第Cm+1层;第二路与粗回归分支的第Am层进行Concat操作后输入精回归分支的第Bm+1层通用卷积模块;
步骤7:最终精回归分支的输出为目标检测框,分类分支的输出为对目标分类的类别结果;
步骤8:对目标检测网络进行训练,训练采用随机梯度下降法,优化器采用SGD,并使用多项式学习率衰减策略,采用多任务损失函数:
L=Lcls(c,c*)+Lc-reg(Vc,V*)+Lf-reg(Vf,V*)
其中Lcls为Focal loss损失函数,Lc-reg和Lf-reg为Smooth L1损失函数,c、c*分别是预测目标类别和真实的目标类别;Vc,Vf和V*分别是粗回归、细回归和真实值的预测框向量,该向量由5个值构成{x,y,w,h,θ},分别代表预测框的中心点位置的横坐标和纵坐标、预测框的宽度、高度和旋转角度;
步骤9:将训练完成的目标检测网络用于实际场景中的旋转目标检测任务。
优选地,所述N=1024。
本发明的有益效果如下:
1、本发明设计的特征对齐模块利用特征融合的方式,将可变形卷积构成的回归分支和分类分支的特征进行对齐,缓解了单阶段方法由于没有Region Proposal Network(RPN)做指导产生的特征不对齐的问题。
2、本发明先使用通用卷积生成粗糙的检测框,之后利用可变形卷积对得到的检测框位置微调。相比之前单阶段方法直接预测检测框,本发明的检测框位置更加精确。
3、相比于两阶段需要生成建议区域的方法以及生成多个角度的单阶段方法,本发明直接对生成的锚点只旋转一个角度,极大地减少了锚点的数量,使得算法的检测速度得到明显的提升。
附图说明
图1为本发明方法流程图;
图2为本发明方法的网络结构图。
图3为本发明旋转目标检测结果的示意图。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
本发明提出了一种融合回归分支特征和分类特征的特征对齐模块以及基于可变形卷积的精细化网络,并基于以上模块构建旋转目标检测网络,该网络主要改善了当前遥感场景旋转目标检测精度和检测速度,网络结构图如图2所示。本发明的目的在于改善以下几个方面:
1.单阶段方法中分类分支和回归分支的特征不对齐;
2.现有单阶段旋转目标检测算法定位不准确;
3.现有单阶段旋转目标检测算法检测速度较慢。
如图1所示,一种基于特征对齐的遥感场景下旋转目标检测方法,包括以下步骤:
步骤1:采集遥感图像,将每一张遥感图像随机裁剪为多张1024×1024像素大小的图像,构成样本图像;对裁剪后的图像标注目标位置信息,构成标签图像;样本图像和标签图像组成训练集;
步骤2:在训练集中随机以50%的概率对样本图像进行随机翻转,增加样本数量;
步骤3:设计特征对齐模块和由粗到细的检测框回归模块,并组合得到旋转目标检测网络。首先,特征对齐模块利用可变形卷积能够有效提取大纵横比和旋转物体的特征,然后将提取的特征和分类特征进行融合,使精回归分支和分类分支的特征进一步对齐。另外,设计了一种由粗到细的检测框回归来提高预测的稳定性。具体地,通过粗回归分支中一组通用卷积运算来预测一个粗检测框,然后通过对检测框进行微调,得到一个良好的检测框。微调的分支是一系列交叉的通用卷积和可变形卷积,这一结构可以减小模型的参数量。
将样本图像先输入Residual Network,Residual Network的输出再输入FeaturePyramid Networks,对图像进行多尺度特征提取,输出图像的特征为W*H*256;
步骤4:将步骤3的输出图像分别输入粗回归分支、精回归分支和分类分支;粗回归分支由多层通用卷积模块构成;精回归分支由通用卷积模块和可变形卷积模块交叉构成;分类分支由多层通用卷积模块构成;
步骤5:精回归分支的第Bn层可变形卷积模块输出和分类分支的第Cn层输出进行Concat操作,Concat操作后再经过卷积操作,卷积操作后的输出分为两路:第一路与分类分支的第Cn层进行Concat操作,进行特征对齐,获得获得特征对齐后的有效特征,再将有效特征输入分类分支的第Cn+1层;第二路与粗回归分支的第An层进行Concat操作后输入精回归分支的第Bn+1层通用卷积模块;
步骤6:精回归分支的第Bm层可变形卷积模块输出和分类分支的第Cm层输出进行Concat操作,Concat操作后再经过卷积操作,卷积操作后的输出分为两路:第一路与分类分支的第Cm层进行Concat操作,进行特征对齐,获得获得特征对齐后的有效特征,再将有效特征输入分类分支的第Cm+1层;第二路与粗回归分支的第Am层进行Concat操作后输入精回归分支的第Bm+1层通用卷积模块;
步骤7:最终精回归分支的输出为目标检测框,分类分支的输出为对目标分类的类别结果;
步骤8:对目标检测网络进行训练,训练采用随机梯度下降法,优化器采用SGD,并使用多项式学习率衰减策略,采用多任务损失函数:
L=Lcls(c,c*)+Lc-reg(Vc,V*)+Lf-reg(Vf,V*)
其中Lcls为Focal loss损失函数,Lc-reg和Lf-reg为Smooth L1损失函数,c、c*分别是预测目标类别和真实的目标类别;Vc,Vf和V*分别是粗回归、细回归和真实值的预测框向量,该向量由5个值构成{x,y,w,h,θ},分别代表预测框的中心点位置的横坐标和纵坐标、预测框的宽度、高度和旋转角度;
步骤9:将训练完成的目标检测网络用于实际场景中的旋转目标检测任务。
具体实施例:
1.实验条件
本发明是在显存12G的NVIDIA Geforce GTX 1080Ti GPU、i7-6800K CPU、Ubuntu操作系统中运行,使用Pytorch进行仿真实验。
实验中使用的训练和测试数据均来自于公开的DOTA数据集。该数据集包含2806张高分辨率遥感图像,这些图像来自不同的传感器和平台。该数据集标注了15个常见的目标类别,每张图像的大小从800×800到4000×4000像素不等,包含各种方向、尺度和形状的目标。标注的实例数达到了188282个,每个图像都被标记为任意四边形。最后共选取1869张图像组建训练集,937张图像组建测试集。
2.实验内容
按照具体实施方式中给出的步骤,通过在训练集上训练旋转目标检测模型,并在测试集上评估检测效果。
表1本发明旋转目标检测定量结果展示
Methods SV. LV. SH. mAP inf-time(s)
Retinanet-H 63.50 50.68 65.93 62.79 0.071
Retinanet-R 64.64 71.01 68.62 62.76 0.125
IENet 49.71 65.01 52.58 57.14 0.059
Ours 71.94 59.80 75.47 66.01 0.054
图3是旋转目标检测结果的示意图,展示了两张图像的检测结果,左侧为遥感场景下的原始图像,右侧为检测的结果,可以看出对于遥感场景下目标比较密集、角度变化差异大和大长宽比的目标,本发明能够得到较为满意的检测结果。为了能够更加清晰地展示本发明的优势,在表1中定量说明了本发明的结果,其中SV.,LV.和SH.分别表示小卡车、大卡车和船,对应结果表示该类别的平均精度;mAP是一个综合评价指标,用来计算所有类别的均值平均精度;inf-time表示每张图片的预测时间。从表1结果可以看出,与代表性算法Retinanet-H、Retinanet-R和IENet相比,本发明同时在检测精度和检测速度方面具有显著的优势。实验结果证明:一方面,本发明所构建的特征对齐模块和由粗到细的检测框回归模块能够有效提升检测精度;另一方面,本发明对于每个锚点只设计了一个角度,保证了检测速度的有效提升。综上所述,本发明在各种旋转目标检测任务当中具有良好的应用前景。

Claims (2)

1.一种基于特征对齐的遥感场景下旋转目标检测方法,其特征在于,包括以下步骤:
步骤1:采集遥感图像,将每一张遥感图像随机裁剪为多张N×N像素大小的图像,构成样本图像;对裁剪后的图像标注目标位置信息,构成标签图像;样本图像和标签图像组成训练集;
步骤2:在训练集中随机以50%的概率对样本图像进行随机翻转,增加样本数量;
步骤3:将样本图像先输入Residual Network,Residual Network的输出再输入Feature Pyramid Networks,对图像进行多尺度特征提取,输出图像的特征为W*H*256;
步骤4:将步骤3的输出图像分别输入粗回归分支、精回归分支和分类分支;粗回归分支由多层通用卷积模块构成;精回归分支由通用卷积模块和可变形卷积模块交叉构成;分类分支由多层通用卷积模块构成;
步骤5:精回归分支的第Bn层可变形卷积模块输出和分类分支的第Cn层输出进行Concat操作,Concat操作后再经过卷积操作,卷积操作后的输出分为两路:第一路与分类分支的第Cn层进行Concat操作,进行特征对齐,获得获得特征对齐后的有效特征,再将有效特征输入分类分支的第Cn+1层;第二路与粗回归分支的第An层进行Concat操作后输入精回归分支的第Bn+1层通用卷积模块;
步骤6:精回归分支的第Bm层可变形卷积模块输出和分类分支的第Cm层输出进行Concat操作,Concat操作后再经过卷积操作,卷积操作后的输出分为两路:第一路与分类分支的第Cm层进行Concat操作,进行特征对齐,获得获得特征对齐后的有效特征,再将有效特征输入分类分支的第Cm+1层;第二路与粗回归分支的第Am层进行Concat操作后输入精回归分支的第Bm+1层通用卷积模块;
步骤7:最终精回归分支的输出为目标检测框,分类分支的输出为对目标分类的类别结果;
步骤8:对目标检测网络进行训练,训练采用随机梯度下降法,优化器采用SGD,并使用多项式学习率衰减策略,采用多任务损失函数:
L=Lcls(c,c*)+Lc-reg(Vc,V*)+Lf-reg(Vf,V*)
其中Lcls为Focal loss损失函数,Lc-reg和Lf-reg为Smooth L1损失函数,c、c*分别是预测目标类别和真实的目标类别;Vc,Vf和V*分别是粗回归、细回归和真实值的预测框向量,该向量由5个值构成{x,y,w,h,θ},分别代表预测框的中心点位置的横坐标和纵坐标、预测框的宽度、高度和旋转角度;
步骤9:将训练完成的目标检测网络用于实际场景中的旋转目标检测任务。
2.根据权利要求1所述的一种基于特征对齐的遥感场景下旋转目标检测方法,其特征在于,所述N=1024。
CN202110297143.3A 2021-03-19 2021-03-19 一种基于特征对齐的遥感场景下旋转目标检测方法 Active CN113111727B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110297143.3A CN113111727B (zh) 2021-03-19 2021-03-19 一种基于特征对齐的遥感场景下旋转目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110297143.3A CN113111727B (zh) 2021-03-19 2021-03-19 一种基于特征对齐的遥感场景下旋转目标检测方法

Publications (2)

Publication Number Publication Date
CN113111727A CN113111727A (zh) 2021-07-13
CN113111727B true CN113111727B (zh) 2024-05-31

Family

ID=76712037

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110297143.3A Active CN113111727B (zh) 2021-03-19 2021-03-19 一种基于特征对齐的遥感场景下旋转目标检测方法

Country Status (1)

Country Link
CN (1) CN113111727B (zh)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113657174A (zh) * 2021-07-21 2021-11-16 北京中科慧眼科技有限公司 一种车辆伪3d信息检测方法、装置与自动驾驶系统
CN113822278B (zh) * 2021-11-22 2022-02-11 松立控股集团股份有限公司 一种无受限场景车牌识别方法
CN114494792B (zh) * 2022-04-15 2022-07-05 珠海亿智电子科技有限公司 基于单阶段的目标检测方法、装置、设备及存储介质
CN115690152A (zh) * 2022-10-18 2023-02-03 南京航空航天大学 一种基于注意力机制的目标追踪方法
CN115937672A (zh) * 2022-11-22 2023-04-07 南京林业大学 一种基于深度神经网络的遥感旋转目标检测方法
CN116012719B (zh) * 2023-03-27 2023-06-09 中国电子科技集团公司第五十四研究所 一种基于多实例学习的弱监督旋转目标检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110728658A (zh) * 2019-09-16 2020-01-24 武汉大学 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN111160249A (zh) * 2019-12-30 2020-05-15 西北工业大学深圳研究院 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN111210443A (zh) * 2020-01-03 2020-05-29 吉林大学 基于嵌入平衡的可变形卷积混合任务级联语义分割方法
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN112418108A (zh) * 2020-11-25 2021-02-26 西北工业大学深圳研究院 一种基于样本重加权的遥感图像多类目标检测方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020181685A1 (zh) * 2019-03-12 2020-09-17 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110728658A (zh) * 2019-09-16 2020-01-24 武汉大学 一种基于深度学习的高分辨率遥感影像弱目标检测方法
CN111160249A (zh) * 2019-12-30 2020-05-15 西北工业大学深圳研究院 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN111210443A (zh) * 2020-01-03 2020-05-29 吉林大学 基于嵌入平衡的可变形卷积混合任务级联语义分割方法
CN112418108A (zh) * 2020-11-25 2021-02-26 西北工业大学深圳研究院 一种基于样本重加权的遥感图像多类目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
复杂背景下弱小目标的检测;李静;袁媛;;计算机与数字工程;20150320(第03期);全文 *

Also Published As

Publication number Publication date
CN113111727A (zh) 2021-07-13

Similar Documents

Publication Publication Date Title
CN113111727B (zh) 一种基于特征对齐的遥感场景下旋转目标检测方法
CN108596101B (zh) 一种基于卷积神经网络的遥感图像多目标检测方法
CN112861720B (zh) 基于原型卷积神经网络的遥感图像小样本目标检测方法
CN108647655B (zh) 基于轻型卷积神经网络的低空航拍影像电力线异物检测方法
Liu et al. Multiscale U-shaped CNN building instance extraction framework with edge constraint for high-spatial-resolution remote sensing imagery
CN111709416B (zh) 车牌定位方法、装置、系统及存储介质
CN110163213B (zh) 基于视差图和多尺度深度网络模型的遥感图像分割方法
CN111091105A (zh) 基于新的边框回归损失函数的遥感图像目标检测方法
CN109961460A (zh) 一种基于改进YOLOv3模型的多目标巡检方法
Cepni et al. Vehicle detection using different deep learning algorithms from image sequence
Shen et al. Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm
CN112528913A (zh) 一种基于图像的砂石颗粒物粒径检测分析系统
CN111611918B (zh) 基于航拍数据和深度学习的交通流数据集采集及构建方法
CN111242144A (zh) 电网设备异常的检测方法和装置
CN116385958A (zh) 一种用于电网巡检和监控的边缘智能检测方法
CN111667461B (zh) 一种输电线路异常目标检测方法
CN115331127A (zh) 一种基于注意力机制的无人机移动目标侦测方法
CN116597411A (zh) 极端天气下无人驾驶车辆识别交通标志的方法及系统
CN113887455B (zh) 一种基于改进fcos的人脸口罩检测系统及方法
CN114078106B (zh) 基于改进Faster R-CNN的疵点检测方法
Jin et al. YOLOv7-Bw: A Dense Small Object Efficient Detector Based on Remote Sensing Image
Roy et al. AWDMC-Net: classification of adversarial weather degraded multiclass scenes using a convolution neural network
CN117079026A (zh) 一种基于改进YOLOv3网络的无人机电力巡检隐患识别方法
CN113947723B (zh) 基于尺寸平衡fcos的高分辨率遥感场景目标检测方法
CN115035429A (zh) 一种基于复合主干网络和多预测头的航拍目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant