CN111368754B - 一种基于全局上下文信息的机场跑道异物检测方法 - Google Patents

一种基于全局上下文信息的机场跑道异物检测方法 Download PDF

Info

Publication number
CN111368754B
CN111368754B CN202010154681.2A CN202010154681A CN111368754B CN 111368754 B CN111368754 B CN 111368754B CN 202010154681 A CN202010154681 A CN 202010154681A CN 111368754 B CN111368754 B CN 111368754B
Authority
CN
China
Prior art keywords
global context
network
convolution
resnext
airport runway
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010154681.2A
Other languages
English (en)
Other versions
CN111368754A (zh
Inventor
王素玉
冯明宽
王萌萌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN202010154681.2A priority Critical patent/CN111368754B/zh
Publication of CN111368754A publication Critical patent/CN111368754A/zh
Application granted granted Critical
Publication of CN111368754B publication Critical patent/CN111368754B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]
    • G06V10/464Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开了一种基于全局上下文信息的机场跑道异物检测方法,包括:将图片输入到所设计的卷积网络中,主干网络采用ResNeXt,通过多个并行路径来增加残差块的宽度,提高网络对小目标检测的准确率;在此过程中,加入全局上下文模块(GC block),通过自注意力机制捕捉图像的全局上下文信息;采用级联网络结构,设置三个不同的IoU阈值来进行训练,提高网络的泛化能力,进一步提高检测的准确率;最后输出检测的结果。在FOD(Foreign object debris)数据集上的实验结果表明,本发明的检测性能优于其他的算法。

Description

一种基于全局上下文信息的机场跑道异物检测方法
技术领域
本发明属于计算机视觉中的目标检测领域,涉及机场跑道异物检测的问题,针对机场跑道异物的特点设计网络结构,是一种基于全局上下文信息的目标检测方法,相对于目前主流的目标检测方法,在准确率上得到了一定提升。
背景技术
机场跑道异物给飞机的起飞和降落带来了巨大的影响,许多案例都证明,机场跑道异物可以很容易被吸入到飞机发动机,导致发动机失效,碎片也会堆积在机械装置中,影响起落架、机翼等设备的正常运行。在机场跑道异物中,一些目标偏小,检测难度较大。机场跑道异物中小目标的检测是亟待解决的问题。
随着深度学习的发展,基于深度学习的目标检测算法越来越成熟,在一些领域也得到了很好的应用。目前,现有的目标检测算法可以分为一阶段和两阶段两类。两阶段的算法需要分两步完成,首先需要获取候选区域,然后进行分类;一阶段的算法可以理解为一步到位,不需要单独寻找候选区域。两阶段算法的检测准确率通常比一阶段高,但是检测速率偏慢。目前,检测准确率比较高的两阶段算法有Faster R-CNN、Mask R-CNN、Cascade R-CNN等。对于机场跑道异物检测的问题,直接使用现有的目标检测算法进行检测准确率比较低。
发明内容
本发明针对机场跑道异物中小目标物体难以检测的问题,设计了一种基于全局上下文信息的卷积神经网络,所设计的网络对于小目标的检测具有较高的检测准确率。
本发明采用如下技术方案:一种基于全局上下文信息的机场跑道异物检测方法,该方法使用ResNeXt作为主干网络,通过多个并行路径来增加残差块的宽度,提高网络对小目标检测的准确率;在网络中加入全局上下文模块(GC block),通过自注意力机制捕捉图像的全局上下文信息;使用级联网络结构,设置三个不同的IoU阈值来进行训练,提高网络的泛化能力,进一步提高检测的准确率。
该方法的具体步骤如下:
步骤一:对FOD3(Foreign object debris Detection Dataset
即FODDD)数据集中的机场跑道异物数据进行预处理,图1为FOD3数据集的图片样例。
步骤二:将预处理后的机场跑道异物数据送入到主干网络ResNeXt中,获取机场跑道异物图像的特征图。ResNeXt的基本模块示意图如图2所示。首先将图片输入到网络中,然后进行卷积操作,卷积核大小为1×1,输出的特征图通道数为128;接着将这128个通道平均分成32等份,每份再进行卷积操作,卷积核大小为3×3,然后将这些卷积后的结果串联起来,输出一个128通道的特征图;再将特征图进行卷积操作,卷积核大小为1×1,最后输出通道数为256的特征图。针对机场跑道异物中小目标检测难的问题,在此过程中,加入两层全局上下文模块(GC block),分别是在ResNeXt的第三层和第四层后面,更好地获取远程依赖项,最后得到包含图像全局上下文信息的特征图,图3为全局上下文模块(GC block)的主要结构示意图。
步骤三:将提取到的特征图输入到后面的级联网络中,这部分是三个不同IoU阈值的级联,三个IoU阈值分别为0.5,0.6,0.7,然后进行模型训练。
步骤四:完成模型训练后,加载模型参数,输入任意一张FOD3数据集中的图片进行测试,得到预测结果和预测准确率。预测效果图如图4所示。步骤二中的卷积神经网络是在ResNeXt中添加了两层全局上下文模块,添加后的示意图如图5所示,ResNeXt的基本结构如图2所示。
所述步骤二中,在卷积过程中采用分组卷积的方法。在这一部分,进行分组卷积前,输入和输出通道数为128。使用分组卷积,分组数设置为16,每组的输入与输出通道数为8,将每组输出的特征图进行组合得到分组卷积后的输出。
所述步骤二中,采用多尺度特征融合的方式,使用不同特征层特征融合之后的结果来做预测。在训练过程中,每次将图片输入卷积层时都输出一张特征图,将各个卷积层所输出的特征图进行融合。在融合后的特征图上利用滑动卷积核的方式进行预测打分。
所述步骤二中,在主干网络ResNeXt中加入两层全局上下文模块(GC block),分别加在主干网络ResNeXt的第三层和第四层后面,通过这种方式来提取图片中的全局上下文信息。
本发明提出的方法的整体流程图如图5所示。
(1)基于ResNeXt的主干网络:ResNeXt提出了用一种平行堆叠相同拓扑结构的模块代替原来ResNet的三层卷积模块。这样只需要设计一个模板模块就确定一个网络中的所有模块。这样一来便可以极大的缩小计算空间。ResNeXt把Inception的优点与ResNet的优点进行了结合。残差结构使得模型便于训练,Inception对特征层进行了很好的融合。
(2)全局上下文信息的获取
原版的非局部模块(non-local block)针对每个查询位置,重要联系的区域是同一块区域,也就是每个位置的关注位置几乎是相同的,所以把这些重要的区域特征加在每个位置之后,网络的准确率几乎没有下降,但是计算量却减少了很多。然而单独的非局部(non-local)结构运算量太大了,单独的挤压激励模块(SE block)全局上下文建模不够有效。针对这一问题,本发明融合了非局部模块(non-local block)和挤压激励模块(SEblock)的优点,使用非局部模块(non-local block),计算量相对来说较小,也很好的融合了全局信息,这样可以提升网络对于小目标检测的准确率。
(3)IoU阈值的级联
在训练过程中一般通过IoU阈值来判定正负样本,因此IoU阈值的选取对训练结果的影响十分重要。如果IoU阈值选取的比较高,则得到的正样本更接近目标,因此训练出来的检测器会更加准确。但是如果盲目的提高IoU阈值会带来另一些问题:一是正样本数量过少会导致训练的过拟合,二是训练和测试使用不一样的阈值导致评估性能的下降。如果将IoU阈值取得偏低,得到的正样本会更为丰富,这样有利于检测器的训练,但会造成测试时出现大量的虚检。根据以上分析,结合机场跑道数据集中小目标的问题,这里采用级联思想,将检测器的部分堆叠成几个级联的模块,采用不同的IoU阈值训练,以此来提高网络对于小目标检测的准确率。
本方法的评价指标为平均精度值(mAP)。在FOD3数据集上进行实验,本发明方法取得了不错的实验结果。对于机场跑道异物的检测,本发明方法的检测准确率高于现有的目标检测算法。本发明使用ResNeXt作为主干网络,通过添加全局上下模块捕捉FOD3数据集图像中的上下文信息。此外,级联三个不同的IoU阈值进行训练,提高对于小目标检测的准确率。
附图说明
图1为FOD3数据集的图片样例。
图2为ResNeXt的基本模块示意图。
图3为全局上下文模块(GC block)主要结构示意图。
图4为本发明在FOD3数据集上实验的预测效果图。
图5为本发明提出方法的整体流程示意图。
具体实施方式
以下结合说明书附图,对本发明的算法进行详细说明:
本发明是一种基于全局上下文信息的目标检测算法。如图5所示,算法检测流程为:将图片输入到所设计的卷积网络中,主干网络为ResNeXt,经过主干网络的一系列卷积操作提取目标特征图;在此过程中,加入全局上下文模块(GC block),通过自注意力机制捕捉图像的全局上下文信息;之后通过级联网络结构,设置三个不同的IoU阈值来进行训练,对候选框进行打分,判定正负样本,进行目标的检测;最后输出分类结果和预测准确率。
具体算法介绍如下:
(1)基于ResNeXt的主干网络
将图片输入到ResNeXt主干网络中,进行卷积等操作来提取目标特征图。在此过程中,采用分组卷积的方法进行卷积。采用多尺度特征融合的方式,使用不同特征层特征融合之后的结果来做预测。在目标检测网络中,加深或者加宽网络结构是提高检测准确率的有效途径,但是随着网络参数量的增加,网络的复杂度也会增加,计算成本也会变大。而ResNeXt能够在几乎不增加运算量的前提下,通过并行路径增加残差块的宽度。该网络采用VGG/ResNet重复相同网络层的策略,以一种简单的可扩展的方式延续分离-变形-合并(split-transform-merge)策略,整个网络的构建模块都是一样的,不用在每个阶段里对每个构建模块的超参数进行调整,只用一个结构相同的构建模块,重复堆叠即可形成整个网络。
ResNeXt提出了用一种平行堆叠相同拓扑结构的模块代替原来ResNet的三层卷积模块。这样只需要设计一个模板模块就可以确定一个网络中的所有模块,这样一来便可以极大的缩小计算空间。
(2)全局上下文信息的获取
在ResNeXt主干网络中加入全局上下文模块(GC block)来获取图片的全局上下文信息。原版的非局部模块(non-local block)针对每个查询位置,重要联系的区域是同一块区域,也就是每个位置的关注位置几乎是相同的,所以把这些重要的区域特征加在每个位置之后,网络的准确率几乎没有下降,但是计算量却减少了很多。然而单独的非局部(non-local)结构运算量太大了,单独的挤压激励模块(SE block)全局上下文建模不够有效。针对这一问题,本发明融合了非局部模块(non-local block)和挤压激励模块(SE block)的优点,使用全局上下文模块(GC block),计算量相对来说较小,也很好的融合了全局信息,这样可以提升网络对于小目标检测的准确率。(3)IoU阈值的级联
将前面主干网络的输出结果输入到级联网络结构中,通过级联三个不同的IoU阈值来进行训练。在目标检测的训练过程中IoU的阈值选取是一个比较大的问题。目标检测分为分类和回归两个过程,因此检测问题的本质就是一个分类问题,但是检测问题和分类问题又有很大区别,因为在检测问题中是对图像中的所有候选框进行打分,在训练过程中通过IoU阈值来判定正负样本。因此,IoU阈值的选取是一个很重要的问题。如果IoU阈值选取的比较高,则得到的正样本更接近目标,因此训练出来的检测器会更加准确。但是如果盲目的提高IoU阈值会带来另一些问题:一是正样本数量过少会导致训练的过拟合,二是训练和测试使用不一样的阈值导致评估性能的下降。如果将IoU阈值取得偏低,得到的正样本会更为丰富,这样有利于检测器的训练,但会造成测试时出现大量的虚检。根据以上分析,结合机场跑道异物数据集中小目标的问题,这里采用级联思想,将检测器的部分堆叠成几个级联的模块,级联三个不同的IoU阈值来进行训练。
算法的评价指标为平均精度值(mAP)。为验证算法性能,本方法在自建的FOD3数据集上对算法性能进行了测试分析,该数据集建立了高仿真的机场跑道环境,构建了包含4000张多属性结构化标签的机场跑道异物图像数据集,涵盖了多种路面情况、多种光照环境等。这些图片大约一共有一万一千多个目标。所建立的数据集包含结构化的四种标签,分别是机场跑道异物目标的边界框标签、12种类别标签、4种材质标签和3种危险等级标签。在训练过程中,我们使用sigmoid来进行分类,优化算法使用的是随机梯度下降算法(SGD)。在FOD3数据集上进行实验,本发明方法取得了不错的实验结果。相比较于其他的算法,本发明算法对于机场跑道异物检测的准确率更高。为了进行对比,选择了其他算法进行实验,表1为实验对比结果。
表1本发明提出的方法检测性能对比结果
如表1所示,在FOD3数据集上,验证了本算法的检测性能,本算法的mAP指标可以达到0.803,相比较于其他的算法都有一定提升。

Claims (1)

1.一种基于全局上下文信息的机场跑道异物检测方法,其特征在于:该方法使用ResNeXt作为主干网络,通过多个并行路径来增加残差块的宽度;在网络中加入全局上下文模块,通过自注意力机制捕捉图像的全局上下文信息;使用级联网络结构,设置三个不同的IoU阈值来进行训练;
该方法的具体步骤如下:
步骤一:对FOD3数据集中的机场跑道异物数据进行预处理;
步骤二:将预处理后的机场跑道异物数据送入到主干网络ResNeXt中,获取机场跑道异物图像的特征图;首先将图片输入到网络中,然后进行卷积操作,卷积核大小为1×1,输出的特征图通道数为128;接着将这128个通道平均分成32等份,每份再进行卷积操作,卷积核大小为3×3,然后将这些卷积后的结果串联起来,输出一个128通道的特征图;再将特征图进行卷积操作,卷积核大小为1×1,最后输出通道数为256的特征图;针对机场跑道异物中小目标检测难的问题,在此过程中,加入两层全局上下文模块,分别是在ResNeXt的第三层和第四层后面,更好地获取远程依赖项,最后得到包含图像全局上下文信息的特征图;
步骤三:将提取到的特征图输入到后面的级联网络中,这部分是三个不同IoU阈值的级联,三个IoU阈值分别为0.5,0.6,0.7,然后进行模型训练;
步骤四:完成模型训练后,加载模型参数,输入任意一张FOD3数据集中的图片进行测试,得到预测结果和预测准确率;步骤二中的卷积神经网络是在ResNeXt中添加了两层全局上下文模块;
所述步骤二中,在卷积过程中采用分组卷积的方法;在这一部分,进行分组卷积前,输入和输出通道数为128;使用分组卷积,分组数设置为16,每组的输入与输出通道数为8,将每组输出的特征图进行组合得到分组卷积后的输出;
所述步骤二中,采用多尺度特征融合的方式,使用不同特征层特征融合之后的结果来做预测;在训练过程中,每次将图片输入卷积层时都输出一张特征图,将各个卷积层所输出的特征图进行融合;在融合后的特征图上利用滑动卷积核的方式进行预测打分;
所述步骤二中,在主干网络ResNeXt中加入两层全局上下文模块分别加在主干网络ResNeXt的第三层和第四层后面,通过这种方式来提取图片中的全局上下文信息。
CN202010154681.2A 2020-03-08 2020-03-08 一种基于全局上下文信息的机场跑道异物检测方法 Active CN111368754B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010154681.2A CN111368754B (zh) 2020-03-08 2020-03-08 一种基于全局上下文信息的机场跑道异物检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010154681.2A CN111368754B (zh) 2020-03-08 2020-03-08 一种基于全局上下文信息的机场跑道异物检测方法

Publications (2)

Publication Number Publication Date
CN111368754A CN111368754A (zh) 2020-07-03
CN111368754B true CN111368754B (zh) 2023-11-28

Family

ID=71208535

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010154681.2A Active CN111368754B (zh) 2020-03-08 2020-03-08 一种基于全局上下文信息的机场跑道异物检测方法

Country Status (1)

Country Link
CN (1) CN111368754B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111898479B (zh) * 2020-07-14 2023-09-26 中国矿业大学 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置
CN112464851A (zh) * 2020-12-08 2021-03-09 国网陕西省电力公司电力科学研究院 一种基于视觉感知的智能电网异物入侵检测方法及系统
CN113159171B (zh) * 2021-04-20 2022-07-22 复旦大学 一种基于对抗学习的植物叶片图像细分类方法
CN113420669B (zh) * 2021-06-24 2022-05-10 武汉工程大学 基于多尺度训练和级联检测的文档版面分析方法和系统
CN113255601B (zh) * 2021-06-29 2021-11-12 深圳市安软科技股份有限公司 一种车辆重识别模型的训练方法、系统及相关设备
CN113850284B (zh) * 2021-07-04 2023-06-23 天津大学 一种基于多尺度特征融合和多分支预测的多操作检测方法
CN113813053A (zh) * 2021-09-18 2021-12-21 长春理工大学 一种基于腹腔镜内窥影像的手术进程分析方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657538A (zh) * 2018-11-05 2019-04-19 中国科学院计算技术研究所 基于上下文信息指导的场景分割方法和系统
CN109766884A (zh) * 2018-12-26 2019-05-17 哈尔滨工程大学 一种基于Faster-RCNN的机场跑道异物检测方法
CN109902602A (zh) * 2019-02-16 2019-06-18 北京工业大学 一种基于对抗神经网络数据增强的机场跑道异物材料识别方法
CN110135296A (zh) * 2019-04-30 2019-08-16 上海交通大学 基于卷积神经网络的机场跑道fod检测方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109657538A (zh) * 2018-11-05 2019-04-19 中国科学院计算技术研究所 基于上下文信息指导的场景分割方法和系统
CN109766884A (zh) * 2018-12-26 2019-05-17 哈尔滨工程大学 一种基于Faster-RCNN的机场跑道异物检测方法
CN109902602A (zh) * 2019-02-16 2019-06-18 北京工业大学 一种基于对抗神经网络数据增强的机场跑道异物材料识别方法
CN110135296A (zh) * 2019-04-30 2019-08-16 上海交通大学 基于卷积神经网络的机场跑道fod检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Xhaowei Tai 等.Cascade R-CNN: Delving into High Quality Object Detection.《IEEE》.2018,第1-9页. *
Yue Cao 等.GCNet: Non-local Networks Meet Squeeze-Excitation Networks and Beyond.《IEEE》.2020,第1-10页. *

Also Published As

Publication number Publication date
CN111368754A (zh) 2020-07-03

Similar Documents

Publication Publication Date Title
CN111368754B (zh) 一种基于全局上下文信息的机场跑道异物检测方法
CN110084292B (zh) 基于DenseNet和多尺度特征融合的目标检测方法
CN109241982B (zh) 基于深浅层卷积神经网络的目标检测方法
Yang et al. Research on face intelligent perception technology integrating deep learning under different illumination intensities
Lu et al. Object detection based on SSD-ResNet
CN112101221B (zh) 一种用于交通信号灯实时检测与识别的方法
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN110210539A (zh) 多级深度特征融合的rgb-t图像显著性目标检测方法
CN113420607A (zh) 无人机多尺度目标检测识别方法
CN111401293B (zh) 一种基于Head轻量化Mask Scoring R-CNN的手势识别方法
CN107688830B (zh) 一种用于案件串并的现勘视觉信息关联图层生成方法
CN111460980A (zh) 基于多语义特征融合的小目标行人的多尺度检测方法
CN111738300A (zh) 一种交通标志及信号灯检测和识别的优化算法
Quan et al. Improved deeplabv3 for better road segmentation in remote sensing images
CN117037004A (zh) 基于多尺度特征融合和上下文增强的无人机影像检测方法
CN116342894A (zh) 基于改进YOLOv5的GIS红外特征识别系统及方法
Zhu et al. Fast vehicle detection based on evolving convolutional neural network
Li et al. Incremental learning of infrared vehicle detection method based on SSD
CN110414338B (zh) 基于稀疏注意力网络的行人再辨识方法
CN117132910A (zh) 一种用于无人机的车辆检测方法、装置及存储介质
Xiao et al. Traffic sign detection in complex environment based on improved YOLOv3
Zhao et al. Recognition and Classification of Concrete Cracks under Strong Interference Based on Convolutional Neural Network.
CN114494827A (zh) 一种用于检测航拍图片的小目标检测方法
Yin et al. M2F2-RCNN: Multi-functional faster RCNN based on multi-scale feature fusion for region search in remote sensing images
CN113361475A (zh) 一种基于多阶段特征融合信息复用的多光谱行人检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant