CN114612835A - 一种基于YOLOv5网络的无人机目标检测模型 - Google Patents
一种基于YOLOv5网络的无人机目标检测模型 Download PDFInfo
- Publication number
- CN114612835A CN114612835A CN202210253316.6A CN202210253316A CN114612835A CN 114612835 A CN114612835 A CN 114612835A CN 202210253316 A CN202210253316 A CN 202210253316A CN 114612835 A CN114612835 A CN 114612835A
- Authority
- CN
- China
- Prior art keywords
- network
- layer
- detection
- feature
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提供了一种基于YOLOv5网络的无人机目标检测模型,该模型包括:主干模块,用于对输入图像进行多次下采样,得到多个不同尺度的特征图;颈部模块,用于基于主干模块得到的不同尺度的特征图进行多次上采样和特征融合,输出多个不同尺度的检测特征图,其中,相比原始的YOLOv5网络,颈部模块的输出增加一个相比于原始的YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,并减少一个最小尺度的检测特征图;预测模块,用于根据颈部模块输出的多个检测特征图进行无人机目标预测,得到目标的预测位置信息和分类结果,其中,分类的类别包括无人机类和非无人机类。
Description
技术领域
本发明涉及深度学习和视频监控领域,具体来说,涉及一种基于 YOLOv5网络的无人机目标检测模型。
背景技术
2015-2020年,我国民用无人机市场整体规模从24亿元预计增长到361亿元,年复合增长率为72%。在快速增长的无人机市场的背后,随之而来的是不断增长的低空安防隐患。
目前现有的低空安防方案大多是利用无线电探测技术对无人机进行检测,即通过频段来探测是否有无人机的出现,然后通过光电系统来对目标进行跟踪检测。对于那些保持静默飞行的无人机,无线电探测技术无法检测,通常需要额外通过雷达进行检测。若使用雷达探测静默飞行的无人机,一来成本太高,二来其庞大的体积限制部署环境。同时这些技术设备的安装使用都有严格的要求,无法满足快速部署的要求。此外该技术设备无法满足实时端到端输出,需要配合光电设备进行跟踪检测。这些缺点都无法满足实时快速准确的无人机检测要求。
然而随着人工智能技术的发展,现有的低空安防方案已经不能满足当前日益增长的低空安防需要,现在的低空安防急需一种端到端快速实时的检测方案,但现有的检测设备体积臃肿,部署条件苛刻,尤其是在城市里这种电磁环境复杂的环境下,检测精度被大幅度抑制,同时操作复杂,无法做到实时端到端输出。另外,由于无人机在高速低空飞行时,会带来密集目标的运动模糊,在无人机进行不同高度飞行,目标尺度变化较大导致检测效果不准确等问题,均给检测设备的优化带来了很大的负担。特别是飞行在空中的无人机距离检测设备一般较远,致使检测设备获取到的目标过于渺小,对微小目标的无人机的检测精度不高,若将检测设备结合人工智能技术、深度学习方法,以目标检测算法为基础进行优化以检测微小目标的无人机,又会为设备增加极大的计算量和成本。
因此,亟需一种既能降低检测设备体积大小并实现实时端到端输出,又能在保障检测精度的前提下,提高针对微小目标无人机的检测性能,同时,还能在一定程度上维持或降低相应计算量和成本的目标检测模型。
发明内容
因此,本发明的目的在于克服上述现有技术的缺陷,提供一种基于 YOLOv5网络的无人机目标检测模型。
本发明的目的是通过以下技术方案实现的:
根据本发明的第一方面,提供一种基于YOLOv5网络的无人机目标检测模型,所述模型包括:主干模块,用于对输入图像进行多次下采样,得到多个不同尺度的特征图;颈部模块,用于基于主干模块得到的不同尺度的特征图进行多次上采样和特征融合,输出多个不同尺度的检测特征图,其中,相比原始的YOLOv5网络,颈部模块的输出增加一个相比于原始的 YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,并减少一个最小尺度的检测特征图;预测模块,用于根据颈部模块输出的多个检测特征图进行无人机目标预测,得到目标的预测位置信息和分类结果,其中,分类的类别包括无人机类和非无人机类。
在本发明的一些实施例中,相比于原始的YOLOv5,在颈部模块增加了生成新检测特征图所需的分支网络。
在本发明的一些实施例中,相比于原始的YOLOv5网络,该模型的颈部模块首个上采样层的输入数据不流向路径聚合网络,并减少了生成最小尺度的检测特征图。
在本发明的一些实施例中,所述分支网络设置在颈部模块的特征金字塔网络的最终输出端和路径聚合网络的输入端之间;其中,分支网络基于特征金字塔网络的最终输出端的输出和主干模块的首个C3网络输出的相应尺度的特征图,生成新检测特征图。
在本发明的一些实施例中,所述分支网络依次包括对输入数据进行处理的卷积层、上采样层、特征融合层和C3网络;分支网络通过其卷积层和上采样层对输入的特征金字塔网络的最终输出端的输出进行卷积操作和上采样,特征融合层获取主干模块的首个C3网络输出的相应尺度的特征图,并将上采样后的结果与所述相应尺度的特征图进行特征融合后,输入至分支网络的C3网络生成新检测特征图。
在本发明的一些实施例中,相比于原始的YOLOv5网络,在所述分支网络的C3网络输出端和特征金字塔网络的每个C3网络的输出端引入卷积注意力机制层;所述特征金字塔网络基于多个不同尺度的特征图,多次进行上采样、特征融合、通过C3网络处理和卷积注意力机制层处理,依次输出多个不同尺度的融合特征图。
在本发明的一些实施例中,所述路径聚合网络包括第一路径网络、第二路径网络以及设置在第一路径网络输出端和第二路径网络输入端之间的卷积注意力机制层;所述多个不同尺度的检测特征图包括:第一路径网络基于将分支网络生成的检测特征图通过卷积注意力机制层处理后的数据和特征金字塔网络的最终输出端输出的相应尺寸的融合特征图,输出的第一检测特征图;第二路径网络基于将第一路径网络输出的检测特征图输入卷积注意力机制层处理得到的输出和特征金字塔网络首次输出的相应尺寸的融合特征图,输出的第二检测特征图。
在本发明的一些实施例中,所述预测模块包括多个预测头,每个预测头用于预测相应尺度的检测特征图,其中,相比原始的YOLOv5网络,包括增加的一个用于预测新检测特征图的预测头,减少一个用于预测最小尺度的检测特征图的预测头。
在本发明的一些实施例中,相比原始的YOLOv5网络,在主干模块中每个C3网络的步长为1的瓶颈结构的残差分支中添加了多个Ghost网络层和卷积注意力机制层,其中,残差分支依次包括Ghost网络层、BN层、 ReLU激活函数层、卷积注意力机制层、Ghost网络层和BN层;以及将所述瓶颈结构的恒等映射分支中的标准卷积网络替换为深度可分离卷积网络。
在本发明的一些实施例中,相比原始的YOLOv5网络,在所述主干模块的C3网络中步长为2的瓶颈结构的残差分支中添加多个Ghost网络层、深度可分离卷积网络和卷积注意力机制层,其中,残差分支依次包括Ghost 网络层、BN层、ReLu激活函数层、深度可分离卷积网络、卷积注意力机制层、Ghost网络层和BN层;以及在所述瓶颈结构的恒等映射分支中的标准卷积网络输入端添加深度可分离卷积网络。
在本发明的一些实施例中,该模型还包括图像调整网络,所述图像调整网络为可参与训练的卷积神经网络,用于将图像调整为预定尺度大小的输入图像,所述图像调整网络输出端与改进的YOLOv5网络输入端连接。
在本发明的一些实施例中,所述图像调整网络包括残差分支网络和恒等映射分支网络,所述残差分支网络依次包括卷积层、ReLu激活函数层、卷积层、ReLu激活函数层、BN层、双线性调整网络、多个残差块、卷积层、BN层、特征融合层和卷积层,恒等映射分支网络包括双线性调整网络。
根据本发明的第二方面,提供一种用于本发明第一方面的无人机目标检测模型的训练方法,包括按照如下方式对模型进行多次迭代训练:
获取训练集,其中,训练集中的样本由带有目标的图像和所述图像中目标的标签信息,其中,标签信息包括位置信息和分类,分类的类别包括无人机类和非无人机类;利用训练集训练无人机目标检测模型,得到每个样本中目标的预测结果;根据本轮次全部样本的预测结果和标签信息的差异,计算总损失,基于总损失更新所述无人机目标检测模型的参数。
在本发明的一些实施例中,所述总损失根据CIOU损失函数计算。
根据本发明的第三方面,提供一种无人机检测方法,包括:基于本发明的第二方面提供所述训练方法得到的无人机目标检测模型,对无人机目标进行检测,得到检测结果。
根据本发明的第四方面,提供一种电子设备,包括:一个或多个处理器;以及存储器,其中存储器用于存储可执行指令;所述一个或多个处理器被配置为经由执行所述可执行指令以实现根据本发明的第二方面和第三方面中任一项所述方法的步骤。
与现有技术相比,本发明的优点在于:
1、本发明的模型通过主干模块对输入图像进行多次下采样,得到多个不同尺度的特征图;颈部模块基于不同尺度的特征图进行多次上采样和特征融合,输出多个不同尺度的检测特征图,且输出增加一个相比于原始的 YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,并减少一个最小尺度的检测特征图;预测模块输出的多个检测特征图进行无人机目标预测,得到目标的预测位置信息和分类结果。该模型通过输出更大的新检测特征图并对其进行检测,既能在保证精度的前提下,提高了对微小目标无人机的检测性能;同时,减少输出一个最小尺度的检测特征图,还能在一定程度上维持或降低相应计算量和存储成本。
2、本发明在模型的多处引入有CBAM层,CBAM层的轻量级结构可以实现即插即用到卷积神经网络中,用于提取注意区域,以帮助模型抵制容易误导的特征信息,并关注有用的目标对象,减少计算量,并可以以端到端方式进行训练,以实现简单有效的特征提取。在主干模块的C3网络中的瓶颈结构的残差分支中添加多个Ghost网络层、深度可分离卷积网络,实现一定程度上的降低计算量的同时还提高了模型的检测性能。
3、本发明的模型在改进的YOLOv5网络前引入一个图像调整网络用来替换传统的调整方法,让图片图像调整操作与改进的YOLOv5网络一起训练调整,使得输入图片输入改进的YOLOv5网络后更适合检测,提高模型的检测性能。
附图说明
以下参照附图对本发明实施例作进一步说明,其中:
图1为根据本发明一个实施例的无人机目标检测模型示意图;
图2为根据本发明一个实施例的改进的YOLOv5网络的结构示意图;
图3为根据本发明一个实施例的一个CBAM层的结构示意图;
图4为根据本发明一个实施例的图像调整网络的结构原理示意图;
图5为根据本发明一个实施例的C3网络的结构示意图;
图6为根据本发明另一个实施例的改进的YOLOv5网络的结构示意图;
图7为根据本发明另一个实施例的主干模块的前三个C3G网络中步长为1的瓶颈结构示意图;
图8为根据本发明另一个实施例的主干模块的最后一个C3G网络中步长为2的瓶颈结构示意图;
图9为根据本发明一个实施例的多模态无人机跟踪数据集(Anti-UAV) 目标统计大小直方图;
图10为根据本发明一个实施例的图像裁剪前后的示意图。
具体实施方式
为了使本发明的目的,技术方案及优点更加清楚明白,以下结合附图通过具体实施例对本发明进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
如在背景技术部分提到的,随着人工智能技术的发展,现有的低空安防方案已经不能满足当前日益增长的低空安防需要,现在的低空安防要求急需一种端到端快速实时的检测方案,但现有的检测设备体积臃肿,部署条件苛刻,尤其是在城市里这种电磁环境复杂的环境下,检测精度被大幅度抑制,同时操作复杂,无法做到实时端到端输出。另外,由于无人机在高速低空飞行时,会带来密集目标的运动模糊,在无人机进行不同高度飞行,目标尺度变化较大导致检测效果不准确等问题,均给检测设备的优化带来了很大的负担。特别是飞行在空中的无人机距离检测设备一般较远,致使检测设备获取到的目标过于渺小,无法检测微小目标的无人机,若将检测设备结合人工智能技术、深度学习方法,以目标检测算法为基础进行优化以检测微小目标的无人机,又会为设备增加极大的计算量和成本。
针对以上问题,本发明提供一种基于YOLOv5网络的无人机目标检测模型,参见图1,该模型包括图像调整网络和改进的YOLOv5网络,通过图像调整网络基于卷积神经网络学习将图像调整为预定尺度大小的输入图像;通过改进的YOLOv5网络的主干模块对输入图像进行多次下采样,得到多个不同尺度的特征图;颈部模块基于不同尺度的特征图进行多次上采样和特征融合,输出多个不同尺度的检测特征图,且相比原始的YOLOv5 网络,输出增加一个相比于原始的YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,并减少一个最小尺度的检测特征图;预测模块输出的多个检测特征图进行无人机目标预测,得到目标的预测位置信息和分类结果,其中,分类的类别包括无人机类和非无人机类。该模型通过输出更大的新检测特征图并对其进行检测,既能在保证精度的前提下,提高了对微小目标无人机的检测性能;同时,减少输出一个最小尺度的检测特征图,能在一定程度上维持或降低相应计算量和存储成本。
进一步的,通过采集的训练集对该模型进行多次迭代训练,评估,得到训练好的无人机目标检测模型,并将其部署在嵌入式设备上,对飞行的无人机进行实时检测,实现了快速部署,降低了检测设备体积大小,实现了实时端到端输出且操作简单。
基于以上研究,根据本发明的一个实施例,该无人机目标检测模型基于YOLOv5网络进行改进,具体的,该模型基于4.0版本的YOLOv5网络进行改进,参见图2,包括主干模块、颈部模块和预测模块,三个模块的组合即为改进的YOLOv5网络。应当理解,对YOLOv5网络-V4.0版本的模型进行改进仅是其中一个示意性的实施例,按照本发明的指导,本领域技术人员对YOLOv5网络的其他版本也可进行类似改进,实现相同或者相似的效果。为了更好地理解本发明,下面结合具体的实施例针对该模型的每个模块分别进行详细说明。
根据本发明的一个实施例,主干模块用于对输入图像进行多次下采样,得到多个不同尺度的特征图。参见图2,主干模块依次包括:Focus模块、卷积层、C3网络、卷积层、C3网络、卷积层、C3网络、卷积层、SPP模块和C3网络。SPP模块为空间金字塔池化模块(SpatialPyramid Pooling), C3网络为集中的综合卷积网络(Concentrated-ComprehensiveConvolution Block)。
根据本发明的一个实施例,例如采用608*608尺度大小的输入图像输入主干模块中,得到多个不同尺度的特征图,包括:经过主干模块的Focus 模块进行下采样处理后,得到的304*304尺度大小的特征图;然后通过主干模块的第一个卷积层进行下采样操作,再输入第一个C3网络,大小再次减小一半,类似地特征图依次通过第二个卷积层、第二个C3网络、第三个卷积层以及第三个C3网络,使得在到达SPP模块前,304*304尺度大小的特征图经过三组卷积层+C3网络进行相应的操作,从上到下依次得到对应的152*152、76*76和38*38尺度大小的特征图,然后在38*38尺度大小的特征图的基础上再通过主干模块的最后一个卷积层进程下采样,得到的19*19尺度大小的特征图。最后,主干模块将19*19尺度大小的特征图经过SPP模块和最后一个C3网络进行处理,输入至颈部模块的输入端。
由于捕获的图像中,大覆盖区域总是包含误导模型的地理、背景等元素。使用卷积注意力机制层(Convolutional Block Attention Module,CBAM 层)可以提取注意区域,以帮助模型抵制容易误导的特征信息,并关注有用的目标对象,可以即插即用到卷积神经网络中,并可以以端到端方式进行训练。因此,CBAM层是一个简单有效且轻量级的卷积注意力机制层,参见图3,当给定一个输入特征映射,基于通道注意力模块和空间注意力模块两部分,将输入特征映射沿着通道和空间两个独立维度依次推断出注意力映射,然后将注意力映射与输入特征映射相乘,以执行自适应特征细化得到对应的自适应细化特征。本发明中在模型的多个地方均引入有 CBAM层用于可以提取注意区域,以帮助模型关注有用的目标对象。
根据对于目标检测时目标大小的定义,本发明将像素尺寸在0*0至 16*16之间的目标称为微小目标,将像素尺寸在16*16至32*32之间的目标称为小目标,将像素尺寸在32*32至96*96之间的目标称为中目标,将像素尺寸大于96*96的目标称为大目标。因此,为了增加对飞行的较远的无人机进行检测,需输出增加一个相比于原始的YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,以增加对微小目标进行检测,例如输入图像为608*608尺度大小,得到原始的YOLOv5网络中最大尺度的检测特征图为76*76尺度大小的特征图,对应到608/76=8,即可以检测8*8像素尺寸的微小目标,当输出比76*76尺度更大的新检测特征图,以检测比 8*8像素尺寸更小的微小目标。根据本发明的一个实施例,颈部模块用于基于主干模块得到的不同尺度的特征图进行多次上采样和特征融合,输出多个不同尺度的检测特征图,其中,相比原始的YOLOv5网络,输出增加一个相比于原始的YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,并减少一个最小尺度的检测特征图,可减少计算和存储成本。
根据本发明的一个实施例,参见图2,相比于原始的YOLOv5网络,在特征金字塔网络的每个C3网络的输出端引入CBAM层,得到的特征金字塔网络的结构依次包括卷积层、上采样层、特征融合层、C3网络、CBAM 层、卷积层、上采样层、特征融合层、C3网络和CBAM层,特征金字塔网络基于多个不同尺度的特征图,多次进行上采样、特征融合、通过C3网络处理和卷积注意力机制层处理,依次输出多个不同尺度的融合特征图。例如基于主干模块对608*608尺度大小的输入图像多次下采样得到的多个不同尺度的特征图,特征金字塔网络将19*19尺度大小的特征图依次通过卷积层和上采样层处理后输入特征融合层,特征融合层将其与主干模块得到的38*38尺度大小的特征图进行特征融合,再依次通过C3网络、CBAM 层和卷积层处理,得到38*38尺度大小的融合特征图,将38*38尺度大小的融合特征图通过上采样层进行上采样后,通过特征融合层将上采样后的结果与76*76尺度大小的特征图进行特征融合,再通过C3网络和CBAM 层处理,得到76*76尺度大小的融合特征图。
为输出一个相比于原始的YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,根据本发明的一个实施例,参见图2,相比于原始的 YOLOv5,在颈部模块增加了生成新检测特征图所需的分支网络。所述分支网络设置在颈部模块的特征金字塔网络的最终输出端和路径聚合网络的输入端之间。其中,分支网络基于特征金字塔网络的最终输出端的输出和主干模块的首个C3网络YOLOv5输出的相应尺度的特征图,生成新检测特征图。
根据本发明的一个实施例,所述分支网络依次包括对输入数据进行处理的卷积层、上采样层、特征融合层、C3网络和CBAM层;分支网络通过其卷积层和上采样层对输入的特征金字塔网络的最终输出端的输出进行卷积处理和上采样,特征融合层获取模型主干模块的首个C3网络输出的相应尺度的特征图,并将上采样后的结果与所述相应尺度的特征图进行特征融合后,输入至分支网络的C3网络生成新检测特征图。例如输入图像为608*608尺度大小,依次经过主干模块的Focus模块、卷积层、C3网络进行处理,得到首个C3网络输出的152*152尺度大小的特征图,特征金字塔网络的最终输出端的输出为76*76尺度大小的融合特征图,分支网络通过其卷积层和上采样层对输入76*76尺度大小的融合特征图进行卷积处理和上采样,特征融合层获取152*152尺度大小的特征图进行特征融合后,输入至分支网络的C3网络生成152*152尺度大小的新检测特征图,且输出通道包括255个,每个通道上均生成一个152*152尺度大小的新检测特征图,以152*152*255表示最终结果。将得到的新检测特征图输入预测模块进行预测,同时,将该新检测特征图通过CBAM层进行处理后输入至路径聚合网络中。
根据本发明的一个实施例,所述路径聚合网络包括第一路径网络1、第二路径网络2以及设置在第一路径网络1输出端和第二路径网络2输入端之间的卷积注意力机制层;所述多个不同尺度的检测特征图包括:第一路径网络1基于将分支网络生成的检测特征图通过卷积注意力机制层处理后的数据和特征金字塔网络的最终输出端输出的相应尺寸的融合特征图,输出第一检测特征图;第二路径网络2基于将第一路径网络1输出的检测特征图输入卷积注意力机制层处理得到的输出和特征金字塔网络首次输出的相应尺寸的融合特征图,输出第二检测特征图。具体的,参见图2,第一路径网络1和第二路径网络2的结构相同,均依次包括:卷积层、特征融合层和C3网络。多个不同尺度的检测特征图包括:第一路径网络1基于将152*152尺度大小的新检测特征图通过CBAM层处理后的数据和特征金字塔网络的最终输出的76*76尺度大小的融合特征图,输出76*76尺度大小的第一检测特征图;第二路径网络2基于将76*76尺度大小的检测特征图输入卷积注意力机制层处理得到的输出和特征金字塔网络首次输出的38*38尺度大小的融合特征图,输出38*38尺度大小的第二检测特征图。同样的,其输出通道包括255个,最终得到255个76*76尺度大小的第一检测特征图和255个38*38尺度大小的第二检测特征图,分别以 76*76*255和38*38*255表示。
为减少输出一个最小尺度的检测特征图,根据本发明的一个实施例,相比于原始的YOLOv5网络,该模型的颈部模块首个上采样层的输入数据不流向路径聚合网络,并减少了生成最小尺度的检测特征图,减少了模型计算量和存储成本。
根据本发明的一个实施例,预测模块用于根据颈部模块输出的多个检测特征图进行无人机目标预测,得到目标的预测位置信息和分类结果,其中,分类的类别包括无人机类和非无人机类。
根据本发明的一个实施例,参见图2,所述预测模块包括三个预测头,每个预测头用于预测相应尺度的检测特征图,其中,相比原始的YOLOv5 网络,包括增加的一个用于预测152*152尺度大小的新检测特征图的预测头,减少一个用于预测最小尺度的检测特征图(即38*38尺度大小的第二检测特征图)的预测头。
根据本发明的一个实施例,多个预测头分别对颈部模块生成的多个特征图进行无人机目标预测,得到每个检测特征图中目标的预测边界框和预测边界框内目标的类别;根据预测边界框内目标为无人机类别的概率以及无人机目标的真实边界框和预测边界框之间的相交部分面积与相并部分面积之比,计算预测边界框中存在无人机的置信度;对比多个特征图的置信度,以置信度最高对应的预测边界框和预测边界框内目标的类别作为目标的预测位置信息和分类结果。
最后,可以在改进的YOLOv5网络前引入一个图像调整网络(resize model)用来替换传统的调整方法,让图片图像调整操作与改进的YOLOv5 网络一起训练调整,使得输入图片输入改进的YOLOv5网络后更适合检测,提高无人机目标检测模型的检测性能。根据本发明的一个实施例,该模型还包括图像调整网络,图像调整器为可参与训练的卷积神经网络,用于将图像调整为预定尺度大小的输入图像,所述图像调整网络输出端与改进的 YOLOv5网络输入端连接。具体的,该图像调整网络可将原始尺度大小的全部图像统一调整为预定608*608尺度大小的输入图像。
根据本发明的一个实施例,参见图4,所述图像调整网络(Resizer Model)包括残差分支网络和恒等映射分支网络,所述残差分支网络依次包括二维卷积层、ReLu激活函数层、二维卷积层、ReLu激活函数层、BN 层、双线性调整网络(Bilnear Resizer)、r个Res残差块、二维卷积层、BN 层、特征融合层和二维卷积层,恒等映射分支网络包括双线性调整网络(Bilnear Resizer)。其中,图像调整网络中所有的卷积层都有16个大小为 3×3的核。第一层和最后一层的卷积核大小为7×7,且图像调整网络引入的参数非常小。另外,图像调整网络中的r个Res残差块构成了残差网络,使得网络结构能在更深的层次保持良好的特征提取能力。
根据本发明的另一个实施例,在原始YOLOv5网络的主干模块的C3 网络中引入了CBAM层,同时,为了降低主干模块的计算量和提高模型的检测能力,还引入了Ghost网络层。参见图5,C3网络的一个分支中包括卷积层,另一分支依次包括卷积层和n个瓶颈结构(Bottleneck),以及两分支输出端的特征融合层和卷积层,另外,在4.0版本的YOLOv5网络中,其主干模块中的前三个C3网络的每个瓶颈结构的步长均为1,主干模块的最后一个C3网络的每个瓶颈结构的步长为2,颈部模块中的C3网络的每个瓶颈结构的步长为2。本发明中可对主干网络的C3网络进行相应的改进,也可以对颈部模块中的C3网络进行改进,改进后C3网络以C3G 网络表示。其中,参见图6,对主干模块中的全部C3网络进行改进,得到的主干模块依次包括:Focus模块、卷积层、C3G网络、卷积层、C3G网络、卷积层、C3G网络、卷积层、SPP模块和C3G网络,其中,主干模块的前三个C3G网络是基于C3网络的步长为1的瓶颈结构进行改进获得的,最后一个C3G网络是基于C3网络的步长为2的瓶颈结构进行改进获得的。
根据本发明的另一个实施例,主干模块中的C3网络的另一种改进参见图7,相比原始的YOLOv5网络,在主干模块中每个C3网络的步长为 1的瓶颈结构的残差分支中添加了多个Ghost网络层和卷积注意力机制层,得到的残差分支依次包括Ghost网络层、BN层、ReLU激活函数层、CBAM 层、Ghost网络层和BN层;以及将所述瓶颈结构的恒等映射分支中的标准卷积网络替换为深度可分离卷积网络。即通过该方式对原始YOLOv5网络的主干模块中步长为1的瓶颈结构进行改进,得到改进的C3网络作为模型的主干模块的前三个C3G网络。
根据本发明的另一个实施例,主干模块中的C3网络再一种改进参见图8,相比原始的YOLOv5网络,在所述主干模块的C3网络中步长为2 的瓶颈结构的残差分支中添加多个Ghost网络层、深度可分离卷积网络和卷积注意力机制层,得到的残差分支依次包括Ghost网络层、BN层、ReLu 激活函数层、深度可分离卷积网络、CBAM层、Ghost网络层和BN层;以及在所述瓶颈结构的恒等映射分支中的标准卷积网络输入端添加深度可分离卷积网络。即通过该方式对原始YOLOv5网络的主干模块中步长为2 的瓶颈结构进行改进,得到改进的C3网络作为模型的主干模块的最后一个C3G网络。
根据本发明的一个实施例,提供一种用于本发明第一方面的无人机目标检测模型的训练方法,包括按照如下步骤对模型进行多次迭代训练:
步骤S1:获取训练集,其中,训练集中的样本由带有目标的图像和所述图像中目标的标签信息,其中,标签信息包括位置信息和分类,分类的类别包括无人机类和非无人机类。位置信息包括目标的真实边界框及真实边界框的中心点位置。
根据本发明的一个实施例,训练集的生成方式包括:确定需要检测的目标类别,为此,可以通过编写爬虫脚本收集网上相应类别的公开数据集,可以包括空中飞行的无人机、容易与无人机混淆的飞行的鸟类、风筝等数据集;利用labeling工具对各个数据集进行标注得到xml格式的标注信息,标注信息主要包括图片内目标的坐标信息和类别信息;利用诸如python编程语言分别编写标注信息修改脚本、标注位置信息,统计脚本进行数据分析,得到如图8所示的多模态无人机跟踪数据集(Anti-UAV)目标统计大小直方图,其横坐标表示区域像素尺寸大小(Area in pixel),纵坐标表示出现频率(Frequency of area),从图中可以发现微小目标占比较多,且中目标以及中目标以上目标数量对比小目标数量可以忽略不计;利用对数据集进行裁剪的数据增强手段,使得待检测目标随机分布在图片的各个位置,而非聚集在图片的中心位置,如图9所示,裁剪前的目标分布在图片的中心位置,裁剪后的目标分布在图片的右侧位置。将所有的标注文件由xml 格式转换为txt格式并对坐标进行归一化,完成后的txt文本包含目标类别、左上角坐标和右下角坐标(根据两坐标可得到真实边界框信息和中心点坐标信息),并将90%的数据作为训练集,10%的数据作为测试集,即可完成图片输入无人机目标检测模型前的所有预处理。
步骤S2:利用训练集训练无人机目标检测模型,得到每个样本中目标的预测结果。其中,目标的预测结果中包括了目标的预测边界框及预测边界框的中心点位置。
步骤S3:根据本轮次全部样本的预测结果和标签信息的差异,计算总损失,基于总损失更新所述无人机目标检测模型的参数。
根据本发明的一个实施例,所述总损失根据CIOU损失函数计算,计算方式如下:
其中,IOU为预测边界框和真实边界框的交集面积与并集的面积之比,ρ2(b,bgt)分别代表了预测边界框和真实边界框的中心点的欧氏距离,b表示预测边界框的中心点,bgt表示真实边界框的中心点,C代表能够同时包含预测边界框和真实边界框的最小闭包区域的对角线距离, v是用于衡量长宽比一致性的参数,wgt表示真实边界框的宽度,hgt表示真实边界框的高度,wp表示预测边界框的宽度,hp表示预测边界框的高度。该损失函数在计算时增加了对预测边界框的长宽比的考虑,有效避免了当存在预测边界框处于真实边界框内部,且预测边界框大小一致时,其无法区分各个预测边界框的位置关系的问题。最后,根据得到的总损失CIOU_Loss,更新无人机目标检测模型的参数。
根据本发明的一个实施例,训练结束后得到中间模型文件(无人机目标检测模型文件),然后利用测试集对中间模型文件(无人机目标检测模型文件)进行测试和模型评估,评估指标可综合考虑深度学习模型评估中主流的MAP、Precision、Recall、Flops等指标。判断各项指标是否达到技术规范的要求,如果未达到,可通过优化样本标注、图像数据增强处理等方式来重新建立训练集、测试集。然后通过反复迭代训练、评估,得到最优的基础模型文件及对应的训练集。
根据本发明的一个实施例,利用测试集对中间模型文件(无人机目标检测模型文件)进行测试和模型评估,具体可以将训练结束后得到的无人机目标检测模型部署在嵌入式设备中进行测试评估,例如在开发板(Jetson nano)上安装数据流分析工具包(Deepstream),该工具包包含硬件加速构建块,可将深层神经网络和其他复杂处理任务带入流处理管道。同时,在服务器端利用神经网络推理库(TensorRT)生成文件(AntiUAV-YOLOv5.wts),并可以实现计算推理加速,随后生成对应的Engine文件, Deepstream对Engine文件进行部署即完成模型部署。最后利用部署完成的无人机目标检测模型对测试集进行测试评估。
根据本发明的一个实施例,提供一种无人机检测方法,包括:基于本发明的上述训练方法得到的无人机目标检测模型,对无人机目标进行检测,得到检测结果。具体的,可以将训练好的无人机目标检测模型部署在嵌入式设备中,用于对飞行的无人机进行实时检测。
需要说明的是,虽然上文按照特定顺序描述了各个步骤,但是并不意味着必须按照上述特定顺序来执行各个步骤,实际上,这些步骤中的一些可以并发执行,甚至改变顺序,只要能够实现所需要的功能即可。
本发明可以是系统、方法和/或计算机程序产品。计算机程序产品可以包括计算机可读存储介质,其上载有用于使处理器实现本发明的各个方面的计算机可读程序指令。
计算机可读存储介质可以是保持和存储由指令执行设备使用的指令的有形设备。计算机可读存储介质例如可以包括但不限于电存储设备、磁存储设备、光存储设备、电磁存储设备、半导体存储设备或者上述的任意合适的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、静态随机存取存储器(SRAM)、便携式压缩盘只读存储器(CD-ROM)、数字多功能盘(DVD)、记忆棒、软盘、机械编码设备、例如其上存储有指令的打孔卡或凹槽内凸起结构、以及上述的任意合适的组合。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。本文中所用术语的选择,旨在最好地解释各实施例的原理、实际应用或对市场中的技术改进,或者使本技术领域的其它普通技术人员能理解本文披露的各实施例。
Claims (17)
1.一种基于YOLOv5网络的无人机目标检测模型,其特征在于,,所述模型包括:
主干模块,用于对输入图像进行多次下采样,得到多个不同尺度的特征图;
颈部模块,用于基于主干模块得到的不同尺度的特征图进行多次上采样和特征融合,输出多个不同尺度的检测特征图,其中,相比原始的YOLOv5网络,颈部模块的输出增加一个相比于原始的YOLOv5网络中最大尺度的检测特征图更大的新检测特征图,并减少一个最小尺度的检测特征图;
预测模块,用于根据颈部模块输出的多个检测特征图进行无人机目标预测,得到目标的预测位置信息和分类结果,其中,分类的类别包括无人机类和非无人机类。
2.根据权利要求1所述的模型,其特征在于,相比于原始的YOLOv5,在颈部模块增加了生成新检测特征图所需的分支网络。
3.根据权利要求1所述的模型,其特征在于,相比于原始的YOLOv5网络,该模型的颈部模块首个上采样层的输入数据不流向路径聚合网络,并减少了生成最小尺度的检测特征图。
4.根据权利要求2所述的模型,其特征在于,所述分支网络设置在颈部模块的特征金字塔网络的最终输出端和路径聚合网络的输入端之间;
其中,分支网络基于特征金字塔网络的最终输出端的输出和主干模块的首个C3网络输出的相应尺度的特征图,生成新检测特征图。
5.根据权利要求2或4所述的模型,其特征在于,所述分支网络依次包括对输入数据进行处理的卷积层、上采样层、特征融合层和C3网络;
分支网络通过其卷积层和上采样层对输入的特征金字塔网络的最终输出端的输出进行卷积操作和上采样,特征融合层获取主干模块的首个C3网络输出的相应尺度的特征图,并将上采样后的结果与所述相应尺度的特征图进行特征融合后,输入至分支网络的C3网络生成新检测特征图。
6.根据权利要求5所述的模型,其特征在于,相比于原始的YOLOv5网络,在所述分支网络的C3网络输出端和特征金字塔网络的每个C3网络的输出端引入卷积注意力机制层;
所述特征金字塔网络基于多个不同尺度的特征图,多次进行上采样、特征融合、通过C3网络处理和卷积注意力机制层处理,依次输出多个不同尺度的融合特征图。
7.根据权利要求6所述的模型,其特征在于,所述路径聚合网络包括第一路径网络、第二路径网络以及设置在第一路径网络输出端和第二路径网络输入端之间的卷积注意力机制层;
所述多个不同尺度的检测特征图包括:
第一路径网络基于将分支网络生成的检测特征图通过卷积注意力机制层处理后的数据和特征金字塔网络的最终输出端输出的相应尺寸的融合特征图,输出的第一检测特征图;
第二路径网络基于将第一路径网络输出的检测特征图输入卷积注意力机制层处理得到的输出和特征金字塔网络首次输出的相应尺寸的融合特征图,输出的第二检测特征图。
8.根据权利要求1或7所述的模型,其特征在于,所述预测模块包括多个预测头,每个预测头用于预测相应尺度的检测特征图,其中,相比原始的YOLOv5网络,包括增加的一个用于预测新检测特征图的预测头,减少一个用于预测最小尺度的检测特征图的预测头。
9.根据权利要求1所述的模型,其特征在于,相比原始的YOLOv5网络,在主干模块中每个C3网络的步长为1的瓶颈结构的残差分支中添加了多个Ghost网络层和卷积注意力机制层,其中,残差分支依次包括Ghost网络层、BN层、ReLU激活函数层、卷积注意力机制层、Ghost网络层和BN层;以及
将所述瓶颈结构的恒等映射分支中的标准卷积网络替换为深度可分离卷积网络。
10.根据权利要求1所述的模型,其特征在于,相比原始的YOLOv5网络,在所述主干模块的C3网络中步长为2的瓶颈结构的残差分支中添加多个Ghost网络层、深度可分离卷积网络和卷积注意力机制层,其中,残差分支依次包括Ghost网络层、BN层、ReLu激活函数层、深度可分离卷积网络、卷积注意力机制层、Ghost网络层和BN层;
以及在所述瓶颈结构的恒等映射分支中的标准卷积网络输入端添加深度可分离卷积网络。
11.根据权利要求1-10任一项所述模型,其特征在于,还包括图像调整网络,所述图像调整网络为可参与训练的卷积神经网络,用于将图像调整为预定尺度大小的输入图像,所述图像调整网络输出端与改进的YOLOv5网络输入端连接。
12.根据权利要求11所述的模型,其特征在于,所述图像调整网络包括残差分支网络和恒等映射分支网络,所述残差分支网络依次包括卷积层、ReLu激活函数层、卷积层、ReLu激活函数层、BN层、双线性调整网络、多个残差块、卷积层、BN层、特征融合层和卷积层,恒等映射分支网络包括双线性调整网络。
13.一种用于权利要求1-12任一项的无人机目标检测模型的训练方法,其特征在于,包括按照如下方式对模型进行多次迭代训练:
获取训练集,其中,训练集中的样本由带有目标的图像和所述图像中目标的标签信息,其中,标签信息包括位置信息和分类,分类的类别包括无人机类和非无人机类;
利用训练集训练无人机目标检测模型,得到每个样本中目标的预测结果;
根据本轮次全部样本的预测结果和标签信息的差异,计算总损失,基于总损失更新所述无人机目标检测模型的参数。
14.根据权利要求13所述的方法,其特征在于,所述总损失根据CIOU损失函数计算。
15.一种无人机检测方法,其特征在于,包括:
基于权利要求13中所述训练方法得到的无人机目标检测模型,对无人机目标进行检测,得到检测结果。
16.一种计算机可读存储介质,其特征在于,其上存储有计算机程序,所述计算机程序可被处理器执行以实现权利要求13至15中任一项所述方法的步骤。
17.一种电子设备,其特征在于,包括:
一个或多个处理器;以及
存储器,其中存储器用于存储可执行指令;
所述一个或多个处理器被配置为经由执行所述可执行指令以实现权利要求13至15中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210253316.6A CN114612835A (zh) | 2022-03-15 | 2022-03-15 | 一种基于YOLOv5网络的无人机目标检测模型 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210253316.6A CN114612835A (zh) | 2022-03-15 | 2022-03-15 | 一种基于YOLOv5网络的无人机目标检测模型 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114612835A true CN114612835A (zh) | 2022-06-10 |
Family
ID=81862458
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210253316.6A Pending CN114612835A (zh) | 2022-03-15 | 2022-03-15 | 一种基于YOLOv5网络的无人机目标检测模型 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114612835A (zh) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821486A (zh) * | 2022-06-29 | 2022-07-29 | 武汉纺织大学 | 一种电力作业场景下人员识别方法 |
CN115223130A (zh) * | 2022-09-20 | 2022-10-21 | 南京理工大学 | 基于改进YOLOv5的多任务全景驾驶感知方法与系统 |
CN115272814A (zh) * | 2022-09-28 | 2022-11-01 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN115376025A (zh) * | 2022-08-11 | 2022-11-22 | 广西壮族自治区通信产业服务有限公司技术服务分公司 | 一种无人机目标检测方法、系统、设备及存储介质 |
CN116189021A (zh) * | 2023-02-27 | 2023-05-30 | 中国人民解放军国防科技大学 | 多分支互交叉注意力增强的无人机多光谱目标检测方法 |
CN116363485A (zh) * | 2023-05-22 | 2023-06-30 | 齐鲁工业大学(山东省科学院) | 一种基于改进YOLOv5的高分辨率目标检测方法 |
CN117523550A (zh) * | 2023-11-22 | 2024-02-06 | 中化现代农业有限公司 | 苹果病虫害检测方法、装置、电子设备和存储介质 |
-
2022
- 2022-03-15 CN CN202210253316.6A patent/CN114612835A/zh active Pending
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114821486B (zh) * | 2022-06-29 | 2022-10-11 | 武汉纺织大学 | 一种电力作业场景下人员识别方法 |
CN114821486A (zh) * | 2022-06-29 | 2022-07-29 | 武汉纺织大学 | 一种电力作业场景下人员识别方法 |
CN115376025A (zh) * | 2022-08-11 | 2022-11-22 | 广西壮族自治区通信产业服务有限公司技术服务分公司 | 一种无人机目标检测方法、系统、设备及存储介质 |
CN115376025B (zh) * | 2022-08-11 | 2024-01-26 | 广西壮族自治区通信产业服务有限公司技术服务分公司 | 一种无人机目标检测方法、系统、设备及存储介质 |
CN115223130B (zh) * | 2022-09-20 | 2023-02-03 | 南京理工大学 | 基于改进YOLOv5的多任务全景驾驶感知方法与系统 |
CN115223130A (zh) * | 2022-09-20 | 2022-10-21 | 南京理工大学 | 基于改进YOLOv5的多任务全景驾驶感知方法与系统 |
WO2024060605A1 (zh) * | 2022-09-20 | 2024-03-28 | 南京理工大学 | 基于改进YOLOv5的多任务全景驾驶感知方法与系统 |
GB2624812A (en) * | 2022-09-20 | 2024-05-29 | Univ Nanjing Sci & Tech | Multi-task panoptic driving perception method and system based on improved YOLOv5 |
CN115272814B (zh) * | 2022-09-28 | 2022-12-27 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN115272814A (zh) * | 2022-09-28 | 2022-11-01 | 南昌工学院 | 一种远距离空间自适应多尺度的小目标检测方法 |
CN116189021A (zh) * | 2023-02-27 | 2023-05-30 | 中国人民解放军国防科技大学 | 多分支互交叉注意力增强的无人机多光谱目标检测方法 |
CN116189021B (zh) * | 2023-02-27 | 2024-04-09 | 中国人民解放军国防科技大学 | 多分支互交叉注意力增强的无人机多光谱目标检测方法 |
CN116363485A (zh) * | 2023-05-22 | 2023-06-30 | 齐鲁工业大学(山东省科学院) | 一种基于改进YOLOv5的高分辨率目标检测方法 |
CN116363485B (zh) * | 2023-05-22 | 2024-03-12 | 齐鲁工业大学(山东省科学院) | 一种基于改进YOLOv5的高分辨率目标检测方法 |
CN117523550A (zh) * | 2023-11-22 | 2024-02-06 | 中化现代农业有限公司 | 苹果病虫害检测方法、装置、电子设备和存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114612835A (zh) | 一种基于YOLOv5网络的无人机目标检测模型 | |
CN111898507B (zh) | 一种预测无标签遥感影像地表覆盖类别的深度学习方法 | |
CN108596101B (zh) | 一种基于卷积神经网络的遥感图像多目标检测方法 | |
CN109934163B (zh) | 一种基于场景先验和特征再融合的航空图像车辆检测方法 | |
CN108764063B (zh) | 一种基于特征金字塔的遥感影像时敏目标识别系统及方法 | |
CN109255317B (zh) | 一种基于双网络的航拍图像差异检测方法 | |
CN109598241B (zh) | 基于Faster R-CNN的卫星图像海上舰船识别方法 | |
CN108596108B (zh) | 基于三元组语义关系学习的航拍遥感图像变化检测方法 | |
Raghavan et al. | Optimized building extraction from high-resolution satellite imagery using deep learning | |
CN110659601B (zh) | 基于中心点的深度全卷积网络遥感图像密集车辆检测方法 | |
CN115830471B (zh) | 一种多尺度特征融合和对齐的域自适应云检测方法 | |
Shen et al. | Biomimetic vision for zoom object detection based on improved vertical grid number YOLO algorithm | |
CN112232371A (zh) | 一种基于YOLOv3与文本识别的美式车牌识别方法 | |
US10755146B2 (en) | Network architecture for generating a labeled overhead image | |
KR20220112590A (ko) | 인공지능 기반 수계오염원 모니터링 시스템 및 방법 | |
CN113610070A (zh) | 一种基于多源数据融合的滑坡灾害识别方法 | |
Michaelsen et al. | Stochastic reasoning for structural pattern recognition: An example from image-based UAV navigation | |
CN114926747A (zh) | 一种基于多特征聚合与交互的遥感图像定向目标检测方法 | |
CN113255589A (zh) | 一种基于多卷积融合网络的目标检测方法及系统 | |
CN111553280A (zh) | 基于深度学习的目标部位识别方法 | |
CN113033516A (zh) | 对象识别统计方法及装置、电子设备、存储介质 | |
CN116385958A (zh) | 一种用于电网巡检和监控的边缘智能检测方法 | |
CN114332473A (zh) | 目标检测方法、装置、计算机设备、存储介质及程序产品 | |
CN113052108A (zh) | 基于深度神经网络的多尺度级联航拍目标检测方法和系统 | |
CN115909096A (zh) | 无人机巡航管道隐患分析方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |