CN116580322A - 一种地面背景下无人机红外小目标检测方法 - Google Patents

一种地面背景下无人机红外小目标检测方法 Download PDF

Info

Publication number
CN116580322A
CN116580322A CN202211680004.XA CN202211680004A CN116580322A CN 116580322 A CN116580322 A CN 116580322A CN 202211680004 A CN202211680004 A CN 202211680004A CN 116580322 A CN116580322 A CN 116580322A
Authority
CN
China
Prior art keywords
convolution block
feature
convolution
loss
network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211680004.XA
Other languages
English (en)
Inventor
詹伟达
洪洋
于永吉
刘晟佐
韩登
李国宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Changchun University of Science and Technology
Original Assignee
Changchun University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Changchun University of Science and Technology filed Critical Changchun University of Science and Technology
Priority to CN202211680004.XA priority Critical patent/CN116580322A/zh
Publication of CN116580322A publication Critical patent/CN116580322A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/806Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Remote Sensing (AREA)
  • Aiming, Guidance, Guns With A Light Source, Armor, Camouflage, And Targets (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明属于目标检测技术领域,尤其为一种地面背景下无人机红外小目标检测方法,包括如下步骤:构建网络模型:整个网络由主干网络、加权双向特征金字塔网络和检测头组成;准备数据集:准备地面背景下的红外无人机小目标数据集并预处理;训练网络模型:将数据集输入到构建的网络模型中进行训练;选择最小化损失函数和最优评价指标后进行保存模型;本发明采用的是双向加权特征金字塔网络,能够方便快速地进行多尺度融合特征,增加检测精度,提高准确率的同时降低虚警率。

Description

一种地面背景下无人机红外小目标检测方法
技术领域
本发明涉及目标检测技术领域,具体为一种地面背景下无人机红外小目标检测方法。
背景技术
随着红外图像目标检测在无人机侦察与反侦察、野生动物观察与保护、车辆监控与避障等等方面有着越来越广泛的应用,如今对于目标检测精度要求越来越高;并且,随着目标距离探测器的距离增加,目标的尺寸越来越小,在图像中所占像素越来越小,缺乏几何纹理特征,传统的目标检测算法也无法达到检测要求;所以,基于地面复杂背景下红外图像成像距离较远和受噪声影响较大等特点,红外小目标检测是现在国内外许多学者研究的重点与难点。
中国专利公开号为“CN110555868A”,名称为“一种复杂地面背景下运动小目标检测方法”,该方法的具体步骤是:首先利用光流约束方程,提取稀疏点,计算背景运动估计矩阵;其次得到帧差图对多帧帧差进行融合,进而得到前后向运动历史图;然后进行阈值处理,得到候选运动目标和多条运动轨迹;最后通过计算每条轨迹的置信度,得到最终的小目标检测结果;
上述方法的训练时间长,复杂度较高,得到的目标检测结果准确性低,虚警率高,因此我们提出了一种地面背景下无人机红外小目标检测方法来解决上述问题。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种地面背景下无人机红外小目标检测方法,解决了上述背景技术中所提出的问题。
(二)技术方案
本发明为了实现上述目的具体采用以下技术方案:
一种地面背景下无人机红外小目标检测方法,包括如下步骤:
步骤1,构建网络模型:整个网络由九个卷积块构成,其中卷积块一、卷积块二、卷积块三、卷积块四、卷积块五、卷积块六和卷积块七均由卷积层、激活函数和归一化层组成,且构成了此网络模型的主干网络;卷积块一对输入图像进行下采样输出后进入卷积块二,同理,由卷积块二下采样输出后进入卷积块三,由卷积块三下采样输出后进入卷积块四,由卷积块四下采样输出后进入卷积块五,由卷积块五下采样输出后进入卷积块六,由卷积块六下采样输出后进入卷积块七;卷积块三、卷积块四、卷积块五、卷积块六和卷积块七通过加权双向特征金字塔网络得到特征层一、特征层二、特征层三、特征图层四和特征层五;五个特征层拥有一个共享检测头,检测头包括卷积块八和卷积块九,均由深度可分离卷积、归一化层、卷积层以及激活函数组成,卷积块八通过卷积层一得到分类结果;卷积块九通过卷积层二得到回归结果;卷积块九通过卷积层三得到中心度结果,用来得到目标距离目标中心的远近程度;
步骤2,准备数据集:本文采用低地/空背景下红外图像弱小飞机目标检测跟踪数据中的部分地面背景下的红外无人机小目标数据集;并且对红外小目标图像数据进行预处理;
步骤3,训练网络模型:将步骤2中的数据集输入到步骤1中构建的目标检测的网络模型中进行训练;
步骤4,选择最小化损失函数和最优评价指标:通过最小化网络输出图像与标签的损失函数,直到训练次数达到设定阈值或损失函数的值到达设定范围内即可认为模型参数已预训练完成,保存模型参数的同时选择最优评价指标来评估算法的性能优劣程度;
步骤5,保存模型:将最终确定的模型进行训练并保存;之后在需要进行地面背景下无人机红外小目标检测时,直接将图像输入到网络中即可得到检测后的图像。
进一步地,所述步骤1中的卷积块三、卷积块四、卷积块五、卷积块六和卷积块七为可变形卷积;可变形卷积指卷积核在每一个元素上额外增加了一个参数方向参数,可以自适应确定尺度或感受野大小;与普通卷积相比,可变形卷积能够增加偏移量,并且动态调整采样点,准确提取更完整的特征。
进一步地,所述步骤1中的加权双向特征金字塔网络由特征三、特征四、特征五、特征六、特征七、中间特征一、中间特征二、中间特征三、中间特征四、中间特征五以及其输出的特征层一、特征层二、特征层三、特征层四和特征层五构成;加权双向特征金字塔网络允许更加简单快速的多尺度特征融合,能够更好地平衡了不同尺度的特征信息,并且有效地提升了检测精度。
进一步地,所述步骤4中所采用的最小化损失函数为分类损失、定位损失和中心度损失之和,分类损失采用二分类交叉熵损失配合焦点损失,定位损失采用广义边界框交并比损失,中心度损失采用二分类交叉熵损失,并且计算损失时只有正样本参与计算。
进一步地,所述步骤4中损失函数的设计不仅能够反馈模型的质量,还能影响模型的好坏;最优评价指标选择精确率、召回率以及平均精度均值,能够有效反映目标检测算法的精度与效率,衡量目标检测网络。
(三)有益效果
与现有技术相比,本发明提供了一种地面背景下无人机红外小目标检测方法,具备以下有益效果:
本发明在卷积块三、卷积块四、卷积块五、卷积块六和卷积块七上采用可变形卷积,可以提升主干网络在物体检测上的性能,减小了计算量的同时,也提升了系统的性能。
本发明所采用的加权双向特征金字塔网络是集成了自顶向下和自底向上的融合,能够方便、快速地进行多尺度融合特征,增加检测精度,提高准确率,降低虚警率。
本发明的定位损失函数采用的是广义边界框交并比损失,避免了在距离较远时产生难以优化的损失值,与此同时,与边界框交并比损失相比,广义边界框交并比损失的收敛速度更快、回归速度更快并且训练效果更好。
附图说明
图1为本发明一种地面背景下无人机红外小目标检测方法流程图;
图2为本发明一种地面背景下无人机红外小目标检测方法的网络结构图;
图3为本发明所述共享检测头的具体组成结构图;
图4为本发明所述卷积块八和卷积块九中每一个卷积块的具体组成结构图;
图5为本发明提出方法和现有技术的相关指标对比图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例1
如图1-5所示,本发明一个实施例提出的一种地面背景下无人机红外小目标检测方法,该方法具体包括如下步骤:
步骤1,构建网络模型;
整个网络由九个卷积块构成,其中卷积块一、卷积块二、卷积块三、卷积块四、卷积块五、卷积块六和卷积块七均由卷积层、激活函数和归一化层组成,且构成了此网络模型的主干网络;卷积块一对输入图像进行下采样输出后进入卷积块二,同理,由卷积块二下采样输出后进入卷积块三,由卷积块三下采样输出后进入卷积块四,由卷积块四下采样输出后进入卷积块五,由卷积块五下采样输出后进入卷积块六,由卷积块六下采样输出后进入卷积块七;卷积块三、卷积块四、卷积块五、卷积块六和卷积块七通过加权双向特征金字塔网络得到特征层一、特征层二、特征层三、特征图层四和特征层五;五个特征层拥有一个共享检测头,检测头包括卷积块八和卷积块九,均由四个卷积层、归一化层以及激活函数组成,卷积块八通过卷积层一得到分类结果;卷积块九通过卷积层二得到回归结果;卷积块九通过卷积层三得到中心度结果,用来得到目标距离目标中心的远近程度;在卷积块三、卷积块四、卷积块五、卷积块六和卷积块七上采用可变形卷积,可以提升主干网络在物体检测上的性能,大大减小了计算量的同时,也提升了系统的性能;
本发明采用的加权双向特征金字塔网络是集成了自顶向下和自底向上的融合,能够方便、快速地进行多尺度融合特征,增加检测精度;
步骤2,准备数据集;
本文采用低地/空背景下红外图像弱小飞机目标检测跟踪数据中的部分地面背景下的红外无人机小目标数据集;并且对红外小目标图像数据进行预处理;
步骤3,训练网络模型;
将步骤2中的数据集输入到步骤1中构建的目标检测的网络模型中进行训练;
步骤4,选择最小化损失函数值和最优评价指标;
通过最小化网络输出图像与标签的损失函数,直到训练次数达到设定阈值或损失函数的值到达设定范围内即可认为模型参数已预训练完成,保存模型参数的同时选择最优评价指标来评估算法的性能优劣程度;
本发明所采用的最小化损失函数为分类损失、定位损失和中心度损失之和,分类损失采用二分类交叉熵损失配合焦点损失,定位损失采用广义边界框交并比损失,中心度损失采用二分类交叉熵损失,并且计算损失时只有正样本参与计算;损失函数的设计不仅能够反馈模型的质量,还能影响模型的好坏;最优评价指标选择精确率、召回率以及平均精度均值,能够有效反映目标检测算法的精度与效率,衡量目标检测网络的好坏;
本发明的定位损失函数采用的是广义边界框交并比损失,避免了在距离较远时产生难以优化的损失值,与此同时,与边界框交并比损失相比,广义边界框交并比损失的收敛速度更快、回归速度更快并且训练效果更好;
步骤5,保存模型;
将最终确定的模型进行训练并保存;之后需要进行地面背景下无人机红外小目标检测时,直接将图像输入到网络中即可得到检测后的图像;
实施例2:
如图1所示,一种地面背景下无人机红外小目标检测方法,该方法具体包括如下步骤:
步骤1,构建网络模型;
如图2所示,整个网络由九个卷积块构成,其中卷积块一、卷积块二、卷积块三、卷积块四、卷积块五、卷积块六和卷积块七均由卷积层、激活函数和归一化层组成,且构成了此网络模型的主干网络;卷积块一对输入图像进行下采样输出后进入卷积块二,同理,由卷积块二下采样输出后进入卷积块三,由卷积块三下采样输出后进入卷积块四,由卷积块四下采样输出后进入卷积块五,由卷积块五下采样输出后进入卷积块六,由卷积块六下采样输出后进入卷积块七;卷积块三、卷积块四、卷积块五、卷积块六和卷积块七经过1×1的卷积核来调整通道数,从而获得了加权双向特征金字塔网络的输入特征三、输入特征四、输入特征五、输入特征六和输入特征七,对输入特征七进行上采样,并且与输入特征六堆叠得到中间特征四,中间特征四进行上采样,并且与输入特征五堆叠得到中间特征三,中间特征三进行上采样,并且与输入特征四堆叠得到中间特征二,中间特征二进行上采样,并且与输入特征三堆叠得到中间特征一;中间特征一与输入特征三再次进行堆叠得到特征层一,特征层一进行下采样与中间特征二和输入特征四进行堆叠得到特征层二,特征层二进行下采样与中间特征三和输入特征五进行堆叠得到特征层三,特征层三与中间特征层四和输入特征六进行堆叠得到特征层四,特征层四与输入特征七进行堆叠得到特征层五;输出的五个特征层拥有一个共享的检测头,检测头包括卷积块八和卷积块九,均由四个卷积层、组归一化层以及激活函数组成,卷积块八通过卷积核为3、步长为1、填充为1和卷积个数为80的卷积层一得到分类结果;卷积块九通过卷积核为3、步长为1、填充为1和卷积个数为4的卷积层二得到回归结果;卷积块九通过卷积核为三、步长为1、填充为1和卷积个数为1的卷积层三得到中心度结果,用来得到目标距离目标中心的远近程度;卷积块三、卷积块四、卷积块五、卷积块六和卷积块七为可变形卷积;可变形卷积指卷积核在每一个元素上额外增加了一个参数方向参数,可以自适应确定尺度或感受野大小;与普通卷积相比,可变形卷积能够增加偏移量,并且动态调整采样点,从而可以更加准确的提取到更完整的特征;输入特征三、输入特征四、输入特征五、输入特征六、输入特征七、中间特征一、中间特征二、中间特征三、中间特征四、特征层一、特征层二、特征层三、特征层四和特征层五构成了加权双向特征金字塔网络结构。加权双向特征金字塔网络允许简单快速的多尺度特征融合,更好地平衡了不同尺度的特征信息,能够有效提升精度;检测头是共享的检测头,包括分类检测头以及回归和中心度并行的检测头,而预测某一位置点的中心度center-ness的关键作用是抑制目标检测算法产生的偏离目标中心的边界框,且不引入任何超参数,可以降低原理目标中心的边界框的分数;
中心度center-ness定义为从一个位置到目标中心的归一化距离,若给定一个位置回归目标为(l*,t*,r*,b*),则中心度目标被定义为:
步骤2,准备数据集。
本文采用低地/空背景下红外图像弱小飞机目标检测跟踪数据中的第五组、第六组、第七组、第八组、第九组和第十组数据集,一共4997张分辨率为256×256的地面背景下的无人机红外小目标图像;并且对这些红外小目标图像数据进行预处理;
步骤3,训练网络模型;
将步骤1中准备好的数据集输入到步骤2中的网络模型中进行训练。首先,输入红外无人机小目标图像,进行预处理操作;其次,将图像送入到卷积神经网络中主干网络中进行特征提取,获取输入数据的特征图,在特征图的每一点上面进行分类、回归和中心度操作;然后,将预训练的网络模型应用到测试图片中,从加权双向特征金字塔网络输出的特征图中输出检测头中获得预测的结果;最后,通过算获得最终目标检测输出结果;
步骤4,选择最小化损失函数和最优评价指标;
本发明所采用的最小化损失函数为分类损失、定位损失和中心度损失之和,分类损失采用二分类交叉熵损失配合焦点损失,定位损失采用广义边界框交并比损失,中心度损失采用二分类交叉熵损失,并且计算损失时只有正样本参与计算;
损失函数的设计不仅能够反馈模型的质量,还能影响模型的好坏,具体的公式如下:
其中,px,y表示在特征图(x,y)点处预测的每个类别;表示在特征图(x,y)点对应的真是类别标签;/>当特征图(x,y)点被匹配为正样本时为1,否则为0;tx,y表示在特征图(x,y)点处预测的目标边界框信息;/>表示在特征图(x,y)点对应的真实目标边界框信息;sx,y表示在特征图(x,y)点处预测的中心度;/>表示在特征图(x,y)点处对应的真实的中心度;
最优评价指标选择精确率、召回率以及平均精度均值,能够有效反映目标检测算法的精度与效率,衡量网络的好坏;
步骤5,保存模型;
模型起始的学习率设置为0.001,批次设置为20,在迭代10000次后,总损失率稳定在0.005左右不再下降时训练停止;直到训练次数达到设定阈值或损失函数的值达到设定范围内即可认为模型参数已预训练完成,保存目标检测网络模型,得到目标检测结果;
其中,卷积、激活函数、批归一化、注意力机制和残差网络的实现是本领域技术人员公知的算法,具体流程和方法可在相应的教科书或者技术文献中查到;
本发明通过构建一种地面背景下无人机红外小目标检测方法,可以将复杂地面背景下的无人机红外小目标图像;从图5可知,本发明提出的方法比现有方法拥有更高的平均精确度(AP)、召回率(Recall)和平均精度均值(mAP),这些指标也进一步说明了本发明提出的方法具有更快的准确率和召回率,使得目标检测的速度更快,实时性更高;
最后应说明的是:以上所述仅为本发明的优选实施例而已,并不用于限制本发明,尽管参照前述实施例对本发明进行了详细的说明,对于本领域的技术人员来说,其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种地面背景下无人机红外小目标检测方法,其特征在于:包括如下步骤:
步骤1,构建网络模型:整个网络由九个卷积块构成,其中卷积块一、卷积块二、卷积块三、卷积块四、卷积块五、卷积块六和卷积块七均由卷积层、激活函数和归一化层组成,且构成了此网络模型的主干网络;卷积块一对输入图像进行下采样输出后进入卷积块二,同理,由卷积块二下采样输出后进入卷积块三,由卷积块三下采样输出后进入卷积块四,由卷积块四下采样输出后进入卷积块五,由卷积块五下采样输出后进入卷积块六,由卷积块六下采样输出后进入卷积块七;卷积块三、卷积块四、卷积块五、卷积块六和卷积块七通过加权双向特征金字塔网络得到特征层一、特征层二、特征层三、特征图层四和特征层五;五个特征层拥有一个共享检测头,检测头包括卷积块八和卷积块九,均由深度可分离卷积、归一化层、卷积层以及激活函数组成,卷积块八通过卷积层一得到分类结果;卷积块九通过卷积层二得到回归结果;卷积块九通过卷积层三得到中心度结果,用来得到目标距离目标中心的远近程度;
步骤2,准备数据集:本文采用低地/空背景下红外图像弱小飞机目标检测跟踪数据中的部分地面背景下的红外无人机小目标数据集;并且对红外小目标图像数据进行预处理;
步骤3,训练网络模型:将步骤2中的数据集输入到步骤1中构建的目标检测的网络模型中进行训练;
步骤4,选择最小化损失函数和最优评价指标:通过最小化网络输出图像与标签的损失函数,直到训练次数达到设定阈值或损失函数的值到达设定范围内即可认为模型参数已预训练完成,保存模型参数的同时选择最优评价指标来评估算法的性能优劣程度;
步骤5,保存模型:将最终确定的模型进行训练并保存;之后在需要进行地面背景下无人机红外小目标检测时,直接将图像输入到网络中即可得到检测后的图像。
2.根据权利要求1所述的一种地面背景下无人机红外小目标检测方法,其特征在于:所述步骤1中的卷积块三、卷积块四、卷积块五、卷积块六和卷积块七为可变形卷积;可变形卷积指卷积核在每一个元素上额外增加了一个参数方向参数,可以自适应确定尺度或感受野大小;与普通卷积相比,可变形卷积能够增加偏移量,并且动态调整采样点,准确提取更完整的特征。
3.根据权利要求1所述的一种地面背景下无人机红外小目标检测方法,其特征在于:所述步骤1中的加权双向特征金字塔网络由特征三、特征四、特征五、特征六、特征七、中间特征一、中间特征二、中间特征三、中间特征四、中间特征五以及其输出的特征层一、特征层二、特征层三、特征层四和特征层五构成;加权双向特征金字塔网络允许更加简单快速的多尺度特征融合,能够更好地平衡了不同尺度的特征信息,并且有效地提升了检测精度。
4.根据权利要求1所述的一种地面背景下无人机红外小目标检测方法,其特征在于:所述步骤4中所采用的最小化损失函数为分类损失、定位损失和中心度损失之和,分类损失采用二分类交叉熵损失配合焦点损失,定位损失采用广义边界框交并比损失,中心度损失采用二分类交叉熵损失,并且计算损失时只有正样本参与计算。
5.根据权利要求1所述的一种地面背景下无人机红外小目标检测方法,其特征在于:所述步骤4中损失函数的设计不仅能够反馈模型的质量,还能影响模型的好坏;最优评价指标选择精确率、召回率以及平均精度均值,能够有效反映目标检测算法的精度与效率,衡量目标检测网络。
CN202211680004.XA 2022-12-27 2022-12-27 一种地面背景下无人机红外小目标检测方法 Pending CN116580322A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211680004.XA CN116580322A (zh) 2022-12-27 2022-12-27 一种地面背景下无人机红外小目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211680004.XA CN116580322A (zh) 2022-12-27 2022-12-27 一种地面背景下无人机红外小目标检测方法

Publications (1)

Publication Number Publication Date
CN116580322A true CN116580322A (zh) 2023-08-11

Family

ID=87544098

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211680004.XA Pending CN116580322A (zh) 2022-12-27 2022-12-27 一种地面背景下无人机红外小目标检测方法

Country Status (1)

Country Link
CN (1) CN116580322A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117237830A (zh) * 2023-11-10 2023-12-15 湖南工程学院 基于动态自适应通道注意力的无人机小目标检测方法
CN117523428A (zh) * 2023-11-08 2024-02-06 中国人民解放军军事科学院系统工程研究院 基于飞行器平台的地面目标检测方法和装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117523428A (zh) * 2023-11-08 2024-02-06 中国人民解放军军事科学院系统工程研究院 基于飞行器平台的地面目标检测方法和装置
CN117523428B (zh) * 2023-11-08 2024-03-29 中国人民解放军军事科学院系统工程研究院 基于飞行器平台的地面目标检测方法和装置
CN117237830A (zh) * 2023-11-10 2023-12-15 湖南工程学院 基于动态自适应通道注意力的无人机小目标检测方法
CN117237830B (zh) * 2023-11-10 2024-02-20 湖南工程学院 基于动态自适应通道注意力的无人机小目标检测方法

Similar Documents

Publication Publication Date Title
CN110135267B (zh) 一种大场景sar图像细微目标检测方法
CN110443143B (zh) 多分支卷积神经网络融合的遥感图像场景分类方法
CN109871902B (zh) 一种基于超分辨率对抗生成级联网络的sar小样本识别方法
KR102328734B1 (ko) 이미지를 분석하기 위해, 딥러닝 네트워크에 이용하기 위한 트레이닝 이미지에 대한 라벨링 신뢰도를 자동으로 평가하기 위한 방법 및 이를 이용한 신뢰도 평가 장치
CN116580322A (zh) 一种地面背景下无人机红外小目标检测方法
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN110991257B (zh) 基于特征融合与svm的极化sar溢油检测方法
Golovko et al. Development of solar panels detector
CN113408340B (zh) 基于增强型特征金字塔的双极化sar小型船只检测方法
CN116342894B (zh) 基于改进YOLOv5的GIS红外特征识别系统及方法
WO2024032010A1 (zh) 一种基于迁移学习策略的少样本目标实时检测方法
Bai et al. Multimodal information fusion for weather systems and clouds identification from satellite images
CN115761534A (zh) 一种空中背景下红外无人机小目标检测及跟踪方法
CN112487900A (zh) 一种基于特征融合的sar图像舰船目标检测方法
CN112395953A (zh) 一种道面异物检测系统
CN110751005B (zh) 融合深度感知特征和核极限学习机的行人检测方法
Chen et al. Ship Detection with Optical Image Based on Attention and Loss Improved YOLO
CN113129336A (zh) 一种端到端多车辆跟踪方法、系统及计算机可读介质
CN116935356A (zh) 基于弱监督的自动驾驶多模态图片和点云实例分割方法
CN117079095A (zh) 基于深度学习的高空抛物检测方法、系统、介质和设备
Zhao et al. Recognition and Classification of Concrete Cracks under Strong Interference Based on Convolutional Neural Network.
CN115410102A (zh) 基于联合注意力机制的sar图像飞机目标检测方法
Da et al. Remote sensing image ship detection based on improved YOLOv3
CN112069997B (zh) 一种基于DenseHR-Net的无人机自主着陆目标提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination