CN114821318B - 一种基于Darkdet-Net的低照度小样本目标检测方法 - Google Patents

一种基于Darkdet-Net的低照度小样本目标检测方法 Download PDF

Info

Publication number
CN114821318B
CN114821318B CN202210443769.5A CN202210443769A CN114821318B CN 114821318 B CN114821318 B CN 114821318B CN 202210443769 A CN202210443769 A CN 202210443769A CN 114821318 B CN114821318 B CN 114821318B
Authority
CN
China
Prior art keywords
module
low
illumination
detection
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210443769.5A
Other languages
English (en)
Other versions
CN114821318A (zh
Inventor
江泽涛
金鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guilin University of Electronic Technology
Original Assignee
Guilin University of Electronic Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guilin University of Electronic Technology filed Critical Guilin University of Electronic Technology
Priority to CN202210443769.5A priority Critical patent/CN114821318B/zh
Publication of CN114821318A publication Critical patent/CN114821318A/zh
Application granted granted Critical
Publication of CN114821318B publication Critical patent/CN114821318B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开一种基于Darkdet‑Net的低照度小样本目标检测方法,所述方法包括如下步骤:1)得到base类与novel类并构建base类与novel类的平衡训练集;2)训练Exindark模块对输入的低照度图像进行特征提取;3)构造MLFA模块对特征图进行多尺度特征的融合与增强;4)构造基于多头SR Attention的Det Head模块对输入的特征图进行检测框预测与分类;5)在base类数据集进行目标检测训练并测试检测效果;6)基于base类和novel类平衡训练集进行小样本新类物体目标检测Fine‑tuning。这种方法能够不受低光照环境下拍摄的影响,对于产生的低照度图像仍然可以进行很好地识别来检测出图像中的目标对象,并且使用Fine‑tuning快速泛化到新的检测类别上。

Description

一种基于Darkdet-Net的低照度小样本目标检测方法
技术领域
本发明涉及深度学习、低照度图像增强以及小样本目标检测技术,具体是一种基于Darkdet-Net的低照度小样本目标检测方法。
背景技术
在计算机视觉领域中的重要任务之一是目标检测,目标检测已经被广泛应用于许多实际场景中,例如自动驾驶、行人检测等。而在目标检测真实应用场景中,照明度对于检测精度有着重要的影响。
低照度指的是当被摄景物的光亮度低到一定程度而使摄像机输出的视频信号电平低到某一规定值时的景物光亮度值。通俗地说,低照度图像是在夜晚或者光照环境较差的条件下拍摄时所生成的图片。不充分的光照会严重损害并降低图像的视觉质量,可见度低、对比度差和存在色彩偏差等缺点不仅令人眼对图像的主观感受产生偏差,而且对于计算机视觉网络来说要识别低照度图像上的目标对象也具有一定的难度。
现有的很多目标检测算法通常能在正常照明的条件下表现良好,但在处理低照度图像时却不尽人意。为了使得在低照度场景下与正常光照条件下有着相当的水平,需要一种有效的低照度目标检测方法。
目标检测的泛化能力也很重要,大部分的目标检测器如果要对训练时未见过目标进行检测时需要大量新类数据进行重新训练,需要的代价较大,因此需要一个对于只有少量样本数的新类目标检测网络微调即Fine-tuning方法。
除了上述问题外,传统目标检测算法需要预先人为设定锚框即Anchors,但Anchors有着一些缺点,例如由于固定尺寸和纵横比而在处理形变较大和小目标物体时效果不佳等问题,因此需要一种无锚框即Anchor-free的目标检测方法。
综上所述,针对低照度、目标检测泛化能力、锚框的一些问题,急需一种无锚框的低照度小样本目标检测方法。
发明内容
本发明的目的是针对现有技术的不足,而提供一种基于Darkdet-Net的低照度小样本目标检测方法。这种方法能够不受低光照环境影响检测出图像中的目标对象,并且能够快速泛化到新的检测类别上。
实现本发明目的的技术方案是:
一种基于Darkdet-Net的低照度小样本目标检测方法,包括如下步骤:
1)对低照度图像数据集ExDark进行处理和划分得到base类与小样本目标novel类,过程为:
1-1)ExDark数据集共计7363张低照度图像,包含12个常规目标类别,首先选取其中9个类为base类,base类包括Bicycle、Boat、Bottle、Bus、Dog、Table、Motorbike、Car、Chair,其余3个类为novel类,novel类包括People、Cup、Cat,将base类以8:2的比例划分成两部分,其中80%为训练集、20%为测试集,训练集共4400张图片,测试集共1100张图片,共有5500张图片,base类结合novel类各选5张图片,构建base类和novel类的平衡训练集共60张图片;
1-2)将所有低照度图片进行预处理,使图像缩放到统一的长×宽为650×650;
2)训练Exindark模块对输入的低照度图像进行特征提取:过程包括:
2-1)Exindark模块设有6个Stage,第1个Stage由1个9×9卷积层构成,第2至第3个Stage分别由2组3×3卷积层与BIR模块再加上1个Dual Pooling模块拼接而成,第4至第6个Stage分别由2组3×3卷积层、Dual Attention模块与BIR模块再加上1个Dual Pooling模块拼接而成,低照度图像往往具有可见度低、对比度差和存在色彩偏差等缺点,并且图片中部分信息也由于照度过低而损失,所以通过简单地堆积卷积层并不能很好地对有限的图片信息进行特征提取,如果在模型特征提取过程中不能学习到丰富的特征信息,将影响后续的检测过程,为了提高模型对低照度图像的特征提取能力,在Dual Attention模块中,分别经过1个3×3卷积层后的特征图采用空间注意力机制以及通道注意力机制,它们分别对空间维度和通道维度上的语义相互依赖进行建模,空间注意模块通过所有空间位置的特征加权和,有选择地聚合每个位置的特征,相似的特征将会相互关联,而不管它们之间的距离如何,同时通道注意模块通过整合所有通道图之间的相关特征,选择性地强调相互依赖的通道图,最后将两个注意模块的输出逐元素相加,以进一步改进特征表示,从而实现更丰富的特征提取结果,在BIR模块的结构中采用2种归一化操作加强对低照度图像的特征处理:Batch Normalization即BN、Instance Normalization即IN,BN注重对每个批次进行归一化,从而保证数据分布的一致性,能够很好地处理特征图的基础信息,比如挖掘图像色彩饱和度和亮度中照明偏亮的部分,IN则更注重维护图片的风格信息,使用IN不仅可以加速模型收敛,并且可以保持图像中各个实例对象之间的独立,不让它们混淆,避免造成特征模糊,然后把分别经过2种归一化操作的特征信息经过Leaky Relu层激活来避免神经元“死亡”,然后在通道维度上拼在一起,在Dual Pooling模块中采用Max Pooling与AveragePooling并行2倍下采样,最大池化可以提取特征纹理,最大池化提取边缘等“最重要”的特征,平均池化可以保留背景信息,平均池化提取的特征更加平滑,然后在通道维度上拼在一起,之后采用1个1×1卷积层进行通道维度的压缩,一是避免通道维度急剧膨胀,二是使得特征从通道维度上进行融合;
2-2)将步骤1-2)中预处理后的低照度图像作为Exindark模块的输入,训练Exindark模块对低照度图像进行特征提取,Exindark模块的6个Stage的输出特征图的尺寸分别为6×321×321、12×160×160、24×80×80、48×40×40,记为C4、96×20×20,记为C5和192×10×10,记为C6,详细参数设置如表1所示:
表1
,其中Concat为torch.concat,Sum为逐元素相加;
3)构造MLFA(Multi Level Feature Augmentation简称MLFA)模块对特征图进行多尺度特征的融合与增强,过程包括:
3-1)将步骤2-2)得到的输出特征图C4、C5和C6作为MLFA模块的三个输入,MLFA模块设有1个DFF(Down Feature Fusion简称DFF)模块和1个UFF(Up Feature Fusion,简称UFF)模块以及一个Dual Attention模块,DFF模块由多组包括1个3×3卷积层与1个DualPooling层的模块组成,UFF模块主要由多组反卷积操作组成,特征图C4、C5和C6输入进DFF模块,C4经过下采样之后与C5逐元素相加,记为C7,C5经过下采样之后与C6逐元素相加,记为C8,C7经过下采样之后与C8逐元素相加,记为C9,让高层特征图中丰富的语义信息向下流动,与低层特征图进行融合,接下来让低层特征图中准确的目标位置信息向上传输,把C9输入进UFF模块进行解码,C9采用反卷积进行2倍上采样,记为C1,C1进行2倍上采样,记为C2,C9进行2倍上采样后与C3逐元素相加,记为C10,C9进行4倍上采样后与C10进行2倍上采样后再与C2逐元素相加,记为C11,并且C11作为最终输出,在DFF模块这样的操作可能会把大量特征提取过程中冗余信息和噪声添加进来,在UFF模块的过程中,这些无用信息和噪声会被一步一步地放大并最终输入到后续的目标检测头当中,因此在DFF模块与UFF模块之间加入一个Dual Attention模块,可以一定程度上抑制这些有害信息的传播;
3-2)训练MLFA模块对特征图进行多尺度融合与增强,丰富的特征信息有利于模型进行目标检测时更准确地识别目标类别,MLFA中DFF模块、Dual Attention模块、UFF模块的输出特征图的尺寸分别为192×10×10、192×10×10、48×48×40,详细参数设置如表2所示:
表2
,其中Sum为逐元素相加,Down为3×3卷积层与一个Dual Pooling模块,Up为反卷积操作;
4)构造基于多头SR Attention的Det Head模块对输入的特征图进行检测框预测与分类:过程包括:
4-1)基于DETR采用Transformer进行目标检测思想,Det Head模块包括2个Transformer的Encoder模块对输入的特征进行编码以及2个全连接层进行解码,考虑到DETR的难收敛的问题,没有使用Transformer的decoder部分,直接采用全连接层进行解码,Encoder模块由1个多头SR Attention层、1个Layer Normalization层、1个Feed Forward层、1个Layer Normalization层组成,其中还有2个残差连接,采用多头SR Attention的特性对特征进行编码,多头SR Attention特点首先在于考虑到DETR难以收敛主要问题在于attention map难以稀疏化,因此采用直接随机生成的attention map与经过全连接层学习并reshape操作后的attention map逐元素求和,避免DETR的attention map难以稀疏化问题,其次在于希望利用多头SR attention对于特征图照明度信息进行编码,提高对低照度图像的检测效果,Feed Forward层就是2个全连接层,分别进行分类和bbox坐标的回归;
4-2)将步骤3-2)得到的特征图输入进Det Head模块,之后采用pre_cls和pre_boxes这2个全连接层进行解码,得到50个检测框以及检测框对应的50个分类结果;
5)在base类数据集进行目标检测训练并测试检测效果:过程包括:
5-1)步骤4-2)得到的预测框相当于一个大小为50的集合,而真实的检测框相当于另一个集合,得到的预测框集合没有与真实的检测框建立一个一一对应关系,也就是接下来需要把预测出来的50个框与真实的检测框做最佳匹配,使得损失最小;
5-2)模型在训练过程中的损失函数定义如公式(1)所示:
其中δ表示进行最佳匹配后的某种顺序,y={c,b}为预测的分类结果与检测框,为使得最佳匹配后真实分类结果与检测框,M为预测框的数量,/>标识只有类别不为背景时计算/>Lcls使用交叉熵为损失,而Lb使用计算预测框与真实框L1范数作为损失,即/>
5-3)预测出来的50个框与真实的检测框做最佳匹配问题可以看作是二分图最佳匹配问题,二分图是特殊的网络流,最佳匹配相当于求最大或最小费用最大流,首先计算50个预测框与每个真实框的IOU值作为权重,采用Kuhn-Munkres即KM算法计算出预测框与真实框的最佳匹配,真实检测框的顺序记为KM算法表示如公式(2)所示:
采用KM算法找到一个使得损失最小的匹配序列,然后将得到的最小损失进行反向传播进行训练;
5-4)训练完成之后进行测试,由于预测得到的是一个集合,并且在训练过程中经过KM算法学习预测框与真实框一对一匹配,因此不存在重复框的情况,可以在测试时设置一个阈值,只有预测分类置信度大于阈值的预测框进行输出;
6)基于base类和novel类平衡训练集进行小样本新类物体目标检测Fine-tuning:过程如下:
6-1)第一阶段根据步骤5)采用大量的base类数据样本对模型进行常规目标检测训练,网络的损失由步骤5-2)、5-3)所述组成;
6-2)第二阶段是基于小样本Fine-tuning,在保持整个Exindark模块以及MLFA模块参数不变的情况下,模型其他部分重新随机初始化参数,之后再在步骤1-1)构建的base类和novel类平衡训练集上Fine-tuning,这个过程采用余弦相似性取代交叉熵作为分类损失,与基于交叉熵的分类器相比,基于余弦相似性的分类器有助于减少类内方差,提高novel类的检测精度,同时减少base类检测精度的降低,尤其是当训练实例数量较少时,并且缩小学习速率。
本技术方案采用Exindark模块来提取低照度图像的特征信息,该模块结合了2种注意力机制、2种归一化操作以及2种池化操作来加强对低照度图像的特征处理,使得其能够很好地捕获图像上目标对象的特征;接着使用Multi Level Feature Augmentation模块对输出的不同尺寸的特征图进行多尺度特征融合与增强操作,丰富的特征信息有利于模型进行检测时更准确地识别目标类别;然后送入Det Head模块,以提高模型进行检测时判断目标位置信息的准确性;最后使用base类进行常规的目标检测训练基础上保留特征提取模块权重再在base类和novel平衡的数据集上Fine-tuning。
这种方法能够不受低光照环境下拍摄的影响,对于产生的低照度图像仍然可以进行很好地识别来检测出图像中的目标对象,并且使用Fine-tuning技术,可以快速学习对小样本新类物体的检测。
附图说明
图1为实施例中的Darkdet-Net结构示意图;
图2为实施例中的Stage2、Stage3结构示意图;
图3为实施例中的Stage4、Stage5、Stage6结构示意图;
图4为实施例中的Dual Attention模块结构示意图;
图5为实施例中的BIR模块结构示意图;
图6为实施例中的Dual Pooling模块结构示意图;
图7为实施例中的Multi Level Feature Augmentation模块结构示意图;
图8为实施例中的Down Feature Fusion模块结构示意图;
图9为实施例中的Up Feature Fusion模块结构示意图;
图10为实施例中的Det Head模块结构示意图;
图11为实施中的SQ Attention结构示意图。
具体实施方式
下面结合附图和实施例对本发明的内容作进一步的阐述,但不是对本发明的限定。
实施例:
参照图1,一种基于Darkdet-Net的低照度小样本目标检测方法,包括如下步骤:
1)对低照度图像数据集ExDark进行处理和划分得到base类与小样本目标novel类,过程为:
1-1)ExDark数据集共计7363张低照度图像,包含12个常规目标类别,首先选取其中9个类为base类,base类包括Bicycle、Boat、Bottle、Bus、Dog、Table、Motorbike、Car、Chair,其余3个类为novel类,novel类包括People、Cup、Cat),将base类以8:2的比例划分成两部分,其中80%为训练集、20%为测试集,训练集共4400张图片,测试集共1100张图片,共有5500张图片,base类结合novel类各选5张图片,构建base类和novel类的平衡训练集共60张图片;
1-2)将所有低照度图片进行预处理,使图像缩放到统一的长×宽为650×650;
2)训练Exindark模块对输入的低照度图像进行特征提取:过程包括:
2-1)Exindark模块设有6个Stage,第1个Stage由1个9×9卷积层构成,如图2所示,第2至第3个Stage分别由2组3×3卷积层与BIR模块再加上1个Dual Pooling模块拼接而成,如图3所示,第4至第6个Stage分别由2组3×3卷积层、Dual Attention模块与BIR模块再加上1个Dual Pooling模块拼接而成,低照度图像往往具有可见度低、对比度差和存在色彩偏差等缺点,并且图片中部分信息也由于照度过低而损失,所以通过简单地堆积卷积层并不能很好地对有限的图片信息进行特征提取,如果在模型特征提取过程中不能学习到丰富的特征信息,将影响后续的检测过程,为了提高模型对低照度图像的特征提取能力,如图4所示,在Dual Attention模块中,分别经过1个3×3卷积层后的特征图采用空间注意力机制以及通道注意力机制,它们分别对空间维度和通道维度上的语义相互依赖进行建模,空间注意模块通过所有空间位置的特征加权和,有选择地聚合每个位置的特征,相似的特征将会相互关联,而不管它们之间的距离如何,同时通道注意模块通过整合所有通道图之间的相关特征,选择性地强调相互依赖的通道图,最后将两个注意模块的输出逐元素相加,以进一步改进特征表示,从而实现更丰富的特征提取结果,如图5所示,在BIR模块的结构中采用2种归一化操作加强对低照度图像的特征处理:Batch Normalization即BN、InstanceNormalization即IN,BN注重对每个批次进行归一化,从而保证数据分布的一致性,能够很好地处理特征图的基础信息,比如挖掘图像色彩饱和度和亮度中照明偏亮的部分,IN则更注重维护图片的风格信息,使用IN不仅可以加速模型收敛,并且可以保持图像中各个实例对象之间的独立,不让它们混淆,避免造成特征模糊,然后把分别经过2种归一化操作的特征信息经过Leaky Relu层激活来避免神经元“死亡”,然后在通道维度上拼在一起,如图6所示,在Dual Pooling模块中采用Max Pooling与Average Pooling并行2倍下采样,最大池化可以提取特征纹理,最大池化提取边缘等“最重要”的特征,平均池化可以保留背景信息,平均池化提取的特征更加平滑,然后在通道维度上拼在一起,然后采用1个1×1卷积层进行通道维度的压缩,一是避免通道维度急剧膨胀,二是使得特征从通道维度上进行融合;
2-2)将步骤1-2)中预处理后的低照度图像作为Exindark模块的输入,训练Exindark模块对低照度图像进行特征提取,Exindark模块的6个Stage的输出特征图的尺寸分别为6×321×321、12×160×160、24×80×80、48×40×40,记为C4、96×20×20,记为C5和192×10×10,记为C6,详细参数设置如表1所示:
表1
/>
/>
,其中Concat为torch.concat,Sum为逐元素相加;
3)构造MLFA(Multi Level Feature Augmentation简称MLFA)模块对特征图进行多尺度特征的融合与增强,如图7所示,过程包括:
3-1)将步骤2-2)得到的输出特征图C4、C5和C6作为MLFA模块的三个输入,MLFA模块设有1个DFF模块和1个UFF模块以及一个Dual Attention模块,如图8所示,DFF模块由多组包括1个3×3卷积层与1个Dual Pooling层的模块组成,如图9所示,UFF模块主要由多组反卷积操作组成,特征图C4、C5和C6输入进DFF模块,C4经过下采样之后与C5逐元素相加,记为C7,C5经过下采样之后与C6逐元素相加,记为C8,C7经过下采样之后与C8逐元素相加,记为C9,让高层特征图中丰富的语义信息向下流动,与低层特征图进行融合,接下来让低层特征图中准确的目标位置信息向上传输,把C9输入进UFF模块进行解码,C9采用反卷积进行2倍上采样,记为C1,C1进行2倍上采样、记为C2,C9进行2倍上采样后与C3逐元素相加,记为C10,C9进行4倍上采样后与C10进行2倍上采样后再与C2逐元素相加,记为C11,并且C11作为最终输出,在DFF模块这样的操作可能会把大量特征提取过程中冗余信息和噪声添加进来,在UFF模块的过程中,这些无用信息和噪声会被一步一步地放大并最终输入到后续的目标检测头当中,因此在DFF模块与UFF模块之间加入一个Dual Attention模块,可以一定程度上抑制这些有害信息的传播;
3-2)训练MLFA模块对特征图进行多尺度融合与增强,丰富的特征信息有利于模型进行目标检测时更准确地识别目标类别,MLFA中DFF模块、Dual Attention模块、UFF模块的输出特征图的尺寸分别为192×10×10、192×10×10、48×48×40,详细参数设置如表2所示:
表2
,其中Sum为逐元素相加,Down为3×3卷积层与一个Dual Pooling模块,Up为反卷积操作;
4)构造基于多头SR Attention的Det Head模块对输入的特征图进行检测框预测与分类:如图10所示,过程包括:
4-1)基于DETR采用Transformer进行目标检测思想,Det Head模块包括2个Transformer的Encoder模块对输入的特征进行编码以及2个全连接层进行解码,考虑到DETR的难收敛的问题,没有使用Transformer的decoder部分,直接采用全连接层进行解码,Encoder模块由1个多头SR Attention层、1个Layer Normalization层、1个Feed Forward层、1个Layer Normalization层组成,其中还有2个残差连接,采用多头SR Attention的特性对特征进行编码,如图11所示,多头SR Attention特点首先在于考虑到DETR难以收敛主要问题在于attention map难以稀疏化,因此采用直接随机生成的attention map与经过全连接层学习并reshape操作后的attention map逐元素求和,避免DETR的attention map难以稀疏化问题,其次在于希望利用多头SR attention对于特征图照明度信息进行编码,提高对低照度图像的检测效果,Feed Forward层就是2个全连接层,分别进行分类和bbox坐标的回归;
4-2)将步骤3-2)得到的特征图输入进Det Head模块,之后采用pre_cls和pre_boxes这2个全连接层进行解码,得到50个检测框以及检测框对应的50个分类结果;
5)在base类数据集进行目标检测训练并测试检测效果:过程包括:
5-1)步骤4-2)得到的预测框相当于一个大小为50的集合,而真实的检测框相当于另一个集合,得到的预测框集合没有与真实的检测框建立一个一一对应关系,也就是接下来需要把预测出来的50个框与真实的检测框做最佳匹配,使得损失最小;
5-2)模型在训练过程中的损失函数定义如公式(1)所示:
其中δ表示进行最佳匹配后的某种顺序,y={c,b}为预测的分类结果与检测框,为使得最佳匹配后真实分类结果与检测框,M为预测框的数量,/>标识只有类别不为背景时计算/>Lcls使用交叉熵为损失,而Lb使用计算预测框与真实框L1范数作为损失,即/>
5-3)预测出来的50个框与真实的检测框做最佳匹配问题可以看作是二分图最佳匹配问题,二分图是特殊的网络流,最佳匹配相当于求最大或最小费用最大流,首先计算50个预测框与每个真实框的IOU值作为权重,采用Kuhn-Munkres即KM算法计算出预测框与真实框的最佳匹配,真实检测框的顺序记为KM算法表示如公式(2)所示:
采用KM算法找到一个使得损失最小的匹配序列,然后将得到的最小损失进行反向传播进行训练;
5-4)训练完成之后进行测试,由于预测得到的是一个集合,并且在训练过程中经过KM算法学习预测框与真实框一对一匹配,因此不存在重复框的情况,可以在测试时设置一个阈值,只有预测分类置信度大于阈值的预测框进行输出;
6)基于base类和novel类平衡训练集进行小样本新类物体目标检测Fine-tuning:过程如下:
6-1)第一阶段根据步骤5)采用大量的base类数据样本对模型进行常规目标检测训练,网络的损失由步骤5-2)、5-3)所述组成;
6-2)第二阶段是基于小样本Fine-tuning,在保持整个Exindark模块以及MLFA模块参数不变的情况下,模型其他部分重新随机初始化参数,之后再在步骤1-1)构建的base类和novel类平衡训练集上Fine-tuning,这个过程采用余弦相似性取代交叉熵作为分类损失,与基于交叉熵的分类器相比,基于余弦相似性的分类器有助于减少类内方差,提高novel类的检测精度,同时减少base类检测精度的降低,尤其是当训练实例数量较少时,并且缩小学习速率。

Claims (1)

1.一种基于Darkdet-Net的低照度小样本目标检测方法,其特征在于,包括如下步骤:
1)对低照度图像数据集ExDark进行处理和划分得到base类与小样本目标novel类,过程为:
1-1)ExDark数据集共计7363张低照度图像,包含12个常规目标类别,首先选取其中9个类为base类,base类包括Bicycle、Boat、Bottle、Bus、Dog、Table、Motorbike、Car、Chair,其余3个类为novel类,novel类包括People、Cup、Cat,将base类以8:2的比例划分成两部分,其中80%为训练集、20%为测试集,训练集共4400张图片,测试集共1100张图片,共有5500张图片,base类结合novel类各选5张图片,构建base类和novel类的平衡训练集共60张图片;
1-2)将所有低照度图片进行预处理,使图像缩放到统一的长×宽为650×650;
2)训练Exindark模块对输入的低照度图像进行特征提取:过程包括:
2-1)Exindark模块设有6个Stage,第1个Stage由1个9×9卷积层构成,第2至第3个Stage分别由2组3×3卷积层与BIR模块再加上1个Dual Pooling模块拼接而成,第4至第6个Stage分别由2组3×3卷积层、DualAttention模块与BIR模块再加上1个Dual Pooling模块拼接而成,在Dual Attention模块中,分别经过1个3×3卷积层后的特征图采用空间注意力机制以及通道注意力机制,在BIR模块的结构中采用2种归一化操作加强对低照度图像的特征处理:Batch Normalization即BN、Instance Normalization即IN,然后把分别经过2种归一化操作的特征信息经过Leaky Relu层激活,然后在通道维度上拼在一起,在DualPooling模块中采用Max Pooling与Average Pooling并行2倍下采样,然后在通道维度上拼在一起,之后采用1个1×1卷积层进行通道维度的压缩;
2-2)将步骤1-2)中预处理后的低照度图像作为Exindark模块的输入,训练Exindark模块对低照度图像进行特征提取,Exindark模块的6个Stage的输出特征图的尺寸分别为6×321×321、12×160×160、24×80×80、48×40×40,记为C4、96×20×20,记为C5和192×10×10,记为C6;
3)构造MLFA模块对特征图进行多尺度特征的融合与增强:过程包括:
3-1)将步骤2-2)得到的输出特征图C4、C5和C6作为MLFA模块的三个输入,MLFA模块设有1个DFF模块和1个UFF模块以及一个Dual Attention模块,DFF模块由多组包括1个3×3卷积层与1个Dual Pooling层的模块组成,UFF模块由多组反卷积操作组成,特征图C4、C5和C6输入进DFF模块,C4经过下采样之后与C5逐元素相加,记为C7,C5经过下采样之后与C6逐元素相加,记为C8,C7经过下采样之后与C8逐元素相加,记为C9,让高层特征图中丰富的语义信息向下流动,与低层特征图进行融合,接下来让低层特征图中准确的目标位置信息向上传输,把C9输入进UFF模块进行解码,C9采用反卷积进行2倍上采样,记为C1,C1进行2倍上采样,记为C2,C9进行2倍上采样后与C3逐元素相加,记为C10,C9进行4倍上采样后与C10进行2倍上采样后再与C2逐元素相加,记为C11,并且C11作为最终输出,此外在DFF模块与UFF模块之间加入一个DualAttention模块;
3-2)训练MLFA模块对特征图进行多尺度融合与增强,MLFA中DFF模块、Dual Attention模块、UFF模块的输出特征图的尺寸分别为192×10×10、192×10×10、48×48×40;
4)构造基于多头SR Attention的Det Head模块对输入的特征图进行检测框预测与分类:过程包括:
4-1)Det Head模块包括2个Transformer的Encoder模块对输入的特征进行编码以及2个全连接层进行解码,直接采用全连接层进行解码,Encoder模块由1个多头SR Attention层、1个Layer Normalization层、1个Feed Forward层、1个Layer Normalization层组成,其中还有2个残差连接,多头SR Attention采用直接随机生成的attention map与经过全连接层学习并reshape操作后的attention map逐元素求和,Feed Forward层就是2个全连接层,分别进行分类和bbox坐标的回归;
4-2)将步骤3-2)得到的特征图输入进Det Head模块,之后采用pre_cls和pre_boxes这2个全连接层进行解码,得到50个检测框以及检测框对应的50个分类结果;
5)在base类数据集进行目标检测训练并测试检测效果:过程包括:
5-1)步骤4-2)得到的预测框相当于一个大小为50的集合,而真实的检测框相当于另一个集合,得到的预测框集合没有与真实的检测框建立一个一一对应关系,也就是接下来需要把预测出来的50个框与真实的检测框做最佳匹配,使得损失最小;
5-2)模型在训练过程中的损失函数定义如公式(1)所示:
其中δ表示进行最佳匹配后的某种顺序,y={c,b}为预测的分类结果与检测框,为使得最佳匹配后真实分类结果与检测框,M为预测框的数量,/>标识只有类别不为背景时计算/>Lcls使用交叉熵为损失,而Lb使用计算预测框与真实框L1范数作为损失,即/>
5-3)首先计算50个预测框与每个真实框的IOU值作为权重,采用Kuhn-Munkres即KM算法计算出预测框与真实框的最佳匹配,真实检测框的顺序记为KM算法表示如公式(2)所示:
采用KM算法找到一个使得损失最小的匹配序列,然后将得到的最小损失进行反向传播进行训练;
5-4)在测试时设置一个阈值,只有预测分类置信度大于阈值的预测框进行输出;
6)基于base类和novel类平衡训练集进行小样本新类物体目标检测Fine-tuning:过程如下:
6-1)第一阶段根据步骤5)采用大量的base类数据样本对模型进行常规目标检测训练,网络的损失由步骤5-2)、5-3)所述组成;
6-2)第二阶段是基于小样本Fine-tuning,在保持整个Exindark模块以及MLFA模块参数不变的情况下,模型其他部分重新随机初始化参数,之后再在步骤1-1)构建的base类和novel类平衡训练集上Fine-tuning,这个过程采用余弦相似性取代交叉熵作为分类损失,并且缩小学习速率。
CN202210443769.5A 2022-04-26 2022-04-26 一种基于Darkdet-Net的低照度小样本目标检测方法 Active CN114821318B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210443769.5A CN114821318B (zh) 2022-04-26 2022-04-26 一种基于Darkdet-Net的低照度小样本目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210443769.5A CN114821318B (zh) 2022-04-26 2022-04-26 一种基于Darkdet-Net的低照度小样本目标检测方法

Publications (2)

Publication Number Publication Date
CN114821318A CN114821318A (zh) 2022-07-29
CN114821318B true CN114821318B (zh) 2024-03-19

Family

ID=82507388

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210443769.5A Active CN114821318B (zh) 2022-04-26 2022-04-26 一种基于Darkdet-Net的低照度小样本目标检测方法

Country Status (1)

Country Link
CN (1) CN114821318B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117392505A (zh) * 2023-10-12 2024-01-12 同济大学 一种基于detr改进算法的图像目标检测方法及系统
CN117455856B (zh) * 2023-10-23 2024-06-11 智火柴科技(深圳)有限公司 液压油污染检测方法、检测装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111931857A (zh) * 2020-08-14 2020-11-13 桂林电子科技大学 一种基于mscff的低照度目标检测方法
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN114037938A (zh) * 2021-11-09 2022-02-11 桂林电子科技大学 一种基于NFL-Net的低照度目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021139069A1 (zh) * 2020-01-09 2021-07-15 南京信息工程大学 自适应注意力指导机制的一般性目标检测方法
CN111931857A (zh) * 2020-08-14 2020-11-13 桂林电子科技大学 一种基于mscff的低照度目标检测方法
CN114037938A (zh) * 2021-11-09 2022-02-11 桂林电子科技大学 一种基于NFL-Net的低照度目标检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于FasterR-CNN的教室监控人数识别系统的开发与研究;王子威;范伊红;赵锦雯;王涛;;电脑知识与技术;20200615(第17期);全文 *

Also Published As

Publication number Publication date
CN114821318A (zh) 2022-07-29

Similar Documents

Publication Publication Date Title
CN114821318B (zh) 一种基于Darkdet-Net的低照度小样本目标检测方法
CN113052210B (zh) 一种基于卷积神经网络的快速低光照目标检测方法
CN110956094A (zh) 一种基于非对称双流网络的rgb-d多模态融合人员检测方法
CN112150450B (zh) 一种基于双通道U-Net模型的图像篡改检测方法及装置
US20210019872A1 (en) Detecting near-duplicate image
CN109034184B (zh) 一种基于深度学习的均压环检测识别方法
CN110020658B (zh) 一种基于多任务深度学习的显著目标检测方法
CN115705637A (zh) 一种基于改进YOLOv5模型的丝饼缺陷检测方法
CN112819858B (zh) 基于视频增强的目标跟踪方法、装置、设备及存储介质
CN113850324B (zh) 一种基于Yolov4的多光谱目标检测方法
CN111476133B (zh) 面向无人驾驶的前背景编解码器网络目标提取方法
CN114092774B (zh) 基于信息流融合的rgb-t图像显著性检测系统及检测方法
CN112991371B (zh) 一种基于着色溢出约束的图像自动着色方法及系统
CN116052212A (zh) 一种基于双重自监督学习的半监督跨模态行人重识别方法
CN113553954A (zh) 行为识别模型的训练方法及装置、设备、介质和程序产品
CN116129291A (zh) 一种面向无人机畜牧的图像目标识别方法及其装置
CN113393434A (zh) 一种基于非对称双流网络架构的rgb-d显著性检测方法
CN116757988A (zh) 基于语义丰富和分割任务的红外与可见光图像融合方法
CN115527098A (zh) 基于全局均值对比度空间注意力的红外小目标检测方法
CN113628143A (zh) 一种基于多尺度卷积的加权融合图像去雾方法及装置
CN117456330A (zh) 一种基于MSFAF-Net的低照度目标检测方法
CN113128522A (zh) 目标识别方法、装置、计算机设备和存储介质
CN115861756A (zh) 基于级联组合网络的大地背景小目标识别方法
WO2020093210A1 (zh) 基于上下文信息指导的场景分割方法和系统
CN113887470B (zh) 基于多任务注意力机制的高分辨率遥感图像地物提取方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant