CN111222534A - 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 - Google Patents

一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 Download PDF

Info

Publication number
CN111222534A
CN111222534A CN201911121603.6A CN201911121603A CN111222534A CN 111222534 A CN111222534 A CN 111222534A CN 201911121603 A CN201911121603 A CN 201911121603A CN 111222534 A CN111222534 A CN 111222534A
Authority
CN
China
Prior art keywords
balanced
loss
feature fusion
algorithm
bfssd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911121603.6A
Other languages
English (en)
Other versions
CN111222534B (zh
Inventor
赵辉
李志伟
方禄发
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201911121603.6A priority Critical patent/CN111222534B/zh
Publication of CN111222534A publication Critical patent/CN111222534A/zh
Application granted granted Critical
Publication of CN111222534B publication Critical patent/CN111222534B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,属于计算机视觉领域。A1:对训练集图像进行预处理;A2:构建传统SSD模型;A3:基于双向特征融合和更平衡L1损失函数修改传统SSD算法模型并构建BFSSD模型;A4:对BFSSD算法模型进行训练;A5:对BFSSD算法模型的性能进行测试。本发明解决了传统SSD算法在训练过程中存在的正负样本和多任务不平衡问题,对于小目标检测具有良好的鲁棒性。

Description

一种基于双向特征融合和更平衡L1损失的单发多框检测器优 化方法
技术领域
本发明属于计算机视觉领域,涉及一种基于双向特征融合和更平衡L1损失的单发多框检测器优化算法。
背景技术
目标检测是计算机视觉的核心任务之一,广泛应用于智能监控、自动驾驶等领域。近年来,基于深卷积神经网络(Deep Convolutional Neural Networkd,DCNN)的各种目标检测方法取得了显著的性能,提高了目标检测的精度和速度。基于深度卷积神经网络的目标检测方法大致可分为两类:
(1)两阶段检测框架,首先产生一系列目标候选区域,然后通过深度神经网络提取目标候选区域的特征,并用这些特征进行分类,以及目标真实边界框回归。两阶段检测器主要包括:具有开创性的RCNN,在R-CNN体系结构中引入传统的空间金字塔池的SPPNet,RCNN的改进版本Fast RCNN和Faster RCNN,以及一些从不同角度引入许多新方法来提高准确度和速度的框架,例如,FPN、Cascade RCNN和Mask RCNN。
(2)一阶段检测框架,不生成目标候选区域而直接基于回归的目标检测与识别算法,它直接产生物体类别的概率和位置坐标。YOLO(You Only Look Once)和SSD(SingleShot Multibox Detector)推广了一阶段检测器,它们比以往的两阶段检测器简单、快速,可以在GPU上实现实时处理,但精度相对落后。
SSD具有较高的检测精度和速度,对尺度变化具有较好的鲁棒性。SSD充分利用不同输出层的特征进行目标检测,然后合并不同层的检测结果,最后采用非极大值抑制(NMS)方法抑制冗余检测框。传统的SSD算法虽然在速度和精度上都有很好的性能,但仍存在一些不足需要改进。首先,传统SSD算法中用于目标检测的特征金字塔中的不同层是独立的,没有考虑不同特征层之间的关系,忽略了一些上下文信息。然而,小目标通常严重依赖上下文信息,因此SSD在小目标检测方面存在局限性。为了解决这个问题,DSSD用Resnet-101代替SSD的基础骨干网,并用反褶积层来聚合上下文,增强浅层特征的高层语义。RSSD利用池化和反褶积实现了彩虹连接(rainbow concatenation),融合不同层次的特征,增加特征层的通道数等方式来提高小目标检测的精度,然而由于网络结构的复杂度过高,检测速度被大大降低。此外,研究人员发现,基础骨干网络中的深层特征具有更多的语义,而浅层特征具有更多的内容描述,因此最近FPN和PANet中通过横向连接的特征集成推动了目标检测的发展。这些方法启发我们,低层信息和高层信息在目标检测中是互补的,如何利用它们集成金字塔表示的方法决定了检测性能。其次,目标检测需要完成分类和定位两项任务,因此它的训练目标也包含了这两项任务。如果它们没有得到适当的平衡,一个目标可能会受到损害,从而导致总体表现欠佳。训练过程中涉及的样本情况也是如此,如果正负样本的梯度贡献不能很好地平衡,负样本(easy samples)产生的小梯度可能淹没在正样本(hard samples)产生的大梯度中,从而限制了进一步的细化,这些不平衡会导致训练效率低下和模型退化。因此,减少目标检测训练过程中的不平衡是实现最优训练和充分挖掘模型结构潜力的关键。SSD精度低的原因之一是极不平衡的正负样本采样率。OHEM只保留损失最大的样本,而完全忽略easy samples。
发明内容
有鉴于此,本发明的目的在于提供一种基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,针对传统SSD算法由于独立使用多尺度特征层而没有考虑不同特征层之间的关系,进而忽略了一些上下文信息,导致对于小目标检测不够鲁棒的问题,以及传统SSD算法在训练过程中存在的正负样本和多任务不平衡问题。
为达到上述目的,本发明提供如下技术方案:
一种基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,设计一种双向特征融合模块对传统SSD算法中用于检测的特征层(深层和浅层)进行双向特征信息融合,使得融合后的特征层既包含丰富的细节特征又包含重要的语义信息,同时提出了一种更平衡的L1定位损失函数来促进重要梯度的回归,进而一定程度上解决SSD算法中存在的样本和多任务不平衡问题。通过上述两方面,特征信息得以有效增强,不平衡问题得以有效解决,所提出的FESSD也就有效SSD算法的检测性能和对小目标检测的鲁棒性。该方法具体包括以下步骤:
A1:对训练集图像进行预处理;
A2:构建传统单发多框检测器(Single Shot Multibox Detector,SSD)模型;
A3:基于双向特征融合和更平衡L1损失函数修改传统SSD算法模型并构建单发多框检测器优化算法(Balanced Feature Fusion SSD,BFSSD)模型;
A4:对BFSSD算法模型进行训练:首先初始化BFSSD算法模型参数,其次设置学习率和最大迭代次数,然后采用批量随机梯度下降算法进行训练;
A5:对BFSSD算法模型的性能进行测试。
进一步,所述步骤A3具体包括:首先采用双向特征融合模块对SSD算法模型获得的特征层中前4层进行双向特征信息融合,然后再传统SSD算法模型的定位损失函数修改成更平衡L1损失函数(More Balanced L1 Loss)。
进一步,基于VGG16网络构建传统SSD网络,并把Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2、Conv11_2共6个特征层提取出来用于目标检测记,其中,选择从传统SSD网络中提取出来的前4层特征层Conv4_3、Conv7、Conv8_2、Conv9_2记为S1、S2、S3、S4,构建双向特征融合模块,其中S1分辨率是S2分辨率的2倍,S3分辨率是S4分辨率的2倍;具体步骤包括:
第一步:用S2上采样得到特征大小与S1相同的S2_up,S1下采样得到特征大小与S2相同的S1_down,S4上采样得到特征大小与S3相同的S4_up,S3下采样得到特征大小与S4相同的S3_down;
第二步:将S1和S2_up进行点和得到C1,S2和S1_down进行点和得到C2,S3和S4_up进行点和得到C3,S4和S3_down进行点和得到C4,为了进一步体现双向特征融合,再对C1进行下采样得到C1_down以便和C2相加求均值得到最后的P1,再通过对P1进行上采样得到P2,对C3进行下采样得到C3_down和C4相加求均值得到最后的P4,再通过对P4进行上采样得到P3。
进一步,所述S4、S3、S2、S1、C2、和C4都采用1×1的卷积进行通道数统一,融合后的特征再利用3×3的卷积消除上采样带来的混叠效应,最后与传统SSD算法模型的S4、S3、S2、S1进行通道数统一得到的P4、P3、P2和P1。
进一步,所述更平衡L1损失函数的计算公式为:
Figure BDA0002275613060000031
其中,a=c且
Figure BDA0002275613060000032
a和b为可变参数。
进一步,所述步骤A4中,对BFSSD算法模型进行训练具体包括以下步骤:
A41:模型参数初始化:利用迁移学习的思想,加载VGG16在ImageNet数据集上预训练的权重,去掉全连接层;
A42:新增网络层参数的初始化:采用均匀分布随机初始化新增网络层的参数权重,激活函数为ReLu,其定义为:f(x)=max(0,x);
A43:设置学习率和最大迭代次数,采用批量随机梯度下降算法进行训练
本发明的有益效果在于:本发明所采用的BFSSD算法与传统SSD算法和其他一些先进的目标检测算法相比,本发明在不改变基础骨干网的前提下,首先,设计了一个能够从两个方向融合和细化特征信息的特征融合模块,有效地对多尺度特征进行了双向特征信息融合,使得融合后的特征层既包含丰富的细节信息又包含重要的语义信息,有利于小目标检测。其次,通过给出并利用一个更平衡L1损失函数,有效地平衡了正负样本对整个定位损失函数的梯度贡献,从而部分地解决了SSD算法中样本和多任务的不平衡问题。一系列的实验结果表明,本发明所采用的BFSSD算法在保持与其他检测器相当的检测速度的同时,在算法检测性能和小目标检测的性能上有明显的优势。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明所述基于双向特征融合和更平衡L1损失的单发多框检测器算法(BFSSD)的整体框架图;
图2为本发明所述方法的整体流程图;
图3为本发明提出的双向特征融合模块在算法中的整体框架图;
图4为本发明与SSD算法在Pascal VOC 2007测试集上平均精确率(average ofeach class precision)vs召回率(recall)曲线图(P-R曲线图);
图5为本发明与SSD算法在PASCAL VOC2012测试集上的检测示例对比图;图5(a)~(e)为采用本发明BFSSD算法的检测结果图;图5(f)~(j)为采用传统SSD算法的检测结果图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1~图5,本发明实施例采用了一种基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,参照图1和图2所示,具体实施步骤如下:
步骤1:搭建算法所需计算机平台:Nivida GTX1080 Ti+Ubuntu 16.04+Python3.5+TensorFlow 1.4+CUDA 8.0,我们提出的BFSSD是基于Tensorflow框架和VGG16体系结构的SSD实现的;
步骤2:准备数据集和数据格式转换:本发明采用的数据集为Pascal VOC2007+Pascal VOC2012,Pascal VOC数据集由20个对象类组成,每个对象类都有带注释的地面真实位置信息和相应的类别信息,其中Pascal VOC2007 trainval(训练集)+Pascal VOC2012trainval 进行模型训练,PascalVOC2007 test用于测试,然后转换为tfrecord格式;
步骤3:通过数据增广的方式对训练数据集进行预处理,具体为:对于每一张训练图像,随机进行如下几种选择:
1)使用原始的图像;
2)随机随机采样多个图像区域块(patch),设定与物体之间最小的jaccardoverlap为:0.1,0.3,0.5,0.7与0.9,采样的patch是原始图像大小比例是最小为0.3,最大为1.0,长宽比(aspect ratio)为0.5或2;
保留ground truth的中心在采样的patch中且在采样的patch中ground truth面积大于0图像区域块;在随机采集图像区域块后,每一个采样的patch的尺度被重新调整到固定的大小,并且以0.5的概率随机的水平翻转以及随机颜色扭曲;
步骤4:基于双向特征融合和更平衡L1损失的单发多框检测器的模型构建,首先我们构建传统SSD算法模型,然后基于双向特征融合模块(如图3)构建BFSSD算法网络结构,然后再基于更平衡L1损失函数构建BFSSD算法模型;
构建传统SSD算法模型的主要步骤为:
1)基于VGG16网络,将两个全连接层(Fc6和Fc7)改成卷积层,然后移除dropout层和Fc8层,并随后增加4个卷积层(Conv8,Conv9,Conv10,Conv11)来构建传统SSD网络结构;
2)提取Conv4_3、Conv7,Conv8_2、Conv9_2、Conv10_2、Conv11_2共6个卷积层的特征来进行目标检测,其中前4层后续将用双向特征融合块进行双向特征信息融合;
3)在提取的6个feature map上设置默认框(default box),每个feature map的default box的尺度(scale)公式为:
Figure BDA0002275613060000051
其中,sk表示default box大小相对图片的比例,smin=0.2表示最底层的scale为0.2,smax=0.9则表示最高层的scale为0.9,m表示feature map的个数。长宽比(aspectratio)的取值为:
Figure BDA0002275613060000061
每个default box的宽和高的计算公式分别为:
Figure BDA0002275613060000062
此外,当aspect ratio为1时,增加一种scale为
Figure BDA0002275613060000063
4)正负样本获得:首先进行先验框(prior box)匹配,从ground truth出发,为每个groundtruth找到最匹配的一个prior box,具体操作为将与每个ground truth具有最大jaccard overlap(IOU)的prior box进行匹配,记为正样本,反之,若一个prior box没有与任何ground truth进行匹配,则prior box是负样本。其中jaccard overlap IOU)的计算公式如下:
Figure BDA0002275613060000064
再从prior box出发,对于剩余的未匹配先验框,若某个ground truth的jaccardoverlap(IOU)大于0.5,那么该prior box也与这个ground truth进行匹配。然后采用难例挖掘的方法,对负样本进行抽样,抽样时按照置信度误差(Predictions loss)(预测背景的置信度越小,误差越大)进行降序排列,选取误差的较大的Top-k作为训练的负样本,以保证正负样本比例接近1:3。
5)定义SSD算法分类损失函数:SSD算法的总损失函数是边框回归损失函数(localization loss,loc)和分类损失函数置信度误差(confidence loss,conf)的加权和:
Figure BDA0002275613060000065
其中N是prior box的正样本数量,
Figure BDA0002275613060000066
是一个指示参数,当
Figure BDA0002275613060000067
表示第i个priorbox与第j个ground truth匹配,并且ground truth的类别为p,c为类别置信度预测值。l为prior box所对应边界框的位置预测值,g为ground truth的位置参数,α权重系数α通过交叉验证设置为1。对于分类损失函数,采用softmax loss,其公式为:
Figure BDA0002275613060000068
其中Pos表示正样本,Neg表示负样本,
Figure BDA0002275613060000069
表示目标第i个预测框中目标是第p个类别的概率,
Figure BDA00022756130600000610
表示预测框在没有物体。
6)对特征层进行卷积得到检测结果:对每个不同的用于检测的feature map分别用两个不同的3×3的卷积核进行卷积,一个输出分类用的置信度得分(confidence),每个default box生成21个类别confidence,一个输出回归用的位置(localization),每个default box生成4个坐标值(cx,cy,w,h),分别表示边界框的中心坐标以及宽高。然后通过非极大值抑制(NMS)方法保留前N个预测,确保留下最可能的预测框。NMS方法的步骤为:a)将所有框的得分排序,选择最高及其对应的框;b)遍历其余的框,如果和当前最高分框的IOU大于一定阈值,删除这个框;c)从未处理的框中继续选择一个得分最高的框重复a)和b)步骤;
基于双向特征融合模块构建BFSSD算法网络结构:主要是基于双向特征融合模块修改传统SSD网络结构。如图3所示,主要步骤为:把Conv4_3、Conv7、Conv8_2、Conv9_2、Conv10_2和Conv11_2记作:S1、S2、S3、S4、S5和S6,其大小分别为38×38、19×19、10×10、5×5、3×3、1×1。选择前4层(S1、S2、S3、S4)构建双向特征融合模块,其中S1和S2为一对需要进行双向特征融合的传统特征层(S1分辨率是S2分辨率的2倍),S3和S4为另外一对需要进行双向特征融合的传统特征层(S3分辨率是S4分辨率的2倍)。具体操作为:
第一步是用S2上采样得到特征大小与S1相同的S2_up,S1下采样得到特征大小与S2相同的S1_down,S4上采样得到特征大小与S3相同的S4_up,S3下采样得到特征大小与S4相同的S3_down,第二步将S1和S2_up进行点和得到C1,S2和S1_down进行点和得到C2,S3和S4_up进行点和得到C3,S4和S3_down进行点和得到C4,为了进一步体现双向特征融合,再对C1进行下采样得到C1_down以便和C2相加求均值得到最后的P1,再通过对P1进行上采样得到P2,对C3进行下采样得到C3_down以便和C4相加求均值得到最后的P4,再通过对P4进行上采样得到P3。相加求均值的操作具体为:
Figure BDA0002275613060000071
为了进行点和操作S4、S3、S2、S1、C2、和C4都必须采用1×1的卷积进行通道数统一,融合后的特征再利用3×3的卷积消除上采样带来的混叠效应,最后与传统SSD算法的S4、S3、S2、S1进行通道数统一得到的P4、P3、P2和P1。在这个过程中,特征信息得以双向传递和高效融合。
基于更平衡L1损失函数构建BFSSD算法模型主要是把传统SSD算法中的定位损失函数Smooth L1修改成更平衡L1损失函数(More Balanced L1 Loss)。对于定位损失函数,其公式为:
Figure BDA0002275613060000081
其中
Figure BDA0002275613060000082
为对ground truth的g进行编码后的值,
Figure BDA0002275613060000083
为预测值,prior box位置用d=(dcx,dcy,dw,dh)表示。传统SSD算法采用SmoothL1 loss,本发明提出采用更平衡L1损失函数(More Balanced L1 Loss),其定义为:
Figure BDA0002275613060000084
其中a=c且
Figure BDA0002275613060000085
a和b为可变参数,在本发明的BFSSD算法中所取得最好性能效果的参数值为:a=1.5b=3,这一点可以从表1中得到;
表1 VOC2007测试集上不同参数设置下更平衡L1损失函数的结果
Figure BDA0002275613060000086
步骤5:对BFSSD算法模型进行训练。首先是模型参数初始化,利用迁移学习,采用VGG16在ImageNet数据集上预训练的参数权重,去掉全连接层初始化大部分网络参数,对于新增网络层(双向特征信息融合模块)的参数权重采用均匀分布随机初始化,激活函数为ReLu,其定义为:
f(x)=max(0,x) (9)
其次是设置学习率和最大迭代次数;其中最大迭代次数设置为120000次,批量大小(batch size)为32,学习率采用warm-up的策略,对于前1000次,学习速率为0.0001,方便加快启动和收敛速度,对于1000次到80000次,学习率为0.001,对于80000次到100000次,学习率降低到0.0001,在最后100000次到120000次时,学习率为0.00001。采用批量随机梯度下降算法进行训练;
步骤6:对BFSSD算法模型的性能进行评估、测试、并和传统SSD算法进行比较分析。评估指标主要为平均精度均值(mean Average Precision,mAP)和每秒帧率(Frame PerSecond,FPS),即每秒内可以处理的图片数量。
如图4所示,本发明所提出的BFSSD算法与传统SSD算法相比有更高的mAP值,这一点我们同样可以从表2中得到,本发明所提出的BFSSD算法相比于传统SSD算法和一些其他的先进目标检测器算法,得益于我们的双向特征融合模块和更平衡L1损失函数,其中双向特征融合模块可以有效的在不同特征层之间进行双向特征信息融合来增强特征信息,同时避免了通过引入复杂基础骨干网带来的巨大网络参数量的提升,而更平衡L1损失函数可以通过增大负样本(easy example)梯度的相对权重,促进这一关键梯度的回归,一定程度上解决了存在的不平衡问题,这一部分是不增加参数量的,BFSSD相比于其他算法在mAP和FPS上有着一定的优势,并且其检测速度也相比于传统SSD算法也没有降低很多。
表2 各种算法在VOC2007 test的评价指标对比情况
Figure BDA0002275613060000091
如表3所示,为了进一步证明本发明所提双向特征融合模块和更平衡L1损失函数的有效性,我们用实验进一步证明这一点。
表3 模型简化测试结果对比情况
Figure BDA0002275613060000092
Figure BDA0002275613060000101
如图5所示,本次实验在VOC2012测试集上用样例图片展示了本发明所提的BFSSD算法和传统SSD算法在性能上的对比,可以发现,得益于本次采用的双向特征融合模块和更平衡L1损失函数,BFSSD相比于SSD检测精度更高,能够有效的减少误检和提高对小目标的检测效率。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。

Claims (6)

1.一种基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,其特征在于,该方法具体包括以下步骤:
A1:对训练集图像进行预处理;
A2:构建传统单发多框检测器(Single Shot Multibox Detector,SSD)模型;
A3:基于双向特征融合和更平衡L1损失函数修改传统SSD算法模型并构建单发多框检测器优化算法(Balanced Feature Fusion SSD,BFSSD)模型;
A4:对BFSSD算法模型进行训练:首先初始化BFSSD算法模型参数,其次设置学习率和最大迭代次数,然后采用批量随机梯度下降算法进行训练;
A5:对BFSSD算法模型的性能进行测试。
2.根据权利要求1所述的基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,其特征在于,所述步骤A3具体包括:首先采用双向特征融合模块对SSD算法模型获得的特征层中前4层进行双向特征信息融合,然后再传统SSD算法模型的定位损失函数修改成更平衡L1损失函数(More Balanced L1 Loss)。
3.根据权利要求2所述的基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,其特征在于,选择从传统SSD网络中提取出来的前4层特征层Conv4_3、Conv7、Conv8_2、Conv9_2记为S1、S2、S3、S4,构建双向特征融合模块,其中S1分辨率是S2分辨率的2倍,S3分辨率是S4分辨率的2倍;具体步骤包括:
第一步:用S2上采样得到特征大小与S1相同的S2_up,S1下采样得到特征大小与S2相同的S1_down,S4上采样得到特征大小与S3相同的S4_up,S3下采样得到特征大小与S4相同的S3_down;
第二步:将S1和S2_up进行点和得到C1,S2和S1_down进行点和得到C2,S3和S4_up进行点和得到C3,S4和S3_down进行点和得到C4,再对C1进行下采样得到C1_down以便和C2相加求均值得到最后的P1,再通过对P1进行上采样得到P2,对C3进行下采样得到C3_down和C4相加求均值得到最后的P4,再通过对P4进行上采样得到P3。
4.根据权利要求3所述的基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,其特征在于,所述S4、S3、S2、S1、C2、和C4都采用1×1的卷积进行通道数统一,融合后的特征再利用3×3的卷积消除上采样带来的混叠效应,最后与传统SSD算法模型的S4、S3、S2、S1进行通道数统一得到的P4、P3、P2和P1。
5.根据权利要求2所述的基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,其特征在于,所述更平衡L1损失函数的计算公式为:
Figure FDA0002275613050000021
其中,a=c且
Figure FDA0002275613050000022
a和b为可变参数。
6.根据权利要求1所述的基于双向特征融合和更平衡L1损失的单发多框检测器优化方法,其特征在于,所述步骤A4中,对BFSSD算法模型进行训练具体包括以下步骤:
A41:模型参数初始化:利用迁移学习的思想,加载VGG16在ImageNet数据集上预训练的权重,去掉全连接层;
A42:新增网络层参数的初始化:采用均匀分布随机初始化新增网络层的参数权重,激活函数为ReLu,其定义为:f(x)=max(0,x);
A43:设置学习率和最大迭代次数,采用批量随机梯度下降算法进行训练。
CN201911121603.6A 2019-11-15 2019-11-15 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法 Active CN111222534B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911121603.6A CN111222534B (zh) 2019-11-15 2019-11-15 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911121603.6A CN111222534B (zh) 2019-11-15 2019-11-15 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法

Publications (2)

Publication Number Publication Date
CN111222534A true CN111222534A (zh) 2020-06-02
CN111222534B CN111222534B (zh) 2022-10-11

Family

ID=70807964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911121603.6A Active CN111222534B (zh) 2019-11-15 2019-11-15 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法

Country Status (1)

Country Link
CN (1) CN111222534B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832440A (zh) * 2020-06-28 2020-10-27 高新兴科技集团股份有限公司 人脸特征提取模型的构建方法、计算机存储介质及设备
CN112163520A (zh) * 2020-09-29 2021-01-01 广西科技大学 一种基于改进损失函数的mdssd人脸检测方法
CN112800952A (zh) * 2021-01-27 2021-05-14 山东大学 一种基于改进ssd算法的海洋生物识别方法及系统

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108009469A (zh) * 2017-10-24 2018-05-08 中国科学院电子学研究所苏州研究院 一种基于结构递归神经网络的海上油气平台检测方法
CN109102025A (zh) * 2018-08-15 2018-12-28 电子科技大学 基于深度学习联合优化的行人重识别方法
CN109712205A (zh) * 2018-12-10 2019-05-03 重庆邮电大学 一种基于非局部自相似模型的图像压缩感知重建方法
US20190156144A1 (en) * 2017-02-23 2019-05-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device
CN109816024A (zh) * 2019-01-29 2019-05-28 电子科技大学 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN109948607A (zh) * 2019-02-21 2019-06-28 电子科技大学 基于深度学习反卷积网络的候选边框生成和目标检测方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN110245655A (zh) * 2019-05-10 2019-09-17 天津大学 一种基于轻量级图像金字塔网络的单阶段物体检测方法
CN110378398A (zh) * 2019-06-27 2019-10-25 东南大学 一种基于多尺度特征图跳跃融合的深度学习网络改进方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190156144A1 (en) * 2017-02-23 2019-05-23 Beijing Sensetime Technology Development Co., Ltd Method and apparatus for detecting object, method and apparatus for training neural network, and electronic device
CN108009469A (zh) * 2017-10-24 2018-05-08 中国科学院电子学研究所苏州研究院 一种基于结构递归神经网络的海上油气平台检测方法
WO2019144575A1 (zh) * 2018-01-24 2019-08-01 中山大学 一种快速行人检测方法及装置
CN109102025A (zh) * 2018-08-15 2018-12-28 电子科技大学 基于深度学习联合优化的行人重识别方法
CN109712205A (zh) * 2018-12-10 2019-05-03 重庆邮电大学 一种基于非局部自相似模型的图像压缩感知重建方法
CN109816024A (zh) * 2019-01-29 2019-05-28 电子科技大学 一种基于多尺度特征融合与dcnn的实时车标检测方法
CN109948607A (zh) * 2019-02-21 2019-06-28 电子科技大学 基于深度学习反卷积网络的候选边框生成和目标检测方法
CN110245655A (zh) * 2019-05-10 2019-09-17 天津大学 一种基于轻量级图像金字塔网络的单阶段物体检测方法
CN110378398A (zh) * 2019-06-27 2019-10-25 东南大学 一种基于多尺度特征图跳跃融合的深度学习网络改进方法

Non-Patent Citations (7)

* Cited by examiner, † Cited by third party
Title
JINGJUAN GUO等: "Densely convolutional and feature fused object detector", 《MULTIMEDIA TOOLS AND APPLICATIONS 》 *
JUN YU等: "Hierarchical Deep Click Feature Prediction for Fine-Grained Image Recognition", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
WEI LIU等: "SSD: Single Shot MultiBox Detector", 《COMPUTER SCIENCECOMPUTER SCIENCE (R0)》 *
彭大芹等: "基于双向特征融合卷积神经网络的液晶面板缺陷检测算法", 《广东通信技术》 *
石维康: "基于深度神经网络的车型识别设计与实现", 《中国优秀硕士学位论文全文数据库 (信息科技辑)》 *
解博等: "基于SSD卷积网络的航拍图像目标检测方法", 《光电子.激光》 *
谢江荣等: "用于空中红外目标检测的增强单发多框检测器方法", 《光学学报》 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111832440A (zh) * 2020-06-28 2020-10-27 高新兴科技集团股份有限公司 人脸特征提取模型的构建方法、计算机存储介质及设备
CN111832440B (zh) * 2020-06-28 2024-04-02 高新兴科技集团股份有限公司 人脸特征提取模型的构建方法、计算机存储介质及设备
CN112163520A (zh) * 2020-09-29 2021-01-01 广西科技大学 一种基于改进损失函数的mdssd人脸检测方法
CN112800952A (zh) * 2021-01-27 2021-05-14 山东大学 一种基于改进ssd算法的海洋生物识别方法及系统

Also Published As

Publication number Publication date
CN111222534B (zh) 2022-10-11

Similar Documents

Publication Publication Date Title
CN111126472B (zh) 一种基于ssd改进的目标检测方法
CN111489358B (zh) 一种基于深度学习的三维点云语义分割方法
CN109657584B (zh) 辅助驾驶的改进LeNet-5融合网络交通标志识别方法
Costea et al. Creating roadmaps in aerial images with generative adversarial networks and smoothing-based optimization
CN111898432B (zh) 一种基于改进YOLOv3算法的行人检测系统及方法
CN111222534B (zh) 一种基于双向特征融合和更平衡l1损失的单发多框检测器优化方法
CN112348036A (zh) 基于轻量化残差学习和反卷积级联的自适应目标检测方法
CN107506761A (zh) 基于显著性学习卷积神经网络的脑部图像分割方法及系统
CN111950453A (zh) 一种基于选择性注意力机制的任意形状文本识别方法
CN109636817B (zh) 一种基于二维卷积神经网络的肺结节分割方法
CN110991311A (zh) 一种基于密集连接深度网络的目标检测方法
CN107832835A (zh) 一种卷积神经网络的轻量化方法及装置
CN113486764B (zh) 一种基于改进的YOLOv3的坑洼检测方法
CN113177560A (zh) 一种普适性轻量级深度学习车辆检测方法
CN113420643B (zh) 基于深度可分离空洞卷积的轻量级水下目标检测方法
CN110991444A (zh) 面向复杂场景的车牌识别方法及装置
CN114419413A (zh) 感受野自适应的变电站绝缘子缺陷检测神经网络构建方法
CN114092697A (zh) 注意力融合全局和局部深度特征的建筑立面语义分割方法
CN114973011A (zh) 一种基于深度学习的高分辨率遥感影像建筑物提取方法
CN116052218B (zh) 一种行人重识别方法
CN111524140A (zh) 基于cnn和随机森林法的医学图像语义分割方法
CN118279566B (zh) 一种针对小型物体的自动驾驶目标检测系统
CN115223017A (zh) 一种基于深度可分离卷积的多尺度特征融合桥梁检测方法
CN116503366A (zh) 一种基于动态坐标卷积的混凝土裂缝检测方法及系统
CN117173595A (zh) 基于改进YOLOv7的无人机航拍图像目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant