CN111126472A - 一种基于ssd改进的目标检测方法 - Google Patents

一种基于ssd改进的目标检测方法 Download PDF

Info

Publication number
CN111126472A
CN111126472A CN201911308860.0A CN201911308860A CN111126472A CN 111126472 A CN111126472 A CN 111126472A CN 201911308860 A CN201911308860 A CN 201911308860A CN 111126472 A CN111126472 A CN 111126472A
Authority
CN
China
Prior art keywords
prediction
feature
loss function
regression
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911308860.0A
Other languages
English (en)
Other versions
CN111126472B (zh
Inventor
臧强
曹春键
胡凯
朱庆浩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN201911308860.0A priority Critical patent/CN111126472B/zh
Publication of CN111126472A publication Critical patent/CN111126472A/zh
Application granted granted Critical
Publication of CN111126472B publication Critical patent/CN111126472B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本发明提供一种基于SSD改进的目标检测方法,该方法选用ResNet‑101代替VGG‑16作为整个模型的基础网络,提供了更加丰富的特征图信息;采用特征融合策略使得网络预测层的多尺度预测对小目标的检测效果有一定的提升;在分类分支增添SE‑block模块用于捕获特征图全局的环境信息,输出带有通道权重的特征图,使得分类更加精确;添加与分类预测层并行的Centerness层用来抑制低质量的边界框以此提升检测精度。本发明方法采用无锚框检测,避免了与锚框相关的所有超参,使用的预测边界框策略大大减少了超参数量,降低了网络设计复杂度,使得训练阶段变得十分简单。本发明方法的损失函数采用了focalloss函数,在保持检测速度的同时提高了模型检测精度。

Description

一种基于SSD改进的目标检测方法
技术领域:
本发明设计计算机视觉领域,更具体地,涉及一种基于SSD改进的目标检测方法,可应用于日常生活的目标检测任务当中,能实时的对目标进行检测。
背景技术:
随着社会的进步和科学技术的发展,人工智能已经成为人们生活中不可或缺的一部分,无人机、无人车等技术日益成熟,计算机视觉作为无人驾驶技术中的核心,随着深度学习的兴起,大数据时代的来临,计算机视觉的发展达到了一个新的高度。目前目标检测算法大多基于深度学习,传统的检测算法因为其鲁棒性差、检测速度慢,满足不了现代社会所需技术的实时性以及准确性,基于深度学习的检测算法更加受人们的推崇。
目标检测作为计算机视觉领域一个重要的方向,不同于识别任务,它需要将一张图片中的所有待检测类别识别出来,并用方框将其框出表明类别,是一种分类任务和回归任务的结合。目前主流的目标检测算法大致分为两类:一种为两阶段算法以R-CNN系列为主,其代表为Fast R-CNN目标检测算法,将目标检测任务分为两个阶段,第一个阶段通过区域推荐网络对目标框进行粗粒度的过滤及微调,再将剩余的边框映射回原图经过归一化尺寸后,送入第二阶段的细粒度的分类和回归,这样的两阶段的检测方法使得结果的精确度比较高,但是网络设计复杂并且计算量大,导致检测速度很慢,达不到实时的要求;另外一种是单阶段算法,以SSD系列和YOLO系列为主,顾名思义,其抛弃了两阶段算法的区域推荐网络部分,直接对目标进行分类回归,网络架构简单,检测速度快,但是严重的正负样本不平衡问题使得精确度达不到两阶段算法的高度。精确度和实时性作为目标检测算法评判标准,很难做到有效的平衡,特别地,2017年何凯明团队提出的RetinaNet(Lin T Y,Goyal P,Girshick R,et al.Focal Loss for Dense Object Detection[J].IEEE Transactionson Pattern Analysis&Machine Intelligence,2017,PP(99):2999-3007.)通过对损失函数的设计,使得单阶段检测器的精度可以匹敌甚至超过两阶段检测器的同时,却依然保持着检测器的实时性,在单阶段检测算法上做到了精度和速度之间有效的平衡,这样的单阶段检测器能更好的应用于现实生活,由此可见对单阶段检测算法的改进具有很好的前景。在专利号CN108288075A《一种改进SSD的轻量化小目标检测方法》中,作者使用特征融合策略提高SSD算法对小目标的检测,用DenseNet(Huang G,Liu Z,Laurens VD M,etal.Densely Connected Convolutional Networks[J].2016.)代替VGG-16网络作为基础网络并进行轻量化处理,以此来减小内存使其应用在嵌入式设备。相关的改进并没有脱离SSD基于锚框的检测思想,这样的检测模型需要在锚框相关参数上增添工作,因为这些参数对最终检测性能非常的敏感,使得模型训练的复杂度变高。
发明内容:
为了解决原SSD算法存在的对小目标的检测效果差、网络边框设计复杂性高以及检测精度低的问题,本发明提供了一种基于SSD改进的目标检测方法,能够对小目标有很好的检测效果,其技术方案如下:
一种基于SSD改进的目标检测方法,包括如下具体步骤:
1)将原始数据集进行预处理;
2)构建网络模型,所述网络模型包括基础网络以及分类回归网络;
所述基础网络将SSD模型中VGG-16网络替换为ResNet-101残差网络,并且使用两个3*3卷积代替所述ResNet-101残差网络末端的全连接层进行卷积降采样操作,分别得到降采样倍数为64和128的特征图,再对特征图中降采样倍数为8、16、32、64、128的特征图做特征融合操作,输出5种尺度的特征预测层;
所述分类回归网络对于每个特征预测层使用并行的两个3*3的卷积层分别作为分类分支和回归预测分支,并且添加一个与分类并行预测的Centerness分支以及在分类分支输入端添加一个SE-block层;
所述SE-block层由一个全局池化层和两个1×1的卷积所构成;
所述Centerness分支用于减少因远离目标中心而产生的低质量边界框,其计算公式如下:
Figure BDA0002323953960000021
式中:
Figure BDA0002323953960000022
为回归的位置信息,其中,
Figure BDA0002323953960000023
为感受野中心点离预测框左边的距离;
Figure BDA0002323953960000024
为感受野中心点离预测框上边的距离;
Figure BDA0002323953960000025
为感受野中心点离预测框右边的距离;
Figure BDA0002323953960000031
为感受野中心点离预测框下边的距离;Centerness输出在0到1之间;
3)训练阶段,将步骤1)预处理后的原始数据集分为训练集和测试集,再将训练集按照最小批次输入步骤2)构建的网络模型,在5种尺度的特征预测层上,像素级的预测出类别得分、中心概率得分以及回归的位置信息,并对预测框进行正负样本划分;然后设计损失函数,并使用梯度下降法进行反向迭代优化,得到最优网络参数,输出最优网络模型;
4)测试阶段,将测试集作为最优网络模型输入,得到检测结果,其具体过程如下:
4.1)将测试集作为最优网络模型的输入;
4.2)输入数据经过最优网络模型在5种尺度的特征预测层上像素级的预测出类别得分、中心概率得分以及回归的位置信息;
4.3)选取得分最高的类别作为像素点的类别并根据类别得分的阈值进行删选,将剩下像素点的类别得分与Centerness中心概率得分相乘,获得新的类别得分;
4.4)对剩下的像素点的回归位置信息解码得到边界框的真实坐标信息,根据得分降序保留分数最高的k个预测框并进行非极大值抑制处理,得到检测结果。
优选地,步骤2)中所述特征融合操作的具体方法为:将卷积降采样倍数为8、16、32、64、128的特征图分别记为C3、C4、C5、C6、C7,并把C7的输出特征图记为P7,接着将P7通过两倍的转置卷积后与C6逐像素相加,得到融合后的特征图P6,P6通过两倍的转置卷积后与C5逐像素相加,得到融合后的特征图P5,再将P5通过一个1*1的卷积将特征通道数降为256,然后通过两倍的转置卷积后与C4逐像素相加,得到融合后的特征图P4,再将P4通过1*1的卷积将通道数降为128,然后通过两倍的转置卷积后与C3逐像素相加,得到融合后的特征图P3,最后将融合后的特征图P3、P4、P5、P6、P7,即5种尺度的特征预测层,分别作为分类回归网络的输入特征。
优选地,步骤2)中对于回归的位置信息的计算方法如下:
通过将选取的第i个特征预测层上的第j个像素点
Figure BDA0002323953960000032
映射回原图得到当前像素点感受野中心坐标(xm,yn),计算公式如下:
Figure BDA0002323953960000041
式中:s为卷积降采样的倍数;i为特征预测层编号;i取[1,5]中的整数;
则回归的位置信息
Figure BDA0002323953960000042
为当前像素点在原图上的预测框位置信息,即当前像素点感受野中心坐标到预测框四条边的距离,其计算公式如下:
Figure BDA0002323953960000043
式中:x0、y0为当前像素点在原图上的预测框左上角的坐标;x1、y1为当前像素点在原图上的预测框右下角的坐标。
优选地,步骤3中所述预测框进行正负样本划分的具体方法为:
当前特征图上的像素通过映射回原图后,若感受野的中心坐标落在标定好的目标框内部,就将该像素点在原图上的预测框划分为正样本,否则为负样本;还根据设定的第i个特征预测层回归尺度的最小值mi-1和最大值mi,当预测出的
Figure BDA0002323953960000044
中的最大值大于mi或者
Figure BDA0002323953960000045
中的最大值小于mi-1时,将该像素点在原图上的预测框标记为负样本。
优选地,步骤3)中所述损失函数为分类损失函数、回归损失函数和中心得分损失函数之和,其计算公式如下:
Figure BDA0002323953960000046
式中:Npos为正样本的个数;Lcls为分类损失函数;Lreg为回归损失函数;Lcenter为中心概率得分损失函数;
Figure BDA0002323953960000047
为当前像素点映射回原图的感受野中心坐标到目标框四条边的距离;tx,y为当前像素点感受野中心坐标到预测框四条边的距离;Cx,y为真实类别标签;C*x,y为预测出的类别得分值;Sx,y为正负样本标签;S*x,y为预测出的中心概率得分值。
优选地,所述分类损失函数选用focal loss函数,计算公式如下:
Figure BDA0002323953960000051
式中:
Figure BDA0002323953960000052
为预测出类别得分值;α和γ为超参,分别为0.25和2;
所述回归损失函数选用iou loss函数,计算公式如下:
Figure BDA0002323953960000053
式中:A、B分别为预测框的面积和标定好的目标框的面积;只对正样本计算像素点映射回原图的感受野中心坐标到目标框四条边的距离
Figure BDA0002323953960000054
结合回归得到的
Figure BDA0002323953960000055
分别求出A和B并计算出交并集,计算公式如下:
Figure BDA0002323953960000056
Figure BDA0002323953960000057
所述中心概率得分损失函数选用二元交叉熵损失函数,计算公式如下:
Figure BDA0002323953960000058
式中:Sx,y为正负样本标签,Sx,y=1时表示正样本,Sx,y=0时表示负样本;S*x,y为计算得到的中心概率得分。
优选地,步骤1)中所述预处理包括将原始数据集中的图片调整为512*512大小并采用数据增强策略扩充原始数据集。
本发明相比于现有技术具有如下有益效果
本发明从网络结构上来看,选用ResNet-101代替VGG-16作为整个模型的基础网络,提供了更加丰富的特征图信息;采用特征融合策略使得网络预测层的多尺度预测对小目标的检测效果有一定的提升;在分类分支增添SE-block模块用于捕获特征图全局的环境信息,输出带有通道权重的特征图,使得分类更加精确;添加与分类预测层并行的Centerness层用来抑制低质量的边界框以此提升检测精度。
本发明从边框设计上看,不同于原SSD模型基于锚框的检测算法,而采用的是无锚框检测,基于锚框的检测精度受限于锚框相关的超参,这些参数的变化对于整个网络的检测结果有很大的影响,本发明避免了与锚框相关的所有超参,使用的预测边界框策略大大减少了超参数量,降低了网络设计复杂度,使得训练阶段变得十分简单。
本发明从损失函数的设计上看,采用了RetinaNet中的focal loss函数应用于分类损失计算,有效的解决了因类不平衡问题而导致单阶段检测器精度低的问题,在保持检测速度的同时提高了模型检测精度。
本发明从应用方面上看,所提供的网络模型由于其像素级的预测,可通过改动将此模型用于其他视觉任务上去,如:实例分割、人体关键点检测等。本发明具有很好的应用前景。
附图说明:
图1为本发明网络模型框架示意图;
图2为本发明网络模型具体结构示意图;
图3为本发明SE-block层的结构示意图;
图4为本发明训练流程图;
图5为本发明测试流程图;
具体实施方式:
下面结合具体实施例及对应附图对本发明作进一步说明。
实施例一:
本发明提供了一种基于SSD改进的目标检测方法,包括对输入数据的预处理、构建算法网络模型、确定损失函数训练模型以及测试模型四个阶段。
步骤1.将原始数据集进行数据预处理;本实施例原始数据集选用PASCAL VOC2007的训练验证数据集、VOC 2012的训练验证集和VOC2007的测试集;为了满足本算法模型对输入图片尺寸要求以及模型批量化的训练,该预处理方法为将原始数据集中的图片统一为512*512大小以及采用数据增强策略扩充原始数据集。
步骤2.构建网络模型,网络模型包括基础网络以及分类回归网络;
如图1和图2所示,基础网络将SSD模型中VGG-16网络替换为ResNet-101残差网络(He K,Zhang X,Ren S,et al.Deep Residual Learning for Ima ge Recognition[C]//2016IEEE Conference on Computer Vision and Pattern Re cognition(CVPR).IEEEComputer Society,2016.),VGG-16网络的搭建方式是通过堆叠滤波器,这样的结构会给网络顶层带来梯度弥散的现象,使得模型的学习能力退化,而选用的ResNet-101残差网络的搭建方式是通过卷积层之间的短接,以此来延长网络的深度,不仅能获得更加丰富的特征图信息,还有效的预防了梯度消失的问题,同时也抑制了学习退化现象。并且本发明在ResNet-101残差网络使用两个3*3*512,步长为2的卷积代替ResNet-101残差网络末端的全连接层进行卷积降采样操作,分别得到降采样倍数为64和128且大小为8*8*512、4*4*512的特征图,再对特征图中降采样倍数为8、16、32、64、128的特征图做特征融合操作,输出5种尺度的特征预测层;该特征融合策略是将深层特征上采样与其上一特征层相同大小后,逐像素相加并保留融合后的特征图用作分类回归网络的输入,这样自底而上、自顶向下的金字塔结构将深层丰富的语义信息和浅层对小目标检测的优势相结合,使得整个网络模型对于小目标的检测更为精确。具体方法为,将卷积降采样倍数为8、16、32、64、128的特征图分别记为C3、C4、C5、C6、C7,对应输出特征图的大小分别为64*64*128,32*32*256,16*16*512,8*8*512,4*4*512,并把C7的输出特征图记为P7,P7大小为4*4*512大小;接着将P7通过两倍的转置卷积后转化为8*8*512大小,再与大小为8*8*512的C6逐像素相加,得到融合后的特征图P6,P6通过两倍的转置卷积后转化为16*16*512大小,再与C5逐像素相加,得到融合后的特征图P5,再将P5通过一个1*1的卷积将特征通道数降为256,然后通过两倍的转置卷积后转化为32*32*256大小,再与C4逐像素相加,得到融合后的特征图P4,再将P4通过1*1的卷积将通道数降为128,然后通过两倍的转置卷积后转化为64*64*128大小,再与C3逐像素相加,得到融合后的特征图P3,最后将融合后的特征图P3、P4、P5、P6、P7,即上述5种尺度的特征预测层,分别作为分类回归网络的输入特征以实现多尺度特征目标的检测。
分类回归网络对于每个特征预测层使用并行的两个3*3的卷积层分别作为分类分支和回归预测分支,并且添加一个与分类并行预测的Centerness分支以及在分类分支输入端添加一个SE-block层,用于提高分类精度,同样也使得网络的检测结果更为精准;该SE-block层结构示意图,如图3所示,该SE-block层是指,胡杰团队提出的SENet(Jie H,Li S,Albanie S,et al.Squeeze-and-Excita tion Networks[J].2017,PP(99):1-1.)网络中所采用的SE模块,引入注意力机制,对每个通道捕捉自己不同的特征,用一个权重来表示该通道在下一个阶段的重要性,有效捕获全局信息,使得低层的预测结合全局的环境输出更加精确的类别信息,其由一个全局池化层和两个1×1的卷积所构成;
从结构上看,在输出的特征层和下一层卷积之间添加一个分支网络,这个分支的作用是给原特征的每个通道给予一定的权重,输出的结果带有全局的环境信息,对于分类就更加的准确,具体地,该分支包括三步操作:
(a)Squeeze操作,当特征图输出W×H×C大小时,经过全局池化将每个通道的W×H个像素值相加取平均作为每个通道的值,输出的结果大小为1×1×C,计算公式如下:
Figure BDA0002323953960000081
(b)Excitation操作,分别使用C/r个1×1×C和C个1×1×C/r卷积输出1×1×C大小,这里的r是缩放因子,一般取值16用来减轻网络的计算复杂度和参数量,计算公式如下:
sc=Fex(z,w)=σ(g(z,w))=σ(w2δ(w1z))
式中:σ表示激活函数使用sigmoid函数;δ表示激活函数使用relu函数。
(c)融合操作,将获得的输入特征图U的各个通道的权重与原始特征融合,这里的融合是进行逐通道相乘,输出带有注意力机制的特征图,计算如下:
X^=Fscale(uc,sc)=sc*uc
其次,在分类分支末端还添加了一个与分类预测并行的Centerness预测输出层分支,用于减少远离物体中心产生的低质量的边界框、降低目标的误检、找到目标的中心点和预测中心概率得分,其计算公式如下:
Figure BDA0002323953960000082
式中:
Figure BDA0002323953960000083
为回归的位置信息,其中,
Figure BDA0002323953960000084
为感受野中心点离预测框左边的距离;
Figure BDA0002323953960000085
为感受野中心点离预测框上边的距离;
Figure BDA0002323953960000086
为感受野中心点离预测框右边的距离;
Figure BDA0002323953960000087
为感受野中心点离预测框下边的距离;计算公式中使用根号来减缓中心的衰减,Centerness输出在0到1之间;
中心概率得分输出大小为W×H×1,分类预测输出大小为W×H×C,回归网络输出大小为W×H×4,这里的W和H为当前特征预测层的宽高值,C为预测类别数,4代表预测出的
Figure BDA0002323953960000091
边界框的位置信息,即回归的位置信息。
对于改进后的模型的输出而言,回归结果不同于原来的SSD网络采用的先验框机制,本发明无需添加先验框,直接对回归结果进行损失计算。将原来的先验框去除,对每个特征预测层的每个像素点进行映射回原图处理,即通过将选取的第i个特征预测层上的第j个像素点
Figure BDA0002323953960000092
映射回原图得到感受野中心坐标(xm,yn),计算公式如下:
Figure BDA0002323953960000093
式中:s表示下采样的倍数。i为特征预测层编号;i取[1,5]中的整数;
而回归预测的结果,即回归的位置信息是一组向量
Figure BDA0002323953960000094
用来表示当前像素点在原图上的预测框的位置信息,计算公式如下:
Figure BDA0002323953960000095
式中:xm、yn表示特征图上像素点映射回原图得到的感受野中心的坐标值;x0、y0表示像素点在原图上的预测框的左上角的坐标;x1、y1表示像素点在原图上的预测框的右下角的坐标。具体而言,就是通过一个4D的实数向量
Figure BDA0002323953960000096
来表示像素点感受野中心坐标到预测框四条边的距离。分类预测结果为W×H×C,这里的W和H分别代表当前特征层的宽高值,C为所需要预测的类别个数。
步骤3.训练阶段,如图4所示,将步骤1)预处理后的原始数据集分为训练集和测试集,本例将PASCAL VOC 2007的训练验证数据集加上VOC 2012的训练验证集作为模型总的训练数据,共16551张图片,并把VOC2007的测试集作为模型的测试数据,共4952张图片。首先将上述ResNet-101网络在ImageNe t数据集上做预训练操作,再把输入数据输入预训练好的ResNet-101特征提取网络中,在(P3,P4,P5,P6,P7)这5个尺度的特征层上像素级的预测出位置信息、类别信息以及中心得分,再将训练集按照最小批次输入步骤2)构建的网络模型,在5种尺度的特征预测层上,像素级的预测出类别得分、中心概率得分以及回归的位置信息,并对预测框进行正负样本划分;然后确认损失函数,并使用随机梯度下降法进行反向迭代优化,得到最优网络参数,输出最优网络模型;在本实例中,训练模型的实验环境为单张GTX 2080ti显卡,使用pytorch深度学习框架进行算法代码实现,在训练过程中,设置的输入最小批次为6,训练迭代80k轮次,初始权重衰减率为0.0001,迭代60k次后变为0.9,初始学习率为0.01,当迭代60k次后学习率变为0.001。
该步骤中正负样本划分的方法为:
当前特征图上的像素通过映射回原图后,若感受野的中心坐标(xm,yn)落在标定好的目标框内部,就将该像素点在原图上的预测框划分为正样本,否则为负样本;除此之外,还根据设定的第i个特征预测层回归尺度的最小值mi-1和最大值mi进行删选,这里的(mi-1,mi)分别指的是特征预测层i需要回归的最小最大距离;在本实例中的5个尺度的特征预测层上分别设置为(0,32),(32,64),(64,128),(128,512),当预测出的
Figure BDA0002323953960000101
中的最大值大于mi或者
Figure BDA0002323953960000102
中的最大值小于mi-1时,将该像素点在原图上的预测框标记为负样本。
该步骤中损失函数为分类损失函数、回归损失函数和中心得分损失函数之和,具体地,分类损失函数选用的是focal loss函数来解决正负样本不平衡所带来的检测精度的较低的问题,提升网络检测精度;回归损失函数选用的是iou loss,通过损失收敛限制预测框与边界框的iou值趋近于1,更好的调整预测框的位置;
中心概率得分损失函数则采用的是BCE(二元交叉熵)损失函数,得到更高质量的边界框,提升检测性能。损失函数的表达式如下:
Figure BDA0002323953960000103
式中:Npos为正样本的个数;Lcls表示分类损失函数;Lreg表示回归损失函数;Lcenter表示中心概率得分损失函数;
Figure BDA0002323953960000104
为当前像素点映射回原图的感受野中心坐标到目标框四条边的距离;tx,y为当前像素点感受野中心坐标到预测框四条边的距离;Cx,y为真实类别标签;C*x,y为预测出的类别得分值;Sx,y为正负样本标签;S*x,y为预测出的中心概率得分值。
分类损失函数选用的是focal loss函数以解决正负样本不平衡的问题,计算公式如下:
Figure BDA0002323953960000111
式中:
Figure BDA0002323953960000112
为预测出类别得分值;α和γ为超参,分别为0.25和2。当负样本远多余正样本时,模型倾向于样本数多的负样本,这样使得Cx,y=0时的损失函数中的
Figure BDA0002323953960000113
很小,相对于正样本的
Figure BDA0002323953960000114
调制系数就会很大,模型就会偏向集中关注正样本,有效的解决了类不平衡问题。
回归损失函数选用的是iou loss,计算公式如下:
Figure BDA0002323953960000115
式中:A、B分别表示预测的边界框的面积和标定好的目标框的面积。具体地,只对正样本计算像素点映射回原图的感受野中心坐标到目标框四条边的距离
Figure BDA0002323953960000116
结合回归得到的
Figure BDA0002323953960000117
分别求出A和B并计算出交并集,计算公式如下:
Figure BDA0002323953960000118
Figure BDA0002323953960000119
中心概率得分损失函数则采用的是BCE(二元交叉熵)损失函数,计算公式如下:
Figure BDA00023239539600001110
式中:Sx,y为正负样本标签,Sx,y=1时表示正样本,Sx,y=0时表示负样本;S*x,y为计算得到的中心概率得分。训练时,损失函数收敛减小,约束Centerness得分接近于1,能让分布在目标位置边缘的低质量边框尽可能的靠近目标中心,便于测试阶段的删选处理,Centerness策略能在训练过程中自适应得到的软阈值。
步骤4.测试阶段,将测试集作为最优网络模型输入,得到检测结果,如图5所示,其具体过程如下:
将测试集作为最优网络模型的输入;输入数据经过最优网络模型在5种尺度的特征预测层上像素级的预测出类别得分、中心概率得分以及回归的位置信息;选取得分最高的类别作为像素点的类别并根据类别得分的阈值进行删选,本实施例中设置的类别得分阈值为0.15,判别正负样本,过滤掉负样本,然后将正样本回归的位置信息解码转化为边框的坐标信息得到边界框,解码转化公式如下:
Figure BDA0002323953960000121
Figure BDA0002323953960000122
式中:x0、y0、x1、y1表示边框左上角和右下角的横纵坐标值。接着将剩下为正样本像素点的类别得分与Centerness中心概率得分相乘,获得新的类别得分;通过得分降序取得分最高的100个执行非极大值抑制处理,本实例中iou阈值大小设置为0.5,最后剩下的边界框为检测结果,完成整个测试流程。
本发明所提供的网络模型由于其像素级的预测,可通过改动将此模型用于其他视觉任务上去,如:实例分割、人体关键点检测等,具有很好的应用前景。
提供以上实施方式仅仅为了描述本发明的目的,而非要限制本发明的范围。本发明的范围由所附权利要求限定。不脱离本发明的精神和原理做出的何种等同替换和修改,均应涵盖在本发明的范围之内。

Claims (7)

1.一种基于SSD改进的目标检测方法,其特征在于:包括如下具体步骤:
1)将原始数据集进行预处理;
2)构建网络模型,所述网络模型包括基础网络以及分类回归网络;
所述基础网络将SSD模型中VGG-16网络替换为ResNet-101残差网络,并且使用两个3*3卷积代替所述ResNet-101残差网络末端的全连接层进行卷积降采样操作,分别得到降采样倍数为64和128的特征图,再对特征图中降采样倍数为8、16、32、64、128的特征图做特征融合操作,输出5种尺度的特征预测层;
所述分类回归网络对于每个特征预测层使用并行的两个3*3的卷积层分别作为分类分支和回归预测分支,并且添加一个与分类并行预测的Centerness分支以及在分类分支输入端添加一个SE-block层;
所述SE-block层由一个全局池化层和两个1×1的卷积所构成;
所述Centerness分支用于减少因远离目标中心而产生的低质量边界框,其计算公式如下:
Figure FDA0002323953950000011
式中:
Figure FDA0002323953950000012
为回归的位置信息,其中,
Figure FDA0002323953950000013
为感受野中心点离预测框左边的距离;
Figure FDA0002323953950000014
为感受野中心点离预测框上边的距离;
Figure FDA0002323953950000015
为感受野中心点离预测框右边的距离;
Figure FDA0002323953950000016
为感受野中心点离预测框下边的距离;Centerness输出在0到1之间;
3)训练阶段,将步骤1)预处理后的原始数据集分为训练集和测试集,再将训练集按照最小批次输入步骤2)构建的网络模型,在5种尺度的特征预测层上,像素级的预测出类别得分、中心概率得分以及回归的位置信息,并对预测框进行正负样本划分;然后设计损失函数,并使用梯度下降法进行反向迭代优化,得到最优网络参数,输出最优网络模型;
4)测试阶段,将测试集作为最优网络模型输入,得到检测结果,其具体过程如下:
4.1)将测试集作为最优网络模型的输入;
4.2)输入数据经过最优网络模型在5种尺度的特征预测层上像素级的预测出类别得分、中心概率得分以及回归的位置信息;
4.3)选取得分最高的类别作为像素点的类别并根据类别得分的阈值进行删选,将剩下像素点的类别得分与Centerness中心概率得分相乘,获得新的类别得分;
4.4)对剩下的像素点的回归位置信息解码得到边界框的真实坐标信息,根据得分降序保留分数最高的k个预测框并进行非极大值抑制处理,得到检测结果。
2.根据权利要求1所述的基于SSD改进的目标检测方法,其特征在于:步骤2)中所述特征融合操作的具体方法为:将卷积降采样倍数为8、16、32、64、128的特征图分别记为C3、C4、C5、C6、C7,并把C7的输出特征图记为P7,接着将P7通过两倍的转置卷积后与C6逐像素相加,得到融合后的特征图P6,P6通过两倍的转置卷积后与C5逐像素相加,得到融合后的特征图P5,再将P5通过一个1*1的卷积将特征通道数降为256,然后通过两倍的转置卷积后与C4逐像素相加,得到融合后的特征图P4,再将P4通过1*1的卷积将通道数降为128,然后通过两倍的转置卷积后与C3逐像素相加,得到融合后的特征图P3,最后将融合后的特征图P3、P4、P5、P6、P7,即5种尺度的特征预测层,分别作为分类回归网络的输入特征。
3.根据权利要求2所述的基于SSD改进的目标检测方法,其特征在于:步骤2)中对于回归的位置信息的计算方法如下:
通过将选取的第i个特征预测层上的第j个像素点
Figure FDA0002323953950000021
映射回原图得到当前像素点感受野中心坐标(xm,yn),计算公式如下:
Figure FDA0002323953950000022
式中:s为卷积降采样的倍数;i为特征预测层编号;i取[1,5]中的整数;
则回归的位置信息
Figure FDA0002323953950000023
为当前像素点在原图上的预测框位置信息,即当前像素点感受野中心坐标到预测框四条边的距离,其计算公式如下:
Figure FDA0002323953950000024
式中:x0、y0为当前像素点在原图上的预测框左上角的坐标;x1、y1为当前像素点在原图上的预测框右下角的坐标。
4.根据权利要求3所述的基于SSD改进的目标检测方法,其特征在于:步骤3中所述预测框进行正负样本划分的具体方法为:
当前特征图上的像素通过映射回原图后,若感受野的中心坐标落在标定好的目标框内部,就将该像素点在原图上的预测框划分为正样本,否则为负样本;还根据设定的第i个特征预测层回归尺度的最小值mi-1和最大值mi,当预测出的
Figure FDA0002323953950000031
中的最大值大于mi或者
Figure FDA0002323953950000032
中的最大值小于mi-1时,将该像素点在原图上的预测框标记为负样本。
5.根据权利要求4所述的基于SSD改进的目标检测方法,其特征在于:步骤3)中所述损失函数为分类损失函数、回归损失函数和中心得分损失函数之和,其计算公式如下:
Figure FDA0002323953950000033
式中:Npos为正样本的个数;Lcls为分类损失函数;Lreg为回归损失函数;Lcenter为中心概率得分损失函数;
Figure FDA0002323953950000034
为当前像素点映射回原图的感受野中心坐标到目标框四条边的距离;tx,y为当前像素点感受野中心坐标到预测框四条边的距离;Cx,y为真实类别标签;C*x,y为预测出的类别得分值;Sx,y为正负样本标签;S*x,y为预测出的中心概率得分值。
6.根据权利要求5所述的基于SSD改进的目标检测方法,其特征在于:所述分类损失函数选用focal loss函数,计算公式如下:
Figure FDA0002323953950000035
式中:
Figure FDA0002323953950000036
为预测出类别得分值;α和γ为超参,分别为0.25和2;
所述回归损失函数选用iou loss函数,计算公式如下:
Figure FDA0002323953950000037
式中:A、B分别为预测框的面积和标定好的目标框的面积;只对正样本计算像素点映射回原图的感受野中心坐标到目标框四条边的距离
Figure FDA0002323953950000041
结合回归得到的
Figure FDA0002323953950000042
分别求出A和B并计算出交并集,计算公式如下:
Figure FDA0002323953950000043
Figure FDA0002323953950000044
所述中心概率得分损失函数选用二元交叉熵损失函数,计算公式如下:
Figure FDA0002323953950000045
式中:Sx,y为正负样本标签,Sx,y=1时表示正样本,Sx,y=0时表示负样本;S*x,y为计算得到的中心概率得分。
7.根据权利要求1-6任一所述的基于SSD改进的目标检测方法,其特征在于:步骤1)中所述预处理包括将原始数据集中的图片调整为512*512大小并采用数据增强策略扩充原始数据集。
CN201911308860.0A 2019-12-18 2019-12-18 一种基于ssd改进的目标检测方法 Active CN111126472B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911308860.0A CN111126472B (zh) 2019-12-18 2019-12-18 一种基于ssd改进的目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911308860.0A CN111126472B (zh) 2019-12-18 2019-12-18 一种基于ssd改进的目标检测方法

Publications (2)

Publication Number Publication Date
CN111126472A true CN111126472A (zh) 2020-05-08
CN111126472B CN111126472B (zh) 2023-07-25

Family

ID=70499612

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911308860.0A Active CN111126472B (zh) 2019-12-18 2019-12-18 一种基于ssd改进的目标检测方法

Country Status (1)

Country Link
CN (1) CN111126472B (zh)

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111461085A (zh) * 2020-06-01 2020-07-28 青岛大学 一种基于权值共享和上下特征融合的原木检测方法
CN111612017A (zh) * 2020-07-07 2020-09-01 中国人民解放军国防科技大学 一种基于信息增强的目标检测方法
CN111626349A (zh) * 2020-05-22 2020-09-04 中国科学院空天信息创新研究院 一种基于深度学习的目标检测方法和系统
CN111696137A (zh) * 2020-06-09 2020-09-22 电子科技大学 一种基于多层特征混合与注意力机制的目标跟踪方法
CN111783844A (zh) * 2020-06-10 2020-10-16 东莞正扬电子机械有限公司 基于深度学习的目标检测模型训练方法、设备及存储介质
CN111814889A (zh) * 2020-07-14 2020-10-23 大连理工大学人工智能大连研究院 一种使用无锚框模块和增强分类器的单阶段目标检测方法
CN111967305A (zh) * 2020-07-01 2020-11-20 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN111986126A (zh) * 2020-07-17 2020-11-24 浙江工业大学 一种基于改进vgg16网络的多目标检测方法
CN112001428A (zh) * 2020-08-05 2020-11-27 中国科学院大学 一种基于特征匹配优化的无锚框目标检测网络训练方法
CN112149620A (zh) * 2020-10-14 2020-12-29 南昌慧亦臣科技有限公司 基于无锚点的自然场景文字区域检测模型的构建方法
CN112163520A (zh) * 2020-09-29 2021-01-01 广西科技大学 一种基于改进损失函数的mdssd人脸检测方法
CN112163449A (zh) * 2020-08-21 2021-01-01 同济大学 一种轻量化的多分支特征跨层融合图像语义分割方法
CN112163602A (zh) * 2020-09-14 2021-01-01 湖北工业大学 一种基于深度神经网络的目标检测方法
CN112183366A (zh) * 2020-09-29 2021-01-05 重庆大学 一种高压电力线鸟巢检测方法、系统及机器可读介质
CN112307978A (zh) * 2020-10-30 2021-02-02 腾讯科技(深圳)有限公司 目标检测方法、装置、电子设备及可读存储介质
CN112381183A (zh) * 2021-01-12 2021-02-19 北京易真学思教育科技有限公司 目标检测方法、装置、电子设备及存储介质
CN112446327A (zh) * 2020-11-27 2021-03-05 中国地质大学(武汉) 一种基于无锚框的遥感图像目标检测方法
CN112464743A (zh) * 2020-11-09 2021-03-09 西北工业大学 一种基于多尺度特征加权的小样本目标检测方法
CN112464822A (zh) * 2020-11-30 2021-03-09 深圳市捷顺科技实业股份有限公司 一种基于特征增强的头盔佩戴检测方法及装置
CN112560956A (zh) * 2020-12-16 2021-03-26 珠海格力智能装备有限公司 目标检测方法及装置、非易失性存储介质、电子设备
CN112686304A (zh) * 2020-12-29 2021-04-20 山东大学 一种基于注意力机制以及多尺度特征融合的目标检测方法、设备及存储介质
CN112686334A (zh) * 2021-01-22 2021-04-20 国网浙江省电力有限公司舟山供电公司 一种对图像中的绝缘子的定位方法
CN112766260A (zh) * 2021-01-15 2021-05-07 哈尔滨市科佳通用机电股份有限公司 铁路列车加速缓解风缸定位的图像识别方法及系统
CN112818964A (zh) * 2021-03-31 2021-05-18 中国民航大学 基于FoveaBox无锚神经网络的无人机检测方法
CN112819798A (zh) * 2021-02-05 2021-05-18 苏州大学 一种适用于多种视网膜积液联合分割的上下文关注与融合网络
CN112837541A (zh) * 2020-12-31 2021-05-25 遵义师范学院 基于改进ssd的智能交通车流量管理方法
CN112861915A (zh) * 2021-01-13 2021-05-28 北京航空航天大学 一种基于高级语义特征无锚框非合作目标检测方法
CN112861987A (zh) * 2021-03-03 2021-05-28 德鲁动力科技(成都)有限公司 暗光环境下的目标检测方法
CN112903692A (zh) * 2021-01-18 2021-06-04 无锡金元启信息技术科技有限公司 一种基于ai的工业孔壁缺陷检测系统及识别算法
CN113011492A (zh) * 2021-03-17 2021-06-22 西安邮电大学 一种特征复用的多知识学习目标检测方法
CN113065401A (zh) * 2021-03-04 2021-07-02 国网河北省电力有限公司 一种全票种报账智能平台
CN113343429A (zh) * 2021-05-17 2021-09-03 同济大学 一种工业加工过程中内胆附着力质量预测方法和系统
CN113435266A (zh) * 2021-06-09 2021-09-24 东莞理工学院 基于极值点特征增强的fcos智能目标检测方法
CN113450321A (zh) * 2021-06-18 2021-09-28 电子科技大学 基于边缘检测的单阶段目标检测方法
CN113469089A (zh) * 2021-07-09 2021-10-01 成都恒创新星科技有限公司 一种口罩佩戴检测方法及系统
CN113486951A (zh) * 2021-07-05 2021-10-08 哈尔滨市科佳通用机电股份有限公司 风挡击打变形故障识别检测方法、存储介质及设备
CN113516047A (zh) * 2021-05-19 2021-10-19 哈尔滨理工大学 一种基于深度学习特征融合的人脸表情识别方法
CN113642383A (zh) * 2021-06-23 2021-11-12 哈尔滨理工大学 一种基于联合损失多特征融合的人脸表情识别方法
CN113822375A (zh) * 2021-11-08 2021-12-21 北京工业大学 一种改进的交通图像目标检测方法
TWI794822B (zh) * 2021-03-16 2023-03-01 耐能智慧股份有限公司 適用於物件偵測的快速非最大抑制演算法
CN117292120A (zh) * 2023-11-27 2023-12-26 南昌工程学院 一种轻量化可见光绝缘子目标检测方法及系统
CN113822375B (zh) * 2021-11-08 2024-04-26 北京工业大学 一种改进的交通图像目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527053A (zh) * 2017-08-31 2017-12-29 北京小米移动软件有限公司 目标检测方法及装置
CN108830280A (zh) * 2018-05-14 2018-11-16 华南理工大学 一种基于区域提名的小目标检测方法
CN110298266A (zh) * 2019-06-10 2019-10-01 天津大学 基于多尺度感受野特征融合的深度神经网络目标检测方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107527053A (zh) * 2017-08-31 2017-12-29 北京小米移动软件有限公司 目标检测方法及装置
CN108830280A (zh) * 2018-05-14 2018-11-16 华南理工大学 一种基于区域提名的小目标检测方法
CN110298266A (zh) * 2019-06-10 2019-10-01 天津大学 基于多尺度感受野特征融合的深度神经网络目标检测方法

Cited By (59)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111626349A (zh) * 2020-05-22 2020-09-04 中国科学院空天信息创新研究院 一种基于深度学习的目标检测方法和系统
CN111461085A (zh) * 2020-06-01 2020-07-28 青岛大学 一种基于权值共享和上下特征融合的原木检测方法
CN111461085B (zh) * 2020-06-01 2022-05-31 青岛大学 一种基于权值共享和上下特征融合的原木检测方法
CN111696137A (zh) * 2020-06-09 2020-09-22 电子科技大学 一种基于多层特征混合与注意力机制的目标跟踪方法
CN111696137B (zh) * 2020-06-09 2022-08-02 电子科技大学 一种基于多层特征混合与注意力机制的目标跟踪方法
CN111783844A (zh) * 2020-06-10 2020-10-16 东莞正扬电子机械有限公司 基于深度学习的目标检测模型训练方法、设备及存储介质
CN111967305A (zh) * 2020-07-01 2020-11-20 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN111967305B (zh) * 2020-07-01 2022-03-18 华南理工大学 一种基于轻量级卷积神经网络的实时多尺度目标检测方法
CN111612017A (zh) * 2020-07-07 2020-09-01 中国人民解放军国防科技大学 一种基于信息增强的目标检测方法
CN111612017B (zh) * 2020-07-07 2021-01-29 中国人民解放军国防科技大学 一种基于信息增强的目标检测方法
CN111814889A (zh) * 2020-07-14 2020-10-23 大连理工大学人工智能大连研究院 一种使用无锚框模块和增强分类器的单阶段目标检测方法
CN111986126A (zh) * 2020-07-17 2020-11-24 浙江工业大学 一种基于改进vgg16网络的多目标检测方法
CN112001428A (zh) * 2020-08-05 2020-11-27 中国科学院大学 一种基于特征匹配优化的无锚框目标检测网络训练方法
CN112163449B (zh) * 2020-08-21 2022-12-16 同济大学 一种轻量化的多分支特征跨层融合图像语义分割方法
CN112163449A (zh) * 2020-08-21 2021-01-01 同济大学 一种轻量化的多分支特征跨层融合图像语义分割方法
CN112163602A (zh) * 2020-09-14 2021-01-01 湖北工业大学 一种基于深度神经网络的目标检测方法
CN112183366A (zh) * 2020-09-29 2021-01-05 重庆大学 一种高压电力线鸟巢检测方法、系统及机器可读介质
CN112163520A (zh) * 2020-09-29 2021-01-01 广西科技大学 一种基于改进损失函数的mdssd人脸检测方法
CN112149620A (zh) * 2020-10-14 2020-12-29 南昌慧亦臣科技有限公司 基于无锚点的自然场景文字区域检测模型的构建方法
CN112307978A (zh) * 2020-10-30 2021-02-02 腾讯科技(深圳)有限公司 目标检测方法、装置、电子设备及可读存储介质
CN112464743B (zh) * 2020-11-09 2023-06-02 西北工业大学 一种基于多尺度特征加权的小样本目标检测方法
CN112464743A (zh) * 2020-11-09 2021-03-09 西北工业大学 一种基于多尺度特征加权的小样本目标检测方法
CN112446327A (zh) * 2020-11-27 2021-03-05 中国地质大学(武汉) 一种基于无锚框的遥感图像目标检测方法
CN112446327B (zh) * 2020-11-27 2022-06-07 中国地质大学(武汉) 一种基于无锚框的遥感图像目标检测方法
CN112464822A (zh) * 2020-11-30 2021-03-09 深圳市捷顺科技实业股份有限公司 一种基于特征增强的头盔佩戴检测方法及装置
CN112560956A (zh) * 2020-12-16 2021-03-26 珠海格力智能装备有限公司 目标检测方法及装置、非易失性存储介质、电子设备
CN112686304A (zh) * 2020-12-29 2021-04-20 山东大学 一种基于注意力机制以及多尺度特征融合的目标检测方法、设备及存储介质
CN112837541B (zh) * 2020-12-31 2022-04-29 遵义师范学院 基于改进ssd的智能交通车流量管理方法
CN112837541A (zh) * 2020-12-31 2021-05-25 遵义师范学院 基于改进ssd的智能交通车流量管理方法
CN112381183A (zh) * 2021-01-12 2021-02-19 北京易真学思教育科技有限公司 目标检测方法、装置、电子设备及存储介质
CN112861915A (zh) * 2021-01-13 2021-05-28 北京航空航天大学 一种基于高级语义特征无锚框非合作目标检测方法
CN112766260A (zh) * 2021-01-15 2021-05-07 哈尔滨市科佳通用机电股份有限公司 铁路列车加速缓解风缸定位的图像识别方法及系统
CN112766260B (zh) * 2021-01-15 2021-09-14 哈尔滨市科佳通用机电股份有限公司 铁路列车加速缓解风缸定位的图像识别方法及系统
CN112903692A (zh) * 2021-01-18 2021-06-04 无锡金元启信息技术科技有限公司 一种基于ai的工业孔壁缺陷检测系统及识别算法
CN112686334A (zh) * 2021-01-22 2021-04-20 国网浙江省电力有限公司舟山供电公司 一种对图像中的绝缘子的定位方法
CN112819798B (zh) * 2021-02-05 2023-06-13 苏州大学 多种视网膜积液联合分割的上下文关注与融合网络系统
CN112819798A (zh) * 2021-02-05 2021-05-18 苏州大学 一种适用于多种视网膜积液联合分割的上下文关注与融合网络
CN112861987B (zh) * 2021-03-03 2024-04-16 德鲁动力科技(成都)有限公司 暗光环境下的目标检测方法
CN112861987A (zh) * 2021-03-03 2021-05-28 德鲁动力科技(成都)有限公司 暗光环境下的目标检测方法
CN113065401A (zh) * 2021-03-04 2021-07-02 国网河北省电力有限公司 一种全票种报账智能平台
US11798269B2 (en) 2021-03-16 2023-10-24 Kneron (Taiwan) Co., Ltd. Fast non-maximum suppression algorithm for object detection
TWI794822B (zh) * 2021-03-16 2023-03-01 耐能智慧股份有限公司 適用於物件偵測的快速非最大抑制演算法
CN113011492A (zh) * 2021-03-17 2021-06-22 西安邮电大学 一种特征复用的多知识学习目标检测方法
CN112818964A (zh) * 2021-03-31 2021-05-18 中国民航大学 基于FoveaBox无锚神经网络的无人机检测方法
CN113343429A (zh) * 2021-05-17 2021-09-03 同济大学 一种工业加工过程中内胆附着力质量预测方法和系统
CN113343429B (zh) * 2021-05-17 2022-10-25 同济大学 一种工业加工过程中内胆附着力质量预测方法和系统
CN113516047A (zh) * 2021-05-19 2021-10-19 哈尔滨理工大学 一种基于深度学习特征融合的人脸表情识别方法
CN113435266B (zh) * 2021-06-09 2023-09-01 东莞理工学院 基于极值点特征增强的fcos智能目标检测方法
CN113435266A (zh) * 2021-06-09 2021-09-24 东莞理工学院 基于极值点特征增强的fcos智能目标检测方法
CN113450321B (zh) * 2021-06-18 2022-05-03 电子科技大学 基于边缘检测的单阶段目标检测方法
CN113450321A (zh) * 2021-06-18 2021-09-28 电子科技大学 基于边缘检测的单阶段目标检测方法
CN113642383A (zh) * 2021-06-23 2021-11-12 哈尔滨理工大学 一种基于联合损失多特征融合的人脸表情识别方法
CN113486951B (zh) * 2021-07-05 2022-02-01 哈尔滨市科佳通用机电股份有限公司 风挡击打变形故障识别检测方法、存储介质及设备
CN113486951A (zh) * 2021-07-05 2021-10-08 哈尔滨市科佳通用机电股份有限公司 风挡击打变形故障识别检测方法、存储介质及设备
CN113469089A (zh) * 2021-07-09 2021-10-01 成都恒创新星科技有限公司 一种口罩佩戴检测方法及系统
CN113822375A (zh) * 2021-11-08 2021-12-21 北京工业大学 一种改进的交通图像目标检测方法
CN113822375B (zh) * 2021-11-08 2024-04-26 北京工业大学 一种改进的交通图像目标检测方法
CN117292120A (zh) * 2023-11-27 2023-12-26 南昌工程学院 一种轻量化可见光绝缘子目标检测方法及系统
CN117292120B (zh) * 2023-11-27 2024-02-09 南昌工程学院 一种轻量化可见光绝缘子目标检测方法及系统

Also Published As

Publication number Publication date
CN111126472B (zh) 2023-07-25

Similar Documents

Publication Publication Date Title
CN111126472A (zh) 一种基于ssd改进的目标检测方法
CN110188705B (zh) 一种适用于车载系统的远距离交通标志检测识别方法
CN111639692B (zh) 一种基于注意力机制的阴影检测方法
CN109241982B (zh) 基于深浅层卷积神经网络的目标检测方法
CN110458165B (zh) 一种引入注意力机制的自然场景文本检测方法
CN112150821B (zh) 轻量化车辆检测模型构建方法、系统及装置
CN111179217A (zh) 一种基于注意力机制的遥感图像多尺度目标检测方法
CN112507777A (zh) 一种基于深度学习的光学遥感图像舰船检测与分割方法
CN113052834B (zh) 一种基于卷积神经网络多尺度特征的管道缺陷检测方法
CN111079739B (zh) 一种多尺度注意力特征检测方法
CN111160249A (zh) 基于跨尺度特征融合的光学遥感图像多类目标检测方法
CN113505792B (zh) 面向非均衡遥感图像的多尺度语义分割方法及模型
CN111126278B (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN111368769A (zh) 基于改进锚点框生成模型的船舶多目标检测方法
CN111898668A (zh) 一种基于深度学习的小目标物体检测方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN111353544B (zh) 一种基于改进的Mixed Pooling-YOLOV3目标检测方法
CN116645592B (zh) 一种基于图像处理的裂缝检测方法和存储介质
CN113177560A (zh) 一种普适性轻量级深度学习车辆检测方法
CN111798469A (zh) 基于深度卷积神经网络的数字图像小数据集语义分割方法
CN112183649A (zh) 一种用于对金字塔特征图进行预测的算法
CN112561801A (zh) 基于se-fpn的目标检测模型训练方法、目标检测方法及装置
CN114332921A (zh) 基于改进聚类算法的Faster R-CNN网络的行人检测方法
CN116486166A (zh) 一种基于边缘计算的输电线异物识别检测方法
CN116342536A (zh) 基于轻量化模型的铝带材表面缺陷检测方法、系统及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant