CN109409252A - 一种基于改进型ssd网络的车辆行人多目标检测方法 - Google Patents

一种基于改进型ssd网络的车辆行人多目标检测方法 Download PDF

Info

Publication number
CN109409252A
CN109409252A CN201811174964.2A CN201811174964A CN109409252A CN 109409252 A CN109409252 A CN 109409252A CN 201811174964 A CN201811174964 A CN 201811174964A CN 109409252 A CN109409252 A CN 109409252A
Authority
CN
China
Prior art keywords
loss function
sample
network
ssd network
length
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201811174964.2A
Other languages
English (en)
Inventor
陈龙
朱玉刚
樊凌雁
杨柳
郑雪峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou Dianzi University
Hangzhou Electronic Science and Technology University
Original Assignee
Hangzhou Electronic Science and Technology University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Electronic Science and Technology University filed Critical Hangzhou Electronic Science and Technology University
Priority to CN201811174964.2A priority Critical patent/CN109409252A/zh
Publication of CN109409252A publication Critical patent/CN109409252A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Probability & Statistics with Applications (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进型SSD网络的车辆行人多目标检测方法,步骤S1:将通过行车记录仪采集的海量行车视频,制作为合适大小的图片输入集;步骤S2:根据k‑means聚类方法得到的分布数据修改SSD网络中锚框的尺寸和长宽比,使其适合本数据集;步骤S3:使用Focal Loss函数替换原有的损失函数,取代了了原有的在线选择难分样本(Online Hard Example Mining,OHEM)机制,解决了正负样本失衡的问题;步骤S4:输入数据集,训练新的SSD网络;步骤S5:使用经过训练的SSD网络对实时输入的图片进行目标检测。采用本发明的技术方案,通过聚类的方法,设定建议锚框的尺寸和长宽比,使之分布与标注框分布相似,从而加快了训练收敛速度,提升了检测的准确率,再通过Focal Loss函数,解决正负样本失衡问题,加大难分样本的重视度,减少了内存的占用,提高了训练速度,同时也提升了整体检测的准确率。

Description

一种基于改进型SSD网络的车辆行人多目标检测方法
技术领域
本发明属于计算机视觉的目标检测领域,可以应用于无人驾驶,安全监控,道路监督等领域,尤其涉及一种基于改进型单发多目标检测器(Single Shot multiboxDetector,SSD)网络的车辆行人等多目标检测方法。
背景技术
随着科技的发展,目标检测已经成为计算机视觉炙手可热的研究方向,可应用于无人驾驶、视频监控、行人检测、海面舰船检测等领域。在之前,对于目标检测基本上都采用传统的机器学习方法,即用算子(如:HOG、SHIFT、Haar)来提取特征,然后选择分类器(如:SVM、Fisher、Adaboosting)对这些特征进行分类,得到目标检测的结果。但是传统的方法存在两个致命的缺点:一、选择的算子不会适应所有的特征的提取,即提取的部分特征没有很强的代表性。二、算子的选择依赖于大量人工经验。所以随着硬件和大数据的发展,基于深度学习的目标检测算法逐渐替代了传统的方法,它克服了以上两个缺点,并且提升了目标检测的精度和鲁棒性,学得的特征更丰富,表达能力更强。
目前,基于深度学习的目标检测方法主要分为两类:一类是基于建议框+分类的目标检测方法,典型代表:R-CNN系列(R-CNN、SPPnet、Fast R-CNN以及Faster R-CNN),取得了非常好的检测效果,但是在速度方面还远远达不到实时检测的效果。在提高平均准确率(Mean Average Precision,简称mAP)的同时兼顾速度,逐渐成为目标检测的研究方向。另一类是基于回归思想的深度学习目标检测模型,典型的代表:YOLO、SSD。其中YOLO虽然快速但是牺牲了很大的精度。而SSD准确率更高、检测速度更快。本发明基于SSD模型进行的改进,虽然SSD模型速度可以与YOLO媲美,mAP也高于YOLO但是仍达不到上述第一类算法中的Faster R-CNN的mAP。其主要原因是在Faster R-CNN里面存在RPN网络,可以解决样本失衡的问题,而SSD里面不存在此网络,对样本失衡的问题采用OHEM方法将正负样本比控制在1:3,但是这种方法完全舍弃了易分样本对参数学习的影响,所以并不是解决样本失衡的最佳方法。本发明舍弃此机制,通过修改损失函数来解决SSD网络存在的样本失衡问题,从而提高了检测精度。另外,SSD网络对小目标检测效果较差,它只给出300*300和512*512的模型,即原模型只适合分辨率为300*300和512*512的图片,故想要通过输入高分辨率图片来提高对小目标检测的准确度需要重新设定网络中的区域候选框,本发明提供了一个完整的修改方案。
现有技术的目标检测方法主要存在以下二个问题:
1、对小目标检测效果较差,且只给出300*300和512*512的模型,即原模型只适合分辨率为300*300和512*512的图片,无法输入高分辨率图片来增加小目标的分辨率。
2、在处理正负样本失衡问题的时候,需要额外的计算时间和存储空间的开销,且完全忽略了易分样本对网络收敛的影响。
故,针对现有技术的缺陷,实有必要提出一种技术方案以解决现有技术存在的技术问题。
发明内容
有鉴于此,确有必要提供一种基于改进型SSD网络的车辆行人多目标检测方法,将海量行车视频,进行样本制作。使用统计学方法,统计目标检测框的分布,确定锚框的尺度和长宽比,然后删除OHEM机制,使用Focal Loss替换负样本的损失函数,从而生成新的检测网络,输入训练集进行训练。从而大大减少了训练时收敛所需的时间,同时也有效提高了多目标检测的的准确性。
为了克服现有技术的缺陷,本发明的技术方案如下:
一种基于改进型SSD网络的车辆行人多目标检测方法,其特征在于,包括以下步骤:
步骤S1:将通过行车记录仪采集的海量行车视频,制作为合适大小的图片输入集;
步骤S2:根据k-means聚类方法得到的分布数据修改SSD网络中锚框的尺寸和长宽比,使其适合本数据集;
步骤S3:使用Focal Loss函数替换原有的损失函数,取代了了原有的在线选择难分样本(Online Hard Example Mining,OHEM)机制,解决了正负样本失衡的;
步骤S4:输入数据集,训练新的SSD网络;
步骤S5:使用经过训练的SSD网络对实时输入的图片进行目标检测;
其中步骤S1进一步包括:
步骤S11:将视频每隔3秒提取一帧,删除没有目标的图片,存储起来。
步骤S12:得到的图片分辨率为3000*2000,剪切为2000*1500大小,可有效的去除路边无效信息的干扰;
步骤S13:对得到的图片数据集进行标注,标注信息存入Label数据库里,作为标签;
所述步骤S2进一步包括:
步骤S21:统计标注信息里各个标签目标框的长宽尺寸,分别记为W,H,画出各个目标框长宽W_H分布图,其中W为横坐标,H为纵坐标,参见图4为部分目标类别W_H分布图;
步骤S22:观察W-H图中的分布情况,在每个分布比较集中的的区域中选择一个中心附近的点作为该区域的中心,假设选择k个中心构成集合为WHS={(w1,h1),(w2,h2)…(wk,hk)};
步骤S23:计算每个点到每个聚类中心的欧式距离,距离哪个聚类中心近,就让该点属于哪个点群,得到其属于的点群。X={x1,x2…xn}是所用的样本点,其对应的长宽分别为w={wx1,wx2...wxn},h={hx1,hx2...hxn}计算聚类的公式如下:
其中dij表示,第i个样本到第j个聚类中心的距离;
步骤S24:更新每个点所属的点群后,重新计算每个点群的中心,点群j中每个点的W的集合为w={wj1,wj2...wjm},H的集合为h={hj1,hj2...hjm},那么点群j新的聚类中心的坐标分别为:
步骤S25:重复步骤S23,步骤S24,直到聚类中心不再变化。便得到k个聚类中心。
步骤S26:根据聚类得出的聚类中心,设定锚框的长宽尺寸和长宽比;
所述步骤S3进一步包括:
步骤S31:设置Focal Loss需要的参数α,γ;
步骤S32:删除原有的OHEM机制;
步骤S33:替换原有的损失函数;
所述步骤S4进一步包括:
步骤S41:初始化修改后的网络;
步骤S42:分别从数据库里获取训练图片和对应的标签,输入网络;
步骤S43:Softmax函数输出的置信度pi如下:
其中D(i)为上一层的输入。计算Pi对D(j)的偏导数:
当i等于j时:
当i不等于j时:
通过最小化置信度损失函数,来更新参数,其中我们设置的置信度损失函数如下:
其中Pos为正样本,Neg为负样本。
步骤S44:计算新引入的损失函数的梯度,其中已经在步骤S42里求得。综上得,当样本属于负样本时对应新的损失函数的梯度为:
通过最小化位置损失函数,来更新参数,其中位置损失函数如下:
其中,是真实值和区域候选框之间在(x,y,w,h)四个维度下的相对偏移量,l代表预测的偏移量,d代表区域候选框。当时,表示第i个区域候选框和第j个标签值匹配,且标签所属类别是k,反之,其为零。
步骤S45:将新的损失函数的梯度替换原损失函数的梯度,根据链式求导法则以及小批量梯度下降法,进行反向传播,更新参数。
步骤S46:训练结束,输出模型。
步骤S5进一步包括:
步骤S51:去除最后的损失函数层;
步骤S52:输入测试数据,得到目标输入每个类别的置信度,以及四个回归量;
步骤S53:根据回归量,修改锚框对应的变量,得到检测框。
与现有技术相比较,本发明具有的有益效果:
高效性:本发明使用Focal Loss函数替换原有深度学习卷积神经网络中的损失函数,既起到了损失函数的作用,也解决了正负样本失衡的问题,区分了难易样本的关注度,建立了高效的分类回归模型,提高了检测性能,改善了现有的深度卷积目标检测网络对于样本失衡问题需要额外存储空间和时间的缺点,提高了检测的效率。另外本发明使用统计学习的方法,分析了目标框的分布情况,针对具体情况,设置对应的锚框尺寸和长宽比,这样就加快了网络收敛的速度。
准确性:本发明使用Focal Loss函数替代OHEM机制,解决正负样本失衡问题,不仅加大了对难分样本的关注度,而且没有消除对易分样本的关注,改善了现有SSD网络基于OHEM机制的完全忽略易分样本对训练网络的贡献的缺点。另外使用k-means聚类的方法,得到适合本发明数据集的锚框尺寸和长宽比,相较于直接使用原SSD网络,对本数据集进行目标检测,该改进提高平均准确度(Mean Average Precision,简称mAP)。
附图说明
图1为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法的框架流程图;
图1为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法的框架流程图;
图2为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法中步骤S1的框架流程图;
图3为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法中步骤S2的框架流程图;
图4为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法中步骤S21得到的每个类别的长宽分布图;
图5为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法中步骤S4的框架流程图;
图6为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法中步骤S5的框架流程图;
图7为本发明提供的一种基于改进型SSD网络的车辆行人多目标检测方法新构建的SSD网络结构。
图8为本发明与SSD原模型基于本实验数据集的平均准确度(MeanAveragePrecision,简称mAP)对比图;
如下具体实施例将结合上述附图进一步说明本发明。
具体实施方式
以下将结合附图对本发明提供的技术方案作进一步说明。
参见图1-6,本发明提供一种基于改进型SSD网络的车辆行人多目标检测方法,图1基于改进型单发多目标检测器(Single Shot multibox Detector,SSD)网络的车辆行人等多目标检测方法的架构图,整体而言,本发明包括5大步骤,步骤S1:将通过行车记录仪采集的海量行车视频,制作为合适大小的图片输入集;步骤S2:根据k-means聚类方法得到的分布数据修改SSD网络中锚框的尺寸和长宽比,使其适合本数据集;步骤S3:使用Focal Loss函数替换原有的损失函数,取代了了原有的在线选择难分样本(Online Hard ExampleMining,OHEM)机制,解决了正负样本失衡的;步骤S4:输入数据集,训练新的SSD网络;步骤S5:使用经过训练的SSD网络对实时输入的图片进行目标检测;
步骤S1:将通过行车记录仪采集的海量行车视频,制作为合适大小的图片输入集,图2所示为详细流程图,具体包括如下步骤:
步骤S11:将视频每隔3秒提取一帧,删除没有目标的图片,存储起来。
步骤S12:得到的图片分辨率为3000*2000,剪切为2000*1500大小,可有效的去除路边无效信息的干扰;
步骤S13:对得到的图片数据集进行标注,标注信息存入Label数据库里,作为标签;
参见图3所示为本发明步骤S2详细流程图,其进一步包括:
步骤S21:统计标注信息里各个标签目标框的长宽尺寸,分别记为W,H,画出各个目标框长宽W_H分布图,其中W为横坐标,H为纵坐标,参见图4为部分目标类别W_H分布图;
步骤S22:观察W-H图中的分布情况,在每个分布比较集中的的区域中选择一个中心附近的点作为该区域的中心,假设选择k个中心构成集合为WHS={(w1,h1),(w2,h2)…(wk,hk)};
步骤S23:计算每个点到每个聚类中心的欧式距离,距离哪个聚类中心近,就让该点属于哪个点群,得到其属于的点群。X={x1,x2…xn}是所用的样本点,其对应的长宽分别为w={wx1,wx2...wxn},h={hx1,hx2...hxn}计算聚类的公式如下:
其中dij表示,第i个样本到第j个聚类中心的距离;
步骤S24:更新每个点所属的点群后,重新计算每个点群的中心,点群j中每个点的W的集合为w={wj1,wj2...wjm},H的集合为h={hj1,hj2...hjm},那么点群j新的聚类中心的坐标分别为:
步骤S25:重复步骤S23,步骤S24,直到聚类中心不再变化。便得到k个聚类中心。
步骤S26:根据聚类得出的聚类中心,设定锚框的长宽尺寸和长宽比;
所述步骤S3进一步包括:
步骤S31:设置Focal Loss需要的参数α,γ;
步骤S32:删除原有的OHEM机制;
步骤S33:替换原有的损失函数;
参见图5所示为本发明中步骤S4的详细流程图,其进一步包括以下步骤:
步骤S41:初始化修改后的网络;
步骤S42:分别从数据库里获取训练图片和对应的标签,输入网络;
步骤S43:Softmax函数输出的置信度pi如下:
其中D(i)为上一层的输入。计算Pi对D(j)的偏导数:
当i等于j时:
当i不等于j时:
通过最小化置信度损失函数,来更新参数,其中我们设置的置信度损失函数如下:
其中Pos为正样本,Neg为负样本。
步骤S44:计算新引入的损失函数的梯度,其中已经在步骤S42里求得。综上得,当样本属于负样本时对应新的损失函数的梯度为:
通过最小化位置损失函数,来更新参数,其中位置损失函数如下:
其中,是真实值和区域候选框之间在(x,y,w,h)四个维度下的相对偏移量,l代表预测的偏移量,d代表区域候选框。当时,表示第i个区域候选框和第j个标签值匹配,且标签所属类别是k,反之,其为零。
步骤S45:将新的损失函数的梯度替换原损失函数的梯度,根据链式求导法则以及小批量梯度下降法,进行反向传播,更新参数。
步骤S46:训练结束,输出模型。
参见图6所示为本发明步骤S5的流程图,其进一步包括:
步骤S51:去除最后的损失函数层;
步骤S52:输入测试数据,得到目标输入每个类别的置信度,以及四个回归量;
步骤S53:根据回归量,修改锚框对应的变量,得到检测框。
在本发明中我们收集了大量的行车视频,将其制作为图片数据集。总共有1500张图片,将数据集分割成训练集和测试集,其中1200张作为实验的训练集,500张作为测试集,有200张作为交叉验证。然后基于Caffe深度学习框架,搭建高性能CUDA运算平台设备,同时使用cudnn加速,来提高计算速度,训练得到最终的检测网络。
在上述技术方案中,本发明将原SSD网络中的Resize机制去掉,输入较高分辨率的图片。本实验采用的是2000*1500的输入。即通过增大小目标的分辨率,来提高对小目标的识别效果。
另外,本发明中,统计标签中目标框的长宽信息,画出每个目标的长宽分布图,根据分布图进行k-means聚类,最后聚类的中心便是新的锚框的尺寸,然后根据尺寸再来引入新的长宽比(步骤S2中有详述)。这种方法,通过统计学习方法,得到锚框的尺寸和长宽比,使得锚框的分布与标签目标框的分布非常相似,这样锚框与真实框(标签框)的匹配度就越高,这样就可以避免冗余的背景噪声对准确率的影响。并且锚框与真实框(标签框)差异越小,位置回归也越容易,因为当锚框与真实框(标签框)相近时,是个线性回归模型,如果差异较大,则必须通过建立复杂的非线性回归模型求解。
进一步的,本发明通过采用Focal Loss函数来解决正负样本失衡的问题,并提高了检测的mAP。原因如下:Focal Loss以更有效的方式解决正负样本失衡的问题。SSD、YOLO此类网络都会存在样本失衡的问题。这与他们采集正负样本的方法密切相关的。
一张图片中,我们会对所有的锚框进行分类。当锚框与目标标签框的IoU大于一定阈值,就会设定该锚框为正样本,相反就设置为负样本。一张图片里面目标占据整张图的比例往往远小于背景所占的比例。所以以这种方法得到的样本大部分是负样本。这就会导致负样本的损失会淹没正样本的损失,从而影响正样本对于参数修改的作用。另外还存在难分样本和易分样本的问题。只包含背景的负样本,通过softmax得到的得分往往很高。我们称此类样本为易分样本。对于另外一些负样本,其中有一部分目标信息,但是它与标签框的IoU小于阈值,此类目标框,往往比较难分类,称之为难分样本。对难分样本增加关注度,有利于提高收敛速度,提高检测准确度。SSD网络模型针对正负样本失衡的问题,使用的解决方法是OHEM机制。该方法通过将负样本按损失值从大到小的顺序进行排列,取前几个损失较高的负样本,从而将正负样本控制在1:3的比例。但是这种方法存在两个缺点:1、需要额外的存储空间来存储各个负样本的损失值,额外的时间来对负样本进行排序。2、这种方法虽然重视了难分样本,但是完全忽略了易分样本,这就导致易分样本没有参与参数的更新,不利于训练的收敛。本发明采用Focal Loss作为损失函数来解决正负样本失衡的问题,避免了上面提到的两个缺点。
首先Focal Loss通过引入调制系数,降低了负样本对整个损失的影响,公式如下:
Loss=-αt log(pt)其中αt就是我们提到的权重
这样,通过控制α的大小就可以控制负样本在总损失里面占的比重,从而避免了负样本的损失淹没正样本损失的问题。但是这仅仅解决了正负样本不平衡的问题,没有把难分易分样本区分开来,为了进一步提高性能,又做了如下改进。
Loss=-αt(1-pt)γlog(pt)
分析式子,根据softmax的特性,样本越易分,p就越大,则其对损失的贡献就越小,相反的,难分样本对损失的贡献就越大,对应反向传播的梯度也就越大。即对难分易分样本加上了重视度,对难分样本的重视度更强,对易分样本的重视度更弱,让难分样本更大程度的影响参数的更新,这样就使得每次训练更有效,收敛速度更快,减少了网络收敛于局部最小值的风险,故提高了检测精度。采用这种方法高效,简洁的解决了正负样本失衡的问题,而且进一步提高了检测的准确度。
为了验证本发明的技术效果,将通过算法对比验证本发明的有效性:
通过将300*300_SSD,512*512_SSD与本发明新构建的网络New_SSD,进行对比,发现本发明的算法对小目标的检测效果更好,mAP更高。参见表1、图7所示,为本发明与上述两个模型及相关改进的对比。其中表1对比了各个模型的mAP与对小目标的检测准确率;图7为本发明与512*512_SSD网络的mAP对比图。
表1
上表1列出了300*300_SSD、512*512_SSD以及使用Focal Loos改进后的他们和本发明构建的New_SSD对于本数据集的mAP和对小目标的检测准确率,其形象的显示了FocalLoss函数对于本实验数据集准确率提高的效果,也显示了本实验提出的New_SSD对小目标和整体网络检测效果的提升。进一步实验,图7显示了在本实验数据集下,本发明算法和原512*512_SSD算法的AP曲线对比。综上所述,本发明通过海量行车图片数据集对用统计方法修改后的SSD网络进行训练,结合Focal Loss函数,极大程度上提高了多目标检测的准确率。
以上实施例的说明只是用于帮助理解本发明的方法及其核心思想。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以对本发明进行若干改进和修饰,这些改进和修饰也落入本发明权利要求的保护范围内。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本发明中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本发明所示的这些实施例,而是要符合与本发明所公开的原理和新颖特点相一致的最宽的范围。

Claims (1)

1.一种基于改进型SSD网络的车辆行人多目标检测方法,其特征在于,包括以下步骤:
步骤S1:将通过行车记录仪采集的海量行车视频,制作为合适大小的图片输入集;
步骤S2:根据k-means聚类方法得到的分布数据修改SSD网络中锚框的尺寸和长宽比,使其适合本数据集;
步骤S3:使用Focal Loss函数替换原有的损失函数选择样本;
步骤S4:输入数据集,训练新的SSD网络;
步骤S5:使用经过训练的SSD网络对实时输入的图片进行目标检测;
其中,步骤S1进一步包括:
步骤S11:将视频每隔3秒提取一帧并存储;
步骤S12:得到的图片分辨率为3000*2000,剪切为2000*1500大小;;
步骤S13:对得到的图片数据集进行标注,标注信息存入Label数据库里,作为标签;
所述步骤S2进一步包括:
步骤S21:统计标注信息里各个标签目标框的长宽尺寸,分别记为W,H,画出各个目标框长宽W_H分布图,其中W为横坐标,H为纵坐标;;
步骤S22:在每个分布比较集中的的区域中选择一个中心附近的点作为该区域的中心,假设选择k个中心构成集合为WHS={(w1,h1),(w2,h2)…(wk,hk)};
步骤S23:计算每个点到每个聚类中心的欧式距离,距离哪个聚类中心近,就让该点属于哪个点群,得到其属于的点群;X={x1,x2…xn}是所用的样本点,其对应的长宽分别为w={wx1,wx2...wxn},h={hx1,hx2...hxn}计算聚类的公式如下:
其中dij表示,第i个样本到第j个聚类中心的距离;
步骤S24:更新每个点所属的点群后,重新计算每个点群的中心,点群j中每个点的W的集合为w={wj1,wj2...wjm},H的集合为h={hj1,hj2...hjm},那么点群j新的聚类中心的坐标分别为:
步骤S25:重复步骤S23,步骤S24,直到聚类中心不再变化;便得到k个聚类中心;
步骤S26:根据聚类得出的聚类中心,设定锚框的长宽尺寸和长宽比;
所述步骤S3进一步包括:
步骤S31:设置Focal Loss需要的参数α,γ;
步骤S32:删除原有的OHEM机制;
步骤S33:替换原有的损失函数;
所述步骤S4进一步包括:
步骤S41:初始化修改后的网络;
步骤S42:分别从数据库里获取训练图片和对应的标签,输入网络;
步骤S43:Softmax函数输出的置信度pi如下:
其中D(i)为上一层的输入;计算Pi对D(j)的偏导数:
当i等于j时:
当i不等于j时:
通过最小化置信度损失函数,来更新参数,其中设置的置信度损失函数如下:
其中Pos为正样本,Neg为负样本;
步骤S44:计算新引入的损失函数的梯度,其中已经在步骤S43里求得;综上得,当样本属于负样本时对应新的损失函数的梯度为:
通过最小化位置损失函数,来更新参数,其中位置损失函数如下:
其中,是真实值和区域候选框之间在(x,y,w,h)四个维度下的相对偏移量,l代表预测的偏移量,d代表区域候选框;当时,表示第i个区域候选框和第j个标签值匹配,且标签所属类别是k,反之,其为零;
步骤S45:将新的损失函数的梯度替换原损失函数的梯度,根据链式求导法则以及小批量梯度下降法,进行反向传播,更新参数
步骤S46:训练结束,输出模型;
步骤S5进一步包括:
步骤S51:去除最后的损失函数层;
步骤S52:输入测试数据,得到目标输入每个类别的置信度,以及四个回归量;
步骤S53:根据回归量,修改锚框对应的变量,得到检测框。
CN201811174964.2A 2018-10-09 2018-10-09 一种基于改进型ssd网络的车辆行人多目标检测方法 Pending CN109409252A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811174964.2A CN109409252A (zh) 2018-10-09 2018-10-09 一种基于改进型ssd网络的车辆行人多目标检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811174964.2A CN109409252A (zh) 2018-10-09 2018-10-09 一种基于改进型ssd网络的车辆行人多目标检测方法

Publications (1)

Publication Number Publication Date
CN109409252A true CN109409252A (zh) 2019-03-01

Family

ID=65466257

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811174964.2A Pending CN109409252A (zh) 2018-10-09 2018-10-09 一种基于改进型ssd网络的车辆行人多目标检测方法

Country Status (1)

Country Link
CN (1) CN109409252A (zh)

Cited By (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977797A (zh) * 2019-03-06 2019-07-05 上海交通大学 基于排序损失函数的一阶目标检测器的优化方法
CN109977878A (zh) * 2019-03-28 2019-07-05 华南理工大学 基于重加权Anchor的车辆检测方法
CN110084253A (zh) * 2019-05-05 2019-08-02 厦门美图之家科技有限公司 一种生成物体检测模型的方法
CN110215232A (zh) * 2019-04-30 2019-09-10 南方医科大学南方医院 基于目标检测算法的冠状动脉血管内超声斑块分析方法
CN110287763A (zh) * 2019-04-11 2019-09-27 杭州电子科技大学 一种面向舰船目标识别应用的候选框比例优化方法
CN110443212A (zh) * 2019-08-12 2019-11-12 睿魔智能科技(深圳)有限公司 用于目标检测的正样本获取方法、装置、设备及存储介质
CN110490115A (zh) * 2019-08-13 2019-11-22 北京达佳互联信息技术有限公司 人脸检测模型的训练方法、装置、电子设备及存储介质
CN110543837A (zh) * 2019-08-16 2019-12-06 北京航空航天大学 一种基于潜在目标点的可见光机场飞机检测方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN110992325A (zh) * 2019-11-27 2020-04-10 同济大学 基于深度学习的目标清点方法、装置和设备
CN111046756A (zh) * 2019-11-27 2020-04-21 武汉大学 高分辨率遥感影像目标尺度特征的卷积神经网络检测方法
CN111126278A (zh) * 2019-12-24 2020-05-08 北京邮电大学 针对少类别场景的目标检测模型优化与加速的方法
CN111209887A (zh) * 2020-01-15 2020-05-29 西安电子科技大学 针对小目标检测的ssd模型优化方法
CN111291796A (zh) * 2020-01-21 2020-06-16 中国科学技术大学 一种用于目标检测器模型训练过程中的免除采样方法
CN111368878A (zh) * 2020-02-14 2020-07-03 北京电子工程总体研究所 一种基于ssd目标检测的优化方法、计算机设备和介质
CN111461120A (zh) * 2020-04-01 2020-07-28 济南浪潮高新科技投资发展有限公司 一种基于区域的卷积神经网络物体表面缺陷检测方法
CN111488918A (zh) * 2020-03-20 2020-08-04 天津大学 一种基于卷积神经网络的变电站红外图像设备检测方法
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN111967287A (zh) * 2019-05-20 2020-11-20 江苏金鑫信息技术有限公司 一种基于深度学习的行人检测方法
CN112951000A (zh) * 2021-04-02 2021-06-11 华设设计集团股份有限公司 大型车辆盲区双向预警系统
CN112990350A (zh) * 2021-04-12 2021-06-18 天津美腾科技股份有限公司 目标检测网络训练方法及基于目标检测网络煤矸识别方法
CN113111979A (zh) * 2021-06-16 2021-07-13 上海齐感电子信息科技有限公司 模型训练方法、图像检测方法及检测装置
CN113111708A (zh) * 2021-03-10 2021-07-13 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN113421222A (zh) * 2021-05-21 2021-09-21 西安科技大学 一种轻量化煤矸目标检测方法
CN113920140A (zh) * 2021-11-12 2022-01-11 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的铁路货车管盖脱落故障识别方法
US11386637B2 (en) 2019-07-16 2022-07-12 Samsung Electronics Co., Ltd. Method and apparatus for detecting object

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108596053A (zh) * 2018-04-09 2018-09-28 华中科技大学 一种基于ssd和车辆姿态分类的车辆检测方法和系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108596053A (zh) * 2018-04-09 2018-09-28 华中科技大学 一种基于ssd和车辆姿态分类的车辆检测方法和系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
DCD_LIN: "深度学习[17]物体检测:Focal loss反向求导即darknet上的实现", 《CSDN:HTTPS://BLOG.CSDN.NET/LINMINGAN/ARTICLE/DETAILS/77885832》 *
TSUNG-YI LIN: "Focal Loss for Dense Object Detection", 《IEEE》 *
张州: "基于TensorFlow的Andoird平台实时车辆和交通标志牌检测的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (35)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977797A (zh) * 2019-03-06 2019-07-05 上海交通大学 基于排序损失函数的一阶目标检测器的优化方法
CN109977797B (zh) * 2019-03-06 2023-06-20 上海交通大学 基于排序损失函数的一阶目标检测器的优化方法
CN109977878A (zh) * 2019-03-28 2019-07-05 华南理工大学 基于重加权Anchor的车辆检测方法
CN110287763A (zh) * 2019-04-11 2019-09-27 杭州电子科技大学 一种面向舰船目标识别应用的候选框比例优化方法
CN110215232A (zh) * 2019-04-30 2019-09-10 南方医科大学南方医院 基于目标检测算法的冠状动脉血管内超声斑块分析方法
CN110084253A (zh) * 2019-05-05 2019-08-02 厦门美图之家科技有限公司 一种生成物体检测模型的方法
CN111967287A (zh) * 2019-05-20 2020-11-20 江苏金鑫信息技术有限公司 一种基于深度学习的行人检测方法
US11386637B2 (en) 2019-07-16 2022-07-12 Samsung Electronics Co., Ltd. Method and apparatus for detecting object
CN110443212A (zh) * 2019-08-12 2019-11-12 睿魔智能科技(深圳)有限公司 用于目标检测的正样本获取方法、装置、设备及存储介质
CN110443212B (zh) * 2019-08-12 2022-03-11 睿魔智能科技(深圳)有限公司 用于目标检测的正样本获取方法、装置、设备及存储介质
CN110490115A (zh) * 2019-08-13 2019-11-22 北京达佳互联信息技术有限公司 人脸检测模型的训练方法、装置、电子设备及存储介质
CN110490115B (zh) * 2019-08-13 2021-08-13 北京达佳互联信息技术有限公司 人脸检测模型的训练方法、装置、电子设备及存储介质
CN110543837B (zh) * 2019-08-16 2022-03-15 北京航空航天大学 一种基于潜在目标点的可见光机场飞机检测方法
CN110543837A (zh) * 2019-08-16 2019-12-06 北京航空航天大学 一种基于潜在目标点的可见光机场飞机检测方法
CN110909800B (zh) * 2019-11-26 2023-08-08 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN110909800A (zh) * 2019-11-26 2020-03-24 浙江理工大学 一种基于Faster R-CNN改进算法的车辆检测方法
CN111046756A (zh) * 2019-11-27 2020-04-21 武汉大学 高分辨率遥感影像目标尺度特征的卷积神经网络检测方法
CN110992325A (zh) * 2019-11-27 2020-04-10 同济大学 基于深度学习的目标清点方法、装置和设备
CN111126278A (zh) * 2019-12-24 2020-05-08 北京邮电大学 针对少类别场景的目标检测模型优化与加速的方法
CN111126278B (zh) * 2019-12-24 2023-06-20 北京邮电大学 针对少类别场景的目标检测模型优化与加速的方法
CN111209887A (zh) * 2020-01-15 2020-05-29 西安电子科技大学 针对小目标检测的ssd模型优化方法
CN111291796A (zh) * 2020-01-21 2020-06-16 中国科学技术大学 一种用于目标检测器模型训练过程中的免除采样方法
CN111368878A (zh) * 2020-02-14 2020-07-03 北京电子工程总体研究所 一种基于ssd目标检测的优化方法、计算机设备和介质
CN111368878B (zh) * 2020-02-14 2023-02-28 北京电子工程总体研究所 一种基于ssd目标检测的优化方法、计算机设备和介质
CN111488918A (zh) * 2020-03-20 2020-08-04 天津大学 一种基于卷积神经网络的变电站红外图像设备检测方法
CN111461120A (zh) * 2020-04-01 2020-07-28 济南浪潮高新科技投资发展有限公司 一种基于区域的卷积神经网络物体表面缺陷检测方法
CN111723854A (zh) * 2020-06-08 2020-09-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN111723854B (zh) * 2020-06-08 2023-08-29 杭州像素元科技有限公司 一种高速公路交通拥堵检测方法、设备及可读存储介质
CN113111708A (zh) * 2021-03-10 2021-07-13 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN113111708B (zh) * 2021-03-10 2023-12-29 北京爱笔科技有限公司 车辆匹配样本生成方法、装置、计算机设备和存储介质
CN112951000A (zh) * 2021-04-02 2021-06-11 华设设计集团股份有限公司 大型车辆盲区双向预警系统
CN112990350A (zh) * 2021-04-12 2021-06-18 天津美腾科技股份有限公司 目标检测网络训练方法及基于目标检测网络煤矸识别方法
CN113421222A (zh) * 2021-05-21 2021-09-21 西安科技大学 一种轻量化煤矸目标检测方法
CN113111979A (zh) * 2021-06-16 2021-07-13 上海齐感电子信息科技有限公司 模型训练方法、图像检测方法及检测装置
CN113920140A (zh) * 2021-11-12 2022-01-11 哈尔滨市科佳通用机电股份有限公司 一种基于深度学习的铁路货车管盖脱落故障识别方法

Similar Documents

Publication Publication Date Title
CN109409252A (zh) 一种基于改进型ssd网络的车辆行人多目标检测方法
CN108681752B (zh) 一种基于深度学习的图像场景标注方法
CN111079602A (zh) 基于多尺度区域特征约束的车辆细粒度识别方法及装置
CN110929577A (zh) 一种基于YOLOv3的轻量级框架改进的目标识别方法
CN111259738B (zh) 人脸识别模型构建方法、人脸识别方法及相关装置
CN109697469A (zh) 一种基于一致性约束的自学习小样本遥感图像分类方法
CN108509976A (zh) 动物的识别装置和方法
CN109300111A (zh) 一种基于深度学习的染色体识别方法
CN114841257B (zh) 一种基于自监督对比约束下的小样本目标检测方法
CN109671102A (zh) 一种基于深度特征融合卷积神经网络的综合式目标跟踪方法
CN112836639A (zh) 基于改进YOLOv3模型的行人多目标跟踪视频识别方法
CN111460980B (zh) 基于多语义特征融合的小目标行人的多尺度检测方法
CN113221905A (zh) 基于均匀聚类的语义分割的无监督域适应方法、装置、系统和存储介质
CN109886147A (zh) 一种基于单网络多任务学习的车辆多属性检测方法
CN110245587B (zh) 一种基于贝叶斯迁移学习的光学遥感图像目标检测方法
CN108345866B (zh) 一种基于深度特征学习的行人再识别方法
CN110956158A (zh) 一种基于教师学生学习框架的遮挡行人再标识方法
Shuai et al. Object detection system based on SSD algorithm
CN110929848A (zh) 基于多挑战感知学习模型的训练、跟踪方法
Sun et al. Adaptive saliency biased loss for object detection in aerial images
CN109189965A (zh) 图像文字检索方法及系统
CN109086794B (zh) 一种基于t-lda主题模型的驾驶行为模式识方法
CN111291760A (zh) 图像的语义分割方法、装置及电子设备
CN111191531A (zh) 一种快速行人检测方法及系统
CN109697727A (zh) 基于相关滤波和度量学习的目标跟踪方法、系统及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20190301