CN109508675A - 一种针对复杂场景的行人检测方法 - Google Patents

一种针对复杂场景的行人检测方法 Download PDF

Info

Publication number
CN109508675A
CN109508675A CN201811349816.XA CN201811349816A CN109508675A CN 109508675 A CN109508675 A CN 109508675A CN 201811349816 A CN201811349816 A CN 201811349816A CN 109508675 A CN109508675 A CN 109508675A
Authority
CN
China
Prior art keywords
model
inception
layer
ssd
component
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811349816.XA
Other languages
English (en)
Other versions
CN109508675B (zh
Inventor
赵清利
梁添才
金晓峰
徐天适
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Grg Jetco Financial Electronic Co Ltd
GRG Banking Equipment Co Ltd
Guangdian Yuntong Financial Electronic Co Ltd
Original Assignee
Guangzhou Grg Jetco Financial Electronic Co Ltd
Guangdian Yuntong Financial Electronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Grg Jetco Financial Electronic Co Ltd, Guangdian Yuntong Financial Electronic Co Ltd filed Critical Guangzhou Grg Jetco Financial Electronic Co Ltd
Priority to CN201811349816.XA priority Critical patent/CN109508675B/zh
Publication of CN109508675A publication Critical patent/CN109508675A/zh
Application granted granted Critical
Publication of CN109508675B publication Critical patent/CN109508675B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明涉及目标检测技术,具体为针对复杂场景的行人检测方法,包括以下步骤:搭建包括依次连接的前置基础网络、特征提取网络和分类检测模块的SSD目标检测模型;修改前置基础网络,修改特征提取网络中的前两层特征提取层,提高SSD模型的特征提取能力;添加并修改Inception组件,提高SSD模型的多尺度适应性;设置训练参数,训练SSD模型,当SSD模型达到拟合或者到达最大训练迭代次数时停止训练并保存训练好的模型文件;设定测试参数,根据训练好的SSD模型读取测试数据进行测试,输出并保存测试结果。该方法克服了现有技术在复杂场景下行人检测误检率高和召回率低等缺点,增强了模型鲁棒性,同时降低了模型参数量,提升模型在复杂场景下的行人检测性能。

Description

一种针对复杂场景的行人检测方法
技术领域
本发明涉及目标检测技术,具体为针对复杂场景的行人检测方法。
背景技术
行人检测是目标检测领域的一个分支,其主要任务是将行人从图像或者视频序列等输入数据中检测出来,并确定行人在输入数据中的位置。随着智能视频监控、无人驾驶和智能机器人等需求的不断增长,行人检测成为目标检测领域的研究热点和难点。同时,行人检测技术也是许多计算机视觉任务的基础,如行人重识别、行人跟踪等工作,都需以行人检测技术为基础开展后续的工作。因此,行人检测技术具有重要的研究意义和良好的应用价值。
上世纪90年代开始,行人检测技术以其重要的理论价值和巨大的商业潜力引起了人们的关注,许多科研人员围绕该领域开展研究,提出了大量的算法和改进技术,其中较为经典的是基于机器学习的行人检测方法,此类算法的研究主要集中于2005年至2011年。2005年,Dalal和Triggs等人在CVPR(IEEE Conference on Computer Vision and PatternRecognition)会议上提出梯度方向直方图(Histogram of Oriented Gradient,HOG)特征,并将其应用于行人检测。该算法以线性支持向量机作为分类器,结合HOG特征,在MIT行人数据集上取得非常高的检测准确率,在INRIA行人数据集上也取得了约90%的检测准确率。HOG特征的提出大大推动了行人检测技术的发展,此后,大量基于HOG特征的变种算法相继被提出。基于机器学习的行人检测方法采取人工提取特征的方式,其往往具有片面性和主观性,且此类算法普遍存在特征提取能力不足的缺点。
近几年,随着数据量的日益丰富以及硬件设备计算能力的不断提升,深度学习技术取得重大突破,深度学习以其强大的特征提取能力在计算机视觉领域引起了一大批学者的关注,研究者们纷纷尝试将深度学习应用到目标检测和行人检测任务中。2014年,Girshick等人在CVPR会议上提出R-CNN目标检测模型,该算法在PASCAL VOC数据集取得了53.7%的检测准确率,与传统方法相比有巨大的提升。虽然R-CNN在检测精度上有较大的提升,但其检测速度非常慢,无法满足实时检测。随后,Girshick等人又相继提出Fast R-CNN、Faster R-CNN目标检测模型,进一步提升检测准确率和检测速度。R-CNN、Fast R-CNN和Faster R-CNN三种算法统称R-CNN系列目标检测算法。与R-CNN系列算法不同,Redmon等人提出YOLO目标检测模型,其舍弃R-CNN系列算法的候选框生成步骤,一步到位直接检测出目标的类别及坐标,该算法在保持较好检测准确率的同时极大提升了检测速度。2016年,Liu等人在ECCV(European Conference on Computer Vision)会议上提出SSD目标检测模型,SSD使用特征金字塔的方式来解决多尺度检测问题,在目标检测上取得重大突破,进一步提升检测速度与精确度。行人检测作为目标检测的一个分支,基于深度学习的行人检测算法大多都是在目标检测算法的基础上进行改进,进而实现行人检测任务。
虽然近几年许多学者针对行人检测提出了大量基于深度学习的算法与技术,并在众多公开数据集上不断的刷新行人检测任务的检测精度,但对于场景较为复杂的数据集或贴近生活场景的视频数据,由于光照变化、背景复杂、视角差异等因素的影响,大部分算法在此类场景下无法提取有效的行人特征,检测效果无法令人满意,距离大规模商业应用还有一定距离,故当前行人检测技术的研究依然具有挑战性。
总而言之,现有行人检测技术存在以下不足:
1、虽然基于深度学习的行人检测算法在许多公开数据集上取得了不错的检测效果,但对于行人所处环境较为复杂的场景,如夜间环境、光照不均、人群密集、背景复杂等,当前主流的算法普遍存在误检率高、召回率低等缺点。同时,对于场景复杂的图像或视频序列,由于输入数据复杂性较高,采用结构简单的卷积神经网络往往无法提取有效的行人特征,使得模型得不到较好的训练,容易导致模型训练不拟合。
2、现有SSD目标检测模型使用VGG16作为前置基础网络,使用其提取输入数据的低维纹理特征。对于复杂性较大的输入数据,由于VGG16网络层数较少,无法提取有效的行人特征,直接添加卷积层虽然能增加网络的深度,一定程度上提高模型的特征提取能力,但这种方式会导致梯度消失加剧,随着网络层数的加深,反而会出现检测准确率下降的现象,因此无法通过简单添加卷积层的操作来提升SSD模型在复杂场景下的行人检测性能。
3、现有SSD目标检测模型在网络后端采用特征金字塔结构实现多尺度目标检测,其包含六层特征提取层,分别用于检测不同尺度的目标。由于SSD模型的六层特征提取层相互独立,没有共享特征信息,对于重要的特征,没有特征重使用,致使其浅层特征提取层特征提取能力较弱,无法在复杂场景下提取有效的行人特征。
4、现有SSD目标检测模型所有卷积层中最小输出维度为64,最大为1024,且大部分卷积层的输出维度为256或512,过大的输出维度导致模型的参数量非常之多,同时增加了模型的计算量,降低了检测速度,无法满足嵌入式设备的需求。另外,SSD模型的所有卷积层均使用单一尺度卷积核进行卷积操作,没有使用不同尺度的卷积核来提高模型的特征提取能力,在关键特征层上无法充分提取有效特征,导致模型在复杂场景下的特征提取能力不足。
发明内容
本发明的目的在于克服现有技术的缺点与不足,提供一种针对复杂场景的行人检测方法,该方法有效地克服了现有技术在复杂场景下行人检测误检率高和召回率低等缺点,增强了SSD模型的鲁棒性,同时降低了该模型的参数量,提升该模型在复杂场景下的行人检测性能。
本发明采用以下技术方案来实现:一种针对复杂场景的行人检测方法,包括以下步骤:
S1、搭建SSD目标检测模型,所搭建的SSD目标检测模型包括依次连接的前置基础网络、特征提取网络和分类检测模块;
S2、修改前置基础网络,修改特征提取网络中的前两层特征提取层,提高SSD目标检测模型的特征提取能力;
S3、添加Inception组件,并修改所添加的Inception组件,提高SSD目标检测模型的多尺度适应性;
S4、设置相应的训练参数,训练SSD目标检测模型,当SSD目标检测模型达到拟合或者到达最大训练迭代次数时停止训练并保存训练好的模型文件;
S5、设定相应的测试参数,根据训练好的SSD目标检测模型读取测试数据进行测试,输出并保存测试结果。
优选地,步骤S2修改前置基础网络时,删除SSD目标检测模型的前置基础网络中的前四组卷积组,新建四组Dense Block并串联形成DenseNet,将DenseNet添加进SSD模型的前置基础网络,替代所删除的前四组卷积组。
优选地,步骤S2修改特征提取网络中的前两层特征提取层时,删除SSD目标检测模型的特征提取网络中的前两层特征提取层,新建两组Dense Block分别替代所删除的两层特征提取层,保留特征提取网络中的后三层特征提取层,使其与新添加的两组Dense Block形成新的特征提取网络。
优选地,步骤S3在每组Dense Block的Concat层后端添加Inception组件,对DenseBlock的输出特征进行卷积操作;在Inception组件的每层卷积层后端添加BatchNormalization层,并在Inception组件的前端添加一层卷积层,在Inception组件的Concat层后端添加一层卷积层,形成Inception组件的最终输出特征;在Inception组件的输出特征后端分别添加池化层,对Inception组件的输出特征进行池化操作。
本发明与现有技术相比,具有如下优点和有益效果:
1、本发明基于SSD目标检测模型,创新性地结合DenseNet(Dense ConvolutionalNetwork)、Inception组件等多种特性,利用深度卷积神经网络强大的特征提取能力提升行人检测方法在复杂场景下的检测性能。本发明使用Dense Block(稠密块)独特的网络连接方式取代常规的单向网络连接结构,将前置基础网络VGG16前四组卷积组替换为DenseNet,在加深模型深度的同时抑制梯度消失现象,提升了模型在复杂场景下的特征提取能力;另外,本发明将模型特征提取网络的前两层特征提取层替换为Dense Block,加强关键特征的重使用及特征之间的信息共享,提升模型对中小目标的检测能力。
2、本发明将DenseNet的连接模块由1x1的卷积层替换为Inceptin组件,对DenseBlock的输出特征进行多尺度卷积,充分提取输出特征的信息,提高了模型的多尺度适应性,增强了模型的鲁棒性,使得模型的特征提取能力得到进一步提升。另外,本发明在Inception组件的后端添加池化层,逐步降低网络特征宽度与高度,使得本发明所提方法的模型特征宽度、高度保持与原SSD模型的特征宽度、高度一致。
3、本发明所添加的Dense Block中3x3卷积层的输出维度为32,1x1卷积层的输出维度为128,而原SSD模型中卷积层最大的输出维度为1024,最小为64,且大部分卷积层的输出维度为256或512。由于本发明方法的卷积层输出维度较小,在加深网络深度的同时降低了模型的参数量,使得本发明方法的模型参数量远低于原SSD模型。另外,本发明在每组Inception组件前端添加一层卷积核大小为1x1的卷积层,其输出维度为输入特征维度的一半,降低了Inception组件的参数量,从而进一步降低了模型的参数量,提高了模型的检测速度。
附图说明
图1是本发明方法的目标检测模型结构图,主要包含六组Dense Block,六组Inception组件,五层Pooling层(池化层),三层SSD模型原有的特征提取层及分类检测模块,其中Pooling层及部分卷积层没有在图中画出。
图2是本发明方法的Dense Block及Inception组件的连接简图,左边方框表示Dense Block,右边方框表示Inception组件。其中Dense Block部分中圆形代表DenseBlock的一个节点,其形式为BN-ReLu-Conv(1x1)-BN-ReLu-Conv(3x3),1x1卷积层的输出维度为128,3x3卷积层输出维度为32;Inception组件部分主要由三层卷积核大小分别为1x1、3x3、5x5的卷积层并联形成,且5x5的卷积层由两层3x3卷积层串联实现,本发明方法在Inception组件的三层并联卷积层的后端都添加了BN层,这在图中没有画出。
图3是本发明方法的目标检测模型训练流程图,主要训练流程为:搭建Caffe版SSD目标检测框架、修改模型训练网络、转换训练数据格式、读取训练数据前向计算及反向传播训练神经网络、保存训练好的模型文件。
图4是本发明方法的目标检测模型测试流程图,其主要测试流程为:搭建Caffe版SSD目标检测框架、修改模型测试网络、转换测试数据格式、读取测试数据前向计算得到测试结果、保存测试结果。
图5是本发明方法实施例中实验室结果的P-R曲线图。
具体实施方式
本发明基于SSD目标检测模型,结合DenseNet和Inception组件的特性,提出一种针对复杂场景的行人检测方法,利用深度卷积神经网络强大的特征提取能力提升行人检测方法在复杂场景下的检测性能。本发明通过将SSD模型的前置基础网络VGG16替换为DenseNet,达到提升模型特征提取能力,降低模型参数量的目的。接着使用Dense Block替换SSD模型特征提取网络的前两层,使特征提取网络能更加有效地利用关键特征,加强特征提取网络中卷积层的信息共享。最后,本发明在每个Dense Block后端添加Inception组件,使用不同尺度的卷积核对Dense Block的输出特征进行卷积操作,增加模型的多尺度适应性,进一步提高模型的特征提取能力,增强了模型的鲁棒性,提升模型在复杂场景下的行人检测性能。
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
本实施例主要基于Caffe版的SSD模型实现,下面分别以PSDB(CUHK-SYSU PersonSearch Dataset,也称Person Search Data Base)数据集所划分的训练图像和测试图像作为训练数据和测试数据来详细介绍本发明的实施过程。PSDB数据集是香港中文大学多媒体实验室王晓刚研究组发布的行人检测数据集,该数据集由拍摄图像和视频截图组成,共18184幅图像,包含训练图像11206张,测试图像6978张;全部图像中有12490幅图像由电子设备拍摄于各类生活场景,包括夜间、阴天、雨天、室内及室外等;另外的5694幅图像来源于电影或电视剧的截图。本实施例通过本发明的行人检测方法,将场景较为复杂的PSDB测试图像中的行人检测出来,并给出行人坐标框及其对应的置信度,其模型训练流程如图3所示,对应的模型测试流程如图4所示。实施具体步骤如下:
第一步,框架搭建及修改。
基于Caffe深度学习框架搭建SSD目标检测模型,修改SSD目标检测模型中的分类参数,将其由21分类模型修改为二分类模型,使其适用于行人检测,构建Caffe版的SSD行人检测框架。本实施例中,使用Python编程语言执行ssd_pascal.py文件,生成适用于PascalVOC数据集的多分类SSD模型,并对多分类SSD模型的训练网络和测试网络中的相关类别参数进行修改。
其中,SSD目标检测模型包括依次连接的前置基础网络、特征提取网络和分类检测模块三部分,前置基础网络负责提取输入数据的低维纹理特征,特征提取网络负责提取高维及多尺度特征,分类检测模块负责对特征提取网络所提取的特征进行分类。前置基础网络为VGG16中的conv1_1至fc7层,共包含15层卷积层,其中VGG16的全连接层fc6、fc7被改为卷积核大小为3x3的卷积层。另外,特征提取网络包含六层特征提取层,分别为:conv4_3、fc7、conv6_2、conv7_2、conv8_2、conv9_2,其中conv4_3和fc7为前置基础网络VGG16的卷积层。
第二步,PSDB数据集格式转换。
从PSDB数据集的标注文件中读取行人框标注信息,计算每个行人框所对应的坐标值。以Pascal VOC数据集的格式为标准生成PSDB数据集中每幅图像所对应的xml标签文件,共生成18184份xml标签文件,包含行人框99809个。
第三步,生成训练数据与测试数据。
将PSDB数据集所划分的训练图像和测试图像与相应的xml标签文件一一对应起来,并分别创建TXT文件保存图像与xml的对应信息。运行create_data.sh文件读取相应的图像和xml标签文件,生成lmdb格式的训练数据和测试数据。
第四步,修改前置基础网络,修改特征提取网络中的前两层特征提取层,提高SSD目标检测模型的特征提取能力。
删除SSD模型的前置基础网络VGG16中的前四组卷积组,新建四组Dense Block并串联形成DenseNet,其中四组Dense Block所包含的3x3卷积层数量分别为2、4、8、16,且每层卷积层的输出特征维度为32,将上述得到的DenseNet添加进SSD模型的前置基础网络,替代所删除的VGG16前四组卷积组。
删除SSD模型特征提取网络中的前两层特征提取层,新建两组Dense Block分别替代删除的两层特征提取层,其中添加的Dense Block所包含的3x3卷积层数量为8,保留SSD模型的特征提取网络的后三层特征提取层,使其与新添加的两组Dense Block形成新的特征提取网络。
其中,DenseNet为一种卷积神经网络结构;本实施例新建3x3卷积层数量分别为2、4、8、16的四组Dense Block,得到dense_block1、dense_block2、dense_block3和dense_block4,其中Dense Block的基础结构为BN-ReLu-Conv(1x1)-BN-ReLu-Conv(3x3),卷积层Conv(1x1)的输出维度为128,卷积层Conv(3x3)的输出维度为32。通过Concatenation操作将Dense Block中的基础结构连接起来,便形成了Dense Block。
分别替代所删除的两层特征提取层的两组Dense Block,其构建方式与DenseNet中的Dense Block构建方式相同,分别为dense_block5和dense_block6,其所包含的3x3卷积层数量为8;不同的是,特征提取网络中所添加的Dense Block作为特征提取层,除了向网络后端的特征提取层传递特征之外,还将其输出特征传递至分类检测模块,取代原有的conv4_3、fc7、conv6_2共三层多尺度特征层,其中conv4_3被前置基础网络的第四组DenseBlock的输出特征取代。后三组Dense Block的输出特征与conv7_2、conv8_2、conv9_2组成新的特征提取网络,该特征提取网络所包含六层特征提取层所对应的尺寸大小分别为:38x38、19x19、10x10、5x5、3x3、1x1。
第五步,添加Inception组件,并修改所添加的Inception组件,提高SSD模型的多尺度适应性。
在每组Dense Block的Concat层后端添加Inception组件,分别使用尺寸大小为5x5、3x3、1x1的卷积核对Dense Block的输出特征进行卷积操作;在Inception组件的每层卷积层后端添加Batch Normalization层,并在Inception组件的前端添加一层卷积核大小为1x1的卷积层,降低特征维度,减少计算量,最后在Inception组件的Concat层后端添加一层卷积核大小为1x1的卷积层,形成Inception组件的最终输出特征。在前五组Inception组件的输出特征后端分别添加池化层,对Inception组件的输出特征进行池化操作,使得Inception组件的输出特征的宽度与高度随Dense Block数量的增加而减少,保持新的神经网络结构的整体宽度与高度与原SSD模型一致。形成的目标检测模型如图1所示。
在添加Inception组件过程中,通过Concatenation操作将卷积核大小分别为5x5、3x3、1x1的三层并联卷积层进行融合,组成Inception组件,其中卷积核大小分别为5x5、3x3、1x1的三层并联卷积层的卷积核个数比为1:2:1,且卷积核大小为5x5的卷积层由两层卷积核大小为3x3的卷积层串联实现,如图2所示。将上述Inception组件作为尺度转换模块添加至每组Dense Block后端,得到inception1、inception2、inception3、inception4、inception5、inception6,对Dense Block的输出特征进行多尺度卷积操作。
在修改所添加的Inception组件过程中,Inception组件前端所添加的卷积层的输出维度为输入特征维度的一半,且Inception组件融合特征层后端所添加的卷积层的输出维度等于卷积核大小分别为5x5、3x3、1x1的三层并联卷积层的卷积核个数之和。
在前五组Inception组件后端添加的池化层为pool1、pool2、pool3、pool4、pool5,使得每组Dense Block和Inception组件的特征宽度、高度与原SSD模型的特征组的尺寸相同,即网络特征的宽度和高度依次为300x300、150x150、75x75、38x38、19x19、10x10、5x5、3x3、1x1。
第六步,设置模型的训练策略。
经第四、五步修改后,所得SSD目标检测模型作为训练网络,运行SSD模型自带的脚本文件生成训练数据与测试数据所对应的LMDB格式文件,设置相应的训练参数,运行训练脚本读取训练数据的LMDB格式文件训练SSD目标检测模型,当模型达到拟合或者到达最大训练迭代次数时停止训练并保存训练好的模型文件。
本实施例中,设置训练batch_size=2,iter_size=16,最大训练迭代次数max_iter=150000,设置优化函数为SGD(Stochastic Gradient Descent,随机梯度下降),动量参数momentum=0.9,初始学习率base_lr=0.005,分别在第80000、100000、120000次迭代之后将学习率缩小10倍。
第七步,对模型进行训练,并保存训练好的模型。
修改第五步所得神经网络的训练数据路径,将其指向lmdb格式的PSDB训练数据集,输入相关参数运行Caffe开始训练,利用卷积神经网络的反向传播机制不断更新模型权重值,降低模型的损失值,当模型拟合或者达到最大训练迭代次数,停止训练并保存模型权重值,输出对应的caffemodel文件。
第八步,模型测试并输出测试结果。
修改测试神经网络的训练数据路径,将其指向lmdb格式的PSDB测试数据集,根据实际任务要求设定IOU交并比阈值、置信度阈值、非极大值抑制阈值等测试参数,运行测试脚本调用训练好的模型读取测试数据的LMDB格式文件进行测试,输出并保存测试结果。
本实施例中,调用第七步所保存的caffemodel文件作为测试模型,输入相关参数运行Caffe调用测试模型对测试网络参数进行初始化,读取测试图像并对测试网络进行前向计算得到测试结果,最后将测试结果存储于TXT文件中,包含测试图像名称、检出行人框坐标值及该矩形框所对应的置信度。使用Python编程语言执行plot_detections.py文件,在测试图像上绘制所检测出的行人框,并在行人框上方显示其置信度。
为了验证本发明方法的可行性以及检验该方法的各项性能,本发明在Caffe深度学习框架上对所提方法进行仿真,实验选择PSDB数据集中的训练图像作为训练数据,共有训练图像11206张。同样,选择PSDB数据集中的测试图像作为测试数据,共有测试图像6978张。程序运行平台为Linux-Ubuntu 16.04操作系统,所使用的GPU型号为NVIDIA GeForceGTX1080Ti,GPU显存为11G,详细训练参数设置为:batch_size=2,iter_size=16,最大训练迭代次数max_iter=150000,优化函数为SGD(Stochastic Gradient Descent,随机梯度下降),动量参数momentum=0.9,初始学习率base_lr=0.005,分别在第80000、100000、120000次迭代之后将学习率缩小10倍;详细测试参数设置为:batch_size=1,test_iter=6978,IOU交并比阈值overlap_threshold=0.50,NMS非极大值抑制阈值nms_threshold=0.45,置信度阈值confidence_threshold的取值范围为0.1-0.9,步进为0.1。为了更好地验证本发明所提方法的有效性,将本发明方法的测试结果与默认的SSD框架的测试结果进行对比,在检测准确率、召回率、模型收敛速度等方面对本发明方法进行分析评价,为了保证实验数据的有效性及公平性,除了学习率之外,本次实验SSD模型与本发明方法的实验环境和所有实验参数均相同。由于SSD模型默认没有添加BN层,设定学习率为0.005时会出现梯度爆炸现象,所以本次实验本发明方法的学习率为0.005,SSD模型的学习率为0.0005。
表1列举了SSD模型和本发明方法的各项检测结果,以及这两个模型的对比数据。其中“原始数据”表示PSDB测试集所包含的数据,其它三列分别表示SSD的检测结果、本发明方法的检测结果、本发明方法对比于SSD模型的提升量。“height<60”表示高度小于60个像素值的行人框数量,由于PSDB数据集只标注了高度大于50个像素值的行人,故该项也表示高度位于50-60像素值的行人数量,“60≤height<200”和“200≤height”则分别表示行人高度位于60-200像素值以及行人高度大于200个像素值的行人数量。另外,表1的测试数据所对应的测试参数为:IOU交并比阈值overlap_threshold=0.50,NMS非极大值抑制阈值nms_threshold=0.45,置信度阈值confidence_threshold=0.50,两种方法的实验环境及其他实验参数全部保持一致。
表1
对比项 原始数据 SSD 本发明方法 提升量
height<60 1939 76 136 60
60≤height<200 22329 11479 14031 2552
200≤height 13642 10094 11396 1302
召回正样本数量 37910 21649 25563 3914
检测框数量 - 23198 27169 3971
召回率 - 52.97% 62.54% 9.57%
准确率 - 93.32% 94.09% 0.77%
mAP - 75.21% 81.13% 5.92%
由表1的数据可知,本发明方法在所有对比指标上的检测结果均优于SSD模型。其中对于高度小于60个像素值的行人框,PSDB测试集原有的数量为1939个,SSD模型只检测出了76个,召回率约为3.92%,本发明方法检测出了136个,召回率约为7.01%,相比于SSD模型提高了3.09%;对于高度位于60-200像素值的行人,本发明方法有较大的提升,比SSD模型多检测出了2552个行人框,召回率上提高了11.43%;对于高度大于200像素值的行人,SSD模型和本发明方法的召回率分别为73.99%和83.54%,该项两个模型的召回率均高于70%,虽然提升空间有限,但本发明方法依旧比SSD模型多检测出了1302个行人框,召回率上提高了9.55%。另外,本发明方法在整体召回率和mAP(mean Average Precision)等指标上与SSD模型相比均有所提升,其中mAP指标与SSD相比提升了5.92%。
图5是测试结果的P-R曲线图,纵坐标表示检测准确率(Precision),横坐标表示检测召回率(Recall),设置不同的置信度阈值求得多对P-R值,将多对P-R值绘制成相应的P-R曲线。带三角形的曲线为本发明方法的P-R曲线,带圆点的曲线为SSD模型的P-R曲线,其中IOU交并比阈值overlap_threshold=0.5,NMS非极大值抑制阈值nms_threshold=0.45,置信度阈值confidence_threshold的最大值为0.9,最小值为0.1,步进为0.1,每种方法包含9对P-R值。由图可知,在曲线的中间部分,本发明方法在相同的准确率下召回率明显高于SSD模型,且SSD模型在取得最高召回率的同时准确率却低于20%,而本发明方法的准确率均大于55%。同样,当SSD模型取得最高准确率时,其召回率却低于40%,而本发明方法的召回率均高于50%。
上述实施例从多个角度将本发明方法的测试结果与SSD模型的测试结果进行对比,由对比结论可知,本发明方法以PSDB数据集作为训练数据和测试数据,在不同的对比条件下检测结果优于SSD模型,且模型的训练收敛速度与SSD模型相当,证明了本发明方法的有效性。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (10)

1.一种针对复杂场景的行人检测方法,其特征在于,包括以下步骤:
S1、搭建SSD目标检测模型,所搭建的SSD目标检测模型包括依次连接的前置基础网络、特征提取网络和分类检测模块;
S2、修改前置基础网络,修改特征提取网络中的前两层特征提取层,提高SSD目标检测模型的特征提取能力;
S3、添加Inception组件,并修改所添加的Inception组件,提高SSD目标检测模型的多尺度适应性;
S4、设置相应的训练参数,训练SSD目标检测模型,当SSD目标检测模型达到拟合或者到达最大训练迭代次数时停止训练并保存训练好的模型文件;
S5、设定相应的测试参数,根据训练好的SSD目标检测模型读取测试数据进行测试,输出并保存测试结果。
2.根据权利要求1所述的行人检测方法,其特征在于,步骤S2修改前置基础网络时,删除SSD目标检测模型的前置基础网络中的前四组卷积组,新建四组Dense Block并串联形成DenseNet,将DenseNet添加进SSD模型的前置基础网络,替代所删除的前四组卷积组。
3.根据权利要求2所述的行人检测方法,其特征在于,四组Dense Block所包含的3x3卷积层数量分别为2、4、8、16,且每层卷积层的输出特征维度为32。
4.根据权利要求1所述的行人检测方法,其特征在于,步骤S2修改特征提取网络中的前两层特征提取层时,删除SSD目标检测模型的特征提取网络中的前两层特征提取层,新建两组Dense Block分别替代所删除的两层特征提取层,保留特征提取网络中的后三层特征提取层,使其与新添加的两组Dense Block形成新的特征提取网络。
5.根据权利要求4所述的行人检测方法,其特征在于,添加的两组Dense Block所包含的3x3卷积层数量为8。
6.根据权利要求2所述的行人检测方法,其特征在于,步骤S3在每组Dense Block的Concat层后端添加Inception组件,对Dense Block的输出特征进行卷积操作;在Inception组件的每层卷积层后端添加Batch Normalization层,并在Inception组件的前端添加一层卷积层,在Inception组件的Concat层后端添加一层卷积层,形成Inception组件的最终输出特征;在Inception组件的输出特征后端分别添加池化层,对Inception组件的输出特征进行池化操作。
7.根据权利要求6所述的行人检测方法,其特征在于,在添加Inception组件过程中,通过Concatenation操作将卷积核大小分别为5x5、3x3、1x1的三层并联卷积层进行融合,组成Inception组件,其中卷积核大小分别为5x5、3x3、1x1的三层并联卷积层的卷积核个数比为1:2:1,且卷积核大小为5x5的卷积层由两层卷积核大小为3x3的卷积层串联实现;将上述Inception组件作为尺度转换模块添加至每组Dense Block后端。
8.根据权利要求6所述的行人检测方法,其特征在于,在修改所添加的Inception组件过程中,Inception组件前端所添加的卷积层的输出维度为输入特征维度的一半,且Inception组件融合特征层后端所添加的卷积层的输出维度等于卷积核大小分别为5x5、3x3、1x1的三层并联卷积层的卷积核个数之和。
9.根据权利要求1所述的行人检测方法,其特征在于,步骤S5所述的测试参数包括IOU交并比阈值、置信度阈值、非极大值抑制阈值。
10.根据权利要求1所述的行人检测方法,其特征在于,步骤S1基于Caffe深度学习框架搭建SSD目标检测模型,修改SSD目标检测模型中的分类参数,将其由21分类模型修改为二分类模型,使其适用于行人检测,构建Caffe版的SSD行人检测框架。
CN201811349816.XA 2018-11-14 2018-11-14 一种针对复杂场景的行人检测方法 Active CN109508675B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811349816.XA CN109508675B (zh) 2018-11-14 2018-11-14 一种针对复杂场景的行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811349816.XA CN109508675B (zh) 2018-11-14 2018-11-14 一种针对复杂场景的行人检测方法

Publications (2)

Publication Number Publication Date
CN109508675A true CN109508675A (zh) 2019-03-22
CN109508675B CN109508675B (zh) 2020-07-28

Family

ID=65748383

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811349816.XA Active CN109508675B (zh) 2018-11-14 2018-11-14 一种针对复杂场景的行人检测方法

Country Status (1)

Country Link
CN (1) CN109508675B (zh)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977958A (zh) * 2019-03-25 2019-07-05 中国科学技术大学 一种离线手写体数学公式识别重构方法
CN110175506A (zh) * 2019-04-08 2019-08-27 复旦大学 基于并行降维卷积神经网络的行人重识别方法及装置
CN110288082A (zh) * 2019-06-05 2019-09-27 北京字节跳动网络技术有限公司 卷积神经网络模型训练方法、装置和计算机可读存储介质
CN110334602A (zh) * 2019-06-06 2019-10-15 武汉市公安局视频侦查支队 一种基于卷积神经网络的人流量统计方法
CN111259736A (zh) * 2020-01-08 2020-06-09 上海海事大学 一种基于深度学习的复杂环境下行人实时检测方法
CN111460980A (zh) * 2020-03-30 2020-07-28 西安工程大学 基于多语义特征融合的小目标行人的多尺度检测方法
CN112381077A (zh) * 2021-01-18 2021-02-19 南京云创大数据科技股份有限公司 一种人脸图像信息的隐藏方法
CN112446340A (zh) * 2020-12-07 2021-03-05 深圳市信义科技有限公司 结合行人局部特征和服饰属性分类的行人搜索方法、系统及存储介质
CN112528979A (zh) * 2021-02-10 2021-03-19 成都信息工程大学 变电站巡检机器人障碍物判别方法及系统

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106611162A (zh) * 2016-12-20 2017-05-03 西安电子科技大学 基于深度学习ssd框架的道路车辆实时检测方法
CN107688808A (zh) * 2017-08-07 2018-02-13 电子科技大学 一种快速的自然场景文本检测方法
WO2018113261A1 (zh) * 2016-12-22 2018-06-28 深圳光启合众科技有限公司 目标对象的识别方法和装置、机器人
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108363997A (zh) * 2018-03-20 2018-08-03 南京云思创智信息科技有限公司 一种在视频中对特定人的实时跟踪方法
CN108399362A (zh) * 2018-01-24 2018-08-14 中山大学 一种快速行人检测方法及装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106611162A (zh) * 2016-12-20 2017-05-03 西安电子科技大学 基于深度学习ssd框架的道路车辆实时检测方法
WO2018113261A1 (zh) * 2016-12-22 2018-06-28 深圳光启合众科技有限公司 目标对象的识别方法和装置、机器人
CN107688808A (zh) * 2017-08-07 2018-02-13 电子科技大学 一种快速的自然场景文本检测方法
CN108399362A (zh) * 2018-01-24 2018-08-14 中山大学 一种快速行人检测方法及装置
CN108288075A (zh) * 2018-02-02 2018-07-17 沈阳工业大学 一种改进ssd的轻量化小目标检测方法
CN108363997A (zh) * 2018-03-20 2018-08-03 南京云思创智信息科技有限公司 一种在视频中对特定人的实时跟踪方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李超凡等: "基于学习算法SSD的实时道路拥堵检测", 《软件导刊》 *
郭济民: "基于深度神经网络的物体识别方法研究及实现", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109977958A (zh) * 2019-03-25 2019-07-05 中国科学技术大学 一种离线手写体数学公式识别重构方法
CN110175506A (zh) * 2019-04-08 2019-08-27 复旦大学 基于并行降维卷积神经网络的行人重识别方法及装置
CN110288082A (zh) * 2019-06-05 2019-09-27 北京字节跳动网络技术有限公司 卷积神经网络模型训练方法、装置和计算机可读存储介质
CN110288082B (zh) * 2019-06-05 2022-04-05 北京字节跳动网络技术有限公司 卷积神经网络模型训练方法、装置和计算机可读存储介质
CN110334602B (zh) * 2019-06-06 2021-10-26 武汉市公安局视频侦查支队 一种基于卷积神经网络的人流量统计方法
CN110334602A (zh) * 2019-06-06 2019-10-15 武汉市公安局视频侦查支队 一种基于卷积神经网络的人流量统计方法
CN111259736A (zh) * 2020-01-08 2020-06-09 上海海事大学 一种基于深度学习的复杂环境下行人实时检测方法
CN111259736B (zh) * 2020-01-08 2023-04-07 上海海事大学 一种基于深度学习的复杂环境下行人实时检测方法
CN111460980A (zh) * 2020-03-30 2020-07-28 西安工程大学 基于多语义特征融合的小目标行人的多尺度检测方法
CN112446340A (zh) * 2020-12-07 2021-03-05 深圳市信义科技有限公司 结合行人局部特征和服饰属性分类的行人搜索方法、系统及存储介质
CN112381077A (zh) * 2021-01-18 2021-02-19 南京云创大数据科技股份有限公司 一种人脸图像信息的隐藏方法
CN112381077B (zh) * 2021-01-18 2021-05-11 南京云创大数据科技股份有限公司 一种人脸图像信息的隐藏方法
CN112528979B (zh) * 2021-02-10 2021-05-11 成都信息工程大学 变电站巡检机器人障碍物判别方法及系统
CN112528979A (zh) * 2021-02-10 2021-03-19 成都信息工程大学 变电站巡检机器人障碍物判别方法及系统

Also Published As

Publication number Publication date
CN109508675B (zh) 2020-07-28

Similar Documents

Publication Publication Date Title
CN109508675A (zh) 一种针对复杂场景的行人检测方法
CN111126472B (zh) 一种基于ssd改进的目标检测方法
CN107563381B (zh) 基于全卷积网络的多特征融合的目标检测方法
CN109670405B (zh) 一种基于深度学习的复杂背景行人检测方法
CN109034210A (zh) 基于超特征融合与多尺度金字塔网络的目标检测方法
CN109447034A (zh) 基于YOLOv3网络的自动驾驶中交通标识检测方法
CN108846446A (zh) 基于多路径密集特征融合全卷积网络的目标检测方法
CN106022237A (zh) 一种端到端的卷积神经网络的行人检测方法
CN112418134B (zh) 基于行人解析的多流多标签行人再识别方法
CN107016357A (zh) 一种基于时间域卷积神经网络的视频行人检测方法
CN109191455A (zh) 一种基于ssd卷积网络的大田作物病虫害检测方法
CN113076871A (zh) 一种基于目标遮挡补偿的鱼群自动检测方法
CN112418330A (zh) 一种基于改进型ssd的小目标物体高精度检测方法
Liu et al. Pedestrian detection algorithm based on improved SSD
CN110287777A (zh) 一种自然场景下的金丝猴躯体分割算法
Lv et al. A visual identification method for the apple growth forms in the orchard
CN109886153A (zh) 一种基于深度卷积神经网络的实时人脸检测方法
CN110008853A (zh) 行人检测网络及模型训练方法、检测方法、介质、设备
CN109903339A (zh) 一种基于多维融合特征的视频群体人物定位检测方法
CN112613428A (zh) 基于平衡损失的Resnet-3D卷积牛视频目标检测方法
CN107392251A (zh) 一种使用分类图片提升目标检测网络性能的方法
CN112507904A (zh) 一种基于多尺度特征的教室人体姿态实时检测方法
Zhang et al. Research on surface defect detection of rare-earth magnetic materials based on improved SSD
CN114782979A (zh) 一种行人重识别模型的训练方法、装置、存储介质及终端
CN114332942A (zh) 基于改进YOLOv3的夜间红外行人检测方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant