CN113378890A - 一种基于改进YOLO v4的轻量级行人车辆检测方法 - Google Patents

一种基于改进YOLO v4的轻量级行人车辆检测方法 Download PDF

Info

Publication number
CN113378890A
CN113378890A CN202110533245.0A CN202110533245A CN113378890A CN 113378890 A CN113378890 A CN 113378890A CN 202110533245 A CN202110533245 A CN 202110533245A CN 113378890 A CN113378890 A CN 113378890A
Authority
CN
China
Prior art keywords
training
data set
convolution
detection
follows
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110533245.0A
Other languages
English (en)
Other versions
CN113378890B (zh
Inventor
陈朋
王嘉飞
党源杰
俞天纬
王海霞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang University of Technology ZJUT
Original Assignee
Zhejiang University of Technology ZJUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang University of Technology ZJUT filed Critical Zhejiang University of Technology ZJUT
Priority to CN202110533245.0A priority Critical patent/CN113378890B/zh
Publication of CN113378890A publication Critical patent/CN113378890A/zh
Application granted granted Critical
Publication of CN113378890B publication Critical patent/CN113378890B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Molecular Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

一种基于改进YOLO v4的轻量级行人车辆检测方法,包括以下步骤:1)将数据集划分为训练集、验证集和测试集;2)对数据集标签中的真实目标框进行聚类分析,获得先验框尺寸;3)利用Ghost模块搭建主干网络,用于提取数据集的视觉特征,在保证特征质量的同时缩减参数量;4)使用不同扩张率的空洞卷积提升网络的多尺度感知能力;5)对提取到的特征进行特征聚合;6)将聚合后的特征输入检测头,对目标的位置和类别进行预测,利用损失函数训练模型;7)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。本发明在保证行人车辆检测精度的同时,拥有较小的模型参数量,检测速度较快,降低了对于硬件设备性能的需求。

Description

一种基于改进YOLO v4的轻量级行人车辆检测方法
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于改进YOLO v4的轻量级行人车辆检测方法。
背景技术
随着人工智能的快速发展,作为计算机视觉领域的一个分支,目标检测技术取得了许多突破性成果。得益于技术的突破,目标检测技术开始逐渐向实际应用迈进,被广泛应用于自动驾驶、视频监控和国防军事等多个领域。对于自动驾驶,快速准确地对行人车辆进行识别是保障自动驾驶安全性的重要环节。虽然现阶段行人车辆检测技术已经取得了长足的发展,但是仍然存在一些问题。首先,对于自动驾驶的交通场景,目标检测算法更多的需要部署在边缘和移动设备中,这对于设备的算力和内存来说都是一个挑战。现有的许多方法体积大、检测速度较慢,无法兼顾准确性和实时性的需求。其次,现有的方法不能很好的解决多尺度问题,尤其对于小目标存在漏检或误检现象。
目前基于深度学习的目标检测算法大致分为两类:基于区域建议的两阶段(two-stage)检测算法和基于回归预测的单阶段(one-stage)检测算法。其中,两阶段方法一般检测精度高,但检测速度慢,单阶段方法检测精度较低但速度快。典型的单阶段算法有SSD(Single Shot Multibox Detector)和YOLO(You Only Look Once:Unified,Real-TimeObject Detection)等系列,其网络模型参数相对较少,虽然准确度相对较低,但在实时性上表现优越。随着技术的不断发展,现有的许多目标检测算法已经拥有较高的检测精度,但体积较大,不适用于车辆系统这种边缘设备,检测速度仍有提升空间。
发明内容
为了克服已有方法体积大、检测速度慢的不足,本发明提供一种基于改进YOLO v4的轻量级行人车辆检测方法,有效降低模型的参数量,在保证检测精度的同时提升模型的目标检测速度。
为实现上述目的,本发明采用的技术方案是:
一种基于改进YOLO v4的轻量级行人车辆检测方法,所述方法包括以下步骤:
1)将数据集划分为训练集、验证集和测试集,分别用于模型的训练和测试;
2)对数据集标签中的真实目标框进行聚类分析,分别得到9种不同的先验框尺寸;
3)利用主干网络提取数据集的视觉特征,过程如下:
利用Ghost模块构造Bottleneck,使用Bottleneck搭建主干网络。所述Ghost模块包含卷积操作和线性操作,特征图输入Ghost模块后,依次经过卷积层、归一化层和激活层后获得中间特征图,将所述中间特征图送入线性分支后与所述中间特征图堆叠后输出。每个Bottleneck包括Ghost模块、BN层和激活函数,共同构成网络参数θ,主干网络可表征为函数Fθ。将高为H,宽为W的样本数据输入主干网络,分别在网络第5、第11、第16个Bottleneck后分批次输出三组不同尺寸的特征图,该过程公式如下:
feat1=Fθ1(x) (1)
feat2=Fθ2(feat1) (2)
feat3=Fθ3(feat2) (3)
式中x为输入图像,且x∈R3×H×W,feat1、feat2、feat3分别代表输出的三组特征值,其中feat1∈R40×H×W,feat2∈R112×H×W,feat3∈R160×H×W
4)对提取到的特征进行特征聚合,过程如下:
将步骤3)提取到的三组特征,分别输入到三个不同扩张率的空洞卷积层中,通过变化感受野,提升模型的多尺度感知能力。feat1对应的空洞卷积扩张率为1,负责感知特征图中的小尺寸目标;feat2对应的空洞卷积扩张率为2,负责感知特征图中的中尺寸目标;feat3对应的空洞卷积扩张率为3,负责感知特征图中的大尺寸目标。各层扩张率与感受野的关系如下式:
R=k+(k-1)×(d-1) (4)
式中,R为感受野尺寸,k为卷积核尺寸,d为扩张率。
将空洞卷积层输出的特征送入特征聚合网络,对特征图进行降采样、升采样、拼接、卷积和BN操作,其中卷积层由卷积模块和DBM模块构成,以进一步缩减模型参数量,输出三组聚合后的特征图用于最终的检测;
所述DBM模块结构为:特征图输入模块,依次经过一个逐通道卷积层,一个批次归一化层,一个ReLU6激活层,一个逐点卷积层,一个批次归一化层,再经过ReLU6激活函数后输出。
5)将聚合后的特征输入YOLO检测头,对目标的位置和类别进行预测,利用损失函数训练模型;
6)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。
进一步,所述步骤1)的操作为:将KITTI数据集划分为最终的训练集、验证集和测试集。其具体步骤为:合并、删除数据集中的部分类别,最终的类别包括行人、汽车;将数据集按照VOC数据集的文件路径存放;将数据集的注释文件由txt格式转换为xml格式;将数据集按照8:1:1的比例划分为训练集、验证集、测试集。
再进一步,所述步骤2)的操作为:利用k-Means算法对数据集标签中的真实目标框进行聚类分析。其中,采用框与框之间的交并比(IoU)构建距离度量函数S,函数S如下:
S=1-IoU(box1,box2) (5)。
所述步骤5)的操作为:将步骤4)聚合得到的特征图分别输入三个yolo检测头,对目标的位置和类别进行预测,各分支分别输出一组形式为N×N×3×(4+1+C)的向量,N表示该尺度分支下的特征图尺寸,3表示该尺度分支下的预测框数量,4和1分别表示预测框的坐标和置信度,C表示数据的类别数量;
利用损失函数对模型进行训练,损失函数采用Complete-IoU Loss,如下式:
Figure BDA0003068704920000041
式中,LCIoU为预测框的位置损失,B,Bgt分别为预测框和真实框,b,bgt分别为预测框和真实框的中心点坐标,ρ2()表示欧氏距离,c包含预测框与真实框的最小矩形的对角线长度,α为权重函数,v函数用于度量长宽比的相似性,α,v函数的定义分别如下:
Figure BDA0003068704920000042
Figure BDA0003068704920000043
式(9)中,wgt,hgt分别表示真实框的宽和高,w,h分别表示预测框的宽和高;
设置网络模型参数型输入图像的尺寸、9个先验框尺寸、识别种类的数量和标注的各种类名称、初始学习率以及学习率调整策略,对模型进行训练;训练过程中使用验证集进行验证,训练至网络模型收敛后保存最终的权重文件。
所述步骤6)的操作为:加载所述步骤5)训练得到的模型权重,将测试集输入网络,进行特征提取及特征聚合后,由检测头得到可能包含行人、车辆目标的边界框坐标、置信度和类别概率,利用非极大值抑制去除冗余的检测框,产生最终的检测结果。
本发明的有益效果主要表现在:
(1)利用Ghost模块搭建主干网络,用于提取图像特征,分批次输出三组特征,在保证特征质量的前提下缩减了模型的参数量。
(2)在主干网络和特征聚合网络之间分别嵌入不同扩张率的空洞卷积,在不增加计算量的前提下,提升网络模型对于不同尺寸目标的感应能力。
(3)利用深度可分离卷积构建DBM模块,在特征聚合网络中使用DBM模块。相较于普通卷积模块,显著缩减了模型的参数量。
(4)针对实际应用中移动端设备对于模型大小和实时性的需求,本发明提出一种基于改进YOLO v4的轻量级行人车辆检测方法,模型参数量较小、检测速度快,且在一定程度上保有了精度,可更好的适应移动端设备,为目标检测的实际应用创造条件。
附图说明
图1为本发明方法的流程图;
图2为本发明的网络结构图;
图3为Ghost模块的结构图;
图4为Bottleneck的结构图;
图5为主干网络的结构图
图6为DBM模块的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加明确清晰,以下结合附图对本发明中的具体实施细节做进一步阐述。
参照图1~图6,一种基于改进YOLO v4的轻量级行人车辆检测方法,包括以下步骤:
1)、整合训练、测试所需的目标检测数据集;
所述步骤1)的操作为:将KITTI数据集划分为最终的训练集、验证集和测试集。其具体步骤为:合并“行人”、“骑自行车的人”和“坐着的人”三种类别,合并“卡车”、“货车”、“轿车”、“有轨电车”四种类别,并删除数据集中的部分类别,最终的类别包括行人、汽车;将数据集按照VOC数据集的文件路径存放,即标签文件夹Annotations、图片文件夹PNGImages和目录文件夹ImageSets;将数据集的注释文件由txt格式转换为xml格式;将数据集按照8:1:1的比例划分为训练集、验证集、测试集。分别生成训练集、验证集和测试集的目录txt文件,命名为train.txt、val.txt、test.txt。再根据train.txt、val.txt、test.txt生成按行存储图片绝对路径和标签位置及类别的汇总文件kitti_train.txt、kitti_val.txt、kitti_test.txt。
2)、利用k-Means算法对数据集标签中的真实目标框进行聚类分析。其中,采用框与框之间的交并比(IoU)构建距离度量函数S,函数S如下:
S=1-IoU(box1,box2) (5)
其中,
Figure BDA0003068704920000061
式中area表示区域的面积。
11最终得到9种不同的先验框(Anchor-box)尺寸,分别为[8,71],[9,24],[14,33],[19,54],[23,163],[26,38],[37,67],[59,109],[97,197]。
3)、利用主干网络提取数据集的视觉特征;
所述步骤3包括:
(3.1)利用Ghost模块构造Bottleneck,使用Bottleneck搭建主干网络,其中,Ghost模块的结构如图3所示,Bottleneck的结构如图4所示,搭建的主干网络结构如图5所示,主干网络可表征为函数Fθ
(3.2)将尺寸为416×416的图像输入主干网络,分别在网络第5、第11、第16个Bottleneck后分批次输出三组不同尺寸的特征图,其尺寸分别为[52,52,40]、[26,26,112]、[13,13,160]。
该过程作如下表示:
feat1=Fθ1(x) (1)
feat2=Fθ2(feat1) (2)
feat3=Fθ3(feat2) (3)
式中x为输入图像,且x∈R3×416×416,feat1、feat2、feat3分别代表输出的三组特征值,其中feat1∈R40×52×52,feat2∈R112×26×26,feat3∈R160×13×13
4)、对提取到的特征进行特征聚合;
所述步骤4过程如下:
(4.1)将步骤3提取的三组特征,分别输入到三个不同扩张率的空洞卷积层中,通过变化感受野,提升模型的多尺度感知能力。扩张率与感受野的关系如下式:
R=k+(k-1)×(d-1) (4)
feat1对应的空洞卷积扩张率为1,负责感知特征图中的小尺寸目标;feat2对应的空洞卷积扩张率为2,负责感知特征图中的中尺寸目标;feat3对应的空洞卷积扩张率为3,负责感知特征图中的大尺寸目标。最终,送入特征聚合网络的特征图尺寸分别为[52,52,128]、[26,26,256]、[13,13,512]
(4.2)利用深度可分离卷积构建DBM模块。DBM模块的结构如图6所示,特征图输入模块,依次送入一个逐通道卷积层,一个批次归一化层(Batch Normalization),一个ReLU6激活层,一个逐点卷积层,一个批次归一化层,再经过ReLU6激活函数后输出。
(4.3)原有YOLOv4网络中,特征聚合网络在每次拼接操作后接有5个CBM卷积模块。如图2所示,使用DBM模块替换各CBM卷积模块组中的第2个和第4个CBM模块,卷积核数量设置为原有CBM模块的2倍。
5)、将聚合后的特征输入检测头,对目标的位置和类别进行预测;利用损失函数对模型进行训练;
所述将聚合后的特征输入检测头,对目标的位置和类别进行预测的过程为:
将步骤4)聚合得到的特征图分别输入三个yolo检测头,对目标的位置和类别进行预测,各分支分别输出一组形式为N×N×3×(4+1+2)的向量,N表示该尺度分支下的特征图尺寸,3表示该尺度分支下的预测框数量,4和1分别表示预测框的坐标和置信度,2表示行人和车辆两种类别;
所述利用损失函数对模型进行训练的操作为:
(5.1)损失函数采用Complete-IoU Loss,如下式:
Figure BDA0003068704920000081
式中,LCIoU为预测框的位置损失,B,Bgt分别为预测框和真实框,b,bgt分别为预测框和真实框的中心点坐标,ρ2()表示欧氏距离,c包含预测框与真实框的最小矩形的对角线长度,α为权重函数,v函数用于度量长宽比的相似性,α,v函数的定义分别如下:
Figure BDA0003068704920000082
Figure BDA0003068704920000091
式(8)中,wgt,hgt分别表示真实框的宽和高,w,h分别表示预测框的宽和高。
(5.2)在Ubuntu18.04系统下配置环境,Keras框架下实现网络结构。
(5.3)输入图像尺寸为416×416,预选框使用步骤2聚类分析得到的9种尺寸,批尺寸(batch size)设为8,训练轮数设为500,基础学习率设为0.001,采用余弦退火算法进行学习率衰减。
(5.4)在KITTI训练集上进行训练。训练过程中,通过KITTI验证集的损失曲线观察网络的训练进度,训练至网络模型收敛,保存最终训练得到的权重文件。
6)、利用KITTI测试集对训练得到的网络模型进行性能测试。
所述步骤6)的操作为:
(6.1)载入训练得到的最优模型权重,将测试集送入训练好的网络模型中,经过Ghost模块搭建的主干网络进行特征提取,输出三组尺寸为[52,52,40]、[26,26,112]、[13,13,160]的特征,再经过空洞卷积后送入特征聚合网络。最终由yolo检测头得到可能包含行人、车辆等目标的边界框坐标、置信度和类别概率,利用非极大值抑制去除冗余的检测框,产生最终的检测结果。
(6.2)根据测试集的真实框位置和模型的预测结果,计算本实例网络模型的平均精度均值Map(mean Average Precision),对模型的精度进行评价。其中,IOU阈值设置为0.5。
(3)统计模型的参数量,分别测试模型在GPU和CPU上的检测速度(FPS),与现有的主流目标检测方法对比结果如表1所示:
Figure BDA0003068704920000092
Figure BDA0003068704920000101
表1
由测试结果可见,本实例的网络模型在保证精度的同时,拥有更小的参数量,检测速度较快,降低了模型对于硬件存储能力和计算能力的要求。

Claims (5)

1.一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述方法包括以下步骤:
1)将数据集划分为训练集、验证集和测试集,分别用于模型的训练和测试;
2)对数据集标签中的真实目标框进行聚类分析,分别得到9种不同的先验框尺寸;
3)利用主干网络提取数据集的视觉特征,过程如下:
利用Ghost模块构造Bottleneck,使用Bottleneck搭建主干网络。所述Ghost模块包含卷积操作和线性操作,特征图输入Ghost模块后,依次经过卷积层、归一化层和激活层后获得中间特征图,将所述中间特征图送入线性分支后与所述中间特征图堆叠后输出。每个Bottleneck包括Ghost模块、BN层和激活函数,共同构成网络参数,主干网络可表征为函数θ。将高为H,宽为W的样本数据输入主干网络,分别在网络第5、第11、第16个Bottleneck后分批次输出三组不同尺寸的特征图,该过程公式如下:
feat1=Fθ1(x) (1)
feat2=Fθ2(feat1) (2)
feat3=Fθ3(feat2) (3)
式中x为输入图像,且x∈R3×H×W,feat1、feat2、feat3分别代表输出的三组特征值,其中feat1∈R40×H×W,feat2∈R112×H×W,feat3∈R160×H×W
4)对提取到的特征进行特征聚合,过程如下:
将步骤3)提取到的三组特征,分别输入到三个不同扩张率的空洞卷积层中,通过变化感受野,提升模型的多尺度感知能力。feat1对应的空洞卷积扩张率为1,负责感知特征图中的小尺寸目标;feat2对应的空洞卷积扩张率为2,负责感知特征图中的中尺寸目标;feat3对应的空洞卷积扩张率为3,负责感知特征图中的大尺寸目标。各层扩张率与感受野的关系如下式:
R=k+(k-1)×(d-1) (4)
式中,R为感受野尺寸,k为卷积核尺寸,d为扩张率。
将空洞卷积层输出的特征送入特征聚合网络,对特征图进行降采样、升采样、拼接、卷积和BN操作,其中卷积层由卷积模块和DBM模块构成,以进一步缩减模型参数量,输出三组聚合后的特征图用于最终的检测;
所述DBM模块结构为:特征图输入模块,依次经过一个逐通道卷积层,一个批次归一化层,一个ReLU6激活层,一个逐点卷积层,一个批次归一化层,再经过ReLU6激活函数后输出。
5)将聚合后的特征输入YOLO检测头,对目标的位置和类别进行预测;利用损失函数训练模型;
6)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。
2.如权利要求1所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤1)的操作为:将KITTI数据集划分为最终的训练集、验证集和测试集。其具体步骤为:合并、删除数据集中的部分类别,最终的类别包括行人、汽车;将数据集按照VOC数据集的文件路径存放;将数据集的注释文件由txt格式转换为xml格式;将数据集按照8:1:1的比例划分为训练集、验证集、测试集。
3.如权利要求1或2所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤2)的操作为:利用k-Means算法对数据集标签中的真实目标框进行聚类分析,其中,采用框与框之间的交并比(IoU)构建距离度量函数S,函数S如下:
S=1-IoU(box1,box2) (5)。
4.如权利要求1或2所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤5)的操作为:
将步骤4)聚合得到的特征图分别输入三个yolo检测头,对目标的位置和类别进行预测,各分支分别输出一组形式为N×N×3×(4+1+C)的向量,N表示该尺度分支下的特征图尺寸,3表示该尺度分支下的预测框数量,4和1分别表示预测框的坐标和置信度,C表示数据的类别数量;
利用损失函数对模型进行训练,损失函数采用Complete-IoU Loss,如下式:
Figure FDA0003068704910000031
式中,LCIoU为预测框的位置损失,B,Bgt分别为预测框和真实框,b,bgt分别为预测框和真实框的中心点坐标,ρ2()表示欧氏距离,c包含预测框与真实框的最小矩形的对角线长度,α为权重函数,v函数用于度量长宽比的相似性,α,v函数的定义分别如下:
Figure FDA0003068704910000032
Figure FDA0003068704910000033
式(9)中,wgt,hgt分别表示真实框的宽和高,w,h分别表示预测框的宽和高;
设置网络模型参数型输入图像的尺寸、9个先验框尺寸、识别种类的数量和标注的各种类名称、初始学习率以及学习率调整策略,对模型进行训练;训练过程中使用验证集进行验证,训练至网络模型收敛后保存最终的权重文件。
5.如权利要求1或2所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤6)的操作为:加载所述步骤5)训练得到的模型权重,将测试集输入网络,进行特征提取及特征聚合后,由检测头得到可能包含行人、车辆目标的边界框坐标、置信度和类别概率,利用非极大值抑制去除冗余的检测框,产生最终的检测结果。
CN202110533245.0A 2021-05-17 2021-05-17 一种基于改进YOLO v4的轻量级行人车辆检测方法 Active CN113378890B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110533245.0A CN113378890B (zh) 2021-05-17 2021-05-17 一种基于改进YOLO v4的轻量级行人车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110533245.0A CN113378890B (zh) 2021-05-17 2021-05-17 一种基于改进YOLO v4的轻量级行人车辆检测方法

Publications (2)

Publication Number Publication Date
CN113378890A true CN113378890A (zh) 2021-09-10
CN113378890B CN113378890B (zh) 2024-03-22

Family

ID=77571064

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110533245.0A Active CN113378890B (zh) 2021-05-17 2021-05-17 一种基于改进YOLO v4的轻量级行人车辆检测方法

Country Status (1)

Country Link
CN (1) CN113378890B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837058A (zh) * 2021-09-17 2021-12-24 南通大学 一种耦合上下文聚合网络的轻量化雨水篦子检测方法
CN113989939A (zh) * 2021-11-16 2022-01-28 河北工业大学 一种基于改进yolo算法的小目标行人检测系统
CN114120154A (zh) * 2021-11-23 2022-03-01 宁波大学 一种高层建筑玻璃幕墙破损的自动检测方法
CN114782936A (zh) * 2022-06-17 2022-07-22 南京信息工程大学 一种基于改进yolov5s网络的行为检测方法
CN114863260A (zh) * 2022-04-11 2022-08-05 燕山大学 基于深度学习的Fast-YOLO实时水母检测方法
CN114898171A (zh) * 2022-04-07 2022-08-12 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法
CN115100251A (zh) * 2022-06-29 2022-09-23 福建盛海智能科技有限公司 一种基于热像仪和激光雷达的车前行人检测方法及终端
CN115661614A (zh) * 2022-12-09 2023-01-31 江苏稻源科技集团有限公司 一种基于轻量化YOLO v1的目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200293891A1 (en) * 2019-04-24 2020-09-17 Jiangnan University Real-time target detection method deployed on platform with limited computing resources
CN111738300A (zh) * 2020-05-27 2020-10-02 复旦大学 一种交通标志及信号灯检测和识别的优化算法
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200293891A1 (en) * 2019-04-24 2020-09-17 Jiangnan University Real-time target detection method deployed on platform with limited computing resources
CN111738300A (zh) * 2020-05-27 2020-10-02 复旦大学 一种交通标志及信号灯检测和识别的优化算法
CN112464910A (zh) * 2020-12-18 2021-03-09 杭州电子科技大学 一种基于YOLO v4-tiny的交通标志识别方法

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113837058B (zh) * 2021-09-17 2022-09-30 南通大学 一种耦合上下文聚合网络的轻量化雨水篦子检测方法
CN113837058A (zh) * 2021-09-17 2021-12-24 南通大学 一种耦合上下文聚合网络的轻量化雨水篦子检测方法
CN113989939A (zh) * 2021-11-16 2022-01-28 河北工业大学 一种基于改进yolo算法的小目标行人检测系统
CN113989939B (zh) * 2021-11-16 2024-05-14 河北工业大学 一种基于改进yolo算法的小目标行人检测系统
CN114120154A (zh) * 2021-11-23 2022-03-01 宁波大学 一种高层建筑玻璃幕墙破损的自动检测方法
CN114898171A (zh) * 2022-04-07 2022-08-12 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法
CN114898171B (zh) * 2022-04-07 2023-09-22 中国科学院光电技术研究所 一种适用于嵌入式平台的实时目标检测方法
CN114863260A (zh) * 2022-04-11 2022-08-05 燕山大学 基于深度学习的Fast-YOLO实时水母检测方法
CN114782936B (zh) * 2022-06-17 2022-09-02 南京信息工程大学 一种基于改进yolov5s网络的行为检测方法
CN114782936A (zh) * 2022-06-17 2022-07-22 南京信息工程大学 一种基于改进yolov5s网络的行为检测方法
CN115100251A (zh) * 2022-06-29 2022-09-23 福建盛海智能科技有限公司 一种基于热像仪和激光雷达的车前行人检测方法及终端
CN115661614A (zh) * 2022-12-09 2023-01-31 江苏稻源科技集团有限公司 一种基于轻量化YOLO v1的目标检测方法
CN115661614B (zh) * 2022-12-09 2024-05-24 江苏稻源科技集团有限公司 一种基于轻量化YOLO v1的目标检测方法

Also Published As

Publication number Publication date
CN113378890B (zh) 2024-03-22

Similar Documents

Publication Publication Date Title
CN113378890B (zh) 一种基于改进YOLO v4的轻量级行人车辆检测方法
WO2022083784A1 (zh) 一种基于车联网的道路检测方法
CN114202672A (zh) 一种基于注意力机制的小目标检测方法
CN111461083A (zh) 基于深度学习的快速车辆检测方法
CN111242180B (zh) 一种基于轻量化卷积神经网络的图像识别方法及系统
CN109376580B (zh) 一种基于深度学习的电力塔架部件识别方法
CN111428558A (zh) 一种基于改进YOLOv3方法的车辆检测方法
CN111126278A (zh) 针对少类别场景的目标检测模型优化与加速的方法
CN110909794A (zh) 一种适用于嵌入式设备的目标检测系统
CN112288700A (zh) 一种铁轨缺陷检测方法
CN113628297A (zh) 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统
CN116630932A (zh) 一种基于改进yolov5的道路遮挡目标检测方法
CN115631411A (zh) 基于sten网络对不同环境中的绝缘子破损检测方法
CN113537119B (zh) 基于改进Yolov4-tiny的输电线路连接部件检测方法
CN115115973A (zh) 一种基于多感受野与深度特征的弱小目标检测方法
CN113139615A (zh) 一种基于嵌入式设备的无人驾驶环境目标检测方法
CN113657517A (zh) 一种基于注意力机制和度量学习少样本电力缺陷检测方法
US20230410465A1 (en) Real time salient object detection in images and videos
CN112132207A (zh) 基于多分支特征映射目标检测神经网络构建方法
CN116129327A (zh) 一种基于改进YOLOv7算法的红外车辆检测方法
CN115861595A (zh) 一种基于深度学习的多尺度域自适应异源图像匹配方法
US11763836B2 (en) Hierarchical generated audio detection system
CN115761667A (zh) 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法
CN115035408A (zh) 基于迁移学习和注意力机制的无人机影像树种分类方法
CN111626298A (zh) 一种实时图像语义分割装置及分割方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant