CN113378890A - 一种基于改进YOLO v4的轻量级行人车辆检测方法 - Google Patents
一种基于改进YOLO v4的轻量级行人车辆检测方法 Download PDFInfo
- Publication number
- CN113378890A CN113378890A CN202110533245.0A CN202110533245A CN113378890A CN 113378890 A CN113378890 A CN 113378890A CN 202110533245 A CN202110533245 A CN 202110533245A CN 113378890 A CN113378890 A CN 113378890A
- Authority
- CN
- China
- Prior art keywords
- training
- data set
- convolution
- detection
- follows
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 67
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000012360 testing method Methods 0.000 claims abstract description 26
- 230000002776 aggregation Effects 0.000 claims abstract description 16
- 238000004220 aggregation Methods 0.000 claims abstract description 16
- 238000012795 verification Methods 0.000 claims abstract description 15
- 230000000007 visual effect Effects 0.000 claims abstract description 4
- 230000006870 function Effects 0.000 claims description 28
- 238000000034 method Methods 0.000 claims description 25
- 238000010586 diagram Methods 0.000 claims description 13
- 230000008569 process Effects 0.000 claims description 12
- 230000004913 activation Effects 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 9
- 239000011800 void material Substances 0.000 claims description 5
- 238000005070 sampling Methods 0.000 claims description 4
- 238000007621 cluster analysis Methods 0.000 claims description 3
- 238000005259 measurement Methods 0.000 claims description 3
- 230000008447 perception Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 230000004931 aggregating effect Effects 0.000 claims description 2
- 230000002401 inhibitory effect Effects 0.000 claims description 2
- 238000011161 development Methods 0.000 description 2
- 238000000137 annealing Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007123 defense Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 238000013179 statistical model Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Molecular Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
一种基于改进YOLO v4的轻量级行人车辆检测方法,包括以下步骤:1)将数据集划分为训练集、验证集和测试集;2)对数据集标签中的真实目标框进行聚类分析,获得先验框尺寸;3)利用Ghost模块搭建主干网络,用于提取数据集的视觉特征,在保证特征质量的同时缩减参数量;4)使用不同扩张率的空洞卷积提升网络的多尺度感知能力;5)对提取到的特征进行特征聚合;6)将聚合后的特征输入检测头,对目标的位置和类别进行预测,利用损失函数训练模型;7)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。本发明在保证行人车辆检测精度的同时,拥有较小的模型参数量,检测速度较快,降低了对于硬件设备性能的需求。
Description
技术领域
本发明涉及计算机视觉领域,具体涉及一种基于改进YOLO v4的轻量级行人车辆检测方法。
背景技术
随着人工智能的快速发展,作为计算机视觉领域的一个分支,目标检测技术取得了许多突破性成果。得益于技术的突破,目标检测技术开始逐渐向实际应用迈进,被广泛应用于自动驾驶、视频监控和国防军事等多个领域。对于自动驾驶,快速准确地对行人车辆进行识别是保障自动驾驶安全性的重要环节。虽然现阶段行人车辆检测技术已经取得了长足的发展,但是仍然存在一些问题。首先,对于自动驾驶的交通场景,目标检测算法更多的需要部署在边缘和移动设备中,这对于设备的算力和内存来说都是一个挑战。现有的许多方法体积大、检测速度较慢,无法兼顾准确性和实时性的需求。其次,现有的方法不能很好的解决多尺度问题,尤其对于小目标存在漏检或误检现象。
目前基于深度学习的目标检测算法大致分为两类:基于区域建议的两阶段(two-stage)检测算法和基于回归预测的单阶段(one-stage)检测算法。其中,两阶段方法一般检测精度高,但检测速度慢,单阶段方法检测精度较低但速度快。典型的单阶段算法有SSD(Single Shot Multibox Detector)和YOLO(You Only Look Once:Unified,Real-TimeObject Detection)等系列,其网络模型参数相对较少,虽然准确度相对较低,但在实时性上表现优越。随着技术的不断发展,现有的许多目标检测算法已经拥有较高的检测精度,但体积较大,不适用于车辆系统这种边缘设备,检测速度仍有提升空间。
发明内容
为了克服已有方法体积大、检测速度慢的不足,本发明提供一种基于改进YOLO v4的轻量级行人车辆检测方法,有效降低模型的参数量,在保证检测精度的同时提升模型的目标检测速度。
为实现上述目的,本发明采用的技术方案是:
一种基于改进YOLO v4的轻量级行人车辆检测方法,所述方法包括以下步骤:
1)将数据集划分为训练集、验证集和测试集,分别用于模型的训练和测试;
2)对数据集标签中的真实目标框进行聚类分析,分别得到9种不同的先验框尺寸;
3)利用主干网络提取数据集的视觉特征,过程如下:
利用Ghost模块构造Bottleneck,使用Bottleneck搭建主干网络。所述Ghost模块包含卷积操作和线性操作,特征图输入Ghost模块后,依次经过卷积层、归一化层和激活层后获得中间特征图,将所述中间特征图送入线性分支后与所述中间特征图堆叠后输出。每个Bottleneck包括Ghost模块、BN层和激活函数,共同构成网络参数θ,主干网络可表征为函数Fθ。将高为H,宽为W的样本数据输入主干网络,分别在网络第5、第11、第16个Bottleneck后分批次输出三组不同尺寸的特征图,该过程公式如下:
feat1=Fθ1(x) (1)
feat2=Fθ2(feat1) (2)
feat3=Fθ3(feat2) (3)
式中x为输入图像,且x∈R3×H×W,feat1、feat2、feat3分别代表输出的三组特征值,其中feat1∈R40×H×W,feat2∈R112×H×W,feat3∈R160×H×W。
4)对提取到的特征进行特征聚合,过程如下:
将步骤3)提取到的三组特征,分别输入到三个不同扩张率的空洞卷积层中,通过变化感受野,提升模型的多尺度感知能力。feat1对应的空洞卷积扩张率为1,负责感知特征图中的小尺寸目标;feat2对应的空洞卷积扩张率为2,负责感知特征图中的中尺寸目标;feat3对应的空洞卷积扩张率为3,负责感知特征图中的大尺寸目标。各层扩张率与感受野的关系如下式:
R=k+(k-1)×(d-1) (4)
式中,R为感受野尺寸,k为卷积核尺寸,d为扩张率。
将空洞卷积层输出的特征送入特征聚合网络,对特征图进行降采样、升采样、拼接、卷积和BN操作,其中卷积层由卷积模块和DBM模块构成,以进一步缩减模型参数量,输出三组聚合后的特征图用于最终的检测;
所述DBM模块结构为:特征图输入模块,依次经过一个逐通道卷积层,一个批次归一化层,一个ReLU6激活层,一个逐点卷积层,一个批次归一化层,再经过ReLU6激活函数后输出。
5)将聚合后的特征输入YOLO检测头,对目标的位置和类别进行预测,利用损失函数训练模型;
6)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。
进一步,所述步骤1)的操作为:将KITTI数据集划分为最终的训练集、验证集和测试集。其具体步骤为:合并、删除数据集中的部分类别,最终的类别包括行人、汽车;将数据集按照VOC数据集的文件路径存放;将数据集的注释文件由txt格式转换为xml格式;将数据集按照8:1:1的比例划分为训练集、验证集、测试集。
再进一步,所述步骤2)的操作为:利用k-Means算法对数据集标签中的真实目标框进行聚类分析。其中,采用框与框之间的交并比(IoU)构建距离度量函数S,函数S如下:
S=1-IoU(box1,box2) (5)。
所述步骤5)的操作为:将步骤4)聚合得到的特征图分别输入三个yolo检测头,对目标的位置和类别进行预测,各分支分别输出一组形式为N×N×3×(4+1+C)的向量,N表示该尺度分支下的特征图尺寸,3表示该尺度分支下的预测框数量,4和1分别表示预测框的坐标和置信度,C表示数据的类别数量;
利用损失函数对模型进行训练,损失函数采用Complete-IoU Loss,如下式:
式中,LCIoU为预测框的位置损失,B,Bgt分别为预测框和真实框,b,bgt分别为预测框和真实框的中心点坐标,ρ2()表示欧氏距离,c包含预测框与真实框的最小矩形的对角线长度,α为权重函数,v函数用于度量长宽比的相似性,α,v函数的定义分别如下:
式(9)中,wgt,hgt分别表示真实框的宽和高,w,h分别表示预测框的宽和高;
设置网络模型参数型输入图像的尺寸、9个先验框尺寸、识别种类的数量和标注的各种类名称、初始学习率以及学习率调整策略,对模型进行训练;训练过程中使用验证集进行验证,训练至网络模型收敛后保存最终的权重文件。
所述步骤6)的操作为:加载所述步骤5)训练得到的模型权重,将测试集输入网络,进行特征提取及特征聚合后,由检测头得到可能包含行人、车辆目标的边界框坐标、置信度和类别概率,利用非极大值抑制去除冗余的检测框,产生最终的检测结果。
本发明的有益效果主要表现在:
(1)利用Ghost模块搭建主干网络,用于提取图像特征,分批次输出三组特征,在保证特征质量的前提下缩减了模型的参数量。
(2)在主干网络和特征聚合网络之间分别嵌入不同扩张率的空洞卷积,在不增加计算量的前提下,提升网络模型对于不同尺寸目标的感应能力。
(3)利用深度可分离卷积构建DBM模块,在特征聚合网络中使用DBM模块。相较于普通卷积模块,显著缩减了模型的参数量。
(4)针对实际应用中移动端设备对于模型大小和实时性的需求,本发明提出一种基于改进YOLO v4的轻量级行人车辆检测方法,模型参数量较小、检测速度快,且在一定程度上保有了精度,可更好的适应移动端设备,为目标检测的实际应用创造条件。
附图说明
图1为本发明方法的流程图;
图2为本发明的网络结构图;
图3为Ghost模块的结构图;
图4为Bottleneck的结构图;
图5为主干网络的结构图
图6为DBM模块的结构图。
具体实施方式
为了使本发明的目的、技术方案及优点更加明确清晰,以下结合附图对本发明中的具体实施细节做进一步阐述。
参照图1~图6,一种基于改进YOLO v4的轻量级行人车辆检测方法,包括以下步骤:
1)、整合训练、测试所需的目标检测数据集;
所述步骤1)的操作为:将KITTI数据集划分为最终的训练集、验证集和测试集。其具体步骤为:合并“行人”、“骑自行车的人”和“坐着的人”三种类别,合并“卡车”、“货车”、“轿车”、“有轨电车”四种类别,并删除数据集中的部分类别,最终的类别包括行人、汽车;将数据集按照VOC数据集的文件路径存放,即标签文件夹Annotations、图片文件夹PNGImages和目录文件夹ImageSets;将数据集的注释文件由txt格式转换为xml格式;将数据集按照8:1:1的比例划分为训练集、验证集、测试集。分别生成训练集、验证集和测试集的目录txt文件,命名为train.txt、val.txt、test.txt。再根据train.txt、val.txt、test.txt生成按行存储图片绝对路径和标签位置及类别的汇总文件kitti_train.txt、kitti_val.txt、kitti_test.txt。
2)、利用k-Means算法对数据集标签中的真实目标框进行聚类分析。其中,采用框与框之间的交并比(IoU)构建距离度量函数S,函数S如下:
S=1-IoU(box1,box2) (5)
其中,
式中area表示区域的面积。
11最终得到9种不同的先验框(Anchor-box)尺寸,分别为[8,71],[9,24],[14,33],[19,54],[23,163],[26,38],[37,67],[59,109],[97,197]。
3)、利用主干网络提取数据集的视觉特征;
所述步骤3包括:
(3.1)利用Ghost模块构造Bottleneck,使用Bottleneck搭建主干网络,其中,Ghost模块的结构如图3所示,Bottleneck的结构如图4所示,搭建的主干网络结构如图5所示,主干网络可表征为函数Fθ;
(3.2)将尺寸为416×416的图像输入主干网络,分别在网络第5、第11、第16个Bottleneck后分批次输出三组不同尺寸的特征图,其尺寸分别为[52,52,40]、[26,26,112]、[13,13,160]。
该过程作如下表示:
feat1=Fθ1(x) (1)
feat2=Fθ2(feat1) (2)
feat3=Fθ3(feat2) (3)
式中x为输入图像,且x∈R3×416×416,feat1、feat2、feat3分别代表输出的三组特征值,其中feat1∈R40×52×52,feat2∈R112×26×26,feat3∈R160×13×13。
4)、对提取到的特征进行特征聚合;
所述步骤4过程如下:
(4.1)将步骤3提取的三组特征,分别输入到三个不同扩张率的空洞卷积层中,通过变化感受野,提升模型的多尺度感知能力。扩张率与感受野的关系如下式:
R=k+(k-1)×(d-1) (4)
feat1对应的空洞卷积扩张率为1,负责感知特征图中的小尺寸目标;feat2对应的空洞卷积扩张率为2,负责感知特征图中的中尺寸目标;feat3对应的空洞卷积扩张率为3,负责感知特征图中的大尺寸目标。最终,送入特征聚合网络的特征图尺寸分别为[52,52,128]、[26,26,256]、[13,13,512]
(4.2)利用深度可分离卷积构建DBM模块。DBM模块的结构如图6所示,特征图输入模块,依次送入一个逐通道卷积层,一个批次归一化层(Batch Normalization),一个ReLU6激活层,一个逐点卷积层,一个批次归一化层,再经过ReLU6激活函数后输出。
(4.3)原有YOLOv4网络中,特征聚合网络在每次拼接操作后接有5个CBM卷积模块。如图2所示,使用DBM模块替换各CBM卷积模块组中的第2个和第4个CBM模块,卷积核数量设置为原有CBM模块的2倍。
5)、将聚合后的特征输入检测头,对目标的位置和类别进行预测;利用损失函数对模型进行训练;
所述将聚合后的特征输入检测头,对目标的位置和类别进行预测的过程为:
将步骤4)聚合得到的特征图分别输入三个yolo检测头,对目标的位置和类别进行预测,各分支分别输出一组形式为N×N×3×(4+1+2)的向量,N表示该尺度分支下的特征图尺寸,3表示该尺度分支下的预测框数量,4和1分别表示预测框的坐标和置信度,2表示行人和车辆两种类别;
所述利用损失函数对模型进行训练的操作为:
(5.1)损失函数采用Complete-IoU Loss,如下式:
式中,LCIoU为预测框的位置损失,B,Bgt分别为预测框和真实框,b,bgt分别为预测框和真实框的中心点坐标,ρ2()表示欧氏距离,c包含预测框与真实框的最小矩形的对角线长度,α为权重函数,v函数用于度量长宽比的相似性,α,v函数的定义分别如下:
式(8)中,wgt,hgt分别表示真实框的宽和高,w,h分别表示预测框的宽和高。
(5.2)在Ubuntu18.04系统下配置环境,Keras框架下实现网络结构。
(5.3)输入图像尺寸为416×416,预选框使用步骤2聚类分析得到的9种尺寸,批尺寸(batch size)设为8,训练轮数设为500,基础学习率设为0.001,采用余弦退火算法进行学习率衰减。
(5.4)在KITTI训练集上进行训练。训练过程中,通过KITTI验证集的损失曲线观察网络的训练进度,训练至网络模型收敛,保存最终训练得到的权重文件。
6)、利用KITTI测试集对训练得到的网络模型进行性能测试。
所述步骤6)的操作为:
(6.1)载入训练得到的最优模型权重,将测试集送入训练好的网络模型中,经过Ghost模块搭建的主干网络进行特征提取,输出三组尺寸为[52,52,40]、[26,26,112]、[13,13,160]的特征,再经过空洞卷积后送入特征聚合网络。最终由yolo检测头得到可能包含行人、车辆等目标的边界框坐标、置信度和类别概率,利用非极大值抑制去除冗余的检测框,产生最终的检测结果。
(6.2)根据测试集的真实框位置和模型的预测结果,计算本实例网络模型的平均精度均值Map(mean Average Precision),对模型的精度进行评价。其中,IOU阈值设置为0.5。
(3)统计模型的参数量,分别测试模型在GPU和CPU上的检测速度(FPS),与现有的主流目标检测方法对比结果如表1所示:
表1
由测试结果可见,本实例的网络模型在保证精度的同时,拥有更小的参数量,检测速度较快,降低了模型对于硬件存储能力和计算能力的要求。
Claims (5)
1.一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述方法包括以下步骤:
1)将数据集划分为训练集、验证集和测试集,分别用于模型的训练和测试;
2)对数据集标签中的真实目标框进行聚类分析,分别得到9种不同的先验框尺寸;
3)利用主干网络提取数据集的视觉特征,过程如下:
利用Ghost模块构造Bottleneck,使用Bottleneck搭建主干网络。所述Ghost模块包含卷积操作和线性操作,特征图输入Ghost模块后,依次经过卷积层、归一化层和激活层后获得中间特征图,将所述中间特征图送入线性分支后与所述中间特征图堆叠后输出。每个Bottleneck包括Ghost模块、BN层和激活函数,共同构成网络参数,主干网络可表征为函数θ。将高为H,宽为W的样本数据输入主干网络,分别在网络第5、第11、第16个Bottleneck后分批次输出三组不同尺寸的特征图,该过程公式如下:
feat1=Fθ1(x) (1)
feat2=Fθ2(feat1) (2)
feat3=Fθ3(feat2) (3)
式中x为输入图像,且x∈R3×H×W,feat1、feat2、feat3分别代表输出的三组特征值,其中feat1∈R40×H×W,feat2∈R112×H×W,feat3∈R160×H×W。
4)对提取到的特征进行特征聚合,过程如下:
将步骤3)提取到的三组特征,分别输入到三个不同扩张率的空洞卷积层中,通过变化感受野,提升模型的多尺度感知能力。feat1对应的空洞卷积扩张率为1,负责感知特征图中的小尺寸目标;feat2对应的空洞卷积扩张率为2,负责感知特征图中的中尺寸目标;feat3对应的空洞卷积扩张率为3,负责感知特征图中的大尺寸目标。各层扩张率与感受野的关系如下式:
R=k+(k-1)×(d-1) (4)
式中,R为感受野尺寸,k为卷积核尺寸,d为扩张率。
将空洞卷积层输出的特征送入特征聚合网络,对特征图进行降采样、升采样、拼接、卷积和BN操作,其中卷积层由卷积模块和DBM模块构成,以进一步缩减模型参数量,输出三组聚合后的特征图用于最终的检测;
所述DBM模块结构为:特征图输入模块,依次经过一个逐通道卷积层,一个批次归一化层,一个ReLU6激活层,一个逐点卷积层,一个批次归一化层,再经过ReLU6激活函数后输出。
5)将聚合后的特征输入YOLO检测头,对目标的位置和类别进行预测;利用损失函数训练模型;
6)将测试集图像输入训练得到的网络模型进行检测,输出目标的检测结果。
2.如权利要求1所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤1)的操作为:将KITTI数据集划分为最终的训练集、验证集和测试集。其具体步骤为:合并、删除数据集中的部分类别,最终的类别包括行人、汽车;将数据集按照VOC数据集的文件路径存放;将数据集的注释文件由txt格式转换为xml格式;将数据集按照8:1:1的比例划分为训练集、验证集、测试集。
3.如权利要求1或2所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤2)的操作为:利用k-Means算法对数据集标签中的真实目标框进行聚类分析,其中,采用框与框之间的交并比(IoU)构建距离度量函数S,函数S如下:
S=1-IoU(box1,box2) (5)。
4.如权利要求1或2所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤5)的操作为:
将步骤4)聚合得到的特征图分别输入三个yolo检测头,对目标的位置和类别进行预测,各分支分别输出一组形式为N×N×3×(4+1+C)的向量,N表示该尺度分支下的特征图尺寸,3表示该尺度分支下的预测框数量,4和1分别表示预测框的坐标和置信度,C表示数据的类别数量;
利用损失函数对模型进行训练,损失函数采用Complete-IoU Loss,如下式:
式中,LCIoU为预测框的位置损失,B,Bgt分别为预测框和真实框,b,bgt分别为预测框和真实框的中心点坐标,ρ2()表示欧氏距离,c包含预测框与真实框的最小矩形的对角线长度,α为权重函数,v函数用于度量长宽比的相似性,α,v函数的定义分别如下:
式(9)中,wgt,hgt分别表示真实框的宽和高,w,h分别表示预测框的宽和高;
设置网络模型参数型输入图像的尺寸、9个先验框尺寸、识别种类的数量和标注的各种类名称、初始学习率以及学习率调整策略,对模型进行训练;训练过程中使用验证集进行验证,训练至网络模型收敛后保存最终的权重文件。
5.如权利要求1或2所述的一种基于改进YOLO v4的轻量级行人车辆检测方法,其特征在于,所述步骤6)的操作为:加载所述步骤5)训练得到的模型权重,将测试集输入网络,进行特征提取及特征聚合后,由检测头得到可能包含行人、车辆目标的边界框坐标、置信度和类别概率,利用非极大值抑制去除冗余的检测框,产生最终的检测结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110533245.0A CN113378890B (zh) | 2021-05-17 | 2021-05-17 | 一种基于改进YOLO v4的轻量级行人车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110533245.0A CN113378890B (zh) | 2021-05-17 | 2021-05-17 | 一种基于改进YOLO v4的轻量级行人车辆检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113378890A true CN113378890A (zh) | 2021-09-10 |
CN113378890B CN113378890B (zh) | 2024-03-22 |
Family
ID=77571064
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110533245.0A Active CN113378890B (zh) | 2021-05-17 | 2021-05-17 | 一种基于改进YOLO v4的轻量级行人车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113378890B (zh) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837058A (zh) * | 2021-09-17 | 2021-12-24 | 南通大学 | 一种耦合上下文聚合网络的轻量化雨水篦子检测方法 |
CN113989939A (zh) * | 2021-11-16 | 2022-01-28 | 河北工业大学 | 一种基于改进yolo算法的小目标行人检测系统 |
CN114120154A (zh) * | 2021-11-23 | 2022-03-01 | 宁波大学 | 一种高层建筑玻璃幕墙破损的自动检测方法 |
CN114782936A (zh) * | 2022-06-17 | 2022-07-22 | 南京信息工程大学 | 一种基于改进yolov5s网络的行为检测方法 |
CN114863260A (zh) * | 2022-04-11 | 2022-08-05 | 燕山大学 | 基于深度学习的Fast-YOLO实时水母检测方法 |
CN114898171A (zh) * | 2022-04-07 | 2022-08-12 | 中国科学院光电技术研究所 | 一种适用于嵌入式平台的实时目标检测方法 |
CN115100251A (zh) * | 2022-06-29 | 2022-09-23 | 福建盛海智能科技有限公司 | 一种基于热像仪和激光雷达的车前行人检测方法及终端 |
CN115661614A (zh) * | 2022-12-09 | 2023-01-31 | 江苏稻源科技集团有限公司 | 一种基于轻量化YOLO v1的目标检测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200293891A1 (en) * | 2019-04-24 | 2020-09-17 | Jiangnan University | Real-time target detection method deployed on platform with limited computing resources |
CN111738300A (zh) * | 2020-05-27 | 2020-10-02 | 复旦大学 | 一种交通标志及信号灯检测和识别的优化算法 |
CN112464910A (zh) * | 2020-12-18 | 2021-03-09 | 杭州电子科技大学 | 一种基于YOLO v4-tiny的交通标志识别方法 |
-
2021
- 2021-05-17 CN CN202110533245.0A patent/CN113378890B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20200293891A1 (en) * | 2019-04-24 | 2020-09-17 | Jiangnan University | Real-time target detection method deployed on platform with limited computing resources |
CN111738300A (zh) * | 2020-05-27 | 2020-10-02 | 复旦大学 | 一种交通标志及信号灯检测和识别的优化算法 |
CN112464910A (zh) * | 2020-12-18 | 2021-03-09 | 杭州电子科技大学 | 一种基于YOLO v4-tiny的交通标志识别方法 |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113837058B (zh) * | 2021-09-17 | 2022-09-30 | 南通大学 | 一种耦合上下文聚合网络的轻量化雨水篦子检测方法 |
CN113837058A (zh) * | 2021-09-17 | 2021-12-24 | 南通大学 | 一种耦合上下文聚合网络的轻量化雨水篦子检测方法 |
CN113989939A (zh) * | 2021-11-16 | 2022-01-28 | 河北工业大学 | 一种基于改进yolo算法的小目标行人检测系统 |
CN113989939B (zh) * | 2021-11-16 | 2024-05-14 | 河北工业大学 | 一种基于改进yolo算法的小目标行人检测系统 |
CN114120154A (zh) * | 2021-11-23 | 2022-03-01 | 宁波大学 | 一种高层建筑玻璃幕墙破损的自动检测方法 |
CN114898171A (zh) * | 2022-04-07 | 2022-08-12 | 中国科学院光电技术研究所 | 一种适用于嵌入式平台的实时目标检测方法 |
CN114898171B (zh) * | 2022-04-07 | 2023-09-22 | 中国科学院光电技术研究所 | 一种适用于嵌入式平台的实时目标检测方法 |
CN114863260A (zh) * | 2022-04-11 | 2022-08-05 | 燕山大学 | 基于深度学习的Fast-YOLO实时水母检测方法 |
CN114782936B (zh) * | 2022-06-17 | 2022-09-02 | 南京信息工程大学 | 一种基于改进yolov5s网络的行为检测方法 |
CN114782936A (zh) * | 2022-06-17 | 2022-07-22 | 南京信息工程大学 | 一种基于改进yolov5s网络的行为检测方法 |
CN115100251A (zh) * | 2022-06-29 | 2022-09-23 | 福建盛海智能科技有限公司 | 一种基于热像仪和激光雷达的车前行人检测方法及终端 |
CN115661614A (zh) * | 2022-12-09 | 2023-01-31 | 江苏稻源科技集团有限公司 | 一种基于轻量化YOLO v1的目标检测方法 |
CN115661614B (zh) * | 2022-12-09 | 2024-05-24 | 江苏稻源科技集团有限公司 | 一种基于轻量化YOLO v1的目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113378890B (zh) | 2024-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113378890B (zh) | 一种基于改进YOLO v4的轻量级行人车辆检测方法 | |
WO2022083784A1 (zh) | 一种基于车联网的道路检测方法 | |
CN114202672A (zh) | 一种基于注意力机制的小目标检测方法 | |
CN111461083A (zh) | 基于深度学习的快速车辆检测方法 | |
CN111242180B (zh) | 一种基于轻量化卷积神经网络的图像识别方法及系统 | |
CN109376580B (zh) | 一种基于深度学习的电力塔架部件识别方法 | |
CN111428558A (zh) | 一种基于改进YOLOv3方法的车辆检测方法 | |
CN111126278A (zh) | 针对少类别场景的目标检测模型优化与加速的方法 | |
CN110909794A (zh) | 一种适用于嵌入式设备的目标检测系统 | |
CN112288700A (zh) | 一种铁轨缺陷检测方法 | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN116630932A (zh) | 一种基于改进yolov5的道路遮挡目标检测方法 | |
CN115631411A (zh) | 基于sten网络对不同环境中的绝缘子破损检测方法 | |
CN113537119B (zh) | 基于改进Yolov4-tiny的输电线路连接部件检测方法 | |
CN115115973A (zh) | 一种基于多感受野与深度特征的弱小目标检测方法 | |
CN113139615A (zh) | 一种基于嵌入式设备的无人驾驶环境目标检测方法 | |
CN113657517A (zh) | 一种基于注意力机制和度量学习少样本电力缺陷检测方法 | |
US20230410465A1 (en) | Real time salient object detection in images and videos | |
CN112132207A (zh) | 基于多分支特征映射目标检测神经网络构建方法 | |
CN116129327A (zh) | 一种基于改进YOLOv7算法的红外车辆检测方法 | |
CN115861595A (zh) | 一种基于深度学习的多尺度域自适应异源图像匹配方法 | |
US11763836B2 (en) | Hierarchical generated audio detection system | |
CN115761667A (zh) | 一种基于改进fcos算法的无人车辆搭载摄像头目标检测方法 | |
CN115035408A (zh) | 基于迁移学习和注意力机制的无人机影像树种分类方法 | |
CN111626298A (zh) | 一种实时图像语义分割装置及分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |