CN113569702A - 基于深度学习的货车单双胎识别方法 - Google Patents
基于深度学习的货车单双胎识别方法 Download PDFInfo
- Publication number
- CN113569702A CN113569702A CN202110835024.9A CN202110835024A CN113569702A CN 113569702 A CN113569702 A CN 113569702A CN 202110835024 A CN202110835024 A CN 202110835024A CN 113569702 A CN113569702 A CN 113569702A
- Authority
- CN
- China
- Prior art keywords
- tire
- target
- double
- image
- detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 29
- 238000013135 deep learning Methods 0.000 title claims abstract description 13
- 238000001514 detection method Methods 0.000 claims abstract description 65
- 238000003062 neural network model Methods 0.000 claims abstract description 24
- 230000004913 activation Effects 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 10
- 230000001629 suppression Effects 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 claims description 3
- 230000003213 activating effect Effects 0.000 claims description 2
- 230000000717 retained effect Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 206010039203 Road traffic accident Diseases 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4038—Image mosaicing, e.g. composing plane images from plane sub-images
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于深度学习的货车单双胎识别方法。包括:检测车轴的位置与车胎类型:利用YOLOv5s深度神经网络模型对输入视频的每一帧进行检测,若检测到目标即轮胎,则返回目标检测类别即单/双胎,以及目标检测框即轮胎所在矩形中心点的像素坐标与矩形框的宽度和高度;对检测到的车胎进行跟踪计数:对目标检测框的检测结果进行判断,若在检测区域内,执行SORT算法,判断是不是新出现的目标,若是新出现的目标,则计数器加1,即记录增加的是单/双胎数目;否则,更新目标位置;最后,输出车胎计数结果和记录的单双胎序列。本发明能够实现对地磅上缓缓开过的货车进行单双胎的识别,有效提高货车超重检测效率。
Description
技术领域
本发明属于计算机视觉技术领域,具体涉及一种基于深度学习的货车单双胎识别方法。
背景技术
随着我国经济的迅速发展及路网结构的不断完善,我国民用载货汽车拥有量逐年增加,但因货车超载引发的道路交通事故时有发生。为有效预防和减少此类事件,货车超载检测势在必行。检测货车是否超载的做法为:根据货车轮轴数量与单双胎类型计算货车的标准载重量,与地磅测出的实际载重量进行对比,从而得出货车超载与否的结论。该方法有效地解决了人工检测成本高、不确定性强等问题,极大地提高了检测的精确度。
检测货车是否超重通常需要根据货车轮轴数量与单双胎类型计算货车的标准载重量,与地磅测出的实际载重量进行对比,从而得出货车超载与否的结论。检测过程中的一个关键步骤就是计算货车的标准载重量。传统的检测方式是用人眼对车辆车轴和车胎情况进行判断,该方法检测效率低、人工成本高且手动换算标准载重容易出错。随着人工智能技术的发展,计算机视觉技术在工业领域应用前景良好。利用摄像头代替人眼观察车轴、车胎,完成货车标准载重的计算,既节省了人力,又有录像存证,能够为后续超重处罚提供有力证据。但由于拍摄场景所限,摄像头很难拍到完整的货车车身,以现有的轮轴计数与车胎图像拼接识别技术难以满足实际应用需求。
发明内容
本发明的目的在于针对货车超重检测问题,利用基于深度学习的图像识别技术,提供一种基于深度学习的货车单双胎识别方法,能够实现对地磅上缓缓开过的货车进行单双胎的识别,有效提高货车超重检测效率。
为实现上述目的,本发明的技术方案是:一种基于深度学习的货车单双胎识别方法,包括:
S1、检测车轴的位置与车胎类型:利用YOLOv5s深度神经网络模型对输入视频的每一帧进行检测,若检测到目标即轮胎,则返回目标检测类别即单/双胎,以及目标检测框即轮胎所在矩形中心点的像素坐标与矩形框的宽度和高度;
S2、对检测到的车胎进行跟踪计数:对目标检测框的检测结果进行判断,若在检测区域内,执行SORT算法,判断是不是新出现的目标,若是新出现的目标,则计数器加1,即记录增加的是单/双胎数目;否则,更新目标位置;最后,输出车胎计数结果和记录的单双胎序列。
在本发明一实施例中,所述步骤S1具体实现如下:
S11、图像预处理:对视频的帧图像进行图像缩放处理,将图像的长边缩放到320,短边以相同比例进行缩放,然后填充一定的灰色区域,缩放后图像的尺寸记为(X,Y),X和Y的值可通过公式(1)-(5)计算得到,其中,R为缩放的比例,H和W分别为输入图像的高度和宽度,dw为缩放后图像宽度方向上需要填充灰色像素点的列数,dh为缩放后图像高度方向上需要填充像素点的行数,int为向下取整,%为取余操作;
dw=[(320-int(W×R))%64]/2 (2)
dh=[(320-int(H×R))%64]/2 (3)
X=W×R+2×dw (4)
Y=H×R+2×dh (5)
S12、将预处理后的图像输入YOLOv5s深度神经网络模型:
1)预处理后的图像首先进入YOLOv5s深度神经网络模型的Focus模块,该模块将输入图像的宽度和高度变为原来的1/4,深度方向变为原来的4倍,具体做法为间隔一个像素进行采样,然后在深度方向上进行拼接;而后,在拼接好的图像上进行一次输出通道数为64、卷积核大小为3*3、步长为1的卷积;接着,对卷积后的特征图进行归一化操作和利用LeakReLU激活函数进行激活;
2)YOLOv5s深度神经网络模型利用CONV模块与BottleneckCSP堆叠实现图像特征提取,其中,CONV模块进行卷积、归一化、激活操作,激活函数为LeakReLU;每个Concat模块有两个输入,输入的特征图高度和宽度相同,其作用是将两个输入特征图在深度方向上进行拼接;YOLOv5s深度神经网络模型的SPP模块使用三个大小分别为5、9、13的池化核做步长为1的最大池化操作,融合不同尺度下的图像特征;
3)YOLOv5s深度神经网络模型的Neck部分采用FPN+PAN的结构,即上采样与下采样形成的特征金字塔结构,Neck部分用于生成特征金字塔,在不同的层预测不同尺度的目标,能够有效加强网络特征融合的能力,检测出更多的小目标;
4)YOLOv5s深度神经网络模型输出三个特征,尺寸分别是21*10*10、21*20*20、21*40*40,可看成(4+1+2)*3,其中,4+1+2的4代表边界框的中心坐标xy和宽高wh这四个参数,1代表这个边界框为前景的置信度,2代表类别,即单/双胎,最后的*3是因为预测特征层每个像素点有三个anchor;然后,对YOLOv5s深度神经网络模型的输出进行非极大值抑制,获取最后的目标检测框和目标检测类别。
在本发明一实施例中,所述对YOLOv5s深度神经网络模型的输出进行非极大值抑制,即对YOLOv5s深度神经网络模型的输出的重叠的候选框,利用非极大值抑制找到最佳的目标候选框,具体的每个候选框都有置信度得分,对于有重叠的候选框,选取其中置信度最高的一个候选框作为最后结果,对于没有重叠的就直接保留下来,作为最后结果。
在本发明一实施例中,所述步骤S2具体实现方式如下:
考虑车胎进入检测区域是有先后顺序的,并且运行方向一般是从左到右或从右到左,因此采用下列公式计算阈值:
式中,right、left分别表示目标所在矩形框的右边界、左边界的列号;bottom、top分别表示目标所在矩形框的下边界、上边界的行号;
计算当前帧检测到的目标与上一帧检测到的目标之间的距离;如果当前帧检测到的目标能够在上一帧中找到一个目标,它们之间的距离小于阈值,则认为该目标已经出现过,若在上一帧中找不到任何一个目标与当前帧中的该目标距离小于阈值,则认为该目标是当前帧新出现的目标,在每次计数器增加时,记录增加的是单胎还是双胎,最后输出车胎计数结果和记录的单双胎序列。
相较于现有技术,本发明具有以下有益效果:本发明方法实现对地磅上缓缓开过的货车进行车轴计数及车胎类型的实时判断,本发明方法使用YOLOv5s深度学习模型检测目标所在图像区域,将目标区域输入SORT算法进行跟踪计数,借此快速识别货车车轴数量与车胎类型。实验结果表明,基于深度学习的货车车轴计数与单双胎的识别准确率高、实时性强,具有广泛的应用前景。
附图说明
图1为本发明方法的流程图。
图2为图像预处理结果:(a)原图像,(b)预处理后图像。
图3为Focus模块对图像的处理。
图4为LeakReLU激活函数。
图5为YOLOv5s结构图。
图6为BottlenneckCSP结构图。
图7为SPP结构图。
具体实施方式
下面结合附图,对本发明的技术方案进行具体说明。
如图1所示,本发明一种基于深度学习的货车单双胎识别方法,包括:
S1、检测车轴的位置与车胎类型:利用YOLOv5s深度神经网络模型对输入视频的每一帧进行检测,若检测到目标即轮胎,则返回目标检测类别即单/双胎,以及目标检测框即轮胎所在矩形中心点的像素坐标与矩形框的宽度和高度;
S2、对检测到的车胎进行跟踪计数:对目标检测框的检测结果进行判断,若在检测区域内,执行SORT算法,判断是不是新出现的目标,若是新出现的目标,则计数器加1,即记录增加的是单/双胎数目;否则,更新目标位置;最后,输出车胎计数结果和记录的单双胎序列。
以下为本发明具体实现流程。
1、检测车轴的位置与车胎类型
将摄像头拍摄到的视频流作为本发明算法的输入,算法利用YOLOv5s深度神经网络模型对输入视频的每一帧进行检测,如果检测到目标(轮胎),就返回目标的类型(即单双胎)以及目标的位置,即轮胎所在矩形中心点的像素坐标与矩形框的宽度和高度,具体步骤如下:
1)图像预处理:对视频的帧图像进行图像缩放(resize)处理,为保证图像不因缩放而变形,将图像的长边缩放到320,短边以相同比例进行缩放,然后填充一定的灰色区域,缩放后图像的尺寸记为(X,Y)。X和Y的值可通过公式(1)-(5)计算得到,其中,R为缩放的比例,H和W分别为输入图像的高度和宽度,dw为缩放后图像宽度方向上需要填充灰色像素点的列数,dh为缩放后图像高度方向上需要填充像素点的行数,int为向下取整,%为取余操作。图像预处理结果如图2所示。
dw=[(320-int(W×R))%64]/2 (2)
dh=[(320-int(H×R))%64]/2 (3)
X=W×R+2×dw (4)
Y=H×R+2×dh (5)
2)将预处理后的图像输入网络YOLOv5s:预处理后的图像首先进入此神经网络模型的Focus模块,该模块将输入图像的宽度和高度变为原来的1/4,深度方向变为原来的4倍,具体做法为间隔一个像素进行采样,然后在深度方向上进行拼接,如图3所示。
然后,在拼接好的图像上进行一次输出通道数为64、卷积核大小为3*3、步长为1的卷积。接着,对卷积后的特征图进行归一化操作和利用LeakReLU激活函数进行激活。LeakReLU激活函数如图4所示。
YOLOv5s主要利用CONV模块与BottleneckCSP堆叠实现图像特征提取,其中,CONV模块进行卷积、归一化、激活操作,激活函数为LeakReLU。图5是YOLOv5s的结构图,其中,Focus和CONV模块括号内的数字依次代表输入特征通道数、输出特征通道数、卷积核大小、卷积操作步长。BottleneckCSP模块括号内的数字依次代表输入的通道数、输出的通道数;括号后有“×3”的字样表示连续三个相同模块Backbone中BottleneckCSP模块拥有相同的输入输出通道数,其借鉴残差网络间BottleneckCSP的输入与输出做一个加法,实现特征融合,具体结构如图6所示。每个Concat模块有两个输入,输入的特征图高度和宽度相同,其作用是将两个输入特征图在深度方向上进行拼接。SPP模块结构如图7所示,使用三个大小分别为5、9、13的池化核做步长为1的最大池化操作,融合不同尺度下的图像特征。
YOLOv5s的Neck部分采用FPN+PAN的结构,Neck部分主要用于生成特征金字塔。特征金字塔会增强模型对于不同缩放尺度对象的检测,能够识别不同大小和尺度的同一类物体。FPN是自上而下的结构,利用上采样方式对信息进行传递融合,获得预测的特征图,可以提高小尺寸目标的检测效果。而PAN在FPN的基础上加了一个自底向上的增强(采用自底向上的特征金字塔),使得顶层feature map可以享受到底层带来的丰富的位置信息,从而提升了大物体的检测效果。这种利用上采样与下采样形成的特征金字塔结构,在不同的层预测了不同尺度的目标,能够有效加强网络特征融合的能力,检测出更多的小目标。
YOLOv5s网络会输出三个特征,尺寸分别是21*10*10、21*20*20、21*40*40,可以看成(4+1+2)*3,其中,4+1+2的4代表边界框的中心坐标xy和宽高wh这四个参数,1代表这个边界框为前景的置信度,2代表类别(单胎、双胎),最后的*3是因为预测特征层每个像素点有三个anchor。然后,对模型的输出进行非极大值抑制,获取最后的物体检测框和物体检测类别。非极大值抑制,简称NMS算法(Non-Maximum Suppression),其思想是搜索局部最大值,抑制不是极大值的元素。检测过程中,同一个目标位置会产生大量的候选框,这些候选框之间可能会有重叠,需要利用非极大值抑制找到最佳的目标候选框。每个候选框都有置信度得分,对于有重叠的候选框,选取其中置信度最高的一个候选框作为最后结果,对于没有重叠的就直接保留下来,作为最后结果。
2、对检测到的车胎进行跟踪计数
对目标候选框的检测结果进行判断,如果在检测区域内,执行SORT算法,判断是不是新出现的目标。如果是新目标,则计数器加1;否则,更新目标位置。
原始的SORT算法要先计算当前帧的所有检测框与上一帧所有检测框的IoU(Intersection over Union),然后判断IoU值是否大于阈值,决定是否需要进行跟踪。这里,我们考虑车胎进入检测区域是有先后顺序的,并且运行方向一般是从左到右或从右到左,没必要计算IoU,因此改为采用下列公式计算阈值。
式中,right、left分别表示目标所在矩形框的右边界、左边界的列号;bottom、top分别表示目标所在矩形框的下边界、上边界的行号;
计算当前帧检测到的目标与上一帧检测到的目标之间的距离。如果当前帧检测到的目标能够在上一帧中找到一个目标,它们之间的距离小于阈值,则认为该目标已经出现过。若在上一帧中找不到任何一个目标与当前帧中的该目标距离小于阈值,则认为该目标是当前帧新出现的目标。在每次计数器增加时,记录增加的是单胎还是双胎。算法结束,输出车胎计数结果和记录的单双胎序列。
3、实验结果
判断货车是否超重的关键是确定货车的车轴数量与车胎类型,推算出货车的标准载重量,与地磅测出的实际载重量进行对比。为了验证本发明方法对车轴计数和车胎类型判断的有效性和实时性,本发明选用不同时间段在福州高速西物流园采集的视频作为测试样本,共有15段视频,每段视频有一辆货车通过,检测结果如表1所示。为验证本发明方法的实时性,本发明对每一段视频每一帧检测的平均时间进行统计,如表2-3所示。本发明方法的运行效率较高,满足快速输出货车车轴数量与车胎类型的实时性要求。
本发明方法采用Python编程,实验运行在3.19GHz Intel CoreTM i7-8700CPU、16G内存和GTX1050ti(4G)显卡的台式电脑上。仅仅使用CPU时,本发明方法的总时间为检测时间加跟踪时间,当使用GPU加速时,总时间还需要额外加上将模型放上GPU的时间,大约0.572~0.600s。
表1本发明算法检测15段视频的结果统计
表2本发明算法在15段测试视频的运行时间(仅使用CPU)
视频序号 | 视频帧数 | 检测时间(s) | 跟踪时间(s) | 总时间(s) |
1 | 249 | 10.657 | 3.667 | 14.324 |
2 | 295 | 13.005 | 3.903 | 16.908 |
3 | 300 | 13.220 | 4.562 | 17.782 |
4 | 236 | 10.277 | 3.633 | 13.910 |
5 | 428 | 18.294 | 5.953 | 24.247 |
6 | 549 | 23.837 | 7.899 | 31.736 |
7 | 272 | 11.956 | 4.319 | 16.275 |
8 | 801 | 34.185 | 9.423 | 43.608 |
9 | 307 | 13.385 | 4.683 | 18.068 |
10 | 238 | 10.398 | 3.597 | 13.955 |
11 | 287 | 12.713 | 4.157 | 16.870 |
12 | 293 | 12.802 | 4.530 | 17.332 |
13 | 281 | 12.320 | 4.262 | 16.582 |
14 | 297 | 11.825 | 3.875 | 15.700 |
15 | 300 | 13.122 | 4.422 | 17.544 |
表3本发明算法在15段测试视频的运行时间(使用GPU加速)
视频序号 | 视频帧数 | 检测时间(s) | 跟踪时间(s) | 总时间(s) |
1 | 249 | 2.010 | 2.745 | 5.344 |
2 | 295 | 2.437 | 2.687 | 5.722 |
3 | 300 | 2.439 | 3.609 | 6.644 |
4 | 236 | 1.819 | 2.340 | 4.759 |
5 | 428 | 3.479 | 4.668 | 8.731 |
6 | 549 | 4.444 | 5.682 | 10.722 |
7 | 272 | 2.288 | 3.832 | 6.706 |
8 | 801 | 6.462 | 6.609 | 13.668 |
9 | 307 | 2.505 | 3.320 | 6.411 |
10 | 238 | 1.925 | 2.248 | 4.745 |
11 | 287 | 2.395 | 2.914 | 5.885 |
12 | 293 | 2.441 | 3.483 | 6.496 |
13 | 281 | 2.325 | 3.278 | 6.178 |
14 | 297 | 2.189 | 2.801 | 5.563 |
15 | 300 | 2.491 | 3.374 | 6.436 |
以上是本发明的较佳实施例,凡依本发明技术方案所作的改变,所产生的功能作用未超出本发明技术方案的范围时,均属于本发明的保护范围。
Claims (4)
1.一种基于深度学习的货车单双胎识别方法,其特征在于,包括:
S1、检测车轴的位置与车胎类型:利用YOLOv5s深度神经网络模型对输入视频的每一帧进行检测,若检测到目标即轮胎,则返回目标检测类别即单/双胎,以及目标检测框即轮胎所在矩形中心点的像素坐标与矩形框的宽度和高度;
S2、对检测到的车胎进行跟踪计数:对目标检测框的检测结果进行判断,若在检测区域内,执行SORT算法,判断是不是新出现的目标,若是新出现的目标,则计数器加1,即记录增加的是单/双胎数目;否则,更新目标位置;最后,输出车胎计数结果和记录的单双胎序列。
2.根据权利要求1所述的基于深度学习的货车单双胎识别方法,其特征在于,所述步骤S1具体实现如下:
S11、图像预处理:对视频的帧图像进行图像缩放处理,将图像的长边缩放到320,短边以相同比例进行缩放,然后填充一定的灰色区域,缩放后图像的尺寸记为(X,Y),X和Y的值可通过公式(1)-(5)计算得到,其中,R为缩放的比例,H和W分别为输入图像的高度和宽度,dw为缩放后图像宽度方向上需要填充灰色像素点的列数,dh为缩放后图像高度方向上需要填充像素点的行数,int为向下取整,%为取余操作;
dw=[(320-int(W×R))%64]/2 (2)
dh=[(320-int(H×R))%64]/2 (3)
X=W×R+2×dw (4)
Y=H×R+2×dh (5)
S12、将预处理后的图像输入YOLOv5s深度神经网络模型:
1)预处理后的图像首先进入YOLOv5s深度神经网络模型的Focus模块,该模块将输入图像的宽度和高度变为原来的1/4,深度方向变为原来的4倍,具体做法为间隔一个像素进行采样,然后在深度方向上进行拼接;而后,在拼接好的图像上进行一次输出通道数为64、卷积核大小为3*3、步长为1的卷积;接着,对卷积后的特征图进行归一化操作和利用LeakReLU激活函数进行激活;
2)YOLOv5s深度神经网络模型利用CONV模块与BottleneckCSP堆叠实现图像特征提取,其中,CONV模块进行卷积、归一化、激活操作,激活函数为LeakReLU;每个Concat模块有两个输入,输入的特征图高度和宽度相同,其作用是将两个输入特征图在深度方向上进行拼接;YOLOv5s深度神经网络模型的SPP模块使用三个大小分别为5、9、13的池化核做步长为1的最大池化操作,融合不同尺度下的图像特征;
3)YOLOv5s深度神经网络模型的Neck部分采用FPN+PAN的结构,即上采样与下采样形成的特征金字塔结构,Neck部分用于生成特征金字塔,在不同的层预测不同尺度的目标,能够有效加强网络特征融合的能力,检测出更多的小目标;
4)YOLOv5s深度神经网络模型输出三个特征,尺寸分别是21*10*10、21*20*20、21*40*40,可看成(4+1+2)*3,其中,4+1+2的4代表边界框的中心坐标xy和宽高wh这四个参数,1代表这个边界框为前景的置信度,2代表类别,即单/双胎,最后的*3是因为预测特征层每个像素点有三个anchor;然后,对YOLOv5s深度神经网络模型的输出进行非极大值抑制,获取最后的目标检测框和目标检测类别。
3.根据权利要求2所述的基于深度学习的货车单双胎识别方法,其特征在于,所述对YOLOv5s深度神经网络模型的输出进行非极大值抑制,即对YOLOv5s深度神经网络模型的输出的重叠的候选框,利用非极大值抑制找到最佳的目标候选框,具体的每个候选框都有置信度得分,对于有重叠的候选框,选取其中置信度最高的一个候选框作为最后结果,对于没有重叠的就直接保留下来,作为最后结果。
4.根据权利要求1所述的基于深度学习的货车单双胎识别方法,其特征在于,所述步骤S2具体实现方式如下:
考虑车胎进入检测区域是有先后顺序的,并且运行方向一般是从左到右或从右到左,因此采用下列公式计算阈值:
式中,right、left分别表示目标所在矩形框的右边界、左边界的列号;bottom、top分别表示目标所在矩形框的下边界、上边界的行号;
计算当前帧检测到的目标与上一帧检测到的目标之间的距离;如果当前帧检测到的目标能够在上一帧中找到一个目标,它们之间的距离小于阈值,则认为该目标已经出现过,若在上一帧中找不到任何一个目标与当前帧中的该目标距离小于阈值,则认为该目标是当前帧新出现的目标,在每次计数器增加时,记录增加的是单胎还是双胎,最后输出车胎计数结果和记录的单双胎序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110835024.9A CN113569702B (zh) | 2021-07-23 | 2021-07-23 | 基于深度学习的货车单双胎识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110835024.9A CN113569702B (zh) | 2021-07-23 | 2021-07-23 | 基于深度学习的货车单双胎识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113569702A true CN113569702A (zh) | 2021-10-29 |
CN113569702B CN113569702B (zh) | 2023-10-27 |
Family
ID=78166637
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110835024.9A Active CN113569702B (zh) | 2021-07-23 | 2021-07-23 | 基于深度学习的货车单双胎识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113569702B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453075A (zh) * | 2023-06-14 | 2023-07-18 | 山东省科学院海洋仪器仪表研究所 | 一种基于图像处理的轮轴识别方法及系统 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977812A (zh) * | 2019-03-12 | 2019-07-05 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110991272A (zh) * | 2019-11-18 | 2020-04-10 | 东北大学 | 一种基于视频跟踪的多目标车辆轨迹识别方法 |
CN112257569A (zh) * | 2020-10-21 | 2021-01-22 | 青海城市云大数据技术有限公司 | 一种基于实时视频流的目标检测和识别方法 |
CN112307921A (zh) * | 2020-10-22 | 2021-02-02 | 桂林电子科技大学 | 一种车载端多目标识别跟踪预测方法 |
CN112580439A (zh) * | 2020-12-01 | 2021-03-30 | 中国船舶重工集团公司第七0九研究所 | 小样本条件下的大幅面遥感图像舰船目标检测方法及系统 |
CN112699859A (zh) * | 2021-03-24 | 2021-04-23 | 华南理工大学 | 目标检测方法、装置、存储介质及终端 |
-
2021
- 2021-07-23 CN CN202110835024.9A patent/CN113569702B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109977812A (zh) * | 2019-03-12 | 2019-07-05 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110991272A (zh) * | 2019-11-18 | 2020-04-10 | 东北大学 | 一种基于视频跟踪的多目标车辆轨迹识别方法 |
CN112257569A (zh) * | 2020-10-21 | 2021-01-22 | 青海城市云大数据技术有限公司 | 一种基于实时视频流的目标检测和识别方法 |
CN112307921A (zh) * | 2020-10-22 | 2021-02-02 | 桂林电子科技大学 | 一种车载端多目标识别跟踪预测方法 |
CN112580439A (zh) * | 2020-12-01 | 2021-03-30 | 中国船舶重工集团公司第七0九研究所 | 小样本条件下的大幅面遥感图像舰船目标检测方法及系统 |
CN112699859A (zh) * | 2021-03-24 | 2021-04-23 | 华南理工大学 | 目标检测方法、装置、存储介质及终端 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116453075A (zh) * | 2023-06-14 | 2023-07-18 | 山东省科学院海洋仪器仪表研究所 | 一种基于图像处理的轮轴识别方法及系统 |
CN116453075B (zh) * | 2023-06-14 | 2023-09-08 | 山东省科学院海洋仪器仪表研究所 | 一种基于图像处理的货车轮轴识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113569702B (zh) | 2023-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109190444B (zh) | 一种基于视频的收费车道车辆特征识别系统的实现方法 | |
CN109740463A (zh) | 一种车载环境下的目标检测方法 | |
CN103824081B (zh) | 一种室外恶劣光照条件下的快速鲁棒交通标志检测方法 | |
CN114743119B (zh) | 基于无人机的高铁接触网吊弦螺母缺陷检测方法 | |
CN111652296A (zh) | 一种基于深度学习的铁路货车下拉杆折断故障检测方法 | |
CN111626170B (zh) | 一种铁路边坡落石侵限检测的图像识别方法 | |
CN101968924A (zh) | 基于高分辨率图像的车流量实时检测方法 | |
CN103679205A (zh) | 基于阴影假设和分层hog对称特征验证的前车检测方法 | |
CN111523415A (zh) | 一种基于图像的两客一危车辆检测方法和装置 | |
CN113553916B (zh) | 一种基于卷积神经网络的轨道危险区域障碍物检测方法 | |
CN111079675A (zh) | 基于目标检测与目标跟踪的行驶行为分析方法 | |
CN111738336A (zh) | 基于多尺度特征融合的图像检测方法 | |
CN107315998A (zh) | 基于车道线的车辆种类划分方法和系统 | |
CN105426863A (zh) | 检测车道线的方法和装置 | |
CN111915583A (zh) | 复杂场景中基于车载红外热像仪的车辆和行人检测方法 | |
CN108764115A (zh) | 一种卡车危险提醒方法 | |
CN105404859A (zh) | 一种基于池化车辆图片原始特征的车型识别方法 | |
CN106407951A (zh) | 一种基于单目视觉的夜间前方车辆检测方法 | |
Mammeri et al. | North-American speed limit sign detection and recognition for smart cars | |
CN113569702B (zh) | 基于深度学习的货车单双胎识别方法 | |
CN115272850A (zh) | 一种铁路货车bab型闸调器拉杆头折断故障识别方法 | |
CN115205813A (zh) | 一种基于卷积神经网络的多视角道路车辆匹配系统及方法 | |
CN117351298A (zh) | 一种基于深度学习的矿山作业车辆检测方法及系统 | |
CN113033363A (zh) | 一种基于深度学习的车辆稠密目标检测方法 | |
Lu et al. | Road condition detection based on deep learning YOLOv5 network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |