CN116503709A - 一种基于改进YOLOv5的雾霾天气下车辆检测方法 - Google Patents
一种基于改进YOLOv5的雾霾天气下车辆检测方法 Download PDFInfo
- Publication number
- CN116503709A CN116503709A CN202310392240.XA CN202310392240A CN116503709A CN 116503709 A CN116503709 A CN 116503709A CN 202310392240 A CN202310392240 A CN 202310392240A CN 116503709 A CN116503709 A CN 116503709A
- Authority
- CN
- China
- Prior art keywords
- image
- vehicle
- information
- improved
- yolov5
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 62
- 238000000034 method Methods 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 230000007246 mechanism Effects 0.000 claims abstract description 9
- 238000012549 training Methods 0.000 claims abstract description 8
- 238000004519 manufacturing process Methods 0.000 claims abstract description 3
- 230000008569 process Effects 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000002834 transmittance Methods 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 claims description 6
- 230000004927 fusion Effects 0.000 claims description 5
- 238000012512 characterization method Methods 0.000 claims description 3
- 230000007547 defect Effects 0.000 claims description 3
- 230000005764 inhibitory process Effects 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 238000004088 simulation Methods 0.000 claims description 3
- 238000012360 testing method Methods 0.000 claims description 3
- 230000008859 change Effects 0.000 claims description 2
- 239000003595 mist Substances 0.000 claims description 2
- 238000012545 processing Methods 0.000 claims description 2
- 238000010606 normalization Methods 0.000 claims 1
- 238000009826 distribution Methods 0.000 abstract description 4
- 238000012544 monitoring process Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于改进YOLOv5的雾霾天气下车辆检测方法,该方法包括:通过大气散射模型生成两种不同浓度的数据集,制作针对雾霾天气的特有数据集;使用改进Mosaic增强方法进行数据预处理;构建基于YOLOv5的目标检测模型,在YOLOV5网络中添加具有更强的特征提取能力的Swin Transformer block提取特征,增添CBAM注意力机制;对目标检测模型进行迭代训练,获得改进YOLOv5的目标检测模型;将待检测的图像或视频流数据输入训练好的目标检测模型中,通过基于改进YOLOv5的车辆检测模型来进行雾霾天气场景下的车辆检测。本发明可以解决雾霾天气下数据采集到的图像灰度分布集中、图像信息差、色彩失真、车辆遮挡导致的错检、检测精度低且漏检率较高等问题。
Description
技术领域
本发明属于计算机视觉目标检测技术领域,尤其是设计一种基于改进YOLOv5的雾霾天气下车辆检测方法。
背景技术
我国的汽车保有量已达到了4.08亿辆。随着汽车数量的不断增长和交通管理系统的不及时更新是城市道路交通拥堵的重要原因,构建出了全新的智能交通系统来替代传统交通系统,是未来发展的必然趋势,也是目前的研究热点。
在现实中,常常遇见雨雪、雾霾、沙尘等情况,在这些恶劣天气下,城市安防、高速监控、侦查监视的传感器性能会急剧下降甚至失效,导致计算机系统所采集到的图像出现细节丢失、噪声增加、对比度下降等退化问题,对图像特征提取、检测分割、目标识别等后期处理造成巨大影响。例如雾霾是最常见的影响视觉效果的极端天气,而此类恶劣天气条件造成的图像视觉扭曲会影响许多户外视觉系统的性能,从而对目标识别的准确率产生负面影响。
YOLOv5(具体为YOLOv5s)是YOLO家族中最新的检测模型,具有较快的推断(检测)速度。此外,YOLOv5s是一种轻量级模型,模型参数更少,约为通用YOLOv4的10%,这表明该模型可能更适合部署在嵌入式设备上进行实时对象检测。兼具检测速度快、准确率高的良好性能,结合以上优点,本研究尝试使用改进的YOLOv5对雾霾天气下车辆进行检测。以提高车辆在雾霾天气中车辆检测的准确率,同时降低误检和漏检率。
发明内容
针对现有技术存在的问题,本发明提供一种基于改进YOLOv5的雾霾天气下车辆检测方法,结合Swin Transformer block结构,以解决雾霾天气下数据采集到的图像灰度分布集中、图像信息差、色彩失真、车辆遮挡导致的错检、检测精度低且漏检率较高等问题。
本发明采用以下技术方案实现。
一种基于改进YOLOv5的车辆检测方法,其特征在于,所述方法包括如下步骤:
步骤一:数据集的制作:制作雾霾天气的车辆目标检测数据集;
步骤二:数据预处理:对S1中的数据进行图像预处理:采用改进Mosaic数据增强方法对车辆数据信息进行处理;
步骤三:将S2预处理后的图像送入基于改进YOLOv5的车辆检测模型:在模型中结合先进的YOLOv5s和Swin-transformer结构,同时加入CMBA自注意力机制;
步骤四:将待检测的图像或视频流数据输入训练好的目标检测模型中,通过基于改进YOLOv5的车辆检测模型来进行雾霾天气场景下的车辆检测。
所述步骤一中雾霾天气的车辆目标检测数据集的构建具体过程如下:
(1)采用BDD100K数据集为原始数据集,从中选取部分白天场景的图像数据;
(2)通过大气散射模型生成轻微、中等和严重三种不同浓度的数据集进行扩充,扩充到10000张,数据集包括训练集和测试集,比例为4:1;
具体利用大气散射模型进行仿真,大气散射模型的数学表达式:
,式中:/>为有雾图像;/>为无雾图像; />为透射率;/>为大气光值,取最大灰度图的像素点值作为大气光值;
其中大气透射率预估值计算式为:
,式中:/>表示散射系数,轻微设置为1.0,中等设置为1.5,严重设为2.0;/>为成像物体到成像设备之间的距离。
所述步骤二中对雾霾场景中图像进行预处理的具体过程如下:
(1)利用改进的Mosaic数据增强方法是将八张图片进行随机裁剪、翻转、缩放和色域变换,根据拼接图片的矩形面积对灰色背景进行裁剪。将其按照预设顺序拼接在一张图片上,将图片缩放传入模型。
所述步骤三中的主干网络的具体过程如下:
(1)使用比传统ResNet的网络具有更强的特征提取能力的Swin Transformerblock作为主干网络提取特征,替换掉YOLOv5原始的最后C3层(即CSP瓶颈和三个CONVs)。Swin-transformer是一种新型的分层视觉转换器骨干网络,它使用了一种多头自注意力机制,可以专注于一系列图像补丁,以编码全局、局部和上下文线索,具有一定的灵活性,特别是,它对来自前景对象、随机斑块位置和非显著背景区域的严重遮挡表现出较强的鲁棒性,适合于在雾霾天气下的车辆检测,两者的结合可以继承它们的优点,同时保留全局和局部特征,所以在架构上结合先进的YOLOv5s和Swin-transformer结构;
(2)结合YOLOv5s和Swin-transformer结构可以提高雾霾天气下车辆检测的准确性,但是会导致检测到的边界框数量的检测误差,为了解决这个问题,通过在yolo.py中引入相应的attention模块的方式插入CBAM注意力机制,同时改变主干网络和输出端网络的C3结构实现,通过融合通道信息和空间信息来提取信息特征,可以从两个维度上加强低能见度目标的表征信息;
(3)将经过步骤一、步骤二加雾和数据增强等预处理后,将608*608*3的图像输入Focus结构对图像进行切片和拼接,然后使用卷积层(CONV)生成输出304×304×12特征图,再经过一次32个卷积核的卷积操作,最终变成304×304×32的特征图。Focus模块可以减少模型的计算负荷,加快训练过程;
(4)将步骤一中得到的304×304×32的特征图送入到改进后的YOLOv5主干网络的进行特征提取,由于骨干网末端特征映射的分辨率为20×20,在低分辨率特征映射上应用Swin-transformer可以减少计算量,节省内存空间。这种集成可以弥补YOLOv5由于接受域有限而无法捕获全局和上下文信息的缺点,而Swin-transformer可以捕获长距离依赖关系并保留不同的局部信息,提高了在雾霾条件下网络对车辆的特征信息能力;
(5)将步骤二中得到的多尺度特征图送入网络的Neck模块,采用了FPN+PAN的结构,经过一个C3的卷积模块,再将特征层串行通过多个池化核大小为5×5的最大池化层,然后在通道方向进行concat拼接再做进一步融合,得到进行预测的特征图。通过 FPN 和 PAN对图像进行多尺度特征融合,其中FPN 结构通过自顶向下进行上采样,上层特征图因为网络层数更深,包含的车辆语义信息也就更强,PAN 结构自底向上进行下采样,下层特征因为经过的卷积层数较少,车辆的位置信息损失就更少,两个特征最后进行融合,使不同尺寸的特征图都包含图像语义信息和图像特征信息,保证了对不同尺寸的图片的准确预测。丰富了在雾霾条件下对车辆的图像语义信息和图像特征信息。
所述步骤四中车辆检测结果具体过程如下:
(1)通过头部检测网络得到表示边界框偏移量、置信度、类别和先验框,且每个尺度输出都有三个不同尺寸的先验框。通过非极大值抑制输出的候选框映射成原图大小,框选出图像中的目标物体,最终得出检测结果。
本发明的有益效果是:
与传统深度学习车辆目标检测算法相比,增加了在雾霾天气环境下对数据集图像的预处理步骤,与传统视觉检测方法混合可以更好的增强与保留雾霾天气下车辆的特征,比现有技术识别率高的情况下降低网络功耗、内存和训练工作方面的要求,从而能够更好的完成雾霾天气下车辆检测任务;
通过改进的YOLOv5s模型,利用具有更强的特征提取能力的Swin Transformerblock和即插即用的轻量级卷积注意力模块CBAM,本发明可以解决雾霾天气下数据采集到的图像灰度分布集中、图像信息差、色彩失真、车辆遮挡、导致的错检、检测精度低且漏检率较高等问题。
附图说明
图1是本发明的一种基于改进YOLOv5的雾霾天气下车辆检测方法的总体流程图;
图2为本发明的YOLOv5网络结构框架图;
图3是本发明的Swin transfomer block结构示意图。
具体实施方式
对于本领域的技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。下面结合附图和实施例对本发明的技术方案做进一步的说明。
针对现有技术存在的问题,本发明提供一种基于改进YOLOv5的雾霾天气下车辆检测方法,结合Swin Transformer block结构,以解决雾霾天气下数据采集到的图像灰度分布集中、图像信息差、色彩失真、车辆遮挡、导致的错检、检测精度低且漏检率较高等问题。
Step1.1采用BDD100K数据集为原始数据集,从中选取部分白天场景的图像数据。
Step1.2通过大气散射模型生成轻微、中等和严重三种不同浓度的数据集进行扩充,扩充到10000张,数据集包括训练集和测试集,比例为4:1;
具体利用大气散射模型进行仿真,大气散射模型的数学表达式:
,式中:/>为有雾图像;/>为无雾图像; />为透射率;/>为大气光值,取最大灰度图的像素点值作为大气光值;
其中大气透射率预估值计算式为:
,式中:/>表示散射系数,轻微设置为1.0,中等设置为1.5,严重设为2.0;/>为成像物体到成像设备之间的距离。
Step2.1 利用改进的Mosaic数据增强方法是将八张图片进行随机裁剪、翻转、缩放和色域变换,根据拼接图片的矩形面积对灰色背景进行裁剪。将其按照预设顺序拼接在一张图片上,将图片缩放传入模型。
Step3.1使用比传统ResNet的网络具有更强的特征提取能力的Swin Transformerblock作为主干网络提取特征,替换掉YOLOv5原始的最后C3层(即CSP瓶颈和三个CONVs)。Swin-transformer是一种新型的分层视觉转换器骨干网络,它使用了一种多头自注意力机制,可以专注于一系列图像补丁,以编码全局、局部和上下文线索,具有一定的灵活性,特别是,它对来自前景对象、随机斑块位置和非显著背景区域的严重遮挡表现出较强的鲁棒性,适合于在雾霾天气下的车辆检测,两者的结合可以继承它们的优点,同时保留全局和局部特征,所以在架构上结合先进的YOLOv5s和Swin-transformer结构。
Step3.2具体结构流程如下:
Step3.2结合YOLOv5s和Swin-transformer结构可以提高雾霾天气下车辆检测的准确性,但是会导致检测到的边界框数量的检测误差,为了解决这个问题,通过在yolo.py中引入相应的attention模块的方式插入CBAM注意力机制,同时改变主干网络和输出端网络的C3结构实现,通过融合通道信息和空间信息来提取信息特征,可以从两个维度上加强低能见度目标的表征信息。
Step3.4将经过Step1、Step2加雾和数据增强等预处理后,将608*608*3的图像输入Focus结构对图像进行切片和拼接,然后使用卷积层(CONV)生成输出304×304×12特征图,再经过一次32个卷积核的卷积操作,最终变成304×304×32的特征图。Focus模块可以减少模型的计算负荷,加快训练过程。
Step3.5将Step1中得到的304×304×32的特征图送入到改进后的YOLOv5主干网络的进行特征提取,由于骨干网末端特征映射的分辨率为20×20,在低分辨率特征映射上应用Swin-transformer可以减少计算量,节省内存空间。这种集成可以弥补YOLOv5由于接受域有限而无法捕获全局和上下文信息的缺点,而Swin-transformer可以捕获长距离依赖关系并保留不同的局部信息,提高了在雾霾条件下网络对车辆的特征信息能力。
Step3.6将Step2中得到的多尺度特征图送入网络的Neck模块,采用了FPN+PAN的结构,经过一个C3的卷积模块,再将特征层串行通过多个池化核大小为5×5的最大池化层,然后在通道方向进行concat拼接再做进一步融合,得到进行预测的特征图。通过 FPN 和PAN 对图像进行多尺度特征融合,其中FPN 结构通过自顶向下进行上采样,上层特征图因为网络层数更深,包含的车辆语义信息也就更强,PAN 结构自底向上进行下采样,下层特征因为经过的卷积层数较少,车辆的位置信息损失就更少,两个特征最后进行融合,使不同尺寸的特征图都包含图像语义信息和图像特征信息,保证了对不同尺寸的图片的准确预测。丰富了在雾霾条件下对车辆的图像语义信息和图像特征信息。
Step3.7通过头部检测网络得到表示边界框偏移量、置信度、类别和先验框,且每个尺度输出都有三个不同尺寸的先验框。通过非极大值抑制输出的候选框映射成原图大小,框选出图像中的目标物体,最终得出检测结果。
Claims (5)
1.一种基于改进YOLOv5的雾霾天气下车辆检测方法,其特征在于,包括如下步骤:
Step1:制作数据集:制作雾霾天气的车辆目标检测数据集;
Step2:数据预处理:对Step1中的数据进行图像预处理:采用改进Mosaic数据增强方法对车辆数据信息进行处理;
Step3:将Step2预处理后的图像送入基于改进YOLOv5的车辆检测模型:在模型中结合先进的YOLOv5s和Swin-transformer结构,同时加入CMBA自注意力机制;
Step4:将待检测的图像或视频流数据输入训练好的目标检测模型中,通过基于改进YOLOv5的车辆检测模型来进行雾霾天气场景下的车辆检测。
2.根据权利要求1所述的一种基于改进YOLOv5的雾霾天气下车辆检测方法,其特征在于,在步骤Step1中的具体过程如下:Step1.1采用BDD100K数据集为原始数据集,从中选取部分白天场景的图像数据;
Step1.2通过大气散射模型生成轻微、中等和严重三种不同浓度的数据集进行扩充,扩充到10000张,数据集包括训练集和测试集,比例为4:1;
具体利用大气散射模型进行仿真,大气散射模型的数学表达式:
式中:为有雾图像;/>为无雾图像; />为透射率;/>为大气光值,取最大灰度图的像素点值作为大气光值;
其中大气透射率预估值计算式为:
式中:表示散射系数,轻微设置为1.0,中等设置为1.5,严重设为2.0;/>为成像物体到成像设备之间的距离。
3.根据权利要求2所述的一种基于改进YOLOv5的雾霾天气下车辆检测方法,其特征在于,所述步骤Step2中的具体过程如下:
Step2.1 利用改进的Mosaic数据增强方法是将八张图片进行随机裁剪、翻转、缩放和色域变换,根据拼接图片的矩形面积对灰色背景进行裁剪。将其按照预设顺序拼接在一张图片上,将图片缩放传入模型。
4.根据权利要求1所述的一种基于改进YOLOv5的雾霾天气下车辆检测方法,其特征在于,在步骤Step3中的具体过程如下:
Step3.1使用比传统ResNet的网络具有更强的特征提取能力的Swin Transformerblock作为主干网络提取特征,替换掉YOLOv5原始的最后C3层(即CSP瓶颈和三个CONVs)。Swin-transformer是一种新型的分层视觉转换器骨干网络,它使用了一种多头自注意力机制,可以专注于一系列图像补丁,以编码全局、局部和上下文线索,具有一定的灵活性,特别是,它对来自前景对象、随机斑块位置和非显著背景区域的严重遮挡表现出较强的鲁棒性,适合于在雾霾天气下的车辆检测,两者的结合可以继承它们的优点,同时保留全局和局部特征,所以在架构上结合先进的YOLOv5s和Swin-transformer结构;
Step3.2具体结构流程如下:
Step3.3结合YOLOv5s和Swin-transformer结构可以提高雾霾天气下车辆检测的准确性,但是会导致检测到的边界框数量的检测误差,为了解决这个问题,通过在yolo.py中引入相应的attention模块的方式插入CBAM注意力机制,同时改变主干网络和输出端网络的C3结构实现,通过融合通道信息和空间信息来提取信息特征,可以从两个维度上加强低能见度目标的表征信息;
Step3.4将经过Step1、Step2加雾和数据增强等预处理后,将608*608*3的图像输入Focus结构对图像进行切片和拼接,然后使用卷积层(CONV)生成输出304×304×12特征图,再经过一次32个卷积核的卷积操作,最终变成304×304×32的特征图。Focus模块可以减少模型的计算负荷,加快训练过程;
Step3.5将Step1中得到的304×304×32的特征图送入到改进后的YOLOv5主干网络的进行特征提取,由于骨干网末端特征映射的分辨率为20×20,在低分辨率特征映射上应用Swin-transformer可以减少计算量,节省内存空间。这种集成可以弥补YOLOv5由于接受域有限而无法捕获全局和上下文信息的缺点,而Swin-transformer可以捕获长距离依赖关系并保留不同的局部信息,提高了在雾霾条件下网络对车辆的特征信息能力;
Step3.6将Step2中得到的多尺度特征图送入网络的Neck模块,采用了FPN+PAN的结构,经过一个C3的卷积模块,再将特征层串行通过多个池化核大小为5×5的最大池化层,然后在通道方向进行concat拼接再做进一步融合,得到进行预测的特征图。通过 FPN 和 PAN对图像进行多尺度特征融合,其中FPN 结构通过自顶向下进行上采样,上层特征图因为网络层数更深,包含的车辆语义信息也就更强,PAN 结构自底向上进行下采样,下层特征因为经过的卷积层数较少,车辆的位置信息损失就更少,两个特征最后进行融合,使不同尺寸的特征图都包含图像语义信息和图像特征信息,保证了对不同尺寸的图片的准确预测。丰富了在雾霾条件下对车辆的图像语义信息和图像特征信息;
Step3.7通过头部检测网络得到表示边界框偏移量、置信度、类别和先验框,且每个尺度输出都有三个不同尺寸的先验框。通过非极大值抑制输出的候选框映射成原图大小,框选出图像中的目标物体,最终得出检测结果。
5.根据权利要求4所述的一种基于改进YOLOv5的雾霾天气下车辆检测方法,其特征在于,在步骤Step3.1中的具体过程如下:
所述Swin Transformer Block由多个窗口多头自注意力W-MSA层和移动窗口多头自注意力SW-MSA层、多层感知机(MLP)和层归一化(LN)等计算单元通过残差连接组成,分别够获取窗口内部的信息和窗口之间的信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310392240.XA CN116503709A (zh) | 2023-04-13 | 2023-04-13 | 一种基于改进YOLOv5的雾霾天气下车辆检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310392240.XA CN116503709A (zh) | 2023-04-13 | 2023-04-13 | 一种基于改进YOLOv5的雾霾天气下车辆检测方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116503709A true CN116503709A (zh) | 2023-07-28 |
Family
ID=87322308
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310392240.XA Pending CN116503709A (zh) | 2023-04-13 | 2023-04-13 | 一种基于改进YOLOv5的雾霾天气下车辆检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116503709A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704317A (zh) * | 2023-08-09 | 2023-09-05 | 深圳华付技术股份有限公司 | 目标检测方法、存储介质及计算机设备 |
CN117710755A (zh) * | 2024-02-04 | 2024-03-15 | 江苏未来网络集团有限公司 | 一种基于深度学习的车辆属性识别系统及方法 |
CN118297397A (zh) * | 2024-04-16 | 2024-07-05 | 粤港澳大湾区气象监测预警预报中心(深圳气象创新研究院) | 一种面向对象的城市极端天气压力测试方法 |
CN118505964A (zh) * | 2024-04-28 | 2024-08-16 | 浙江海洋大学 | 一种基于ViT的海上小目标检测方法 |
CN118552884A (zh) * | 2024-07-30 | 2024-08-27 | 比亚迪股份有限公司 | 雾霾可见度检测方法、装置、设备、车辆及介质 |
-
2023
- 2023-04-13 CN CN202310392240.XA patent/CN116503709A/zh active Pending
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116704317A (zh) * | 2023-08-09 | 2023-09-05 | 深圳华付技术股份有限公司 | 目标检测方法、存储介质及计算机设备 |
CN116704317B (zh) * | 2023-08-09 | 2024-04-19 | 深圳华付技术股份有限公司 | 目标检测方法、存储介质及计算机设备 |
CN117710755A (zh) * | 2024-02-04 | 2024-03-15 | 江苏未来网络集团有限公司 | 一种基于深度学习的车辆属性识别系统及方法 |
CN117710755B (zh) * | 2024-02-04 | 2024-05-03 | 江苏未来网络集团有限公司 | 一种基于深度学习的车辆属性识别系统及方法 |
CN118297397A (zh) * | 2024-04-16 | 2024-07-05 | 粤港澳大湾区气象监测预警预报中心(深圳气象创新研究院) | 一种面向对象的城市极端天气压力测试方法 |
CN118505964A (zh) * | 2024-04-28 | 2024-08-16 | 浙江海洋大学 | 一种基于ViT的海上小目标检测方法 |
CN118552884A (zh) * | 2024-07-30 | 2024-08-27 | 比亚迪股份有限公司 | 雾霾可见度检测方法、装置、设备、车辆及介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109934163B (zh) | 一种基于场景先验和特征再融合的航空图像车辆检测方法 | |
CN112884064B (zh) | 一种基于神经网络的目标检测与识别方法 | |
CN113052210B (zh) | 一种基于卷积神经网络的快速低光照目标检测方法 | |
CN110263706B (zh) | 一种雾霾天气车载视频动态目标检测和识别的方法 | |
CN116503709A (zh) | 一种基于改进YOLOv5的雾霾天气下车辆检测方法 | |
CN111126359B (zh) | 基于自编码器与yolo算法的高清图像小目标检测方法 | |
CN111563909B (zh) | 一种复杂街景图像语义分割方法 | |
CN115082674B (zh) | 基于注意力机制的多模态数据融合三维目标检测方法 | |
CN109583345B (zh) | 道路识别方法、装置、计算机装置及计算机可读存储介质 | |
CN114067142B (zh) | 一种实现场景结构预测、目标检测和车道级定位的方法 | |
CN115035295A (zh) | 一种基于共享卷积核和边界损失函数的遥感图像语义分割方法 | |
CN116030364A (zh) | 无人机轻量级目标检测方法、系统、介质、设备及终端 | |
CN115984672A (zh) | 基于深度学习的高清图像内小目标的检测方法和装置 | |
CN111027542A (zh) | 一种基于Faster RCNN算法改进的目标检测方法 | |
CN112785610B (zh) | 一种融合低层特征的车道线语义分割方法 | |
CN117975003A (zh) | 基于轻量级网络的场景分割方法及系统 | |
CN113177956A (zh) | 一种面向无人机遥感影像的语义分割方法 | |
CN116258756B (zh) | 一种自监督单目深度估计方法及系统 | |
CN114943903B (zh) | 一种针对无人机航空图像的自适应分簇目标检测方法 | |
CN116342877A (zh) | 一种复杂场景下基于改进aspp和融合模块的语义分割方法 | |
CN116563691A (zh) | 一种基于TransUnet模型的道路病害检测方法 | |
CN115496764A (zh) | 一种基于密集特征融合的有雾图像语义分割方法 | |
CN115880659A (zh) | 用于路侧系统的3d目标检测方法、装置及电子设备 | |
Zhang et al. | Research on rainy day traffic sign recognition algorithm based on PMRNet | |
CN117011722A (zh) | 基于无人机实时监控视频的车牌识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |