CN115205965A - 基于改进的yolo_x算法与注意力模块相结合的头盔检测方法 - Google Patents

基于改进的yolo_x算法与注意力模块相结合的头盔检测方法 Download PDF

Info

Publication number
CN115205965A
CN115205965A CN202210717229.1A CN202210717229A CN115205965A CN 115205965 A CN115205965 A CN 115205965A CN 202210717229 A CN202210717229 A CN 202210717229A CN 115205965 A CN115205965 A CN 115205965A
Authority
CN
China
Prior art keywords
helmet
image data
data
algorithm
yolo
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210717229.1A
Other languages
English (en)
Inventor
高瞻
张祺
邵叶秦
王杰华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nantong University
Original Assignee
Nantong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nantong University filed Critical Nantong University
Priority to CN202210717229.1A priority Critical patent/CN115205965A/zh
Publication of CN115205965A publication Critical patent/CN115205965A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Social Psychology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Psychiatry (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,包括以下步骤:S1、获取人佩戴头盔与未佩戴头盔的图像数据,并进行筛选;S2、对筛选后的一部分图像数据进行重采样和数据增强;S3、将经过数据增强与未数据增强的图像数据汇总成数据集,并对图像数据进行标签标注S4、构建基于改进的YOLO_X算法与注意力模块相结合的头盔检测模型;S5、选取数据集中的一部分图像数据作为训练集训练S4的头盔检测模型并进行参数优化,然后选取数据集中的另一部分图像数据作为测试集放入优化后的头盔检测模型中,输出头盔佩戴预测结果。本发明能提高头盔检测算法的准确度,从而辅助相关部门制定相关决定,减轻交通部门与施工单位的工作量。

Description

基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法
技术领域
本发明涉及人工智能的视频内容识别技术领域,具体涉及基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法。
背景技术
在城市交通中,时常出现电动车骑行者引发的安全事故。佩戴安全头盔可以有效地避免或降低安全事故带来的损害。电动自行车以其便捷、环保等特性受到广泛欢迎,但电动自行车骑行者作为交通中的弱势道路使用者,在事故中更容易受伤或者死亡。在世界卫生组织发布的《2018年全球道路安全现状报告》中显示,2017年全世界约有135万人死于道路交通事故,道路交通伤害成为全球人口死亡的重要原因之一。我国的道路交通安全状况也十分严峻,《中国统计年鉴-2020》显示,2019年我国共发生了134617起交通事故,其中,电动自行车等非机动车交通事故死亡人数占到死亡人数的6.98%。
我国《道路交通安全法》第五十一条规定机动车行驶时,驾驶人、乘坐人员应当按规定使用安全带,摩托车驾驶人及乘坐人员应当按规定戴安全头盔。《中华人民共和国建筑法》中有关内容的规定第三十六条建筑工程安全生产管理必须坚持安全第一、预防为主的方针,建立健全安全生产的责任制度和群防群治制度。第三十七条建筑工程设计应当符合按照国家规定制定的建筑安全规程和技术规范,保证工程的安全性能。第三十八条建筑施工企业在编制施工组织设计时,应当根据建筑工程的特点制定相应的安全技术措施;对专业性较强的工程项目,应当编制专项安全施工组织设计,并采取安全技术措施。
同时,深度神经网络的应用与发展进入了新的阶段,但在应用到头盔检测方面时其检测的准确度与训练所花费的时间仍然有可提升的空间。基于此,本发明从智能头盔检测的实际应用角度出发,结合深度神经网络,给出了进一步提升检测准确度的方法,提高了应用效率。因此,本发明的研究内容具备重要的理论意义和实际应用价值。
发明内容
本发明要解决的技术问题是提供基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,提高头盔检测算法的准确度,从而辅助相关部门制定相关决定,减轻交通部门与施工单位的工作量。
为解决上述技术问题,本发明的实施例提供基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,包括以下步骤:
S1、获取人佩戴头盔与未佩戴头盔的图像数据,并进行筛选;
S2、对筛选后的一部分图像数据进行重采样和数据增强;
S3、将经过数据增强与未数据增强的图像数据汇总成数据集,并对图像数据进行标签标注,包括:佩戴头盔和未佩戴头盔;
S4、构建基于改进的YOLO_X算法与注意力模块相结合的头盔检测模型;
S5、选取数据集中的一部分图像数据作为训练集训练S4的头盔检测模型并进行参数优化,然后选取数据集中的另一部分图像数据作为测试集放入优化后的头盔检测模型中,输出头盔佩戴预测结果。
其中,还包括步骤S5之后的如下步骤:
S6、结合设定的评价指标选取准确度最高的训练结果与未经过改进的YOLO_X算法训练结果比较,验证步骤S4的头盔检测模型有效性。
其中,所述步骤S2中使用改进的Mosaic数据增强方法对重采样的图像数据进行数据增强。
其中,所述步骤S3中,利用labelimg对图像数据进行标签标注,标签标注的格式和VOC2007的数据集格式相同。
其中,所述步骤S4的具体步骤为:
S4.1、将YOLO_X网络模型中的CSPDarknet中的残差模块替换为密集连接的卷积网络,即密集连接模块,使网络中前一层的信息传播到下一层;
S4.2、在YOLO_X网络模型的Backbone到Neck部分间的dark3、dark4、dark5中插入注意力机制模块;
S4.3、YOLO_X网络模型中的Neck部分加强特征提取网络引入了双向特征金字塔网络,融合双向跨度尺度连接和加权特征融合,并给每个输入设定一个权重,得到基于改进的YOLO_X算法与注意力模块相结合的头盔检测模型。
其中,所述S5的具体步骤为:
S5.1:取步骤S3的数据集中一部分图像数据作为训练集放入步骤S4处理的网络模型中,调整参数提高修改后的网络模型的效果,保存网络模型;
S5.2:取数据集中的另一部分图像数据作为测试集放入优化后的头盔检测模型中,输出预测头盔检测结果。
其中,所述步骤S6包括如下步骤:
S6.1、对头盔检测模型的性能进行评估:首先选择经典的量化评价指标交并比对分割结果进行量化,IoU是语义分割中重要的评价指标,其计算网络模型所预测目标佩戴头盔区域与标签中目标佩戴头盔区域的交集部分所占并集部分的比例,公式如下:
Figure BDA0003709026890000031
S6.2、将数据集放入未经改进的YOLO_X网络训练,得到训练结果,获得训练准确度mAP值,将该mAP值与本发明的网络模型训练得到的mAP值进行对比,验证本网络模型的准确度是否有提升,从而得验证本网络模型的有效性。
本发明上述技术方案的有益效果如下:
本发明能够有效的提高检测人是否佩戴头盔的准确度,使得相关部门检测工作可以更加轻松、准确、高效,大大降低了人力成本,在对检测行人骑行电动车是否佩戴头盔与工地工人是否佩戴头盔方面具有较强的应用价值。
附图说明
图1为本发明的流程示意图;
图2为本发明改进的Mosaic数据增强示意图;
图3是本发明密集连接模块的示意图;
图4为本发明的YOLO_X网络模型示意图;
图5是本发明CBAM模块示意图;
图6是本发明FPN网络结构图;
图7是本发明BiFPN网络结构图;
图8是本发明安全帽佩戴情况检测效果图;
图9是本发明电瓶车头盔佩戴情况检测效果图。
具体实施方式
为使本发明要解决的技术问题、技术方案和优点更加清楚,下面将结合附图及具体实施例进行详细描述。
如图1所示,本发明提供基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,包括以下步骤:
S1、获取人佩戴头盔与未佩戴头盔的图像数据,并进行筛选;
S2、对筛选后的一部分图像数据进行重采样和数据增强;
S3、将经过数据增强与未数据增强的图像数据汇总成数据集,并对图像数据进行标签标注,包括:佩戴头盔和未佩戴头盔;
S4、构建基于改进的YOLO_X算法与注意力模块相结合的头盔检测模型;
S5、选取数据集中的一部分图像数据作为训练集训练S4的头盔检测模型并进行参数优化,然后选取数据集中的另一部分图像数据作为测试集放入优化后的头盔检测模型中,输出头盔佩戴预测结果;
S6、结合设定的评价指标选取准确度最高的训练结果与未经过改进的YOLO_X算法训练结果比较,验证步骤S4的头盔检测模型有效性。
所述步骤S1中的具体步骤为:
S1.1、收集由南通大学北一门,西门,南门以及校园内的主干道上的监控探头所采集的校园师生员工骑行电动车时的图像数据、采集校园内行人的图像数据。采集校园内施工工地内工人施工时的图像数据,采集图像数据时考虑一天当中的不同的时段从而分别采集到不同明暗场景,不同气象条件下的图像数据;
S1.2、人工筛选符合要求的图像数据,对过于模糊及图像内没有目标的图像数据进行舍弃。
所述步骤S2包括以下步骤:
S2.1、重采样:随机选取数据集中40%的图像数据进行重采样操作,对这些重采样的图像数据使用数据增强;
S2.2、数据增强:使用改进的Mosaic数据增强方法对步骤S2.1重采样后的数据进行数据增强,如图2所示,所述改进的Mosaic数据增强方法是在Mosaic数据增强方法的基础上增加了一条通道即通过m9的通道,采用三条通道进行调整增强,第三条通道的输出相较与前两条通道是对每行每列排列的图像数进行了增加而得到,将以3*3规格的图片记为m9,将以2*2的图片记为m4,将不经过合并以1*1规格生成的图片记为m1,这样的组合方式,一定程度上使得训练数据集的尺度变化特性更加多样,从而进一步丰富了数据集,增加了背景的复杂程度,因此,网络可以在复杂背景的干扰下,更专注于对目标物特征的提取,增强了网络的鲁棒性;
所述步骤S3的具体步骤为:
S3.1、汇总:将步骤S2.2中经过数据增强与未经数据增强的图像数据汇总;
S3.2、标注:利用labelimg对步骤S2.3的图像数据进行标签标注,标签标注的格式和VOC2007的数据集格式相同。
所述步骤S4包括以下步骤:
S4.1、准备好经过步骤S3.2处理的VOC2007格式的图像数据;
S4.1、将YOLO_X网络模型中的CSPDarknet中的残差模块(Resblock_body)替换为密集连接的卷积网络(DenseNet),即密集连接模块,如图3所示,使得网络中前一层的信息可以有效的传播到下一层中,原有的网络中使用的为残差快其缺点在于ResBlock中的信息流是经过非线性变换后求和的,不能保证前一层的信息有效传播,现将其改进为密集连接块可以使得网络在预测之前能够接受密集连接块输出的多层特征卷积,网络原有的残差模块公式如下:
xl=H(xl-1)+xl-1 (1);
公式(1)中,l为残差模块中的层标,H(x)代表线性变换,x表示输入;
密集连接模块的公式如下:
xl=([x0,x1,x2,x3,...,xl-1]) (2);
S4.2、在YOLO_X网络模型(图4)的Backbone到Neck部分间的dark3、dark4、dark5中插入注意力机制模块(CBAM),如图5所示,通过运用注意力机制模块可以使得模型将关注点集中在需要学习的特征上,将检测到目标时对对应的特征图赋予更大的权重从而增加整个模型的学习效率;
S4.3、原先YOLO_X网络模型中的Neck部分加强特征提取网络是由特征金字塔网络(FPN),其构成如图6所示,其缺点在于检测小目标时,经过反复的下采样处理后信息非常容易丢失,为了解决上述缺点,如图7所示,本模型引入了双向特征金字塔网络(BiFPN),YOLO_X网络模型中的Neck部分加强特征提取网络引入了双向特征金字塔网络(BiFPN),有效的双向跨尺度连接和加权特征融合,通过给每个输入设定一个权重来解决不同分辨率的输入特征往往对输出特征的贡献是不均等的问题,权重则采用了快速归一化融合方法,公式如下:
Figure BDA0003709026890000061
式(3)中wi是学习权重,wi≥0且ε=0.0001;
以BiFPN的第6层的形成过程为例,P6和N6的生成过程的公式如下:
Figure BDA0003709026890000062
Figure BDA0003709026890000063
所述步骤S5包括以下步骤:
S4.1:使用步骤S4中的网络模型在预处理和数据增强后80%的训练集上训练模型,通过参数调整提升模型效果,保存网络模型;
S4.2:将20%的测试集放入上述训练好的网络模型中进行预测,输出头盔检测预测结果。
所述步骤S6包括如下步骤:
S5.1、对头盔检测模型的性能进行评估:首先选择经典的量化评价指标交并比(Intersection Over Union,IoU)对分割结果进行量化,IoU是语义分割中重要的评价指标,其计算网络模型所预测目标佩戴头盔区域与标签中目标佩戴头盔区域的交集部分所占并集部分的比例,公式如下:
Figure BDA0003709026890000071
S5.2、将数据集放入未经改进的YOLO_X网络训练,得到训练结果,获得训练准确度mAP值,将该mAP值与本发明的网络模型训练得到的mAP值进行对比,验证本网络模型的准确度是否有提升,从而验证本网络模型的有效性。
实验结果如下表所示,表中给出了在对比方法1采用原始的YOLO_X预测方法,对数据集分别进行预测,并根据IOU和训练准确度mAP值这两种评价指标进行评估所得出的定量评估结果。通过分析评价结果可以发现,本发明要比原始的YOLO_X预测方法的效果要好一些,能有效提升头盔检测的准确性。
Figure BDA0003709026890000072
如图8、图9所示,安全帽佩戴情况检测和电瓶车头盔佩戴情况检测对比图可以看出,本发明中的基于改进的YOLO_X算法与注意力模块相结合方法具有较高的预测准确度,能够有效辅助相关检测人员检测目标佩戴头盔的情况,降低了检测人员的负担,在公共交通领域、土木工程领域内具有较强的应用价值。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明所述原理的前提下,还可以作出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (7)

1.基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,包括以下步骤:
S1、获取人佩戴头盔与未佩戴头盔的图像数据,并进行筛选;
S2、对筛选后的一部分图像数据进行重采样和数据增强;
S3、将经过数据增强与未数据增强的图像数据汇总成数据集,并对图像数据进行标签标注,包括:佩戴头盔和未佩戴头盔;
S4、构建基于改进的YOLO_X算法与注意力模块相结合的头盔检测模型;
S5、选取数据集中的一部分图像数据作为训练集训练S4的头盔检测模型并进行参数优化,然后选取数据集中的另一部分图像数据作为测试集放入优化后的头盔检测模型中,输出头盔佩戴预测结果。
2.根据权利要求1所述的基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,还包括步骤S5之后的如下步骤:
S6、结合设定的评价指标选取准确度最高的训练结果与未经过改进的YOLO_X算法训练结果比较,验证步骤S4的头盔检测模型有效性。
3.根据权利要求1所述的基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,所述步骤S2中使用改进的Mosaic数据增强方法对重采样的图像数据进行数据增强。
4.根据权利要求1所述的基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,所述步骤S3中,利用labelimg对图像数据进行标签标注,标签标注的格式和VOC2007的数据集格式相同。
5.根据权利要求1所述的基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,所述步骤S4的具体步骤为:
S4.1、将YOLO_X网络模型中的CSPDarknet中的残差模块替换为密集连接的卷积网络,即密集连接模块,使网络中前一层的信息传播到下一层;
S4.2、在YOLO_X网络模型的Backbone到Neck部分间的dark3、dark4、dark5中插入注意力机制模块;
S4.3、YOLO_X网络模型中的Neck部分加强特征提取网络引入了双向特征金字塔网络,融合双向跨度尺度连接和加权特征融合,并给每个输入设定一个权重,得到基于改进的YOLO_X算法与注意力模块相结合的头盔检测模型。
6.根据权利要求1所述的基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,所述S5的具体步骤为:
S5.1:取步骤S3的数据集中一部分图像数据作为训练集放入步骤S4处理的网络模型中,调整参数提高修改后的网络模型的效果,保存网络模型;
S5.2:取数据集中的另一部分图像数据作为测试集放入优化后的头盔检测模型中,输出预测头盔检测结果。
7.根据权利要求2所述的基于改进的YOLO_X算法与注意力模块相结合的头盔检测方法,其特征在于,所述步骤S6包括如下步骤:
S6.1、对头盔检测模型的性能进行评估:首先选择经典的量化评价指标交并比对分割结果进行量化,IoU是语义分割中重要的评价指标,其计算网络模型所预测目标佩戴头盔区域与标签中目标佩戴头盔区域的交集部分所占并集部分的比例,公式如下:
Figure FDA0003709026880000021
S6.2、将数据集放入未经改进的YOLO_X网络训练,得到训练结果,获得训练准确度mAP值,将该mAP值与本发明的网络模型训练得到的mAP值进行对比,验证本网络模型的准确度是否有提升,从而得验证本网络模型的有效性。
CN202210717229.1A 2022-06-23 2022-06-23 基于改进的yolo_x算法与注意力模块相结合的头盔检测方法 Pending CN115205965A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210717229.1A CN115205965A (zh) 2022-06-23 2022-06-23 基于改进的yolo_x算法与注意力模块相结合的头盔检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210717229.1A CN115205965A (zh) 2022-06-23 2022-06-23 基于改进的yolo_x算法与注意力模块相结合的头盔检测方法

Publications (1)

Publication Number Publication Date
CN115205965A true CN115205965A (zh) 2022-10-18

Family

ID=83578253

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210717229.1A Pending CN115205965A (zh) 2022-06-23 2022-06-23 基于改进的yolo_x算法与注意力模块相结合的头盔检测方法

Country Status (1)

Country Link
CN (1) CN115205965A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880646A (zh) * 2023-02-20 2023-03-31 中国民航大学 一种飞机入离位状态识别方法
CN117854045A (zh) * 2024-03-04 2024-04-09 东北大学 一种面向自动驾驶的车辆目标检测方法
CN117894002A (zh) * 2024-03-18 2024-04-16 杭州像素元科技有限公司 一种危险物小目标检测模型的构建方法及装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115880646A (zh) * 2023-02-20 2023-03-31 中国民航大学 一种飞机入离位状态识别方法
CN117854045A (zh) * 2024-03-04 2024-04-09 东北大学 一种面向自动驾驶的车辆目标检测方法
CN117854045B (zh) * 2024-03-04 2024-07-05 东北大学 一种面向自动驾驶的车辆目标检测方法
CN117894002A (zh) * 2024-03-18 2024-04-16 杭州像素元科技有限公司 一种危险物小目标检测模型的构建方法及装置
CN117894002B (zh) * 2024-03-18 2024-06-07 杭州像素元科技有限公司 一种危险物小目标检测模型的构建方法及装置

Similar Documents

Publication Publication Date Title
CN109993970B (zh) 一种城市区域交通事故风险预测方法
CN115205965A (zh) 基于改进的yolo_x算法与注意力模块相结合的头盔检测方法
CN109948416A (zh) 一种基于深度学习的违法占用公交车道自动审核方法
CN109948418A (zh) 一种基于深度学习的违反导向违法自动审核方法
CN111667204A (zh) 自动驾驶开放测试道路环境风险度确定、分级方法及系统
CN112562337A (zh) 一种基于深度学习的高速公路实时交通事故风险评估方法
CN110321897A (zh) 基于图像语义分割识别非机动车异常行为的方法
CN112084928A (zh) 基于视觉注意力机制和ConvLSTM网络的道路交通事故检测方法
CN112084240B (zh) 一种群租房智能识别、联动治理方法及系统
CN113450573A (zh) 基于无人机图像识别的交通监测方法和交通监测系统
CN109670450A (zh) 一种基于视频的人车物检测方法
CN114419421A (zh) 一种基于影像的地铁隧道裂缝识别系统及方法
Oliveira et al. Bikeway: A multi-sensory fuzzy-based quality metric for bike paths and tracks in urban areas
CN116168356A (zh) 一种基于计算机视觉的车辆损伤判别方法
CN116935361A (zh) 一种基于深度学习的驾驶员分心行为检测方法
Zhou et al. Estimating capacity of bicycle path on urban roads in Hangzhou, China
CN114821510B (zh) 基于改进U-Net网络的车道线检测方法及装置
CN115240422B (zh) 基于交通视频的骑车人实时检测提醒系统
CN115937788A (zh) 一种基于yolov5工业区安全帽佩戴检测方法
CN110765900A (zh) 一种基于dssd的自动检测违章建筑方法及系统
Cai et al. Exploring Factors Affecting the Yellow‐Light Running Behavior of Electric Bike Riders at Urban Intersections in China
CN214704951U (zh) 基于vmd-lstm自动调节时长的智慧信号灯
CN115050099A (zh) 一种基于ai的过街行人交通违章自动抓拍及分析方法
CN112633163B (zh) 一种基于机器学习算法实现非法运营车辆检测的检测方法
CN114743168A (zh) 基于深度学习的行车风险源识别评估方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination