CN116630737A - 一种基于改进YOLOv5的安全设备穿戴检测方法 - Google Patents

一种基于改进YOLOv5的安全设备穿戴检测方法 Download PDF

Info

Publication number
CN116630737A
CN116630737A CN202310456397.4A CN202310456397A CN116630737A CN 116630737 A CN116630737 A CN 116630737A CN 202310456397 A CN202310456397 A CN 202310456397A CN 116630737 A CN116630737 A CN 116630737A
Authority
CN
China
Prior art keywords
data
network
yolov5
data set
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310456397.4A
Other languages
English (en)
Inventor
李双远
吕彦昌
李梦璠
李其昌
刘向阳
王铮伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jilin Institute of Chemical Technology
Original Assignee
Jilin Institute of Chemical Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jilin Institute of Chemical Technology filed Critical Jilin Institute of Chemical Technology
Priority to CN202310456397.4A priority Critical patent/CN116630737A/zh
Publication of CN116630737A publication Critical patent/CN116630737A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于YOLOv5的市政工程施工人员安全特征检测方法,同时对施工人员是否佩戴安全帽、是否穿戴反光衣进行检测。采用YOLOv5网络模型进行识别,建立数据集,并进行数据筛选和标注数据集工作。对YOLOv5模型进行改进与优化,首先对数据集进行数据增强;其次使用BiFPN作为特征融合网络,增强网络的特征融合能力,使得位置信息与语义信息充分融合;最后进行损失函数替换,使用EIoU来解决本课题样本不平衡问题。设定训练超参数,基于第一步建立的安全帽和反光衣数据集,对第二步优化后的YOLOv5网络模型进行迭代训练,得到最优的网络权重数据,并将最优权重数据保存用作测试集测试,对施工人员是否佩戴安全帽、是否穿戴反光衣进行检测。本发明通过改进后的目标检测算法对未佩戴安全帽、未穿戴反光衣的异常现象进行检测识别。

Description

一种基于改进YOLOv5的安全设备穿戴检测方法
技术领域
本发明涉及神经网络、目标检测、图像识别技术,属于人工智能领域,更具体的说,是涉及一种基于改进YOLOv5的安全设备穿戴检测方法。
背景技术
随着社会发展,市政工程建设是实现城市现代化建设的重要条件,对推进国家经济发展有着重要作用。为了提升人们的生活环境和水平,需要不断完善城市基础配套设施建设。由于市政工程建设与城市发展息息相关,需要及时处理好工程项目中存在的各类安全隐患,防患于未然。在实际施工过程中,由于员工安全意识薄弱,部分安全防护措施不当以及监管人员监察不到位等情况,会导致安全事故的发生,不仅会带来经济上的损失,严重时导致人员伤亡。因此,在各类工程施工作业期间一定要规范穿戴安全帽和反光衣。
基于此,利用人工智能技术对施工人员的安全帽与反光衣穿戴检测就显得尤为重要。随着人工智能领域的不断发展进步,是传统的施工单位管理需要向智能化方向转变的重要进程。本课题通过把深度学习和目标检测检测技术相结合可以很好的提高施工单位对施工人员安全检查的效率,而且可以更好的提高识别的准确率和有效性,从而更大程度上保护施工人员的生命财产安全,提高施工单位的安全管理水平。
发明内容
本发明的目的是为了克服现有技术的不足,提出一种基于改进YOLOv5的安全设备穿戴检测方法。通过改进后的目标检测算法对未佩戴安全帽、未穿戴反光衣的异常现象进行检测识别。
本发明的目的是通过以下技术方案实现的:
本发明基于改进YOLOv5的安全设备穿戴检测方法,包括以下过程:
第一步:建立数据集,进行数据筛选和标注数据集工作,并将数据集进行划分为训练集、验证集和测试集;
第二步:对YOLOv5模型进行改进与优化,首先对数据集进行数据增强;其次使用BiFPN作为特征融合网络,增强网络的特征融合能力,使得位置信息与语义信息充分融合;最后进行损失函数替换,使用EIoU来解决本课题样本不平衡问题;
第三步:设定训练超参数,基于第一步建立的安全帽和反光衣数据集,对第二步优化后的YOLOv5网络模型进行迭代训练,得到最优的网络权重数据,并将最优权重数据保存用作测试集测试,对施工人员是否佩戴安全帽、是否穿戴反光衣进行检测。
第一步中数据来源是施工现场视频监控数据,以及网络上采集的图片数据。从施工现场监控视频中分帧或互联网上爬取所采集的图片,可能其中很多图片中没有施工人员这一研究对象,都可以视为背景图片,这对本发明研究无实际意义,因此,需要删除这些已确认的背景图片数据。对采集的图片数据进行初步筛选,从中选出符合要求的图片作为标注数据集。将符合要求的数据集图像转化为jpg格式,再使用标注工具标注图像使其形成相应的xml文件,对上述标注好的数据集划分训练集、验证集和测试集,并按照比例 8:1:1 进行随机分配。
第二步中YOLOv5模型选用的是官方提供的YOLOv5-6.1版本:
S1、本发明将Mosaic数据增强和Mixup数据增强按一定比例进行融合,提高网络的泛化能力,防止过拟合;
其中,YOLOv5算法主要采用的数据增强方式是Mosaic方法,将不同的图片进行拼接,形成新的图片;本发明将Mosaic数据增强和Mixup数据增强按一定比例进行融合,进一步提高网络的泛化能力;
进一步地,Mixup是将两张图像的输入向量和标签按比例进行融合,达到数据增强的效果;
S2、本发明使用BiFPN结构进行跨层特征融合,将语义信息和位置信息充分结合,增强网络的特征融合能力;
其中,YOLOv5网络的Neck结构中,采用了FPN+PAN的结构,FPN结构自上而下建立了一条通路进行特征融合,在特征融合之后,使用更高语义特征的特征层进行预测,但是FPN结构受制于单向信息;
BiFPN是在PAN的基础上进行改进的。双向特征金字塔结构(BiFPN)运用双向融合思想,重新构造了自顶向下和自底向上的路线,对不同尺度的特征信息进行融合,通过上采样和下采样统一特征分辨率尺度,并且在同一尺度的特征图之间建立了双向连接;
S3、一个优秀的回归损失函数应当考虑3个关键的几何因素:两框重叠面积、两框中心点距离、两框长宽比。YOLOv5算法使用的损失函数是GIoU。GIoU强调两框重叠区域和非重叠区域,所以它缓解了存在的无法优化两框不相交以及无法反映两框如何相交的问题。但是两框属于包含关系时GIoU会退化成IoU,无法区分相对位置关系。因此,本发明引入EIoU。
第三步中超参数包括网络的深度和宽度,以及learning_rate、batch_size、epoch、使用的训练数据集。
与现有技术相比,本发明的技术方案所带来的有益效果是:
本发明提出一种基于改进YOLOv5的安全设备穿戴检测方法。其一,为了对模型具有良好的泛化性和有效性,本发明将Mosaic数据增强和Mixup数据增强进行融合进行数据增强。其二,BiFPN是在PAN的基础上进行改进的。双向特征金字塔结构(BiFPN)运用双向融合思想,重新构造了自顶向下和自底向上的路线,对不同尺度的特征信息进行融合,通过上采样和下采样统一特征分辨率尺度,并且在同一尺度的特征图之间建立了双向连接,在一定程度上解决了特征信息遗失的问 题,能够更好地融合不同尺寸特征图的特征信息。其三,EIoU的惩罚项是在CIoU的惩罚项基础上将纵横比的损失项拆分成预测的宽高分别与最小外接框宽高的差值,加速了收敛,提高了回归精度。引入了Focal Loss优化了边界框回归任务中的样本不平衡问题,即减少与目标框重叠较少的大量锚框对BBox 回归的优化贡献,使回归过程专注于高质量锚框。该损失函数包含三个部分:重叠损失,中心距离损失,宽高损失,前两部分延续CIoU中的方法,但是宽高损失直接使目标盒与锚盒的宽度和高度之差最小,将使得收敛速度更快,从而达到更好的效果;
依托于高质量的自制安全帽与反光背心数据集,通过进一步对数据集进行增强,对YOLO v5模型进行优化与改进,提升了其检测准确率。在优化检测各个环节的基础上,可以设计检测方法从而部署于工地监管摄像头上,构建检测系统。这种改进的检测方法可以有可以很好地提高施工单位对施工人员安全检查的效率,而且可以更好地提高识别的准确率和有效性,从而更大程度上保护施工人员的生命财产安全,提高施工单位的安全管理水平。
附图说明:
图1 检测方法流程图;
图2 YOLOv5网络结构图;
图3 FPN+PAN结构图;
图4 BiFPN结构图。
具体实施方式:
为使发明的目的、技术方案和优点阐述的更加清楚,下面结合附图对本发明 实施方式作进一步地详细描述。
如图1所述,一种基于改进YOLOv5的安全设备穿戴检测方法,包括:
第一步:建立数据集,进行数据筛选和标注数据集工作,并将数据集进行划分为训练集、验证集和测试集;
第二步:对YOLOv5模型进行改进与优化,首先对数据集进行数据增强;其次使用BiFPN作为特征融合网络,增强网络的特征融合能力,使得位置信息与语义信息充分融合;最后进行损失函数替换,使用EIoU来解决本课题样本不平衡问题;
第三步:设定训练超参数,基于第一步建立的安全帽和反光衣数据集,对第二步优化后的YOLOv5网络模型进行迭代训练,得到最优的网络权重数据,并将最优权重数据保存用作测试集测试,对施工人员是否佩戴安全帽、是否穿戴反光衣进行检测。
所述第一步的具体流程为:
第一步中数据来源是施工现场视频监控数据,以及网络上采集的图片数据,从施工现场监控视频中分帧或互联网上爬取所采集的图片;
进一步的,将收集得到的视频流按照抽帧的方法对视频进行处理,时间间隔取为2s,每 隔2s从视频中抽取一张图片;
可能其中很多图片中没有施工人员这一研究对象,都可以视为背景图片,这对本发明研究无实际意义,因此,需要删除这些已确认的背景图片数据。对采集的图片数据进行初步筛选,从中选出符合要求的图片作为标注数据集;
进一步的,将符合要求的数据集图像转化为jpg格式,再使用标注工具lableimg标注图像使其形成相应的xml文件;
进一步的,将图像中的目标进行标注,包括四个类别:佩戴安全帽(helmet),未佩戴安全帽(no-helmet),穿戴反光衣(vest),未穿戴反光衣(no-vest);
对上述标注好的数据集划分训练集、验证集和测试集;
进一步的,本发明共计收集有效数据集6000张图片,按照比例 8:1:1 进行随机分配。最终获得训练集4800张,验证集与测试集各600张。
所述第二步的具体流程为:
第二步中YOLOv5模型选用的是官方提供的YOLOv5-6.1版本;
进一步的,YOLOv5按照网络深度大小和特征图宽度大小分为YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x四种。基于上述研究内容,本发明所需模型应满足轻量化、实时监测功能,故本发明将采用YOLOv5s作为使用模型。其网络结构如图2所示,分为输入端、Backbone(主干网络)、Neck(颈部网络)、Prediction(预测层)四个部分。输入端有Mosaic数据增强、自适应图片缩放及自适应锚框计算,Backbone包含Focus(切片)结构、CSP(跨阶段局部单元)结构,Neck包括FPN+PAN(路径聚合网络)结构,Prediction中有GIOU_Loss(广义交并比损失函数)结构。
S1、本发明将Mosaic数据增强和Mixup数据增强按一定比例进行融合,提高网络的泛化能力,防止过拟合;
其中,YOLOv5算法主要采用的数据增强方式是Mosaic方法,将不同的图片进行拼接,形成新的图片;本发明将Mosaic数据增强和Mixup数据增强按一定比例进行融合,进一步提高网络的泛化能力;
进一步的,Mosaic数据增强过程使用到四张图片,每次数据增强过程中先读取四张图片,然后按照顺序对四张图片进行翻转、缩放等变化,接着按照四个方向把处理后的图片放置好,最后依照图片位置的区别将四张图片进行组合;
Mixup是将两张图像的输入向量和标签按比例进行融合,达到数据增强的效果。公式如下所示:
假设是从训练数据中随机抽取的两个样本,是由参数 的beta分布算出来的混合系数,λ∈[0,1]。Mixup 构建训练集中两个随机样本及其标签的 线性插值进行训练,Mixup增强了训练样本之间的线性表达,能够减少对错误标签的记忆, 提升模型的泛化能力和鲁棒性。
S2、本发明使用BiFPN结构进行跨层特征融合,将语义信息和位置信息充分结合,增强网络的特征融合能力;
其中,YOLOv5网络的Neck结构中,采用了FPN+PAN的结构,如图3所示,FPN结构自上而下建立了一条通路进行特征融合,在特征融合之后,使用更高语义特征的特征层进行预测,但是FPN结构受制于单向信息流;
Bi FPN是在PAN的基础上进行改进的。如图4所示,双向特征金字塔结构(Bi FPN)运用双向融合思想,重新构造了自顶向下和自底向上的路线,对不同尺度的特征信息进行融合,通过上采样和下采样统一特征分辨率尺度,并且在同一尺度的特征图之间建立了双向连接。
S3、一个优秀的回归损失函数应当考虑3个关键的几何因素:两框重叠面积、两框中心点距离、两框长宽比。YOLOv5算法使用的损失函数是GIoU;
首先计算同时包含了预测框和真实框的最小框的面积,其次计算得出IoU,再计 算不属于两个框的区域占最小框面积的比重(就是并集),最后用IoU减去得出 的比重得GIoU。GIoU能很好 的反映两框的重合度,但是两框属于包含关系时GIoU会退化成 IoU,无法区分相对位置关系。因此,本发明引入EIoU,公式如下:
其中是覆盖两个 Box 的最小外接框的宽度和高度。损失函数分为三部 分,IoU损耗,距离损耗以及纵横比损耗,保留了CIoU中的损失,EIoU最小化了目标框和锚框 的宽度和高度差,加快了收敛速度,以及获得更好的定位效果。由于边框回归存在样本不均 衡问题,目标对象在图像中的稀疏性,具有小回归误差的高质量样本数量远少于低质量样 本数量。异常值将产生过大的梯度,这对训练过程有害,所以本算法结合了Focal Loss损失 函数,将高质量锚框和低质量锚框分别处理,惩罚计算公式如下:
为控制异常值抑制程度参数,该损失中的Focal与传统的Focal Loss 有一定的 区别,传统的Focal Loss针对越困难的样本损失越大,起到的是困难样本挖掘的作用。而根 据上述公式,减少了与目标框重叠较少的锚框对边框回归的优化贡献,更专注高质量锚框。
所述第三步的具体流程为:
设置参数:网络深度参数为0.67,网络宽度参数为0.75,学习率learning_rate为0.01,随机梯度下降动量参数momentum为0.937,权重衰减为0.0005,训练轮数为300;
进一步的,对优化后的YOLOv5网络模型进行迭代训练,得到最优的网络权重数据,并将最优权重数据保存用作测试集测试,对施工人员是否佩戴安全帽、是否穿戴反光衣进行检测。

Claims (6)

1.建立数据集,进行数据筛选和标注数据集工作,并将数据集进行划分为训练集、验证集和测试集。
2.对YOLOv5模型进行改进与优化,首先对数据集进行数据增强;其次使用BiFPN作为特征融合网络,增强网络的特征融合能力,使得位置信息与语义信息充分融合;最后进行损失函数替换,使用EIoU来解决本课题样本不平衡问题。
3.设定训练超参数,基于第一步建立的安全帽和反光衣数据集,对第二步优化后的YOLOv5网络模型进行迭代训练,得到最优的网络权重数据,并将最优权重数据保存用作测试集测试,对施工人员是否佩戴安全帽、是否穿戴反光衣进行检测。
4.根据权利要求1所述的基于改进YOLOv5的安全设备穿戴检测方法,其特征在于,第一步中数据来源是施工现场视频监控数据,以及网络上采集的图片数据。从施工现场监控视频中分帧或互联网上爬取所采集的图片,可能其中很多图片中没有施工人员这一研究对象,都可以视为背景图片,这对本发明研究无实际意义,因此,需要删除这些已确认的背景图片数据。对采集的图片数据进行初步筛选,从中选出符合要求的图片作为标注数据集。将符合要求的数据集图像转化为jpg格式,再使用标注工具标注图像使其形成相应的xml文件,对上述标注好的数据集划分训练集、验证集和测试集,并按照比例 8:1:1 进行随机分配。
5.根据权利要求1所述的基于改进YOLOv5的安全设备穿戴检测方法,其特征在于,第二步中YOLOv5模型选用的是官方提供的YOLOv5-6.1版本;
S1、本发明将Mosaic数据增强和Mixup数据增强按一定比例进行融合,提高网络的泛化能力,防止过拟合;
其中,YOLOv5算法主要采用的数据增强方式是Mosaic方法,将不同的图片进行拼接,形成新的图片;本发明将Mosaic数据增强和Mixup数据增强按一定比例进行融合,进一步提高网络的泛化能力;
进一步的,Mixup是将两张图像的输入向量和标签按比例进行融合,达到数据增强的效果;
S2、本发明使用BiFPN结构进行跨层特征融合,将语义信息和位置信息充分结合,增强网络的特征融合能力;
其中,YOLOv5网络的Neck结构中,采用了FPN+PAN的结构,FPN结构自上而下建立了一条通路进行特征融合,在特征融合之后,使用更高语义特征的特征层进行预测,但是FPN结构受制于单向信息流;
BiFPN是在PAN的基础上进行改进的。双向特征金字塔结构(BiFPN)运用双向融合思想,重新构造了自顶向下和自底向上的路线,对不同尺度的特征信息进行融合,通过上采样和下采样统一特征分辨率尺度,并且在同一尺度的特征图之间建立了双向连接;
S3、一个优秀的回归损失函数应当考虑3个关键的几何因素:两框重叠面积、两框中心点距离、两框长宽比。YOLOv5算法使用的损失函数是GIoU-Loss。
6.根据权利要求1所述的一种基于改进YOLOv5的安全设备穿戴检测方法,其特征在于,第三步中超参数包括网络的深度和宽度,以及learning_rate、epoch、使用的训练数据集等。
CN202310456397.4A 2023-04-26 2023-04-26 一种基于改进YOLOv5的安全设备穿戴检测方法 Pending CN116630737A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310456397.4A CN116630737A (zh) 2023-04-26 2023-04-26 一种基于改进YOLOv5的安全设备穿戴检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310456397.4A CN116630737A (zh) 2023-04-26 2023-04-26 一种基于改进YOLOv5的安全设备穿戴检测方法

Publications (1)

Publication Number Publication Date
CN116630737A true CN116630737A (zh) 2023-08-22

Family

ID=87640768

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310456397.4A Pending CN116630737A (zh) 2023-04-26 2023-04-26 一种基于改进YOLOv5的安全设备穿戴检测方法

Country Status (1)

Country Link
CN (1) CN116630737A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058526A (zh) * 2023-10-11 2023-11-14 创思(广州)电子科技有限公司 一种基于人工智能的自动货物识别方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117058526A (zh) * 2023-10-11 2023-11-14 创思(广州)电子科技有限公司 一种基于人工智能的自动货物识别方法及系统

Similar Documents

Publication Publication Date Title
JP2022514859A (ja) 自動検査システムおよび出荷用コンテナの状態を評価する関連方法
CN111383429A (zh) 建筑工地工人着装检测方法、系统、装置、存储介质
CN110378222A (zh) 一种输电线路防震锤目标检测与缺陷识别方法及装置
CN113553979B (zh) 一种基于改进yolo v5的安全服检测方法和系统
CN116630737A (zh) 一种基于改进YOLOv5的安全设备穿戴检测方法
CN104504377A (zh) 一种公交车乘客拥挤程度识别系统及方法
Yang et al. Datasets and processing methods for boosting visual inspection of civil infrastructure: A comprehensive review and algorithm comparison for crack classification, segmentation, and detection
CN109993163A (zh) 一种基于人工智能的非标铭牌识别系统及其识别方法
CN114882440A (zh) 一种人头检测方法和系统
CN111582084B (zh) 基于弱监督学习的空基视角下的铁轨异物检测方法及系统
CN115131732A (zh) 一种结合目标检测和语义分割的安全带违规佩戴检测方法
CN116846059A (zh) 一种用于电网巡检和监控的边缘检测系统
CN115546742A (zh) 一种基于单目热红外摄像头的铁轨异物识别方法及系统
Guerrieri et al. Flexible and stone pavements distress detection and measurement by deep learning and low-cost detection devices
CN113505704B (zh) 图像识别的人员安全侦测方法、系统、设备及存储介质
CN117351409A (zh) 混凝土坝面作业风险智能识别方法
CN117133052A (zh) 一种安全帽佩戴检测方法、装置、电子设备及存储介质
Ouyang et al. Automated pixel-level crack monitoring system for large-scale underground infrastructure–A case study at CERN
CN116206155A (zh) 基于YOLOv5网络的废钢分类识别方法
CN103530879B (zh) 特定场景下的行人颜色提取方法
Cao et al. Deep discriminant learning-based asphalt road cracks detection via wireless camera network
Xiao et al. Region of interest (ROI) extraction and crack detection for UAV-based bridge inspection using point cloud segmentation and 3D-to-2D projection
CN112784914B (zh) 一种基于云端处理的管廊视频智能属性检测方法及系统
CN108549882A (zh) 一种基于深度学习的实时的铁路口多摄像头行人检测方法
Jiang et al. Fast Traffic Accident Identification Method Based on SSD Model

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination