CN114841968A - 一种基于YOLOv5的疲劳状态检测方法 - Google Patents

一种基于YOLOv5的疲劳状态检测方法 Download PDF

Info

Publication number
CN114841968A
CN114841968A CN202210495236.1A CN202210495236A CN114841968A CN 114841968 A CN114841968 A CN 114841968A CN 202210495236 A CN202210495236 A CN 202210495236A CN 114841968 A CN114841968 A CN 114841968A
Authority
CN
China
Prior art keywords
yolov5
frame
real
detection
fatigue state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
CN202210495236.1A
Other languages
English (en)
Inventor
韩伟亮
张贺凯
刘勇
吕兴群
张振
刘士琛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Haferman Technology Co ltd
Heilongjiang University
Original Assignee
Suzhou Haferman Technology Co ltd
Heilongjiang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Haferman Technology Co ltd, Heilongjiang University filed Critical Suzhou Haferman Technology Co ltd
Priority to CN202210495236.1A priority Critical patent/CN114841968A/zh
Publication of CN114841968A publication Critical patent/CN114841968A/zh
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • G06V20/597Recognising the driver's state or behaviour, e.g. attention or drowsiness

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于YOLOv5的疲劳状态检测方法,该方法首先采用了Mosaic数据增强方法对原始图像进行增强,再采用注意力机制为后续的特征提取保留更完整的采样信息,最后通过对损失函数进行改进,能够更好的区分检测框和真实框之间的位置关系。现有的疲劳驾驶检测方法大多只采用了单一信号以判断驾驶员疲劳状态,实际行车过程中的信号采集容易受到各种因素干扰,有时采集到的数据不够准确,由于判别依据单一,训练出的模型鲁棒性较差,容易发生误报等情况,反而影响驾驶员的行车安全。本发明利用YOLOv5m网络模型对驾驶员疲劳状态检测。经过验证,本发明在驾驶员疲劳检测中良好的兼顾了精度和速度,证明此方法具有实用性。

Description

一种基于YOLOv5的疲劳状态检测方法
技术领域
本发明涉及机器学习领域,尤其是一种基于YOLOv5的疲劳状态检测方法。
背景技术
根据《2019-2025年中国交通事故现场勘察救援设备行业市场专项调研及投资战略研究报告》可得出:每年发生的交通事故平均高达19万起,其中每年因交通事故而死亡的人数达到6万之多。事故的发生多因驾驶员疲劳驾驶等行为造成。根据中国质量新闻网数据显示,2020年中国汽车保有量已达2.81亿辆,驾驶人员达到4.18亿人。随着我国汽车保有量的持续增加,驾驶员人群的日益庞大,交通事故频发的风险随之增高,而疲劳驾驶和看手机、短时间未看道路等危险驾驶行为是交通事故发生的主要原因。
然而,目前现有的疲劳驾驶检测方法大多只采用了单一信号以判断驾驶员疲劳状态,实际行车过程中的信号采集容易受到各种因素干扰,有时采集到的数据不够准确,由于判别依据单一,训练出的模型鲁棒性较差,容易发生误报等情况,反而影响驾驶员的行车安全。为了解决上述问题,本发明提出了一种基于YOLOv5的疲劳状态检测方法,YOLOv5具有很快的推理速度和小巧的网络结构,在驾驶员疲劳检测中良好的兼顾了精度和速度,从而能在用户发生疲劳现象时快速提醒,保障其生命财产安全。
发明内容
本发明的目的在于提供一种基于YOLOv5的疲劳状态检测方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于YOLOv5的疲劳状态检测方法,其步骤如下:
步骤1:制作用于疲劳检测的数据集;
步骤2:搭建YOLOv5网络框架;
步骤3:将疲劳检测的数据集用YOLOv5网络进行训练
步骤4:将训练的YOLOv5模型用于疲劳状态实时检测中
优选的,步骤1具体包括:
步骤1.1:线上收集共4250张,较全面的概括了驾驶员疲劳状态的图像
步骤1.2:采用Mosaic数据增强结合自适应图片缩放,通过随机缩放、随机裁减、随机排布的方式进行拼接
步骤1.3:数据集采用PASVAL VOC格式,使用精灵标记助手对图片进行标注使用
优选的,步骤2具体包括:
步骤2.1:改进损失函数,采用GIoU函数作为损失函数,在IoU基础上引入惩罚项,计算,公式如下:
Figure BDA0003632728220000021
Figure BDA0003632728220000022
其中A表示检测框,B表示真实框,C代表包含检测框和真实框的最小外接矩形框|C-(A∪B)|表示惩罚项,计算过程如下:
Figure BDA0003632728220000023
其中,b和bgt分别表示预测框和真实框的中心点。d=ρ(b,bgt)表示两框中心点的距离,c表示预测框与真实框的最小外接矩形的对角线距离。
α是做trade-off的参数,衡量长宽比一致性。计算公式如下所示:
Figure BDA0003632728220000024
Figure BDA0003632728220000025
其中,ω和ωgt分别表示预测边框与真实边框的宽度,h和hgt分别表示预测边框与真实边框的高度。CIoU_Loss的计算公式为:
CIoU_Loss=1-CIoU
采用GIoU能衡量两框的远近程度;也能反映两框的相交方式,
较好的区分检测框和真实框的位置关系。
优选的,步骤3具体包括:
步骤3.1:对步骤1所标注的数据集采用NMS算法对目标最后的检测框进行非极大值抑制处理以获得最优目标框。
步骤3.2:将标注的数据集按照7:2:1的比例划分其用于训练、验证和测试,训练集图片数量为2975张,验证集图片数量为850张,测试集图片数量为425张。
步骤3.3:设置网络训练参数:输入图像尺寸为640*640,设定学习率为0.02,学习率周期为0.25,训练批次大小为44,总共训练50个epoch,batch-size为1。lr为0.000042。由公式Loss=box_loss+cls_loss+obj_loss可知,YOLOv5的损失值由3个类别损失构成,分别是表征物体位置、物体类别及是否包含目标物体的损失。
优选的,在步骤4中对步骤3训练好的新型YOLOv5模型进行推理测试。
对步骤4的检测进行评估和测试,具体公式如下所示。
Precision=TP/(TP+FP)*100%
Recall=TP/(TP+FN)*100%
其中:TP代表预测为正例实际也为正例的数量,FP代表预测为正例但实际为负例的数量,FN代表预测为负例但实际为正例的数量。
mAP是用以衡量识别精度,由所有类别的AP值求均值得到。其中通过计算不同召回率下最高的精确率可绘制P-R曲线,该曲线围成的面积即为该类别的AP值。训练后模型的Precision、Recall、mAP_0.5、mAP_0.5:0.95最高分别能够达到0.9827、0.95113、0.95621、0.8668
与现有技术相比,本发明的有益效果为:
第一,本发明通过对损失函数进行改进,能够更好地区分检测框和真实框之间的位置关系。
第二,本发明无论从检测精度、检测速度还是网络参数、权重文件等与YOLO v3,YOLOv4疲劳状态检测方法相比都有一个质的提高。
附图说明
图1为本发明的方法流程图
图2为本发明的数据集类别分类
图3为本发明的YOLOv5网络结构图
图4为YOLOv5m的深度、宽度控制图
图5为Mosaic数据增强图
图6为模型性能评价指标图
图7为不同模型性能比较图
图8为本发明的部分图像检测结果图
具体实施方式
下面结合本发明实例中的附图,对本发明一种基于YOLOv5的疲劳状态检测方法进行具体地描述。
一种基于YOLOv5的疲劳状态检测方法,具体流程图如图1所示,包括以下具体
步骤:
步骤1:从线上搜集到4250张较全面地概括了驾驶员疲劳状态的图像。
使用精灵标记助手对图片进行标注使用,采用PASVAL VOC格式。包括closed_eye,closed_mouth,open_eye,_open_mouth四种类别,其中closed_eye表示待检测人员在闭着眼睛,closed_mouth表示没有张开嘴巴,open_mouth表示正在张开嘴巴,open_eye表示正在睁开眼睛.标注数量如图2和表1所示。
表1数据集标注情况
Figure BDA0003632728220000041
Figure BDA0003632728220000051
按照7:2:1的比例划分其用于训练、验证和测试正确制作用于疲劳状态检测的数据集。
步骤2:对YOLOv5模型进行分析;
YOLOv5于2020年5月份提出的一种单阶段目标检测算法,YOLOv5在结构上可分为4部分:输入端、主干部分Backbone、Neck和Prediction,其网络结构如图3所示。
YOLOv5的输入端将输入图像进行一定的数据处理,如缩放至统一尺寸然后送入网络中学习。Backbone包含Focus、CSP及SPP结构。CSP中的CSP1_X、CSP2_X结构分别用于Backbone、Neck中。SPP分别采用5、9、13的最大池化,再进行concat融合,扩大感受区。这些结构[13]能有效避免对图像区域剪裁、缩放操作导致的图像失真等问题,也解决了卷积神经网络对图像重复特征提取的问题[14]。Neck部分采取FPN、PAN结合的结构,得到一系列混合和组合图像特征的网络层,并将图像特征传递到预测层,加强了信息传播,具备准备保留空间信息的能力。输出端Bounding box损失函数为GIOU_Loss,NMS对目标最后的检测框进行非极大值抑制处理以获得最优目标框。
Mosaic数据增强就是把4张图片,通过随机缩放、随机裁减、随机排布的方式进行拼接,处理过程如图5所示。这种数据处理的方式不仅丰富了待检测图片的背景,也在一定程度使待检测目标变小进而扩充小目标,此时将处理好的图片送入网络中训练,相当于每次计算4张图片的数据,这样单GPU即可以达到比较好的效果。
YOLOv5的4个模型YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x在结构上没有区别,而在模型的深度、宽度设置上有所区别。在比较YOLOv5的四个版本性能后、本发明选择了速度较快、精确度较高的的YOLOv5m为基础模型。该模型的宽度、深度控制如图4所示。
模型深度由CSP结构控制,在YOLOv5m模型中第一个CSP1使用了2个残差组件。因此是CSP1_2;第一个CSP2使用了2组卷积,因此是CSP2_2,此时随着网络不断加深,其网络特征提取和特征融合的能力也在不断增强。同时模型在不同阶段的卷积核数量不同,直接影响特征图的厚度,进而影响模型宽度,即卷积核数量越多说明网络宽度越宽,网络提取特征的学习能力也越强,其中第一次卷积操作时将原始图像640*640*3接入Focus结构,通过切片变为320*320*12的特征图,再经过48个卷积核变为320*320*48的特征图,如图5所示,该操作为后续的特征提取保留了更完整的图片采样信息。
以上对YOLOv5的分析,发现YOLOv5在自然场景下对目标的检测在准确度和速度上
都有着较好的表现,但是在应对遮挡目标状态时的疲劳状态检测较为乏力,会出现一定程度的漏检现象。
步骤3:对YOLOv5模型进行改进优化
针对以上问题,本发明对YOLOv5进行改进,使其在口罩佩戴检测上准确度提高,能够更好的检测司机是否进行疲劳驾驶。
目标检测框的改进
Neck部分采取FPN、PAN结合的结构,得到一系列混合和组合图像特征的网络层,并将图像特征传递到预测层,加强了信息传播,具备准备保留空间信息的能力。输出端Bounding box损失函数为GIOU_Loss,NMS对目标最后的检测框进行非极大值抑制处理以获得最优目标框。
损失函数的改进。
IoU被称为交并比,是评价目标检测效果的指标,其计算的是预测框与真实框间交集和并集的比值,GIoU则是在基础上引入惩罚项,方便更精准地反应检测框和真实框的相交情况。相对于IoU而言,GIoU可较好的区分检测框和真实框的位置关系。但当C与A∪B相等时,GIoU会退化成IoU,此时GIoU优势就将消失。
Figure BDA0003632728220000061
为解决这些问题,本发明采用CIOU_Loss作为损失函数。如公式所示。其中,b和bgt分别表示预测框和真实框的中心点。d=ρ(b,bgt)表示两框中心点的距离,c表示预测框与真实框的最小外接矩形的对角线距离。
α是做trade-off的参数,衡量长宽比一致性
Figure BDA0003632728220000062
Figure BDA0003632728220000071
CIoU_Loss=1-CIoU
步骤4:训练新型YOLOv5网络
本发明一种基于YOLOv5的疲劳状态检测方法的实验环境配置选用Windows10
操作系统,使用GeForce MX150显卡,训练框架为PyTorch。具体配置如表2
所示:
表2实验环境配置
Figure BDA0003632728220000072
设置网络训练参数:输入图像尺寸为640*640,设定学习率为0.02,学习率周期为0.25,训练批次大小为44,总共训练50个epoch,batch-size为1。lr为0.000042
将步骤3中NMS算法获得最优目标框输入到新型YOLOv5中,将步骤1制作的数据集用于训练。
步骤5:新型YOLOv5m模型评估和测试
本发明所采取的模型评价指标包括:准确率(Precision)、召回率(Recall)、平均精度值(mAP)。准确率和召回率越高,表示该模型对口罩检测效果越好,mAP是评估模型性能的一个重要指标mAP值越高表示模型性能越好。具体公式如下所示。
Precision=TP/(TP+FP)*100%
Recall=TP/(TP+FN)*100%
其中:TP代表预测为正例实际也为正例的数量,FP代表预测为正例但实际为负例的数量,FN代表预测为负例但实际为正例的数量。mAP是用以衡量识别精度,由所有类别的AP值求均值得到。其中通过计算不同召回率下最高的精确率可绘制P-R曲线,该曲线围成的面积即为该类别的AP值。
训练后模型的Precision、Recall、mAP_0.5、mAP_0.5:0.95最高分别能够达到0.9827、0.95113、0.95621、0.8668,具体情况如图6所示。将此方法与YOLOv4、YOLOv3进行对比,对比结果见表2和图7,可以得出,以YOLOv5m为网络模型的疲劳状态检测方法在召回率、准确率以及平均精度均值上均有突出优势,证明了本发明方法应用于疲劳状态检测的有效性。
表3算法性能对比
Precision Recall mAP_0.5 mAP_0.5:0.95
YOLOv3 0.9301 0.9188 0.8845 0.8291
YOLOv4 0.9442 0.9318 0.9147 0.8372
YOLOv5m 0.9827 0.951 0.956 0.8668
将图片自适应放缩和数据增强后送入网络模型中进行测试,仅需0.047秒得到结果如图8所示。
综上所述,本发明为兼顾检测驾驶员疲劳驾驶状态的速度和精度,提出了以YOLOv5m为基本网络模型的疲劳状态检测算法,进行数据增强处理的同时对损失函数进行了改进,提高了检测精度。同其他算法的对比和验证,证明本算法在准确率、收敛性等指标中均有一定提升,说明本发明方法具有一定优势。尽管已经示出和描述了本发明的具体实施方式,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些具体实施方式进行多种变化、修改、替换,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.一种基于YOLOv5的疲劳状态检测方法,其特征在于,其步骤如下:
步骤1:制作用于疲劳检测的数据集;
步骤2:搭建YOLOv5网络框架;
步骤3:将疲劳检测的数据集用YOLOv5网络进行训练
步骤4:将训练的YOLOv5模型用于疲劳状态实时检测中。
2.根据权利要求1所述的一种基于YOLOv5的疲劳状态实时检测方法,其特征在于,步骤
1中制作数据集时,具体包括如下步骤:
步骤1.1:线上收集共4250张,较全面的概括了驾驶员疲劳状态的图像。
步骤1.2:采用Mosaic数据增强结合自适应图片缩放,通过随机缩放、随机裁减、随机排布的方式进行拼接
步骤1.3:数据集采用PASVAL VOC格式,使用精灵标记助手对图片进行标注使用。
3.根据权利要求1所述的一种基于YOLOv5的口罩佩戴实时检测方法,其特征在于,步骤
2具体包括如下步骤:
步骤2.1:改进损失函数,采用GIoU函数作为损失函数,在IoU基础上引入惩罚项,计算
公式如下:
Figure FDA0003632728210000011
Figure FDA0003632728210000012
其中A表示检测框,B表示真实框,C代表包含检测框和真实框的最小外接矩形框|C-(A∪B)|表示惩罚项,计算过程如下:
Figure FDA0003632728210000021
其中,b和bgt分别表示预测框和真实框的中心点。d=ρ(b,bgt)表示两框中心点的距离,c表示预测框与真实框的最小外接矩形的对角线距离。
α是做trade-off的参数,衡量长宽比一致性。计算公式如下所示:
Figure FDA0003632728210000022
Figure FDA0003632728210000023
其中,ω和ωgt分别表示预测边框与真实边框的宽度,h和hgt分别表示预测边框与真实边框的高度。CIoU_Loss的计算公式为:
CIoU_Loss=1-CIoU
采用GIoU能衡量两框的远近程度;也能反映两框的相交方式,较好的区分检测框和真实框的位置关系。
4.根据权利要求1所述的一种基于YOLOv5的疲劳状态实时检测方法,其特征在于,步骤
3具体包括:
步骤3.1:对步骤1所标注的数据集采用NMS算法对目标最后的检测框进行非极大值抑制处理以获得最优目标框。
步骤3.2:将标注的数据集按照7:2:1的比例划分其用于训练、验证和测试,训练集图片数量为2975张,验证集图片数量为850张,测试集图片数量为425张。
步骤3.3:设置网络训练参数:输入图像尺寸为640*640,设定学习率为0.02,学习率周期为0.25,训练批次大小为44,总共训练50个epoch,batch-size为1。lr为0.000042。由公式Loss=box_loss+cls_loss+obj_loss可知,YOLOv5的损失值由3个类别损失构成,分别是表征物体位置、物体类别及是否包含目标物体的损失。
5.根据权利要求1所述的一种基于YOLOv5的疲惫状态实时检测方法,其特征在于,在步
骤4中对步骤3训练好的YOLOv5模型进行推理测试。
6.根据权利要求1所述的一种基于YOLOv5的疲惫状态实时检测方法,其特征在于,采用如下性能指标评估本发明的算法性能:准确率(P,precision)、召回率(R,recall)、平均精度均值(mAP,mean average precision)。准确率是精确性的度量,表示被分为正的示例中实际为正例的比例。召回率是覆盖面的度量,计算有多个正例被分为正例。公式如下:
Precision=TP/(TP+FP)*100%
Recall=TP/(TP+FN)*100%
其中:TP代表预测为正例实际也为正例的数量,FP代表预测为正例但实际为负例的数量,FN代表预测为负例但实际为正例的数量。mAP是用以衡量识别精度,由所有类别的AP值求均值得到。其中通过计算不同召回率下最高的精确率可绘制P-R曲线,该曲线围成的面积即为该类别的AP值。训练后模型的Precision、Recall、mAP_0.5、mAP_0.5:0.95最高分别能够达到0.9827、0.95113、0.95621、0.8668。
CN202210495236.1A 2022-05-07 2022-05-07 一种基于YOLOv5的疲劳状态检测方法 Withdrawn CN114841968A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210495236.1A CN114841968A (zh) 2022-05-07 2022-05-07 一种基于YOLOv5的疲劳状态检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210495236.1A CN114841968A (zh) 2022-05-07 2022-05-07 一种基于YOLOv5的疲劳状态检测方法

Publications (1)

Publication Number Publication Date
CN114841968A true CN114841968A (zh) 2022-08-02

Family

ID=82567017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210495236.1A Withdrawn CN114841968A (zh) 2022-05-07 2022-05-07 一种基于YOLOv5的疲劳状态检测方法

Country Status (1)

Country Link
CN (1) CN114841968A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049969A (zh) * 2022-08-15 2022-09-13 山东百盟信息技术有限公司 一种改进YOLOv3和BiConvLSTM的不良视频检测方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115049969A (zh) * 2022-08-15 2022-09-13 山东百盟信息技术有限公司 一种改进YOLOv3和BiConvLSTM的不良视频检测方法
CN115049969B (zh) * 2022-08-15 2022-12-13 山东百盟信息技术有限公司 一种改进YOLOv3和BiConvLSTM的不良视频检测方法

Similar Documents

Publication Publication Date Title
CN110135374A (zh) 采用图像块特征识别与回归分类的火灾烟雾检测方法
CN110378232B (zh) 改进的ssd双网络的考场考生位置快速检测方法
CN106991668B (zh) 一种天网摄像头拍摄画面的评价方法
CN106331636A (zh) 基于行为事件触发的输油管道智能视频监控系统及方法
CN111738056B (zh) 一种基于改进YOLO v3的重卡盲区目标检测方法
CN112367518B (zh) 一种输电线路无人机巡检图像质量评价方法
CN111414813A (zh) 一种危险驾驶行为的识别方法、装置、设备及存储介质
CN109506628A (zh) 一种基于深度学习的卡车环境下目标物测距方法
CN116843999B (zh) 一种基于深度学习的动火作业中气瓶检测方法
CN116664558A (zh) 一种钢铁表面缺陷检测方法、系统及计算机设备
CN110674887A (zh) 一种基于视频分类的端到端道路拥堵检测算法
CN114841968A (zh) 一种基于YOLOv5的疲劳状态检测方法
CN116092115A (zh) 一种实时轻量的施工人员安全着装检测方法
CN116129135A (zh) 基于小目标视觉识别和虚拟实体映射的塔吊安全预警方法
CN113095445B (zh) 一种目标识别方法及装置
CN105631410B (zh) 一种基于智能视频处理技术的课堂检测方法
CN114299059A (zh) 一种热轧带钢表面未分类铸坯划伤缺陷的判定方法
CN113052234A (zh) 一种基于图像特征和深度学习技术的玉石分类方法
CN106611165A (zh) 一种基于相关滤波和颜色匹配的汽车车窗检测方法及装置
CN117197146A (zh) 一种铸件内部缺陷自动识别方法
CN103366163B (zh) 基于增量学习的人脸检测系统和方法
Li et al. Detection of small size defects in belt layer of radial tire based on improved faster r-cnn
CN116452505A (zh) 基于改进YOLOv5的连铸坯内部缺陷检测与评级方法
CN113221603A (zh) 一种检测监控设备被异物遮挡的方法及装置
TWI747686B (zh) 缺陷檢測方法及檢測裝置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WW01 Invention patent application withdrawn after publication
WW01 Invention patent application withdrawn after publication

Application publication date: 20220802