CN115424340A - 基于yolov5神经网络技术识别防护服的方法 - Google Patents

基于yolov5神经网络技术识别防护服的方法 Download PDF

Info

Publication number
CN115424340A
CN115424340A CN202211010987.6A CN202211010987A CN115424340A CN 115424340 A CN115424340 A CN 115424340A CN 202211010987 A CN202211010987 A CN 202211010987A CN 115424340 A CN115424340 A CN 115424340A
Authority
CN
China
Prior art keywords
protective clothing
model
sanitizing
data
intelligent
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211010987.6A
Other languages
English (en)
Inventor
韩世鲁
祝静思
梁思远
游靖
刘宏源
韩璐璐
刘红涛
杨磊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Henan Sincerity Information Technology Co ltd
Original Assignee
Henan Sincerity Information Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Henan Sincerity Information Technology Co ltd filed Critical Henan Sincerity Information Technology Co ltd
Priority to CN202211010987.6A priority Critical patent/CN115424340A/zh
Publication of CN115424340A publication Critical patent/CN115424340A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/762Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)

Abstract

本发明涉及防护服监管技术领域,且公开了基于YOLOV5神经网络技术识别防护服的方法,基于人工智能深度学习进行算法模型定制,智能硬件与智慧软件平台相结合,设计一种研判科学化、工作智能化、业务数据化、数据一体化物联网解决方案来管理防护服穿脱消毒工作。利用YOLOV5深度学习神经网络技术,进行大规模行为动作数据识别训练,配合智能摄像头、统一软件管理平台实现防护服穿脱合规和消毒规范判断,智能硬件数据回传统一软件管理平台实时预警并警告,监测医护人员穿脱防护服是否合规,控制病毒传播的范围保障隔离人员、医护人员和工作服务人员安全,提高监管效率,降低监管成本,利用动作识别模型智能识别视频中医护人员是否正确穿脱防护服和消毒。

Description

基于YOLOV5神经网络技术识别防护服的方法
技术领域
本发明涉及防护服监管技术领域,具体为基于YOLOV5神经网络技术识别防护服的方法。
背景技术
新冠疫情席卷全球,影响数个国家地区,传播速度之快、之强人人听闻怵之。新冠疫情反复无常对人们的出行带来不便,新冠传播能力之强更是对防护服的需求更上一步。医疗防护服有效阻隔了新冠病毒的传播保护医护人员的人生健康,但是一天劳累的工作可能会让医护人员穿脱防护服消毒的时候疏忽大意,增加了感染的可能性,人工监视提醒费时费力,成效甚微。防护服穿脱操作和消毒操作已统一规范但却存在着监督问题,人工监管耗时耗力还存在着监督不到位、误判、漏判的风险。防护服穿脱与消毒没有规范的监管制度,如果处理医疗废料和消毒不当,环境中若存在确诊病例,极大增加了感染新冠的风险,人工监管耗时耗力,一人只能保证监测一人的准确率,当网络互联多视频监测则会出现漏检、误检的问题。本发明的目的是为了解决防护服穿脱和消毒操作监管的问题,保证医护人员正确的穿脱防护服、处理医疗废料以及保护自我安全合规的消毒操作。
现有的技术方案主要还是靠医护人员自觉和人工视频监督的方法。但是医护人员一天的工作劳累后可能存在疏忽大意错误操作,无法保证每次都合规、医疗废料处理得当。人工视频监督的方法是在防护服消毒操作间安装摄像头,人工在监控室监督提醒,当多视频出现医护人员防护服穿脱和消毒的动作时,一个监督员会监督不及。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了基于YOLOV5神经网络技术识别防护服的方法,本发明利用YOLOV5深度学习神经网络技术大规模训练医护人员穿脱防护服合规数据集,将训练好的识别模型部署在智能摄像头上,对进入区域的医护人员穿脱防护服行为动作进行监测实时报警、医废处理监测,并将识别结果同步至智慧软件平台,打造智能硬件与软件相结合、数据一体化物联网,实现智能化监督机制。
(二)技术方案
为实现上述目的,本发明提供如下技术方案:基于YOLOV5神经网络技术识别防护服的方法,包括以下步骤:
1)智能摄像头设置:在隔离酒店或其他隔离点根据现有的防疫要求划分出专用的隔离防护服消毒操作间或场地,将智能摄像头设置在隔离防护服消毒操作间或场内合适的安装点位上;
2)图片数据筛选:装好点位后从监控视频中获取场景图象,使用python语言进行视频帧提取,筛选图片数据,使用labelimg标注工具对图像进行二分类标注,人物标签用0表示,其他用1表示,根据深度学习识别算法框架YOLOV5模型识别图像中的人物目标,并用矩形边框标识和输出,置信度损失函数和分类损失函数均使用的是BCEWithLogitsLoss,回归损失函数使用的是CIOU;
3)获取anchor框:根据iou距离利用Kmeans聚类算法获取YOLO V5所需的9个anchor框;
4)人物的动作进行分类识别并输出:识别出的人物的原始图像根据识别模型选中的矩形框坐标将人物裁剪出来,使用labelimg标注工具对图像进行八分类标注,标注后的文件使用python代码修改文件中的标签信息为五分类信息,穿防护服带面罩和正在消毒SaftyClothes-FaceMsak-Sanitizing、穿防护服未带面罩和正在消毒SaftyClothes-NoFaceMask-Sanitizing、未穿防护服但佩戴面罩和正在消毒NoSaftyClothes-FaceMsak-Sanitizing、未穿防护服未带面罩和正在消毒NoSaftyClothes-NoFaceMsak-Sanitizing、没有消毒No-Sanitizing,将重新修改标签后的数据放在resnet18分类模型中,对人物的动作进行分类识别并输出;
5)信息输出:分类输出后的动作识别信息回传给智慧软件平台并在前端显示。
优选的,所述智能摄像头的安装点位要求能够清洗完整的对场景中的图像进行拍摄。
优选的,所述智能摄像头的配置过程如下:首先利用摄像头采集医护人员穿脱防护服数据,包括正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据,正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据均设置多组,利用labelme标注工具进行图像标注处理并存储到数据库,之后利用该数据训练防护服穿脱合规识别模型,将训练好的模型部署在智能摄像头内,且模型训练的次数为300次。
优选的,所述智能摄像头与智慧软件平台网络连接将前端物理信息传输给智能软件平台,智能软件平台配置有可查看监控视频功能且具备实时报警异常行为功能。
优选的,防护服穿脱动作和消毒动作识别模型是使用的YOLO v5,其中消毒动作识别是修改了YOLO v5模型的检测类别数量(由8类改为5类)并训练,防护服穿脱动作识别标注模型类别为:SaftyClothes-FaceMsak-Sanitizing、SaftyClothes-FaceMask-NoSanitizing、SaftyClothes-NoFaceMask-Sanitizing、SaftyClothes-NoFaceMask-NoSanitizing、NoSaftyClothes-FaceMsak-Sanitizing、NoSaftyClothes-FaceMsak-NoSanitizing、NoSaftyClothes-NoFaceMsak-Sanitizing、NoSaftyClothes-NoFaceMsak-NoSanitizing;所述消毒动作识别模型将类别由8类修改为5类具体为:SaftyClothes-FaceMsak-Sanitizing、SaftyClothes-NoFaceMask-Sanitizing、NoSaftyClothes-FaceMsak-Sanitizing、NoSaftyClothes-NoFaceMsak-Sanitizing、No-Sanitizing。
优选的,所述智能摄像头算法开发流程如下:
1)在隔离酒店或其他隔离点根据现有的防疫要求划分出专用的隔离防护服消毒操作间或场地,将智能摄像头设置在隔离防护服消毒操作间或场内合适的安装点位上;
2)收集音频图像数据,使用python的Opencv框架中的Videocapture()函数进行视频抽帧,按照指定的动作标准筛选特征明显的图像,使用labelme标注工具标注图像数据,制定数据集;
3)将制定的好的数据存放在数据库,YOLOV5神经网络模型调用readme文件读取数据集进行推理、训练模型参数、迭代优化;
4)将算法部署在智能摄像头,智能摄像头前端再次收集图像信息作为测试集,动作识别模型推理判断测试数据集;
6)数据判定,若算法模型推理准确率达到0.95则符合标准进行下一步模型验证,若准确率不达标进行算法迭代,增加数据扩大数据集,迭代优化训练模型参数。
(三)有益效果
与现有技术相比,本发明提供了基于YOLOV5神经网络技术识别防护服的方法,具备以下有益效果:
该基于YOLOV5神经网络技术识别防护服的方法,基于人工智能深度学习进行算法模型定制,智能硬件与智慧软件平台相结合,设计一种研判科学化、工作智能化、业务数据化、数据一体化物联网解决方案来管理防护服穿脱消毒工作。利用YOLOV5深度学习神经网络技术,进行大规模行为动作数据识别训练,配合智能摄像头、统一软件管理平台实现防护服穿脱合规和消毒规范判断,智能硬件数据回传统一软件管理平台实时预警并警告,监测医护人员穿脱防护服是否合规,控制病毒传播的范围保障隔离人员、医护人员和工作服务人员安全,提高监管效率,降低监管成本,利用动作识别模型智能识别视频中医护人员是否正确穿脱防护服和消毒,减少了人工参与的工作量,并且检测、识别、报警一站式完成简化了整体流程。
附图说明
图1为本发明智能摄像头算法开发流程结构示意图;
图2为本发明识别穿脱防护服动作模型精确率与训练轮数关系图;
图3为本发明识别消毒操作动作模型精确率与训练轮数关系示意图
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一:基于YOLOV5神经网络技术识别防护服的方法,包括以下步骤:
1)智能摄像头设置:在隔离酒店或其他隔离点根据现有的防疫要求划分出专用的隔离防护服消毒操作间或场地,将智能摄像头设置在隔离防护服消毒操作间或场内合适的安装点位上,所述智能摄像头的安装点位要求能够清洗完整的对场景中的图像进行拍摄;
2)图片数据筛选:装好点位后从监控视频中获取场景图象,使用python语言进行视频帧提取,筛选图片数据,使用labelimg标注工具对图像进行二分类标注,人物标签用0表示,其他用1表示,根据深度学习识别算法框架YOLOV5模型识别图像中的人物目标,并用矩形边框标识和输出,置信度损失函数和分类损失函数均使用的是BCEWithLogitsLoss,回归损失函数使用的是CIOU;
3)获取anchor框:根据iou距离利用Kmeans聚类算法获取YOLO V5所需的9个anchor框;
4)人物的动作进行分类识别并输出:识别出的人物的原始图像根据识别模型选中的矩形框坐标将人物裁剪出来,使用labelimg标注工具对图像进行八分类标注,标注后的文件使用python代码修改文件中的标签信息为五分类信息,穿防护服带面罩和正在消毒SaftyClothes-FaceMsak-Sanitizing、穿防护服未带面罩和正在消毒SaftyClothes-NoFaceMask-Sanitizing、未穿防护服但佩戴面罩和正在消毒NoSaftyClothes-FaceMsak-Sanitizing、未穿防护服未带面罩和正在消毒NoSaftyClothes-NoFaceMsak-Sanitizing、没有消毒No-Sanitizing,将重新修改标签后的数据放在resnet18分类模型中,对人物的动作进行分类识别并输出;
5)信息输出:分类输出后的动作识别信息回传给智慧软件平台并在前端显示。
所述智能摄像头的配置过程如下:首先利用摄像头采集医护人员穿脱防护服数据,包括正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据,正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据均设置多组,利用labelme标注工具进行图像数据标注处理并存储到数据库,之后利用该数据训练防护服穿脱合规识别模型,将训练好的模型部署在智能摄像头内,且模型训练的次数为300次,防护服穿脱动作和消毒动作识别模型是使用的YOLO v5,其中消毒动作识别是修改了YOLO v5模型的检测类别数量(由8类改为5类)并训练,防护服穿脱动作识别标注模型类别为:SaftyClothes-FaceMsak-Sanitizing、SaftyClothes-FaceMask-NoSanitizing、SaftyClothes-NoFaceMask-Sanitizing、SaftyClothes-NoFaceMask-NoSanitizing、NoSaftyClothes-FaceMsak-Sanitizing、NoSaftyClothes-FaceMsak-NoSanitizing、NoSaftyClothes-NoFaceMsak-Sanitizing、NoSaftyClothes-NoFaceMsak-NoSanitizing;所述消毒动作识别模型将类别由8类修改为5类具体为:SaftyClothes-FaceMsak-Sanitizing、SaftyClothes-NoFaceMask-Sanitizing、NoSaftyClothes-FaceMsak-Sanitizing、NoSaftyClothes-NoFaceMsak-Sanitizing、No-Sanitizing,所述智能摄像头与智慧软件平台网络连接将前端物理信息传输给智能软件平台,智能软件平台配置有可查看监控视频功能且具备实时报警异常行为功能。
智能摄像头算法开发流程如下:
1)在隔离酒店或其他隔离点根据现有的防疫要求划分出专用的隔离防护服消毒操作间或场地,将智能摄像头设置在隔离防护服消毒操作间或场内合适的安装点位上;
2)收集音频图像数据,使用python的Opencv框架中的Videocapture()函数进行视频抽帧,按照指定的动作标准筛选特征明显的图像,使用labelme标注工具标注图像数据,制定数据集;
3)将制定的好的数据存放在数据库,YOLOV5神经网络模型调用readme文件读取数据集进行推理、训练模型参数、迭代优化;
4)将算法部署在智能摄像头,智能摄像头前端再次收集图像信息作为测试集,动作识别模型推理判断测试数据集;
6)数据判定,若算法模型推理准确率达到0.95则符合标准进行下一步模型验证,若准确率不达标进行算法迭代,增加数据扩大数据集,迭代优化训练模型参数。
在隔离防护服消毒操作间或场地被的关键位点配置智能摄像头,首先利用摄像头采集医护人员穿脱防护服数据,包括正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据,正利用labelme标注工具进行数据预处理并存储到数据库,之后利用该数据训练防护服穿脱合规识别模型,将训练好的模型部署在智能摄像头;智能摄像头与智慧软件平台网络连接将前端物理信息传输给智能软件平台,当医护人员进入到隔离防护服消毒操作间或场地内后智能摄像头采集到人员进入的图像信息,随后开始对人员操作进行图像捕捉,智能软件平台有个可查看监控视频功能并且页面也实时报警异常行为并当场提示医护人员操作不当。
本发明的有益效果是:该基于YOLOV5神经网络技术识别防护服的方法,基于人工智能深度学习进行算法模型定制,智能硬件与智慧软件平台相结合,设计一种研判科学化、工作智能化、业务数据化、数据一体化物联网解决方案来管理防护服穿脱消毒工作。利用YOLOV5深度学习神经网络技术,进行大规模行为动作数据识别训练,配合智能摄像头、统一软件管理平台实现防护服穿脱合规和消毒规范判断,智能硬件数据回传统一软件管理平台实时预警并警告,监测医护人员穿脱防护服是否合规,控制病毒传播的范围保障隔离人员、医护人员和工作服务人员安全,提高监管效率,降低监管成本,利用动作识别模型智能识别视频中医护人员是否正确穿脱防护服和消毒,减少了人工参与的工作量,并且检测、识别、报警一站式完成简化了整体流程。
尽管已经示出和描述了本发明的实施例,对于本领域的普通技术人员而言,可以理解在不脱离本发明的原理和精神的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由所附权利要求及其等同物限定。

Claims (6)

1.基于YOLOV5神经网络技术识别防护服的方法,其特征在于,包括以下步骤:
1)智能摄像头设置:在隔离酒店或其他隔离点根据现有的防疫要求划分出专用的隔离防护服消毒操作间或场地,将智能摄像头设置在隔离防护服消毒操作间或场内合适的安装点位上;
2)图片数据筛选:装好点位后从监控视频中获取场景图象,使用python语言进行视频帧提取,筛选图片数据,使用labelimg标注工具对图像进行二分类标注,人物标签用0表示,其他用1表示,根据深度学习识别算法框架YOLOV5模型识别图像中的人物目标,并用矩形边框标识和输出,置信度损失函数和分类损失函数均使用的是BCEWithLogitsLoss,回归损失函数使用的是CIOU;
3)获取anchor框:根据iou距离利用Kmeans聚类算法获取YOLO V5所需的9个anchor框;
4)人物的动作进行分类识别并输出:识别出的人物的原始图像根据识别模型选中的矩形框坐标将人物裁剪出来,使用labelimg标注工具对图像进行八分类标注,标注后的文件使用python代码修改文件中的标签信息为五分类信息,穿防护服带面罩和正在消毒SaftyClothes-FaceMsak-Sanitizing、穿防护服未带面罩和正在消毒SaftyClothes-NoFaceMask-Sanitizing、未穿防护服但佩戴面罩和正在消毒NoSaftyClothes-FaceMsak-Sanitizing、未穿防护服未带面罩和正在消毒NoSaftyClothes-NoFaceMsak-Sanitizing、没有消毒No-Sanitizing,将重新修改标签后的数据放在resnet18分类模型中,对人物的动作进行分类识别并输出;
5)信息输出:分类输出后的动作识别信息回传给智慧软件平台并在前端显示。
2.根据权利要求1所述的基于YOLOV5神经网络技术识别防护服的方法,其特征在于,所述智能摄像头的安装点位要求能够清洗完整的对场景中的图像进行拍摄。
3.根据权利要求1所述的基于YOLOV5神经网络技术识别防护服的方法,其特征在于,所述智能摄像头的配置过程如下:利用摄像头采集医护人员穿脱防护服数据,包括正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据,正常穿脱防护服、佩戴护目镜、消毒操作的正样本和错误穿脱防护服、佩戴护目镜、消毒的负样本数据均设置多组,利用labelme标注工具进行图像数据标注处理并存储到数据库,之后利用该数据训练防护服穿脱合规识别模型,将训练好的模型部署在智能摄像头内,且模型训练的次数为300次。
4.根据权利要求3所述的基于YOLOV5神经网络技术识别防护服的方法,其特征在于,所述智能摄像头与智慧软件平台网络连接将前端物理信息传输给智能软件平台,智能软件平台配置有可查看监控视频功能且具备实时报警异常行为功能。
5.根据权利要求3所述的基于YOLOV5神经网络技术识别防护服的方法,其特征在于,防护服穿脱动作和消毒动作识别模型是使用的YOLO v5,其中消毒动作识别是修改了YOLO v5模型的检测类别数量(由8类改为5类)并训练,防护服穿脱动作识别标注模型类别为:SaftyClothes-FaceMsak-Sanitizing、SaftyClothes-FaceMask-NoSanitizing、SaftyClothes-NoFaceMask-Sanitizing、SaftyClothes-NoFaceMask-NoSanitizing、NoSaftyClothes-FaceMsak-Sanitizing、NoSaftyClothes-FaceMsak-NoSanitizing、NoSaftyClothes-NoFaceMsak-Sanitizing、NoSaftyClothes-NoFaceMsak-NoSanitizing;所述消毒动作识别模型将类别由8类修改为5类具体为:SaftyClothes-FaceMsak-Sanitizing、SaftyClothes-NoFaceMask-Sanitizing、NoSaftyClothes-FaceMsak-Sanitizing、NoSaftyClothes-NoFaceMsak-Sanitizing、No-Sanitizing。
6.根据权利要求5所述的基于YOLOV5神经网络技术识别防护服的方法,其特征在于,所述智能摄像头算法开发流程如下:
1)在隔离酒店或其他隔离点根据现有的防疫要求划分出专用的隔离防护服消毒操作间或场地,将智能摄像头设置在隔离防护服消毒操作间或场内合适的安装点位上;
2)收集音频图像数据,使用python的Opencv框架中的Videocapture()函数进行视频抽帧,按照指定的动作标准筛选特征明显的图像,使用labelme标注工具标注图像数据,制定数据集;
3)将制定的好的数据存放在数据库,YOLOV5神经网络模型调用readme文件读取数据集进行推理、训练模型参数、迭代优化;
4)将算法部署在智能摄像头,智能摄像头前端再次收集图像信息作为测试集,动作识别模型推理判断测试数据集;
6)数据判定,若算法模型推理准确率达到0.95则符合标准进行下一步模型验证,若准确率不达标进行算法迭代,增加数据扩大数据集,迭代优化训练模型参数。
CN202211010987.6A 2022-08-23 2022-08-23 基于yolov5神经网络技术识别防护服的方法 Pending CN115424340A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211010987.6A CN115424340A (zh) 2022-08-23 2022-08-23 基于yolov5神经网络技术识别防护服的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211010987.6A CN115424340A (zh) 2022-08-23 2022-08-23 基于yolov5神经网络技术识别防护服的方法

Publications (1)

Publication Number Publication Date
CN115424340A true CN115424340A (zh) 2022-12-02

Family

ID=84197867

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211010987.6A Pending CN115424340A (zh) 2022-08-23 2022-08-23 基于yolov5神经网络技术识别防护服的方法

Country Status (1)

Country Link
CN (1) CN115424340A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152927A (zh) * 2023-02-24 2023-05-23 中山大学附属第三医院 一种防护服穿脱行为监管系统
CN116723058A (zh) * 2023-08-10 2023-09-08 井芯微电子技术(天津)有限公司 网络攻击检测和防护方法和装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116152927A (zh) * 2023-02-24 2023-05-23 中山大学附属第三医院 一种防护服穿脱行为监管系统
CN116723058A (zh) * 2023-08-10 2023-09-08 井芯微电子技术(天津)有限公司 网络攻击检测和防护方法和装置
CN116723058B (zh) * 2023-08-10 2023-12-01 井芯微电子技术(天津)有限公司 网络攻击检测和防护方法和装置

Similar Documents

Publication Publication Date Title
CN115424340A (zh) 基于yolov5神经网络技术识别防护服的方法
CN112085010B (zh) 一种基于图像识别的口罩检测和部署系统及方法
CN109672863A (zh) 一种基于图像识别的施工人员安全装备智能监测方法
CN113807240A (zh) 基于非配合式人脸识别的变电站人员着装智能监控方法
CN109543607A (zh) 目标物异常状态检测方法、系统、监护系统及存储介质
CN109460744A (zh) 一种基于深度学习的视频监控系统
CN110009281A (zh) 一种仓储管理系统及其管理方法
CN110930632B (zh) 一种基于人工智能的预警系统
CN109308670A (zh) 基于行为预测的变电站安全管控方法
CN115620471A (zh) 一种基于大数据筛查的图像识别安防系统
CN116246424A (zh) 一种老年人行为安全监控系统
CN107220623A (zh) 一种人脸识别方法及系统
KR102613058B1 (ko) 이기종 빅데이터 호환 게이트웨이를 포함하는 ai 딥러닝 기반 위험탐지 시스템
CN116665419B (zh) 电力生产作业中基于ai分析的故障智能预警系统及方法
CN117081917A (zh) 基于ai物联网污水处理运维管理的智能网关
CN109460714B (zh) 识别对象的方法、系统和装置
CN109376635B (zh) 一种护理质量考核系统及安全事件上报方法
CN116308955A (zh) 一种基于ai人工智能进行康养管理的智慧社区
CN113341825B (zh) 设备运维智能监测方法及系统
CN115063921A (zh) 一种工地智能闸机系统及搭建方法
CN115620219A (zh) 一种基于人工智能的监管场所隐患及异常行为监测方法
CN111738681B (zh) 一种基于深度学习及智能插座的消毒行为智能判定系统及方法
CN114281656A (zh) 一种智能中控系统
CN207097001U (zh) 一种人脸识别系统
CN109409266B (zh) 一种安全事件识别上报系统及安全事件识别上报方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination