CN114937232A - 医废处理人员防护用具穿戴检测方法、系统和设备 - Google Patents
医废处理人员防护用具穿戴检测方法、系统和设备 Download PDFInfo
- Publication number
- CN114937232A CN114937232A CN202210873994.2A CN202210873994A CN114937232A CN 114937232 A CN114937232 A CN 114937232A CN 202210873994 A CN202210873994 A CN 202210873994A CN 114937232 A CN114937232 A CN 114937232A
- Authority
- CN
- China
- Prior art keywords
- wearing
- image
- medical waste
- protective
- correct
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02W—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO WASTEWATER TREATMENT OR WASTE MANAGEMENT
- Y02W90/00—Enabling technologies or technologies with a potential or indirect contribution to greenhouse gas [GHG] emissions mitigation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Accommodation For Nursing Or Treatment Tables (AREA)
Abstract
本发明提出了一种医废处理人员的防护用具穿戴检测方法、系统、设备、和存储介质,需要对现有的医疗卫生视频监管系统进行改造,融入目标检测等智能算法,对医护人员和收运人员在医废处理间的防护用品穿戴和行为实行智能化监管,避免因操作不当和防护用品穿戴不到位而造成院感事件的发生。医疗废物转运间的目标检测任务通常包括医废处理工作人员的防护用品穿戴检测,如是否按照规定正确佩戴口罩、帽子、工作服、防水围裙、防水靴、手套等。该检测方法能自动实时检测医废处理人员的防护用品穿着是否规范,即使各识别目标尺度差异较大,也能有较高的识别精度和识别效果,为监管部门提供了数字化监管手段。
Description
技术领域
本发明涉及一种医废处理人员防护用具穿戴检测方法,尤其涉及一种通过新型神经元算法来实现医废处理人员防护用具穿戴检测方法、装置、设备和存储介质。
背景技术
医废处理人员在防护用具穿戴上有着很严格的规定,管理部门通常为医疗废物处理人员配备防护用品,如工作服、防水围裙、橡胶手套、防水靴、口罩、帽子等,并给出如安全防护制度、佩戴流程的操作指南。
现有的技术中只能人工检测医废处理人员在防护用具穿戴是否符合要求,人工检测速度慢、准度不够。还有,医废处理人员在防护用具穿戴是一个动态的过程,其佩戴流程有相关的规定,既防护用具穿戴有顺序要求,现有的人工检测根本无法做到批量化检测的问题。
为加强对医废处置人员处置过程的监督管理,视频监控系统得到了广泛的应用。但是由于缺乏视频数据分析能力,仍然需要花费大量的人力对视频进行人工筛查。因此需要对现有的医疗卫生视频监管系统进行改造,融入目标检测等智能算法,对医护人员和收运人员在医废处理间的防护用品穿戴和行为实行智能化监管,避免因操作不当和防护用品穿戴不到位而造成院感事件的发生。
发明内容
本发明提供一种医废处理人员防护用具穿戴检测方法、装置、设备和存储介质,以实现对医护人员和收运人员在医废处理间的防护用品穿戴和行为实行智能化监管,避免因操作不当和防护用品穿戴不到位而造成院感事件的发生的技术问题。
一种医废处理人员防护用具穿戴检测方法,包括:
采集医废处理人员穿戴防护用具的视频流信息,并将所述视频流信息传送至服务器;
所述服务器处理所述视频流信息,并通过防护用具穿戴检测模型先对穿戴图像进行防护用品穿戴正确识别,然后对检测佩戴顺序是否正确进行识别:其所述对穿戴图像进行防护用品穿戴正确识别进一步包括:
获取图像建立当前数据集,所述数据集包括医废处理人员在防护用具穿戴的整个过程中截取的图像数据,分别具有对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征的图片,按截取时间顺序进行保存;
预先采用YOLO v4网络作为基础模型,对预先标注正确佩戴防护用户的第一图像数据集使用轻量化网络ShuffleNet作为主干网络提取图像特征,增加注意力机制模块SKNet,将注意力机制融入到YOLO v4模型中,所述防护用具穿戴检测模型至少包括得到训练好的YOLO v4 安全防护检测模型,从所述当前数据集找到当前具有所有防护用具特征的图片信息,将所述图片信息输入至所述YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测;
所述然后对检测佩戴顺序是否正确进行识别进一步包括:
当前数据集为一组待检测图像信息,其每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
本方法还包括采用Mosaic数据增强进行第一图像数据集进行训练,其进一步包括:
从所述第一图像数据集中每次随机读取四张图片,分别对四张图片进行随机缩放、色域变化在内的操作;
操作完成之后然后再将原始图片按照随机分布进行拼接;
利用矩阵的方式将四张图片它固定的区域截取下来,然后将它们拼接起来,拼接成一张新的图片,新的图片又成为训练图片。
本方法的增加注意力机制模块SKNet进一步包括:
SKNet对不同图像使用的卷积核权重不同,一种针对不同尺度的图像动态生成卷积核,SKNet网络主要由Split、Fuse、Select三部分组成Split 部分是对原特征图经过不同大小的卷积核部分进行卷积的过程,Fuse部分是计算每个卷积核权重的部分,Select 部分是根据不同权重卷积核计算后得到的新的特征图的过程,实现对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测。
本方法,所述与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比进一步包括对正确穿戴顺序的目标区域位置的目标预测,其包括:
采用Soft-NMS引入高斯加权的方式,对重复目标框其进行打分:
其中M为当前得分最高框,b i 为待处理框的重复框,Nt为NMS算法中需要手动设置的阈值;
Soft-NMS算法无需设置阈值参数,通过上述公式自动计算得分,当b i 和M的IOU越大时,其得分就下降的越快,保证了目标检测的预测准确度。
并且,所述获取图像建立当前数据集进一步包括:
对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征分别建立不同的特征模型,并用案例集进行训练成适配的特征模型;
将所述视频流信息按预先设定的时长得到图片集;
用训练好的不同特征模型分别对所述图片集进行识别,每个特征模型找到第一次出现特征的图片和最后一次出现所述特征的图片,保存所述图片及图片的时间点,以此得到所述当前数据集。
本发明还提供一种医废处理人员防护用具穿戴检测系统,包括:
采集装置:用于采集医废处理人员穿戴防护用具的视频流信息,并将所述视频流信息传送至服务器;
所述服务器:用于处理所述视频流信息,并通过防护用具穿戴检测模型先对穿戴图像进行防护用品穿戴正确识别,然后对检测佩戴顺序是否正确进行识别,其进一步包括:穿戴正确识别模块和佩戴顺序识别模块,所述穿戴正确识别模块用于所述当前数据集找到当前具有所有防护用具特征的图片信息,将所述图片信息输入至所述YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测;
佩戴顺序识别模块用于当前数据集为一组待检测图像信息,其每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
一种计算机设备,包括:
存储器,所述存储器用于存储处理程序;
处理器,所述处理器执行所述处理程序时实现上述医废处理人员防护用具穿戴检测方法。
一种可读存储介质,所述可读存储介质上存储有处理程序,所述处理程序被处理器执行时实现如上述医废处理人员防护用具穿戴检测方法。
本发明提出了一种医废处理相关人员的防护用具穿戴检测方法。为加强对医废处置人员处置过程的监督管理,视频监控系统得到了广泛的应用。但是由于缺乏视频数据分析能力,仍然需要花费大量的人力对视频进行人工筛查。因此需要对现有的医疗卫生视频监管系统进行改造,融入目标检测等智能算法,对医护人员和收运人员在医废处理间的防护用品穿戴和行为实行智能化监管,避免因操作不当和防护用品穿戴不到位而造成医院感事件的发生。医疗废物转运间的目标检测任务通常包括医废处理工作人员的防护用品穿戴检测,如是否按照规定正确佩戴口罩、帽子、工作服、防水围裙、防水靴、手套等。该检测方法能自动实时检测医废处理人员的防护用品穿着是否规范,即使各识别目标尺度差异较大,也能有较高的识别精度和识别效果,为监管部门提供了数字化监管手段。
附图说明
图1为医废处理人员防护用具穿戴检测系统原理图;
图2为医废处理人员防护用具穿戴检测算法原理图;
图3为本发明模型的一种训练方式流程图;
图4为医废处理人员防护用具穿戴检测方法的一种流程图;
图5为本发明 YOLO v4结构示意图;
图6为改进后的特征提取主干网络(融入SKNet的ShuffleNet特征提取网络)示意图。
具体实施方式
以下结合附图,具体说明本发明。 在本公开的实施例中,术语“模型”能够处理输入并且提供相应输出。以神经网络模型为例,其通常包括输入层、输出层以及在输入层与输出层之间的一个或多个隐藏层。在深度学习应用中使用的模型(也称为“深度学习模型”)通常包括许多隐藏层,从而延长网络的深度。神经网络模型的各个层按顺序相连以使得前一层的输出被用作后一层的输入,其中输入层接收神经网络模型的输入,而输出层的输出作为神经网络模型的最终输出。神经 网络模型的每个层包括一个或多个节点(也称为处理节点或神经元),每个节点处理来自上一层的输入。在本文中,术语“神经网络”、“模型”、“网络”和“神经网络模型”可互换使用。
请参阅图1-6,图1中,医废处理人员防护用具穿戴检测系统100包括计算设备110。计算设备110可以是具有计算能力的任何设备,例如个人计算机、平板计算机、云服务器、大型机和分布式计算系统等。计算设备110获取输入模块120。例如,输入模块120可以是图像、视频、音频、文本、和/或多媒体文件等。计算设备110可以将输入模块120应用于网络模型130,以利用网络模型130,生成与输入模块120相对应的处理结果140。在一些实施例中,网络模型130可以是但不限于图像分类模型、目标检测模型、目标跟踪模型,或者其他与图像处理相关的神经网络模型。可以利用任何合适的网络结构来实现网络模型130,包括但不限于各种深度学习/神经网络模型,CNN(卷积神经网络)、R-CNN、RetainNet、YOLO等。本公开的范围在此方面不受限制。
系统100还可以包括训练数据获取装置、模型训练装置和模型应用装置(未示出)。在一些实施例中,上述多个装置可以分别实现在不同的物理计算设备中。备选地,上述多个装置中的至少一部分装置可以被实现在同一计算设备中。例如,训练数据获取装置、模型训练装置和可以被实现在同一计算设备中,而模型应用装置可以被实现在另一计算设备中。
一些实施例中,在模型训练阶段,训练数据获取装置可以获取输入模块120,并将其提供给模型。输入模块120可以是原始样本和与原始样本相对应的不同的增广样本,并且网络模型130是待训练模型。模型训练装置可以基于输入对网络模型130进行训练。处理结果140可以针对该模型的不同约束,计算设备110可以通过不同约束对网络模型130的训练参数(例 如,权重和偏置等)进行调整,使得模型在训练样本上的误差降低。
备选地,在一些实施例中,在模型训练的最后阶段,输入可以是测试样本,并且处理结果140可以是对经训练的网络模型130的性能指标(例如,准确性)的表征,这可以例如通过测试损失来表示,经训练的网络模型可以被提供给模型应用装置。模型应用装置可以获取经训练模型以及输入模块120,并确定针对输入模块120的处理结果140。在模型应用阶段,输入模块120可以是待处理的输入数据(例如,图像数据),网络模型130是经训练模型(例如,经训练的图像分类模型),处理结果140可以是与输入模块120(例如,图像数据)相对应的预测结果 (例如,图像的分类结果、语义分割结果或目标识别结果)。
申请人在对医废处理人员在防护用具穿戴做神经元算法时,发现设定目标检测可以以配备的防护用品为目标,如防水围裙、橡胶手套、防水靴、口罩、帽子、工作服等,将该些防护用品配带不符合要求的图片信息,特别是将不符合要求的地方做候选区域,即包括Fast R-CNN、Faster R-CNN 和 FPN基于候选区域的目标检测器,YOLO、SSD和RetinaNet等在内的单次检测器,利用该些算法来完成。
还有,整个医废处理人员在防护用具穿戴是一个流程,在流程上是有先后顺序等的要求的,这种情况下,我们可以用多个实例分割进展预测和后期图片的比例来实现。
第一实施例
以下具体介绍。医废处理人员防护用具穿戴检测方法的流程,其包括以下步骤:
S10:采集医废处理人员穿戴防护用具的视频流信息,并将所述视频流信息传送至服务器。
一种简单的方式为采集装置(如录像设备)检测到有人站在特定位置,即开始录视频,检测到其穿戴防护用具穿戴完毕后,将视频流进行保存后上传至服务器端。
S20:所述服务器处理所述视频流信息,并通过防护用具穿戴检测模型先对穿戴图像进行防护用品穿戴正确识别,然后对检测佩戴顺序是否正确进行识别。
本发明采用两个过程,对防护用品穿戴正确识别和佩戴顺序是否正确进行识别。有很多种方式实现,本实例可以采用先获得穿戴完整的图片,对该图片进行防护用品穿戴正确的识别,只有通过识别才能进行第二过程,即对检测佩戴顺序是否正确进行识别。一种方式是先找到具有所有防护用品特征在的图片作为当前需要识别防护用品穿戴是否正确,后再对视频进行按顺序采集获取图像建立当前数据集,可以判断其佩戴顺序是否正确。
本实例考虑到处理的效率,可以对视频进行按顺序采集获取图像建立当前数据集为一个进程,识别防护用品穿戴是否正确为第二个进程,佩戴顺序是否正确进行识别为第三个进程。这三个进程为并行处理进程,可以提升实现的效率。
比如,其所述对穿戴图像进行防护用品穿戴正确识别进一步包括:
获取图像建立当前数据集,所述数据集包括医废处理人员在防护用具穿戴的整个过程中截取的图像数据,分别具有对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征的图片,按截取时间顺序进行保存。
预先采用YOLO v4网络作为基础模型,对预先标注正确佩戴防护用户的第一图像数据集使用轻量化网络ShuffleNet作为主干网络提取图像特征,增加注意力机制模块SKNet,将注意力机制融入到YOLO v4模型中,所述防护用具穿戴检测模型至少包括得到训练好的YOLO v4 安全防护检测模型,从所述当前数据集找到当前具有所有防护用具特征的图片信息,将所述图片信息输入至所述YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测。
所述获取图像建立当前数据集可以进一步包括:
对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征分别建立不同的特征模型,并用案例集进行训练成适配的特征模型;
将所述视频流信息按预先设定的时长得到图片集;
用训练好的不同特征模型分别对所述图片集进行识别,每个特征模型找到第一次出现特征的图片和最后一次出现所述特征的图片,保存所述图片及图片的时间点,以此得到所述当前数据集。
所述然后对检测佩戴顺序是否正确进行识别进一步包括:
当前数据集为一组待检测图像信息,其每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
上述过程举个实例来说明。
步骤S110:搜集图像建立数据集,所述数据集包括医废处理人员在防护用具穿戴的整个过程中截取的图像数据,分别对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员均进行标注,并且标注至少包括工作服、防水围裙橡胶手套、防水靴、口罩、帽子等标识。建立的数据集可以有两种:一种是正确穿戴的图像数据集(后续称为第一图像数据集),一种是不正确穿戴的图像数据集(后续称为第二图像数据集)。在本实例中,也可以仅设置第一图像数据集,在另一种实现方案中可以同时设置第一图像数据集和第二图像数据集。
第一图像数据集为例,对该些图像数据集分别进行标识,有效的数据增强方式可以增强数据集的丰富程度,更有利于提高模型的表达能力。本发明采用Mosaic数据增强方式,通过把4张图片进行随机缩放、随机裁减、随机排布的方式进行拼接。
Mosaic数据增强方法是YOLO v4论文中提出来的,主要思想是将四张图片进行随机裁剪,再拼接到一张图上作为训练数据。这样做的好处是丰富了图片的背景,并且四张图片拼接在一起变相地提高了批量大小(batch_size),在进行批量归一化(batchnormalization)的时候也会计算四张图片,所以对本身批量大小(batch_size)不是很依赖,单块GPU就可以训练YOLO v4。具体地流程为从第一图像数据集中每次随机读取四张图片,分别对四张图片进行随机缩放(对原始图片进行大小的缩放)、色域变化(对原始图片的明亮度、饱和度、色调进行改变)、等操作。操作完成之后然后再将原始图片按照随机分布进行拼接。完成四张图片的拼接之后,我们利用矩阵的方式将四张图片它固定的区域截取下来,然后将它们拼接起来,拼接成一张新的图片,新的图片又成为训练图片。
由于采用随机使用4张图片,随机缩放,再随机分布进行拼接的方式,大大丰富了检测数据集,特别是随机缩放增加了很多小目标,让网络对小目标检测的鲁棒性更好,可以让模型提高对小目标检测的精度,也可以让模型更好的适应多尺寸目标检测任务。
步骤120:采用YOLO v4网络作为基础模型进行改进,YOLO v4的结构如图5所示,其中特征提取主干网络是保证目标能被识别的前提和关键,网络提取到的特征直接影响到识别的准确程度。
YOLO v4采用CSPDarknet53作为特征提取主干网络,虽然保证了网络具有较好的识别效果,但是带来了较大的参数量,在进行目标检测时需要花费较大的计算成本,在移动设备上部署网络和模型时需要较高的硬件资源。为了减少参数量,降低移动设备部署网络和模型的硬件门槛,通过使用轻量化网络ShuffleNet作为主干网络提取图像特征,并融入注意力机制网络SKNet,其轻量化的设计在满足精度要求的同时,具有很低的延时,可以部署在算力不是很高的移动端设备,实现实时的检测。经过重新设计的特征提取主干网络如图6所示。
如图6所示,首先将输入图片的尺寸调整至448×448的像素大小,然后将其输入至ShuffleNet,进行 3×3,步长为2的卷积操作和2×2的最大池化操作处理输入图像,输出尺寸为112×112的特征图。然后将上述特征图传入三个 ShuffleNet 基本单元 (Stage2、Stage3、Stage4),分别得到56×56、28×28、14×14尺寸大小的特征图。在Stage4后加入SKNet,SKNet将自动计算各个尺寸卷积核提取得到的特征所占权重的大小,以提高识别准确度,SKNet计算后输出14×14尺寸大小的特征图,与输入特征图的大小保持一致。后经过2×2平均池化操作,得到13×13大小的特征图。13×13大小的特征图可直接输入至原YOLOv4算法的剩余网络中,特征图的尺寸大小与原YOLO v4的SPPNet模块相匹配,可直接输入至原SPPNet模块进行后续计算。上述操作过程中特征图的输入/输出通道数,可与ShuffleNet预设通道数保持一致,也可进行自定义调整。
注意力机制模块SKNet,将注意力机制引入到YOLO v4模型中,得到改进的YOLO v4安全防护检测模型,从而更好的提取特征信息,提高识别精度,实现对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测。
具体来说,由于所识别目标尺寸相差较大,通常需要使用不同尺寸的卷积核对图像数据进行特征提取,最终融合提取到的特征,来判断是否为检测到的物品。而各个尺寸卷积核提取得到的特征所占权重的大小,决定了识别的准确程度。因此需要利用注意力机制,自动计算各个尺寸卷积核提取得到的特征所占权重的大小,以提高识别准确度。SKNet是针对卷积核的注意力机制引入模型中,不同大小的感受视野(卷积核)对于不同尺度(远近、大小)的目标会有不同的效果。SKNet对不同图像使用的卷积核权重不同,即一种针对不同尺度的图像动态生成卷积核。SKNet网络主要由Split、Fuse、Select三部分组成。Split 部分是对原特征图经过不同大小的卷积核部分进行卷积的过程,为了更好的提取特征,推荐采用3×3、5×5、7×7三种尺寸的卷积核对其进行卷积操作。Fuse部分是计算每个卷积核权重的部分。Select 部分是根据不同权重卷积核计算后得到的新的特征图的过程。
步骤S130: 采用YOLO v4网络作为基础模型,对第二图像数据集使用ShuffleNet作为主干网络提取图像特征,增加注意力机制模块SKNet,将注意力机制融入到YOLO v4模型的特征提取主干网络中,得到改进的YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员不正确穿戴的检测。
步骤140:利用所述第一数据集对所述改进的YOLO v4安全防护检测模型进行训练,将训练后文件加载至改进的YOLO v4安全防护检测模型中得到改进后的第一YOLO v4目标检测模型;
步骤150:利用所述第二数据集对所述改进的YOLO v4安全防护检测模型进行训练,将训练后文件加载至改进的YOLO v4安全防护检测模型中得到改进后的第二YOLO v4目标检测模型。
步骤160:将医废处理人员防护用具穿戴检测的视频流程中,找到医废处理人员未穿防护用具的图像信息,以预设时长为采集周期,获得该医废处理人员对应的一组待检测图像信息。
步骤170:在改进第一YOLO v4安全防护检测模型中分别输入该组待检测图像信息,采用所述改进后的 YOLO v4目标检测模型输出对应的目标检测结果,所述目标检测结果该组待检测图像信息的每一图像上包括待分类图像中目标区域的位置、每个目标区域对应的类别及是否是正常穿戴;
步骤180:在改进第二YOLO v4安全防护检测模型中分别输入该组待检测图像信息,采用所述改进后的 YOLO v4目标检测模型输出对应的目标检测结果,所述目标检测结果该组待检测图像信息的每一图像上包括待分类图像中目标区域的位置、每个目标区域对应的类别及是否是不正常穿戴;
关于上述步骤中的目标区域位置的预测,采用soft-NMS算法进行重复目标框的过滤。soft-NMS无需像NMS算法一样手动指定置信度阈值,传统的NMS算法保留目标框的方法如下:
Soft-NMS引入高斯加权的方式,对重复目标框其进行打分:
其中M为当前得分最高框,b i 为待处理框的重复框,Nt为NMS算法中需要手动设置的阈值。
Soft-NMS算法无需设置阈值参数,通过上述公式自动计算得分,当b i 和M的IOU越大时,其得分就下降的越快。此方法减少了NMS算法中因为手动设置阈值过大或过小导致的目标框丢失或重复的情况,保证了目标检测的预测准确度。
步骤190:将步骤S170中的该组待检测图像信息的每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
举个例子来说,待检测图像先获得人体轮廓信息,再将初步的人体轮廓初步划分成若干网格,对待检测的目标位置的区域可以记录网格位置,比如,口罩作为检测的目标,则在网络的位置为网络区域2(比如,将人的头部相关的网络为1,脸相关的网格为2,颈相关的网格为3…),其出现在第三第图像上。同理预先存储的正常的相对比,即可获知防护用具穿戴位置是否正常,将该组的所有的待检测图像信息做预先约定,先穿防护服,再带口罩,则防护服这个目标出现的图像信息应早于口罩这个目标出现的图像信息,以此来获得其顺序是否正常。
步骤200:将步骤180中不正确穿戴的图像进行保存和整理。
以上仅是本发明实现的一种步骤。
第二实施例
考虑到SSD相比YOLO有以下突出的特点:
多尺度的feature map:基于VGG的不同卷积段,输出feature map到回归器中。这一点试图提升小物体的检测精度。
更多的anchor box,每个网格点生成不同大小和长宽比例的box,并将类别预测概率基于box预测(YOLO是在网格上),得到的输出值个数为(C+4)×k×m×n,其中C为类别数,k为box个数,m×n为feature map的大小。
本实例也可以用SSD来替换YOLO算法。
第三实施例
一种医废处理人员防护用具穿戴检测系统,包括:
采集装置:用于采集医废处理人员穿戴防护用具的视频流信息,并将所述视频流信息传送至服务器;
所述服务器:用于处理所述视频流信息,并通过防护用具穿戴检测模型先对穿戴图像进行防护用品穿戴正确识别,然后对检测佩戴顺序是否正确进行识别,其进一步包括:穿戴正确识别模块和佩戴顺序识别模块,
所述穿戴正确识别模块用于所述当前数据集找到当前具有所有防护用具特征的图片信息,将所述图片信息输入至所述YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测;佩戴顺序识别模块用于当前数据集为一组待检测图像信息,其每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
在一个实施例中,提出了一种可读存储介质,所述计算机可读指令被一个或多个处理器执行时,使得一个或多个处理器执行上述,具体步骤在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read-only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。
Claims (9)
1.一种医废处理人员防护用具穿戴检测方法,其特征在于,包括:
采集医废处理人员穿戴防护用具的视频流信息,并将所述视频流信息传送至服务器;
所述服务器处理所述视频流信息,并通过防护用具穿戴检测模型先对穿戴图像进行防护用品穿戴正确识别,然后对检测佩戴顺序是否正确进行识别:其所述对穿戴图像进行防护用品穿戴正确识别进一步包括:
获取图像信息建立当前数据集,所述数据集包括医废处理人员在防护用具穿戴的整个过程中截取的图像数据,分别具有对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征的图片,按截取时间顺序进行保存;
预先采用YOLO v4网络作为基础模型,对预先标注正确佩戴防护用户的第一图像数据集使用轻量化网络ShuffleNet作为主干网络提取图像特征,增加注意力机制模块SKNet,将注意力机制融入到YOLO v4模型中,所述防护用具穿戴检测模型至少包括得到训练好的YOLO v4安全防护检测模型,从所述当前数据集找到当前具有所有防护用具特征的图片信息,将所述图片信息输入至所述YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测;
所述然后对检测佩戴顺序是否正确进行识别进一步包括:
当前数据集为一组待检测图像信息,将获得的每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
2.如权利要求1所述的医废处理人员防护用具穿戴检测方法,其特征在于,还包括采用Mosaic数据增强进行第一图像数据集进行训练,其进一步包括:
从所述第一图像数据集中每次随机读取四张图片,分别对四张图片进行随机缩放、色域变化在内的操作;
操作完成之后然后再将原始图片按照随机分布进行拼接;
利用矩阵的方式将四张图片它固定的区域截取下来,然后将它们拼接起来,拼接成一张新的图片,新的图片又成为训练图片。
3.如权利要求1所述的医废处理人员防护用具穿戴检测方法,其特征在于,所述增加注意力机制模块SKNet进一步包括:
SKNet对不同图像使用的卷积核权重不同,佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征的图像中所述用户具有不同的尺度,一种针对不同尺度的图像动态生成卷积核,SKNet网络主要由Split、Fuse、Select三部分组成Split 部分是对原特征图经过不同大小的卷积核部分进行卷积的过程,Fuse部分是计算每个卷积核权重的部分,Select 部分是根据不同权重卷积核计算后得到的新的特征图的过程,实现对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子的图像特征具有精准获取。
4.如权利要求1所述的医废处理人员防护用具穿戴检测方法,其特征在于,所述与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比进一步包括对正确穿戴顺序的目标区域位置的目标预测,其包括:
采用soft-NMS算法进行重复目标框的过滤,soft-NMS无需像NMS算法一样手动指定置信度阈值,传统的NMS算法保留目标框的方法如下:
Soft-NMS引入高斯加权的方式,对重复目标框其进行打分:
其中M为当前得分最高框,b i 为待处理框的重复框,Nt为NMS算法中需要手动设置的阈值;
Soft-NMS算法无需设置阈值参数,通过上述公式自动计算得分,当b i 和M的IOU越大时,其得分就下降的越快;此方法减少了NMS算法中因为手动设置阈值过大或过小导致的目标框丢失或重复的情况。
5.如权利要求1所述的医废处理人员防护用具穿戴检测方法,其特征在于,预先采用YOLO v4网络作为基础模型,对预先标注正确佩戴防护用户的第一图像数据集使用轻量化网络ShuffleNet作为主干网络提取图像特征,增加注意力机制模块SKNet,将注意力机制融入到YOLO v4模型中进一步包括:
首先将输入图片的尺寸调整至448×448的像素大小,然后将其输入至ShuffleNet,进行 3×3,步长为2的卷积操作和2×2的最大池化操作处理输入图像,输出尺寸为112×112的特征图;
然后将上述特征图传入三个 ShuffleNet 基本单元,分别得到56×56、28×28、14×14尺寸大小的特征图;
在Stage4后加入SKNet,SKNet将自动计算各个尺寸卷积核提取得到的特征所占权重的大小,以提高识别准确度,SKNet计算后输出14×14尺寸大小的特征图,与输入特征图的大小保持一致;后经过2×2平均池化操作,得到13×13大小的特征图;
13×13大小的特征图可直接输入至原YOLO v4算法的剩余网络中,特征图的尺寸大小与原YOLO v4的SPPNet模块相匹配,可直接输入至原SPPNet模块进行后续计算;
上述操作过程中特征图的输入/输出通道数,与ShuffleNet预设通道数保持一致或进行自定义调整。
6.如权利要求1所述的医废处理人员防护用具穿戴检测方法,其特征在于,所述获取图像建立当前数据集进一步包括:
对佩戴工作服、防水围裙、橡胶手套、防水靴、口罩、帽子在内的防护用具特征分别建立不同的特征模型,并用案例集进行训练成适配的特征模型;
将所述视频流信息按预先设定的时长得到图片集;
用训练好的不同特征模型分别对所述图片集进行识别,每个特征模型找到第一次出现所述特征的图片和最后一次出现所述特征的图片,保存所述图片及图片的时间点,以此得到所述当前数据集。
7.一种医废处理人员防护用具穿戴检测系统,包括:
采集装置:用于采集医废处理人员穿戴防护用具的视频流信息,并将所述视频流信息传送至服务器;
所述服务器:用于处理所述视频流信息,并通过防护用具穿戴检测模型先对穿戴图像进行防护用品穿戴正确识别,然后对检测佩戴顺序是否正确进行识别,其进一步包括:穿戴正确识别模块和佩戴顺序识别模块,所述穿戴正确识别模块用于所述当前数据集找到当前具有所有防护用具特征的图片信息,将所述图片信息输入至所述YOLO v4 安全防护检测模型,实现对佩戴工作服、防水围裙橡胶手套、防水靴、口罩、帽子的医废处理人员正确穿戴的检测;
佩戴顺序识别模块用于当前数据集为一组待检测图像信息,其每一图像及对应目标区域位置和类别按照时间顺序分别进行存储,后对目标区域位置及目标出现的图像顺序分别进行编码,与预先设定的正确穿戴顺序的目标区域位置及目标出现的图像顺序分别预测对比,确定防护用具穿戴的顺序是否正确或位置是否正确。
8.一种计算机设备,其特征在于,包括:
存储器,所述存储器用于存储处理程序;
处理器,所述处理器执行所述处理程序时实现如权利要求1至权利要求6中任意一项所述的医废处理人员防护用具穿戴检测方法。
9.一种可读存储介质,其特征在于,所述可读存储介质上存储有处理程序,所述处理程序被处理器执行时实现如权利要求1至权利要求6中任意一项所述的医废处理人员防护用具穿戴检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210873994.2A CN114937232B (zh) | 2022-07-25 | 2022-07-25 | 医废处理人员防护用具穿戴检测方法、系统和设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210873994.2A CN114937232B (zh) | 2022-07-25 | 2022-07-25 | 医废处理人员防护用具穿戴检测方法、系统和设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114937232A true CN114937232A (zh) | 2022-08-23 |
CN114937232B CN114937232B (zh) | 2022-10-21 |
Family
ID=82868834
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210873994.2A Active CN114937232B (zh) | 2022-07-25 | 2022-07-25 | 医废处理人员防护用具穿戴检测方法、系统和设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114937232B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116189311A (zh) * | 2023-04-27 | 2023-05-30 | 成都愚创科技有限公司 | 一种防护服穿戴标准化流程监测系统 |
CN116503797A (zh) * | 2023-04-10 | 2023-07-28 | 盐城工学院 | 基于目标检测的医废处理人员防护用具穿戴检测方法 |
CN116543419A (zh) * | 2023-07-06 | 2023-08-04 | 浙江大学金华研究院 | 基于嵌入式平台的酒店卫勤人员穿戴检测方法及系统 |
CN116958702A (zh) * | 2023-08-01 | 2023-10-27 | 浙江钛比科技有限公司 | 基于边缘人工智能的酒店卫勤人员穿戴检测方法及系统 |
CN117036327A (zh) * | 2023-08-22 | 2023-11-10 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种防护用品检视方法、系统、设备及介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111387617A (zh) * | 2020-02-21 | 2020-07-10 | 中国人民解放军陆军特色医学中心 | 一种防护套装、医务人员感染行为监护系统及方法 |
CN111539317A (zh) * | 2020-04-22 | 2020-08-14 | 上海眼控科技股份有限公司 | 车辆违规行驶检测方法、装置、计算机设备和存储介质 |
CN111860422A (zh) * | 2020-07-30 | 2020-10-30 | 西北师范大学 | 医护人员防护用品穿戴规范性智能检测方法 |
CN112149551A (zh) * | 2020-09-21 | 2020-12-29 | 上海孚聪信息科技有限公司 | 一种基于嵌入式设备和深度学习的安全帽识别方法 |
CN112183471A (zh) * | 2020-10-28 | 2021-01-05 | 西安交通大学 | 一种现场人员防疫口罩规范佩戴的自动检测方法及系统 |
CN113516076A (zh) * | 2021-07-12 | 2021-10-19 | 大连民族大学 | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 |
CN113688709A (zh) * | 2021-08-17 | 2021-11-23 | 长江大学 | 一种安全帽佩戴智能检测方法、系统、终端及介质 |
CN114550212A (zh) * | 2022-02-21 | 2022-05-27 | 西北农林科技大学 | 一种基于轻量级模型的羊脸检测与识别方法 |
CN114782874A (zh) * | 2022-05-16 | 2022-07-22 | 中国计量大学 | 一种基于人体姿态的抗疫防护用品穿戴行为规范检测方法 |
-
2022
- 2022-07-25 CN CN202210873994.2A patent/CN114937232B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111387617A (zh) * | 2020-02-21 | 2020-07-10 | 中国人民解放军陆军特色医学中心 | 一种防护套装、医务人员感染行为监护系统及方法 |
CN111539317A (zh) * | 2020-04-22 | 2020-08-14 | 上海眼控科技股份有限公司 | 车辆违规行驶检测方法、装置、计算机设备和存储介质 |
CN111860422A (zh) * | 2020-07-30 | 2020-10-30 | 西北师范大学 | 医护人员防护用品穿戴规范性智能检测方法 |
CN112149551A (zh) * | 2020-09-21 | 2020-12-29 | 上海孚聪信息科技有限公司 | 一种基于嵌入式设备和深度学习的安全帽识别方法 |
CN112183471A (zh) * | 2020-10-28 | 2021-01-05 | 西安交通大学 | 一种现场人员防疫口罩规范佩戴的自动检测方法及系统 |
CN113516076A (zh) * | 2021-07-12 | 2021-10-19 | 大连民族大学 | 一种基于注意力机制改进的轻量化YOLO v4安全防护检测方法 |
CN113688709A (zh) * | 2021-08-17 | 2021-11-23 | 长江大学 | 一种安全帽佩戴智能检测方法、系统、终端及介质 |
CN114550212A (zh) * | 2022-02-21 | 2022-05-27 | 西北农林科技大学 | 一种基于轻量级模型的羊脸检测与识别方法 |
CN114782874A (zh) * | 2022-05-16 | 2022-07-22 | 中国计量大学 | 一种基于人体姿态的抗疫防护用品穿戴行为规范检测方法 |
Non-Patent Citations (5)
Title |
---|
NATH N D 等: "Deep learning for site safety: Real-time detection of personal protective equipment", 《AUTOMATION IN CONSTRUCTION》 * |
SIM I 等: "Developing a Compressed Object Detection Model based on YOLOv4 for Deployment on Embedded GPU Platform of Autonomous System", 《ARXIV》 * |
ZHAO B 等: "Detection and Location of Personal Safety Protective Equipment and Workers in Power Substations Using a Wear-enhanced YOLOv3 Algorithm", 《IEEE ACCESS》 * |
王战涛 等: "基于 YOLOV3的改进目标检测识别算法", 《上海航天》 * |
薄景文 等: "基于YOLOv3的轻量化口罩佩戴检测算法", 《电子测量技术》 * |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116503797A (zh) * | 2023-04-10 | 2023-07-28 | 盐城工学院 | 基于目标检测的医废处理人员防护用具穿戴检测方法 |
CN116503797B (zh) * | 2023-04-10 | 2023-10-27 | 盐城工学院 | 基于目标检测的医废处理人员防护用具穿戴检测方法 |
CN116189311A (zh) * | 2023-04-27 | 2023-05-30 | 成都愚创科技有限公司 | 一种防护服穿戴标准化流程监测系统 |
CN116543419A (zh) * | 2023-07-06 | 2023-08-04 | 浙江大学金华研究院 | 基于嵌入式平台的酒店卫勤人员穿戴检测方法及系统 |
CN116543419B (zh) * | 2023-07-06 | 2023-11-07 | 浙江大学金华研究院 | 基于嵌入式平台的酒店卫勤人员穿戴检测方法及系统 |
CN116958702A (zh) * | 2023-08-01 | 2023-10-27 | 浙江钛比科技有限公司 | 基于边缘人工智能的酒店卫勤人员穿戴检测方法及系统 |
CN116958702B (zh) * | 2023-08-01 | 2024-05-24 | 浙江钛比科技有限公司 | 基于边缘人工智能的酒店卫勤人员穿戴检测方法及系统 |
CN117036327A (zh) * | 2023-08-22 | 2023-11-10 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种防护用品检视方法、系统、设备及介质 |
CN117036327B (zh) * | 2023-08-22 | 2024-03-12 | 广州市疾病预防控制中心(广州市卫生检验中心、广州市食品安全风险监测与评估中心、广州医科大学公共卫生研究院) | 一种防护用品检视方法、系统、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN114937232B (zh) | 2022-10-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN114937232B (zh) | 医废处理人员防护用具穿戴检测方法、系统和设备 | |
CN110569731B (zh) | 一种人脸识别方法、装置及电子设备 | |
Baraldi et al. | Gesture recognition in ego-centric videos using dense trajectories and hand segmentation | |
CN111062429A (zh) | 基于深度学习的厨师帽和口罩佩戴的检测方法 | |
US20130071816A1 (en) | Methods and systems for building a universal dress style learner | |
US8861873B2 (en) | Image clustering a personal clothing model | |
CN111598066A (zh) | 一种基于级联预测的安全帽佩戴识别方法 | |
CN104408429A (zh) | 一种视频代表帧提取方法及装置 | |
CN110232331B (zh) | 一种在线人脸聚类的方法及系统 | |
CN111723687A (zh) | 基于神经网路的人体动作识别方法和装置 | |
CN106909883A (zh) | 一种基于ros的模块化手部区域检测方法和装置 | |
CN104866826B (zh) | 一种基于knn和像素比梯度特征的静态手语识别方法 | |
Mosayyebi et al. | Gender recognition in masked facial images using EfficientNet and transfer learning approach | |
CN107368847B (zh) | 一种作物叶部病害识别方法及系统 | |
Hu et al. | Fast face detection based on skin color segmentation using single chrominance Cr | |
Das et al. | Human face detection in color images using HSV color histogram and WLD | |
CN116543419B (zh) | 基于嵌入式平台的酒店卫勤人员穿戴检测方法及系统 | |
CN114140868A (zh) | 防护用具穿脱标准动作的识别方法及装置 | |
Pathak et al. | A framework for dynamic hand gesture recognition using key frames extraction | |
Kim et al. | A novel red apple detection algorithm based on adaboost learning | |
CN111582183A (zh) | 一种公共场所的口罩识别方法及系统 | |
CN116778533A (zh) | 一种掌纹全感兴趣区域图像提取方法、装置、设备及介质 | |
CN113536842A (zh) | 电力作业人员安全着装识别方法及装置 | |
CN110751034B (zh) | 行人行为识别方法及终端设备 | |
CN114038045A (zh) | 一种跨模态人脸识别模型构建方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |