CN117036327A - 一种防护用品检视方法、系统、设备及介质 - Google Patents

一种防护用品检视方法、系统、设备及介质 Download PDF

Info

Publication number
CN117036327A
CN117036327A CN202311061564.1A CN202311061564A CN117036327A CN 117036327 A CN117036327 A CN 117036327A CN 202311061564 A CN202311061564 A CN 202311061564A CN 117036327 A CN117036327 A CN 117036327A
Authority
CN
China
Prior art keywords
image
processing
inspection
confidence
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311061564.1A
Other languages
English (en)
Other versions
CN117036327B (zh
Inventor
袁俊
王宇
马晓薇
崔田莹
张周斌
谢旭颖
朱伟
陈宗遒
钟贤武
甄若楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Center For Disease Control And Prevention Guangzhou Health Inspection Center Guangzhou Food Safety Risk Monitoring And Assessment Center Public Health Research Institute Of Guangzhou Medical University
Guangzhou University
Original Assignee
Guangzhou Center For Disease Control And Prevention Guangzhou Health Inspection Center Guangzhou Food Safety Risk Monitoring And Assessment Center Public Health Research Institute Of Guangzhou Medical University
Guangzhou University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Center For Disease Control And Prevention Guangzhou Health Inspection Center Guangzhou Food Safety Risk Monitoring And Assessment Center Public Health Research Institute Of Guangzhou Medical University, Guangzhou University filed Critical Guangzhou Center For Disease Control And Prevention Guangzhou Health Inspection Center Guangzhou Food Safety Risk Monitoring And Assessment Center Public Health Research Institute Of Guangzhou Medical University
Priority to CN202311061564.1A priority Critical patent/CN117036327B/zh
Publication of CN117036327A publication Critical patent/CN117036327A/zh
Application granted granted Critical
Publication of CN117036327B publication Critical patent/CN117036327B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/32Normalisation of the pattern dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/103Static body considered as a whole, e.g. static pedestrian or occupant recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种防护用品检视方法、系统、设备及介质,其中方法包括通过检视装置对目标对象进行图像获取处理,得到初始图像;将初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;根据姿势识别结果对目标对象的姿势进行调整,得到待检视图像;对待检视图像进行比例截取处理,得到截取图像集;将待检视图像与截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;对第一检测结果和第二检测结果进行置信度融合处理,得到目标检视结果。本发明实施例通过姿势识别模型和检视模型对防护用品进行检视,提高了检视的准确度,可广泛应用于目标检测技术领域。

Description

一种防护用品检视方法、系统、设备及介质
技术领域
本发明涉及目标检测技术领域,尤其是一种防护用品检视方法、系统、设备及介质。
背景技术
在医护场所中,工作人员或医务人员通过辅助员检查与自检,确定已规范和完整穿着个人防护用品后,进入工作区进行工作。工作期间只能依靠个人留意防护用品是否脱落或者破洞,如脱落或者破洞需要及时更换。工作结束后,工作人员需要按顺序摘脱防护用品,并且每一步按照无菌操作。这种依赖于自我检视和自我监督的防控措施,容易出现流程差错而导致不必要的感染的风险。综合上述,相关技术中存在的技术问题亟需得到解决。
发明内容
有鉴于此,本发明实施例提供一种防护用品检视方法、系统、设备及介质,以对防护用品进行智能化检视。
一方面,本发明提供了一种防护用品检视方法,所述方法包括:
通过检视装置对目标对象进行图像获取处理,得到初始图像;
将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;所述姿势识别模型为双分支迭代卷积神经网络;
根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像;
对所述待检视图像进行比例截取处理,得到截取图像集;
将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;
对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
可选地,所述将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果,包括:
通过所述双分支迭代卷积神经网络的第一分支对所述初始图像进行关节点的置信度提取处理,得到关节点置信图;
通过所述双分支迭代卷积神经网络的第二分支对所述初始图像进行关节点的亲和场提取处理,得到关节点亲和场;
对所述关节点置信图和所述关节点亲和场进行二分图匹配处理,得到姿势识别结果。
可选地,所述将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果,包括通过所述检视模型对输入图像进行识别预测处理这一步骤,具体包括:
对所述输入图像进行网格分割处理,得到检测网格集;
通过所述检测网格集对所述输入图像进行锚框检测处理,得到边界框置信度集合;
根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值。
可选地,所述根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值,包括:
获取置信度阈值和交并比阈值;
对所述边界框置信度集合中少于所述置信度阈值的边界框置信度进行归零处理,得到初始化置信度集合;
根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值。
可选地,所述根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值,包括:
从所述初始化置信度集合中分离提取得到最大置信度对应的边界框,并更新所述初始化置信度集合;
对所述最大置信度对应的边界框与所述初始化置信度集合中的边界框进行交并比计算处理,得到交并比值集合;
对所述交并比值集合中大于所述交并比阈值的交并比值对应的边界框的置信度进行归零处理,更新所述初始化置信度集合,并返回至所述从所述初始化置信度集合中分离提取得到最大置信度对应的边界框这一步骤,直到所述初始化置信度集合为空;
对分离提取得到的边界框进行类别检测,得到预测值。
可选地,所述将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理之前,所述方法还包括预先训练所述检视模型,具体包括:
获取模型训练数据集;
基于Darknet-53模型构建得到检视模型;
将所述模型训练数据集输入到所述检视模型进行预测处理,得到预测结果;
结合均方误差函数和所述预测结果对所述检视模型进行反向传播处理,对所述检视模型的参数进行更新。
可选地,在所述对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果之后,还包括:
根据所述目标检视结果确定所述目标对象的脱卸检查流程,通过所述检视装置获取得到脱卸图像;
通过所述检视模型对所述脱卸图像进行防护用品脱卸预测处理,得到第一脱卸检测结果;
结合红外检测技术对所述目标对象进行消毒检测,得到第二脱卸检测结果;
根据所述脱卸检查流程对所述第一脱卸检测结果和所述第二脱卸检测结果进行判断,得到防护用品脱卸结果。
另一方面,本发明实施例还提供了一种防护用品检视系统,包括:
第一模块,用于通过检视装置对目标对象进行图像获取处理,得到初始图像;
第二模块,用于将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;所述姿势识别模型为双分支迭代卷积神经网络;
第三模块,用于根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像;
第四模块,用于对所述待检视图像进行比例截取处理,得到截取图像集;
第五模块,用于将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;
第六模块,用于对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
另一方面,本发明实施例还公开了一种电子设备,包括处理器以及存储器;
所述存储器用于存储程序;
所述处理器执行所述程序实现如前面所述的方法。
另一方面,本发明实施例还公开了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
另一方面,本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行前面的方法。
本发明采用以上技术方案与现有技术相比,具有以下技术效果:本发明实施例通过姿势识别模型对目标对象的姿势进行识别与调整得到待检视图像,能够提高检视模型的检视准确度;并通过将待检视图像与截取处理后的图像集输入检视模型进行防护用品的识别检测,再通过将检测结果进行置信度融合得到最终的目标检测结果,进一步提高了对防护用品的检视准确度。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种防护用品检视方法的流程图;
图2是本申请实施例提供的一种姿势识别的流程图;
图3是本申请实施例提供的一种姿势识别模型的网络结构图;
图4是本申请实施例提供的一种检视模型的网络结构图;
图5是本申请实施例提供的一种防护用品脱卸检测的顺序流程图;
图6是本申请实施例提供的一种防护用品检视系统的结构示意图;
图7是本申请实施例提供的一种电子设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
相关技术中,防护用品的检测通过工作人员进行自我检视和自我监督,容易出现流程差错而导致不必要的感染的风险。现在目标检测在许多领域都有广泛的应用,设备穿戴相关方面较为成熟的产业有应用在后厨、医院、食品加工厂的口罩识别,以及工业界中自动识别建筑工地上工作人员安全帽佩戴情况和安全帽类型的识别。
有鉴于此,本申请实施例中提供一种防护用品检视方法,本申请实施例中的检视方法,可应用于终端中,也可应用于服务器中,还可以是运行于终端或服务器中的软件等。终端可以是平板电脑、笔记本电脑、台式计算机等,但并不局限于此。服务器可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1,本发明实施例提供一种防护用品检视方法,所述方法包括:
S101、通过检视装置对目标对象进行图像获取处理,得到初始图像;
S102、将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;所述姿势识别模型为双分支迭代卷积神经网络;
S103、根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像;
S104、对所述待检视图像进行比例截取处理,得到截取图像集;
S105、将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;
S106、对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
在本发明实施例中,通过姿势识别模型和检视模型对目标对象的防护用品进行检视,从而判断目标对象是否规范和完整穿、脱防护用品。首先通过检视装置对目标对象进行图像获取处理得到初始图像,其中检视装置包括摄像头和电子屏幕摄像头用于拍摄目标对象的图像,电子屏幕用于显示目标对象的姿势。需要注意的是,本实施例中电子屏幕还会显示虚线人物形状,目标对象可站立在摄像头前,按照屏幕划定的虚线人物形状摆好姿势,自觉调整远近动作。然后将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;本发明实施例的姿势识别模型采用双分支迭代卷积神经网络,对目标对象的姿势进行识别。根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像。并且本发明实施例还对所述待检视图像进行比例截取处理,得到截取图像集。将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
为了进一步提升检测的准确率,本发明实施例采用两种检测方式,并将两种检测方式应用于检视模型中,得到两个检测结果进行融合。第一种检测方式,采用直接将检测图片传入检视模型进行检测的方式。第二种检测方式,按照比例截取,将图片分为头部、手部、脚部以用来规范化图像,得到截取图像集。本发明实施例将检测图片分为4等分,上1/4、为头部,下1/4为脚部,剩余的中间1/2部分为手部。最后将原始图片、截取的三张图片,一并作为输入传送至检视模型中。在一种可行的实施例中,防护用品包括防护服、医用帽、护目镜、口罩等,由于防护服为连体服,在防护服的检测阶段,本发明实施例采取第一种检测方式进行整体检测。随后通过第二种检测方式对头部的图片用于检测是否佩戴医用帽、护目镜、口罩,脚部的图片用于检测是否佩戴医用鞋套,手部图片用于检测是否佩戴医用手套。这样的方式有助于排除干扰,使得模型能更准确的找到目标。对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。具体将两种检测方式的结果进行融合,权重分别设置为0.5。如,方式一检测到口罩的概率为0.75,而方式二检测到口罩的概率为0.35,则最终口罩的概率为0.75*0.5+0.35*0.5=0.55。阈值设置为0.5,即佩戴了口罩。
需要补充说明的是,在本申请的各个具体实施方式中,当涉及到需要根据目标对象的信息、目标对象的行为数据、目标对象的历史数据以及目标对象的位置信息等与目标对象身份或特性相关的数据进行相关处理时,都会先获得目标对象的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关法律法规和标准。此外,当本申请实施例需要获取目标对象的敏感信息时,会通过弹窗或者跳转到确认页面等方式获得目标对象的单独许可或者单独同意,在明确获得目标对象的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的目标对象相关数据。
进一步作为可选的实施方式,所述将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果,包括:
通过所述双分支迭代卷积神经网络的第一分支对所述初始图像进行关节点的置信度提取处理,得到关节点置信图;
通过所述双分支迭代卷积神经网络的第二分支对所述初始图像进行关节点的亲和场提取处理,得到关节点亲和场;
对所述关节点置信图和所述关节点亲和场进行二分图匹配处理,得到姿势识别结果。
参照图2,将初始图像作为输入图像输入双分支迭代卷积神经网络进行姿势识别,其中第一分支对所述初始图像进行关节点的置信度提取处理,得到关节点置信图,第二分支对所述初始图像进行关节点的亲和场提取处理,得到关节点亲和场。参照图3,本发明实施例使用了反复迭代的姿势识别模型进行检测,姿势识别模型包括多层卷积网络,每个卷积网络都有两个分支,即CNN-S和CNN-L。该网络是一个不断迭代的网络连接,第1阶段和后续阶段的网络在形态上有所区别。每个阶段的两个网络分支分别用于计算部位置信图(PartConfidence Maps,关节点)和部位亲和域(Part Affinity Fields,肢体躯干)。最终把预测到的关节置信点链接起来,即为网络检测到的人体姿势。若与本发明实施例预期的目标值在一定的误差范围内相等或近似,即代表目标对象已经按规定姿势站好,可根据姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像。
进一步作为可选的实施方式,所述将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果,包括通过所述检视模型对输入图像进行识别预测处理这一步骤,具体包括:
对所述输入图像进行网格分割处理,得到检测网格集;
通过所述检测网格集对所述输入图像进行锚框检测处理,得到边界框置信度集合;
根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值。
在本发明实施例中,将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果,第一检测结果为对所述待检视图像进行识别检测的检测结果,第二检测结果为对截取图像集进行识别检测的检测结果。其中,识别检测的过程是相同的,具体通过将待检视图像与截取图像集为输入图像,通过检视模型对输入图像进行识别检测。识别检测过程中将大小为输入图像被分割成多个网格,得到检测网格集,根据检测网格集进行防护用品的检测。然后对所述输入图像进行锚框检测处理,得到边界框置信度集合,具体为:物体真实框的中心落在哪个网格上,哪个网格对应的锚框就负责检测物体。每个网格会预测一个边界框以及对应的置信度,置信度反映的是模型认为这个框里包含着物体的把握以及它预测到这个物体的精确程度。每个边界框会预测5个值(x,y,w,h,confident),(x,y)坐标表示框相对于网格单元边界的中心。w,h是相对于整个图像预测宽度和高度。置信度confident的定义为Pr(Object)∈{0,1}。检视模型给每个边界框用逻辑回归预测一个目标分数,如果某个边界框和真实框重合度比其他都高,那么它的目标分数应该是1。而其他框虽然也与真实框有重叠,会被忽略掉。对于每一个单元格其还要给出预测出多个类别的概率值,其表征的是由该单元格负责预测的边界框其目标属于各个防护用品类别的概率。但是这些概率值其实是在各个边界框置信度下的条件概率,即Pr(classi|Object)。边界框类别置信度表征的是该边界框中目标属于各个类别的可能性大小以及边界框匹配目标的好坏。各个边界框类别的置信度计算为/> 最后根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值。
进一步作为可选的实施方式,所述根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值,包括:
获取置信度阈值和交并比阈值;
对所述边界框置信度集合中少于所述置信度阈值的边界框置信度进行归零处理,得到初始化置信度集合;
根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值。
在本发明实施例中,在模型的预测阶段设计置信度阈值和交并比阈值,其中置信度阈值和交并比阈值可根据实际情况进行设置,在本发明实施例中设置为0.5和0.8。由于会出现对同一个目标有多个检测框的情况,本发明实施例需要进行筛选,对所述边界框置信度集合中少于所述置信度阈值的边界框置信度进行归零处理,得到初始化置信度集合。然后采用非极大值抑制算法,根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值。
进一步作为可选的实施方式,所述根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值,包括:
从所述初始化置信度集合中分离提取得到最大置信度对应的边界框,并更新所述初始化置信度集合;
对所述最大置信度对应的边界框与所述初始化置信度集合中的边界框进行交并比计算处理,得到交并比值集合;
对所述交并比值集合中大于所述交并比阈值的交并比值对应的边界框的置信度进行归零处理,更新所述初始化置信度集合,并返回至所述从所述初始化置信度集合中分离提取得到最大置信度对应的边界框这一步骤,直到所述初始化置信度集合为空;
对分离提取得到的边界框进行类别检测,得到预测值。
在本发明实施例中,对非极大值抑制算法进行了改进,在模型的具体操作为,对于计算所得的所有边界框,首先将小于置信度阈值的值归0,然后分类别地对置信度值采用NMS算法,这里NMS算法处理结果不是剔除,而是将其置信度值归为0。传统的非极大值抑制算法(NMS)首先从所有的检测框中找到置信度最大的那个框,然后挨个计算其与剩余框的IOU,如果其值大于一定阈值(重合度过高),那么就将该框剔除;然后对剩余的检测框重复上述过程,直到处理完所有的检测框。而本发明实施例,从所述初始化置信度集合中分离提取得到最大置信度对应的边界框,并更新所述初始化置信度集合,更新后的初始化置信度集合不包括最大置信度。然后对所述最大置信度对应的边界框与所述初始化置信度集合中的边界框进行交并比计算处理,得到交并比值集合。对所述交并比值集合中大于所述交并比阈值的交并比值对应的边界框的置信度进行归零处理,更新所述初始化置信度集合。对剩余的检测框重复上述过程,直到处理完所有的检测框。最后才是确定各个边界框的类别,当其置信度值不为0时才做出检测结果输出类别,得到预测值,该预测值表示检测到防护用品的概率,如检测到口罩的概率为0.75。
进一步作为可选的实施方式,所述将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理之前,所述方法还包括预先训练所述检视模型,具体包括:
获取模型训练数据集;
基于Darknet-53模型构建得到检视模型;
将所述模型训练数据集输入到所述检视模型进行预测处理,得到预测结果;
结合均方误差函数和所述预测结果对所述检视模型进行反向传播处理,对所述检视模型的参数进行更新。
在本发明实施例中,通过获取目标对象佩戴防护用品齐全的图片,图片可以是不同角度的,以此可以增加模型的容错率,提高模型的泛化能力。在一种可行的实施中,使用LabelImg标注工具对图片中目标对象佩戴的医用帽、护目镜、N95口罩、医用防护服、医用手套白色、医用手套蓝色、医用鞋套,进行标注生成代表标签的xml文件,并将xml文件转换为txt文件,还可以按比例区分为训练集、测试集和验证集。参照图4,基于Darknet-53模型构建得到检视模型,使用Darknet-53网络模型的前52层,将最后一层全连接层改为卷积层,形成一个全卷积网络。使用步长为2的卷积来进行降采样。同时,在网络中使用上采样进行特征融合,将上层提取到的信息融合至下层。添加route层,route层并不对传入的特征进行任何的操作,只是起到一个总结和传递的作用,它相当于中转作用,不涉及卷积计算。并在一个网络结构中进行3次检测。将训练集、测试集、验证集输入模型,当训练的检测标签与模型预测的标签,以及检测框与预测检测框的损失值达到指定阈值时便停止训练,并保存模型权重,得到预训练好的模型。在检视模型中,通过反向传播的计算采用均方误差来计算损失值,由三部分组成,坐标误差、IOU误差和分类误差,定义为
本发明实施例给不同的错误率添加权重,以代表每个指标的贡献率。对于定位误差,即边界框坐标预测误差,采用较大的权重,γ=5。在计算IOU误差时,包含物体的格子与不包含物体的格子,二者的IOU误差对网络loss的贡献值是不同的,对于不包含物体的边界框,权重为γ=0.5,其他权重为1。然后采用均方误差,同等对待大小不同的边界框,但是实际上较小的边界框的坐标误差要比较大的边界框要更敏感。为了保证这一点,将网络的边界框的宽与高预测改为对其平方根的预测,即预测值变为通过结合均方误差函数和所述预测结果对所述检视模型进行反向传播处理,对所述检视模型的参数进行更新,得到训练完成的检视模型。
进一步作为可选的实施方式,在所述对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果之后,还包括:
根据所述目标检视结果确定所述目标对象的脱卸检查流程,通过所述检视装置获取得到脱卸图像;
通过所述检视模型对所述脱卸图像进行防护用品脱卸预测处理,得到第一脱卸检测结果;
结合红外检测技术对所述目标对象进行消毒检测,得到第二脱卸检测结果;
根据所述脱卸检查流程对所述第一脱卸检测结果和所述第二脱卸检测结果进行判断,得到防护用品脱卸结果。
在本发明实施例中,基于上述的检视模型对防护用品进行检测,还可以应用于对防护用品的脱卸检测,参照图5,首先检测开始阶段:工作人员在指定区域保持特定姿势,此时按照上述模型预测阶段,应该要检测到医用帽、护目镜、N95口罩、医用防护服、医用手套、医用鞋套,为穿戴齐全阶段。在脱卸检测工作开始后,根据所述目标检视结果确定所述目标对象的脱卸检查流程,分为七次检测,待检测人员将卸下的物品放置于指定台面,检视装置开始检测,若有一次检测与系统预设不符,则报警提示:第一次检测为卸下外层白色手套的检测,将白色手套放置于台面,并通过红外线感应是否有使用消毒液,此时应该有医用手套白色的检测结果,否则要进行报警提示。第二次检测为卸下防护服和鞋套检测,以及使用消毒液的红外线感应结果,此时应该有防护服和鞋套的检测结果。第三次检测为卸下护目镜的检测,此时应该有护目镜的检测结果以及使用消毒液的红外线感应结果,否则进行报警提示。第四次检测为卸下医用帽的检测,结合红外检测技术对所述目标对象进行消毒检测,得到第二脱卸检测结果,此时应该有医用帽的检测结果以及使用消毒液的红外线感应结果,其中,否则进行报警提示。第五次检测为卸下内层蓝色手套的检测,以及使用消毒液的红外线感应结果,此时应该有蓝色手套的检测结果。第六次检测为卸下内层白色手套(一只)的检测,以及使用消毒液的红外线感应结果,此时应该有白色手套的检测结果。第七次检测为卸下N95口罩和内层白色手套(一只)的检测,以及使用消毒液的红外线感应结果,此时应该有N95口罩和白色手套的检测结果。最后七次检测结束,系统提示已完成脱卸工作。
参照图6,本发明实施例还提供了一种防护用品检视系统,包括:
第一模块601,用于通过检视装置对目标对象进行图像获取处理,得到初始图像;
第二模块602,用于将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;所述姿势识别模型为双分支迭代卷积神经网络;
第三模块603,用于根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像;
第四模块604,用于对所述待检视图像进行比例截取处理,得到截取图像集;
第五模块605,用于将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;
第六模块606,用于对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
可以理解的是,上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
参照图7,本发明实施例还提供了一种电子设备,包括处理器701以及存储器702;所述存储器用于存储程序;所述处理器执行所述程序实现如前面所述的方法。
与图1的方法相对应,本发明实施例还提供了一种计算机可读存储介质,所述存储介质存储有程序,所述程序被处理器执行实现如前面所述的方法。
本发明实施例还公开了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器可以从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行图1所示的方法。
在一些可选择的实施例中,在方框图中提到的功能/操作可以不按照操作示图提到的顺序发生。例如,取决于所涉及的功能/操作,连续示出的两个方框实际上可以被大体上同时地执行或所述方框有时能以相反顺序被执行。此外,在本发明的流程图中所呈现和描述的实施例以示例的方式被提供,目的在于提供对技术更全面的理解。所公开的方法不限于本文所呈现的操作和逻辑流程。可选择的实施例是可预期的,其中各种操作的顺序被改变以及其中被描述为较大操作的一部分的子操作被独立地执行。
此外,虽然在功能性模块的背景下描述了本发明,但应当理解的是,除非另有相反说明,所述的功能和/或特征中的一个或多个可以被集成在单个物理装置和/或软件模块中,或者一个或多个功能和/或特征可以在单独的物理装置或软件模块中被实现。还可以理解的是,有关每个模块的实际实现的详细讨论对于理解本发明是不必要的。更确切地说,考虑到在本文中公开的装置中各种功能模块的属性、功能和内部关系的情况下,在工程师的常规技术内将会了解该模块的实际实现。因此,本领域技术人员运用普通技术就能够在无需过度试验的情况下实现在权利要求书中所阐明的本发明。还可以理解的是,所公开的特定概念仅仅是说明性的,并不意在限制本发明的范围,本发明的范围由所附权利要求书及其等同方案的全部范围来决定。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。
计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本发明的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。例如,如果用硬件来实现,和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不一定指的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任何的一个或多个实施例或示例中以合适的方式结合。
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。
以上是对本发明的较佳实施进行了具体说明,但本发明并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。

Claims (10)

1.一种防护用品检视方法,其特征在于,所述方法包括:
通过检视装置对目标对象进行图像获取处理,得到初始图像;
将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;所述姿势识别模型为双分支迭代卷积神经网络;
根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像;
对所述待检视图像进行比例截取处理,得到截取图像集;
将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;
对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
2.根据权利要求1所述的方法,其特征在于,所述将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果,包括:
通过所述双分支迭代卷积神经网络的第一分支对所述初始图像进行关节点的置信度提取处理,得到关节点置信图;
通过所述双分支迭代卷积神经网络的第二分支对所述初始图像进行关节点的亲和场提取处理,得到关节点亲和场;
对所述关节点置信图和所述关节点亲和场进行二分图匹配处理,得到姿势识别结果。
3.根据权利要求1所述的方法,其特征在于,所述将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果,包括通过所述检视模型对输入图像进行识别预测处理这一步骤,具体包括:
对所述输入图像进行网格分割处理,得到检测网格集;
通过所述检测网格集对所述输入图像进行锚框检测处理,得到边界框置信度集合;
根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值。
4.根据权利要求3所述的方法,其特征在于,所述根据所述边界框置信度集合对所述输入图像进行防护用品预测处理,得到预测值,包括:
获取置信度阈值和交并比阈值;
对所述边界框置信度集合中少于所述置信度阈值的边界框置信度进行归零处理,得到初始化置信度集合;
根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值。
5.根据权利要求4所述的方法,其特征在于,所述根据所述交并比阈值对所述初始化置信度集合进行非极大值抑制处理,得到预测值,包括:
从所述初始化置信度集合中分离提取得到最大置信度对应的边界框,并更新所述初始化置信度集合;
对所述最大置信度对应的边界框与所述初始化置信度集合中的边界框进行交并比计算处理,得到交并比值集合;
对所述交并比值集合中大于所述交并比阈值的交并比值对应的边界框的置信度进行归零处理,更新所述初始化置信度集合,并返回至所述从所述初始化置信度集合中分离提取得到最大置信度对应的边界框这一步骤,直到所述初始化置信度集合为空;
对分离提取得到的边界框进行类别检测,得到预测值。
6.根据权利要求1所述的方法,其特征在于,所述将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理之前,所述方法还包括预先训练所述检视模型,具体包括:
获取模型训练数据集;
基于Darknet-53模型构建得到检视模型;
将所述模型训练数据集输入到所述检视模型进行预测处理,得到预测结果;
结合均方误差函数和所述预测结果对所述检视模型进行反向传播处理,对所述检视模型的参数进行更新。
7.根据权利要求1所述的方法,其特征在于,在所述对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果之后,还包括:
根据所述目标检视结果确定所述目标对象的脱卸检查流程,通过所述检视装置获取得到脱卸图像;
通过所述检视模型对所述脱卸图像进行防护用品脱卸预测处理,得到第一脱卸检测结果;
结合红外检测技术对所述目标对象进行消毒检测,得到第二脱卸检测结果;
根据所述脱卸检查流程对所述第一脱卸检测结果和所述第二脱卸检测结果进行判断,得到防护用品脱卸结果。
8.一种防护用品检视系统,其特征在于,所述系统包括:
第一模块,用于通过检视装置对目标对象进行图像获取处理,得到初始图像;
第二模块,用于将所述初始图像输入姿势识别模型进行双分支识别处理,得到姿势识别结果;所述姿势识别模型为双分支迭代卷积神经网络;
第三模块,用于根据所述姿势识别结果对所述目标对象的姿势进行调整,得到待检视图像;
第四模块,用于对所述待检视图像进行比例截取处理,得到截取图像集;
第五模块,用于将所述待检视图像与所述截取图像集输入检视模型进行防护用品识别处理,得到第一检测结果和第二检测结果;
第六模块,用于对所述第一检测结果和所述第二检测结果进行置信度融合处理,得到目标检视结果。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器;
所述存储器用于存储程序;
所述处理器执行所述程序实现权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,所述存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的方法。
CN202311061564.1A 2023-08-22 2023-08-22 一种防护用品检视方法、系统、设备及介质 Active CN117036327B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311061564.1A CN117036327B (zh) 2023-08-22 2023-08-22 一种防护用品检视方法、系统、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311061564.1A CN117036327B (zh) 2023-08-22 2023-08-22 一种防护用品检视方法、系统、设备及介质

Publications (2)

Publication Number Publication Date
CN117036327A true CN117036327A (zh) 2023-11-10
CN117036327B CN117036327B (zh) 2024-03-12

Family

ID=88629828

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311061564.1A Active CN117036327B (zh) 2023-08-22 2023-08-22 一种防护用品检视方法、系统、设备及介质

Country Status (1)

Country Link
CN (1) CN117036327B (zh)

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541256A (zh) * 2010-10-28 2012-07-04 微软公司 具有视觉反馈的位置知晓姿势作为输入方法
US20140201666A1 (en) * 2013-01-15 2014-07-17 Raffi Bedikian Dynamic, free-space user interactions for machine control
CN107918780A (zh) * 2017-09-01 2018-04-17 中山大学 一种基于关键点检测的衣服种类和属性分类方法
CN110084173A (zh) * 2019-04-23 2019-08-02 精伦电子股份有限公司 人头检测方法及装置
CN110502965A (zh) * 2019-06-26 2019-11-26 哈尔滨工业大学 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
CN110705520A (zh) * 2019-10-22 2020-01-17 上海眼控科技股份有限公司 目标检测方法、装置、计算机设备和计算机可读存储介质
CN112466444A (zh) * 2020-11-11 2021-03-09 湖南德雅曼达科技有限公司 一种防护用品综合管理系统
CN112464797A (zh) * 2020-11-25 2021-03-09 创新奇智(成都)科技有限公司 一种吸烟行为检测方法、装置、存储介质及电子设备
CN113033515A (zh) * 2021-05-24 2021-06-25 北京每日优鲜电子商务有限公司 穿戴检测方法与装置、电子设备和计算机可读存储介质
CN113688797A (zh) * 2021-09-27 2021-11-23 江南大学 一种基于骨架提取的异常行为识别方法及系统
CN114926759A (zh) * 2022-05-07 2022-08-19 台州市中心医院(台州学院附属医院) 一种智能防护服数据监测及穿脱指导监测系统
CN114937232A (zh) * 2022-07-25 2022-08-23 浙江大学 医废处理人员防护用具穿戴检测方法、系统和设备
CN114998830A (zh) * 2022-05-20 2022-09-02 济南信通达电气科技有限公司 一种变电站人员安全帽佩戴检测方法及系统
CN115273150A (zh) * 2022-08-09 2022-11-01 浙江理工大学 基于人体姿态估计的安全帽佩戴的新型识别方法及系统
CN115482580A (zh) * 2022-07-28 2022-12-16 广州大学 一种基于机器视觉骨骼追踪术的多人评测系统
CN115591001A (zh) * 2022-11-02 2023-01-13 厦门精世环保科技有限公司(Cn) 一种全自动特种车辆及人员消杀系统
US20230076241A1 (en) * 2021-09-07 2023-03-09 Johnson Controls Tyco IP Holdings LLP Object detection systems and methods including an object detection model using a tailored training dataset
CN115775407A (zh) * 2022-11-25 2023-03-10 山东鲁航智能科技有限公司 一种基于fpga的高精度快速红外测温系统

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102541256A (zh) * 2010-10-28 2012-07-04 微软公司 具有视觉反馈的位置知晓姿势作为输入方法
US20140201666A1 (en) * 2013-01-15 2014-07-17 Raffi Bedikian Dynamic, free-space user interactions for machine control
CN107918780A (zh) * 2017-09-01 2018-04-17 中山大学 一种基于关键点检测的衣服种类和属性分类方法
CN110084173A (zh) * 2019-04-23 2019-08-02 精伦电子股份有限公司 人头检测方法及装置
CN110502965A (zh) * 2019-06-26 2019-11-26 哈尔滨工业大学 一种基于计算机视觉人体姿态估计的施工安全帽佩戴监测方法
CN110705520A (zh) * 2019-10-22 2020-01-17 上海眼控科技股份有限公司 目标检测方法、装置、计算机设备和计算机可读存储介质
CN112466444A (zh) * 2020-11-11 2021-03-09 湖南德雅曼达科技有限公司 一种防护用品综合管理系统
CN112464797A (zh) * 2020-11-25 2021-03-09 创新奇智(成都)科技有限公司 一种吸烟行为检测方法、装置、存储介质及电子设备
CN113033515A (zh) * 2021-05-24 2021-06-25 北京每日优鲜电子商务有限公司 穿戴检测方法与装置、电子设备和计算机可读存储介质
US20230076241A1 (en) * 2021-09-07 2023-03-09 Johnson Controls Tyco IP Holdings LLP Object detection systems and methods including an object detection model using a tailored training dataset
CN113688797A (zh) * 2021-09-27 2021-11-23 江南大学 一种基于骨架提取的异常行为识别方法及系统
CN114926759A (zh) * 2022-05-07 2022-08-19 台州市中心医院(台州学院附属医院) 一种智能防护服数据监测及穿脱指导监测系统
CN114998830A (zh) * 2022-05-20 2022-09-02 济南信通达电气科技有限公司 一种变电站人员安全帽佩戴检测方法及系统
CN114937232A (zh) * 2022-07-25 2022-08-23 浙江大学 医废处理人员防护用具穿戴检测方法、系统和设备
CN115482580A (zh) * 2022-07-28 2022-12-16 广州大学 一种基于机器视觉骨骼追踪术的多人评测系统
CN115273150A (zh) * 2022-08-09 2022-11-01 浙江理工大学 基于人体姿态估计的安全帽佩戴的新型识别方法及系统
CN115591001A (zh) * 2022-11-02 2023-01-13 厦门精世环保科技有限公司(Cn) 一种全自动特种车辆及人员消杀系统
CN115775407A (zh) * 2022-11-25 2023-03-10 山东鲁航智能科技有限公司 一种基于fpga的高精度快速红外测温系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
ZIYU PEI 等: "Identification of the normative use of medical protective equipment by fusion of object detection and keypoints detection", 《COMPUTER METHODS AND PROGRAMS IN BIOMEDICINE》, vol. 244, no. 107972, pages 1 - 13 *
崔铁军 等: "基于改进YOLOX的变电站工人防护设备检测研究", 《中国安全生产科学技术》, vol. 19, no. 4, pages 201 - 206 *
谢旭颖: "基于视频目标追踪的行人重识别方法研究", 《万方平台在线公开》, pages 1 - 89 *

Also Published As

Publication number Publication date
CN117036327B (zh) 2024-03-12

Similar Documents

Publication Publication Date Title
CN109508688B (zh) 基于骨架的行为检测方法、终端设备及计算机存储介质
CN108629946B (zh) 一种基于rgbd传感器的人体跌倒检测方法
CN111753643B (zh) 人物姿态识别方法、装置、计算机设备和存储介质
CN113255509A (zh) 一种基于Yolov3和OpenPose的工地危险行为监控方法
CN109063625A (zh) 一种基于级联深度网络的人脸关键点检测方法
CN114937232B (zh) 医废处理人员防护用具穿戴检测方法、系统和设备
CN111597970B (zh) 异常行为的识别方法及装置
CN110705337A (zh) 一种针对眼镜遮挡的人脸识别方法及装置
CN114049325A (zh) 轻量化人脸口罩佩戴检测模型的构建方法及应用
JP7075460B2 (ja) 情報認識システムおよびその方法
CN109740416A (zh) 目标跟踪方法及相关产品
CN111461042A (zh) 跌倒检测方法及系统
CN113989702A (zh) 一种目标识别方法和装置
CN113706579A (zh) 一种基于工厂化养殖的对虾多目标跟踪系统及方法
Mei et al. Human intrusion detection in static hazardous areas at construction sites: Deep learning–based method
US11222439B2 (en) Image processing apparatus with learners for detecting orientation and position of feature points of a facial image
CN111783716A (zh) 基于姿态信息的行人检测方法、系统、装置
CN117036327B (zh) 一种防护用品检视方法、系统、设备及介质
CN116030500A (zh) 一种人员着装规范识别方法及系统
CN116778579A (zh) 多人姿态的识别方法、装置、存储介质及电子设备
CN116229502A (zh) 基于图像的摔倒行为识别方法及设备
CN115830381A (zh) 基于改进YOLOv5的员工未佩戴口罩检测方法及相关组件
CN112906581A (zh) 防护服着装规范检测方法、装置、设备及存储介质
Durga et al. Face Mask Detection using MobileNetV2
Tangtisanon COVID-19 Pandemic Prevention Mobile Application for on Campus Classroom

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant