CN112085010B - 一种基于图像识别的口罩检测和部署系统及方法 - Google Patents

一种基于图像识别的口罩检测和部署系统及方法 Download PDF

Info

Publication number
CN112085010B
CN112085010B CN202011173258.3A CN202011173258A CN112085010B CN 112085010 B CN112085010 B CN 112085010B CN 202011173258 A CN202011173258 A CN 202011173258A CN 112085010 B CN112085010 B CN 112085010B
Authority
CN
China
Prior art keywords
face
network
mask
image
detection model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202011173258.3A
Other languages
English (en)
Other versions
CN112085010A (zh
Inventor
张朝龙
许源平
李婵玉
许志杰
黄健
卢军
谢攀
谭海龙
唐健峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chengdu University of Information Technology
Original Assignee
Chengdu University of Information Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chengdu University of Information Technology filed Critical Chengdu University of Information Technology
Priority to CN202011173258.3A priority Critical patent/CN112085010B/zh
Publication of CN112085010A publication Critical patent/CN112085010A/zh
Application granted granted Critical
Publication of CN112085010B publication Critical patent/CN112085010B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/40Software arrangements specially adapted for pattern recognition, e.g. user interfaces or toolboxes therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于图像识别的口罩检测和部署系统及方法,属于生物识别技术领域,包括:数据处理模块,用于分别收集人脸图像和口罩图像,并分别对人脸图像和口罩图像进行标注;模型训练模块,用于利用标注后的人脸图像和口罩图像训练人脸口罩检测模型;模型推理模块,用于根据人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测;模型部署模块,用于根据检测结果对人脸口罩检测模型进行部署。本发明包括完整统一的图像数据采集、数据标注、模型训练、模型部署与应用集成的流程,其核心的多结构和多目标检测模型以及自动化目标平台推理引擎部署特性可满足不同场景、硬件配置、检测精度和人流量的需求。

Description

一种基于图像识别的口罩检测和部署系统及方法
技术领域
本发明属于生物识别技术领域,尤其涉及一种基于图像识别的口罩检测和部署系统及方法。
背景技术
口罩作为一种常用的医用和卫生用品,可有效阻挡有害气体、飞沫和病毒进入佩戴者的口鼻,从而可以降低口罩佩戴者的疾病感染风险。正确佩戴口罩在对新冠病毒疫情和其它传染病的防控起到了重要的作用,有效地减少了病毒感染者并降低了传染病毒的扩散速度与范围。因此,在公共场所部署口罩佩戴检测装置和系统,识别行人是否正确佩戴了口罩,并进行提醒和预警,在疫情防控中起到了积极的作用。比如,在地铁口等人流密集区域部署口罩检测佩戴检测系统,当检测到有乘客未佩戴口罩就进入地铁站时,及时通知安保人员,并提醒乘客佩戴口罩,从而可以确保行人进入密集区域之前佩戴口罩,以实现有效的疫情防控措施。
目前主要的人脸佩戴口罩检测技术是人工检测,即有工作人员站在检测站(如地铁口、小区出入口等),通过人眼观察行人面部来确定行人是否佩戴了口罩,并对未戴口罩的行人进行口头提醒和警告等。人工检测方法造成了相关工作人员的劳动强度大,并容易出现漏检现象,同时也把工作人员暴露在易感染的危险环境中。此外,也有通过在口罩中嵌入传感器装置,该传感器在接触到皮肤后可呈现不同的状态变化,比如可以通过静脉检测来判断是否与皮肤接触。该装置通过实时读取传感器数据,来判断是否被佩戴,外部设备读取口罩上的传感器数据,来确定行人是否佩戴了口罩。入侵式检测方法需要改变口罩的原有结构,导致成本增加,影响佩戴的舒适性,并且也难以应用推广。
随着计算机视觉技术的发展,人脸检测和识别技术得到了飞速发展和广泛应用,因此也随之出现了基于图像识别技术的口罩检测。这种方法首先需要定位在图像上定位人脸位置,然后分析人脸属性。人脸属性分析又包括两种:1)检测人脸器官,如检测眼睛、鼻子和嘴的位置,当检测到人脸却检测不到嘴时,可以认为是佩戴了口罩;2)颜色统计,由于人脸皮肤和口罩的颜色不同,通过在检测到人脸后,统计人脸区域的颜色特征,如生成颜色直方图(Color Histogram)和方向梯度直方图(Histogram of Oriented Gradients,HOG),然后使用机器学习算法(如SVM(Support Vector Machine))进行分类,识别该人脸是否为佩戴口罩的人脸。基于人脸检测和人脸属性分析的方法识别率不高,其缺点主要表现在:1)当人脸被口罩覆盖后,本身就会导致人脸检测算法的效果不佳。由于检测不到人脸,则无法进行后续的口罩检测;2)以是否在人脸上检测到嘴的结论来判断是否佩戴口罩的方法容易出现误判的情况,如侧脸、用手或其它物体覆盖面部等情况都会被识别为佩戴了口罩;3)由于人的皮肤颜色差异以及使用具有与口罩类似颜色的物体覆盖面部时,统计人脸区域颜色特征的方法也同样会出现误判的情况,这些问题都会导致误检和漏检的情况。
发明内容
针对现有技术中的上述不足,本发明提供的一种基于图像识别的口罩检测和部署系统及方法,解决了上述的问题。
为了达到以上目的,本发明采用的技术方案为:
本方案提供了一种基于图像识别的口罩检测和部署系统,包括依次连接的数据处理模块、模型训练模块、模型推理模块以及模型部署模块;
所述数据处理模块,用于分别收集人脸图像和口罩图像,并分别对所述人脸图像和口罩图像进行标注;
所述模型训练模块,用于利用标注后的人脸图像和口罩图像训练人脸口罩检测模型;
所述模型推理模块,用于根据所述人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测;
所述模型部署模块,用于根据检测结果对人脸口罩检测模型进行部署,完成基于图像识别的口罩检测和部署。
基于上述系统,本发明还提供了一种基于图像识别的口罩检测和部署方法,包括以下步骤:
S1、数据处理:分别收集人脸图像和口罩图像,并分别对所述人脸图像和口罩图像进行标注;
S2、模型训练:利用标注后的人脸图像和口罩图像训练人脸口罩检测模型;
S3、模型推理:根据所述人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测;
S4、模型部署:根据检测结果对人脸口罩检测模型进行部署,完成基于图像识别的口罩检测和部署。
进一步地,所述步骤S1包括以下步骤:
S101、分别收集人脸图像和口罩图像;
S102、合并所述人脸图像和口罩图像,并将合并后的图像按同比例进行分割,得到人脸类别图像和人脸佩戴口罩类别图像;
S103、将同比例分割后的剩余人脸图像划分为两部分,其中一部分作为人脸数据合并至所述人脸类别图像中,另外一部分利用在人脸上覆盖口罩的图片处理方法生成人脸佩戴口罩图像,合并至人脸佩戴口罩类别图像中;
S104、根据人脸类别图像和人脸佩戴口罩类别图像,利用标注工具分别标注人脸和口罩,并导出PASCAL VOC格式的XML标注文件,完成对人脸图像和口罩图像的标注。
再进一步地,所述步骤S101中人脸图像的收集途径包括开源数据集、网络收集和非公开的监控数据;
所述口罩图像的收集途径包括:以现有公开的口罩检测数据集为基础,合并若干个口罩检测数据集;利用网络爬虫从网络上下载口罩图片;通过在人脸图像上制作佩戴口罩的口罩图片。
再进一步地,所述步骤S2具体为:根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络构建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型;其中,
所述YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络输入图片尺寸均设置为448×448,其输出类别均设置为2;
所述YOLOv3-tiny网络的训练达到的最大批次设置为6000,所述YOLO v3网络和YOLO v4网络的训练达到的最大批次均设置为12000。
再进一步地,所述根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络训练第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,其包括以下步骤:
A1、利用YOLO预训练权重分别初始化YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络;
A2、将标注后的人脸图像和口罩图像的尺寸缩放为448×448;
A 3、将缩放后的人脸图像和口罩图像分别分割成S×S个网格单元,其中,S表示整型常数;
A 4、在每个网格单元中分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取视觉特征,并分别设置YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络的ReLU激活函数;
A 5、根据每个网格单元,分别利用YOLO v3网络的全连接层、YOLOv3-tiny网络的全连接层和YOLO v4网络的全连接层输出边界框
Figure RE-526277DEST_PATH_IMAGE009
、包含目标的置信度
Figure RE-546002DEST_PATH_IMAGE002
以及每个类别的预测条件概率
Figure RE-992027DEST_PATH_IMAGE003
i
Figure RE-277121DEST_PATH_IMAGE004
,其中,
Figure RE-150399DEST_PATH_IMAGE005
表示边界框的中心左边,
Figure RE-202669DEST_PATH_IMAGE006
Figure RE-373756DEST_PATH_IMAGE007
分别表示边界框的宽度和长度,
Figure RE-93450DEST_PATH_IMAGE008
i表示第i个目标;
A 6、分别合并YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取所有网格单元的视觉特征以及对应输出的边界框
Figure RE-872050DEST_PATH_IMAGE009
、包含目标的置信度
Figure RE-365611DEST_PATH_IMAGE010
以及每个类别的预测条件概率
Figure RE-153438DEST_PATH_IMAGE011
i
Figure RE-914590DEST_PATH_IMAGE012
,得到第一预测张量、第二预测张量以及第三预测张量;
A 7、根据所述第一预测张量、第二预测张量以及第三预测张量,分别计算得到第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度;
A 8、根据第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度,分别利用随机梯度下降法更新并优化YOLO v3网络、YOLOv3-tiny网络和YOLOv4网络的参数,得到第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,完成对人脸口罩检测模型的训练。
再进一步地,所述步骤A 8中第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的损失函数的表达式均如下:
Figure RE-864091DEST_PATH_IMAGE013
Figure RE-890953DEST_PATH_IMAGE014
Figure RE-167957DEST_PATH_IMAGE015
Figure RE-331085DEST_PATH_IMAGE016
Figure RE-717067DEST_PATH_IMAGE017
其中,
Figure RE-683755DEST_PATH_IMAGE018
表示对预测的中心坐标和边界框的宽度做损失的权重,
Figure RE-813385DEST_PATH_IMAGE019
表示网格单元的总数,
Figure RE-34282DEST_PATH_IMAGE021
表示预测边界框的总数,
Figure RE-341898DEST_PATH_IMAGE022
表示当第
Figure RE-343352DEST_PATH_IMAGE023
个网格单元存在目标则第
Figure RE-214356DEST_PATH_IMAGE024
个边界框预测值对该预测值有效,
Figure RE-335765DEST_PATH_IMAGE023
表示网格单元的个数,
Figure RE-329128DEST_PATH_IMAGE024
表示边界框的个数,
Figure RE-755562DEST_PATH_IMAGE025
n示第n个预测边界框的
Figure RE-998235DEST_PATH_IMAGE026
轴坐标值,
Figure RE-193724DEST_PATH_IMAGE027
表示训练数据中第j个边界框实际的
Figure RE-92409DEST_PATH_IMAGE026
轴坐标值,
Figure RE-52144DEST_PATH_IMAGE028
n表示第n个预测边界框的
Figure RE-264951DEST_PATH_IMAGE029
轴坐标值,
Figure RE-377263DEST_PATH_IMAGE030
表示训练数据中第j个边界框实际的
Figure RE-197583DEST_PATH_IMAGE029
轴坐标值,
Figure RE-598608DEST_PATH_IMAGE031
n表示第n个预测边界框的宽度,
Figure RE-411844DEST_PATH_IMAGE032
表示训练数据中第j个边界框实际的宽度,
Figure RE-831192DEST_PATH_IMAGE033
n表示第n个预测边界框的高度,
Figure RE-71681DEST_PATH_IMAGE034
表示训练数据中第j个边界框实际的高度,
Figure RE-756740DEST_PATH_IMAGE035
表示目标的置信度,
Figure RE-793573DEST_PATH_IMAGE036
表示预测的边界框与实际的边界框的交叉部分比率,
Figure RE-614898DEST_PATH_IMAGE037
表示对置信度预测的损失权重,
Figure RE-478818DEST_PATH_IMAGE038
表示第
Figure RE-651173DEST_PATH_IMAGE023
个网格单元不存在目标则第
Figure RE-540632DEST_PATH_IMAGE024
个边界框预测值对该预测值有效,
Figure RE-436038DEST_PATH_IMAGE039
表示第
Figure RE-18329DEST_PATH_IMAGE023
个网格单元有目标,
Figure RE-864931DEST_PATH_IMAGE040
表示第n个预测边界框的目标类别,
Figure RE-558081DEST_PATH_IMAGE041
表示第j个边界框的实际目标类别,
Figure RE-619578DEST_PATH_IMAGE042
表示目标,
Figure RE-372770DEST_PATH_IMAGE043
表示目标集合。
再进一步地,所述步骤S3包括以下步骤:
S301、根据所述第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,分别利用非极大值抑制算法对目标候选框进行去重处理,得到第一目标区域、第二目标区域以及第三目标区域;
S302、根据所述第一目标区域、第二目标区域以及第三目标区域,分别利用预设的概率阈值检测图像中人脸和口罩出现的位置,完成对人脸和口罩位置的检测。
再进一步地,所述步骤S4包括以下步骤:
S401、分别搭建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的转换环境,并分别安装编程语言运行库Python、开放式神经网络交换运行库onnx以及开发套件RKNN Toolkit;
S402、利用编程语言运行库Python和开放式神经网络交换运行库onnx分别读取第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的cfg和weights文件,分别导出第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型中的ONNX结构文件;
S403、利用RKNN Toolkit分别将第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型中的ONNX结构文件转换为RKNN模型文件;
S404、利用RKNN API编写应用程序加装RKNN模型文件,分别进行第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的推理应用;
S405、根据推理应用结果编译应用程序,并将应用程序和第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的RKNN模型文件分别部署至硬件平台;
S406、读取摄像头的监控图像,并利用RKNN模型文件调用推理引擎对监控图像进行分析,并输出分析结果,完成基于图像识别的口罩检测和部署。
本发明的有益效果:
(1)本发明提供了一个基于深度学习和目标检测的人脸口罩检测与部署方法,实现从监控视频和图像中自动识别行人、检测人脸,并检测人脸是否佩戴了口罩。本发明包括完整的统一的图像数据采集、数据标注、模型训练、模型部署与应用集成的流程,可实现口罩检测的全栈开发流程,方便快速地把人脸口罩检测模型部署到目标平台,其核心的多结构和多目标检测模型,以及自动化目标平台推理引擎部署特性可满足不同场景、硬件配置、检测精度和人流量的需求。
(2)本发明使用软硬件系统替代人工操作:本发明可用于开发智能的口罩检测软硬件系统,以替代人工观察的检测方式,本发明能有效地减少工作人员的劳动强度,提高检测效率和精度,并可保护相关工作人员的健康和安全。
(3)本发明解决了口罩检测数据集不足的问题:生物识别应用中主要以人脸数据集为主,基于这些数据集研发了多种基于人脸检测和人脸识别的应用,但是口罩检测和识别的数据集非常少,很难支持构建高精度的口罩检测算法模型。本发明采用多种方式增加口罩数据集,为训练基于深度学习的口罩检测模型提供了数据支持。
(4)本发明提高了口罩检测的正确率:本发明以YOLO为基础构建人脸和口罩检测模型,YOLO在目标检测应用领域中具有非常好的性能和效果。本发明采用迁移学习的方法在预训练的YOLO模型之上构建人脸和口罩检测模型,通过引入loss函数和随机梯度算法,确保深度卷积神经网络在训练数据集中收敛,同时防止其出现过拟合现象,从而得到高精度的人脸和口罩检测模型。此外,通过引入NMS,生成最终的识别结果。
(5)本发明降低了部署成本和难度:传统部署深度学习模型的方法通常都需要使用GPU计算硬件,对计算资源要求较高,为满足在低功耗的嵌入式设备上部署该人脸和口罩检测模型,本发明设计了一种模型部署方法,通过把一个较大的模型转换为ONNX中间结构,然后使用目标平台工具进行转换和优化,从而使该人脸和口罩检测模型可以在嵌入式和边缘计算设备上部署运行,降低了对计算资源的需求和成本。
附图说明
图1为本发明的系统结构示意图。
图2为本发明的方法流程图。
图3为本实施例中人脸口罩检测模型的部署流程示意图。
具体实施方式
下面对本发明的具体实施方式进行描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
实施例1
目前,公共场所都安装有监控摄像头。在某些区域(如办公写字楼和学校等)入口处甚至安装了人脸识别设备。采用图像识别和深度学习技术,通过从这些监控图像中自动分析行人是否佩戴口罩,并自动触发警报提醒,可有效解决目前口罩检测的难题。此外,通过构建统一的图像数据采集、数据标注、模型训练、模型部署与应用集成的流程,可实现口罩检测的全栈开发流程,方便快速地把人脸口罩检测模型部署到目标平台。
如图1所示,本发明提供了一种基于图像识别的口罩检测和部署系统,包括依次连接的数据处理模块、模型训练模块、模型推理模块以及模型部署模块;数据处理模块,用于分别收集人脸图像和口罩图像,并分别对所述人脸图像和口罩图像进行标注;模型训练模块,用于利用标注后的人脸图像和口罩图像训练人脸口罩检测模型;模型推理模块,用于根据所述人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测;模型部署模块,用于根据检测结果对人脸口罩检测模型进行部署,完成基于图像识别的口罩检测和部署。
本实施例中,在进行部署后,部署监控结果可进一步处理:如集成声音提醒等。
本实施例中,本发明人脸口罩检测部署方法包括图像数据处理、模型训练、模型推理、模型部署四个部分,首先是收集图像数据,主要包括人脸和口罩的图像数据,同时还需要对图像中出现人脸和口罩的位置进行标注;在标注完数据后,就需要使用这些数据训练目标检测模型,从而得到人脸口罩检测模型;该模型只是所使用训练框架的特定模型,不具有通用性,为了实现在目标平台和系统上运行,还需要进行模型的移植和部署。
本实施例中,本发明实现从监控视频和图像中自动识别行人、检测人脸,并检测人脸是否佩戴了口罩。本发明包括完整的统一的图像数据采集、数据标注、模型训练、模型部署与应用集成的流程,可实现口罩检测的全栈开发流程,方便快速地把人脸口罩检测模型部署到目标平台,其核心的多结构和多目标检测模型,以及自动化目标平台推理引擎部署特性可满足不同场景、硬件配置、检测精度和人流量的需求。
实施例2
如图2所示,本发明提供了一种基于图像识别的口罩检测和部署方法,其实现方法如下:
S1、数据处理:分别收集人脸图像和口罩图像,并分别对所述人脸图像和口罩图像进行标注,其实现方法如下:
S101、分别收集人脸图像和口罩图像;
S102、合并所述人脸图像和口罩图像,并将合并后的图像按同比例进行分割,得到人脸类别图像和人脸佩戴口罩类别图像;
S103、将同比例分割后的剩余人脸图像划分为两部分,其中一部分作为人脸数据合并至所述人脸类别图像中,另外一部分利用在人脸上覆盖口罩的图片处理方法生成人脸佩戴口罩图像,合并至人脸佩戴口罩类别图像中;
S104、根据人脸类别图像和人脸佩戴口罩类别图像,利用标注工具分别标注人脸和口罩,并导出PASCAL VOC格式的XML标注文件,完成对人脸图像和口罩图像的标注。
本实施例中,本发明所使用的图像数据包括两种用途:1)用于训练模型的训练和测试图像数据;2)用于在应用中检测人脸和口罩的图像数据。
本实施例中,在应用中本发明从监控图像中检测并识别人脸和口罩目标。图像的来源为摄像头,本发明通过UVC协议从USB摄像头中读取视频流,或者使用RTSP协议从IP摄像头中读取视频流,使用ffmpeg视频分析库从视频流中提取视频关键帧,然后使用在目标平台部署的推理模型进行图像分析,检测画面中的行人和人脸,以及行人是否佩戴口罩。
本实施例中,用于训练模型的图片数据采用离线收集和人工标注的方式,图片来源主要为开源数据集、网络收集和企业非公开的监控数据。目前开源的人脸检测和识别的数据集比较多,如FDDB(Face Detection Data Set and Benchmark)、Wider-face和MALF等人脸检测数据集。本发明主要使用这些数据集作为人脸检测的图像数据。而口罩检测的数据集目前较少,现有开源的口罩检测数据集规模也较小,并且标注也不规范,为获取足够多的口罩检测训练数据,本方法采用如下策略收集口罩图片数据:以现有公开的口罩检测数据集为基础,合并多个口罩检测数据集;使用网络爬虫从网络上下载图片,如使用关键字(如“口罩”、“佩戴口罩”、“防疫”、“疫情”、“facemask”等)从百度图片、淘宝、微博等网络平台搜索并下载相关图片,然后人工筛选符合条件的图片;通过在人脸数据集中的人脸图片上覆盖口罩图片,来制作佩戴口罩的图片。在这种方法中,首先使用人脸检测算法或者从标注数据中(若有)检测出人脸的位置和大小,然后对口罩图片进行比例变化,并把口罩图片添加到人脸下方,确保口罩覆盖人脸下方1/2至2/3的区域。
本实施例中,当完成人脸和口罩数据集采集后,本发明需要合并上述两种图像数据,并对图像数据进行标注。合并人脸图像和口罩图像,并分为两个类别:人脸和口罩(人脸佩戴口罩),两个类别的图片数据均等分割,由于口罩数据集的图片较少,此时将剩余大量的人脸图片。对剩余的人脸图片再分为两等份,其中一份作为人脸数据合并至人脸类别中;另一部分图片则采用在人脸上覆盖口罩图片的方法人工生成佩戴口罩的图片数据,以增强口罩检测数据集,使用Colabeler标注工具标注图片上出现的人脸和口罩,标注框为矩形,该标注框即为ground truth,标注完成后,导出PASCAL VOC格式的XML标注文件。
S2、模型训练:利用标注后的人脸图像和口罩图像训练人脸口罩检测模型,其具体为:
根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络构建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型;YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络输入图片尺寸均设置为448×448,其输出类别均设置为2;YOLOv3-tiny网络的训练达到的最大批次设置为6000,所述YOLO v3网络和YOLO v4网络的训练达到的最大批次均设置为12000,其实现方法如下:
A1、利用YOLO预训练权重分别初始化YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络;
A2、将标注后的人脸图像和口罩图像的尺寸缩放为448×448;
A 3、将缩放后的人脸图像和口罩图像分别分割成S×S个网格单元,其中,S表示整型常数;
A 4、在每个网格单元中分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取视觉特征,并分别设置YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络的ReLU激活函数;
A 5、根据每个网格单元,分别利用YOLO v3网络的全连接层、YOLOv3-tiny网络的全连接层和YOLO v4网络的全连接层输出边界框
Figure RE-526277DEST_PATH_IMAGE009
、包含目标的置信度
Figure RE-702044DEST_PATH_IMAGE002
以及每个类别的预测条件概率
Figure RE-804998DEST_PATH_IMAGE003
i
Figure RE-729092DEST_PATH_IMAGE004
,其中,
Figure RE-363335DEST_PATH_IMAGE005
表示边界框的中心左边,
Figure RE-352282DEST_PATH_IMAGE006
Figure RE-857213DEST_PATH_IMAGE007
分别表示边界框的宽度和长度,
Figure RE-217787DEST_PATH_IMAGE008
i表示第i个目标;
A 6、分别合并YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取所有网格单元的视觉特征以及对应输出的边界框
Figure RE-526277DEST_PATH_IMAGE009
、包含目标的置信度
Figure RE-99341DEST_PATH_IMAGE010
以及每个类别的预测条件概率
Figure RE-989937DEST_PATH_IMAGE011
i
Figure RE-206898DEST_PATH_IMAGE012
,得到第一预测张量、第二预测张量以及第三预测张量;
A 7、根据所述第一预测张量、第二预测张量以及第三预测张量,分别计算得到第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度;
A 8、根据第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度,分别利用随机梯度下降法更新并优化YOLO v3网络、YOLOv3-tiny网络和YOLOv4网络的参数,得到第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,完成对人脸口罩检测模型的训练。
本实施例中,第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的损失函数的表达式均如下:
Figure RE-284576DEST_PATH_IMAGE013
Figure RE-192489DEST_PATH_IMAGE014
Figure RE-593383DEST_PATH_IMAGE015
Figure RE-295760DEST_PATH_IMAGE016
Figure RE-860733DEST_PATH_IMAGE017
其中,
Figure RE-729594DEST_PATH_IMAGE018
表示对预测的中心坐标和边界框的宽度做损失的权重,
Figure RE-594782DEST_PATH_IMAGE019
表示网格单元的总数,
Figure RE-920590DEST_PATH_IMAGE021
表示预测边界框的总数,
Figure RE-176122DEST_PATH_IMAGE022
表示当第
Figure RE-894680DEST_PATH_IMAGE023
个网格单元存在目标则第
Figure RE-362177DEST_PATH_IMAGE024
个边界框预测值对该预测值有效,
Figure RE-344039DEST_PATH_IMAGE023
表示网格单元的个数,
Figure RE-149184DEST_PATH_IMAGE024
表示边界框的个数,
Figure RE-123962DEST_PATH_IMAGE025
n示第n个预测边界框的
Figure RE-698163DEST_PATH_IMAGE026
轴坐标值,
Figure RE-647664DEST_PATH_IMAGE027
表示训练数据中第j个边界框实际的
Figure RE-362942DEST_PATH_IMAGE026
轴坐标值,
Figure RE-688881DEST_PATH_IMAGE028
n表示第n个预测边界框的
Figure RE-117588DEST_PATH_IMAGE029
轴坐标值,
Figure RE-690521DEST_PATH_IMAGE030
表示训练数据中第j个边界框实际的
Figure RE-470258DEST_PATH_IMAGE029
轴坐标值,
Figure RE-334309DEST_PATH_IMAGE031
n表示第n个预测边界框的宽度,
Figure RE-303008DEST_PATH_IMAGE032
表示训练数据中第j个边界框实际的宽度,
Figure RE-125471DEST_PATH_IMAGE033
n表示第n个预测边界框的高度,
Figure RE-313876DEST_PATH_IMAGE034
表示训练数据中第j个边界框实际的高度,
Figure RE-716038DEST_PATH_IMAGE035
表示目标的置信度,
Figure RE-119338DEST_PATH_IMAGE036
表示预测的边界框与实际的边界框的交叉部分比率,
Figure RE-801117DEST_PATH_IMAGE037
表示对置信度预测的损失权重,
Figure RE-758709DEST_PATH_IMAGE038
表示第
Figure RE-495721DEST_PATH_IMAGE023
个网格单元不存在目标则第
Figure RE-940477DEST_PATH_IMAGE024
个边界框预测值对该预测值有效,
Figure RE-839163DEST_PATH_IMAGE039
表示第
Figure RE-549630DEST_PATH_IMAGE023
个网格单元有目标,
Figure RE-510240DEST_PATH_IMAGE040
表示第n个预测边界框的目标类别,
Figure RE-622552DEST_PATH_IMAGE041
表示第j个边界框的实际目标类别,
Figure RE-895402DEST_PATH_IMAGE042
表示目标,
Figure RE-76853DEST_PATH_IMAGE043
表示目标集合。
本实施例中,本发明以Darknet深度学习库和YOLO神经网络架构构建人脸口罩检测模型,YOLO是一种基于深度学习的目标检测模型,可以检测场景的物体,如人、汽车和狗等物体目标,但是YOLO不能直接用于口罩检测。因此,本发明基于YOLO构建人脸和口罩的检测模型,本发明搭建了三种不同的YOLO网络架构,包括YOLO v3、YOLOv3-tiny和YOLO v4网络,然后设置输入图片尺寸为448×448,输出类别为2,YOLOv3-tiny的max batches为6000,YOLO v3和YOLO v4的max batches为12000,启用GPU,然后分别训练这三个网络模型:首先使用预训练的权重初始化YOLO网络,预训练的权重可以确保视觉特征提取的有效性和正确性,从而可以满足迁移学习的条件;对于一张待训练的图片,其包含图片本身和标准目标类别(人脸和口罩)的区域(ground truth),把图片的尺寸缩放为448×448像素;把缩放后的图片分割为S×S个网格单元;每一个单元网络使用多层CNN深度神经网络提取视觉特征,并且使用Leaky ReLU激活函数,以避免使用ReLU函数时某些网格单元无法激活的问题;每个单元网格最后使用线性全连接层输出一个边界框(bounding box),其值为(x, y, w, h),一个包含目标的置信度以及对每个类别的预测条件概率:对每个单元网格完成特征提取和输出后,合并所有单元网格的输出,形成一个预测张量;根据该图片的标注数据计算卷积神经网络的梯度,其中边界框的准确度采用IOU来表示(Intersection Over Union),即目标置信度为:
Figure RE-DEST_PATH_IMAGE044
,其中,truth即为实际的边界框,pred为预测的边界框,最后使用随机梯度下降法,对模型的参数进行更新,优化YOLO网络检测模型,从而得到人脸口罩检测模型。
本实施例中,在训练过程中,通过观察MAP分析检测模型的学习效果,并保留检测效果最高的权重作为已训练的检测模型。经过上述的模型训练过程之后,则可获得已训练的人脸口罩检测模型文件(cfg和weights)。
S3、模型推理:根据所述人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测,其实现方法如下:
S301、根据所述人第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,分别利用非极大值抑制算法对目标候选框进行去重处理,得到第一目标区域、第二目标区域以及第三目标区域;
S302、根据所述第一目标区域、第二目标区域以及第三目标区域,分别利用预设的概率阈值检测图像中人脸和口罩出现的位置,完成对人脸和口罩位置的检测。
本实施例中,经过上述训练方法在人口和口罩数据集训练后,本发明可得到一个已训练的人脸口罩检测模型,该模型可在Darknet深度学习框架下运行。从上述的训练流程可知,该模型只能输出一个预测张量,还无法直接输出人脸和口罩的检测结果。上传人脸口罩检测模型输出的预测张量实际上表示一张图片上的多个候选框,以及每个候选框所属目标类别的置信度,对于同一个目标(人脸或口罩),可能会出现多个相交的候选框,即一个目标会被多次检测到,为定位每一个目标的边界和类别,本发表使用非极大值抑制算法(nonmaximum suppression, NMS)进行目标候选框去重,最后可得到置信度最大的非重叠检测框,即为目标区域,该框的置信概率即为目标的概率,通过设定一个概率阈值,则可检测图像中的人脸和口罩出现的位置,从而可以确定行人是否佩戴了口罩,即当检测到独立的人脸时,则说明该人脸所对应的行人未佩戴口罩。
S4、模型部署:根据检测结果对人脸口罩检测模型进行部署,完成基于图像识别的口罩部署,其实现方法如下:
S401、分别搭建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的转换环境,并分别安装编程语言运行库Python、开放式神经网络交换运行库onnx以及瑞芯微提供的开发套件RKNN Toolkit;
S402、利用编程语言运行库Python和开放式神经网络交换运行库onnx分别读取第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的cfg和weights文件,分别导出第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型中的ONNX结构文件;
S403、利用RKNN Toolkit分别将第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型中的ONNX结构文件转换为RKNN模型文件;
S404、利用RKNN API编写应用程序加装RKNN模型文件,分别进行第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的推理应用;
S405、根据推理应用结果编译应用程序,并将应用程序和第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的RKNN模型文件分别部署至硬件平台;
S406、读取摄像头的监控图像,并利用RKNN模型文件调用推理引擎对监控图像进行分析,并输出分析结果,完成基于图像识别的口罩检测和部署。
本实施例中,训练后的人脸口罩检测模型只能使用Darknet进行部署和使用。Darknet是一个使用C语言实现的深度学习框架,包含训练模型和推理模型,并集成了常用的算子。使用Darknet部署本发明的人脸口罩检测模型在一定程度上可以满足应用需求,如在PC版(包括Windows和Linux操作系统)的应用程序中集成Darknet,加载本发明的人脸口罩检测模型,从而实现上位机的口罩佩戴检测功能。但是,由于Darknet对框架较为复杂,对计算资源要求也相对较高(如通常都需要在PC机上安装GPU,以支持卷积神经网络的运算),这种方法在计算能力相对较低的设备上部署时难以支持实时分析,尤其是嵌入式设备和边缘计算设备,而在部署应用时,训练引擎已经不再被需要,只需要使用推理引擎即可。因此,本发明设计一个人脸口罩检测模型的在嵌入式设备和边缘计算设备的部署方式,如图3所示,已训练模型包括网络配置文件(cfg)和参数权重文件(weights),首先使用Python和onnx库把cfg和weights文件转化为ONNX模型(中间模型)结构文件,ONNX是深度学习框架中迁移模型的中间表达格式框架,它不依赖于具体的深度学习框架,表达深度学习模型的网络结构和权重;在得到onnx结构文件后,再使用目标平台的生成工具(目标平台Toolkits),生成对应平台的网络模型(如图3中的目标模型1、目标模型2和目标模型3)和权重,以开发目标平台的应用(如图3中的应用1、应用2和应用3)。如可以使用RKNN-Toolkit则可把onnx文件转换为RKNN模型,从而实现在瑞芯微的NPU上部署运行;也可以把onnx转化为caffe结构模型,然后使用海思的Ruyi Studio工具把caffe结构模型转化为海思的NNIE结构文件,以支持在海思的NPU上运行。此外,也可以直接在支持onnx的推理引擎上加载并运行onnx模型,如onnxruntime和OpenCV DNN。
本实施例中,以瑞芯微的RK3399 Pro硬件平台说明如何部署:
首先在PC机上搭建模型转换环境,需要安装Python和onnx库,同时也需要安装RKNN Toolkit;使用Python的onnx库读取cfg和weights文件,然后导出为ONNX结构文件,如YOLOv3-tiny.onnx;使用RKNN Toolkit把ONNX结构文件转换为RKNN模型文件;使用RKNNAPI编写应用程序,加装RKNN模型文件,进行人脸和口罩检测的推理应用;编译应用程序,并把应用程序和RKNN模型文件部署到RK3399 Pro硬件平台;应用程序通过UVC协议读取USB摄像头的监控图像,使用RKNN调用推理引擎在NPU上分析图像,然后输出检测结果。
本实施例中,检测结果可进一步处理:如集成声音提醒等。

Claims (7)

1.一种基于图像识别的口罩检测和部署系统,其特征在于,包括依次连接的数据处理模块、模型训练模块、模型推理模块以及模型部署模块;
所述数据处理模块,用于分别收集人脸图像和口罩图像,并分别对所述人脸图像和口罩图像进行标注;
所述模型训练模块,用于利用标注后的人脸图像和口罩图像训练人脸口罩检测模型,其具体为:
根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLOv4网络构建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型;其中,
所述YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络输入图片尺寸均设置为448×448,其输出类别均设置为2;
所述YOLOv3-tiny网络的训练达到的最大批次设置为6000,所述YOLO v3网络和YOLOv4网络的训练达到的最大批次均设置为12000;
所述根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络训练第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,其包括以下步骤:
利用YOLO预训练权重分别初始化YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络;
将标注后的人脸图像和口罩图像的尺寸缩放为448×448像素;
将缩放后的人脸图像和口罩图像分别分割成S×S个网格单元,其中,S表示整型常数;
在每个网格单元中分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取视觉特征,并分别设置YOLO v3网络、YOLOv3-tiny网络和YOLO v4 网络的ReLU激活函数;
根据每个网格单元,分别利用YOLO v3网络的全连接层、YOLOv3-tiny网络的全连接层和YOLO v4网络的全连接层输出边界框(x,y,w,h)、包含目标的置信度Pr(object)以及每个类别的预测条件概率Pr(classiobject),其中,(x,y)表示边界框的中心左边,w和h分别表示边界框的宽度和长度,classi表示第i个目标;
分别合并YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取所有网格单元的视觉特征以及对应输出的边界框(x,y,w,h)、包含目标的置信度Pr(object)以及每个类别的预测条件概率Pr(classiobject),得到第一预测张量、第二预测张量以及第三预测张量;
根据所述第一预测张量、第二预测张量以及第三预测张量,分别计算得到第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度;
根据第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度,分别利用随机梯度下降法更新并优化YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络的参数,得到第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,完成对人脸口罩检测模型的训练;
所述模型推理模块,用于根据所述人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测;
所述模型部署模块,用于根据检测结果对人脸口罩检测模型进行部署,完成基于图像识别的口罩检测和部署。
2.一种基于图像识别的口罩检测和部署方法,其特征在于,包括以下步骤:
S1、数据处理:分别收集人脸图像和口罩图像,并分别对所述人脸图像和口罩图像进行标注;
S2、模型训练:利用标注后的人脸图像和口罩图像训练人脸口罩检测模型;
所述步骤S2具体为:根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络构建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型;其中,
所述YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络输入图片尺寸均设置为448×448,其输出类别均设置为2;
所述YOLOv3-tiny网络的训练达到的最大批次设置为6000,所述YOLO v3网络和YOLOv4网络的训练达到的最大批次均设置为12000;
所述根据标注后的人脸图像和口罩图像,分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络训练第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,其包括以下步骤:
A1、利用YOLO预训练权重分别初始化YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络;
A2、将标注后的人脸图像和口罩图像的尺寸缩放为448×448像素;
A3、将缩放后的人脸图像和口罩图像分别分割成S×S个网格单元,其中,S表示整型常数;
A4、在每个网格单元中分别利用YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取视觉特征,并分别设置YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络的ReLU激活函数;
A5、根据每个网格单元,分别利用YOLO v3网络的全连接层、YOLOv3-tiny网络的全连接层和YOLO v4网络的全连接层输出边界框(x,y,w,h)、包含目标的置信度Pr(object)以及每个类别的预测条件概率Pr(classiobject),其中,(,y)表示边界框的中心左边,w和h分别表示边界框的宽度和长度,classi表示第i个目标;
A6、分别合并YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络提取所有网格单元的视觉特征以及对应输出的边界框(x,y,w,h)、包含目标的置信度Pr(object)以及每个类别的预测条件概率Pr(classiobject),得到第一预测张量、第二预测张量以及第三预测张量;
A7、根据所述第一预测张量、第二预测张量以及第三预测张量,分别计算得到第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度;
A8、根据第一卷积神经网络的梯度、第二卷积神经网络的梯度以及第三卷积神经网络的梯度,分别利用随机梯度下降法更新并优化YOLO v3网络、YOLOv3-tiny网络和YOLO v4网络的参数,得到第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,完成对人脸口罩检测模型的训练;
S3、模型推理:根据所述人脸口罩检测模型,利用非极大值抑制算法对人脸和口罩的位置进行检测;
S4、模型部署:根据检测结果对人脸口罩检测模型进行部署,完成基于图像识别的口罩检测和部署。
3.根据权利要求2所述的基于图像识别的口罩检测和部署方法,其特征在于,所述步骤S1包括以下步骤:
S101、分别收集人脸图像和口罩图像;
S102、合并所述人脸图像和口罩图像,并将合并后的图像按同比例进行分割,得到人脸类别图像和人脸佩戴口罩类别图像;
S103、将同比例分割后的剩余人脸图像划分为两部分,其中一部分作为人脸数据合并至所述人脸类别图像中,另外一部分利用在人脸上覆盖口罩的图片处理方法生成人脸佩戴口罩图像,合并至人脸佩戴口罩类别图像中;
S104、根据人脸类别图像和人脸佩戴口罩类别图像,利用标注工具分别标注人脸和口罩,并导出PASCAL VOC格式的XML标注文件,完成对人脸图像和口罩图像的标注。
4.根据权利要求3所述的基于图像识别的口罩检测和部署方法,其特征在于,所述步骤S101中人脸图像的收集途径包括开源数据集、网络收集和非公开的监控数据;
所述口罩图像的收集途径包括:以现有公开的口罩检测数据集为基础,合并若干个口罩检测数据集;利用网络爬虫从网络上下载口罩图片;通过在人脸图像上制作佩戴口罩的口罩图片。
5.根据权利要求2所述的基于图像识别的口罩检测和部署方法,其特征在于,所述步骤A8中第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的损失函数的表达式均如下:
Figure FDA0003647078510000051
Figure FDA0003647078510000061
其中,λcoord表示对预测的中心坐标和边界框的宽度做损失的权重,S2表示网格单元的总数,B表示预测边界框的总数,
Figure FDA0003647078510000062
表示当第i个网格单元存在目标则第j个边界框预测值对该预测值有效,i表示网格单元的个数,j表示边界框的个数,xn表示第n个预测边界框的x轴坐标值,
Figure FDA0003647078510000063
表示训练数据中第j个边界框实际的x轴坐标值,yn表示第n个预测边界框的y轴坐标值,
Figure FDA0003647078510000064
表示训练数据中第j个边界框实际的y轴坐标值,wn表示第n个预测边界框的宽度,
Figure FDA0003647078510000065
表示训练数据中第j个边界框实际的宽度,hn表示第n个预测边界框的高度,
Figure FDA0003647078510000066
表示训练数据中第j个边界框实际的高度,Ci表示目标的置信度,
Figure FDA0003647078510000067
表示预测的边界框与实际的边界框的交叉部分比率,λnoobj表示对置信度预测的损失权重,
Figure FDA0003647078510000068
表示第i个网格单元不存在目标则第j个边界框预测值对该预测值有效,
Figure FDA0003647078510000069
表示第i个网格单元有目标,pn(c)表示第n个预测边界框的目标类别,
Figure FDA00036470785100000610
表示第j个界框的实际目标类别,c表示一个目标,classes表示目标集合。
6.根据权利要求5所述的基于图像识别的口罩检测和部署方法,其特征在于,所述步骤S3包括以下步骤:
S301、根据所述第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型,分别利用非极大值抑制算法对目标候选框进行去重处理,得到第一目标区域、第二目标区域以及第三目标区域;
S302、根据所述第一目标区域、第二目标区域以及第三目标区域,分别利用预设的概率阈值检测图像中人脸和口罩出现的位置,完成对人脸和口罩位置的检测。
7.根据权利要求6所述的基于图像识别的口罩检测和部署方法,其特征在于,所述步骤S4包括以下步骤:
S401、分别搭建第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的转换环境,并分别安装编程语言运行库Python、开放式神经网络交换运行库onnx以及开发套件RKNN Toolkit;
S402、利用编程语言运行库Python和开放式神经网络交换运行库onnx分别读取第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的cfg和weights文件,分别导出第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型中的ONNX结构文件;
S403、利用RKNN Toolkit分别将第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型中的ONNX结构文件转换为RKNN模型文件;
S404、利用RKNN API编写应用程序加装RKNN模型文件,分别进行第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的推理应用;
S405、根据推理应用结果编译应用程序,并将应用程序和第一人脸口罩检测模型、第二人脸口罩检测模型以及第三人脸口罩检测模型的RKNN模型文件分别部署至硬件平台;
S406、读取摄像头的监控图像,并利用RKNN模型文件调用推理引擎对监控图像进行分析,并输出分析结果,完成基于图像识别的口罩检测和部署。
CN202011173258.3A 2020-10-28 2020-10-28 一种基于图像识别的口罩检测和部署系统及方法 Active CN112085010B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011173258.3A CN112085010B (zh) 2020-10-28 2020-10-28 一种基于图像识别的口罩检测和部署系统及方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011173258.3A CN112085010B (zh) 2020-10-28 2020-10-28 一种基于图像识别的口罩检测和部署系统及方法

Publications (2)

Publication Number Publication Date
CN112085010A CN112085010A (zh) 2020-12-15
CN112085010B true CN112085010B (zh) 2022-07-12

Family

ID=73730402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011173258.3A Active CN112085010B (zh) 2020-10-28 2020-10-28 一种基于图像识别的口罩检测和部署系统及方法

Country Status (1)

Country Link
CN (1) CN112085010B (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112598054B (zh) * 2020-12-21 2023-09-22 福建京力信息科技有限公司 基于深度学习的输变电工程质量通病防治检测方法
CN112633237A (zh) * 2020-12-31 2021-04-09 广州紫川电子科技有限公司 一种口罩佩戴状态检测方法、设备及介质
CN113033375A (zh) * 2021-03-22 2021-06-25 广州大学华软软件学院 一种基于yolov3的人脸口罩检测方法、系统、设备及介质
CN115529836A (zh) * 2021-04-09 2022-12-27 鸿富锦精密工业(武汉)有限公司 检测口罩人脸识别方法、装置及计算机存储介质
CN113111805A (zh) * 2021-04-16 2021-07-13 北京科技大学 一种基于机器视觉的煤矿井下打钻数量统计方法
CN113221667B (zh) * 2021-04-20 2023-10-27 北京睿芯高通量科技有限公司 一种基于深度学习的人脸口罩属性分类方法及系统
CN113221703B (zh) * 2021-04-30 2024-06-11 平安科技(深圳)有限公司 基于无服务边缘计算的佩戴口罩监测方法、装置及设备
CN113780053A (zh) * 2021-07-05 2021-12-10 青海大学 基于开发板的人流密度监测系统
CN113553984B (zh) * 2021-08-02 2023-10-13 中再云图技术有限公司 一种基于上下文辅助的视频口罩检测方法
CN113705404A (zh) * 2021-08-18 2021-11-26 南京邮电大学 一种面向嵌入式硬件的人脸检测方法
CN113989708B (zh) * 2021-10-27 2024-06-04 福州大学 一种基于YOLO v4的校园图书馆疫情防控方法
CN114550060A (zh) * 2022-02-25 2022-05-27 北京小龙潜行科技有限公司 周界入侵识别方法、系统及电子设备
CN116092166B (zh) * 2023-03-06 2023-06-20 深圳市慧为智能科技股份有限公司 口罩人脸识别方法、装置、计算机设备及存储介质
CN116664822A (zh) * 2023-06-01 2023-08-29 广州阅数科技有限公司 一种基于自动切图算法的图像目标检测方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135267A (zh) * 2019-04-17 2019-08-16 电子科技大学 一种大场景sar图像细微目标检测方法
CN110781964A (zh) * 2019-10-28 2020-02-11 兰州交通大学 一种基于视频图像的人体目标检测方法及系统
CN111291637A (zh) * 2020-01-19 2020-06-16 中国科学院上海微系统与信息技术研究所 一种基于卷积神经网络的人脸检测方法、装置及设备

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5687656B2 (ja) * 2012-05-24 2015-03-18 株式会社野村総合研究所 データ変換装置
US10700794B2 (en) * 2017-01-23 2020-06-30 Digital Global Systems, Inc. Systems, methods, and devices for automatic signal detection based on power distribution by frequency over time within an electromagnetic spectrum
US10909401B2 (en) * 2018-05-29 2021-02-02 Sri International Attention-based explanations for artificial intelligence behavior
CN112789623A (zh) * 2018-11-16 2021-05-11 北京比特大陆科技有限公司 文本检测方法、装置及存储介质
CN110414305A (zh) * 2019-04-23 2019-11-05 苏州闪驰数控系统集成有限公司 人工智能卷积神经网络人脸识别系统
CN110222587A (zh) * 2019-05-13 2019-09-10 杭州电子科技大学 一种基于特征图的商品定位检测重识别方法
CN111488804B (zh) * 2020-03-19 2022-11-11 山西大学 基于深度学习的劳保用品佩戴情况检测和身份识别的方法
CN111414887B (zh) * 2020-03-30 2021-01-29 上海高重信息科技有限公司 基于yolov3算法的二次检测口罩人脸识别方法
CN111582068B (zh) * 2020-04-22 2023-07-07 北京交通大学 人员口罩佩戴状态检测方法
CN111738930A (zh) * 2020-05-12 2020-10-02 北京三快在线科技有限公司 人脸图像的合成方法、装置、电子设备及存储介质
CN111680637A (zh) * 2020-06-10 2020-09-18 深延科技(北京)有限公司 基于深度学习和图像识别技术的口罩检测方法及检测系统
CN111767833A (zh) * 2020-06-28 2020-10-13 北京百度网讯科技有限公司 模型生成方法、装置、电子设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110135267A (zh) * 2019-04-17 2019-08-16 电子科技大学 一种大场景sar图像细微目标检测方法
CN110781964A (zh) * 2019-10-28 2020-02-11 兰州交通大学 一种基于视频图像的人体目标检测方法及系统
CN111291637A (zh) * 2020-01-19 2020-06-16 中国科学院上海微系统与信息技术研究所 一种基于卷积神经网络的人脸检测方法、装置及设备

Also Published As

Publication number Publication date
CN112085010A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
CN112085010B (zh) 一种基于图像识别的口罩检测和部署系统及方法
Punn et al. Monitoring COVID-19 social distancing with person detection and tracking via fine-tuned YOLO v3 and Deepsort techniques
CN109819208B (zh) 一种基于人工智能动态监控的密集人群安防监控管理方法
CN111062429A (zh) 基于深度学习的厨师帽和口罩佩戴的检测方法
Borrego-Carazo et al. Resource-constrained machine learning for ADAS: A systematic review
CN112183471A (zh) 一种现场人员防疫口罩规范佩戴的自动检测方法及系统
Bhadani et al. A facemask detector using machine learning and image processing techniques
CN111860434B (zh) 机器人视觉隐私行为识别与保护方法
CN111813997A (zh) 入侵分析方法、装置、设备及存储介质
CN112395967A (zh) 一种口罩佩戴监测方法、电子设备和可读存储介质
Sathyabama et al. Monitoring pandemic precautionary protocols using real-time surveillance and artificial intelligence
Sharadhi et al. Face mask recogniser using image processing and computer vision approach
Jeevitha et al. Detection of Face Mask: A Systematic Approach
Limbasiya et al. COVID-19 face mask and social distancing detector using machine learning
CN116959099A (zh) 一种基于时空图卷积神经网络的异常行为识别方法
Machiraju et al. Face mask detection using keras, opencv and tensorflow by implementing mobilenetv2
Teke et al. Survey on face mask detection using deep learning
Palani et al. Face mask detector using deep transfer learning and fine-tuning
Moyo et al. COVID-19 Face Mask Detection Alert System
Kumari et al. Deep learning and computer vision-based social distancing detection system
Vignesh et al. Mask Detection for Life Protection
Bennur et al. Face Mask Detection and Face Recognition of Unmasked People in Organizations
Alani et al. Convolutional neural network-based Face Mask Detection
KR102662251B1 (ko) 인공지능 기반의 치매 환자 추적 방법
Antonov et al. An Intelligent System for Video-Based Proximity Analysis

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant