CN112488034A - 基于轻量化人脸口罩检测模型的视频处理方法 - Google Patents
基于轻量化人脸口罩检测模型的视频处理方法 Download PDFInfo
- Publication number
- CN112488034A CN112488034A CN202011462599.2A CN202011462599A CN112488034A CN 112488034 A CN112488034 A CN 112488034A CN 202011462599 A CN202011462599 A CN 202011462599A CN 112488034 A CN112488034 A CN 112488034A
- Authority
- CN
- China
- Prior art keywords
- face
- mask
- image
- unit
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 54
- 238000003672 processing method Methods 0.000 title claims abstract description 13
- 238000012549 training Methods 0.000 claims abstract description 19
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000012937 correction Methods 0.000 claims description 23
- 230000009466 transformation Effects 0.000 claims description 23
- 238000012821 model calculation Methods 0.000 claims description 18
- 238000002372 labelling Methods 0.000 claims description 17
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 16
- 239000011159 matrix material Substances 0.000 claims description 16
- 238000000034 method Methods 0.000 claims description 11
- 230000001629 suppression Effects 0.000 claims description 9
- 210000000887 face Anatomy 0.000 claims description 7
- 230000010354 integration Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 230000003044 adaptive effect Effects 0.000 claims description 2
- 239000000284 extract Substances 0.000 claims description 2
- 238000005457 optimization Methods 0.000 claims description 2
- 238000011161 development Methods 0.000 abstract description 2
- 238000010586 diagram Methods 0.000 description 3
- 238000005538 encapsulation Methods 0.000 description 3
- 238000013145 classification model Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000036541 health Effects 0.000 description 2
- 230000005764 inhibitory process Effects 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 239000004753 textile Substances 0.000 description 2
- 240000007651 Rubus glaucus Species 0.000 description 1
- 235000011034 Rubus glaucus Nutrition 0.000 description 1
- 235000009122 Rubus idaeus Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000005541 medical transmission Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 230000005180 public health Effects 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000012216 screening Methods 0.000 description 1
- 230000005477 standard model Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Image Analysis (AREA)
Abstract
一种基于轻量化人脸口罩检测模型的视频处理方法,使用人脸数据集构建得到的人脸检测模型向样本图像中添加人脸位置标注和人脸关键点标注,并进一步在样本图像上对应的人脸位置添加人工标注后经裁剪处理,得到训练样本校正后用于对轻量级口罩分类深度模型进行训练,再将训练后得到的模型与人脸检测模型使用区域图像抽取模块进行级联得到视频流检测分类模块,并将视频流中每一帧连续输入到人脸检测模型,模型输出当前帧所含所有人脸的位置、人脸关键点和佩戴口罩情况的信息。本发明能够有效地节约模型存储空间和计算量,方便部署在低算力设备中。而且模型训练仅需要人为标注部分数据,易于结合多种已有的人脸检测模块,降低开发成本。
Description
技术领域
本发明涉及的是一种图像处理领域的技术,具体是一种基于轻量化人脸口罩检测模型的视频处理方法。
背景技术
当发生突发公共卫生事件时,人员在公共区域佩戴口罩是防止疾病传播的重要手段,当前主要有两种方案解决口罩检测问题。
第一种方案是派遣防疫人员进行现场人工检查,这种方案的主要缺点是效率较低,增加人员聚集的风险。同时人力成本较高,需要多名防疫人员轮班作业才能保证时刻的监测。
第二种方案是采用计算机视觉中目标检测的方法,训练或者微调(fine-tune)目标检测模型,得到口罩检测模型。这种方案的主要缺点是需要全新的训练和测试数据集。新数据集中需要同时标注人脸位置、是否佩戴口罩的信息。若要追求更高的准确度,还需要人脸关键点信息。然而相对于人脸是否佩戴口罩的标注,不同的人工标注者标注的人脸位置信息和人脸关键点信息很难保持一致,从而导致目标检测模型的损失在训练或者微调时难以收敛。同时,大规模的标注需要大量的人力成本,而且难以与现有的人脸检测模型融合。
发明内容
本发明针对现有技术存在的上述不足,提出一种基于轻量化人脸口罩检测模型的视频处理方法,能够有效地节约模型存储空间和计算量,方便部署在低算力设备中。而且模型训练仅需要人为标注部分数据,易于结合多种已有的人脸检测模块,降低开发成本。
所述的部分位置标注,包括:人脸位置标注和人脸关键点标注,
本发明是通过以下技术方案实现的:
本发明涉及一种基于轻量化人脸口罩检测模型的视频处理方法,使用人脸数据集构建得到的人脸检测模型向样本图像中添加人脸位置标注和人脸关键点标注,并进一步在样本图像上对应的人脸位置添加人工标注后经裁剪处理,得到训练样本校正后用于对轻量级口罩分类深度模型进行训练,再将训练后得到的模型与人脸检测模型使用区域图像抽取模块进行级联得到视频流检测分类模块,并将视频流中每一帧连续输入到人脸检测模型,模型输出当前帧所含所有人脸的位置、人脸关键点和佩戴口罩情况的信息。
所述的样本图像优选为RGB三通道JPEG格式的图片,每张图片中至少含有1张完整的人脸图像,每个人脸图像不小于30×30像素。所有图片中的总人脸数目不少于10000个,其中佩戴医用口罩和佩戴口罩的人脸比例不少于20%。
所述的样本图像优选同时包括带口罩和不带口罩的人脸照片。
所述的人工标注包括:正确佩戴医用口罩、正确佩戴口罩、未正确佩戴口罩、未佩戴口罩。
所述的裁剪是指:基于人脸位置标注对样本图像进行裁切。
优选地,对裁剪后的人脸图片中的侧脸图片进行校正处理,具体为:根据人脸关键点对裁剪后的人脸图片中的侧脸图片进行校正,得到校正后的正脸图片后进一步添加人工标注。
所述的人脸数据集优选为公开的数据集为具有人脸关键点标注的WIDER FACE数据集。任意一种检测模型在使用WIDER FACE数据集训练精调后均可作为机器标注的标准使用。
所述的人脸位置标注是指:为样本图像中的每一张的人脸边框在图像中的左下角坐标和右上角坐标。
所述的人脸关键点标注是指:为样本图像中的每一张图像的每一个人脸的左瞳孔中心坐标、右瞳孔中心坐标、鼻尖坐标、左嘴角坐标和右嘴角坐标;标注中的每一个坐标为一个二维点,原点为图片左上角,单位为像素,第一个维度代表从上到下的像素坐标,第二个维度代表从左到右的像素坐标。
所述的人工标注,优选在标注前首先人工筛选舍弃非人脸的机器标注和大小为30×30像素以下的机器标注,然后向每一个符合要求的机器标注中添加四种分类,对应为0对应未佩戴口罩;1对应未正确佩戴口罩;2对应正确佩戴口罩;3对应正确佩戴医用口罩。佩戴医用口罩是指正确佩戴满足YY/T0969-2013或YY0469-2011或GB19083-2010的口罩。正确佩戴是指佩戴口罩的方法满足中华人民共和国卫生部医院隔离技术规范附录A的佩戴要求。使用毛巾、纱巾、围巾等纺织物或者使用手等非口罩物品覆盖口鼻分类为未佩戴口罩。
所述的裁切,优选为根据人脸边框先进行衬垫(padding)操作,对于上下两边,衬垫长度为人脸边框的高度乘以0.25后四舍五入取整,对于左右两边衬垫长度为人脸边框的宽度乘以0.2后四舍五入取整。衬垫操作后如果有边框落在图像外,则以欧氏距离最近的像素进行填充。
所述的校正,优选参考标准正脸的人脸关键点,列出从当前关键点二维坐标至参考标准正脸关键点二维坐标的仿射变换方程,从仿射变换方程解出原图到参考正脸图仿射变换的线性变换矩阵,再对原图中的每一个点乘以变换矩阵得到校正后的人脸,得到校正后的人脸。之后以正脸为中心进行裁剪,使用双线性插值的方法得到大小为128×128像素的正脸图片,复制步骤4中的人脸类别标注,得到校正后的人脸图像数据集。
所述的轻量级口罩分类深度模型采用深度可分离卷积模块作为骨干网络的分类深度模型。
所述的训练,优选采用交叉熵作为损失函数,通过自适应矩估计(Adam)优化器进行梯度下降求得参数优化值的过程。
本发明涉及一种实现上述方法的系统,包括:人脸检测模块、人脸校正模块和口罩分类模块,其中:人脸检测模块对输入的视频流中每一帧的RGB三通道图像信息进行前向传播运算,得到人脸位置信息和人脸关键点信息以及人脸位置置信度后,再进行非极大值抑制运算得到人脸位置和人脸关键点信息,人脸校正模块根据人脸位置和人脸关键点信息进行图像裁切和仿射变换矩阵求解,得到仿射变换矩阵并根据矩阵对裁切出的图像进行仿射变换,得到正脸RGB三通道图像,口罩分类模块根据正脸RGB三通道图像经过双线性插值后进行前向传播计算,得到四种佩戴口罩情况的置信度。
技术效果
本发明整体解决了现有技术无法在视频流中实时进行人脸口罩佩戴情况的检测;与现有技术相比,本发明通过机器视觉对全新数据集进行部分位置标注的同时为每一个人脸位置人工标注四种不同的佩戴口罩的类型以保证标注准确性和一致性的同时有效降低标注成本,并采用卷积神经网络作为特征提取器,将提取到的特征进行分类,并以包含深度可分离卷积模块(depwise separable convblock,CONV_DW)的口罩分类网络,采用双步式目标检测器的设计思想,利用现有的经WIDER FACE公开数据集训练的人脸检测网络作为特征提取器,得到人脸位置信息的同时产生是否正确佩戴口罩以及佩戴口罩的类型精确分类结果。
附图说明
图1为本发明实施流程图;
图2为基本卷积模块(Conv Block)示意图;
图3为深度可分离卷积模块(Depwise Separable ConvBlock,Conv_DW Block)示意图;
图4为口罩分类网络结构示意图;
图5为实施例系统示意图;
图6为实施例口罩检测效果展示示意图。
具体实施方式
如图1所示,为本实施例涉及一种基于轻量化人脸口罩检测模型的视频处理方法,具体包括以下步骤:
步骤1、收集包含15412人脸的RGB三通道JPEG格式的图片,每张图片中至少含有1张完整的人脸图像,每个人脸图像不小于30×30像素。其中佩戴医用口罩和佩戴口罩的人脸有8935个。
步骤2、使用轻量化后的单步式检测器SSD检测模型作为基础模型,只保留前三个检测头,使用WIDER FACE数据集训练精调,作为机器标注的标准模型使用。
步骤3、使用轻量化后的SSD标注人脸位置。人脸位置为步骤1中的每一张图像的人脸边框在图像中的左下角坐标和右上角坐标;人脸关键点为步骤1中的每一张图像的每一个人脸的左瞳孔中心坐标、右瞳孔中心坐标、鼻尖坐标、左嘴角坐标和右嘴角坐标。标注中的每一个坐标为一个二维点,原点为图片左上角,单位为像素,第一个维度代表从上到下的像素坐标,第二个维度代表从左到右的像素坐标。
步骤4、为步骤三中每一个检测出的人脸进行四种不同的人工标注。在标注前会要求标注人员首先人工筛选舍弃非人脸的机器标注和大小为30×30像素以下的机器标注,再,向每一个符合要求的机器标注中添加四种分类,使用0,1,2,3四种数字表示。0对应未佩戴口罩;1对应未正确佩戴口罩;2对应正确佩戴口罩;3对应正确佩戴医用口罩。佩戴医用口罩是指正确佩戴满足YY/T0969-2013或YY0469-2011或GB19083-2010的口罩。正确佩戴是指佩戴口罩的方法满足中华人民共和国卫生部医院隔离技术规范附录A的佩戴要求。使用毛巾、纱巾、围巾等纺织物或者使用手等非口罩物品覆盖口鼻分类为未佩戴口罩。
步骤5、根据步骤4中的人脸边框先进行衬垫(padding)操作,对于上下两边,衬垫长度为人脸边框的高度乘以0.25后四舍五入取整,对于左右两边衬垫长度为人脸边框的宽度乘以0.2后四舍五入取整。衬垫操作后如果有边框落在图像外,则以欧氏距离最近的像素进行填充。
步骤6、人脸图像校正。使用步骤3中生成的人脸关键点,参考标准正脸的人脸关键点,解出从原图到正脸图仿射变换的线性变换矩阵,再对原图中的每一个点乘以变换矩阵得到校正后的人脸,得到校正后的人脸。之后以正脸为中心进行裁剪,使用双线性插值的方法得到大小为128×128像素的正脸图片,复制步骤4中的人脸类别标注,得到校正后的人脸图像数据集。
步骤7、使用图1中展示的基本卷积模块和图2中展示的深度可分离卷积模块构建如图3展示的轻量级口罩分类深度模型。使用步骤6中的数据集利用自适应矩估计优化器优化参数,得到口罩分类模型。
最后,将口罩分类模型封装为一个输入校正后的人脸图片,输出口罩分类结果的模块。
如图5所示,为本实施例涉及的一种实现上述方法的系统,包括:轻量化后的单步式检测器SSD检测模型封装而成的人脸检测模块、线性变换矩阵操作封装而成的人脸校正模块、经过口罩覆盖后的FDDB数据集训练得到的Resnet模型封装而成的人脸识别模块和口罩分类模块,其中:人脸检测模块接受输入的视频流中每一帧的RGB三通道图像信息进行前向传播运算,得到人脸位置信息和人脸关键点信息以及人脸位置置信度,经非极大值抑制运算后输出至人脸矫正模块,人脸校正模块根据人脸位置和人脸关键点信息进行图像裁切和仿射变换矩阵求解,得到仿射变换矩阵并根据矩阵对裁切出的图像进行仿射变换,得到正脸RGB三通道图像,口罩分类模块根据正脸RGB三通道图像经过双线性插值后进行前向传播计算,得到四种佩戴口罩情况的置信度。
所述的人脸检测模块包括:视频帧抽取单元、模型计算单元、非极大值抑制单元以及输出整合单元,其中:视频帧抽取单元与视频流输入相连并抽取有效输入帧作为RGB三通道图片输入模型计算单元和人脸矫正模块输入单元,模型计算单元与非极大值抑制单元相连并输出人脸位置信息和人脸关键点信息以及人脸位置置信度,非极大值抑制单元与输出整合单元相连并筛选人脸位置信息,输出整合单元与人脸矫正模块相连并传输整合后的信息。
所述的人脸校正模块包括:输入单元、校正单元以及输出单元,其中:输入单元与检测模块输入单元和输出单元相连,按照人脸位置和关键点裁切出人脸图像,输入校正单元,校正单元与输出单元相连并输出校正后的人脸图像,输出单元与人脸识别模块的输入单元和口罩分类的输入单元相连并传输校正后的人脸图像信息。
所述的人脸识别模块包括:输入单元、模型计算单元、以及比对单元,其中:输入单元与人脸校正模块的输出单元相连并传输校正后的人脸图像信息,模型计算单元与比对单元相连并传输512维正则化后的浮点数人脸特征信息,比对单元与模型计算单元相连并传输人脸身份信息。
所述的口罩分类模块包括:输入单元、模型计算单元、以及输出单元,其中:输入单元与人脸校正模块的输出单元相连并传输校正后的人脸图像信息,模型计算单元与输出单元相连并传输四种不同类别的置信度信息,输出单元与模型计算单元相连并通过Softmax函数计算产生每张人脸对应类别的置信度信息。
所述的系统可部署在服务器上作为API被用户远程调用,也可部署在如树莓派的嵌入式设备中作为本地服务提供无网络下的服务。
经过具体实际实验,在Intel i7-7700 CPU作为算力单元,采用python3.7语言环境,以非极大值抑制阈值0.4,非极大值抑制最佳值取5000,筛选最佳值取750,人脸检测模块置信度阈值0.6,人脸检测模块模型计算单元输入长边为640像素,宽边等比例缩放,人脸识别和口罩分离模块模型计算单元输入大小为128×128像素参数运行上述系统1000次。如图6所示,其中人脸由检测框标出,五个数字分别代表人脸检测的置信度,和正确佩戴口罩、正确佩戴医用口罩、未正确佩戴口罩、未佩戴口罩的置信度,其余点为人脸关键点位置标识;口罩分离模块模型计算单元平均每张人脸耗时6ms,单人脸视频流从视频流输入到口罩分类结果产生的平均耗时为153ms/帧。在WIDER FACE验证集中,人脸检测EasymAP超过0.7,在医用口罩分类测试集Medical Mask上,分类准确度超过70%。
与现有技术相比,本发明提供多种分类结果,能够详细分析人员是否佩戴口罩、佩戴是否正确以及佩戴的口罩类型;分类速度较快,在实验中单张人脸的分类速度小于7ms。
上述具体实施可由本领域技术人员在不背离本发明原理和宗旨的前提下以不同的方式对其进行局部调整,本发明的保护范围以权利要求书为准且不由上述具体实施所限,在其范围内的各个实现方案均受本发明之约束。
Claims (10)
1.一种基于轻量化人脸口罩检测模型的视频处理方法,其特征在于,使用人脸数据集构建得到的人脸检测模型向样本图像中添加人脸位置标注和人脸关键点标注,并进一步在样本图像上对应的人脸位置添加人工标注后经裁剪处理,得到训练样本校正后用于对轻量级口罩分类深度模型进行训练,再将训练后得到的模型与人脸检测模型使用区域图像抽取模块进行级联得到视频流检测分类模块,并将视频流中每一帧连续输入到人脸检测模型,模型输出当前帧所含所有人脸的位置、人脸关键点和佩戴口罩情况的信息;
所述的样本图像中的每张图片中至少含有1张完整的人脸图像,且同时包括带口罩和不带口罩的人脸照片;
所述的人工标注包括:正确佩戴医用口罩、正确佩戴口罩、未正确佩戴口罩、未佩戴口罩。
2.根据权利要求1所述的基于轻量化人脸口罩检测模型的视频处理方法,其特征是,所述的裁剪是指:基于人脸位置标注对样本图像进行裁切;并对裁剪后的人脸图片中的侧脸图片进行校正处理,具体为:根据人脸关键点对裁剪后的人脸图片中的侧脸图片进行校正,得到校正后的正脸图片后进一步添加人工标注。
3.根据权利要求1或2所述的基于轻量化人脸口罩检测模型的视频处理方法,其特征是,所述的人脸位置标注是指:为样本图像中的每一张的人脸边框在图像中的左下角坐标和右上角坐标;
所述的人脸关键点标注是指:为样本图像中的每一张图像的每一个人脸的左瞳孔中心坐标、右瞳孔中心坐标、鼻尖坐标、左嘴角坐标和右嘴角坐标;标注中的每一个坐标为一个二维点,原点为图片左上角,单位为像素,第一个维度代表从上到下的像素坐标,第二个维度代表从左到右的像素坐标。
4.根据权利要求2所述的基于轻量化人脸口罩检测模型的视频处理方法,其特征是,所述的裁切,根据人脸边框先进行衬垫操作,对于上下两边,衬垫长度为人脸边框的高度乘以0.25后四舍五入取整,对于左右两边衬垫长度为人脸边框的宽度乘以0.2后四舍五入取整,衬垫操作后如果有边框落在图像外,则以欧氏距离最近的像素进行填充。
5.根据权利要求2所述的基于轻量化人脸口罩检测模型的视频处理方法,其特征是,所述的校正,参考标准正脸的人脸关键点,列出从当前关键点二维坐标至参考标准正脸关键点二维坐标的仿射变换方程,从仿射变换方程解出原图到参考正脸图仿射变换的线性变换矩阵,再对原图中的每一个点乘以变换矩阵得到校正后的人脸,得到校正后的人脸,之后以正脸为中心进行裁剪,使用双线性插值的方法得到正脸图片并进一步通过人脸类别标注,得到校正后的人脸图像数据集。
6.根据权利要求2所述的基于轻量化人脸口罩检测模型的视频处理方法,其特征是,所述的轻量级口罩分类深度模型采用深度可分离卷积模块作为骨干网络的分类深度模型;其训练,优选采用交叉熵作为损失函数,通过自适应矩估计(Adam)优化器进行梯度下降求得参数优化值的过程。
7.一种实现上述任一权利要求所述方法的系统,其特征在于,包括:人脸检测模块、人脸校正模块和口罩分类模块,其中:人脸检测模块对输入的视频流中每一帧的RGB三通道图像信息进行前向传播运算,得到人脸位置信息和人脸关键点信息以及人脸位置置信度后,再进行非极大值抑制运算得到人脸位置和人脸关键点信息,人脸校正模块根据人脸位置和人脸关键点信息进行图像裁切和仿射变换矩阵求解,得到仿射变换矩阵并根据矩阵对裁切出的图像进行仿射变换,得到正脸RGB三通道图像,口罩分类模块根据正脸RGB三通道图像经过双线性插值后进行前向传播计算,得到四种佩戴口罩情况的置信度。
8.根据权利要求7所述的系统,其特征是,所述的人脸检测模块包括:视频帧抽取单元、模型计算单元、非极大值抑制单元以及输出整合单元,其中:视频帧抽取单元与视频流输入相连并抽取有效输入帧作为RGB三通道图片输入模型计算单元和人脸矫正模块输入单元,模型计算单元与非极大值抑制单元相连并输出人脸位置信息和人脸关键点信息以及人脸位置置信度,非极大值抑制单元与输出整合单元相连并筛选人脸位置信息,输出整合单元与人脸矫正模块相连并传输整合后的信息。
9.根据权利要求7所述的系统,其特征是,所述的人脸校正模块包括:输入单元、校正单元以及输出单元,其中:输入单元与检测模块输入单元和输出单元相连,按照人脸位置和关键点裁切出人脸图像,输入校正单元,校正单元与输出单元相连并输出校正后的人脸图像,输出单元传输校正后的人脸图像信息。
10.根据权利要求7所述的系统,其特征是,所述的口罩分类模块包括:输入单元、模型计算单元、以及输出单元,其中:输入单元与人脸校正模块的输出单元相连并传输校正后的人脸图像信息,模型计算单元与输出单元相连并传输四种不同类别的置信度信息,输出单元与模型计算单元相连并通过Softmax函数计算产生每张人脸对应类别的置信度信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011462599.2A CN112488034A (zh) | 2020-12-14 | 2020-12-14 | 基于轻量化人脸口罩检测模型的视频处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011462599.2A CN112488034A (zh) | 2020-12-14 | 2020-12-14 | 基于轻量化人脸口罩检测模型的视频处理方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112488034A true CN112488034A (zh) | 2021-03-12 |
Family
ID=74916867
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011462599.2A Pending CN112488034A (zh) | 2020-12-14 | 2020-12-14 | 基于轻量化人脸口罩检测模型的视频处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112488034A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221667A (zh) * | 2021-04-20 | 2021-08-06 | 北京睿芯高通量科技有限公司 | 一种基于深度学习的人脸口罩属性分类方法及系统 |
CN113936312A (zh) * | 2021-10-12 | 2022-01-14 | 南京视察者智能科技有限公司 | 一种基于深度学习图卷积网络的人脸识别底库筛选方法 |
CN113947795A (zh) * | 2021-10-22 | 2022-01-18 | 苏州魔视智能科技有限公司 | 口罩佩戴检测方法、装置、设备及存储介质 |
CN114220051A (zh) * | 2021-12-10 | 2022-03-22 | 马上消费金融股份有限公司 | 视频处理方法、应用程序的测试方法及电子设备 |
CN116631019A (zh) * | 2022-03-24 | 2023-08-22 | 清华大学 | 基于面部图像的口罩适合性检测方法及装置 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428559A (zh) * | 2020-02-19 | 2020-07-17 | 北京三快在线科技有限公司 | 一种口罩佩戴情况检测方法、装置、电子设备及存储介质 |
CN111639577A (zh) * | 2020-05-25 | 2020-09-08 | 台州智必安科技有限责任公司 | 一种监控视频多人人脸检测和表情识别方法 |
CN111639617A (zh) * | 2020-06-08 | 2020-09-08 | 南京海帆数据科技有限公司 | 一种高精度的戴口罩人脸识别技术 |
CN111738178A (zh) * | 2020-06-28 | 2020-10-02 | 天津科技大学 | 一种基于深度学习的戴口罩人脸表情识别方法 |
CN112001872A (zh) * | 2020-08-26 | 2020-11-27 | 北京字节跳动网络技术有限公司 | 信息显示方法、设备及存储介质 |
-
2020
- 2020-12-14 CN CN202011462599.2A patent/CN112488034A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111428559A (zh) * | 2020-02-19 | 2020-07-17 | 北京三快在线科技有限公司 | 一种口罩佩戴情况检测方法、装置、电子设备及存储介质 |
CN111639577A (zh) * | 2020-05-25 | 2020-09-08 | 台州智必安科技有限责任公司 | 一种监控视频多人人脸检测和表情识别方法 |
CN111639617A (zh) * | 2020-06-08 | 2020-09-08 | 南京海帆数据科技有限公司 | 一种高精度的戴口罩人脸识别技术 |
CN111738178A (zh) * | 2020-06-28 | 2020-10-02 | 天津科技大学 | 一种基于深度学习的戴口罩人脸表情识别方法 |
CN112001872A (zh) * | 2020-08-26 | 2020-11-27 | 北京字节跳动网络技术有限公司 | 信息显示方法、设备及存储介质 |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113221667A (zh) * | 2021-04-20 | 2021-08-06 | 北京睿芯高通量科技有限公司 | 一种基于深度学习的人脸口罩属性分类方法及系统 |
CN113221667B (zh) * | 2021-04-20 | 2023-10-27 | 北京睿芯高通量科技有限公司 | 一种基于深度学习的人脸口罩属性分类方法及系统 |
CN113936312A (zh) * | 2021-10-12 | 2022-01-14 | 南京视察者智能科技有限公司 | 一种基于深度学习图卷积网络的人脸识别底库筛选方法 |
CN113947795A (zh) * | 2021-10-22 | 2022-01-18 | 苏州魔视智能科技有限公司 | 口罩佩戴检测方法、装置、设备及存储介质 |
CN114220051A (zh) * | 2021-12-10 | 2022-03-22 | 马上消费金融股份有限公司 | 视频处理方法、应用程序的测试方法及电子设备 |
CN114220051B (zh) * | 2021-12-10 | 2023-07-28 | 马上消费金融股份有限公司 | 视频处理方法、应用程序的测试方法及电子设备 |
CN116631019A (zh) * | 2022-03-24 | 2023-08-22 | 清华大学 | 基于面部图像的口罩适合性检测方法及装置 |
CN116631019B (zh) * | 2022-03-24 | 2024-02-27 | 清华大学 | 基于面部图像的口罩适合性检测方法及装置 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112488034A (zh) | 基于轻量化人脸口罩检测模型的视频处理方法 | |
CN106960195B (zh) | 一种基于深度学习的人群计数方法及装置 | |
CN111428604A (zh) | 面部佩戴口罩识别方法、装置、设备及存储介质 | |
CN111507248B (zh) | 一种低分辨热力图的人脸额头区域检测与定位方法及其系统 | |
CN103824053B (zh) | 一种人脸图像的性别标注方法及人脸性别检测方法 | |
CN110163114A (zh) | 一种人脸角度及人脸模糊度分析方法、系统和计算机设备 | |
CN103942525A (zh) | 一种基于视频序列的实时人脸优选方法 | |
Kocacinar et al. | A real-time cnn-based lightweight mobile masked face recognition system | |
CN115661943B (zh) | 一种基于轻量级姿态评估网络的跌倒检测方法 | |
CN109800756B (zh) | 一种用于中文历史文献密集文本的文字检测识别方法 | |
CN114937232B (zh) | 医废处理人员防护用具穿戴检测方法、系统和设备 | |
CN102184016B (zh) | 基于视频序列识别的无接触式鼠标控制方法 | |
CN112115775A (zh) | 一种基于计算机视觉的监控场景下的吸烟行为检测方法 | |
CN110415212A (zh) | 异常细胞检测方法、装置及计算机可读存储介质 | |
CN107844742A (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
CN111783702A (zh) | 一种基于图像增强算法和人体关键点定位的高效行人摔倒检测方法 | |
CN110766645B (zh) | 基于人物识别与分割的目标人物复现图生成方法 | |
Hatibaruah et al. | A static hand gesture based sign language recognition system using convolutional neural networks | |
CN110334631B (zh) | 一种基于人脸检测与二值运算的坐姿检测方法 | |
CN104866826A (zh) | 一种基于knn和像素比梯度特征的静态手语识别方法 | |
CN113221667B (zh) | 一种基于深度学习的人脸口罩属性分类方法及系统 | |
CN112464864A (zh) | 基于树形神经网络结构的人脸活体检测方法 | |
US20230020385A1 (en) | Safety belt detection method, apparatus, computer device, and storage medium | |
Işikdoğan et al. | Automatic recognition of Turkish fingerspelling | |
Singh et al. | Robust modelling of static hand gestures using deep convolutional network for sign language translation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20210312 |