CN112464701A - 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法 - Google Patents

基于轻量化特征融合ssd的人员是否佩戴口罩检测方法 Download PDF

Info

Publication number
CN112464701A
CN112464701A CN202010870314.2A CN202010870314A CN112464701A CN 112464701 A CN112464701 A CN 112464701A CN 202010870314 A CN202010870314 A CN 202010870314A CN 112464701 A CN112464701 A CN 112464701A
Authority
CN
China
Prior art keywords
feature map
mask
feature
layer
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010870314.2A
Other languages
English (en)
Other versions
CN112464701B (zh
Inventor
秦勇
李永玲
曹志威
谢征宇
魏运
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Jiaotong University
Original Assignee
Beijing Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Jiaotong University filed Critical Beijing Jiaotong University
Priority to CN202010870314.2A priority Critical patent/CN112464701B/zh
Publication of CN112464701A publication Critical patent/CN112464701A/zh
Application granted granted Critical
Publication of CN112464701B publication Critical patent/CN112464701B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2155Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the incorporation of unlabelled data, e.g. multiple instance learning [MIL], semi-supervised techniques using expectation-maximisation [EM] or naïve labelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Molecular Biology (AREA)
  • Evolutionary Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于轻量化特征融合SSD的人员是否佩戴口罩检测方法。该方法包括:收集、整理各个场景人员佩戴口罩与不佩戴口罩的图像,构建口罩检测图像数据集;构建以EfficientNet‑B3为骨干网络的特征提取模块,提取出三层特征图;对三层特征图通过Concat级联和归一化处理,得到轻量化特征融合SSD算法检测器的前三层特征图;对第三层特征图连续做卷积运算,得到轻量化特征融合SSD算法检测器的后三层特征图,对轻量化特征融合SSD算法检测器进行训练;对轻量化特征融合SSD算法检测器输入待检测图像,实时输出是否佩戴口罩结果。本发明的方法提高了小人脸的检测准确率,运行内存小、检测速度快、模型小,可以实时检测监控图像中众多小人脸是否佩戴口罩。

Description

基于轻量化特征融合SSD的人员是否佩戴口罩检测方法
技术领域
本发明涉及人脸目标检测技术领域,尤其涉及一种基于轻量化特征融合 SSD的人员是否佩戴口罩检测方法。
背景技术
新型冠状病毒自爆发以来,在人群中迅速传播,给人们的日常生活及社 会的经济都造成了严重的影响。相关的研究人员认为新型冠状病毒的传播主 要是由于患者排出的病毒被其他人吸入。研究测试表明人员佩戴外科口罩或 N95口罩可以减少病毒的传播。所以,许多国家的疾病控制和预防中心建议或 要求人们在公共场所佩戴口罩,以遏制新型冠状病毒肺炎的传播。通过深度 学习算法对各个人群密集的公共场所如地铁、公交、医院进行是否佩戴口罩 的自动检测是亟待解决的问题。
SSD(single shot multibox detector,单步多尺度目标检测器)鲁棒性 好,是工业界常用的一步法(one stage)目标检测器。人员是否佩戴口罩检 测属于人脸检测领域的问题,然而SSD不经网络结构的改进应用于口罩检测领 域效果并不好。首先,SSD通过不同深度的卷积层检测不同尺度的目标,用于 检测小目标的浅层特征图由于缺乏语义信息导致小人脸的检测效果差,而实 际应用场景中待检测的小人脸很多。其次,SSD虽然是分类和回归一步检测的 算法,但是模型的参数量多,运行内存大,无法在各个应用场景现有的普通 CPU设备上做到实时目标检测。
目前现有技术中针对口罩检测的研究并不多。现有技术中的一种基于SSD 的口罩检测模型为:通过K-means聚类的方法确定数据集中标注人脸框的长宽 比分布,修改原有SSD算法锚框的比例。该口罩检测模型的缺点为:对小目标 人脸的检测效果差。
现有技术中的另一种基于SSD的口罩检测方法包括:在SSD网络的基础上 增加了特征金字塔与Focal loss损失函数,该算法采用ResNet作为特征提取 的骨干网络,增加了卷积块CBAM注意力机制来调整感受野的大小使其关注特 定的检测区域。该口罩检测方法的缺点为:检测速度很慢、模型参数量大, 无法实现人员佩戴口罩实时检测以及将训练好的模型安装在现有的CPU设备 上。
发明内容
本发明的实施例提供了一种基于轻量化特征融合SSD的人员是否佩戴口罩 检测方法,以克服现有技术的问题。
为了实现上述目的,本发明采取了如下技术方案。
一种基于轻量化特征融合SSD的人员是否佩戴口罩检测方法,包括:
收集、整理各个场景人员佩戴口罩与不佩戴口罩的图像,使用半监督图 像自动标注构建自动标注佩戴口罩检测数据集,将所述自动标注佩戴口罩检 测数据集和现有人脸基准数据集进行整合,得到口罩检测图像数据集;
在EfficientNet-B0网络的基础上,使用复合模型缩放方法扩大网络的深 度、通道数、分辨率,得到EfficientNet-B3特征提取网络结构,提取出 EfficientNet-B3特征提取网络结构的3个特征层;
基于所述EfficientNet-B3特征提取网络结构的3个特征层通过Concat级 联和归一化处理,得到轻量化特征融合SSD算法检测器的第一层特征图、第二 层特征图和第三层特征图,对所述第三层特征图连续做卷积运算,得到轻量 化特征融合SSD算法检测器的第四层特征图、第五层特征图和第六层特征图;
基于所述轻量化特征融合SSD算法检测器的第一层特征图、第二层特征 图、第三层特征图、第四层特征图、第五层特征图和第六层特征图,利用所 述口罩检测图像数据集对所述轻量化特征融合SSD算法检测器进行训练,得到 训练好的轻量化特征融合SSD算法检测器;
将所述训练好的轻量化特征融合SSD算法检测器安装在轻量化设备上,在 轻量化设备上输入待检测的图像或者视频,轻量化设备利用轻量化特征融合 SSD算法检测器对待检测的图像或者视频进行检查,实时输出人员是否佩戴口 罩的检测结果。
优选地,所述的收集、整理各个场景人员佩戴口罩与不佩戴口罩的图 像,使用半监督图像自动标注构建自动标注佩戴口罩检测数据集,将所述自 动标注佩戴口罩检测数据集和现有人脸基准数据集进行整合,得到口罩检测 图像数据集,包括:
收集整理各个人群密集场景的人员佩戴口罩与不佩戴口罩的图像,使用半 监督学习图像自动标注方法对图像的种类进行标注,生成.xml文件,其中佩 戴口罩的人脸类别标签为mask,不佩戴口罩的人脸类别标签为face,得到自 动标注佩戴口罩检测数据集;
在公开的人脸检测数据集Wider Face中加入公开的遮挡人脸的公开数据集MAFA,将扩充后的人脸检测数据集Wider Face中的人脸的标签统一修改为 face,得到公开佩戴口罩检测数据集;
将所述自动标注佩戴口罩检测数据集和所述公开佩戴口罩检测数据集进行 合并,得到口罩检测图像数据集。
优选地,所述的在EfficientNet-B0网络的基础上,使用复合模型缩放方 法扩大网络的深度、通道数、分辨率,得到EfficientNet-B3特征提取网络结 构,提取出EfficientNet-B3特征提取网络结构的3个特征层,包括:
在轻量化网络EfficientNet-B0网络结构的基础上使用复合维度缩放方 法,放大网络的深度、宽度、分辨率得到Efficient-B3特征提取网络,
所述复合维度缩放方法的具体公式如下:
深度:
Figure BDA0002650863250000041
通道数:
Figure BDA0002650863250000042
分辨率:
Figure BDA0002650863250000043
约束条件:
a·b2·c2≈2
a≥1,b≥1,c≥1
a,b,c为常数,
Figure BDA0002650863250000044
为复合系数,首先固定
Figure BDA0002650863250000045
通过网络搜索求得 a=1.2,b=1.1,c=1.15,
Figure BDA0002650863250000046
按照约束条件,d=1.2,w=1.4,r=1.3,也就是深度、通 道数在EfficientNet-B0的基础上扩大1.2,1.4倍,分辨率由原来的224变为 300;
步骤2.3:使用EfficientNet-B3替换VGG16作为新的骨干网络模型,用来 提取输入图像的特征;
步骤2.4:EfficientNet-B3包含26个移动倒置瓶颈模块MBConv,提取第 8、18、26个MBConv块处理之后的38×38、19×19、10×10的3个特征图。
优选地,所述的基于所述EfficientNet-B3特征提取网络结构的3个特征 层通过Concat级联和归一化处理,得到轻量化特征融合SSD算法检测器的第一 层特征图、第二层特征图和第三层特征图,包括:
步骤3.1:对特征图尺寸×特征图尺寸×通道数为38×38×48的特征图进 行1×1的卷积,升高特征图的维度到38×38×128;
步骤3.2:对特征图尺寸×特征图尺寸×通道数为19×19×136特征图,首 先进行1×1的卷积降低维度为19×19×128,然后进行双线性插值上采样到 38×38×128;
步骤3.3:对特征图尺寸×特征图尺寸×通道数为10×10×384特征图,首 先进行1×1的卷积降低维度为10×10×128,然后进行双线性插值上采样到 38×38×128;
步骤3.4:对步骤3.1、3.2、3.3操作后的3个38×38×128的特征图进行 Concat级联和L2归一化得到融合后的38×38×384的特征图,将38×38×384 的特征图作为轻量化特征融合SSD算法检测器的第一层特征图;
步骤3.5:对步骤3.2提出的19×19×136特征图进行1×1的卷积,升高维 度为19×19×384的特征图,将19×19×384的特征图作为轻量化特征融合SSD 算法检测器的第二层特征图;通过EfficientNet-B3中的26个MBConv得到 10×10×384的特征图,将10×10×384的特征图作为轻量化特征融合SSD算法 检测器的第三层特征图。
优选地,所述的对所述第三层特征图连续做卷积运算,得到轻量化特征 融合SSD算法检测器的第四层特征图、第五层特征图和第六层特征图,包括:
对所述轻量化特征融合SSD算法检测器的第三层10×10×384的特征图,首 先进行1×1的卷积降低维度得到10×10×128的特征图,然后进行3×3的卷 积,步长为2,填充padding为1,得到轻量化特征融合SSD的第四层特征图 5×5×256;
对所述第四层特征图5×5×256,首先进行1×1的卷积降低维度得到 5×5×128的特征图,然后进行3×3的卷积,步长为1,得到轻量化特征融合 SSD的第五层特征图3×3×256;
对所述第五层特征图3×3×256,首先进行1×1的卷积降低维度得到 3×3×128的特征图,然后进行3×3的卷积,步长为1,得到轻量化特征融合 SSD的第六层特征图3×3×256。
优选地,所述的基于所述轻量化特征融合SSD算法检测器的第一层特征 图、第二层特征图、第三层特征图、第四层特征图、第五层特征图和第六层 特征图,利用所述口罩检测图像数据集对所述轻量化特征融合SSD算法检测器 进行训练,得到训练好的轻量化特征融合SSD算法检测器,包括:
将所述轻量化特征融合SSD算法检测器的第一层特征图、第二层特征图、 第三层特征图、第四层特征图、第五层特征图和第六层特征图构成特征图金 字塔;
利用所述口罩检测图像数据集对所述轻量化特征融合SSD算法检测器进行 训练,训练过程中使用轻量化特征融合SSD算法检测器的特征图金字塔中的 8732个锚框对口罩检测图像数据集中的标签为face和mask图像进行预测,并 通过非极大值抑制筛选,抑制邻域里分数低于0.5的锚框,得到图像中的人物 是否佩戴口罩的判断结果,将判断结果与标注图像的真实值进行比较,确定 判断结果是否正确,当所述轻量化特征融合SSD算法检测器的判断结果的正确 率达到设定的判断阈值,则得到训练好的轻量化特征融合SSD算法检测器。
由上述本发明的实施例提供的技术方案可以看出,本发明实施例的方法 针对SSD用于检测小人脸的浅层特征图缺乏语义信息导致小人脸的检测效果差 的问题,提出了浅层特征图与包含高级语义信息的高层特征图融合的轻量级 特征融合模块,提高小人脸的检测准确率。并且运行内存小、检测速度快、 模型小,可以实时检测监控图像中众多小人脸是否佩戴口罩。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的 描述中变得明显,或通过本发明的实践了解到。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对实施例描述中所 需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发 明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前 提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于轻量化特征融合SSD的人员是否佩戴 口罩检测方法的处理流程图。
图2为本发明实施例提供的一种人员是否佩戴口罩的图像数据集标注结果 示意图。
图3为本发明实施例提供的一种的EfficientSSD特征提取网络。
图4为本发明实施例提供的一种的MBConv移动倒置瓶颈模块结构图
图5为本发明实施例提供的一种的人员佩戴口罩检测的EfficientSSD网络 结构图。
图6为本发明实施例提供的一种部分场所不同尺度人脸的检测效果图。
具体实施方式
下面详细描述本发明的实施方式,所述实施方式的示例在附图中示出, 其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功 能的元件。下面通过参考附图描述的实施方式是示例性的,仅用于解释本发 明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式 “一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解 的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步 骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、 整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被 “连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或 者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无 线连接或耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项 的任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语 (包括技术术语和科学术语)具有与本发明所属领域中的普通技术人员的一 般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语应该 被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一 样定义,不会用理想化或过于正式的含义来解释。
为便于对本发明实施例的理解,下面将结合附图以几个具体实施例为例 做进一步的解释说明,且各个实施例并不构成对本发明实施例的限定。
本发明实施例提供了一种对小目标人脸检测准确率高,同时模型参数量 小、检测速度快、运行内存小的人员是否佩戴口罩的检测方法。该检测方法 可以安装在地铁、公交、商场、医院等人流量大的场景的现有CPU设备上,实 时检测监控图像里的人员是否佩戴口罩,并输出没有佩戴口罩的结果并及时 通知工作人员。
图1为本发明实施例提供的一种基于轻量化特征融合SSD的人员是否佩戴 口罩检测方法的处理流程图,包括以下具体步骤:
步骤1:收集、整理各个场景人员佩戴口罩与不佩戴口罩的图像,使用半 监督图像自动标注构建自动标注佩戴口罩检测数据集;
步骤2:构建轻量化特征提取网络模块,使用复合模型缩放方法,在EfficientNet-B0的基础上扩大深度、通道数、分辨率,得到EfficientNet- B3特征提取网络结构,用其替换VGG16作为轻量化的骨干网络,从中提取出3 个特征层作为轻量化特征融合SSD算法的前三层特征图,特征图的大小分别为 38×38,19×19,10×10;
步骤3:构建特征融合模块,双线性插值上采样步骤2所述的19×19和 10×10特征图为38×38,融合上采样后的两层特征图与原来的38×38的特征 图,得到即包含全局信息又包含局部信息的适用于检测小人脸的轻量化特征 融合SSD算法检测器的第一层特征图;
步骤4:卷积新增特征图,在步骤2得到的第三层特征图上连续做3次卷 积,得到轻量化特征融合SSD算法的后三层特征图;
步骤5:训练步骤2、3、4改进后的算法,得到基于轻量化特征融合的轻 量化特征融合SSD算法是否佩戴口罩检测器;
步骤6:将所述基于轻量化特征融合的轻量化特征融合SSD算法是否佩戴 口罩检测器的算法安装在轻量化设备上,在轻量化设备上输入待检测的图像 或者视频,轻量化设备利用所述基于轻量化特征融合的轻量化特征融合SSD算 法是否佩戴口罩检测器对待检测的图像或者视频进行检查,实时输出是否佩 戴口罩的检测结果,如果没有戴口罩及时通知工作人员。
上述步骤1具体包括如下步骤:
步骤1.1:收集整理地铁、公交、医院、学校和商场等各个人群密集场景 的人员佩戴口罩与不佩戴口罩的图像,使用半监督学习图像自动标注方法对 图像的种类进行标注,生成.xml文件,其中佩戴口罩的人脸类别标签为 “mask”,不佩戴口罩的人脸类别标签为“face”,得到自动标注佩戴口罩 检测数据集1。图2为本发明实施例提供的一种人员是否佩戴口罩的图像数据 集标注结果示意图。
步骤1.2:更改目前世界上最大规模的人脸检测数据集Wider Face以及 MAFA遮挡人脸VOC数据集的标注标签为“face”。
基于轻量化特征融合SSD检测器的训练需要大量的数据样本,为了使检测 器学习到更多的佩戴口罩的人脸与不佩戴口罩的人脸的特征,使用目前世界 上应用最广泛的人脸检测基准数据集WIDER FACE,该WIDER FACE数据集包含 39万余张尺度、姿势和遮挡方面具有高度可变性的人脸。并且,在该WIDER FACE数据集中加入遮挡人脸的公开数据集MAFA,来进一步提高改进的SSD是否 佩戴口罩检测器,使得数据集具有遮挡人脸的检测能力,减少误报,该WIDER FACE数据集包含3.5万余张不同方向和遮挡程度的人脸。以上两个公开数据集 都是PASCAL VOC格式,本发明编程将其人脸的标签统一修改为“face”,得 到扩充的公开佩戴口罩检测数据集2。
步骤1.3:人工使用LabelImg检查步骤1.1中的自动标注佩戴口罩检测数据 集1,少部分不合适的进行修改,合并检查后的自动标注佩戴口罩检测数据集 1与步骤1.2得到的公开佩戴口罩检测数据集2,整合为最终的口罩检测图像数 据集。
图3为本发明实施例提供的一种步骤2中的EfficientSSD的特征提取网络 结构图,上述步骤2具体包括如下步骤:
步骤2.1:将步骤1.3得到的口罩检测图像数据集中的不同分辨率的图像 进行预处理,归一化的图像的分辨率统一为300×300,加速后续卷积神经网 络的处理。
步骤2.2:修改轻量化网络EfficientNet-B0的网络结构为Efficient- B3。在轻量化网络EfficientNet-B0网络结构的基础上使用复合维度缩放方 法,放大网络的深度、宽度、分辨率得到本发明的Efficient-B3特征提取网 络。
具体的,EfficientNet提出网络缩放要平衡深度、通道数(宽度)、分 辨率这三个维度来提高准确率、降低参数量、提高速度。所以本发明使用复 合维度缩放方法,具体公式如下:
深度:
Figure BDA0002650863250000101
通道数:
Figure BDA0002650863250000102
分辨率:
Figure BDA0002650863250000103
约束条件:
a·b2·c2≈2
a≥1,b≥1,c≥1
a,b,c为常数,
Figure BDA0002650863250000104
为复合系数,首先固定
Figure BDA0002650863250000105
通过网络搜索求得 a=1.2,b=1.1,c=1.15。本发明中
Figure BDA0002650863250000106
按照约束条件,d=1.2,w=1.4,r=1.3,也就是 深度、通道数在EfficientNet-B0的基础上扩大1.2,1.4倍,分辨率由原来的 224变为300,符合SSD对分辨率要求。
步骤2.3:使用EfficientNet-B3替换VGG16作为新的骨干网络模型,用来 提取输入图像的特征;
步骤2.4:EfficientNet-B3包含26个移动倒置瓶颈模块(MBConv)。本发 明提取第8、18、26个MBConv块处理之后的38×38、19×19、10×10的3个特 征图。
图4为步骤2.4的MBConv模块结构图,具体的首先使用1×1的卷积将特征层 升高6倍维度,然后通过深度可分离卷积与SE注意力机制模块得到权重,与深 度可分离卷积得到的特征图作“乘”运算,接着降低6倍维度与最开始输入的 特征图作“加”运算。需要强调的是:
EfficientNet-B3开始的两层MBconv1模块不需要升维。
深度可分离卷积中的步长stride=2时,步骤2.2中的特征图长宽缩减一 半。
图5为步骤3中的人员佩戴口罩检测的EfficientSSD网络结构图,上述步骤 3具体包括如下步骤:
步骤3.1:对步骤2提取出的38×38×48(特征图尺寸×特征图尺寸×通 道数)特征图,进行1×1的卷积升高维度到38×38×128。
步骤3.2:对步骤2提取出的19×19×136特征图,首先进行1×1的卷积降 低维度为19×19×128,然后进行双线性插值上采样到38×38×128。具体 的,双线性差值上采样是常用的扩大图像分辨率的方法。主要分为2步,第一 步在水平方向差值,第二步在第一步的基础上接着在垂直方向上插值。设 (x,y)为原图的坐标点,插值i的具体计算公式如下:
水平方向插值:相邻上方两点的坐标为(x0,y0),(x1,y0),像素值为 i0top=f(x0,y0),i1top=f(x1,y0),可知
Figure RE-GDA0002921196570000121
所以可得差值
Figure RE-GDA0002921196570000122
同理相邻下方的插值为ibottom
垂直方向插值:总的插值i=itop+ibottom
步骤3.3:对步骤2提取的10×10×384特征图,首先进行1×1的卷积降低 维度为10×10×128,然后进行双线性插值上采样到38×38×128。
步骤3.4:对步骤3.1、3.2、3.3操作后的三层特征图进行Concat级联和L2 归一化得到融合后的38×38×384特征图,作为轻量化特征融合SSD算法检测 器的第一层特征图。
步骤3.5:对步骤2提出的19×19×136特征图进行1×1的卷积升高维度为 19×19×384,作为轻量化特征融合SSD算法检测器的第二层特征图; 10×10×384的特征图通过26个MBConv得到,具有很高的全局特征,直接作为 轻量化特征融合SSD算法检测器的第三层特征图。
步骤4:卷积新增特征图,对步骤2所述的第三层特征图连续进行3次卷 积,得到轻量化特征融合SSD算法的轻量化特征融合SSD的后三层特征图;
图5为步骤4中的人员佩戴口罩检测的EfficientSSD网络结构图,上述步骤 4具体包括如下步骤:
步骤4.1:对步骤3.5所述的轻量化特征融合SSD算法检测器的第三层 10×10×384的特征图,首先进行1×1的卷积降低维度得到10×10×128的特 征图,然后进行3×3的卷积,步长为2,填充(padding)为1,得到轻量化特 征融合SSD算法检测器的第四层特征图5×5×256。
步骤4.2:对步骤4.1所述的第4层特征图,首先进行1×1的卷积降低维度 得到5×5×128的特征图,然后进行3×3的卷积,步长为1,得到轻量化特征 融合SSD算法检测器的第五层特征图3×3×256。
步骤4.3:对步骤4.2所述的第五层特征图,首先进行1×1的卷积降低维度 得到3×3×128的特征图,然后进行3×3的卷积,步长为1,得到轻量化特征 融合SSD算法检测器的第六层特征图3×3×256。
步骤4.4:训练步骤2、3、4改进后的算法,对上述步骤所述六层特征图构 成轻量化特征融合SSD算法检测器的特征图金字塔,该特征图金字塔包括8732 个锚框。其中第一层特征图检测5776(38×38×4)个锚框,第二层特征图检 测2166(19×19×6)个锚框,第三层特征图检测600(10×10×6)个锚框, 第四层特征图检测150(5×5×6)个锚框,第五层特征图检测36(3×3×4) 个锚框,第六层特征图检测4(1×1×4)个锚框。其中6个锚框的比例为1:1、1:2、2:1、1:3、3:1。4个锚框的比例为6个锚框的比例,去除1:3、 3:1。
步骤5:然后,利用所述口罩检测图像数据集对上述轻量化特征融合SSD 算法检测器进行训练,训练过程中使用轻量化特征融合SSD算法检测器的特征 图金字塔中的8732个锚框对口罩检测图像数据集中的标签为“face”和 “mask”图像的进行预测,并通过非极大值抑制筛选,抑制邻域里分数低于 0.5的锚框,得到图像中的人物是否佩戴口罩的判断结果。将判断结果与标注 图像的真实值进行比较,确定判断结果是否正确。当上述轻量化特征融合SSD 算法检测器的判断结果的正确率达到设定的判断阈值,则得到训练好的轻量化特征融合SSD算法检测器。
步骤6:将训练好的轻量化特征融合SSD算法检测器安装在轻量化设备 (如CPU)上,在轻量化设备上输入待检测的图像或者视频,轻量化设备利用 轻量化特征融合SSD算法检测器对待检测的图像或者视频进行检查,实时输出 人员是否佩戴口罩的检测结果,如果没有戴口罩及时通知工作人员。
图6为步骤6的部分场所不同尺度人脸的检测效果图。
综上所述,本发明实施例的方法针对SSD用于检测小人脸的浅层特征图缺 乏语义信息导致小人脸的检测效果差的问题,提出了浅层特征图与包含高级 语义信息的高层特征图融合的轻量级特征融合模块,提高小人脸的检测准确 率。并且运行内存小、检测速度快、模型小,可以实时检测监控图像中众多 小人脸是否佩戴口罩。
本发明实施例结合工业界对人员是否佩戴检测模型的需要,收集整理不同 场景的人员佩戴口罩的图像,并利用半监督学习图像自动标注,自动标注构 建口罩检测数据集。并且合并Wider Face与MAFA公共数据集构建包含3万余 张图像的口罩佩戴检测PASCALVOC数据集。
本发明采用轻量化的网络EfficientNet-B3替代SSD的VGG16作为骨干网 络,提取佩戴口罩与不佩戴口罩的人脸的特征,提高了SSD算法的检测速度, 降低了运行时的内存占用量和模型的参数量,可以安装在现有的普通CPU设备 上使用。
本发明实施例的轻量化特征融合SSD算法检测器与其它算法的检测效果对 比如下述表1所示(速度与内存占用测试于在普通CPU设备Intel Core i5 CPU@3.2HZ)
表1
检测算法 SSD(VGG16) SSD(EfficientNet) 轻量化特征融合SSD
准确率 91.3% 90.5% 95.7%
速度(帧/秒) 11 24 21
内存占用(MiB) 1927 1537 1576
模型大小(MB) 182 88.5 90.8
本领域普通技术人员可以理解:附图只是一个实施例的示意图,附图中 的模块或流程并不一定是实施本发明所必须的。
通过以上的实施方式的描述可知,本领域的技术人员可以清楚地了解到 本发明可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解, 本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品 的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁 碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机, 服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所 述的方法。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同 相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同 之处。尤其,对于装置或系统实施例而言,由于其基本相似于方法实施例, 所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描 述的装置及系统实施例仅仅是示意性的,其中所述作为分离部件说明的单元 可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可 以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案 的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并 实施。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不 局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可 轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明 的保护范围应该以权利要求的保护范围为准。

Claims (6)

1.一种基于轻量化特征融合SSD的人员是否佩戴口罩检测方法,其特征在于,包括:
收集、整理各个场景人员佩戴口罩与不佩戴口罩的图像,使用半监督图像自动标注构建自动标注佩戴口罩检测数据集,将所述自动标注佩戴口罩检测数据集和现有人脸基准数据集进行整合,得到口罩检测图像数据集;
在EfficientNet-B0网络的基础上,使用复合模型缩放方法扩大网络的深度、通道数、分辨率,得到EfficientNet-B3特征提取网络结构,提取出EfficientNet-B3特征提取网络结构的3个特征层;
基于所述EfficientNet-B3特征提取网络结构的3个特征层通过Concat级联和归一化处理,得到轻量化特征融合SSD算法检测器的第一层特征图、第二层特征图和第三层特征图,对所述第三层特征图连续做卷积运算,得到轻量化特征融合SSD算法检测器的第四层特征图、第五层特征图和第六层特征图;
基于所述轻量化特征融合SSD算法检测器的第一层特征图、第二层特征图、第三层特征图、第四层特征图、第五层特征图和第六层特征图,利用所述口罩检测图像数据集对所述轻量化特征融合SSD算法检测器进行训练,得到训练好的轻量化特征融合SSD算法检测器;
将所述训练好的轻量化特征融合SSD算法检测器安装在轻量化设备上,在轻量化设备上输入待检测的图像或者视频,轻量化设备利用轻量化特征融合SSD算法检测器对待检测的图像或者视频进行检查,实时输出人员是否佩戴口罩的检测结果。
2.根据权利要求1所述的方法,其特征在于,所述的收集、整理各个场景人员佩戴口罩与不佩戴口罩的图像,使用半监督图像自动标注构建自动标注佩戴口罩检测数据集,将所述自动标注佩戴口罩检测数据集和现有人脸基准数据集进行整合,得到口罩检测图像数据集,包括:
收集整理各个人群密集场景的人员佩戴口罩与不佩戴口罩的图像,使用半监督学习图像自动标注方法对图像的种类进行标注,生成.xml文件,其中佩戴口罩的人脸类别标签为mask,不佩戴口罩的人脸类别标签为face,得到自动标注佩戴口罩检测数据集;
在公开的人脸检测数据集Wider Face中加入公开的遮挡人脸的公开数据集MAFA,将扩充后的人脸检测数据集Wider Face中的人脸的标签统一修改为face,得到公开佩戴口罩检测数据集;
将所述自动标注佩戴口罩检测数据集和所述公开佩戴口罩检测数据集进行合并,得到口罩检测图像数据集。
3.根据权利要求1所述的方法,其特征在于,所述的在EfficientNet-B0网络的基础上,使用复合模型缩放方法扩大网络的深度、通道数、分辨率,得到EfficientNet-B3特征提取网络结构,提取出EfficientNet-B3特征提取网络结构的3个特征层,包括:
在轻量化网络EfficientNet-B0网络结构的基础上使用复合维度缩放方法,放大网络的深度、宽度、分辨率得到Efficient-B3特征提取网络,
所述复合维度缩放方法的具体公式如下:
深度:
Figure FDA0002650863240000021
通道数:
Figure FDA0002650863240000022
分辨率:
Figure FDA0002650863240000023
约束条件:
a·b2·c2≈2
a≥1,b≥1,c≥1
a,b,c为常数,
Figure FDA0002650863240000024
为复合系数,首先固定
Figure FDA0002650863240000025
通过网络搜索求得a=1.2,b=1.1,c=1.15,
Figure FDA0002650863240000026
按照约束条件,d=1.2,w=1.4,r=1.3,也就是深度、通道数在EfficientNet-B0的基础上扩大1.2,1.4倍,分辨率由原来的224变为300;
步骤2.3:使用EfficientNet-B3替换VGG16作为新的骨干网络模型,用来提取输入图像的特征;
步骤2.4:EfficientNet-B3包含26个移动倒置瓶颈模块MBConv,提取第8、18、26个MBConv块处理之后的38×38、19×19、10×10的3个特征图。
4.根据权利要求3所述的方法,其特征在于,所述的基于所述EfficientNet-B3特征提取网络结构的3个特征层通过Concat级联和归一化处理,得到轻量化特征融合SSD算法检测器的第一层特征图、第二层特征图和第三层特征图,包括:
步骤3.1:对特征图尺寸×特征图尺寸×通道数为38×38×48的特征图进行1×1的卷积,升高特征图的维度到38×38×128;
步骤3.2:对特征图尺寸×特征图尺寸×通道数为19×19×136特征图,首先进行1×1的卷积降低维度为19×19×128,然后进行双线性插值上采样到38×38×128;
步骤3.3:对特征图尺寸×特征图尺寸×通道数为10×10×384特征图,首先进行1×1的卷积降低维度为10×10×128,然后进行双线性插值上采样到38×38×128;
步骤3.4:对步骤3.1、3.2、3.3操作后的3个38×38×128的特征图进行Concat级联和L2归一化得到融合后的38×38×384的特征图,将38×38×384的特征图作为轻量化特征融合SSD算法检测器的第一层特征图;
步骤3.5:对步骤3.2提出的19×19×136特征图进行1×1的卷积,升高维度为19×19×384的特征图,将19×19×384的特征图作为轻量化特征融合SSD算法检测器的第二层特征图;通过EfficientNet-B3中的26个MBConv得到10×10×384的特征图,将10×10×384的特征图作为轻量化特征融合SSD算法检测器的第三层特征图。
5.根据权利要求4所述的方法,其特征在于,所述的对所述第三层特征图连续做卷积运算,得到轻量化特征融合SSD算法检测器的第四层特征图、第五层特征图和第六层特征图,包括:
对所述轻量化特征融合SSD算法检测器的第三层10×10×384的特征图,首先进行1×1的卷积降低维度得到10×10×128的特征图,然后进行3×3的卷积,步长为2,填充padding为1,得到轻量化特征融合SSD的第四层特征图5×5×256;
对所述第四层特征图5×5×256,首先进行1×1的卷积降低维度得到5×5×128的特征图,然后进行3×3的卷积,步长为1,得到轻量化特征融合SSD的第五层特征图3×3×256;
对所述第五层特征图3×3×256,首先进行1×1的卷积降低维度得到3×3×128的特征图,然后进行3×3的卷积,步长为1,得到轻量化特征融合SSD的第六层特征图3×3×256。
6.根据权利要求5所述的方法,其特征在于,所述的基于所述轻量化特征融合SSD算法检测器的第一层特征图、第二层特征图、第三层特征图、第四层特征图、第五层特征图和第六层特征图,利用所述口罩检测图像数据集对所述轻量化特征融合SSD算法检测器进行训练,得到训练好的轻量化特征融合SSD算法检测器,包括:
将所述轻量化特征融合SSD算法检测器的第一层特征图、第二层特征图、第三层特征图、第四层特征图、第五层特征图和第六层特征图构成特征图金字塔;
利用所述口罩检测图像数据集对所述轻量化特征融合SSD算法检测器进行训练,训练过程中使用轻量化特征融合SSD算法检测器的特征图金字塔中的8732个锚框对口罩检测图像数据集中的标签为face和mask图像进行预测,并通过非极大值抑制筛选,抑制邻域里分数低于0.5的锚框,得到图像中的人物是否佩戴口罩的判断结果,将判断结果与标注图像的真实值进行比较,确定判断结果是否正确,当所述轻量化特征融合SSD算法检测器的判断结果的正确率达到设定的判断阈值,则得到训练好的轻量化特征融合SSD算法检测器。
CN202010870314.2A 2020-08-26 2020-08-26 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法 Active CN112464701B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010870314.2A CN112464701B (zh) 2020-08-26 2020-08-26 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010870314.2A CN112464701B (zh) 2020-08-26 2020-08-26 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法

Publications (2)

Publication Number Publication Date
CN112464701A true CN112464701A (zh) 2021-03-09
CN112464701B CN112464701B (zh) 2023-06-30

Family

ID=74833641

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010870314.2A Active CN112464701B (zh) 2020-08-26 2020-08-26 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法

Country Status (1)

Country Link
CN (1) CN112464701B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112990350A (zh) * 2021-04-12 2021-06-18 天津美腾科技股份有限公司 目标检测网络训练方法及基于目标检测网络煤矸识别方法
CN113065473A (zh) * 2021-04-07 2021-07-02 浙江天铂云科光电股份有限公司 一种适用于嵌入式系统的口罩人脸检测和体温测量方法
CN113076923A (zh) * 2021-04-21 2021-07-06 山东大学 基于轻量型网络MobileNet-SSD的口罩佩戴检测方法、设备及存储介质
CN113468992A (zh) * 2021-06-21 2021-10-01 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113591648A (zh) * 2021-07-22 2021-11-02 北京工业大学 无锚点实时图像目标检测方法、系统、设备及介质
CN113792584A (zh) * 2021-08-03 2021-12-14 云南大学 一种安全护具佩戴检测方法及系统

Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520219A (zh) * 2018-03-30 2018-09-11 台州智必安科技有限责任公司 一种卷积神经网络特征融合的多尺度快速人脸检测方法
CN109840502A (zh) * 2019-01-31 2019-06-04 深兰科技(上海)有限公司 一种基于ssd模型进行目标检测的方法及设备
CN110414371A (zh) * 2019-07-08 2019-11-05 西南科技大学 一种基于多尺度核卷积神经网络的实时人脸表情识别方法
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
US20200193552A1 (en) * 2018-12-18 2020-06-18 Slyce Acquisition Inc. Sparse learning for computer vision
CN111310718A (zh) * 2020-03-09 2020-06-19 成都川大科鸿新技术研究所 一种遮挡人脸图像高准确率检测对比方法
CN111340141A (zh) * 2020-04-20 2020-06-26 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于深度学习的作物幼苗与杂草检测方法及系统
CN111382781A (zh) * 2020-02-21 2020-07-07 华为技术有限公司 获取图像标签的方法、训练图像识别模型的方法和装置
CN111415338A (zh) * 2020-03-16 2020-07-14 城云科技(中国)有限公司 目标检测模型的构建方法及系统
CN111461089A (zh) * 2020-06-17 2020-07-28 腾讯科技(深圳)有限公司 一种人脸检测的方法、人脸检测模型的训练方法及装置
CN111507248A (zh) * 2020-04-16 2020-08-07 成都东方天呈智能科技有限公司 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN111507381A (zh) * 2020-03-31 2020-08-07 上海商汤智能科技有限公司 图像识别方法及相关装置、设备
CN111563494A (zh) * 2020-07-16 2020-08-21 平安国际智慧城市科技股份有限公司 基于目标检测的行为识别方法、装置和计算机设备

Patent Citations (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108520219A (zh) * 2018-03-30 2018-09-11 台州智必安科技有限责任公司 一种卷积神经网络特征融合的多尺度快速人脸检测方法
WO2019223254A1 (zh) * 2018-05-21 2019-11-28 北京亮亮视野科技有限公司 多尺度轻量级人脸检测模型的构建方法及基于该模型的人脸检测方法
US20200193552A1 (en) * 2018-12-18 2020-06-18 Slyce Acquisition Inc. Sparse learning for computer vision
CN109840502A (zh) * 2019-01-31 2019-06-04 深兰科技(上海)有限公司 一种基于ssd模型进行目标检测的方法及设备
CN110414371A (zh) * 2019-07-08 2019-11-05 西南科技大学 一种基于多尺度核卷积神经网络的实时人脸表情识别方法
CN111382781A (zh) * 2020-02-21 2020-07-07 华为技术有限公司 获取图像标签的方法、训练图像识别模型的方法和装置
CN111310718A (zh) * 2020-03-09 2020-06-19 成都川大科鸿新技术研究所 一种遮挡人脸图像高准确率检测对比方法
CN111415338A (zh) * 2020-03-16 2020-07-14 城云科技(中国)有限公司 目标检测模型的构建方法及系统
CN111507381A (zh) * 2020-03-31 2020-08-07 上海商汤智能科技有限公司 图像识别方法及相关装置、设备
CN111507248A (zh) * 2020-04-16 2020-08-07 成都东方天呈智能科技有限公司 一种低分辨热力图的人脸额头区域检测与定位方法及其系统
CN111340141A (zh) * 2020-04-20 2020-06-26 天津职业技术师范大学(中国职业培训指导教师进修中心) 一种基于深度学习的作物幼苗与杂草检测方法及系统
CN111461089A (zh) * 2020-06-17 2020-07-28 腾讯科技(深圳)有限公司 一种人脸检测的方法、人脸检测模型的训练方法及装置
CN111563494A (zh) * 2020-07-16 2020-08-21 平安国际智慧城市科技股份有限公司 基于目标检测的行为识别方法、装置和计算机设备

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
GUODONG MU ET.AL: "Led3D: A Lightweight and Efficient Deep Approach to Recognizing Low-Quality 3D Faces", 《2019 IEEE/CVF CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION (CVPR)》, pages 5766 - 5775 *
MINGXING TAN ET.AL: "EfficientDet Scalable and Efficient Object Detection", 《ARXIV:1911.09070V7》, pages 1 - 10 *
吴天舒等: "基于改进SSD的轻量化小目标检测算法", 《红外与激光工程 》, vol. 47, no. 7, pages 37 - 43 *
张裕等: "基于深度学习的轻量化遥感图像目标检测方法", 《信息技术》, no. 9, pages 163 - 167 *
方青云等: "基于改进YOLOv3网络的遥感目标快速检测方法", 《上海航天》, vol. 36, no. 5, pages 21 - 27 *
谢征宇等: "基于视频的轨道交通车站乘客口罩佩戴检测及测温技术", 《中国铁路 》, pages 126 - 131 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113065473A (zh) * 2021-04-07 2021-07-02 浙江天铂云科光电股份有限公司 一种适用于嵌入式系统的口罩人脸检测和体温测量方法
CN112990350A (zh) * 2021-04-12 2021-06-18 天津美腾科技股份有限公司 目标检测网络训练方法及基于目标检测网络煤矸识别方法
CN112990350B (zh) * 2021-04-12 2022-12-13 天津美腾科技股份有限公司 目标检测网络训练方法及基于目标检测网络煤矸识别方法
CN113076923A (zh) * 2021-04-21 2021-07-06 山东大学 基于轻量型网络MobileNet-SSD的口罩佩戴检测方法、设备及存储介质
CN113468992A (zh) * 2021-06-21 2021-10-01 四川轻化工大学 基于轻量化卷积神经网络的施工现场安全帽佩戴检测方法
CN113591648A (zh) * 2021-07-22 2021-11-02 北京工业大学 无锚点实时图像目标检测方法、系统、设备及介质
CN113792584A (zh) * 2021-08-03 2021-12-14 云南大学 一种安全护具佩戴检测方法及系统
CN113792584B (zh) * 2021-08-03 2023-10-27 云南大学 一种安全护具佩戴检测方法及系统

Also Published As

Publication number Publication date
CN112464701B (zh) 2023-06-30

Similar Documents

Publication Publication Date Title
CN112464701B (zh) 基于轻量化特征融合ssd的人员是否佩戴口罩检测方法
CN111723786B (zh) 一种基于单模型预测的安全帽佩戴检测方法及装置
CN112598643B (zh) 深度伪造图像检测及模型训练方法、装置、设备、介质
CN110188807A (zh) 基于级联超分辨率网络与改进Faster R-CNN的隧道行人目标检测方法
CN114283469B (zh) 一种基于改进YOLOv4-tiny的轻量型目标检测方法及系统
US9355306B2 (en) Method and system for recognition of abnormal behavior
JP4273359B2 (ja) 年齢推定システム及び年齢推定方法
CN111881730A (zh) 一种火电厂现场安全帽佩戴检测方法
Chaudhary et al. Detecting covid-19 and community acquired pneumonia using chest ct scan images with deep learning
CN111582068A (zh) 人员口罩佩戴状态检测方法
CN111611895B (zh) 一种基于OpenPose的多视角人体骨架自动标注方法
Mandhala et al. Object detection using machine learning for visually impaired people
CN112232199A (zh) 基于深度学习的佩戴口罩检测方法
CN110765833A (zh) 一种基于深度学习的人群密度估计方法
CN112991269A (zh) 一种肺部ct图像的识别分类方法
Jiang et al. Combining static and dynamic features for real-time moving pedestrian detection
Wang et al. Automated pneumoconiosis detection on chest X-rays using cascaded learning with real and synthetic radiographs
CN116824335A (zh) 一种基于YOLOv5改进算法的火灾预警方法及系统
Bhardwaj et al. Machine Learning-Based Crowd Behavior Analysis and Forecasting
US20240232627A1 (en) Systems and Methods to Train A Cell Object Detector
CN116403286A (zh) 一种面向大场景视频的社交分组方法
Sarac et al. Intelligent diagnosis of coronavirus with computed tomography images using a deep learning model
CN116959099B (zh) 一种基于时空图卷积神经网络的异常行为识别方法
Nauman et al. Identification of Anomalous Behavioral Patterns in Crowd Scenes.
CN110909706A (zh) 一种昼伏夜出人员判定方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant