CN111898479A - 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置 - Google Patents

一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置 Download PDF

Info

Publication number
CN111898479A
CN111898479A CN202010673139.8A CN202010673139A CN111898479A CN 111898479 A CN111898479 A CN 111898479A CN 202010673139 A CN202010673139 A CN 202010673139A CN 111898479 A CN111898479 A CN 111898479A
Authority
CN
China
Prior art keywords
model
target detection
full
training
detection algorithm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010673139.8A
Other languages
English (en)
Other versions
CN111898479B (zh
Inventor
赵佳琦
王冰洋
周勇
夏士雄
郑尧文
贾志杰
倪文鑫
周昳晨
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China University of Mining and Technology CUMT
Original Assignee
China University of Mining and Technology CUMT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China University of Mining and Technology CUMT filed Critical China University of Mining and Technology CUMT
Priority to CN202010673139.8A priority Critical patent/CN111898479B/zh
Publication of CN111898479A publication Critical patent/CN111898479A/zh
Application granted granted Critical
Publication of CN111898479B publication Critical patent/CN111898479B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Software Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了基于全卷积单步目标检测算法的口罩佩戴识别方法和装置,属于图像处理技术领域。第一步,创建全卷积单步目标检测模型并初始化,构建数据集;第二步,改进全卷积单步目标检测网络模型,将口罩数据集用于模型的训练,输出训练结果后对全卷积单步目标检测模型迭代训练,调整参数,得到预期的测试效果;第三步,为拓展算法应用范围,将模型部署到人工智能开发板装置。本发明可用于公共场所的人脸口罩佩戴识别,助力疫情防控常态化条件下加快恢复生产生活秩序。

Description

一种基于全卷积单步目标检测算法的口罩佩戴识别方法和 装置
技术领域
本发明属于图像处理技术领域,尤其涉及基于全卷积单步目标检测算法的口罩佩戴识别方法和装置。
背景技术
有研究表明,新冠肺炎病毒可通过空气中的飞沫、气溶胶进行传播扩散,而佩戴口罩是做好个人防护、防止病毒传播的有效措施。虽然目前没有专门应用于人脸口罩佩戴检测的算法和装置,但是随着深度学习在计算机视觉领域的发展,基于神经网络的目标检测算法在行人目标检测、人脸检测、遥感图像目标检测、医学图像检测和自然场景文本检测等领域都有着广泛的应用。
因此,实现对人员密集型公共场所的人脸口罩佩戴检测与识别上升为做好社会治理的重大需求。口罩佩戴检测属于目标检测,目的是定位人脸或口罩位置,并对其进行分类,进而判断人是否佩戴口罩。目前,开源和应用的口罩检测算法均基于深度学习,通过设计卷积神经网络,训练标注的人脸和口罩数据,实现口罩检测的目的。
传统的目标检测使用多步骤过程。最著名的检测器是Viola Joins检测器,它能够实现实时检测。该算法通过Haar特征描述符,采用积分图像方法提取特征,选择有用的特征,并通过级联检测器检测物体。这些年来,基于深度学习的目标检测得益于较高的鲁棒性和较强的特征提取能力。目前,目标检测领域可分为两大类,一阶段和两阶段。两阶段目标检测在第一阶段生成区域建议,然后在第二阶段微调这些区域建议。两级目标检测可以提供较高的检测性能,但速度较慢。
R-CNN是一个经典的两阶段目标检测算法,R-CNN是由R.Girshick等人提出的,R-CNN使用选择性搜索来建议一些可能包含对象的候选区域,之后,将候选区域输入CNN模型以提取特征,再使用支持向量机(SVM)来识别对象类别。但是,R-CNN的第二阶段计算资源消耗大,因为网络必须以一对一的方式检测候选区域并使用单独的SVM进行最终分类。FasterR-CNN通过引入ROI Pooling一次输入所有候选区域来解决此问题。最后,在FasterR-CNN中提出了区域建议网络 (RPN)来代替选择性搜索,以提高检测的速度。FasterR-CNN将每个单独的检测组件(例如区域建议,特征提取网络,分类网络)集成到端到端神经网络结构中。一阶段检测器仅利用单个神经网络检测对象。为了检测准确,应该预先定义一些指定对象的宽高比的锚点框。相比于两阶段,一阶段目标检测为了提高检测速度降低了一些性能。例如,YOLO将图像分为若干单元格,然后尝试将锚点框与每个单元格的对象匹配,但是这种方法不适用于较小的对象。研究人员发现,一阶段目标检测仅使用最后一个特征输出就不能获得很好的效果,因为最后一个特征图具有固定的接收场,只能在原始图像上观察某些区域。为改进这一不足, SSD中引入了多尺度检测,它可以对多个特征图进行检测,以检测不同大小的人脸。为了提高检测精度,Lin等人通过结合SSD和FPN体系结构提出了视网膜网络(RetinaNet),该卷积神经网络还包括一种新的焦点损失功能以减轻类不平衡问题。
全卷积单步目标检测是由澳大利亚阿德莱德大学团队在2019年的发表的全卷积单步目标检测算法。在传统的目标检测算法中,主要引入了anchor来提升目标检测的效果,例如Faster R-CNN就提供了9种尺寸的anchor用于检测。
但是anchor的引入会导致两个主要的问题:
1.超参数较多。这些超参数包括了anchor的尺寸、数量、IOU阈值等等,超参数对于结果往往有着非常明显的影响,所以使用了anchor的目标检测算法往往需要大量的时间去调整相关的参数,从而取得较高的精度。
2.正负样本不平衡。尽管一张图片中的目标数量有限,但是算法为了达到足够的召回率,需要生成较多的候选anchor,其中大部分都是负样本,这就导致正样本的数量远远低于负样本的数量,虽然大部分目标检测算法都有类似于负样本下采样等过滤方法,但是这些方法都不能够从根本上解决正负样本不平衡问题。
目前针对人脸口罩佩戴识别存在以下问题:
(1)专门用于人脸口罩佩戴识别的深度学习算法数量少。
(2)针对上述算法的装置部署方案几乎没有。
发明内容
发明目的:针对以上问题,本发明提出了基于全卷积单步目标检测算法的口罩佩戴识别方法和装置,该方法具有所需计算量少、检测速度快、检测精度高的优点,并且可实现模型在人工智能开发板装置上的部署。
为实现本发明的目的,本发明所采用的技术方案是:
一种基于全卷积单步目标检测算法的口罩佩戴识别方法,该方法如下:
S1、构建全卷积单步目标检测算法模型,构建数据集;
S2、改进网络,训练模型;
S3、部署和运行模型,使用人工智能开发板装置;
所述步骤S1构建数据集,实现全卷积单步目标检测模型的初始化处理;
所述步骤S2训练模型,将步骤S1得到的模型通过主干网络轻量化处理并添加注意力机制模块,得到深度学习模型。
所述步骤S2训练模型具体包括如下子步骤:
S2.1、主干网络轻量化,使用ResNeXt作为主干网络,将基数数量减少至 16;
S2.2、在主干网络中添加注意力机制;
S2.3、开始训练,对经训练得到的深度学习模型进行测试,选取泛化能力最佳的模型。
所述步骤S3具体包括如下子步骤:
S3.1、环境配置,模型迁移,使用人工智能开发板装置;
S3.1.1、在人工智能开发板装置上配置代码运行环境,安装依赖包;
S3.1.2、实现模型的迁移部署,并测试模型在人工智能开发板装置上的执行效果。
一种基于全卷积单步目标检测算法的口罩佩戴识别装置,所述装置包括:
模型和数据集创建模块,用于创建全卷积单步目标检测算法模型并对模型初始化,收集和划分人脸口罩数据集,并进行数据增强和图片的预处理;
模型训练模块,用于主干网络轻量化并添加注意力机制,对经训练得到的深度学习模型进行测试,选取泛化能力最佳的模型;
装置模块,用于将模型迁移到人工智能开发板装置部署,实现对图片的检测识别。
所述模型和数据集创建模块包括:
模型创建单元:创建全卷积单步目标检测算法模型;
模型初始化单元:初始化全卷积单步目标检测算法模型。
数据采集单元:收集网络上开源的人脸口罩的数据集,并对人脸的位置和类别信息进行标注;
数据处理单元:将此数据集划分为训练集、验证集和测试集,并进行数据增强和图片预处理。
所述模型训练模块包括:
网络改进单元:在ResNeXt101中将Cardinality数目定量削减,在主干网络中添加注意力机制;
模型训练单元:开始训练,并对网络训练时保存的深度学习模型进行测试,选取泛化能力最佳的模型。
所述装置模块包括:
环境搭建单元:在人工智能开发板装置上配置代码运行环境,安装依赖包;
部署运行单元:实现模型的迁移部署,并进行测试。
有益效果:与现有技术相比,本发明的技术方案具有以下有益技术效果:
第一,由于本发明采用了全卷积单步目标检测算法,结合口罩数据集相比于MSCOCO数据集具有所需计算量较少的特点,对原有ResNeXt101网络结构进行了轻量化处理,添加了注意力机制,提升了检测准确度。
第二,本发明将全卷积单步目标检测算法部署到人工智能开发板,实现了模型的装置部署,拓展了模型的应用范围。
附图说明
图1是本发明的基于全卷积单步目标检测算法的口罩佩戴识别方法的步骤图;
图2是本发明基于全卷积单步目标检测算法的口罩佩戴识别方法实施例一的结构框图;
图3是人工智能开发板装置测试结果;
图4为线性激活神经元的结构图;
图5为本发明注意力机制模块的结构图。
具体实施方式
下面结合说明书附图对本发明的技术方案做进一步的详细说明。
参照图1,本发明实现的具体步骤如下:
S1、构建全卷积单步目标检测算法模型,构建数据集;
S2、改进网络,训练模型;
S3、部署和运行模型,使用人工智能开发板装置;
所述步骤S2模型训练具体包括:
S2.1、主干网络轻量化,在ResNeXt101中将Cardinality数目定量削减,使用轻量化的ResNeXt作为主干网络,具体是:
给定一个D维的输入数据x=[x1,x2,…,xd],其输入权值为w=[w1, w2,…,wn],一个没有偏置的线性激活神经元为:
Figure RE-GDA0002629295080000051
结构如图5所示。
基于拓扑结构:
Figure RE-GDA0002629295080000052
其中C是简Inception的基数(Cardinality),是任意的变换,如卷积操作。
结合残差网络,便得到ResNeXt,表示为:
Figure RE-GDA0002629295080000053
相比于MSCOCO数据集中面向80个类的检测,面向口罩的检测类别单一,情况简单;而ResNeXt在Cardinality上花费较长的计算时间。为了减少计算量,提升算法检测速度,结合口罩检测的实际,将Cradinality数量减少至16。
S2.2、在主干网络中添加注意力机制;
S2.2.1、在轻量化的ResNeXt中引入了SE-Net注意力机制模块;
对于任意给定的变换:
Figure RE-GDA0002629295080000054
Ftr看作一个标准的卷积算子,V=[v1,v2,…,vc]表示学习到的一组滤波器核,vc表示第c个滤波器的参数公式,X=[x1,x2,…,xc],xs表示第s个输入,U=[u1,u2,…,uc]表示Ftr的输出,公式为:
Figure RE-GDA0002629295080000055
通道间依赖关系的提取:使用全局平均池化将整个通道压缩成一个通道描述符。
第c个通道表示为:
Figure RE-GDA0002629295080000061
自适应重新校正:利用通道信息全面捕获通道依赖性。
s=Fex(z,W)=σ(g(z,W)W)=σ(W2δ(W1z)) (7)
s代表自适应重新校正后的标量。δ表示ReLU激活函數,W1和W2是用于降维和升维的两个全连接层的权重。
模块最终输出通过重新调节变换U得到,表示为:
Figure RE-GDA0002629295080000062
Figure RE-GDA0002629295080000063
Figure RE-GDA0002629295080000064
指的是特征图
Figure RE-GDA0002629295080000065
和标量sc之间的对应通道乘积。
S2.3、开始训练,对经训练得到的深度学习模型进行测试,选取泛化能力最佳的模型。
所述步骤S3具体包括:
S3.1、环境配置,模型迁移,使用人工智能开发板装置;
S3.1.1、在人工智能开发板装置上配置代码运行环境,安装依赖包;
S3.1.2、实现模型的迁移部署,并测试模型在人工智能开发板装置上的执行效果。
1.实验条件:
本发明的实验是在单张NVIDIA GTX 1080Ti GPU的硬件环境和Python的软件环境下进行的。
2.结果分析:
本发明的仿真实验展示了基于人工智能开发板装置部署的图片测试结果。
从图3中可以看出,模型在人工智能开发板装置可实现准确的人脸口罩佩戴识别。
本发明进一步公开了基于全卷积单步目标检测算法的口罩佩戴识别装置,所述装置包括:
模型和数据集创建模块,用于创建全卷积单步目标检测算法模型并对模型初始化,收集和划分人脸口罩数据集,并进行数据增强和图片的预处理;
模型训练模块,用于主干网络轻量化并添加注意力机制,对经训练得到的深度学习模型进行测试,选取泛化能力最佳的模型;
装置模块,用于将模型迁移到人工智能开发板装置装置部署,实现对图片的检测识别。
所述模型和数据集创建模块包括:
模型创建单元:创建全卷积单步目标检测算法模型;
模型初始化单元:初始化全卷积单步目标检测算法模型。
数据采集单元:收集网络上开源的人脸口罩的数据集,并对人脸的位置和类别信息进行标注;
数据处理单元:将此数据集划分为训练集、验证集和测试集,并进行数据增强和图片预处理。
作为本发明基于全卷积单步目标检测算法的口罩佩戴识别装置技术方案的进一步优选,所述模型训练模块包括:
网络改进单元:在ResNeXt101中将Cardinality数目定量削减,在主干网络中添加注意力机制;
模型训练单元:开始训练,并对网络训练时保存的深度学习模型进行测试,选取泛化能力最佳的模型。
作为本发明基于全卷积单步目标检测算法的口罩佩戴识别装置技术方案的进一步优选,所述装置模块包括:
环境搭建单元:在人工智能开发板装置上配置代码运行环境,安装依赖包;部署运行单元:实现模型的迁移部署,并进行测试。

Claims (7)

1.一种基于全卷积单步目标检测算法的口罩佩戴识别方法,该方法如下:
S1、构建全卷积单步目标检测算法模型,构建数据集;
S2、改进网络,训练模型;
S3、部署和运行模型,使用人工智能开发板装置;
其特征在于,所述步骤S1构建数据集,实现全卷积单步目标检测模型的初始化处理;
所述步骤S2模型训练, 将步骤S1得到的模型通过主干网络轻量化处理并添加注意力机制模块,得到深度学习模型。
2.根据权利要求1所述基于全卷积单步目标检测算法的口罩佩戴识别方法,其特征在于,所述步骤S2训练模型具体包括如下子步骤:
S2.1、主干网络轻量化,使用ResNeXt作为主干网络,将基数数量减少至16;
S2.2、在主干网络中添加注意力机制;
S2.3、开始训练,对经训练得到的深度学习模型进行测试,选取泛化能力最佳的模型。
3.根据权利要求1所述基于全卷积单步目标检测算法的口罩佩戴识别方法,其特征在于,所述步骤S3具体包括如下子步骤:
S3.1、环境配置,模型迁移,使用人工智能开发板装置;
S3.1.1、在人工智能开发板装置上配置代码运行环境,安装依赖包;
S3.1.2、实现模型的迁移部署,并测试模型在人工智能开发板装置上的执行效果。
4.一种基于全卷积单步目标检测算法的口罩佩戴识别装置,其特征在于,所述装置包括:
模型和数据集创建模块,用于创建全卷积单步目标检测算法模型并对模型初始化,收集和划分人脸口罩数据集,并进行数据增强和图片的预处理;
模型训练模块,用于主干网络轻量化并添加注意力机制,对经训练得到的深度学习模型进行测试,选取泛化能力最佳的模型;
装置模块,用于将模型迁移到人工智能开发板装置部署,实现对图片的检测识别。
5.根据权利要求4所述的基于全卷积单步目标检测算法的口罩佩戴识别装置,其特征在于,所述模型和数据集创建模块包括:
模型创建单元:创建全卷积单步目标检测算法模型;
模型初始化单元:初始化全卷积单步目标检测算法模型;
数据采集单元:收集网络上开源的人脸口罩的数据集,并对人脸的位置和类别信息进行标注;
数据处理单元:将此数据集划分为训练集、验证集和测试集,并进行数据增强和图片预处理。
6.根据权利要求4所述的基于全卷积单步目标检测算法的口罩佩戴识别装置,其特征在于,所述模型训练模块包括:
网络改进单元:在ResNeXt101中将Cardinality数目定量削减,在主干网络中添加注意力机制;
模型训练单元:开始训练,并对网络训练时保存的深度学习模型进行测试,选取泛化能力最佳的模型。
7.根据权利要求4所述的基于全卷积单步目标检测算法的口罩佩戴识别装置,其特征在于,所述装置模块包括:
环境搭建单元:在人工智能开发板装置上配置代码运行环境,安装依赖包;
部署运行单元:实现模型的迁移部署,并进行测试。
CN202010673139.8A 2020-07-14 2020-07-14 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置 Active CN111898479B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010673139.8A CN111898479B (zh) 2020-07-14 2020-07-14 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010673139.8A CN111898479B (zh) 2020-07-14 2020-07-14 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置

Publications (2)

Publication Number Publication Date
CN111898479A true CN111898479A (zh) 2020-11-06
CN111898479B CN111898479B (zh) 2023-09-26

Family

ID=73192570

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010673139.8A Active CN111898479B (zh) 2020-07-14 2020-07-14 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置

Country Status (1)

Country Link
CN (1) CN111898479B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221670A (zh) * 2021-04-21 2021-08-06 成都理工大学 一种用于口罩佩戴识别的技术

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647723A (zh) * 2018-05-11 2018-10-12 湖北工业大学 一种基于深度学习网络的图像分类方法
CN109544510A (zh) * 2018-10-24 2019-03-29 广州大学 一种基于卷积神经网络的三维肺结节识别方法
CN109711258A (zh) * 2018-11-27 2019-05-03 哈尔滨工业大学(深圳) 基于卷积网络的轻量级人脸关键点检测方法、系统及存储介质
WO2019233812A1 (en) * 2018-06-07 2019-12-12 Agfa Healthcare Nv Sequential segmentation of anatomical structures in 3d scans
CN110674866A (zh) * 2019-09-23 2020-01-10 兰州理工大学 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法
CN111046664A (zh) * 2019-11-26 2020-04-21 哈尔滨工业大学(深圳) 基于多粒度的图卷积神经网络的假新闻检测方法及系统
CN111325161A (zh) * 2020-02-25 2020-06-23 四川翼飞视科技有限公司 一种基于注意力机制的人脸检测神经网络的构建方法
CN111368754A (zh) * 2020-03-08 2020-07-03 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647723A (zh) * 2018-05-11 2018-10-12 湖北工业大学 一种基于深度学习网络的图像分类方法
WO2019233812A1 (en) * 2018-06-07 2019-12-12 Agfa Healthcare Nv Sequential segmentation of anatomical structures in 3d scans
CN109544510A (zh) * 2018-10-24 2019-03-29 广州大学 一种基于卷积神经网络的三维肺结节识别方法
CN109711258A (zh) * 2018-11-27 2019-05-03 哈尔滨工业大学(深圳) 基于卷积网络的轻量级人脸关键点检测方法、系统及存储介质
CN110674866A (zh) * 2019-09-23 2020-01-10 兰州理工大学 迁移学习特征金字塔网络对X-ray乳腺病灶图像检测方法
CN111046664A (zh) * 2019-11-26 2020-04-21 哈尔滨工业大学(深圳) 基于多粒度的图卷积神经网络的假新闻检测方法及系统
CN111325161A (zh) * 2020-02-25 2020-06-23 四川翼飞视科技有限公司 一种基于注意力机制的人脸检测神经网络的构建方法
CN111368754A (zh) * 2020-03-08 2020-07-03 北京工业大学 一种基于全局上下文信息的机场跑道异物检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
C. -I. WANG 等: "Singing Style Investigation by Residual Siamese Convolutional Neural Networks", 《2018 IEEE INTERNATIONAL CONFERENCE ON ACOUSTICS, SPEECH AND SIGNAL PROCESSING (ICASSP)》, pages 116 - 120 *
董月 等: "Attention Res-Unet: 一种高效阴影检测算法", 《浙江大学学报(工学版)》, vol. 53, no. 02, pages 373 - 381 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113221670A (zh) * 2021-04-21 2021-08-06 成都理工大学 一种用于口罩佩戴识别的技术

Also Published As

Publication number Publication date
CN111898479B (zh) 2023-09-26

Similar Documents

Publication Publication Date Title
Kamal et al. Automatic traffic sign detection and recognition using SegU-Net and a modified Tversky loss function with L1-constraint
CN112949673B (zh) 一种基于全局注意力的特征融合目标检测与识别方法
US10275719B2 (en) Hyper-parameter selection for deep convolutional networks
CN111709311B (zh) 一种基于多尺度卷积特征融合的行人重识别方法
JP2008310796A (ja) コンピュータにより実施される、訓練データから分類器を構築し、前記分類器を用いてテストデータ中の移動物体を検出する方法
Chen et al. Modeling human activities as speech
Zhang et al. Fast face detection on mobile devices by leveraging global and local facial characteristics
CN111460980A (zh) 基于多语义特征融合的小目标行人的多尺度检测方法
CN112597324A (zh) 一种基于相关滤波的图像哈希索引构建方法、系统及设备
Zeng et al. Proposal pyramid networks for fast face detection
CN112733942A (zh) 一种基于多级特征自适应融合的变尺度目标检测方法
Kashika et al. Deep learning technique for object detection from panoramic video frames
Zhou et al. Context prior-based with residual learning for face detection: A deep convolutional encoder–decoder network
Sharma et al. Deep convolutional neural network with ResNet-50 learning algorithm for copy-move forgery detection
Bao et al. An improved DenseNet model to classify the damage caused by cotton aphid
CN111898479A (zh) 一种基于全卷积单步目标检测算法的口罩佩戴识别方法和装置
Wong et al. Real-time adaptive hand motion recognition using a sparse bayesian classifier
GB2620817A (en) Method and apparatus for on-device personalised analysis using a machine learning model
Saeidi et al. Pedestrian detection using an extended fast RCNN based on a secure margin in RoI feature maps
Saeidi et al. Deep learning based on parallel CNNs for pedestrian detection
Jourdheuil et al. Heterogeneous adaboost with real-time constraints-application to the detection of pedestrians by stereovision
Sangamesh et al. A Novel Approach for Recognition of Face by Using Squeezenet Pre-Trained Network
Sun et al. Attention-guided region proposal network for pedestrian detection
Leyrit et al. Association of AdaBoost and kernel based machine learning methods for visual pedestrian recognition
Ji et al. Robust vision tracking by online random ferns and template library

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant