CN111832465A - 基于MobileNetV3的实时人头分类检测方法 - Google Patents

基于MobileNetV3的实时人头分类检测方法 Download PDF

Info

Publication number
CN111832465A
CN111832465A CN202010653080.6A CN202010653080A CN111832465A CN 111832465 A CN111832465 A CN 111832465A CN 202010653080 A CN202010653080 A CN 202010653080A CN 111832465 A CN111832465 A CN 111832465A
Authority
CN
China
Prior art keywords
data set
head
real
classification detection
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010653080.6A
Other languages
English (en)
Other versions
CN111832465B (zh
Inventor
冯希宁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xinghong Cluster Co ltd
Original Assignee
Xinghong Cluster Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xinghong Cluster Co ltd filed Critical Xinghong Cluster Co ltd
Priority to CN202010653080.6A priority Critical patent/CN111832465B/zh
Publication of CN111832465A publication Critical patent/CN111832465A/zh
Application granted granted Critical
Publication of CN111832465B publication Critical patent/CN111832465B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • G06F18/24133Distances to prototypes
    • G06F18/24137Distances to cluster centroïds
    • G06F18/2414Smoothing the distance, e.g. radial basis function networks [RBFN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供一种基于MobileNetV3的实时人头分类检测方法,包括如下步骤:S1.选择训练数据集并对选择的训练数据集进行分类标注;所述训练数据集包括口罩人脸数据集、人脸数据集以及人头数据集;S2.对标注后训练数据集的图像数据进行增强处理;S3.根据训练数据集不同类别生成针对各类别的先验框;S4.基于MobileNetV3构建模型,再通过训练数据集对模型进行训练;S5.在大屏应用训练好的模型,对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果。本发明提供实现人头的快速准确分类检测,同时给出人脸的关键信息点,分类检测结果为后续处理提供数据基础。

Description

基于MobileNetV3的实时人头分类检测方法
技术领域
本发明属于人脸识别技术领域,具体涉及一种基于MobileNetV3的实时人头分类检测方法。
背景技术
MobileNetV3,Google提出的小巧且高效专为移动端或嵌入式设备应用的网络结构。
FPN,Feature Pyramid Net的简称,特征金字塔网络。
SSH,Single Stage Headless Face Detector的简称,单步骤人脸识别。
目前人脸识别技术的精度及速度已经能够满足应用的要求,基于人脸识别的跟踪统计产品已有落地,但由于疫情影响,出现了以下问题:
(1)口罩的佩戴使得基于人脸识别的跟踪统计发生错误;
(2)而基于人头检测的统计一般只是进行人流量统计,而无法进行准确跟踪。
现有的人脸识别技术直接加入人头分类检测,存在以下弊端:
(1)高成本:采用高性能的移动端或嵌入式设备,硬件配置高对网络结构要求低,可以采用大而复杂的网络,但硬件成本较高;
(2)低精度:在低性能设备上运行人头检测时,通常为达到实时效果牺牲精度,效果不佳;
(3)无分类:目前人脸检测或人头检测都是单一目标的检测器,不能满足人脸、人头同时检测且分类的情况。
此为现有技术的不足,因此,针对现有技术中的上述缺陷,提供一种基于MobileNetV3的实时人头分类检测方法,是非常有必要的。
发明内容
针对现有技术的上述由于戴口罩的影响传统人脸识别跟踪发生错误,而直接在现有人脸识别加入人头检测成本高、精度低以及无分类的缺陷,本发明提供一种基于MobileNetV3的实时人头分类检测方法,以解决上述技术问题。
本发明提供一种基于MobileNetV3的实时人头分类检测方法,包括如下步骤:
S1.选择训练数据集并对选择的训练数据集进行分类标注;所述训练数据集包括口罩人脸数据集、人脸数据集以及人头数据集;
S2.对标注后训练数据集的图像数据进行增强处理;
S3.根据训练数据集不同类别生成针对各类别的先验框;
S4.基于MobileNetV3构建模型,再通过训练数据集对模型进行训练;
S5.在大屏应用训练好的模型,对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果。
进一步地,步骤S1具体步骤如下:
S11.选择训练数据集;选择MAFA类型的口罩人脸数据集、Widerface类型的人脸数据集以及SCUT-HEADv1.0类型的人头数据集;
S12.对选择的训练数据集进行标注,将MAFA类型的口罩人脸数据集标注为maskface,将Widerface类型的人脸数据集标注为face,将SCUT-HEADv1.0类型的人头数据集标注为head。原MAFA只标注了部分口罩人脸,原Widerface只标注了人脸,原SCUT-HEADv1.0虽然对出现的人头都进行了标注,但是标签都是相同的,没有区分head、face等,重新对这三个数据集进行分类标注处理,再训练模型。
进一步地,步骤S2中所述增强处理包括随机裁剪、色彩变换、水平反转以及标准化处理。增强处理能够使网络更加关注图像的内容。
进一步地,步骤S3中,根据训练数据集三个类别的不同,生成针对各自类别的先验框。先验框用作后续上下文扩张使用,为卷积提供依据。
进一步地,步骤S4具体步骤如下:
S41.通过MobileNetV3_small作为基干网络提取三个特征层;每个特征层针对一个一个尺度空间的特征图;
S42.采用FPN网络对三个特征层进行信息融合,再通过SSH的上下文模块扩张预检测区域的上下文信息;
S43.将扩张后特征层信息经过卷积层处理生成预测框的分类和回归,得到网络输出,生成模型;
S44.通过训练数据集对模型进行训练,根据分类标注的标签计算对应损失。特征图的提取采用MobilNetV3_small作为基干网络,同时网络宽度乘以0.35倍,这样在保证准确率下降不多的情况下,既使得网络瘦身又加快速度。
进一步地,步骤S44中,对标注为head的SCUT-HEADv1.0类型的人头数据集以及标注为MAFA类型的口罩人脸数据集计算分类损失及位置损失;
对标注为Widerface类型的人脸数据集计算关键点损失、分类损失以及位置损失。对标注不同的训练数据计算损失不同,标注face的训练数据要多一个关键点损失计算。
进一步地,步骤S5具体步骤如下:
S51.将训练后的模型应用在大屏;
S52.训练后模型对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果;
S53.根据分类检测结果对人头图像分别进行处理。将生成的模型部署到广告屏上,在实际场景中进行人头分类检测,既能够检测到人头图像的区域位置,也能得到人头图像的分类标签,还能得到face的五个人脸关键点。
进一步地,步骤S53中,大屏统计各类别标签的人头图像总和,进行人流量统计。
进一步地,步骤S53中,大屏对分类检测结果为maskface标签的人头图像采用注意力机制,将人脸未戴口罩部分进行准确识别;
大屏对分类检测结果为face标签的人头图像进行跟踪,且当该face标签的人头图像转换为head标签时,进行持续跟踪。
进一步地,步骤S53中,大屏获取分类检测结果为face标签的人头图像的关键点信息,根据关键点信息统计客流是否观看大屏广告,以及观看时长;
判断是否需要发起未戴口罩警告;
若是,大屏监测分类检测结果为face标签的人头图像,实时进行未戴口罩告警。
本发明的有益效果在于,
本发明提供的基于MobileNetV3的实时人头分类检测方法,重新标注训练数据集,快速提取特征图创建模型并对模型进行训练,在大屏应用模型实现人头的快速准确分类检测,同时给出人脸的关键信息点,分类检测结果为后续处理提供数据基础。
此外,本发明设计原理可靠,结构简单,具有非常广泛的应用前景。
由此可见,本发明与现有技术相比,具有突出的实质性特点和显著的进步,其实施的有益效果也是显而易见的。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明的方法流程示意图一;
图2是本发明的方法流程示意图二。
具体实施方式
为了使本技术领域的人员更好地理解本发明中的技术方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
实施例1:
如图1所示,本发明提供一种基于MobileNetV3的实时人头分类检测方法,包括如下步骤:
S1.选择训练数据集并对选择的训练数据集进行分类标注;所述训练数据集包括口罩人脸数据集、人脸数据集以及人头数据集;
S2.对标注后训练数据集的图像数据进行增强处理;
S3.根据训练数据集不同类别生成针对各类别的先验框;
S4.基于MobileNetV3构建模型,再通过训练数据集对模型进行训练;
S5.在大屏应用训练好的模型,对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果。
实施例2:
如图2所示,本发明提供一种基于MobileNetV3的实时人头分类检测方法,包括如下步骤:
S1.选择训练数据集并对选择的训练数据集进行分类标注;所述训练数据集包括口罩人脸数据集、人脸数据集以及人头数据集;具体步骤如下:
S11.选择训练数据集;选择MAFA类型的口罩人脸数据集、Widerface类型的人脸数据集以及SCUT-HEADv1.0类型的人头数据集;
S12.对选择的训练数据集进行标注,将MAFA类型的口罩人脸数据集标注为maskface,将Widerface类型的人脸数据集标注为face,将SCUT-HEADv1.0类型的人头数据集标注为head;原MAFA只标注了部分口罩人脸,原Widerface只标注了人脸,原SCUT-HEADv1.0虽然对出现的人头都进行了标注,但是标签都是相同的,没有区分head、face等,重新对这三个数据集进行分类标注处理,再训练模型;
S2.对标注后训练数据集的图像数据进行增强处理;所述增强处理包括随机裁剪、色彩变换、水平反转以及标准化处理,能够使网络更加关注图像的内容;
S3.根据训练数据集不同类别生成针对各类别的先验框;根据训练数据集三个类别的不同,生成针对各自类别的先验框;先验框用作后续上下文扩张使用,为卷积提供依据;
S4.基于MobileNetV3构建模型,再通过训练数据集对模型进行训练;具体步骤如下:
S41.通过MobileNetV3_small作为基干网络提取三个特征层;每个特征层针对一个尺度空间的特征图;例如原图为640*640,对应的特征图的尺寸为[80,80],[40,40],[20,20]),这三个特征层用来计算后续的box的回归与分类;
S42.采用FPN网络对三个特征层进行信息融合,再通过SSH的上下文模块扩张预检测区域的上下文信息;SSH的上下文模块为一系列卷积操作,包括3*3,5*5,7*7,用这种方式对上下文进行建模增加了对应层的感受野;
S43.将扩张后特征层信息通过卷积处理生成预测框的分类和回归,得到网络输出,生成模型;扩张后特征层信息为多维矩阵,用1*1的卷积代替全连接进行box的分类和回归;预测框是网络得到的一个结果,计算loss时是用的预测框与位置计算的;
S44.通过训练数据集对模型进行训练,根据分类标注的标签计算对应损失;对标注为head的SCUT-HEADv1.0类型的人头数据集以及标注为MAFA类型的口罩人脸数据集计算分类损失及位置损失;对标注为Widerface类型的人脸数据集计算关键点损失、分类损失以及位置损失;特征图的提取采用MobilNetV3_small作为基干网络,同时网络宽度乘以0.35倍,这样在保证准确率下降不多的情况下,既使得网络瘦身又加快速度;对标注不同的训练数据计算损失不同,标注face的训练数据要多一个关键点损失计算;
S5.在大屏应用训练好的模型,对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果;具体步骤如下:
S51.将训练后的模型应用在大屏;
S52.训练后模型对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果;
S53.根据分类检测结果对人头图像分别进行处理。
在某些实施例中,步骤S53中,大屏统计各类别标签的人头图像总和,进行人流量统计;
步骤S53中,大屏对分类检测结果为maskface标签的人头图像采用注意力机制,将人脸未戴口罩部分进行准确识别;
大屏对分类检测结果为face标签的人头图像进行跟踪,且当该face标签的人头图像转换为head标签时,进行持续跟踪。
在某些实施例中,步骤S53中,大屏获取分类检测结果为face标签的人头图像的关键点信息,根据关键点信息统计客流是否观看大屏广告,以及观看时长;
判断是否需要发起未戴口罩警告;
若是,大屏监测分类检测结果为face标签的人头图像,实时进行未戴口罩告警。
尽管通过参考附图并结合优选实施例的方式对本发明进行了详细描述,但本发明并不限于此。在不脱离本发明的精神和实质的前提下,本领域普通技术人员可以对本发明的实施例进行各种等效的修改或替换,而这些修改或替换都应在本发明的涵盖范围内/任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (10)

1.一种基于MobileNetV3的实时人头分类检测方法,其特征在于,包括如下步骤:
S1.选择训练数据集并对选择的训练数据集进行分类标注;所述训练数据集包括口罩人脸数据集、人脸数据集以及人头数据集;
S2.对标注后训练数据集的图像数据进行增强处理;
S3.根据训练数据集不同类别生成针对各类别的先验框;
S4.基于MobileNetV3构建模型,再通过训练数据集对模型进行训练;
S5.在大屏应用训练好的模型,对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果。
2.如权利要求1所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S1具体步骤如下:
S11.选择训练数据集;选择MAFA类型的口罩人脸数据集、Widerface类型的人脸数据集以及SCUT-HEADv1.0类型的人头数据集;
S12.对选择的训练数据集进行标注,将MAFA类型的口罩人脸数据集标注为maskface,将Widerface类型的人脸数据集标注为face,将SCUT-HEADv1.0类型的人头数据集标注为head。
3.如权利要求1所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S2中所述增强处理包括随机裁剪、色彩变换、水平反转以及标准化处理。
4.如权利要求1所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S3中,根据训练数据集三个类别的不同,生成针对各自类别的先验框。
5.如权利要求2所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S4具体步骤如下:
S41.通过MobileNetV3_small作为基干网络提取三个特征层;每个特征层针对一个尺度空间的特征图;
S42.采用FPN网络对三个特征层进行信息融合,再通过SSH的上下文模块扩张预检测区域的上下文信息;
S43.将扩张后特征层信息经过卷积层处理生成预测框的分类和回归,得到网络输出,生成模型;
S44.通过训练数据集对模型进行训练,根据分类标注的标签计算对应损失。
6.如权利要求5所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S44中,对标注为head的SCUT-HEADv1.0类型的人头数据集以及标注为MAFA类型的口罩人脸数据集计算分类损失及位置损失;
对标注为Widerface类型的人脸数据集计算关键点损失、分类损失以及位置损失。
7.如权利要求5所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S5具体步骤如下:
S51.将训练后的模型应用在大屏;
S52.训练后模型对大屏摄像头捕获的实时人头图像进行推理,得到分类检测结果;
S53.根据分类检测结果对人头图像分别进行处理。
8.如权利要求7所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S53中,大屏统计各类别标签的人头图像总和,进行人流量统计。
9.如权利要求7所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S53中,大屏对分类检测结果为maskface标签的人头图像采用注意力机制,将人脸未戴口罩部分进行准确识别;
大屏对分类检测结果为face标签的人头图像进行跟踪,且当该face标签的人头图像转换为head标签时,进行持续跟踪。
10.如权利要求7所述的基于MobileNetV3的实时人头分类检测方法,其特征在于,步骤S53中,大屏获取分类检测结果为face标签的人头图像的关键点信息,根据关键点信息统计客流是否观看大屏广告,以及观看时长;
判断是否需要发起未戴口罩警告;
若是,大屏监测分类检测结果为face标签的人头图像,实时进行未戴口罩告警。
CN202010653080.6A 2020-07-08 2020-07-08 基于MobileNetV3的实时人头分类检测方法 Active CN111832465B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010653080.6A CN111832465B (zh) 2020-07-08 2020-07-08 基于MobileNetV3的实时人头分类检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010653080.6A CN111832465B (zh) 2020-07-08 2020-07-08 基于MobileNetV3的实时人头分类检测方法

Publications (2)

Publication Number Publication Date
CN111832465A true CN111832465A (zh) 2020-10-27
CN111832465B CN111832465B (zh) 2022-03-29

Family

ID=72900448

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010653080.6A Active CN111832465B (zh) 2020-07-08 2020-07-08 基于MobileNetV3的实时人头分类检测方法

Country Status (1)

Country Link
CN (1) CN111832465B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052189A (zh) * 2021-03-30 2021-06-29 电子科技大学 一种基于改进的MobileNetV3特征提取网络
CN113239743A (zh) * 2021-04-23 2021-08-10 普联国际有限公司 一种人群密度检测方法、装置、设备及存储介质
CN113269065A (zh) * 2021-05-14 2021-08-17 深圳印像数据科技有限公司 一种基于目标检测算法的屏幕前人流量统计方法
CN113505694A (zh) * 2021-07-09 2021-10-15 南开大学 一种基于视线追踪的人机交互方法、装置及计算机设备
CN113591795A (zh) * 2021-08-19 2021-11-02 西南石油大学 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统
WO2021238125A1 (zh) * 2020-05-27 2021-12-02 嘉楠明芯(北京)科技有限公司 人脸遮挡检测方法及人脸遮挡检测装置
CN113887310A (zh) * 2021-09-03 2022-01-04 珠高电气检测有限公司 工人规范着装识别方法、系统及介质
CN114118303A (zh) * 2022-01-25 2022-03-01 中科视语(北京)科技有限公司 基于先验约束的人脸关键点检测方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919048A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 一种基于级联MobileNet-V2实现人脸关键点检测的方法
CN110647817A (zh) * 2019-08-27 2020-01-03 江南大学 基于MobileNet V3的实时人脸检测方法
CN110705366A (zh) * 2019-09-07 2020-01-17 创新奇智(广州)科技有限公司 基于楼梯场景的实时人头检测方法
CN110781829A (zh) * 2019-10-28 2020-02-11 华北电力大学 一种轻量级深度学习的智慧营业厅人脸识别方法
CN111160108A (zh) * 2019-12-06 2020-05-15 华侨大学 一种无锚点的人脸检测方法及系统
CN111339930A (zh) * 2020-02-25 2020-06-26 四川翼飞视科技有限公司 一种联合口罩属性损失函数的人脸识别方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109919048A (zh) * 2019-02-21 2019-06-21 北京以萨技术股份有限公司 一种基于级联MobileNet-V2实现人脸关键点检测的方法
CN110647817A (zh) * 2019-08-27 2020-01-03 江南大学 基于MobileNet V3的实时人脸检测方法
CN110705366A (zh) * 2019-09-07 2020-01-17 创新奇智(广州)科技有限公司 基于楼梯场景的实时人头检测方法
CN110781829A (zh) * 2019-10-28 2020-02-11 华北电力大学 一种轻量级深度学习的智慧营业厅人脸识别方法
CN111160108A (zh) * 2019-12-06 2020-05-15 华侨大学 一种无锚点的人脸检测方法及系统
CN111339930A (zh) * 2020-02-25 2020-06-26 四川翼飞视科技有限公司 一种联合口罩属性损失函数的人脸识别方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
ANDREW HOWARD等: "Searching for MobileNetV3", 《ARXIV:1905.02244V3 [CS.CV]》 *
BO CHEN等: "MnasFPN : Learning Latency-aware Pyramid Architecture for Object Detection on Mobile Devices", 《ARXIV:1912.01106V1 [CS.CV]》 *
CHAOXU GUO等: "AugFPN: Improving Multi-scale Feature Learning for Object Detection", 《ARXIV:1912.05384V1 [CS.CV] 》 *
刘梦雅等: "基于改进Mobilenet算法的深度人脸识别算法", 《信息通信技术》 *
康祖超: "基于轻量级卷积神经网络的智能眼镜人脸识别系统", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
张睿鑫等: "基于人头检测与跟踪的人群行为异常检测", 《电子测量技术》 *
王雅: "基于深度学习的复杂场景下人头检测研究及实现", 《中国优秀博硕士学位论文全文数据库(硕士) 信息科技辑》 *
王韦祥等: "基于改进 MobileNet 网络的人脸表情识别", 《计算机应用与软件》 *
黄良辉等: "基于轻量级卷积神经网络的人脸识别方法", 《湖南工业大学学报》 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021238125A1 (zh) * 2020-05-27 2021-12-02 嘉楠明芯(北京)科技有限公司 人脸遮挡检测方法及人脸遮挡检测装置
CN113052189A (zh) * 2021-03-30 2021-06-29 电子科技大学 一种基于改进的MobileNetV3特征提取网络
CN113052189B (zh) * 2021-03-30 2022-04-29 电子科技大学 一种基于改进的MobileNetV3特征提取网络
CN113239743A (zh) * 2021-04-23 2021-08-10 普联国际有限公司 一种人群密度检测方法、装置、设备及存储介质
CN113269065B (zh) * 2021-05-14 2023-02-28 深圳印像数据科技有限公司 一种基于目标检测算法的屏幕前人流量统计方法
CN113269065A (zh) * 2021-05-14 2021-08-17 深圳印像数据科技有限公司 一种基于目标检测算法的屏幕前人流量统计方法
CN113505694A (zh) * 2021-07-09 2021-10-15 南开大学 一种基于视线追踪的人机交互方法、装置及计算机设备
CN113505694B (zh) * 2021-07-09 2024-03-26 南开大学 一种基于视线追踪的人机交互方法、装置及计算机设备
CN113591795A (zh) * 2021-08-19 2021-11-02 西南石油大学 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统
CN113591795B (zh) * 2021-08-19 2023-08-08 西南石油大学 一种基于混合注意力特征金字塔结构的轻量化人脸检测方法和系统
CN113887310A (zh) * 2021-09-03 2022-01-04 珠高电气检测有限公司 工人规范着装识别方法、系统及介质
CN114118303B (zh) * 2022-01-25 2022-04-29 中科视语(北京)科技有限公司 基于先验约束的人脸关键点检测方法及装置
CN114118303A (zh) * 2022-01-25 2022-03-01 中科视语(北京)科技有限公司 基于先验约束的人脸关键点检测方法及装置

Also Published As

Publication number Publication date
CN111832465B (zh) 2022-03-29

Similar Documents

Publication Publication Date Title
CN111832465B (zh) 基于MobileNetV3的实时人头分类检测方法
CN111414887B (zh) 基于yolov3算法的二次检测口罩人脸识别方法
US20200074178A1 (en) Method and system for facilitating recognition of vehicle parts based on a neural network
CN108062525B (zh) 一种基于手部区域预测的深度学习手部检测方法
US8811663B2 (en) Object detection in crowded scenes
CN113936256A (zh) 一种图像目标检测方法、装置、设备以及存储介质
Avgerinakis et al. Recognition of activities of daily living for smart home environments
CN105574848A (zh) 用于对象的自动分割的方法和装置
Khan et al. Revisiting crowd counting: State-of-the-art, trends, and future perspectives
EP3249610B1 (en) A method, an apparatus and a computer program product for video object segmentation
CN111160202A (zh) 基于ar设备的身份核验方法、装置、设备及存储介质
US20220301317A1 (en) Method and device for constructing object motion trajectory, and computer storage medium
Ma et al. Fusioncount: Efficient crowd counting via multiscale feature fusion
Wang et al. Skip-connection convolutional neural network for still image crowd counting
CN115063786A (zh) 一种高位远景模糊车牌检测方法
WO2023093086A1 (zh) 目标跟踪及相关模型的训练方法、装置、设备、介质、计算机程序产品
KR102332229B1 (ko) 딥러닝 기반 보행자 영상 데이터 증강방법
Wang et al. Mpanet: Multi-patch attention for infrared small target object detection
CN115171183A (zh) 一种基于改进yolov5的口罩人脸检测方法
CN113920585A (zh) 行为识别方法及装置、设备和存储介质
CN112348011B (zh) 一种车辆定损方法、装置及存储介质
CN113052139A (zh) 一种基于深度学习双流网络的攀爬行为检测方法及系统
CN113553922A (zh) 一种基于改进型卷积神经网络口罩佩戴状态检测方法
Yan et al. Deeper multi-column dilated convolutional network for congested crowd understanding
CN116957051A (zh) 一种优化特征提取的遥感图像弱监督目标检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PP01 Preservation of patent right

Effective date of registration: 20230704

Granted publication date: 20220329

PP01 Preservation of patent right