CN111652051A - 人脸检测模型生成方法、装置、设备和存储介质 - Google Patents

人脸检测模型生成方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN111652051A
CN111652051A CN202010315193.5A CN202010315193A CN111652051A CN 111652051 A CN111652051 A CN 111652051A CN 202010315193 A CN202010315193 A CN 202010315193A CN 111652051 A CN111652051 A CN 111652051A
Authority
CN
China
Prior art keywords
tinydsod
network model
improved
face detection
detection model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010315193.5A
Other languages
English (en)
Other versions
CN111652051B (zh
Inventor
王祥雪
林焕凯
贺迪龙
刘双广
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gosuncn Technology Group Co Ltd
Original Assignee
Gosuncn Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gosuncn Technology Group Co Ltd filed Critical Gosuncn Technology Group Co Ltd
Priority to CN202010315193.5A priority Critical patent/CN111652051B/zh
Publication of CN111652051A publication Critical patent/CN111652051A/zh
Application granted granted Critical
Publication of CN111652051B publication Critical patent/CN111652051B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种人脸检测模型生成方法,适用于改进后的TinyDSOD网络模型,包括:初始化所述改进后的TinyDSOD网络模型的参数;将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像;训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。本发明还公开了一种人脸检测模型生成装置、一种人脸检测模型生成设备和一种计算机可读存储介质。采用本发明实施例,生成的人脸检测模型能够对不完整人脸进行检测,同时提高人脸检测效率和精度。

Description

人脸检测模型生成方法、装置、设备和存储介质
技术领域
本发明涉及人脸检测技术领域,尤其涉及一种人脸检测模型生成方法、装置、设备和存储介质。
背景技术
在某些应用场景中,如医院、研究院等,部分工作人员需要长期佩戴口罩进行作业,在进行人脸检测时,当人脸被口罩遮挡时,大部分特征出现丢失,现有人脸检测技术中通常需要呈现完整的人脸才能正常检测,这就要求工作人员摘下口罩进行识别,人流量较大时无疑会导致人脸检测的速度变慢,用户体验不佳。因此,针对不完整人脸的检测是一个亟待解决的问题。
发明内容
本发明实施例的目的是提供一种人脸检测模型生成方法、装置、设备和存储介质,生成的人脸检测模型能够对不完整人脸进行检测,同时提高人脸检测效率和精度。
为实现上述目的,本发明实施例提供了一种人脸检测模型生成方法,适用于改进后的TinyDSOD网络模型,包括:
初始化所述改进后的TinyDSOD网络模型的参数;
将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像;
在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。
与现有技术相比,本发明实施例公开的人脸检测模型生成方法,首先,初始化所述改进后的TinyDSOD网络模型的参数;其次,将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练,类别合并能够降低模型复杂度,同时提高检测率;最后,在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。本发明实施例公开的人脸检测模型生成方法,生成的人脸检测模型能够对不完整人脸进行检测,同时提高人脸检测效率和精度。
作为上述方案的改进,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的Stem模块的三层卷积加池化结构替换为两路结构得到;其中,所述两路结构包括一路用于进行卷积运算和取反运算的结构以及一路用于进行池化运算的结构。
作为上述方案的改进,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的DDB-b结构替换为DDB-b-plus结构得到;其中,所述DDB-b-plus结构包括一路用于不进行任何运算的结构和另外两路用于进行卷积运算的结构,所述另外两路用于进行卷积运算的结构中的其中一路配置有其对应的膨胀系数。
作为上述方案的改进,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的upsample层之后的深度可分离卷积替换为3个并行的深度可分离卷积得到;其中,所述并行的深度可分离卷积中每一深度可分离卷积均配置有其对应的膨胀系数。
作为上述方案的改进,所述改进后的TinyDSOD网络模型中的特征图为4个,每一所述特征图上的宽高比为1。
为实现上述目的,本发明实施例还提供了一种人脸检测模型生成装置,适用于改进后的TinyDSOD网络模型,包括:
初始化参数模块,用于初始化所述改进后的TinyDSOD网络模型的参数;
训练模块,用于将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像;
模型输出模块,用于在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。
与现有技术相比,本发明实施例公开的人脸检测模型生成装置,首先,初始化参数模块初始化所述改进后的TinyDSOD网络模型的参数;其次,训练模块将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练,类别合并能够降低模型复杂度,同时提高检测率;最后,模型输出模块在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。本发明实施例公开的人脸检测模型生成装置,生成的人脸检测模型能够对不完整人脸进行检测,同时提高人脸检测效率和精度。
作为上述方案的改进,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的Stem模块的三层卷积加池化结构替换为两路结构得到;其中,所述两路结构包括一路用于进行卷积运算和取反运算的结构以及一路用于进行池化运算的结构;
所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的DDB-b结构替换为DDB-b-plus结构得到;其中,所述DDB-b-plus结构包括一路用于不进行任何运算的结构和另外两路用于进行卷积运算的结构,所述另外两路用于进行卷积运算的结构中的其中一路配置有其对应的膨胀系数。
作为上述方案的改进,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的upsample层之后的深度可分离卷积替换为3个并行的深度可分离卷积得到;其中,所述并行的深度可分离卷积中每一深度可分离卷积均配置有其对应的膨胀系数;
所述改进后的TinyDSOD网络模型中的特征图为4个,每一所述特征图上的宽高比为1。
为实现上述目的,本发明实施例还提供一种人脸检测模型生成设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如上述任一实施例所述的人脸检测模型生成方法。
为实现上述目的,本发明实施例还提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如上述任一实施例所述的人脸检测模型生成方法。
附图说明
图1是本发明实施例提供的一种人脸检测模型生成方法的流程图;
图2是本发明实施例提供的Stem模块的结构示意图;
图3是本发明实施例提供的原始TinyDSOD网络模型中的DDB-b结构示意图;
图4是本发明实施例提供的改进后的TinyDSOD网络模型中的DDB-b-plus结构示意图;
图5是本发明实施例提供的改进后的TinyDSOD网络模型中3个并行的深度可分离卷积的结构示意图;
图6是本发明实施例提供的一种人脸检测模型生成装置的结构示意图;
图7是本发明实施例提供的一种人脸检测模型生成设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1,图1是本发明实施例提供的一种人脸检测模型生成方法的流程图;所述人脸检测模型生成方法包括:
S1、初始化所述改进后的TinyDSOD网络模型的参数;
S2、将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;
S3、在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。
值得说明的是,本发明实施例所述的人脸检测模型生成方法适用于改进后的TinyDSOD网络模型。所述人脸检测模型生成方法可以由人脸检测/识别装置执行实现。其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像,比如所述非完整人脸图像为用户戴口罩后的人脸图像。
所述原始TinyDSOD网络模型基于主干网络和特征金字塔的思想,将DenseNet中的DenseBlock作为主干网络的基础构件,同时将DenseBlock中的卷积操作替换为深度可分离卷积,在保证网络提取能力的同时,提高检测速度。此外,所述原始TinyDSOD网络模型中还引入了特征融合的思想,将高层特征向上与邻近的低层特征进行融合,从而提高小目标的检测能力,所述原始TinyDSOD的主干网络结构如表1所示。
表1原始TinyDSOD网络结构
Figure BDA0002459291960000051
Figure BDA0002459291960000061
具体的,预先对所述原始TinyDSOD网络模型进行改进。
所述原始TinyDSOD网络模型中Stem模块的三层卷积加池化结构被替换为两路结构;其中,所述两路结构包括一路用于进行卷积运算和取反运算的结构以及一路用于进行池化运算的结构。
示例性的,参见图2,将原始TinyDSOD的三层卷积加池化结构改为两路,一路进行两次卷积,并添加取反运算,另一路直接进行池化运算,这样的结构设计可以保证Stem模块在实现降采样的过程中尽量保留特征的多样性。
所述原始TinyDSOD网络模型中的DDB-b结构被替换为DDB-b-plus结构;其中,所述DDB-b-plus结构包括一路用于不进行任何运算的结构和另外两路用于进行卷积运算的结构,所述另外两路用于进行卷积运算的结构中的其中一路配置有其对应的膨胀系数。
示例性的,参见图3,图3是所述原始TinyDSOD网络模型中的DDB-b结构示意图。将DDB-b改为DDB-b-plus结构,如图4所示,DDB-b-plus结构从原来的两路变为三路,在增加的第三路中引入膨胀系数,从而扩大卷积计算的感受野。
所述原始TinyDSOD网络模型中upsample层之后的深度可分离卷积被替换为3个并行的深度可分离卷积;其中,所述并行的深度可分离卷积中每一深度可分离卷积均配置有其对应的膨胀系数。示例性的,如图5所示,每一个深度可分离卷积中配置不同的膨胀系数,进一步增加卷积计算的感受野,减少特征损失。
所述改进后的TinyDSOD网络模型中的特征图为4个,每一所述特征图上的宽高比为1。示例性的,对训练集中的完整人脸和非完整人脸的尺寸进行统计,将原始TinyDSOD的特征图减少为4个,由于人脸大致为一个方形,因此将这4层特征图上预设的AnchorBox的宽高比固定为1,具体尺寸如表2所示。
表2 AnchorBox尺寸参数
特征层名称 AnchorBox尺寸
First_out_norm_mbox_priorbox 16,24,32
Second_out_norm_mbox_priorbox 48,64
Third_out_norm_mbox_priorbox 96,128
Fourth_norm_mbox_priorbox 192,224,256
巡逻机器人拍摄的图像中,人脸属于小目标,因此本提案对原始TinyDSOD网络模型中的数据增强模块进行了改进。原有的数据增强模块包括对原始数据进行随机裁切、翻转等操作,来扩充训练数据集,随机裁剪的图像与GroundTruth的标注框面积比例分别为0.1,0.3,0.5,0.7,0.9和1.0,以0.1为例,意味着只要选取的图像区域包含了GroundTruth的10%,该区域就会被裁剪用于扩充训练集,但是这样的裁剪会造成训练集中出现大量残缺目标的图像。为了使得裁剪后的图像包括较为完整的GroundTruth,故将这一批参数全部改为1.0,也就是说,只有选取的区域完整覆盖到某个GroundTruth时,该区域图像才会被裁剪到训练集中。
进一步的,本发明实施例还对所述改进后的TinyDSOD网络模型进行了裁剪,以满足巡逻机器人轻量化的应用需求。将改进前的所述原始TinyDSOD网络模型中每个DenseBlock中重复模块的数量从原来的4、6、6、6均改为2,这样一来,模型参数大幅减少,但是感受野增加,特征提取能力并没有损失,达到了轻量化的需求。
本发明实施例采用损失函数如式(1)所示,能够同时实现对目标的位置回归和目标分类,其损失函数L是分类置信度损失和位置损失之和。
Figure BDA0002459291960000081
其中,N是与GroundTruth(实际的物体)匹配的DefaultBox的个数;Lconf(z,c)为分类置信度损失,Lloc(z,l,g)是DefaultBox的位置损失;z为DefaultBox与不同类别的参照物体框的匹配结果;c为预测物体框的置信度;l为预测物体框的位置信息;g为GroundTruth的标注框的位置信息;α为权衡置信度损失和位置损失的参数,一般设置为1,即两种损失的权重相同。
具体的,在步骤S1中,随机初始化所述改进后的TinyDSOD网络模型的参数。在步骤S2中,将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练。在步骤S3中,在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。另外,在训练过程中,采用的系统为ubuntu16.04,GPU为GTX 1080,训练框架为caffe-ssd,训练方式为end2end,初始学习率为0.1,max_iter为100000,学习率改变策略为multistep(20000,40000,60000,80000),Momentum为0.9,权重衰减为0.0005,优化方法采用SGD,图像输入尺寸为320*320。
进一步的,在训练得到所述人脸检测模型后,本发明实施例参考的评价指标包括精确率和召回率,其中精确率为所有检出的目标中正确检测的比例,召回率为总检数中正确检测的比例,其中总检数包括正检数、漏检数和误检数,如式(2)和式(3)所示。
精确率=正检数/(正检数+误检数) 公式(2);
召回率=正检数/(正检数+漏检数+误检数) 公式(3)。
本发明实施例基于深度神经网络,提出针对非完整人脸检测的轻量化方法,以TinyDSOD为基础,进行了一系列的改进和优化,相比原本的TinyDSOD模型,在非完整人脸数据集上,测试环境为GTX1080时的检出率和精确率都有很大提升,详细结果如表3所示。本发明实施例中模型的大小相比原TinyDSOD有大幅降低,检测速度也更快,符合巡逻机器人前端轻量化的应用需求。
表3本发明改进后的TinyDSOD与原TinyDSOD在检测上的结果对比
Figure BDA0002459291960000091
与现有技术相比,本发明实施例公开的人脸检测模型生成方法,首先,初始化所述改进后的TinyDSOD网络模型的参数;其次,将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练,类别合并能够降低模型复杂度,同时提高检测率;最后,在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。本发明实施例公开的人脸检测模型生成方法,生成的人脸检测模型能够对不完整人脸进行检测,同时提高人脸检测效率和精度。
参见图6,图6是本发明实施例提供的一种人脸检测模型生成装置10的结构示意图;所述人脸检测模型生成装置10包括:
初始化参数模块11,用于初始化所述改进后的TinyDSOD网络模型的参数;
训练模块12,用于将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像,比如所述非完整人脸图像为用户戴口罩后的人脸图像;
模型输出模块13,用于在训练完成后输出所述TinyDSOD网络模型作为人脸检测模型。
所述原始TinyDSOD网络模型中Stem模块的三层卷积加池化结构被替换为两路结构;其中,所述两路结构包括一路用于进行卷积运算和取反运算的结构以及一路用于进行池化运算的结构。
所述原始TinyDSOD网络模型中的DDB-b结构被替换为DDB-b-plus结构;其中,所述DDB-b-plus结构包括一路用于不进行任何运算的结构和另外两路用于进行卷积运算的结构,所述另外两路用于进行卷积运算的结构中的其中一路配置有其对应的膨胀系数。
所述原始TinyDSOD网络模型中upsample层之后的深度可分离卷积被替换为3个并行的深度可分离卷积;其中,所述并行的深度可分离卷积中每一深度可分离卷积均配置有其对应的膨胀系数。
所述原始TinyDSOD网络模型中的特征图为4个,每一所述特征图上的宽高比为1。
具体的所述人脸检测模型生成装置10的工作过程请参考上述实施例中所述人脸检测模型生成方法的工作过程,在此不再赘述。
与现有技术相比,本发明实施例公开的人脸检测模型生成装置10,首先,初始化参数模块11初始化所述改进后的TinyDSOD网络模型的参数;其次,训练模块12将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练,类别合并能够降低模型复杂度,同时提高检测率;最后,模型输出模块13在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。本发明实施例公开的人脸检测模型生成装置,生成的人脸检测模型能够对不完整人脸进行检测,同时提高人脸检测效率和精度。
参见图7,图7是本发明实施例提供的一种人脸检测模型生成设备20的结构示意图。该实施例的人脸检测模型生成设备20包括:处理器21、存储器22以及存储在所述存储器22中并可在所述处理器21上运行的计算机程序。所述处理器21执行所述计算机程序时实现上述人脸检测模型生成方法实施例中的步骤,例如图1所示的步骤S1~S3。或者,所述处理器21执行所述计算机程序时实现上述各装置实施例中各模块/单元的功能,例如初始化参数模块11。
示例性的,所述计算机程序可以被分割成一个或多个模块/单元,所述一个或者多个模块/单元被存储在所述存储器22中,并由所述处理器21执行,以完成本发明。所述一个或多个模块/单元可以是能够完成特定功能的一系列计算机程序指令段,该指令段用于描述所述计算机程序在所述人脸检测模型生成设备20中的执行过程。例如,所述计算机程序可以被分割成初始化参数模块11、训练模块12和模型输出模块13,各模块具体功能请参考上述实施例所述的人脸检测模型生成装置10的具体工作过程,在此不再赘述。
所述人脸检测模型生成设备20可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述人脸检测模型生成设备20可包括,但不仅限于,处理器21、存储器22。本领域技术人员可以理解,所述示意图仅仅是人脸检测模型生成设备20的示例,并不构成对人脸检测模型生成设备20的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如所述人脸检测模型生成设备20还可以包括输入输出设备、网络接入设备、总线等。
所述处理器21可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器21也可以是任何常规的处理器等,所述处理器21是所述人脸检测模型生成设备20的控制中心,利用各种接口和线路连接整个人脸检测模型生成设备20的各个部分。
所述存储器22可用于存储所述计算机程序和/或模块,所述处理器21通过运行或执行存储在所述存储器22内的计算机程序和/或模块,以及调用存储在存储器22内的数据,实现所述人脸检测模型生成设备20的各种功能。所述存储器22可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器22可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
其中,所述人脸检测模型生成设备20集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器21执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-OnlyMemory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需说明的是,以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。另外,本发明提供的装置实施例附图中,模块之间的连接关系表示它们之间具有通信连接,具体可以实现为一条或多条通信总线或信号线。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也视为本发明的保护范围。

Claims (10)

1.一种人脸检测模型生成方法,其特征在于,适用于改进后的TinyDSOD网络模型,包括:
初始化所述改进后的TinyDSOD网络模型的参数;
将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像;
在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。
2.如权利要求1所述的人脸检测模型生成方法,其特征在于,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的Stem模块的三层卷积加池化结构替换为两路结构得到;其中,所述两路结构包括一路用于进行卷积运算和取反运算的结构以及一路用于进行池化运算的结构。
3.如权利要求1所述的人脸检测模型生成方法,其特征在于,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的DDB-b结构替换为DDB-b-plus结构得到;其中,所述DDB-b-plus结构包括一路用于不进行任何运算的结构和另外两路用于进行卷积运算的结构,所述另外两路用于进行卷积运算的结构中的其中一路配置有其对应的膨胀系数。
4.如权利要求1所述的人脸检测模型生成方法,其特征在于,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的upsample层之后的深度可分离卷积替换为3个并行的深度可分离卷积得到;其中,所述并行的深度可分离卷积中每一深度可分离卷积均配置有其对应的膨胀系数。
5.如权利要求1所述的人脸检测模型生成方法,其特征在于,所述改进后的TinyDSOD网络模型中的特征图为4个,每一所述特征图上的宽高比为1。
6.一种人脸检测模型生成装置,其特征在于,适用于改进后的TinyDSOD网络模型,包括:
初始化参数模块,用于初始化所述改进后的TinyDSOD网络模型的参数;
训练模块,用于将若干个不同用户的完整人脸图像和非完整人脸图像合并后作为训练集输入到所述改进后的TinyDSOD网络模型中,以对所述改进后的TinyDSOD网络模型进行训练;其中,所述非完整人脸图像为用户被遮挡物遮挡后的人脸图像;
模型输出模块,用于在训练完成后输出所述改进后的TinyDSOD网络模型作为人脸检测模型。
7.如权利要求6所述的人脸检测模型生成装置,其特征在于,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的Stem模块的三层卷积加池化结构替换为两路结构得到;其中,所述两路结构包括一路用于进行卷积运算和取反运算的结构以及一路用于进行池化运算的结构;
所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的DDB-b结构替换为DDB-b-plus结构;其中,所述DDB-b-plus结构包括一路用于不进行任何运算的结构和另外两路用于进行卷积运算的结构得到,所述另外两路用于进行卷积运算的结构中的其中一路配置有其对应的膨胀系数。
8.如权利要求6所述的人脸检测模型生成装置,其特征在于,所述改进后的TinyDSOD网络模型为通过将原始TinyDSOD网络模型的upsample层之后的深度可分离卷积替换为3个并行的深度可分离卷积得到;其中,所述并行的深度可分离卷积中每一深度可分离卷积均配置有其对应的膨胀系数;
所述改进后的TinyDSOD网络模型中的特征图为4个,每一所述特征图上的宽高比为1。
9.一种人脸检测模型生成设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至5中任意一项所述的人脸检测模型生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至5中任意一项所述的人脸检测模型生成方法。
CN202010315193.5A 2020-04-21 2020-04-21 人脸检测模型生成方法、装置、设备和存储介质 Active CN111652051B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010315193.5A CN111652051B (zh) 2020-04-21 2020-04-21 人脸检测模型生成方法、装置、设备和存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010315193.5A CN111652051B (zh) 2020-04-21 2020-04-21 人脸检测模型生成方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN111652051A true CN111652051A (zh) 2020-09-11
CN111652051B CN111652051B (zh) 2023-06-16

Family

ID=72346554

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010315193.5A Active CN111652051B (zh) 2020-04-21 2020-04-21 人脸检测模型生成方法、装置、设备和存储介质

Country Status (1)

Country Link
CN (1) CN111652051B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850210A (zh) * 2021-09-29 2021-12-28 支付宝(杭州)信息技术有限公司 一种人脸图像处理方法、装置及电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555339A (zh) * 2018-05-31 2019-12-10 北京嘀嘀无限科技发展有限公司 一种目标检测方法、系统、装置及存储介质
CN110781784A (zh) * 2019-10-18 2020-02-11 高新兴科技集团股份有限公司 基于双路注意力机制的人脸识别方法、装置及设备
CN110826519A (zh) * 2019-11-14 2020-02-21 深圳市华付信息技术有限公司 人脸遮挡检测方法、装置、计算机设备及存储介质
CN110909690A (zh) * 2019-11-26 2020-03-24 电子科技大学 一种基于区域生成的遮挡人脸图像检测方法
CN110991421A (zh) * 2019-12-24 2020-04-10 高新兴科技集团股份有限公司 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110555339A (zh) * 2018-05-31 2019-12-10 北京嘀嘀无限科技发展有限公司 一种目标检测方法、系统、装置及存储介质
CN110781784A (zh) * 2019-10-18 2020-02-11 高新兴科技集团股份有限公司 基于双路注意力机制的人脸识别方法、装置及设备
CN110826519A (zh) * 2019-11-14 2020-02-21 深圳市华付信息技术有限公司 人脸遮挡检测方法、装置、计算机设备及存储介质
CN110909690A (zh) * 2019-11-26 2020-03-24 电子科技大学 一种基于区域生成的遮挡人脸图像检测方法
CN110991421A (zh) * 2019-12-24 2020-04-10 高新兴科技集团股份有限公司 卡口抓拍图像车辆检测方法、计算机存储介质及电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113850210A (zh) * 2021-09-29 2021-12-28 支付宝(杭州)信息技术有限公司 一种人脸图像处理方法、装置及电子设备
CN113850210B (zh) * 2021-09-29 2024-05-17 支付宝(杭州)信息技术有限公司 一种人脸图像处理方法、装置及电子设备

Also Published As

Publication number Publication date
CN111652051B (zh) 2023-06-16

Similar Documents

Publication Publication Date Title
CN110084173B (zh) 人头检测方法及装置
CN109740534B (zh) 图像处理方法、装置及处理设备
CN110781784A (zh) 基于双路注意力机制的人脸识别方法、装置及设备
CN109543549B (zh) 用于多人姿态估计的图像数据处理方法及装置、移动端设备、服务器
CN108416327B (zh) 一种目标检测方法、装置、计算机设备及可读存储介质
CN111340077B (zh) 基于注意力机制的视差图获取方法和装置
CN109766925B (zh) 特征融合方法、装置、电子设备及存储介质
US11875599B2 (en) Method and device for detecting blurriness of human face in image and computer-readable storage medium
CN111860398A (zh) 遥感图像目标检测方法、系统及终端设备
US20210042501A1 (en) Method and device for processing point cloud data, electronic device and storage medium
Li et al. Findnet: Can you find me? boundary-and-texture enhancement network for camouflaged object detection
CN111967406A (zh) 人体关键点检测模型生成方法、系统、设备和存储介质
WO2021217919A1 (zh) 人脸动作单元识别方法、装置、电子设备及存储介质
JP2024508867A (ja) 画像クラスタリング方法、装置、コンピュータ機器及びコンピュータプログラム
CN115937596A (zh) 目标检测方法及其模型的训练方法、设备以及存储介质
CN116452631A (zh) 一种多目标跟踪方法、终端设备及存储介质
CN112488054B (zh) 一种人脸识别方法、装置、终端设备及存储介质
CN111652051A (zh) 人脸检测模型生成方法、装置、设备和存储介质
CN112749576B (zh) 图像识别方法和装置、计算设备以及计算机存储介质
CN116580063B (zh) 目标追踪方法、装置、电子设备及存储介质
CN116168439A (zh) 一种轻量级唇语识别方法及相关设备
CN114611674A (zh) 一种U-net模型的轻量化方法及装置
CN112989869B (zh) 人脸质量检测模型的优化方法、装置、设备及存储介质
CN114418064A (zh) 一种目标检测方法、终端设备及存储介质
CN110210329A (zh) 一种人脸检测方法、装置和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant