CN113705690B - 正脸定位方法、装置、电子设备及计算机可读存储介质 - Google Patents
正脸定位方法、装置、电子设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN113705690B CN113705690B CN202111006905.6A CN202111006905A CN113705690B CN 113705690 B CN113705690 B CN 113705690B CN 202111006905 A CN202111006905 A CN 202111006905A CN 113705690 B CN113705690 B CN 113705690B
- Authority
- CN
- China
- Prior art keywords
- front face
- face
- map
- positioning
- loss
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 143
- 238000013528 artificial neural network Methods 0.000 claims abstract description 79
- 238000012545 processing Methods 0.000 claims abstract description 32
- 238000010586 diagram Methods 0.000 claims description 38
- 230000006870 function Effects 0.000 claims description 33
- 238000001514 detection method Methods 0.000 claims description 16
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 10
- 238000010276 construction Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 15
- 238000013473 artificial intelligence Methods 0.000 abstract description 9
- 230000000694 effects Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000007726 management method Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 238000012805 post-processing Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000001629 suppression Effects 0.000 description 4
- 230000001965 increasing effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002708 enhancing effect Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种正脸定位方法,包括:对原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集,基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络,利用正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据正脸预测置信度图及正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,利用正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。此外,本发明还涉及区块链技术,所述正脸定位坐标可存储在区块链的节点中。本发明还提出一种正脸定位方法装置、电子设备以及计算机可读存储介质。本发明可以解决正脸定位准确率较低的问题。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种正脸定位方法、装置、电子设备及计算机可读存储介质。
背景技术
随着人工智能的发展,人脸识别在各领域逐渐发挥着越来越重要的作用,其中,正脸识别是人脸检测中十分重要的流量数据,准确地正脸定位在人脸识别、分类中至关重要。例如,银行领域,通过口袋app前端对正脸进行定位及采集。
然而现有技术下,正脸定位存在以下弊端:1、传统机器学习方法Adaboost的正脸,基于积分图、级联检测器和Adaboost算法,自动从多个弱分类器级联成强分类器,此类方法容易受到复杂环境影响,导致定位结果不稳定,鲁棒性不好,定位准确率不高。2、基于深度学习方法的正脸定位,如二阶段的faster RCNN,一阶段的SSD等方法,此类方法存在的不足之处是需要借助繁多的锚点定位进行后续处理,增加了后续处理时间,定位效率不高。
发明内容
本发明提供一种正脸定位方法、装置、设备及存储介质,其主要目的在于解决正脸定位准确率较低的问题。
为实现上述目的,本发明提供的一种正脸定位方法,包括:
获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
可选地,所述对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集,包括:
依次对所述原始正脸训练集中的图像进行随机裁剪及拼接,得到拼接图像;
对所述拼接图像进行随机图像抖动,得到增强图像,汇总所有的增强图像得到所述标准正脸训练集。
可选地,所述基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络,包括:
选择MobileNetV2神经网络作为第一轻量神经网络,并去除所述MobileNetV2神经网络的最后三层,并将去除后的MobileNetV2神经网络作为主干网络;
选择UNet神经网络作为所述第二神经网络,并将所述UNet神经网络作为检测网络添加至所述主干网络之后,得到拼接网络;
在所述拼接网络后设置特征金字塔网络,得到所述正脸定位网络。
可选地,所述利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,包括:
根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图;
利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框;
根据所述预测框生成图像的正脸预测置信度图及正脸预测尺寸图;
根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失;
利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失;
当所述串联损失大于预设的损失阈值时,返回所述利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框的步骤,重复迭代训练,直至迭代次数满足预设的迭代阈值或所述正脸定位网络收敛时,停止训练,得到所述正脸定位模型。
可选地,所述根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图,包括:
计算所述标准正脸训练集中图像预先标注的真实框的中心点位置,利用预设的置信度调整规则调整所述真实框中中心点位置的置信度及非中心点位置的置信度,得到所述正脸真实置信度图;
利用预设的位置映射公式对所述真实框进行位置映射,得到所述正脸真实尺寸图。
可选地,所述根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失,包括:
利用下述第一损失函数计算根据所述正脸预测置信度图及所述正脸真实置信度图的置信度损失:
利用下述第二损失函数计算所述正脸真实尺寸图及所述正脸预测尺寸图中的宽度损失值及高度损失值:
其中,α和β是损失函数的超参数,YX,y表示正脸真实置信度图上坐标(x,y)的真实值,表示预测置信度图坐标(x,y)对应的预测值,LW为宽度损失值,Lh为高度损失值,wk为真实宽度,/>为预测宽度,hk为真实高度,/>为预测高度,N为标准正脸训练集中的图像总数。
可选地,所述利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标,包括:
利用所述正脸定位模型输出所述待检测正脸图像的正脸置信度图及正脸尺寸图;
从所述正脸置信度图中选取大于预设置信阈值的点为正脸中心点坐标;
从所述正脸尺寸图中计算所述正脸中心点坐标对应位置的正脸定位坐标。
为了解决上述问题,本发明还提供一种正脸定位方法装置,所述装置包括:
正脸训练集构建模块,用于获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
正脸定位网络构建模块,用于基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
串联损失训练模块,用于利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
正脸定位模块,用于利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述所述的正脸定位方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质中存储有至少一个计算机程序,所述至少一个计算机程序被电子设备中的处理器执行以实现上述所述的正脸定位方法。
本发明通过对原始正脸训练集中的图像进行图像增强处理,可以得到更加多样的正脸图像,从而提高了模型训练的效率及鲁棒性。并且利用轻量化神经网络构建正脸定位网络,避免了繁琐的锚点定位,降低了处理时间,模型识别效率更高。同时,利用标准正脸训练集对正脸定位网络进行串联损失训练,得到正脸定位模型,由于训练的正脸定位模型串联了多种损失得到,正脸定位准确率更高。因此本发明提出的正脸定位方法、装置、电子设备及计算机可读存储介质,可以解决正脸定位准确率较低的问题。
附图说明
图1为本发明一实施例提供的正脸定位方法的流程示意图;
图2为本发明一实施例提供的正脸定位装置的功能模块图;
图3为本发明一实施例提供的实现所述正脸定位方法的电子设备的结构示意图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种正脸定位方法。所述正脸定位方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述正脸定位方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。所述服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(ContentDelivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器。
参照图1所示,为本发明一实施例提供的正脸定位方法的流程示意图。在本实施例中,所述正脸定位方法包括:
S1、获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
本发明实施例中,所述原始正脸训练集可以为从开源的CASIA-Webface人脸数据集等数据集中选取的正脸图像。
具体地,所述对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集,包括:
依次对所述原始正脸训练集中的图像进行随机裁剪及拼接,得到拼接图像;
对所述拼接图像进行随机图像抖动,得到增强图像,汇总所有的增强图像得到所述标准正脸训练集。
其中,所述随机裁剪是从一张图像上随机裁剪出若干张图像(例如通过python技术进行裁剪);所述随机图像抖动包括随机颜色抖动、随机亮度抖动、随机饱和度抖动、随机对比度抖动等,其中,所述随机颜色抖动是对构成图像的色相产生位移,造成临近点状差异的色彩交叉效果;所述随机亮度抖动是在图像上造成亮度明暗交叉的效果;所述随机饱和度抖动是在图像上产生饱和度差异状的交叉效果;所述随机对比度抖动是对图像的对比度产生对比度差异状的交叉效果。
由于神经网络的参数众多,若训练数据不够丰富,往往会使得神经网络出现过拟合,严重影响了模型训练效率,通过随机裁剪及拼接、随机图像抖动处理可以对图像进行数据增强,提高了图像的多样性,也提高了模型训练效率。
S2、基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
所述第一轻量神经网络具有体积小,计算量少的特点。本发明实施例中,所述第一轻量神经网络可以为MobileNetV2神经网络。所述MobileNetV2神经网络引入了线性瓶颈模块(Linear Bottleneck Block)和倒残差(Inverted Residual)来提高网络的表征能力。由于深度卷积神经网络的层是具有非线性激活函数的,例如ReLU激活函数,因此可能会滤除很多有用信息,使用所述线性瓶颈模块来避免丢失过多的有用信息。同时,所述倒残差先经过1x1的逐点卷积操作将特征图的通道进行扩张,丰富特征数量,进而提高精度。
可选的,所述第二神经网络可以为UNet神经网络,所述UNet神经网络是一种典型的编码器-解码器结构,左边卷积网络部分负责完成特征提取,特征图的尺寸不断减小,而右边对应的是上采样过程,通过与不同卷积层的信息进行跳层链接(concat方式),恢复到和原图接近的大小。
具体地,所述基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络,包括:
选择MobileNetV2神经网络作为第一轻量神经网络,并去除所述MobileNetV2神经网络的最后三层,并将去除后的MobileNetV2神经网络作为主干网络;
选择UNet神经网络作为所述第二神经网络,并将所述UNet神经网络作为检测网络添加至所述主干网络之后,得到拼接网络;
在所述拼接网络后设置特征金字塔网络,得到所述正脸定位网络。
本发明实施例中,所述特征金字塔网络(Feature Pyramid Networks,FPN)是根据特征金字塔概念设计的特征提取器,主要用来解决的是物体检测中的多尺度问题,通过简单的多层网络连接,每层网络用来关注并提取不同层次的特征,从而得到特征金字塔,可以在基本不增加原有模型计算量情况下,大幅度提升了小物体检测的性能。其中,将MobileNetV2为主干网络(Backbone),用来提取图像特征,采用UNet的结构作为检测网络(Neck),用来对图像特征进行加强,利用三层结构的特征金字塔网络提取到更精确的特征并进行特征定位。
本发明实施例中,利用轻量化神经网络构建正脸定位网络,避免了繁琐的锚点的和非极大值抑制(NMS)后处理时间,快速高效,召回率高,误检率低。
S3、利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
具体地,所述利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,包括:
根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图;
利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框;
根据所述预测框生成图像的正脸预测置信度图及正脸预测尺寸图;
根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失;
利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失;
当所述串联损失大于预设的损失阈值时,返回所述利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框的步骤,重复迭代训练,直至迭代次数满足预设的迭代阈值或所述正脸定位网络收敛时,停止训练,得到所述正脸定位模型。
本发明一可选实施例中,可以使用最小损失分配策略进行模型训练,即对于每一个正脸的真实框,对于所有输出的预测框,将串联损失最小的预测框选为正样本,其他的都是负样本,并利用正样本及负样本迭代训练预设次数,如80次至学习率降低至预设学习率(比如5e-5),继续重复迭代预设次数,如80次直至正脸定位网络的参数收敛,得到所述正脸定位模型。
详细地,所述根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图,包括:
计算所述标准正脸训练集中图像预先标注的真实框的中心点位置,利用预设的置信度调整规则调整所述真实框中中心点位置的置信度及非中心点位置的置信度,得到所述正脸真实置信度图;
利用预设的位置映射公式对所述真实框进行位置映射,得到所述正脸真实尺寸图。
本发明实施例中,以真实框的左上点坐标[x1,y1]及右下点坐标[x2,y2]为例,中心点位置为c=[(x1+x2)/2,(y1+y2)/2],所述预设的置信度调整规则可以为使正脸真实框的中心点的置信度为1,其他位置为0。
可选的,所述预设的位置映射公式可以为:
其中,w表示正脸框宽的log值,h表示头部高的log值,R为输出步长,R=4。
本发明一可选实施例中,预测框的正脸预测置信度图及正脸预测尺寸图与真实框类似,在此不再赘述。
进一步地,所述根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失,包括:
利用下述第一损失函数计算根据所述正脸预测置信度图及所述正脸真实置信度图的置信度损失:
利用下述第二损失函数计算所述正脸真实尺寸图及所述正脸预测尺寸图中的宽度损失值及高度损失值:
其中,α和β是损失函数的超参数,Yx,y表示正脸真实置信度图上坐标(x,y)的真实值,表示预测置信度图坐标(x,y)对应的预测值,LW为宽度损失值,Lh为高度损失值,wk为真实宽度,/>为预测宽度,hk为真实高度,/>为预测高度,N为标准正脸训练集中的图像总数。
本发明实施例中,所述利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失,包括:
利用下述串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失:
L=Lc+λWLW+λhLh
其中,λW,λh为预设权重,L为串联损失。
S4、利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
具体地,所述利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标,包括:
利用所述正脸定位模型输出所述待检测正脸图像的正脸置信度图及正脸尺寸图;
从所述正脸置信度图中选取大于预设置信阈值的点为正脸中心点坐标;
从所述正脸尺寸图中计算所述正脸中心点坐标对应位置的正脸定位坐标。
本发明一可选实施例中,将待检测的正脸图像输入到训练好的正脸定位模型中进行正脸定位,输出正脸置信度图、正脸尺寸图,将所述正脸置信度图中大于预设阈值0.9的点(c,r)处认为是正脸,并取出top k个框(k可根据应用场景取值,比如100),坐标(c,r)即为正脸中心点坐标,从正脸尺寸图对应位置获取正脸宽度w和高度h,则正脸框左上角点坐标计算为:x1=eR*c-w/2,y1=eR*r-/2,正脸框右下角坐标为:x2=eR*c+w/2,y2=eR*r+/2,其中R为步长,值为4。
本发明实施例中,通过图像增强处理得到的人脸图像含有更多的特征,同时采用轻量级神经网络构建正脸定位网络,采用标准训练集训练所述正脸定位网络,避免了繁琐的锚点的和非极大值抑制(NMS)后处理时间,快速高效,召回率高,误检率低。
本发明通过对原始正脸训练集中的图像进行图像增强处理,可以得到更加多样的正脸图像,从而提高了模型训练的效率及鲁棒性。并且利用轻量化神经网络构建正脸定位网络,避免了繁琐的锚点定位,降低了处理时间,模型识别效率更高。同时,利用标准正脸训练集对正脸定位网络进行串联损失训练,得到正脸定位模型,由于训练的正脸定位模型串联了多种损失得到,正脸定位准确率更高。因此本发明提出的正脸定位方法,可以解决正脸定位准确率较低的问题。
如图2所示,是本发明一实施例提供的正脸定位装置的功能模块图。
本发明所述正脸定位装置100可以安装于电子设备中。根据实现的功能,所述正脸定位装置100可以包括正脸训练集构建模块101、正脸定位网络构建模块102、串联损失训练模块103及正脸定位模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
在本实施例中,关于各模块/单元的功能如下:
所述正脸训练集构建模块101,用于获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
所述正脸定位网络构建模块102,用于基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
所述串联损失训练模块103,用于利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
所述正脸定位模块104,用于利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
详细地,所述正脸定位装置100各模块的具体实施方式如下:
步骤一、获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
本发明实施例中,所述原始正脸训练集可以为从开源的CASIA-Webface人脸数据集等数据集中选取的正脸图像。
具体地,所述对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集,包括:
依次对所述原始正脸训练集中的图像进行随机裁剪及拼接,得到拼接图像;
对所述拼接图像进行随机图像抖动,得到增强图像,汇总所有的增强图像得到所述标准正脸训练集。
其中,所述随机裁剪是从一张图像上随机裁剪出若干张图像(例如通过python技术进行裁剪);所述随机图像抖动包括随机颜色抖动、随机亮度抖动、随机饱和度抖动、随机对比度抖动等,其中,所述随机颜色抖动是对构成图像的色相产生位移,造成临近点状差异的色彩交叉效果;所述随机亮度抖动是在图像上造成亮度明暗交叉的效果;所述随机饱和度抖动是在图像上产生饱和度差异状的交叉效果;所述随机对比度抖动是对图像的对比度产生对比度差异状的交叉效果。
由于神经网络的参数众多,若训练数据不够丰富,往往会使得神经网络出现过拟合,严重影响了模型训练效率,通过随机裁剪及拼接、随机图像抖动处理可以对图像进行数据增强,提高了图像的多样性,也提高了模型训练效率。
步骤二、基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
所述第一轻量神经网络具有体积小,计算量少的特点。本发明实施例中,所述第一轻量神经网络可以为MobileNetV2神经网络。所述MobileNetV2神经网络引入了线性瓶颈模块(Linear Bottleneck Block)和倒残差(Inverted Residual)来提高网络的表征能力。由于深度卷积神经网络的层是具有非线性激活函数的,例如ReLU激活函数,因此可能会滤除很多有用信息,使用所述线性瓶颈模块来避免丢失过多的有用信息。同时,所述倒残差先经过1x1的逐点卷积操作将特征图的通道进行扩张,丰富特征数量,进而提高精度。
可选的,所述第二神经网络可以为UNet神经网络,所述UNet神经网络是一种典型的编码器-解码器结构,左边卷积网络部分负责完成特征提取,特征图的尺寸不断减小,而右边对应的是上采样过程,通过与不同卷积层的信息进行跳层链接(concat方式),恢复到和原图接近的大小。
具体地,所述基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络,包括:
选择MobileNetV2神经网络作为第一轻量神经网络,并去除所述MobileNetV2神经网络的最后三层,并将去除后的MobileNetV2神经网络作为主干网络;
选择UNet神经网络作为所述第二神经网络,并将所述UNet神经网络作为检测网络添加至所述主干网络之后,得到拼接网络;
在所述拼接网络后设置特征金字塔网络,得到所述正脸定位网络。
本发明实施例中,所述特征金字塔网络(Feature Pyramid Networks,FPN)是根据特征金字塔概念设计的特征提取器,主要用来解决的是物体检测中的多尺度问题,通过简单的多层网络连接,每层网络用来关注并提取不同层次的特征,从而得到特征金字塔,可以在基本不增加原有模型计算量情况下,大幅度提升了小物体检测的性能。其中,将MobileNetV2为主干网络(Backbone),用来提取图像特征,采用UNet的结构作为检测网络(Neck),用来对图像特征进行加强,利用三层结构的特征金字塔网络提取到更精确的特征并进行特征定位。
本发明实施例中,利用轻量化神经网络构建正脸定位网络,避免了繁琐的锚点的和非极大值抑制(NMS)后处理时间,快速高效,召回率高,误检率低。
步骤三、利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
具体地,所述利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,包括:
根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图;
利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框;
根据所述预测框生成图像的正脸预测置信度图及正脸预测尺寸图;
根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失;
利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失;
当所述串联损失大于预设的损失阈值时,返回所述利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框的步骤,重复迭代训练,直至迭代次数满足预设的迭代阈值或所述正脸定位网络收敛时,停止训练,得到所述正脸定位模型。
本发明一可选实施例中,可以使用最小损失分配策略进行模型训练,即对于每一个正脸的真实框,对于所有输出的预测框,将串联损失最小的预测框选为正样本,其他的都是负样本,并利用正样本及负样本迭代训练预设次数,如80次至学习率降低至预设学习率(比如5e-5),继续重复迭代预设次数,如80次直至正脸定位网络的参数收敛,得到所述正脸定位模型。
详细地,所述根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图,包括:
计算所述标准正脸训练集中图像预先标注的真实框的中心点位置,利用预设的置信度调整规则调整所述真实框中中心点位置的置信度及非中心点位置的置信度,得到所述正脸真实置信度图;
利用预设的位置映射公式对所述真实框进行位置映射,得到所述正脸真实尺寸图。
本发明实施例中,以真实框的左上点坐标[x1,y1]及右下点坐标[x2,y2]为例,中心点位置为c=[(x1+x2)/2,(y1+y2)/2],所述预设的置信度调整规则可以为使正脸真实框的中心点的置信度为1,其他位置为0。
可选的,所述预设的位置映射公式可以为:
其中,w表示正脸框宽的log值,h表示头部高的log值,R为输出步长,R=4。
本发明一可选实施例中,预测框的正脸预测置信度图及正脸预测尺寸图与真实框类似,在此不再赘述。
进一步地,所述根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失,包括:
利用下述第一损失函数计算根据所述正脸预测置信度图及所述正脸真实置信度图的置信度损失:
利用下述第二损失函数计算所述正脸真实尺寸图及所述正脸预测尺寸图中的宽度损失值及高度损失值:
其中,α和β是损失函数的超参数,Yx,y表示正脸真实置信度图上坐标(x,y)的真实值,表示预测置信度图坐标(x,y)对应的预测值,LW为宽度损失值,Lh为高度损失值,wk为真实宽度,/>为预测宽度,hk为真实高度,/>为预测高度,N为标准正脸训练集中的图像总数。
本发明实施例中,所述利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失,包括:
利用下述串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失:
L=Lc+λwLw+λhLh
其中,λw,λh为预设权重,L为串联损失。
步骤四、利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
具体地,所述利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标,包括:
利用所述正脸定位模型输出所述待检测正脸图像的正脸置信度图及正脸尺寸图;
从所述正脸置信度图中选取大于预设置信阈值的点为正脸中心点坐标;
从所述正脸尺寸图中计算所述正脸中心点坐标对应位置的正脸定位坐标。
本发明一可选实施例中,将待检测的正脸图像输入到训练好的正脸定位模型中进行正脸定位,输出正脸置信度图、正脸尺寸图,将所述正脸置信度图中大于预设阈值0.9的点(c,r)处认为是正脸,并取出top k个框(k可根据应用场景取值,比如100),坐标(c,r)即为正脸中心点坐标,从正脸尺寸图对应位置获取正脸宽度w和高度h,则正脸框左上角点坐标计算为:x1=eR*c-w/2,y1=eR*r-/2,正脸框右下角坐标为:x2=eR*c+w/2,y2=eR*r+/2,其中R为步长,值为4。
本发明实施例中,通过图像增强处理得到的人脸图像含有更多的特征,同时采用轻量级神经网络构建正脸定位网络,采用标准训练集训练所述正脸定位网络,避免了繁琐的锚点的和非极大值抑制(NMS)后处理时间,快速高效,召回率高,误检率低。
本发明通过对原始正脸训练集中的图像进行图像增强处理,可以得到更加多样的正脸图像,从而提高了模型训练的效率及鲁棒性。并且利用轻量化神经网络构建正脸定位网络,避免了繁琐的锚点定位,降低了处理时间,模型识别效率更高。同时,利用标准正脸训练集对正脸定位网络进行串联损失训练,得到正脸定位模型,由于训练的正脸定位模型串联了多种损失得到,正脸定位准确率更高。因此本发明提出的正脸定位装置,可以解决正脸定位准确率较低的问题。
如图3所示,是本发明一实施例提供的实现正脸定位方法的电子设备的结构示意图。
所述电子设备可以包括处理器10、存储器11、通信接口12和总线13,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如正脸定位程序。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备的内部存储单元,例如该电子设备的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备的外部存储设备,例如电子设备上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备的应用软件及各类数据,例如正脸定位程序的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如正脸定位程序等),以及调用存储在所述存储器11内的数据,以执行电子设备的各种功能和处理数据。
所述通信接口12用于上述电子设备与其他设备之间的通信,包括网络接口和用户接口。可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。所述用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
所述总线13可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线13可以分为地址总线、数据总线、控制总线等。所述总线13被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图3仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图3示出的结构并不构成对所述电子设备的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备与其他电子设备之间建立通信连接。
可选地,该电子设备还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-EmittingDiode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备中的所述存储器11存储的正脸定位程序是多个指令的组合,在所述处理器10中运行时,可以实现:
获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
具体地,所述处理器10对上述指令的具体实现方法可参考附图对应实施例中相关步骤的描述,在此不赘述。
进一步地,所述电子设备集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型;
利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图标记视为限制所涉及的权利要求。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种正脸定位方法,其特征在于,所述方法包括:
获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,包括:根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图;利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框;根据所述预测框生成图像的正脸预测置信度图及正脸预测尺寸图;根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失;利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失,直至迭代次数满足预设的迭代阈值或所述串联损失小于或等于预设的损失阈值、所述正脸定位网络收敛时,停止训练,得到所述正脸定位模型;
利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
2.如权利要求1所述的正脸定位方法,其特征在于,所述对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集,包括:
依次对所述原始正脸训练集中的图像进行随机裁剪及拼接,得到拼接图像;
对所述拼接图像进行随机图像抖动,得到增强图像,汇总所有的增强图像得到所述标准正脸训练集。
3.如权利要求1中所述的正脸定位方法,其特征在于,所述基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络,包括:
选择MobileNetV2神经网络作为第一轻量神经网络,并去除所述MobileNetV2神经网络的最后三层,并将去除后的MobileNetV2神经网络作为主干网络;
选择UNet神经网络作为所述第二神经网络,并将所述UNet神经网络作为检测网络添加至所述主干网络之后,得到拼接网络;
在所述拼接网络后设置特征金字塔网络,得到所述正脸定位网络。
4.如权利要求1所述的正脸定位方法,其特征在于,所述利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,还包括:
当所述串联损失大于预设的损失阈值时,返回所述利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框的步骤,重复迭代训练。
5.如权利要求4所述的正脸定位方法,其特征在于,所述根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图,包括:
计算所述标准正脸训练集中图像预先标注的真实框的中心点位置,利用预设的置信度调整规则调整所述真实框中中心点位置的置信度及非中心点位置的置信度,得到所述正脸真实置信度图;
利用预设的位置映射公式对所述真实框进行位置映射,得到所述正脸真实尺寸图。
6.如权利要求4所述的正脸定位方法,其特征在于,所述根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失,包括:
利用下述第一损失函数计算根据所述正脸预测置信度图及所述正脸真实置信度图的置信度损失:
利用下述第二损失函数计算所述正脸真实尺寸图及所述正脸预测尺寸图中的宽度损失值及高度损失值:
其中,α和β是损失函数的超参数,Yx,y表示正脸真实置信度图上坐标(x,y)的真实值,表示预测置信度图坐标(x,y)对应的预测值,Lw为宽度损失值,Lh为高度损失值,wk为真实宽度,/>为预测宽度,hk为真实高度,/>为预测高度,N为标准正脸训练集中的图像总数。
7.如权利要求1所述的正脸定位方法,其特征在于,所述利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标,包括:
利用所述正脸定位模型输出所述待检测正脸图像的正脸置信度图及正脸尺寸图;
从所述正脸置信度图中选取大于预设置信阈值的点为正脸中心点坐标;
从所述正脸尺寸图中计算所述正脸中心点坐标对应位置的正脸定位坐标。
8.一种正脸定位装置,其特征在于,所述装置包括:
正脸训练集构建模块,用于获取原始正脸训练集,对所述原始正脸训练集中的图像进行图像增强处理,得到标准正脸训练集;
正脸定位网络构建模块,用于基于预设的第一轻量神经网络及第二神经网络构造正脸定位网络;
串联损失训练模块,用于利用所述正脸定位网络生成所述标准正脸训练集中图像的正脸预测置信度图及正脸预测尺寸图,根据所述正脸预测置信度图及所述正脸预测尺寸图对所述正脸定位网络进行串联损失训练,得到正脸定位模型,包括:根据所述标准正脸训练集中预先标注的真实框生成正脸真实置信度图及正脸真实尺寸图;利用所述正脸定位网络输出所述标准训练集中图像的正脸的预测框;根据所述预测框生成图像的正脸预测置信度图及正脸预测尺寸图;根据所述正脸预测置信度图及所述正脸真实置信度图计算置信度损失,以及根据所述正脸真实尺寸图及所述正脸预测尺寸图计算宽度损失及高度损失;利用预设的串联损失函数计算所述置信度损失、所述宽度损失及所述高度损失的串联损失,直至迭代次数满足预设的迭代阈值或所述串联损失小于或等于预设的损失阈值所述正脸定位网络收敛时,停止训练,得到所述正脸定位模型;
正脸定位模块,用于利用所述正脸定位模型对待检测正脸图像进行正脸定位,并输出正脸定位坐标。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任意一项所述的正脸定位方法。
10.一种计算机可读存储介质,存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至7中任意一项所述的正脸定位方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111006905.6A CN113705690B (zh) | 2021-08-30 | 2021-08-30 | 正脸定位方法、装置、电子设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111006905.6A CN113705690B (zh) | 2021-08-30 | 2021-08-30 | 正脸定位方法、装置、电子设备及计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113705690A CN113705690A (zh) | 2021-11-26 |
CN113705690B true CN113705690B (zh) | 2024-02-27 |
Family
ID=78657026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111006905.6A Active CN113705690B (zh) | 2021-08-30 | 2021-08-30 | 正脸定位方法、装置、电子设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113705690B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN111160108A (zh) * | 2019-12-06 | 2020-05-15 | 华侨大学 | 一种无锚点的人脸检测方法及系统 |
-
2021
- 2021-08-30 CN CN202111006905.6A patent/CN113705690B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019128646A1 (zh) * | 2017-12-28 | 2019-07-04 | 深圳励飞科技有限公司 | 人脸检测方法、卷积神经网络参数的训练方法、装置及介质 |
CN111160108A (zh) * | 2019-12-06 | 2020-05-15 | 华侨大学 | 一种无锚点的人脸检测方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN113705690A (zh) | 2021-11-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109558832B (zh) | 一种人体姿态检测方法、装置、设备及存储介质 | |
CN107862270B (zh) | 人脸分类器训练方法、人脸检测方法及装置、电子设备 | |
CN113033537B (zh) | 用于训练模型的方法、装置、设备、介质和程序产品 | |
CN113642431A (zh) | 目标检测模型的训练方法及装置、电子设备和存储介质 | |
CN113705460B (zh) | 图像中人脸睁眼闭眼检测方法、装置、设备及存储介质 | |
CN113901909B (zh) | 基于视频的目标检测方法、装置、电子设备和存储介质 | |
CN115690615B (zh) | 一种面向视频流的深度学习目标识别方法及系统 | |
CN111339072B (zh) | 基于用户行为的变化值分析方法、装置、电子设备及介质 | |
CN116778527A (zh) | 人体模型构建方法、装置、设备及存储介质 | |
CN115471775A (zh) | 基于录屏视频的信息验证方法、装置、设备及存储介质 | |
CN112528903B (zh) | 人脸图像获取方法、装置、电子设备及介质 | |
CN113705690B (zh) | 正脸定位方法、装置、电子设备及计算机可读存储介质 | |
CN115409041B (zh) | 一种非结构化数据提取方法、装置、设备及存储介质 | |
CN116468025A (zh) | 电子病历结构化方法、装置、电子设备及存储介质 | |
CN113792801B (zh) | 人脸炫光程度的检测方法、装置、设备及存储介质 | |
CN113111804B (zh) | 一种人脸检测的方法、装置、电子设备及存储介质 | |
CN113344121B (zh) | 训练招牌分类模型和招牌分类的方法 | |
CN115114992A (zh) | 分类模型训练的方法、装置、设备及存储介质 | |
CN112541436B (zh) | 专注度分析方法、装置、电子设备及计算机存储介质 | |
CN114049676A (zh) | 疲劳状态检测方法、装置、设备及存储介质 | |
CN111539420B (zh) | 基于注意力感知特征的全景图像显著性预测方法及系统 | |
CN114049518A (zh) | 图像分类方法、装置、电子设备和存储介质 | |
CN113705461B (zh) | 人脸清晰度检测方法、装置、设备及存储介质 | |
CN113723554B (zh) | 模型调度方法、装置、电子设备及计算机可读存储介质 | |
CN114495290B (zh) | 活体检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |