CN108121952B - 人脸关键点定位方法、装置、设备及存储介质 - Google Patents

人脸关键点定位方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN108121952B
CN108121952B CN201711320465.5A CN201711320465A CN108121952B CN 108121952 B CN108121952 B CN 108121952B CN 201711320465 A CN201711320465 A CN 201711320465A CN 108121952 B CN108121952 B CN 108121952B
Authority
CN
China
Prior art keywords
face
image
model
original image
key point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201711320465.5A
Other languages
English (en)
Other versions
CN108121952A (zh
Inventor
陈志军
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201711320465.5A priority Critical patent/CN108121952B/zh
Publication of CN108121952A publication Critical patent/CN108121952A/zh
Application granted granted Critical
Publication of CN108121952B publication Critical patent/CN108121952B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification

Abstract

本公开提供一种人脸关键点定位方法、装置、设备及存储介质,所述方法包括:从原始图像中获取人脸图像;利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。本公开实施例由于置信度可以体现出人脸关键点的预测位置为实际位置的可信程度,因此,可以基于人脸关键点的预测位置集合以及每个预测位置对应的置信度,确定人脸关键点在原始图像中的预测位置,从而提高人脸关键点定位的准确性。

Description

人脸关键点定位方法、装置、设备及存储介质
技术领域
本申请涉及图像处理技术领域,尤其涉及人脸关键点定位方法、装置、设备及存储介质。
背景技术
人脸作为人体的一个重要生物特征,在图像处理、视觉技术、信息安全等领域有着越来越重要的作用。而人脸关键点(又称为人脸特征点)定位技术是人脸识别、人脸跟踪等应用的基础。人脸关键点可以是人脸器官,例如,人脸关键点可以是眼睛、鼻子、嘴巴等人脸器官。人脸关键点定位可以是从人脸图像中定位出人脸关键点的位置,是一种常见的对人脸图像的处理方式。
目前,往往从待识别图像中提取出人脸图像,再将提取的人脸图像输入基于卷积神经网络(Convolutional Neural Network,CNN)训练获得的定位模型,从而获得关键点在人脸图像中的位置。然而,因为人脸的多样性,在提取人脸图像时容易出现偏差,从而导致关键点定位不准确。
发明内容
为克服相关技术中存在的问题,本公开提供了人脸关键点定位方法、装置、设备及存储介质。
根据本公开实施例的第一方面,提供一种人脸关键点定位方法,所述方法包括:
从原始图像中获取人脸图像;
利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
在一个可选的实现方式中,所述人脸图像对应在原始图像中的区域大于人脸检测区域,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得。
在一个可选的实现方式中,所述目标定位模型基于将初始定位模型转换成全卷积神经网络模型获得,所述初始定位模型是用于预测人脸关键点的位置以及置信度的卷积神经网络模型,所述置信度用于表示人脸关键点的预测位置为实际位置的可信程度。
在一个可选的实现方式中,所述方法还包括:
基于预构建的训练样本集对卷积神经网络进行训练,获得用于预测人脸关键点的位置以及置信度的初始定位模型,所述训练样本集包括带标签的样本图像,所述标签用于表示该样本图像中人脸关键点的实际位置;
将所述初始定位模型转换成全卷积神经网络的目标定位模型。
在一个可选的实现方式中,所述从原始图像中获取人脸图像,包括:
从原始图像中提取大于人脸检测区域的原始人脸图像,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得;
将所述原始人脸图像进行缩放,以使缩放获得的人脸图像的尺寸大于所述初始定位模型的输入图像的尺寸。
在一个可选的实现方式中,所述从原始图像中提取大于人脸检测区域的原始人脸图像,包括:
利用人脸检测模型检测出原始图像中的人脸检测区域;
以所述人脸检测区域为中心,将所述人脸检测区域按预设比例进行扩大;
从所述原始图像中提取扩大后的人脸检测区域对应的图像,获得原始人脸图像。
在一个可选的实现方式中,所述基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置,包括:
基于预测位置对应的置信度,对所述预测位置集合中的预测位置进行筛选,获得人脸关键点的可信位置集合;
基于所述可信位置集合确定人脸关键点在所述人脸图像中的位置;
根据所述人脸图像与所述原始图像的关系、以及人脸关键点在所述人脸图像中的位置,确定人脸关键点在所述原始图像中的位置。
在一个可选的实现方式中,所述基于所述可信位置集合确定人脸关键点在所述人脸图像中的位置,包括:
将所述可信位置集合中的预测位置与预测位置对应的权重值进行加权平均,获得人脸关键点在所述人脸图像中的位置,所述预测位置对应的权重值基于所述预测位置对应的置信度确定;
或,对所述可信位置集合中的预测位置进行求平均值运算,获得人脸关键点在所述人脸图像中的位置。
根据本公开实施例的第二方面,提供一种人脸关键点定位装置,所述装置包括:
图像获取模块,被配置为从原始图像中获取人脸图像;
数据确定模块,被配置为利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
位置确定模块,被配置为基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
根据本公开实施例的第三方面,提供一种电子设备,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
从原始图像中获取人脸图像;
利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
根据本公开实施例的第四方面,提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述方法的步骤。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例可以从原始图像中获取人脸图像,利用全卷积神经网络的目标定位模型对人脸图像进行人脸关键点检测,可以获得人脸关键点的预测位置集合以及每个预测位置对应的置信度;由于置信度可以体现出人脸关键点的预测位置为实际位置的可信程度,因此,可以基于人脸关键点的预测位置集合以及每个预测位置对应的置信度,确定人脸关键点在原始图像中的预测位置,从而提高人脸关键点定位的准确性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开根据一示例性实施例示出的一种人脸关键点定位方法的流程图。
图2A是本公开根据一示例性实施例示出的一种目标定位模型确定方法的流程图。
图2B是本公开根据一示例性实施例示出的一种初始定位模型结构示意图。
图3是本公开根据一示例性实施例示出的一种人脸图像获取方法的流程图。
图4是本公开根据一示例性实施例示出的另一种人脸关键点定位方法的流程图。
图5是本公开根据一示例性实施例示出的一种人脸关键点定位装置的框图。
图6是本公开根据一示例性实施例示出的另一种人脸关键点定位装置的框图。
图7是本公开根据一示例性实施例示出的另一种人脸关键点定位装置的框图。
图8是本公开根据一示例性实施例示出的另一种人脸关键点定位装置的框图。
图9是本公开根据一示例性实施例示出的一种用于人脸关键点定位的装置的框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
在本公开使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本公开。在本公开和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本文中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本公开可能采用术语第一、第二、第三等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本公开范围的情况下,第一信息也可以被称为第二信息,类似地,第二信息也可以被称为第一信息。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
卷积神经网路(Convolutional Neural Network,CNN)是一种前馈神经网络,它的人工神经元可以响应一部分覆盖范围内的周围单元,对于图像处理有出色表现。卷积神经网路由一个或多个卷积层和顶端的全连通层(对应经典的神经网路)组成,同时也包括关联权重和池化层(pooling layer)。这一结构使得卷积神经网路能够利用输入数据的二维结构。与其他深度学习结构相比,卷积神经网路在图像和语音识别方面能够给出更好的结果。这一模型也可以使用反向传播算法进行训练。相比较其他深度、前馈神经网路,卷积神经网路需要考量的参数更少,使之成为一种颇具吸引力的深度学习结构。
因此,目前往往采用卷积神经网络实现人脸关键点定位。而由于原始图像中往往不止包括人脸,还包括其他对象,如果在原始图像中定位人脸关键点的位置,导致数据处理量大,定位效率低下,因此,可以先从待识别图像中提取出人脸图像,再将提取的人脸图像输入基于卷积神经网络(Convolutional Neural Network,CNN)训练获得的定位模型,从而获得关键点在人脸图像中的位置。然而,因为人脸的多样性,在提取人脸图像时容易出现偏差,从而导致关键点定位不准确。
鉴于此,为了提高关键点定位的准确性,本公开实施例提供一种人脸关键点定位方法,可以从原始图像中获取人脸图像,利用全卷积神经网络的目标定位模型对人脸图像进行人脸关键点检测,可以获得人脸关键点的预测位置集合以及每个预测位置对应的置信度;由于置信度可以体现出人脸关键点的预测位置为实际位置的可信程度,因此,可以基于人脸关键点的预测位置集合以及每个预测位置对应的置信度,确定人脸关键点在原始图像中的预测位置,从而提高人脸关键点定位的准确性。
为了实现人脸关键点定位,可以包括模型训练阶段和模型应用阶段。模型训练阶段是利用样本数据集进行训练获得模型的阶段,可以应用于PC、服务器等处理能力强的设备中。而模型应用阶段是利用已训练的模型进行人脸关键点定位的阶段,可以应用于电子设备中,对电子设备的处理能力可以不需要太高的要求。例如,电子设备可以是智能手机、平板电脑、PDA(Personal Digital Assistant,个人数字助理)、智能手表等设备中。可以理解的是,模型的训练阶段和应用阶段,也可以在同一个设备中执行。
以下结合附图对本公开实施例进行示例说明。
如图1所示,图1是本公开根据一示例性实施例示出的一种人脸关键点定位方法的流程图,该方法可以用于电子设备中,包括以下步骤:
在步骤101中,从原始图像中获取人脸图像。
在步骤102中,利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型。
在步骤103中,基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
本公开实施例中,步骤101至步骤103属于模型应用阶段。电子设备可以是诸如智能手机、平板电脑、PDA、媒体播放器等的移动设备,也可以是诸如腕表设备、吊坠设备、智能眼镜等的可穿戴设备,还可以是台式计算机、电视机、集成于计算机显示器中的计算机等其它电子设备。
其中,原始图像是需要进行人脸关键点定位的图像。为了提高检测效率,可以从原始图像中获取人脸图像,所述人脸图像是包括人脸的图像。若无法从原始图像中获取人脸图像,则表示原始图像中不存在人脸,可以直接忽略该原始图像,进而避免对不包含人脸的原始图像进行人脸关键点定位导致资源浪费。
从原始图像中获取人脸图像的方法有很多种,以下列举其中几种进行示意说明。
在一个可选的实现方式中,可以直接从原始图像中提取(截取)人脸图像。提取手段可以是抠图等技术手段。
为了提高提取的准确性,可以采用人脸检测模型检测原始图像中的人脸检测区域,并从原始图像中提取人脸检测区域对应的图像。
其中,人脸检测区域可以是人脸检测框、人脸候选区域;也可以是由人脸轮廓线所确定的区域。在一个例子中,人脸检测模型可以是对图像进行人脸检测的模型,用于框定一个包含人脸的区域。例如,采用人脸检测模型获取原始图像中每个像素点为人脸的概率,将包含所有目标像素的最小矩形区域确定为人脸检测框。其中,所述目标像素可以是概率大于预设阈值的像素。
进一步的,为了进一步提高人脸检测区域的准确性,人脸检测模型可以是对全卷积神经网络(Full Convolutional Neural Networks,简称为FCN)进行训练获得的模型。将原始图像输入人脸检测模型,通过人脸检测模型对原始图像进行卷积处理,获得原始图像中每个像素点为人脸的概率,进而基于所述概率获得人脸检测区域。
实际应用中,由于人脸的多样性,通过人脸检测模型确定的人脸检测区域与实际的人脸区域可能存在偏差,例如,人脸检测区域可能没有包括完整的人脸,鉴于此,在另一个可选的实现方式中,从原始图像中获取人脸图像,包括:从原始图像中获取大于人脸区域的人脸图像。
作为其中一种手段,所述人脸图像对应在原始图像中的区域大于人脸检测区域,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得。
在该实施例中,可以从原始图像中确定一个比人脸检测区域大的区域、且所确定区域包括人脸检测区域,以保证所确定的区域能包括人脸,进而根据所确定区域确定人脸图像。其中,确定一个比人脸检测区域大的区域,目的是为了确保所确定区域能包含完整人脸,从而排除人脸检测区域不准对后续关键点定位的干扰。
可见,由于人脸图像对应在原始图像中的区域大于人脸检测区域,可以确保所确定区域包含完整人脸,进而可以避免人脸检测时,因为人脸的多样性,出现人脸图像不能囊括完整脸部的情况。
在一个例子中,可以从原始图像中提取所确定区域对应的图像,获得人脸图像。
在另一个例子中,可以从原始图像中提取所确定区域对应的图像,并基于目标定位模型所需输入维度对所提取的图像进行缩放处理,获得人脸图像。定位模型所需输入维度可以在确定定位模型过程中确定。
可见,通过对所提取的图像进行缩放处理,可以获得满足目标定位模型输入要求的图像,进而便于目标定位模型定位获得人脸关键点的预测位置。
接下来对目标定位模型进行介绍。
目标定位模型为全卷积神经网络模型。全卷积神经网络(Full ConvolutionalNeural Networks,简称为FCN),与经典的CNN在卷积层之后使用全连接层得到固定长度的特征向量进行分类(全联接层+softmax输出)不同,FCN可以接受任意尺寸的输入图像。
在一个可选的实现方式中,所述目标定位模型基于将初始定位模型转换成全卷积神经网络模型获得,所述初始定位模型是用于预测人脸关键点的位置以及置信度的卷积神经网络模型,所述置信度用于表示人脸关键点的预测位置为实际位置的可信程度。例如,置信度可以是用于表示人脸关键点的预测位置为实际位置的概率。
在一个例子中,可以通过将初始定位模型的全连接层转换成卷积层,从而实现卷积神经网络模型转换成全卷积神经网络模型,获得目标定位模型。
可见,由于目标定位模型可以接收任意尺寸的输入图像,并预测出输入图像中人脸关键点的预测位置集合以及每个预测位置对应的置信度,通过利用置信度来评价所确定预测位置的准确性,从而基于人脸关键点的预测位置集合以及每个预测位置对应的置信度,可以获得准确性比较高的人脸关键点位置。
在一个可选的实现方式中,还提供一种目标定位模型确定方法,该方法可以属于模型训练阶段,可以应用在其他用于模型训练的设备中,也可以应用在模型应用阶段的设备中,具体根据需求设置。如图2A所示,图2A是本公开根据一示例性实施例示出的一种目标定位模型确定方法的流程图,所述方法包括:
在步骤201中,基于预构建的训练样本集对卷积神经网络进行训练,获得用于预测人脸关键点的位置以及置信度的初始定位模型,所述训练样本集包括带标签的样本图像,所述标签用于表示该样本图像中人脸关键点的实际位置。
在步骤202中,将所述初始定位模型转换成全卷积神经网络的目标定位模型。
其中,用于表示样本图像中人脸关键点实际位置的标签是训练目标之一,还有一个训练目标是获得预测位置的置信度。训练过程可以是为了学习到输入图像(输入)与预测位置和置信度(输出)的映射关系。将训练样本集中带标签的样本图像输入卷积神经网络,可以获得人脸关键点的预测位置,将该样本图像的标签作为人脸关键点的实际位置,可以根据预测位置和实际位置的距离确定置信度,进而获得该初始定位模型的另一训练目标。在训练结束条件满足时,可以获得用于预测人脸关键点的预测位置以及该预测位置的置信度的初始定位模型。
由于初始定位模型是卷积神经网络模型,而卷积神经网络对输入图像的尺寸有要求,因此,训练样本集中样本图像的尺寸需满足初始定位模型的输入图像尺寸要求。例如,输入图像尺寸要求为S*S,则样本图像的大小可以为S*S。如图2B所示,图2B是本公开根据一示例性实施例示出的一种初始定位模型结构示意图。在该示意图中,以输入图像的尺寸为48*48为例进行示意说明。在该实施例中,通过卷积神经网络中的卷积层和全连接层,可以训练获得以图像作为输入、以人脸关键点的预测位置和置信度作为输出的初始定位模型。
在一个例子中,针对一个人脸关键点,可以采用一个位置坐标表示该人脸关键点的位置。
在获得初始定位模型后,可以将初始定位模型转换成全卷积神经网络的目标定位模型。例如,可以将初始定位模型的全连接层转换成卷积层,从而实现卷积神经网络与全卷积神经网络间的转换。全连接层和卷积层之间的不同是卷积层中的神经元只与输入数据中的一个局部区域连接,并且在卷积列中的神经元共享参数。然而在两类层中,神经元都是计算点积,所以它们的函数形式可以一样。因此,全连接层可以和卷积层之间实现转换。
例如,一个K=4096的全连接层,输入数据体的尺寸是7*7*512,这个全连接层可以被等效地作为一个F=7,P=0,S=1,K=4096的卷积层。其中,F可以表示滤波器核大小,P可以表示Pad(环边像素),S可以表示stride(模型的步长),K可以表示输出数目。换句话说,可以将滤波器的尺寸设置为和输入数据体的尺寸一致。因为只有一个单独的深度列覆盖并滑过输入数据体,所以输出将变成1*1*4096,这个结果和使用初始的全连接层一样。
针对如何将初始定位模型转换成全卷积神经网络的目标定位模型,还可以采用相关技术中卷积网络(CNN)与全卷积网络(FCN)的转换方法,在此不再一一赘述。
由上述实施例可见,基于训练样本集对卷积神经网络进行训练,可以获得用于预测人脸关键点的预测位置以及该预测位置的置信度的初始定位模型,由于置信度用于表示预测位置为人脸关键点的实际位置的可信程度,因此,在将初始定位模型转换成全卷积神经网络的目标定位模型,并利用目标定位模型对人脸图像进行人脸关键点定位时,可以获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,可以基于置信度对所获得的预测位置进行筛选,进而确定人脸关键点在原始图像中的位置,提高人脸关键点定位的准确性。
在基于将初始定位模型转换成全卷积神经网络模型获得目标定位模型的实施例中,本公开实施例还提供一种人脸图像获取方法,如图3所示,图3是本公开根据一示例性实施例示出的一种人脸图像获取方法的流程图,所述方法可以包括步骤301和步骤302。
在步骤301中,从原始图像中提取大于人脸检测区域的原始人脸图像,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得。
其中,利用人脸检测模型可以对原始图像进行检测,获得原始图像中的人脸检测区域。由于人脸的多样性,通过人脸检测模型确定的人脸检测区域与实际的人脸区域可能存在偏差,因此,可以从原始图像中提取一个大于人脸检测区域的原始人脸图像,从而实现原始人脸图像在原始图像中的区域大于人脸检测区域。通过从原始图像中提取大于人脸检测区域的原始人脸图像,可以确保提取到的原始人脸图像能包含完整的人脸图像。
在一个例子中,所述从原始图像中提取大于人脸检测区域的原始人脸图像,可以包括:
利用人脸检测模型检测出原始图像中的人脸检测区域;
以所述人脸检测区域为中心,将所述人脸检测区域按预设比例进行扩大;
从所述原始图像中提取扩大后的人脸检测区域对应的图像,获得原始人脸图像。
在本实施例中,以人脸检测区域为中心,将人脸检测区域按预设比例扩大,从而扩大后的人脸检测区域能囊括人脸图像所在区域,实现快速确定能囊括人脸图像的区域,进而快速获得能包含完整人脸图像的原始人脸图像。例如,假设人脸检测区域(人脸检测框)的大小为L*L,则将人脸检测区域按预设缩放比例扩大时,可以使扩大后的人脸检测区域的大小为2L*2L。其中,针对高和宽对应的预设缩放比例,可以相同,也可以不同。
在步骤302中,将所述原始人脸图像进行缩放,以使缩放获得的人脸图像的尺寸大于所述初始定位模型的输入图像的尺寸。
其中,将原始人脸图像进行缩放,可以是按设定缩放比例进行缩放。尺寸中高和宽对应的设定缩放比例可以相同,也可以不同。假设初始定位模型的输入图像的尺寸为S*S,则缩放获得的人脸图像的尺寸可以为2S*2S。
在该实施例中,将原始人脸图像缩放的目的是:为了使缩放获得的人脸图像的尺寸大于初始定位模型的输入图像的尺寸。由于卷积神经网络中输入图像的尺寸固定,而全卷积神经网络中输入图像的尺寸可以是任意大小;又由于目标定位模型是基于将初始定位模型转换成全卷积神经网络模型获得,因此,在目标定位模型的输入图像的尺寸大于初始定位模型的输入图像的尺寸、且将人脸图像输入目标定位模型时,针对同一个人脸关键点可以获得多个预测位置以及每个预测位置对应的置信度,以便基于预测位置对应的置信度确定人脸关键点在原始图像中的位置,提高定位准确性。
利用目标定位模型对人脸图像进行关键点定位,可以获得置信度图和关键点位置图。置信度图中包括每个预测位置对应的置信度。关键点位置图可以包括预测位置集合。预设位置集合中至少包括一个预测位置。当人脸图像的尺寸与初始定位模型的输入图像的尺寸相同时,预设位置集合包括一个预测位置,当人脸图像的尺寸大于初始定位模型的输入图像的尺寸,则预设位置集合中可以包括多个预测位置。
在一个例子中,假设初始定位模型的输入图像的尺寸(高宽)为:S1*S2,则置信度图和关键点位置图的大小(高宽)可以为:
Figure BDA0001504672010000131
其中,stride为模型的步长,即所有卷积层的步长的乘积。关键点位置图的通道数channel与关键点的个数N有关,由于位置可以由坐标表示,坐标又包括横坐标和纵坐标,因此,通道数channel可以是2*N。置信度图上每个点代表运行了一次初始定位模型所产生的置信度。在关键点位置图的对应位置上的值为关键点的预测位置。
由于置信度用于表示人脸关键点的预测位置为实际位置的可信程度,因此,在获得人脸关键点的预测位置集合以及每个预测位置对应的置信度后,可以基于置信度对预测位置集合进行筛选处理,获得人脸关键点在原始图像中的位置。
在一个可选的实现方式中,所述基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置,包括:
基于预测位置对应的置信度,对所述预测位置集合中的预测位置进行筛选,获得人脸关键点的可信位置集合;
基于所述可信位置集合确定人脸关键点在所述人脸图像中的位置;
根据所述人脸图像与所述原始图像的关系、以及人脸关键点在所述人脸图像中的位置,确定人脸关键点在所述原始图像中的位置。
其中,可以设置筛选条件,将预测位置集合中满足筛选条件的置信度对应的预测位置构成可信位置集合。例如,筛选条件可以是大于或等于预设阈值。则可以将预测位置集合中大于或等于预设阈值的置信度对应的预测位置构成可信位置集合。通过筛选条件对预测位置集合进行筛选,可以获得比较准确的位置集合。
在筛选获得可信位置集合后,在一个例子中,可以将所述可信位置集合中的预测位置与预测位置对应的权重值进行加权平均,获得人脸关键点在所述人脸图像中的位置。例如,将预测位置与相应的权重值相乘,并将乘积的总和求平均值,获得人脸关键点在所述人脸图像中的位置。其中,所述预测位置对应的权重值基于所述预测位置对应的置信度确定,例如,权重值可以为置信度值,权重值也可以与置信度成正相关关系等。
可见,通过将可信位置集合中的预测位置与预测位置对应的权重值进行加权平均,获得人脸关键点在人脸图像中的位置,实现不同可靠性的预测位置的权重不同,从而可以提高人脸关键点位置的准确率。
在另一个例子中,可以对所述可信位置集合中的预测位置进行求平均值运算,获得人脸关键点在所述人脸图像中的位置。
可见,通过对可信位置集合中的预测位置进行求平均值运算,可以获得人脸关键点在人脸图像中的位置,进而提高获得人脸关键点位置的效率。
以上实施方式中的各种技术特征可以任意进行组合,只要特征之间的组合不存在冲突或矛盾,但是限于篇幅,未进行一一描述,因此上述实施方式中的各种技术特征的任意进行组合也属于本说明书公开的范围。
以下以其中一种组合进行示例说明。
如图4所示,图4是本公开根据一示例性实施例示出的另一种人脸关键点定位方法的流程图,该方法可以用于电子设备中,包括以下步骤:
在步骤401中,利用人脸检测模型检测出原始图像中的人脸检测区域。
在步骤402中,以所述人脸检测区域为中心,将所述人脸检测区域按预设比例进行扩大;并从所述原始图像中提取扩大后的人脸检测区域对应的图像,获得原始人脸图像。
在步骤403中,将所述原始人脸图像进行缩放,以使缩放获得的人脸图像的尺寸为指定尺寸的预设倍数,预设倍数大于1。
在步骤404中,利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度。
其中,所述目标定位模型基于将初始定位模型转换成全卷积神经网络模型获得,所述初始定位模型是用于预测人脸关键点的位置以及置信度的卷积神经网络模型,所述置信度用于表示人脸关键点的预测位置为实际位置的概率。所述初始定位模型的输入图像的尺寸为指定尺寸。
在步骤405中,基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
本公开实施例中,从原始图像中获取一个比人脸所在区域大的人脸图像,利用目标定位模型对人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,并利用置信度对预测位置集合中的预测位置进行筛选,从而确定人脸关键点在原始图像中的位置,排除人脸检测框定位不准对人脸关键点定位的干扰,提高定位准确率。
与前述人脸关键点定位方法的实施例相对应,本公开还提供了人脸关键点定位装置、装置所应用的设备以及存储介质的实施例。
如图5所示,图5是本公开根据一示例性实施例示出的一种人脸关键点定位装置的框图,所述装置包括:图像获取模块51、数据确定模块52和位置确定模块53。
其中,图像获取模块51,被配置为从原始图像中获取人脸图像。
数据确定模块52,被配置为利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型。
位置确定模块53,被配置为基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
由上述实施例可见,本公开实施例可以从原始图像中获取人脸图像,利用全卷积神经网络的目标定位模型对人脸图像进行人脸关键点检测,可以获得人脸关键点的预测位置集合以及每个预测位置对应的置信度;由于置信度可以体现出人脸关键点的预测位置为实际位置的可信程度,因此,可以基于人脸关键点的预测位置集合以及每个预测位置对应的置信度,确定人脸关键点在原始图像中的预测位置,从而提高人脸关键点定位的准确性。
在一个可选的实现方式中,所述人脸图像对应在原始图像中的区域大于人脸检测区域,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得。
由上述实施例可见,可以从原始图像中确定一个比人脸检测区域大的区域、且所确定区域包括人脸检测区域,以保证所确定的区域能包括人脸,进而根据所确定区域确定人脸图像。
在一个可选的实现方式中,所述目标定位模型基于将初始定位模型转换成全卷积神经网络模型获得,所述初始定位模型是用于预测人脸关键点的位置以及置信度的卷积神经网络模型,所述置信度用于表示人脸关键点的预测位置为实际位置的可信程度。
由上述实施例可见,目标定位模型基于将初始定位模型转换成全卷积神经网络模型获得,可以提高获得目标定位模型的效率。
如图6所示,图6是本公开根据一示例性实施例示出的另一种人脸关键点定位装置的框图,该实施例在前述图5所示实施例的基础上,所述装置还包括模型确定模块54,被配置为:
基于预构建的训练样本集对卷积神经网络进行训练,获得用于预测人脸关键点的位置以及置信度的初始定位模型,所述训练样本集包括带标签的样本图像,所述标签用于表示该样本图像中人脸关键点的实际位置;
将所述初始定位模型转换成全卷积神经网络的目标定位模型。
在一个可选的实现方式中,如图7所示,图7是本公开根据一示例性实施例示出的另一种人脸关键点定位装置的框图,该实施例在前述图5所示实施例的基础上,所述图像获取模块51包括:
图像提取子模块511,被配置为从原始图像中提取大于人脸检测区域的原始人脸图像,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得;
图像缩放子模块512,被配置为将所述原始人脸图像进行缩放,以使缩放获得的人脸图像的尺寸大于所述初始定位模型的输入图像的尺寸。
在一个可选的实现方式中,所述图像提取子模块511,具体被配置为:
利用人脸检测模型检测出原始图像中的人脸检测区域;
以所述人脸检测区域为中心,将所述人脸检测区域按预设比例进行扩大;
从所述原始图像中提取扩大后的人脸检测区域对应的图像,获得原始人脸图像。
如图8所示,图8是本公开根据一示例性实施例示出的另一种人脸关键点定位装置的框图,该实施例在前述图5所示实施例的基础上,所述位置确定模块53包括:位置筛选子模块531、第一位置确定子模块532和第二位置确定子模块533。
其中,位置筛选子模块531,被配置为基于预测位置对应的置信度,对所述预测位置集合中的预测位置进行筛选,获得人脸关键点的可信位置集合。
第一位置确定子模块532,被配置为基于所述可信位置集合确定人脸关键点在所述人脸图像中的位置。
第二位置确定子模块533,被配置为根据所述人脸图像与所述原始图像的关系、以及人脸关键点在所述人脸图像中的位置,确定人脸关键点在所述原始图像中的位置。
在一个可选的实现方式中,所述第一位置确定子模块532,具体被配置为:
将所述可信位置集合中的预测位置与预测位置对应的权重值进行加权平均,获得人脸关键点在所述人脸图像中的位置,所述预测位置对应的权重值基于所述预测位置对应的置信度确定。
在一个可选的实现方式中,所述第一位置确定子模块532,具体被配置为:
对所述可信位置集合中的预测位置进行求平均值运算,获得人脸关键点在所述人脸图像中的位置。
相应的,本公开还提供一种电子设备,所述设备包括有处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为:
从原始图像中获取人脸图像;
利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
相应的,本公开还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述任一项所述方法的步骤。
本公开可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。计算机可用存储介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括但不限于:相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。
上述装置中各个模块的功能和作用的实现过程具体详情见上述方法中对应步骤的实现过程,在此不再赘述。
对于装置实施例而言,由于其基本对应于方法实施例,所以相关之处参见方法实施例的部分说明即可。以上所描述的装置实施例仅仅是示意性的,其中所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本公开方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
如图9所示,图9是本公开根据一示例性实施例示出的一种用于人脸关键点定位的装置的框图。该装置900可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等终端。
参照图9,装置900可以包括以下一个或多个组件:处理组件902,存储器904,电源组件906,多媒体组件908,音频组件910,输入/输出(I/O)的接口912,传感器组件914,以及通信组件916。
处理组件902通常控制装置900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件902可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理组件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在装置900的操作。这些数据的示例包括用于在装置900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件906为装置900的各种组件提供电力。电源组件906可以包括电源管理系统,一个或多个电源,及其他与为装置900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述装置900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当装置900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当装置900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。在一些实施例中,音频组件910还包括一个扬声器,用于输出音频信号。
I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件914包括一个或多个传感器,用于为装置900提供各个方面的状态评估。例如,传感器组件914可以检测到装置900的打开/关闭状态,组件的相对定位,例如所述组件为装置900的显示器和小键盘,传感器组件914还可以检测装置900或装置900中一个组件的位置改变,用户与装置900接触的存在或不存在,装置900方位或加速/减速和装置900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件916被配置为便于装置900和其他设备之间有线或无线方式的通信。装置900可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由装置900的处理器920执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
其中,当所述存储介质中的指令由所述处理器执行时,使得装置900能够执行一种人脸关键点定位方法,包括:
从原始图像中获取人脸图像;
利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
以上所述仅为本公开的较佳实施例而已,并不用以限制本公开,凡在本公开的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本公开保护的范围之内。

Claims (10)

1.一种人脸关键点定位方法,其特征在于,所述方法包括:
从原始图像中获取人脸图像;
利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置;
其中,所述人脸图像对应在原始图像中的区域大于人脸检测区域,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得;所述人脸检测模型是对图像进行人脸检测的模型,用于框定一个包含人脸的区域。
2.根据权利要求1所述的方法,其特征在于,所述目标定位模型基于将初始定位模型转换成全卷积神经网络模型获得,所述初始定位模型是用于预测人脸关键点的位置以及置信度的卷积神经网络模型,所述置信度用于表示人脸关键点的预测位置为实际位置的可信程度。
3.根据权利要求2所述的方法,其特征在于,所述方法还包括:
基于预构建的训练样本集对卷积神经网络进行训练,获得用于预测人脸关键点的位置以及置信度的初始定位模型,所述训练样本集包括带标签的样本图像,所述标签用于表示该样本图像中人脸关键点的实际位置;
将所述初始定位模型转换成全卷积神经网络的目标定位模型。
4.根据权利要求2所述的方法,其特征在于,所述从原始图像中获取人脸图像,包括:
从原始图像中提取大于人脸检测区域的原始人脸图像,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得;
将所述原始人脸图像进行缩放,以使缩放获得的人脸图像的尺寸大于所述初始定位模型的输入图像的尺寸。
5.根据权利要求4所述的方法,其特征在于,所述从原始图像中提取大于人脸检测区域的原始人脸图像,包括:
利用人脸检测模型检测出原始图像中的人脸检测区域;
以所述人脸检测区域为中心,将所述人脸检测区域按预设比例进行扩大;
从所述原始图像中提取扩大后的人脸检测区域对应的图像,获得原始人脸图像。
6.根据权利要求1至5任一项所述的方法,其特征在于,所述基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置,包括:
基于预测位置对应的置信度,对所述预测位置集合中的预测位置进行筛选,获得人脸关键点的可信位置集合;
基于所述可信位置集合确定人脸关键点在所述人脸图像中的位置;
根据所述人脸图像与所述原始图像的关系、以及人脸关键点在所述人脸图像中的位置,确定人脸关键点在所述原始图像中的位置。
7.根据权利要求6所述的方法,其特征在于,所述基于所述可信位置集合确定人脸关键点在所述人脸图像中的位置,包括:
将所述可信位置集合中的预测位置与预测位置对应的权重值进行加权平均,获得人脸关键点在所述人脸图像中的位置,所述预测位置对应的权重值基于所述预测位置对应的置信度确定;
或,对所述可信位置集合中的预测位置进行求平均值运算,获得人脸关键点在所述人脸图像中的位置。
8.一种人脸关键点定位装置,其特征在于,所述装置包括:
图像获取模块,被配置为从原始图像中获取人脸图像;
数据确定模块,被配置为利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
位置确定模块,被配置为基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置;
其中,所述人脸图像对应在原始图像中的区域大于人脸检测区域,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得;所述人脸检测模型是对图像进行人脸检测的模型,用于框定一个包含人脸的区域。
9.一种电子设备,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
从原始图像中获取人脸图像;
利用目标定位模型对所述人脸图像进行人脸关键点检测,获得人脸关键点的预测位置集合以及每个预测位置对应的置信度,所述目标定位模型为全卷积神经网络模型;
基于所述预测位置集合以及每个预测位置对应的置信度,确定所述人脸关键点在所述原始图像中的位置;
其中,所述人脸图像对应在原始图像中的区域大于人脸检测区域,所述人脸检测区域基于人脸检测模型对所述原始图像进行人脸检测获得;所述人脸检测模型是对图像进行人脸检测的模型,用于框定一个包含人脸的区域。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1至7任一项所述方法的步骤。
CN201711320465.5A 2017-12-12 2017-12-12 人脸关键点定位方法、装置、设备及存储介质 Active CN108121952B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711320465.5A CN108121952B (zh) 2017-12-12 2017-12-12 人脸关键点定位方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711320465.5A CN108121952B (zh) 2017-12-12 2017-12-12 人脸关键点定位方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN108121952A CN108121952A (zh) 2018-06-05
CN108121952B true CN108121952B (zh) 2022-03-08

Family

ID=62229006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711320465.5A Active CN108121952B (zh) 2017-12-12 2017-12-12 人脸关键点定位方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN108121952B (zh)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108764048B (zh) * 2018-04-28 2021-03-16 中国科学院自动化研究所 人脸关键点检测方法及装置
CN108960081B (zh) * 2018-06-15 2021-07-30 熵基科技股份有限公司 一种手掌图像识别方法、装置及计算机可读存储介质
CN109117736B (zh) * 2018-07-19 2020-11-06 厦门美图之家科技有限公司 一种判定人脸点可见性的方法及计算设备
CN109145783B (zh) * 2018-08-03 2022-03-25 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109101919B (zh) * 2018-08-03 2022-05-10 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN110147703B (zh) * 2018-08-20 2023-10-31 腾讯科技(深圳)有限公司 人脸关键点检测方法、装置及存储介质
CN109359575B (zh) * 2018-09-30 2022-05-10 腾讯科技(深圳)有限公司 人脸检测方法、业务处理方法、装置、终端及介质
CN109614878B (zh) * 2018-11-15 2020-11-27 新华三技术有限公司 一种模型训练、信息预测方法及装置
CN111243011A (zh) * 2018-11-29 2020-06-05 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN109784147A (zh) * 2018-12-05 2019-05-21 北京达佳互联信息技术有限公司 关键点检测方法、装置、电子设备及存储介质
CN109697755B (zh) * 2018-12-24 2023-07-21 深圳供电局有限公司 输电铁塔模型的增强现实显示方法、装置和终端设备
CN110046600B (zh) * 2019-04-24 2021-02-26 北京京东尚科信息技术有限公司 用于人体检测的方法和装置
CN112149477A (zh) * 2019-06-28 2020-12-29 北京地平线机器人技术研发有限公司 姿态估计方法、装置、介质及设备
CN110348358B (zh) * 2019-07-03 2021-11-23 网易(杭州)网络有限公司 一种肤色检测系统、方法、介质和计算设备
CN110348412B (zh) * 2019-07-16 2022-03-04 广州图普网络科技有限公司 一种关键点定位方法、装置、电子设备及存储介质
CN110555414B (zh) * 2019-09-05 2022-09-30 北京市商汤科技开发有限公司 目标检测方法、装置、设备及存储介质
CN110765898B (zh) * 2019-10-09 2022-11-22 东软睿驰汽车技术(沈阳)有限公司 一种图像中物体及其关键点的确定方法和装置
CN110717476A (zh) * 2019-10-22 2020-01-21 上海眼控科技股份有限公司 图像处理方法、装置、计算机设备和计算机可读存储介质
CN113689527B (zh) * 2020-05-15 2024-02-20 武汉Tcl集团工业研究院有限公司 一种人脸转换模型的训练方法、人脸图像转换方法
CN111753793B (zh) * 2020-06-30 2022-11-22 重庆紫光华山智安科技有限公司 模型训练方法、装置、人脸筛选方法及电子设备
CN112270734B (zh) * 2020-10-19 2024-01-26 北京大米科技有限公司 一种动画生成方法、可读存储介质和电子设备
CN112597944A (zh) * 2020-12-29 2021-04-02 北京市商汤科技开发有限公司 关键点检测方法及装置、电子设备和存储介质
CN112613447A (zh) * 2020-12-29 2021-04-06 上海商汤智能科技有限公司 关键点检测方法及装置、电子设备和存储介质
CN112949492A (zh) * 2021-03-03 2021-06-11 南京视察者智能科技有限公司 一种人脸检测和关键点检测的模型串联训练方法、装置及终端设备
CN113673439B (zh) * 2021-08-23 2024-03-05 平安科技(深圳)有限公司 基于人工智能的宠物狗识别方法、装置、设备及存储介质

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100550039C (zh) * 2007-11-16 2009-10-14 北京中星微电子有限公司 一种图像特征点定位方法及装置
CN106295567B (zh) * 2016-08-10 2019-04-12 腾讯科技(深圳)有限公司 一种关键点的定位方法及终端
CN106651955B (zh) * 2016-10-10 2020-01-14 北京小米移动软件有限公司 图片中目标物的定位方法及装置
CN106778773B (zh) * 2016-11-23 2020-06-02 北京小米移动软件有限公司 图片中目标物的定位方法及装置
CN106778531A (zh) * 2016-11-25 2017-05-31 北京小米移动软件有限公司 人脸定位方法及装置
CN106845398B (zh) * 2017-01-19 2020-03-03 北京小米移动软件有限公司 人脸关键点定位方法及装置

Also Published As

Publication number Publication date
CN108121952A (zh) 2018-06-05

Similar Documents

Publication Publication Date Title
CN108121952B (zh) 人脸关键点定位方法、装置、设备及存储介质
CN109670397B (zh) 人体骨骼关键点的检测方法、装置、电子设备及存储介质
TWI724736B (zh) 圖像處理方法及裝置、電子設備、儲存媒體和電腦程式
CN106651955B (zh) 图片中目标物的定位方法及装置
CN108256555B (zh) 图像内容识别方法、装置及终端
CN107492115B (zh) 目标对象的检测方法及装置
CN106557768B (zh) 对图片中的文字进行识别的方法及装置
CN111476306B (zh) 基于人工智能的物体检测方法、装置、设备及存储介质
CN109543714B (zh) 数据特征的获取方法、装置、电子设备及存储介质
JP7154678B2 (ja) 目標の位置取得方法、装置、コンピュータ機器及びコンピュータプログラム
CN105631408B (zh) 基于视频的面孔相册处理方法和装置
CN109859096A (zh) 图像风格迁移方法、装置、电子设备及存储介质
CN107133354B (zh) 图像描述信息的获取方法及装置
TW202113757A (zh) 目標對象匹配方法及目標對象匹配裝置、電子設備和電腦可讀儲存媒介
CN106557759B (zh) 一种标志牌信息获取方法及装置
CN107784279B (zh) 目标跟踪方法及装置
CN107463903B (zh) 人脸关键点定位方法及装置
CN106228556B (zh) 图像质量分析方法和装置
CN108830219B (zh) 基于人机交互的目标跟踪方法、装置及存储介质
JP2021526698A (ja) 画像生成方法および装置、電子機器、並びに記憶媒体
CN107563994B (zh) 图像的显著性检测方法及装置
EP3933552B1 (en) Method and device for determining gaze position of user, storage medium, and electronic apparatus
CN112148980B (zh) 基于用户点击的物品推荐方法、装置、设备和存储介质
CN113486830A (zh) 图像处理方法及装置、电子设备和存储介质
CN107133361B (zh) 手势识别方法、装置和终端设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant