CN112232311A - 人脸跟踪方法、装置及电子设备 - Google Patents
人脸跟踪方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112232311A CN112232311A CN202011433517.1A CN202011433517A CN112232311A CN 112232311 A CN112232311 A CN 112232311A CN 202011433517 A CN202011433517 A CN 202011433517A CN 112232311 A CN112232311 A CN 112232311A
- Authority
- CN
- China
- Prior art keywords
- face
- information
- preset model
- key point
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本公开实施例中提供了一种人脸跟踪方法、装置及电子设备,属于人脸跟踪技术领域,本公开实施例中的人脸跟踪方法包括:获取视频图像;根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。通过本公开的方案,为人脸分析提供了可靠地、高质量的人脸信息。
Description
技术领域
本公开涉及人脸跟踪技术领域,尤其涉及一种人脸跟踪方法、装置及电子设备。
背景技术
近年来,随着人工智能技术的不断发展,人工智能技术在人们的生活中的应用日益广泛,特别是在安防领域中,人脸识别、性别、年龄等属性作为人脸分析的重要组成部分,为人脸分析提供高质量的人脸数据显得格外重要。
传统的方法是先使用检测技术将人脸检测出来,然后在接下来的帧中使用传统机器学习算法(如:核相关滤波算法)或者深度学习的跟踪方法(如:孪生网络)提取人脸的表观特征来对人脸进行跟踪,最后将跟踪到的人脸送给人脸分析模块进行分析,尽管这些方法在精度上比较高或者鲁棒性比较强,但是这其中的一些方法是以牺牲速度为代价或者需要在特定的硬件平台上速度才可以达到实时性的要求,但是当部署在移动端平台上的时候,其都存在速度较慢的缺点,并不能满足实习性的要求,而且其只能对人脸进行跟踪,而不能对跟踪到的人脸进行分类,从而不能对提供给人脸分析的人脸进行质量分析,给后续的人脸属性分析带来了困难。
可见,现有的人脸跟踪方法中存在处理速度慢、分析效果较差的问题。
发明内容
有鉴于此,本公开实施例提供一种人脸跟踪方法、装置及电子设备,至少部分解决现有技术中存在的问题。
第一方面,本公开实施例提供了一种人脸跟踪方法,包括:
获取视频图像;
根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;
根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;
根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。
根据本公开实施例的一种具体实现方式,所述获取视频图像的步骤之前,所述方法还包括:
根据样本数据建立基于深度学习方法训练的预设模型。
根据本公开实施例的一种具体实现方式,所述根据样本数据建立基于深度学习方法训练的预设模型的步骤,包括:
收集包括人脸图像的样本数据;
构建神经网络;
将所述样本数据输入至所述神经网络进行训练,直到训练收敛,得到预设模型。
根据本公开实施例的一种具体实现方式,所述将所述样本数据输入至所述神经网络进行训练,直到训练收敛,得到预设模型的步骤,包括:
将所述样本数据输入至神经网络进行训练,所述神经网络用于基于人脸关键点信息输出人脸外接框位置;
若所述神经网络对所述人脸外接框位置的训练完成,生成基于所述人脸关键点信息和人脸外接框位置的目标数据;
将所述目标数据输入至所述神经网络进行训练,所述神经网络还用于输出人脸质量类别;
若所述神经网络对所述人脸类别的训练完成,生成预设模型。
根据本公开实施例的一种具体实现方式,所述将所述样本数据输入至神经网络进行训练的步骤之前,还包括:
对所述人脸图像进行扩宽处理,所述扩宽处理包括将前一帧训练图像中的人脸外接框扩大预设倍数。
根据本公开实施例的一种具体实现方式,所述根据所述预设模型和所述人脸关键点信息获取人脸外接框信息的步骤,包括:
根据所述预设模型从所述视频图像中获取人脸关键点信息;
通过所述人脸关键点信息计算出人脸外接框位置。
根据本公开实施例的一种具体实现方式,所述根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息的步骤,包括:
根据所述预设模型得到的人脸外接框位置信息获取人脸角度参数;
根据所述人脸角度参数匹配对应的人脸质量类别。
第二方面,本公开实施例提供了一种人脸跟踪装置,其特征在于,包括:
第一获取模块,用于获取视频图像;
第二获取模块,用于根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;
第三获取模块,用于根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;
第四获取模块,用于根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。
第三方面,本公开实施例还提供了一种电子设备,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述第一方面或第一方面的任一实现方式中的人脸跟踪方法。
第四方面,本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述第一方面或第一方面的任一实现方式中的人脸跟踪方法。
第五方面,本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述第一方面或第一方面的任一实现方式中的人脸跟踪方法。
本公开实施例中的人脸跟踪方法包括:获取视频图像;根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。通过本公开的方案,为人脸分析提供了可靠地、高质量的人脸信息。
附图说明
为了更清楚地说明本公开实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本公开实施例提供的一种人脸跟踪方法流程示意图;
图2为本公开实施例提供的另一种人脸跟踪方法流程示意图;
图3a为本公开实施例提供的人脸跟踪原理图;
图3b为本公开实施例提供的人脸跟踪和人脸质量分类原理图;
图4为本公开实施例提供的另一种人脸跟踪方法流程示意图;
图5为本公开实施例提供的一种人脸跟踪装置结构示意图;
图6为本公开实施例提供的电子设备示意图。
具体实施方式
下面结合附图对本公开实施例进行详细描述。
以下通过特定的具体实例说明本公开的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本公开的其他优点与功效。显然,所描述的实施例仅仅是本公开一部分实施例,而不是全部的实施例。本公开还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本公开的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。基于本公开中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本公开保护的范围。
需要说明的是,下文描述在所附权利要求书的范围内的实施例的各种方面。应显而易见,本文中所描述的方面可体现于广泛多种形式中,且本文中所描述的任何特定结构及/或功能仅为说明性的。基于本公开,所属领域的技术人员应了解,本文中所描述的一个方面可与任何其它方面独立地实施,且可以各种方式组合这些方面中的两者或两者以上。举例来说,可使用本文中所阐述的任何数目个方面来实施设备及/或实践方法。另外,可使用除了本文中所阐述的方面中的一或多者之外的其它结构及/或功能性实施此设备及/或实践此方法。
还需要说明的是,以下实施例中所提供的图示仅以示意方式说明本公开的基本构想,图式中仅显示与本公开中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
另外,在以下描述中,提供具体细节是为了便于透彻理解实例。然而,所属领域的技术人员将理解,可在没有这些特定细节的情况下实践所述方面。
本公开实施例提供一种人脸跟踪方法。本实施例提供的人脸跟踪方法可以由一计算装置来执行,该计算装置可以实现为软件,或者实现为软件和硬件的组合,该计算装置可以集成设置在服务器、终端设备等中。
参见图1,本公开实施例提供的一种人脸跟踪方法,包括:
本实施例的人脸跟踪方法基于深度学习建立的预设模型进行,该预设模型的建立方法包括:
步骤S101,收集包括人脸图像的样本数据;
步骤S102,构建神经网络;
步骤S103,将所述样本数据输入至所述神经网络进行训练,直到训练收敛,得到预设模型。
本实施例中,参照图3a和图3b,所述预设模型基于深度学习训练得到,具体地预先通过基于深度学习得到人脸关键点模型,在得到的人脸关键点模型的基础上在神经网络特征提取层后面连接一个分支用来训练分类模型,在此过程中,保持关键点模型的参数不变,只训练分类模型。所连接的分支包括添加卷积层、池化层以及全连接层。
具体地,在本实施例中,以CNN(Convolutional Neural Network,卷积神经网络)作为网络的示例,CNN具有多个层,上一层的输出作为下一层的输入。
CNN的每一层一般由多个map组成,每个map由多个神经单元组成,同一个map的所有神经单元共用一个卷积核(即权重),卷积核往往代表一个特征,比如某个卷积核代表一段弧,那么把这个卷积核在整个图片上滚一下,卷积值较大的区域就很有可能是一段弧。
在卷积层中,卷积层本质上是个特征抽取层,可以设定超参数F来指定设立多少个特征抽取器(Filter),对于某个Filter来说,相当于有一个k*d大小的移动窗口从输入矩阵的第一个字开始不断往后移动,其中k和d是Fileter指定的窗口大小。对于某个时刻的窗口,通过神经网络的非线性变换,将这个窗口内的输入值转换为某个特征值,随着窗口不断往后移动,这个Fileter对应的特征值不断产生,形成这个Filter的特征向量。这就是卷积层抽取特征的过程。每个Filter都如此操作,形成了不同的特征抽取器。
在全连接层中,是n个1*1的卷积核上层feature进行卷积,然后在对卷积后的feature做一次均值pooling。
在采用卷积神经网络对样本数据进行训练时,该样本数据可以预先从图库中获取,并且所得到的样本数据均包括人脸。将所述样本数据输入至所述神经网络进行训练,直到训练收敛,得到预设模型。
其中,参照图2,步骤S103包括如下子步骤:
步骤S201,将所述样本数据输入至神经网络进行训练,所述神经网络用于基于人脸关键点信息输出人脸外接框位置;
步骤S202,若所述神经网络对所述人脸外接框位置的训练完成,生成基于所述人脸关键点信息和人脸外接框位置的目标数据;
步骤S203,将所述目标数据输入至所述神经网络进行训练,所述神经网络还用于输出人脸质量类别;
步骤S204,若所述神经网络对所述人脸类别的训练完成,生成预设模型。
所述将所述样本数据输入至神经网络进行训练的步骤之前,还包括:
对所述人脸图像进行扩宽处理,所述扩宽处理包括将前一帧训练图像中的人脸外接框扩大预设倍数。
因为在视频序列中,人是不断运动的,但是由于在前后帧中,时间间隔特别短,所
以几乎可以认为人的运动范围是很小的,但是不能排除某个人运动很快,所以这就要求在
上一帧的人脸周围(相当于放大一点点区域)去寻找下一个帧人脸的位置,所以在训练关键
点定位的时候,就在训练人脸的外接框周围放大倍区域,所以在实际的测试当中,也需要
在上一帧人脸外接框周围扩大倍区域,然后再用这个区域去预测关键点的位置,即得到
这一帧人脸框的位置。
在本实施例中,通过训练一个轻量级的神经网络模型来对放大区域后的人脸区域
进行关键点位置预测,具体地,在训练关键点模型时,其训练样本为人脸外接框在其周围各
外扩倍后的人脸方法区域,具体来说,假设人脸的位置信息为,则用来训练的人
脸放大区域位置信息为,并且将
人脸宽度和高度缩放为大小,对于其中的关键点位置全部归一化到范围之间,
其中为原始人脸框左上角的坐标位置,分别为原始人脸框的宽度和高度,
为人脸框周围放大倍数,为缩放大小后人脸样本的宽和高,为关键点位置归
一化后的范围。这里得到的区间[-a, a]是指将关键点坐标位置进行归一化处理之后得到
的区间;这里得到的归一化之后的区间是一个相对于原始图片长和宽的位置,并不代表实
际的坐标位置,比如原始图片的长和宽都是100,关键点的位置是(40, 60),那么如果归一
化为[-1, 1]之间,那么归一化的关键点坐标位置为(-0.2, 0.2)。
根据人脸的关键点,怎么得到人脸的外接框
训练好关键点模型以后,在此模型的基础上,在神经网络特征提取层后面连接一
个分支用来训练分类模型,在此过程中,保持关键点模型的参数不变,只训练分类模型。而
对于分类模型,主要将分类类别分为小角度(俯仰角(Pitch, P)、偏航角(Yaw, Y)、旋转角
(Roll, R)三个值中任意一个绝对值都小于)、大角度(P、Y、R三个值中任意一个值绝对值
大于)、非人脸(背景、人脸的局部区域)等多种类型,其中和是用来区分人脸大、小
角度的阈值。
小角度和大角度是通过俯仰角、偏航角以及旋转角计算得到的,而对于俯仰角指
的是人脸相对于x轴的角度,偏航角是指人脸相对于y轴的角度,旋转角指的是人脸相对于z
轴的角度。这里的和是用来区别大角度和小角度的阈值,根据实际项目需求确定,比
如若希望小于30°的人脸为小角度,大于50°的人脸为大角度,那么=30,=50。
根据本公开实施例的另一种具体实现方式,参照图4,所述人脸跟踪方法包括:
S401,获取视频图像;
在实际的应用过程中,例如,使用移动终端进行支付需要进行人脸认证时,进入人脸认证页面,移动终端的摄像头打开,开始采集区域内的视频图像,从视频图像中进行人脸的跟踪采集和识别。
S402,根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;
S403,根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;
在获取到视频图像后,根据预设模型对视频图像中的图像进行人脸关键点定位,获得人脸关键点信息,人脸关键点定位的方法采用如上方法进行。进一步在根据人脸关键点信息得到人脸外接框信息。
S404,根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。
最后在跟踪到人脸后还将根据人脸外接框这些信息对人脸进行质量分类,得到人脸质量分类信息。
在人脸质量分类中,根据所述预设模型得到的人脸外接框位置信息获取人脸角度参数;根据所述人脸角度参数匹配对应的人脸质量类别。
人脸质量分类可以理解为人为地将人脸分为非人脸、角度比较大的人脸、正脸这三类,那么对于每一张输入的图片数据,经过网络传播,它会输出这三种类别的一个分数,根据这三个分类各自的得分确定输入是属于哪一个类别,也即对人脸进行了质量分析。
本公开实施例中的人脸跟踪方法包括:获取视频图像;根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。通过本公开的方案,为人脸分析提供了可靠地、高质量的人脸信息。
与上面的方法实施例相对应,参见图5,本公开实施例还提供了一种人脸跟踪装置50,包括:
第一获取模块501,用于获取视频图像;
第二获取模块502,用于根据所述预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;
第三获取模块503,用于根据所述预设模型和所述人脸关键点信息获取人脸外接框信息;
第四获取模块504,用于根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息。
图5所示装置可以对应的执行上述方法实施例中的内容,本实施例未详细描述的部分,参照上述方法实施例中记载的内容,在此不再赘述。
参见图6,本公开实施例还提供了一种电子设备60,该电子设备包括:
至少一个处理器;以及,
与该至少一个处理器通信连接的存储器;其中,
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行前述方法实施例中的人脸跟踪方法。
本公开实施例还提供了一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述方法实施例中的人脸跟踪方法。
本公开实施例还提供了一种计算机程序产品,该计算机程序产品包括存储在非暂态计算机可读存储介质上的计算程序,该计算机程序包括程序指令,当该程序指令被计算机执行时,使该计算机执行前述方法实施例中的的人脸跟踪方法。
下面参考图6,其示出了适于用来实现本公开实施例的电子设备60的结构示意图。本公开实施例中的电子设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,电子设备60可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储装置608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有电子设备60操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、图像传感器、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许电子设备60与其他设备进行无线或有线通信以交换数据。虽然图中示出了具有各种装置的电子设备60,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:获取至少两个网际协议地址;向节点评价设备发送包括所述至少两个网际协议地址的节点评价请求,其中,所述节点评价设备从所述至少两个网际协议地址中,选取网际协议地址并返回;接收所述节点评价设备返回的网际协议地址;其中,所获取的网际协议地址指示内容分发网络中的边缘节点。
或者,上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收包括至少两个网际协议地址的节点评价请求;从所述至少两个网际协议地址中,选取网际协议地址;返回选取出的网际协议地址;其中,接收到的网际协议地址指示内容分发网络中的边缘节点。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
应当理解,本公开的各部分可以用硬件、软件、固件或它们的组合来实现。
以上所述,仅为本公开的具体实施方式,但本公开的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本公开揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本公开的保护范围之内。因此,本公开的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种人脸跟踪方法,其特征在于,包括:
获取视频图像;
根据预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;
根据所述预设模型和所述人脸关键点信息获取人脸外接框信息,得到人脸追踪信息,其中,所述人脸外框信息包括前一帧人脸外接框扩大预设倍数的区域;
根据所述预设模型中的分类模型对追踪到的所述人脸外接框信息进行分类识别,得到人脸质量分类信息。
2.根据权利要求1所述的人脸跟踪方法,其特征在于,所述获取视频图像的步骤之前,所述方法还包括:
根据样本数据建立基于深度学习方法训练的预设模型。
3.根据权利要求2所述的人脸跟踪方法,其特征在于,所述根据样本数据建立基于深度学习方法训练的预设模型的步骤,包括:
收集包括人脸图像的样本数据;
构建神经网络;
将所述样本数据输入至所述神经网络进行训练,直到训练收敛,得到预设模型。
4.根据权利要求3所述的人脸跟踪方法,其特征在于,所述将所述样本数据输入至所述神经网络进行训练,直到训练收敛,得到预设模型的步骤,包括:
将所述样本数据输入至神经网络进行训练,所述神经网络用于基于人脸关键点信息输出人脸外接框位置;
若所述神经网络对所述人脸外接框位置的训练完成,生成基于所述人脸关键点信息和人脸外接框位置的目标数据;
将所述目标数据输入至所述神经网络进行训练,所述神经网络还用于输出人脸质量类别;
若所述神经网络对所述人脸类别的训练完成,生成预设模型。
5.根据权利要求4所述的人脸跟踪方法,其特征在于,所述将所述样本数据输入至神经网络进行训练的步骤之前,还包括:
对所述人脸图像进行扩宽处理,所述扩宽处理包括将前一帧训练图像中的人脸外接框扩大预设倍数。
6.根据权利要求1~5任一项所述的人脸跟踪方法,其特征在于,所述根据所述预设模型和所述人脸关键点信息获取人脸外接框信息的步骤,包括:
根据所述预设模型从所述视频图像中获取人脸关键点信息;
通过所述人脸关键点信息计算出人脸外接框位置。
7.根据权利要求1~5任一项所述的人脸跟踪方法,其特征在于,所述根据所述预设模型和所述人脸外接框信息得到人脸质量分类信息的步骤,包括:
根据所述预设模型得到的人脸外接框位置信息获取人脸角度参数;
根据所述人脸角度参数匹配对应的人脸质量类别。
8.一种人脸跟踪装置,其特征在于,包括:
第一获取模块,用于获取视频图像;
第二获取模块,用于根据预设模型对所述视频图像进行人脸关键点定位,获得人脸关键点信息;
第三获取模块,用于根据所述预设模型和所述人脸关键点信息获取人脸外接框信息,得到人脸追踪信息,其中,所述人脸外框信息包括前一帧人脸外接框扩大预设倍数的区域;
第四获取模块,用于根据所述预设模型中的分类模型对追踪到的所述人脸外接框信息进行分类识别,得到人脸质量分类信息。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行前述权利要求1-7中任一项所述的人脸跟踪方法。
10.一种非暂态计算机可读存储介质,该非暂态计算机可读存储介质存储计算机指令,该计算机指令用于使该计算机执行前述权利要求1-7中任一项所述的人脸跟踪方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911345823.7A CN111191553A (zh) | 2019-12-24 | 2019-12-24 | 人脸跟踪方法、装置及电子设备 |
CN2019113458237 | 2019-12-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112232311A true CN112232311A (zh) | 2021-01-15 |
CN112232311B CN112232311B (zh) | 2021-04-06 |
Family
ID=70711053
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911345823.7A Pending CN111191553A (zh) | 2019-12-24 | 2019-12-24 | 人脸跟踪方法、装置及电子设备 |
CN202011433517.1A Active CN112232311B (zh) | 2019-12-24 | 2020-12-10 | 人脸跟踪方法、装置及电子设备 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911345823.7A Pending CN111191553A (zh) | 2019-12-24 | 2019-12-24 | 人脸跟踪方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111191553A (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112580434B (zh) * | 2020-11-25 | 2024-03-15 | 奥比中光科技集团股份有限公司 | 一种基于深度相机的人脸误检优化方法、系统及人脸检测设备 |
CN112488064B (zh) * | 2020-12-18 | 2023-12-22 | 平安科技(深圳)有限公司 | 一种人脸追踪方法、系统、终端及存储介质 |
CN112699784A (zh) * | 2020-12-29 | 2021-04-23 | 深圳市普渡科技有限公司 | 一种人脸朝向估计方法、装置、电子设备及存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008370A (zh) * | 2014-05-19 | 2014-08-27 | 清华大学 | 一种视频人脸识别方法 |
CN107492116A (zh) * | 2017-09-01 | 2017-12-19 | 深圳市唯特视科技有限公司 | 一种基于多外观模型进行人脸跟踪的方法 |
CN108932727A (zh) * | 2017-12-29 | 2018-12-04 | 浙江宇视科技有限公司 | 人脸跟踪方法和装置 |
CN109657615A (zh) * | 2018-12-19 | 2019-04-19 | 腾讯科技(深圳)有限公司 | 一种目标检测的训练方法、装置及终端设备 |
CN110287874A (zh) * | 2019-06-25 | 2019-09-27 | 北京市商汤科技开发有限公司 | 目标追踪方法及装置、电子设备和存储介质 |
CN110516705A (zh) * | 2019-07-19 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
CN110544272A (zh) * | 2019-09-06 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 脸部跟踪方法、装置、计算机设备及存储介质 |
-
2019
- 2019-12-24 CN CN201911345823.7A patent/CN111191553A/zh active Pending
-
2020
- 2020-12-10 CN CN202011433517.1A patent/CN112232311B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104008370A (zh) * | 2014-05-19 | 2014-08-27 | 清华大学 | 一种视频人脸识别方法 |
CN107492116A (zh) * | 2017-09-01 | 2017-12-19 | 深圳市唯特视科技有限公司 | 一种基于多外观模型进行人脸跟踪的方法 |
CN108932727A (zh) * | 2017-12-29 | 2018-12-04 | 浙江宇视科技有限公司 | 人脸跟踪方法和装置 |
CN109657615A (zh) * | 2018-12-19 | 2019-04-19 | 腾讯科技(深圳)有限公司 | 一种目标检测的训练方法、装置及终端设备 |
CN110287874A (zh) * | 2019-06-25 | 2019-09-27 | 北京市商汤科技开发有限公司 | 目标追踪方法及装置、电子设备和存储介质 |
CN110516705A (zh) * | 2019-07-19 | 2019-11-29 | 平安科技(深圳)有限公司 | 基于深度学习的目标跟踪方法、装置及计算机可读存储介质 |
CN110544272A (zh) * | 2019-09-06 | 2019-12-06 | 腾讯科技(深圳)有限公司 | 脸部跟踪方法、装置、计算机设备及存储介质 |
Non-Patent Citations (3)
Title |
---|
PHILIPP BERGMANN 等: "Tracking without bells and whistles", 《COMPUTER VISION AND PATTERN RECOGNITION》 * |
林智能: "一种鲁棒的长期人脸特征点跟踪系统", 《电脑知识与技术》 * |
黄健 等: "一种基于核相关滤波的视觉跟踪算法", 《计算机科学》 * |
Also Published As
Publication number | Publication date |
---|---|
CN111191553A (zh) | 2020-05-22 |
CN112232311B (zh) | 2021-04-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112232311B (zh) | 人脸跟踪方法、装置及电子设备 | |
CN109584276B (zh) | 关键点检测方法、装置、设备及可读介质 | |
CN110188719B (zh) | 目标跟踪方法和装置 | |
US11328401B2 (en) | Stationary object detecting method, apparatus and electronic device | |
CN112101305B (zh) | 多路图像处理方法、装置及电子设备 | |
CN111680678B (zh) | 目标区域识别方法、装置、设备及可读存储介质 | |
CN112927363B (zh) | 体素地图构建方法及装置、计算机可读介质和电子设备 | |
CN111986214B (zh) | 一种地图中人行横道的构建方法和电子设备 | |
CN110660102B (zh) | 基于人工智能的说话人识别方法及装置、系统 | |
CN110287816B (zh) | 车门动作检测方法、装置和计算机可读存储介质 | |
CN110209658B (zh) | 数据清洗方法和装置 | |
CN113177432B (zh) | 基于多尺度轻量化网络的头部姿态估计方法、系统、设备及介质 | |
CN111222509A (zh) | 目标检测方法、装置及电子设备 | |
CN111199169A (zh) | 图像处理方法和装置 | |
CN112037223A (zh) | 图像缺陷检测方法、装置及电子设备 | |
CN110069997B (zh) | 场景分类方法、装置及电子设备 | |
CN114385662A (zh) | 路网更新方法、装置、存储介质及电子设备 | |
CN114049674A (zh) | 一种三维人脸重建方法、装置及存储介质 | |
CN110555861A (zh) | 光流计算方法、装置及电子设备 | |
CN110197459B (zh) | 图像风格化生成方法、装置及电子设备 | |
CN111310595B (zh) | 用于生成信息的方法和装置 | |
CN116152576B (zh) | 图像处理方法、装置、设备及存储介质 | |
CN111832354A (zh) | 目标对象年龄识别方法、装置及电子设备 | |
CN116823884A (zh) | 多目标跟踪方法、系统、计算机设备及存储介质 | |
CN111626990A (zh) | 目标检测框处理方法、装置及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |