CN106295511A - 人脸跟踪方法及装置 - Google Patents

人脸跟踪方法及装置 Download PDF

Info

Publication number
CN106295511A
CN106295511A CN201610599541.XA CN201610599541A CN106295511A CN 106295511 A CN106295511 A CN 106295511A CN 201610599541 A CN201610599541 A CN 201610599541A CN 106295511 A CN106295511 A CN 106295511A
Authority
CN
China
Prior art keywords
face key
key points
frame image
image
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201610599541.XA
Other languages
English (en)
Other versions
CN106295511B (zh
Inventor
杨松
罗瑾文
王百超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201610599541.XA priority Critical patent/CN106295511B/zh
Publication of CN106295511A publication Critical patent/CN106295511A/zh
Application granted granted Critical
Publication of CN106295511B publication Critical patent/CN106295511B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本公开是关于一种人脸跟踪方法及装置,属于图像识别领域,该方法包括:获取视频数据中包含人脸图像的当前帧图像;当该当前帧图像不为第一帧图像时,对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估;当上一帧图像中的多个人脸关键点的位置评估为正确时,基于该上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定该当前帧图像中的多个人脸关键点的位置;当该上一帧图像中的多个人脸关键点的位置评估为不正确时,对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置;基于多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置,以实现对该视频数据中的人脸进行跟踪。

Description

人脸跟踪方法及装置
技术领域
本公开涉及图像识别领域,尤其涉及一种人脸跟踪方法及装置。
背景技术
随着技术的发展,人脸跟踪技术的应用范围越来越广。其中,人脸跟踪技术指的是在视频数据中对每一个人脸的人脸关键点进行跟踪,对人脸的人脸关键点进行跟踪可以方便后续对视频数据包括的视频帧图像的处理,比如,表情分析、驾驶员疲劳驾驶检测、智能美颜等。
相关技术中,主要通过判别模型进行人脸关键点的定位,也即是,人脸跟踪。典型的判别模型为SDM(Supervised Descent Method,有监督的梯度下降方法)模型。首先,从存储的多张训练图像中,获取多个人脸关键点中每个人脸关键点的平均位置,将获取的每个人脸关键点的平均位置确定为视频帧图像中每个人脸关键点的初始位置X0,每个人脸关键点的初始位置X0为每个人脸关键点在该视频帧图像中的坐标位置,通过SDM模型获取每个人脸关键点的初始位置X0处的HOG(Histogram OfOriented Gradient,方向梯度直方图)特征,并根据每个人脸关键点的初始位置X0处的HOG特征确定特征向量Y0,并通过特征向量Y0和指定函数,计算从每个人脸关键点的初始位置X0到跟踪位置的位移量△X0,然后将每个人脸关键点的初始位置X0和位移量△X0相加,得到迭代结果,这样就完成了一次迭代更新。之后,通过相同的方式重复进行迭代,直到所得的迭代结果为一个固定值,或者所得的迭代结果的变化开始变小时,将所得的迭代结果确定为该视频帧图像中每个人脸关键点的跟踪位置。
发明内容
为克服相关技术中存在的问题,本公开提供一种人脸跟踪方法及装置。
根据本公开实施例的第一方面,提供一种人脸跟踪方法,所述方法包括:
获取视频数据中包含人脸图像的当前帧图像;
当所述当前帧图像不为第一帧图像时,对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,所述第一帧图像为所述视频数据中第一次出现人脸图像的视频帧图像;
当所述上一帧图像中的多个人脸关键点的位置评估为正确时,基于所述上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置;
当所述上一帧图像中的多个人脸关键点的位置评估为不正确时,对所述当前帧图像进行人脸检测,得到所述当前帧图像中的人脸位置;
基于多个指定关键点位置和第二指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置,以实现对所述视频数据中的人脸进行跟踪。
可选地,所述方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
以所述多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
基于所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到所述第一指定判别模型。
需要说明的是,由于终端通过大量训练图像进行模型训练,因此,提高了模型训练的效果,同时,在终端通过模型训练得到第一判别模型后,当该上一帧图像中的多个人脸关键点的位置评估为正确时,终端可以基于上一帧图像中的多个人脸关键点的位置和该第一指定判别模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对视频数据中的人脸进行跟踪,并且使进行人脸跟踪的操作具有针对性。
可选地,所述方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
对于所述多张训练图像中每张训练图像,基于所述训练图像包括的多个人脸关键点的标注位置,确定所述训练图像包括的多个人脸关键点的平均位置;
基于所述多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到所述第二指定判别模型。
需要说明的是,终端通过模型训练得到第二判别模型,从而当该上一帧图像中的多个人脸关键点的位置评估为不正确时,终端可以基于多个指定关键点位置和第二指定判别模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对视频数据中的人脸进行跟踪,并且使进行人脸跟踪的操作具有针对性。
可选地,所述对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,包括:
提取所述上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
将所述每个人脸关键点的HOG特征串联成特征向量;
通过指定分类器对所述特征向量进行分类,得到分类结果;
当所述分类结果为第一数值时,确定所述上一帧图像中多个人脸关键点的位置评估为正确;
当所述分类结果为第二数值时,确定所述上一帧图像中多个人脸关键点的位置评估不为正确。
需要说明的是,终端通过对上一帧图像包括的多个人脸关键点的位置进行评估,从而可以选择确定当前帧图像包括的人脸关键点的位置的方法,使人脸跟踪具有针对性,从而提高了人脸跟踪的效率。
可选地,所述方法还包括:
对所述特征向量进行降维;
相应地,所述通过指定分类器对所述特征向量进行分类,得到分类结果,包括:
通过所述指定分类器对降维后的所述特征向量进行分类,得到所述分类结果。
需要说明的是,当终端对该特征向量进行降维后,降维后的特征向量中仅包括该特长向量的主要成分,因此,终端通过指定分类器对降维后的特征向量进行分类,可以降低计算复杂度,提高分类速度,进而提高了分类的效率。
根据本公开实施例的第二方面,提供一种人脸跟踪装置,所述装置包括:
第一获取模块,用于获取视频数据中包含人脸图像的当前帧图像;
评估模块,用于当所述当前帧图像不为第一帧图像时,对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,所述第一帧图像为所述视频数据中第一次出现人脸图像的视频帧图像;
第一确定模块,用于当所述上一帧图像中的多个人脸关键点的位置评估为正确时,基于所述上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置;
人脸检测模块,用于当所述上一帧图像中的多个人脸关键点的位置评估为不正确时,对所述当前帧图像进行人脸检测,得到所述当前帧图像中的人脸位置;
第二确定模块,用于基于多个指定关键点位置和第二指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置,以实现对所述视频数据中的人脸进行跟踪。
可选地,所述装置还包括:
第二获取模块,用于获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
采样模块,用于以所述多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
第一训练模块,用于基于所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到所述第一指定判别模型。
可选地,所述装置还包括:
第三获取模块,用于获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
第三确定模块,用于对于所述多张训练图像中每张训练图像,基于所述训练图像包括的多个人脸关键点的标注位置,确定所述训练图像包括的多个人脸关键点的平均位置;
第二训练模块,用于基于所述多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到所述第二指定判别模型。
可选地,所述评估模块包括:
提取单元,用于提取所述上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
串联单元,用于将所述每个人脸关键点的HOG特征串联成特征向量;
分类单元,用于通过指定分类器对所述特征向量进行分类,得到分类结果;
第一确定单元,用于当所述分类结果为第一数值时,确定所述上一帧图像中多个人脸关键点的位置评估为正确;
第二确定单元,用于当所述分类结果为第二数值时,确定所述上一帧图像中多个人脸关键点的位置评估不为正确。
可选地,所述评估模块还包括:
降维单元,用于对所述特征向量进行降维;
相应地,所述分类单元包括:
分类子单元,通过所述指定分类器对降维后的所述特征向量进行分类,得到所述分类结果。
根据本公开实施例的第三方面,提供一种人脸跟踪装置,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取视频数据中包含人脸图像的当前帧图像;
当所述当前帧图像不为第一帧图像时,对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,所述第一帧图像为所述视频数据中第一次出现人脸图像的视频帧图像;
当所述上一帧图像中的多个人脸关键点的位置评估为正确时,基于所述上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置;
当所述上一帧图像中的多个人脸关键点的位置评估为不正确时,对所述当前帧图像进行人脸检测,得到所述当前帧图像中的人脸位置;
基于多个指定关键点位置和第二指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置,以实现对所述视频数据中的人脸进行跟踪。
本公开的实施例提供的技术方案可以包括以下有益效果:在本公开实施例中,当终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对上一帧图像中的多个人脸关键点的位置进行评估,并当评估结果为正确时,通过该上一帧图像包括的多个人脸关键点的位置和第一指定模型,确定当前帧图像中的多个人脸关键点的位置;当评估结果为不正确时,可以对当前帧图像进行人脸检测,并通过该指定关键点位置和第二指定模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对该视频数据中的人脸进行跟踪。由于通过该第一指定模型和第二指定模型确定人脸关键点位置的条件不同,从而可以使该第一指定模型和第二指定模型在不同的条件下进行相互配合,减少了终端进行人脸跟踪时计算量,提高了人脸跟踪的速度,从而提高了人脸跟踪效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。
图1是根据一示例性实施例示出的一种人脸跟踪方法的流程图。
图2A是根据一示例性实施例示出的另一种人脸跟踪方法的流程图。
图2B是根据一示例性实施例示出的一种人脸关键点的示意图。
图3A是根据一示例性实施例示出的第一种人脸跟踪装置的结构框图。
图3B是根据一示例性实施例示出的第二种人脸跟踪装置的结构框图。
图3C是根据一示例性实施例示出的第三种人脸跟踪装置的结构框图。
图3D是根据一示例性实施例示出的一种评估模块的结构框图。
图4是根据一示例性实施例示出的第四种人脸跟踪装置的结构框图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本发明的一些方面相一致的装置和方法的例子。
在对本公开实施例进行详细地解释说明之前,先对本公开实施例的应用场景予以介绍。随着技术的发展,人脸跟踪技术的应用范围越来越广泛。相关技术中,主要通过SDM模型来确定视频数据中人脸关键点的位置以实现对人脸的跟踪。但是,由于在通过SDM模型进行人脸跟踪时,需要进行大量计算,从而造成人脸跟踪过程繁琐,人脸跟踪效果不佳。因此,本公开实施例提供了一种人脸跟踪方法,从而减少了人脸跟踪过程中的计算量,简化了人脸跟踪的过程,从而提高了人脸跟踪的效果。
图1是根据一示例性实施例示出的一种人脸跟踪方法的流程图,如图1所示,该方法用于终端中,包括以下步骤。
在步骤101中,获取视频数据中包含人脸图像的当前帧图像。
在步骤102中,当该当前帧图像不为第一帧图像时,对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,该第一帧图像为该视频数据中第一次出现人脸图像的视频帧图像。
在步骤103中,当该上一帧图像中的多个人脸关键点的位置评估为正确时,基于该上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定该当前帧图像中的多个人脸关键点的位置。
在步骤104中,当该上一帧图像中的多个人脸关键点的位置评估为不正确时,对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置。
在步骤105中,基于多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置,以实现对该视频数据中的人脸进行跟踪。
在本公开实施例中,当终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对上一帧图像中的多个人脸关键点的位置进行评估,并当评估结果为正确时,通过该上一帧图像包括的多个人脸关键点的位置和第一指定模型,确定当前帧图像中的多个人脸关键点的位置;当评估结果为不正确时,可以对当前帧图像进行人脸检测,并通过该指定关键点位置和第二指定模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对该视频数据中的人脸进行跟踪。由于通过该第一指定模型和第二指定模型确定人脸关键点位置的条件不同,从而可以使该第一指定模型和第二指定模型在不同的条件下进行相互配合,减少了终端进行人脸跟踪时计算量,提高了人脸跟踪的速度,从而提高了人脸跟踪效果。
可选地,该方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;
以该多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
基于该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到该第一指定判别模型。
可选地,该方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;
对于该多张训练图像中每张训练图像,基于该训练图像包括的多个人脸关键点的标注位置,确定该训练图像包括的多个人脸关键点的平均位置;
基于该多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到该第二指定判别模型。
可选地,对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,包括:
提取该上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
将该每个人脸关键点的HOG特征串联成特征向量;
通过指定分类器对该特征向量进行分类,得到分类结果;
当该分类结果为第一数值时,确定该上一帧图像中多个人脸关键点的位置评估为正确;
当该分类结果为第二数值时,确定该上一帧图像中多个人脸关键点的位置评估不为正确。
可选地,该方法还包括:
对该特征向量进行降维;
相应地,通过指定分类器对该特征向量进行分类,得到分类结果,包括:
通过该指定分类器对降维后的该特征向量进行分类,得到该分类结果。
上述所有可选技术方案,均可按照任意结合形成本公开的可选实施例,本发明实施例对此不再一一赘述。
图2A是根据示例性实施例示出的一种人脸跟踪方法的流程图,参见图2A,该方法包括如下步骤。
在步骤201中,终端获取视频数据中包含人脸图像的当前帧图像。
其中,当前帧图像是指终端当前从视频数据中进行人脸跟踪的图像,且该当前帧图像可以为视频数据中的任一帧图像,本公开实施例对此不做具体限定。
需要说明的是,该视频数据可以为任一视频数据,比如,该视频数据可以为电子警察拍摄到的视频数据等,本公开实施例对此不做具体限定。
还需要说明的是,终端获取视频数据中包含人脸图像的当前帧图像的操作可以参考相关技术,本公开实施例对此不做具体限定。
在步骤202中,当该当前帧图像不为第一帧图像时,终端对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,该第一帧图像为该视频数据中第一次出现人脸图像的视频帧图像。
其中,终端对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估的操作可以为:提取该上一帧图像中的每个人脸关键点的HOG特征;将每个人脸关键点的HOG特征串联成特征向量;通过指定分类器对该特征向量进行分类,得到分类结果;当该分类结果为第一数值时,确定该上一帧图像中多个人脸关键点的位置评估为正确;当该分类结果为第二数值时,确定该上一帧图像中多个人脸关键点的位置评估不为正确。
需要说明的是,上一帧图像是指视频数据中与当前帧图像相邻,且位于当前帧图像之前的图像。
另外,由于终端在进行人脸跟踪时,可以对视频数据中包括人脸图像的每一帧图像进行人脸跟踪,并获取该每一帧图像包括的多个人脸关键点的位置。因此,当该终端对当前帧图像进行人脸跟踪时,该终端可以从已进行了人脸跟踪的图像中,获取与当前帧图像相邻的上一帧图像包括的多个人脸关键点的位置。
还需要说明的是,该多个人脸关键点可以是指表示人脸五官的点。比如,如图2B所示的人脸关键点示意图,该多个人脸关键点可以为表示人脸的眼睛、嘴巴、鼻子、眉毛、脸部轮廓等的点,本公开实施例对此不做具体限定。
另外,在本公开实施例中,该多个人脸关键点的数量可以为95个,当然在实际应用中,该多个人脸关键点的数量也可以为其他个数,本公开实施例对此不做具体限定。
还需要说明的是,指定分类器用于对特征向量进行分类,且该指定分类器可以为任意一个具有分类功能的分类器,比如,SVM(Support Vector Machine,支持向量机)等,本公开实施例对此不做具体限定。
另外,终端提取该上一帧图像中的每个人脸关键点的HOG特征的操作可以参考相关技术,本公开实施例对此不再进行一一赘述。
再者,终端将每个人脸关键点的HOG特征串联成特征向量的操作同样可以参考相关技术,本公开实施例对此同样不再进行一一赘述。
还需要说明的是,在本公开实施例中,第一数值和第二数值为两个不相同的数值。
其中,第一数值用于表示该指定分类器对该特征向量的分类结果为正确,且该第一数值可以事先设置,比如,该第一数值可以为1、0等,本公开实施例对此不做具体限定。
同理,第二数值用于表示该指定分类器对该特征向量的分类结果为不正确,且该第二数值同样可以事先设置,比如,该第二数值可以为0、1等,本公开实施例对此不做具体限定。
其中,由于该第一数值和第二数值为两个不相同的数值,因此,当该第一数值为1时,第二数值为0;当该第一数值为0时,该第二数值为1。
进一步地,终端将该每个人脸关键点的HOG特征串联成特征向量之后,还可以对该特征向量进行降维;相应地,该终端通过指定分类器对该特征向量进行分类,得到分类结果的操作可以为:通过该指定分类器对降维后的特征向量进行分类,得到该分类结果。
其中,终端可以通过PCA(Principal ComponentAnalysis,主成分分析)算法对该特征向量进行降维,也可以通过其他方式对该特征向量进行将降维,本公开实施例对此不做具体限定。
需要说明的是,终端通过PCA算法对该特征向量进行降维的操作可以参考相关技术,本公开实施例对此不再进行一一赘述。
还需要说明的是,当终端对该特征向量进行降维后,降维后的特征向量中仅包括该特长向量的主要成分,因此,终端通过指定分类器对降维后的特征向量进行分类,可以降低计算复杂度,提高分类速度,进而提高了分类的效率。
另外,终端通过对上一帧图像包括的多个人脸关键点的位置进行评估,从而可以选择确定当前帧图像包括的人脸关键点的位置的方法,使人脸跟踪具有针对性,从而提高了人脸跟踪的效率。
在步骤203中,当该上一帧图像中的多个人脸关键点的位置评估为正确时,终端基于该上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定该当前帧图像中的多个人脸关键点的位置。
其中,终端基于该上一帧图像中的多个人脸关键的位置和第一指定判别模型,确定该当前帧图像中的多个人脸关键点的位置的操作可以为:终端将该上一帧图像中的多个人脸关键点的位置中的每个人脸关键点的位置代入到该第一指定判别模型中进行计算,将得到的结果确定为当前帧图像中的多个人脸关键点的位置。
需要说明的是,第一指定判别模型为事先进行模型训练得到的模型,且该第一指定判别模型用于当上一帧图像中的多个人脸关键点的位置评估为正确时,对当前帧图像中多个人脸关键点的位置进行计算。
其中,终端进行模型训练得到第一判别模型的操作可以为:获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;以该多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;基于该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到该第一指定判别模型。
需要说明的是,训练图像为用于进行模型训练的图像,该训练图像可以为任意一张具有人脸图像的图像,且该训练图像的数量可以为任一数量。而为了具有更好的训练效果,该训练图像的数量越多越好,比如,该训练图像的数量可以为10000张,本公开实施例对此不做具体限定。
还需要说明的是,终端以该多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置的操作可以参考相关技术,本公开实施例对此不再进行一一赘述。
其中,终端基于该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到该第一指定判别模型的操作可以参考相关技术,本公开实施例对此不再进行一一赘述。
在步骤204中,当该上一帧图像中的多个人脸关键点的位置评估为不正确时,对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置。
其中,当该上一帧图像中的多个人脸关键点的位置评估为不正确时,终端可以通过人脸识别的方式对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置。
需要说明的是,终端不仅可以通过人脸识别的方式对当前帧图像进行人脸检测,该终端还可以通过其他方式对该当前帧图像进行人脸检测,本公开实施例对此不做具体限定。
还需要说明的是,终端通过人脸识别的方式对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置的操作可以参考相关技术,本公开实施例对此不再进行一一赘述。
在步骤205中,终端基于多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置,以实现对该视频数据中的人脸进行跟踪。
其中,终端基于该多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置的操作可以为:终端将该多个指定关键点位置中的每个指定关键点位置代入到该第二指定判别模型中进行计算,将得到的结果确定为当前帧图像中的多个人脸关键点的位置。
需要说明的是,第二指定判别模型为事先进行模型训练得到的模型,且该第二指定判别模型用于当上一帧图像中的多个人脸关键点的位置评估为不正确时,对当前帧图像中多个人脸关键点的位置进行计算。
其中,终端进行模型训练得到第二判别模型的操作可以为:获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;对于该多张训练图像中每张训练图像,基于该训练图像包括的多个人脸关键点的标注位置,确定该训练图像包括的多个人脸关键点的平均位置;基于该多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到该第二指定判别模型。
需要说明的是,该多个指定关键点位置为事先设置的多个人脸关键点的位置,比如,该多个指定关键点位置为该训练图像包括的多个人脸关键点的平均位置,当然,该多个指定关键点位置也可以为其他位置,本公开实施例对此不做具体限定。
另外,对于该多张训练图像中每张训练图像,终端基于该训练图像包括的多个人脸关键点的标注位置,确定该训练图像包括的多个人脸关键点的平均位置的操作可以为:对每张训练图像中的多个人脸关键点进行编号,从多张训练图像中获取多个编号相同的人脸关键点的标注位置,将获取的多个编号相同的人脸关键点的标注位置进行相加,并用相加后得到的结果除以该多个训练图像的数量,得到该训练图像包括的多个人脸关键点的平均位置。
比如,当训练图像的数量为5张,终端对5中训练图像中每张训练图像包括的多个人脸关键点从0开始编号到95,并从该5张训练图像中获取每张训练图像中编号为0的人脸关键点的标注位置分别为(10,15)、(9,10)、(10,10)、(11、15)和(10,10),将获取的5个编号为0的人脸关键点的标注位置进行相加,得到(50,60),用相加得到后的结果(50,60)除以训练图像的数量5,得到该训练图像包括的编号为0的人脸关键点的平均位置为(10,12)。终端按照该训练图像包括的编号为0的平均位置的操作,确定剩余编号为1到95的人脸关键点的平均位置,从而确定该训练图像包括的多个人脸关键点的平均位置。
需要说明的是,在本公开实施例中所涉及到的数字均是为了说明本公开实施例而举得例子,并不对本公开实施例构成限定。
进一步地,当该终端获取的当前帧图像为第一帧图像时,该终端可以对当前帧图像进行人脸检测,得到当前帧图像中的人脸位置;并基于多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置。
还需要说明的是,当终端无法获取到视频数据中的帧图像时,终端将停止对人脸图像的跟踪。
在本公开实施例中,当终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对上一帧图像中的多个人脸关键点的位置进行评估,并在评估结果为正确时,通过该上一帧图像包括的多个人脸关键点的位置和第一指定模型,确定当前帧图像中的多个人脸关键点的位置;当评估结果为不正确时,或者,终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对当前帧图像进行人脸检测,并通过该多个指定关键点位置和第二指定模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对该视频数据中的人脸进行跟踪。由于训练得到的第一指定判别模型和第二指定判别模型的训练条件不同,因此,通过该第一指定模型和第二指定模型确定人脸关键点位置的条件不同,从而可以使该第一指定模型和第二指定模型在不同的条件下进行相互配合,减少了终端进行人脸跟踪时的大量计算过程,提高了人脸跟踪的速度,从而提高了人脸跟踪效果。
图3A是根据一示例性实施例示出的一种人脸跟踪装置的结构框图。参照图3A,该装置包括:第一获取模块301、评估模块302、第一确定模块303、人脸检测模块304和第二确定模块305。
第一获取模块301,用于获取视频数据中包含人脸图像的当前帧图像;
评估模块302,用于当该当前帧图像不为第一帧图像时,对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,该第一帧图像为该视频数据中第一次出现人脸图像的视频帧图像;
第一确定模块303,用于当该上一帧图像中的多个人脸关键点的位置评估为正确时,基于该上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定该当前帧图像中的多个人脸关键点的位置;
人脸检测模块304,用于当该上一帧图像中的多个人脸关键点的位置评估为不正确时,对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置;
第二确定模块305,用于基于多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置,以实现对该视频数据中的人脸进行跟踪。
可选地,参见图3B,该装置还包括:
第二获取模块306,用于获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;
采样模块307,用于以该多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
第一训练模块308,用于基于该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到该第一指定判别模型。
可选地,参见图3C,该装置还包括:
第三获取模块309,用于获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;
第三确定模块310,用于对于该多张训练图像中每张训练图像,基于该训练图像包括的多个人脸关键点的标注位置,确定该训练图像包括的多个人脸关键点的平均位置;
第二训练模块311,用于基于该多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到该第二指定判别模型。
可选地,参见图3D,该评估模块302包括:
提取单元3021,用于提取该上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
串联单元3022,用于将该每个人脸关键点的HOG特征串联成特征向量;
分类单元3023,用于通过指定分类器对该特征向量进行分类,得到分类结果;
第一确定单元3024,用于当该分类结果为第一数值时,确定该上一帧图像中多个人脸关键点的位置评估为正确;
第二确定单元3025,用于当该分类结果为第二数值时,确定该上一帧图像中多个人脸关键点的位置评估不为正确。
可选地,该评估模块302还包括:
降维单元,用于对该特征向量进行降维;
相应地,该分类单元3023包括:
分类子单元,通过该指定分类器对降维后的该特征向量进行分类,得到该分类结果。
在本公开实施例中,当终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对上一帧图像中的多个人脸关键点的位置进行评估,并在评估结果为正确时,通过该上一帧图像包括的多个人脸关键点的位置和第一指定模型,确定当前帧图像中的多个人脸关键点的位置;当评估结果为不正确时,或者,终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对当前帧图像进行人脸检测,并通过该多个指定关键点位置和第二指定模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对该视频数据中的人脸进行跟踪。由于训练得到的第一指定判别模型和第二指定判别模型的训练条件不同,因此,通过该第一指定模型和第二指定模型确定人脸关键点位置的条件不同,从而可以使该第一指定模型和第二指定模型在不同的条件下进行相互配合,减少了终端进行人脸跟踪时的大量计算过程,提高了人脸跟踪的速度,从而提高了人脸跟踪效果。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图4是根据一示例性实施例示出的一种用于人脸跟踪的装置400的框图。例如,装置400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,装置400可以包括以下一个或多个组件:处理组件402,存储器404,电源组件406,多媒体组件408,音频组件410,输入/输出(I/O)的接口412,传感器组件414,以及通信组件416。
处理组件402通常控制装置400的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理组件402可以包括一个或多个处理器420来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件402可以包括一个或多个模块,便于处理组件402和其他组件之间的交互。例如,处理组件402可以包括多媒体模块,以方便多媒体组件408和处理组件402之间的交互。
存储器404被配置为存储各种类型的数据以支持在装置400的操作。这些数据的示例包括用于在装置400上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器404可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电源组件406为装置400的各种组件提供电源。电源组件406可以包括电源管理系统,一个或多个电源,及其他与为装置400生成、管理和分配电源相关联的组件。
多媒体组件408包括在所述装置400和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件408包括一个前置摄像头和/或后置摄像头。当装置400处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件410被配置为输出和/或输入音频信号。例如,音频组件410包括一个麦克风(MIC),当装置400处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器404或经由通信组件416发送。在一些实施例中,音频组件410还包括一个扬声器,用于输出音频信号。
I/O接口412为处理组件402和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件414包括一个或多个传感器,用于为装置400提供各个方面的状态评估。例如,传感器组件414可以检测到装置400的打开/关闭状态,组件的相对定位,例如所述组件为装置400的显示器和小键盘,传感器组件414还可以检测装置400或装置400一个组件的位置改变,用户与装置400接触的存在或不存在,装置400方位或加速/减速和装置400的温度变化。传感器组件414可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件414还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件414还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件416被配置为便于装置400和其他设备之间有线或无线方式的通信。装置400可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信组件416经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件416还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,装置400可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由装置400的处理器420执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由移动终端的处理器执行时,使得移动终端能够执行一种人脸跟踪方法,所述方法包括:
获取视频数据中包含人脸图像的当前帧图像。
当该当前帧图像不为第一帧图像时,对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,该第一帧图像为该视频数据中第一次出现人脸图像的视频帧图像。
当该上一帧图像中的多个人脸关键点的位置评估为正确时,基于该上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定该当前帧图像中的多个人脸关键点的位置。
当该上一帧图像中的多个人脸关键点的位置评估为不正确时,对该当前帧图像进行人脸检测,得到该当前帧图像中的人脸位置。
基于多个指定关键点位置和第二指定判别模型,确定该当前帧图像中的多个人脸关键点的位置,以实现对该视频数据中的人脸进行跟踪。
可选地,该方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;
以该多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
基于该多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到该第一指定判别模型。
可选地,该方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,该每张训练图像包括的多个人脸关键点的标注位置为对该每张训练图像中的多个人脸关键点进行标注所确定的位置;
对于该多张训练图像中每张训练图像,基于该训练图像包括的多个人脸关键点的标注位置,确定该训练图像包括的多个人脸关键点的平均位置;
基于该多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到该第二指定判别模型。
可选地,对该视频数据中与该当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,包括:
提取该上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
将该每个人脸关键点的HOG特征串联成特征向量;
通过指定分类器对该特征向量进行分类,得到分类结果;
当该分类结果为第一数值时,确定该上一帧图像中多个人脸关键点的位置评估为正确;
当该分类结果为第二数值时,确定该上一帧图像中多个人脸关键点的位置评估不为正确。
可选地,该方法还包括:
对该特征向量进行降维;
相应地,通过指定分类器对该特征向量进行分类,得到分类结果,包括:
通过该指定分类器对降维后的该特征向量进行分类,得到该分类结果。
在本公开实施例中,当终端从视频数据中获取的当前帧图像不为第一帧图像时,可以对上一帧图像中的多个人脸关键点的位置进行评估,并当评估结果为正确时,通过该上一帧图像包括的多个人脸关键点的位置和第一指定模型,确定当前帧图像中的多个人脸关键点的位置;当评估结果为不正确时,可以对当前帧图像进行人脸检测,并通过该指定关键点位置和第二指定模型,确定当前帧图像中的多个人脸关键点的位置,从而实现对该视频数据中的人脸进行跟踪。由于通过该第一指定模型和第二指定模型确定人脸关键点位置的条件不同,从而可以使该第一指定模型和第二指定模型在不同的条件下进行相互配合,减少了终端进行人脸跟踪时计算量,提高了人脸跟踪的速度,从而提高了人脸跟踪效果。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其它实施方案。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由下面的权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限制。

Claims (11)

1.一种人脸跟踪方法,其特征在于,所述方法包括:
获取视频数据中包含人脸图像的当前帧图像;
当所述当前帧图像不为第一帧图像时,对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,所述第一帧图像为所述视频数据中第一次出现人脸图像的视频帧图像;
当所述上一帧图像中的多个人脸关键点的位置评估为正确时,基于所述上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置;
当所述上一帧图像中的多个人脸关键点的位置评估为不正确时,对所述当前帧图像进行人脸检测,得到所述当前帧图像中的人脸位置;
基于多个指定关键点位置和第二指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置,以实现对所述视频数据中的人脸进行跟踪。
2.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
以所述多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
基于所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到所述第一指定判别模型。
3.如权利要求1所述的方法,其特征在于,所述方法还包括:
获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
对于所述多张训练图像中每张训练图像,基于所述训练图像包括的多个人脸关键点的标注位置,确定所述训练图像包括的多个人脸关键点的平均位置;
基于所述多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到所述第二指定判别模型。
4.如权利要求1所述的方法,其特征在于,所述对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,包括:
提取所述上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
将所述每个人脸关键点的HOG特征串联成特征向量;
通过指定分类器对所述特征向量进行分类,得到分类结果;
当所述分类结果为第一数值时,确定所述上一帧图像中多个人脸关键点的位置评估为正确;
当所述分类结果为第二数值时,确定所述上一帧图像中多个人脸关键点的位置评估不为正确。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
对所述特征向量进行降维;
相应地,所述通过指定分类器对所述特征向量进行分类,得到分类结果,包括:
通过所述指定分类器对降维后的所述特征向量进行分类,得到所述分类结果。
6.一种人脸跟踪装置,其特征在于,所述装置包括:
第一获取模块,用于获取视频数据中包含人脸图像的当前帧图像;
评估模块,用于当所述当前帧图像不为第一帧图像时,对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,所述第一帧图像为所述视频数据中第一次出现人脸图像的视频帧图像;
第一确定模块,用于当所述上一帧图像中的多个人脸关键点的位置评估为正确时,基于所述上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置;
人脸检测模块,用于当所述上一帧图像中的多个人脸关键点的位置评估为不正确时,对所述当前帧图像进行人脸检测,得到所述当前帧图像中的人脸位置;
第二确定模块,用于基于多个指定关键点位置和第二指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置,以实现对所述视频数据中的人脸进行跟踪。
7.如权利要求6所述的装置,其特征在于,所述装置还包括:
第二获取模块,用于获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
采样模块,用于以所述多张训练图像中每张训练图像包括的多个人脸关键点的标注位置为中心进行高斯采样,得到所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置;
第一训练模块,用于基于所述多张训练图像中每张训练图像包括的多个人脸关键点的采样位置和标注位置,对判别模型进行训练,得到所述第一指定判别模型。
8.如权利要求6所述的装置,其特征在于,所述装置还包括:
第三获取模块,用于获取多张训练图像中每张训练图像包括的多个人脸关键点的标注位置,所述每张训练图像包括的多个人脸关键点的标注位置为对所述每张训练图像中的多个人脸关键点进行标注所确定的位置;
第三确定模块,用于对于所述多张训练图像中每张训练图像,基于所述训练图像包括的多个人脸关键点的标注位置,确定所述训练图像包括的多个人脸关键点的平均位置;
第二训练模块,用于基于所述多张训练图像中每张训练图像包括的多个人脸关键点的平均位置和标注位置,对判别模型进行训练,得到所述第二指定判别模型。
9.如权利要求6所述的装置,其特征在于,所述评估模块包括:
提取单元,用于提取所述上一帧图像中的每个人脸关键点的方向梯度梯直方图HOG特征;
串联单元,用于将所述每个人脸关键点的HOG特征串联成特征向量;
分类单元,用于通过指定分类器对所述特征向量进行分类,得到分类结果;
第一确定单元,用于当所述分类结果为第一数值时,确定所述上一帧图像中多个人脸关键点的位置评估为正确;
第二确定单元,用于当所述分类结果为第二数值时,确定所述上一帧图像中多个人脸关键点的位置评估不为正确。
10.如权利要求9所述的装置,其特征在于,所述评估模块还包括:
降维单元,用于对所述特征向量进行降维;
相应地,所述分类单元包括:
分类子单元,通过所述指定分类器对降维后的所述特征向量进行分类,得到所述分类结果。
11.一种人脸跟踪装置,其特征在于,所述装置包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
获取视频数据中包含人脸图像的当前帧图像;
当所述当前帧图像不为第一帧图像时,对所述视频数据中与所述当前帧图像相邻的上一帧图像中的多个人脸关键点的位置进行评估,所述第一帧图像为所述视频数据中第一次出现人脸图像的视频帧图像;
当所述上一帧图像中的多个人脸关键点的位置评估为正确时,基于所述上一帧图像中的多个人脸关键点的位置和第一指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置;
当所述上一帧图像中的多个人脸关键点的位置评估为不正确时,对所述当前帧图像进行人脸检测,得到所述当前帧图像中的人脸位置;
基于多个指定关键点位置和第二指定判别模型,确定所述当前帧图像中的多个人脸关键点的位置,以实现对所述视频数据中的人脸进行跟踪。
CN201610599541.XA 2016-07-26 2016-07-26 人脸跟踪方法及装置 Active CN106295511B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610599541.XA CN106295511B (zh) 2016-07-26 2016-07-26 人脸跟踪方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610599541.XA CN106295511B (zh) 2016-07-26 2016-07-26 人脸跟踪方法及装置

Publications (2)

Publication Number Publication Date
CN106295511A true CN106295511A (zh) 2017-01-04
CN106295511B CN106295511B (zh) 2019-05-21

Family

ID=57652784

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610599541.XA Active CN106295511B (zh) 2016-07-26 2016-07-26 人脸跟踪方法及装置

Country Status (1)

Country Link
CN (1) CN106295511B (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845377A (zh) * 2017-01-10 2017-06-13 北京小米移动软件有限公司 人脸关键点定位方法及装置
CN106934381A (zh) * 2017-03-20 2017-07-07 成都通甲优博科技有限责任公司 一种人脸识别跟踪方法
CN107145863A (zh) * 2017-05-08 2017-09-08 湖南科乐坊教育科技股份有限公司 一种人脸定位方法及系统
CN107145864A (zh) * 2017-05-08 2017-09-08 湖南科乐坊教育科技股份有限公司 一种专注力评估方法及系统
CN107403145A (zh) * 2017-07-14 2017-11-28 北京小米移动软件有限公司 图像特征点定位方法及装置
CN108038837A (zh) * 2017-12-08 2018-05-15 苏州科达科技股份有限公司 视频中目标检测方法及系统
CN109241921A (zh) * 2018-09-17 2019-01-18 北京字节跳动网络技术有限公司 用于检测人脸关键点的方法和装置
CN109543604A (zh) * 2018-11-21 2019-03-29 泰康保险集团股份有限公司 视频的处理方法、装置、介质及电子设备
CN111027495A (zh) * 2019-12-12 2020-04-17 京东数字科技控股有限公司 用于检测人体关键点的方法和装置
CN111126272A (zh) * 2019-12-24 2020-05-08 腾讯科技(深圳)有限公司 姿态获取方法、关键点坐标定位模型的训练方法和装置
CN111199165A (zh) * 2018-10-31 2020-05-26 浙江宇视科技有限公司 图像处理方法及装置
CN111368792A (zh) * 2020-03-18 2020-07-03 北京奇艺世纪科技有限公司 特征点标注模型训练方法、装置、电子设备及存储介质
CN112101109A (zh) * 2020-08-11 2020-12-18 深圳数联天下智能科技有限公司 人脸关键点检测模型训练方法、装置、电子设备和介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314589A (zh) * 2010-06-29 2012-01-11 比亚迪股份有限公司 一种快速人眼定位方法及装置
CN102402691A (zh) * 2010-09-08 2012-04-04 中国科学院自动化研究所 一种对人脸姿态和动作进行跟踪的方法
CN103632672A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种变声系统、方法及人机交互系统及方法
CN104715227A (zh) * 2013-12-13 2015-06-17 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
CN105469056A (zh) * 2015-11-26 2016-04-06 小米科技有限责任公司 人脸图像处理方法及装置
CN105760826A (zh) * 2016-02-03 2016-07-13 歌尔声学股份有限公司 一种人脸跟踪方法、装置和智能终端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314589A (zh) * 2010-06-29 2012-01-11 比亚迪股份有限公司 一种快速人眼定位方法及装置
CN102402691A (zh) * 2010-09-08 2012-04-04 中国科学院自动化研究所 一种对人脸姿态和动作进行跟踪的方法
CN103632672A (zh) * 2012-08-28 2014-03-12 腾讯科技(深圳)有限公司 一种变声系统、方法及人机交互系统及方法
CN104715227A (zh) * 2013-12-13 2015-06-17 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
CN105469056A (zh) * 2015-11-26 2016-04-06 小米科技有限责任公司 人脸图像处理方法及装置
CN105760826A (zh) * 2016-02-03 2016-07-13 歌尔声学股份有限公司 一种人脸跟踪方法、装置和智能终端

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
马淑燕 等: "基于肤色模型和椭圆环模板的人脸跟踪及姿态估计", 《计算机工程与应用》 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106845377A (zh) * 2017-01-10 2017-06-13 北京小米移动软件有限公司 人脸关键点定位方法及装置
WO2018170864A1 (zh) * 2017-03-20 2018-09-27 成都通甲优博科技有限责任公司 一种人脸识别跟踪方法
CN106934381A (zh) * 2017-03-20 2017-07-07 成都通甲优博科技有限责任公司 一种人脸识别跟踪方法
CN106934381B (zh) * 2017-03-20 2021-09-14 成都通甲优博科技有限责任公司 一种人脸识别跟踪方法
CN107145864A (zh) * 2017-05-08 2017-09-08 湖南科乐坊教育科技股份有限公司 一种专注力评估方法及系统
CN107145863A (zh) * 2017-05-08 2017-09-08 湖南科乐坊教育科技股份有限公司 一种人脸定位方法及系统
CN107403145A (zh) * 2017-07-14 2017-11-28 北京小米移动软件有限公司 图像特征点定位方法及装置
CN107403145B (zh) * 2017-07-14 2021-03-09 北京小米移动软件有限公司 图像特征点定位方法及装置
CN108038837A (zh) * 2017-12-08 2018-05-15 苏州科达科技股份有限公司 视频中目标检测方法及系统
CN108038837B (zh) * 2017-12-08 2020-09-29 苏州科达科技股份有限公司 视频中目标检测方法及系统
CN109241921A (zh) * 2018-09-17 2019-01-18 北京字节跳动网络技术有限公司 用于检测人脸关键点的方法和装置
CN111199165A (zh) * 2018-10-31 2020-05-26 浙江宇视科技有限公司 图像处理方法及装置
CN111199165B (zh) * 2018-10-31 2024-02-06 浙江宇视科技有限公司 图像处理方法及装置
CN109543604A (zh) * 2018-11-21 2019-03-29 泰康保险集团股份有限公司 视频的处理方法、装置、介质及电子设备
CN111027495A (zh) * 2019-12-12 2020-04-17 京东数字科技控股有限公司 用于检测人体关键点的方法和装置
CN111126272A (zh) * 2019-12-24 2020-05-08 腾讯科技(深圳)有限公司 姿态获取方法、关键点坐标定位模型的训练方法和装置
CN111126272B (zh) * 2019-12-24 2020-11-10 腾讯科技(深圳)有限公司 姿态获取方法、关键点坐标定位模型的训练方法和装置
CN111368792A (zh) * 2020-03-18 2020-07-03 北京奇艺世纪科技有限公司 特征点标注模型训练方法、装置、电子设备及存储介质
CN111368792B (zh) * 2020-03-18 2024-05-14 北京奇艺世纪科技有限公司 特征点标注模型训练方法、装置、电子设备及存储介质
CN112101109A (zh) * 2020-08-11 2020-12-18 深圳数联天下智能科技有限公司 人脸关键点检测模型训练方法、装置、电子设备和介质
CN112101109B (zh) * 2020-08-11 2024-04-30 深圳数联天下智能科技有限公司 人脸关键点检测模型训练方法、装置、电子设备和介质

Also Published As

Publication number Publication date
CN106295511B (zh) 2019-05-21

Similar Documents

Publication Publication Date Title
CN106295511A (zh) 人脸跟踪方法及装置
CN106295566B (zh) 人脸表情识别方法及装置
CN104850828B (zh) 人物识别方法及装置
CN106548145A (zh) 图像识别方法及装置
CN105528607B (zh) 区域提取方法、模型训练方法及装置
CN106572299A (zh) 摄像头开启方法及装置
CN106503617A (zh) 模型训练方法及装置
CN106295515A (zh) 确定图像中的人脸区域的方法及装置
CN106651955A (zh) 图片中目标物的定位方法及装置
CN105631408A (zh) 基于视频的面孔相册处理方法和装置
CN106204435A (zh) 图像处理方法及装置
CN109446994A (zh) 手势关键点检测方法、装置、电子设备及存储介质
CN106339680A (zh) 人脸关键点定位方法及装置
CN107832741A (zh) 人脸特征点定位的方法、装置及计算机可读存储介质
CN105631403A (zh) 人脸识别方法及装置
CN105426867A (zh) 人脸识别验证方法及装置
CN105095881A (zh) 人脸识别方法、装置及终端
CN108010060A (zh) 目标检测方法及装置
CN106228158A (zh) 图片检测的方法和装置
CN104077597B (zh) 图像分类方法及装置
CN106295530A (zh) 人脸识别方法及装置
CN107480665A (zh) 文字检测方法、装置及计算机可读存储介质
CN106682736A (zh) 图像识别方法及装置
CN105528078B (zh) 控制电子设备的方法及装置
CN105975961B (zh) 人脸识别的方法、装置及终端

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant