CN106599830B - 人脸关键点定位方法及装置 - Google Patents

人脸关键点定位方法及装置 Download PDF

Info

Publication number
CN106599830B
CN106599830B CN201611135718.7A CN201611135718A CN106599830B CN 106599830 B CN106599830 B CN 106599830B CN 201611135718 A CN201611135718 A CN 201611135718A CN 106599830 B CN106599830 B CN 106599830B
Authority
CN
China
Prior art keywords
key point
face
stage
neural network
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201611135718.7A
Other languages
English (en)
Other versions
CN106599830A (zh
Inventor
孙哲南
赫然
谭铁牛
李琦
曹冬
宋凌霄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Priority to CN201611135718.7A priority Critical patent/CN106599830B/zh
Publication of CN106599830A publication Critical patent/CN106599830A/zh
Application granted granted Critical
Publication of CN106599830B publication Critical patent/CN106599830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/164Detection; Localisation; Normalisation using holistic features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种人脸关键点定位方法及装置。该方法包括:通过多任务卷积神经网络进行粗定位,确定人脸关键点大体位置;然后在关键点周围提取局部区域,通过全局级联卷积神经网络把关键点周围提取局部区域融合到一起,进行级联定位;最后在针对每个关键点单独训练卷积神经网络进行精细定位。本发明所用神经网络总体数目较少,定位效果相对较好。

Description

人脸关键点定位方法及装置
技术领域
本发明涉及数字图像处理,计算机视觉等技术领域,具体涉及一种基于全局卷积神经网络人脸关键点定位方法及装置。
背景技术
关键点定位(检测)在计算机视觉中是一个重要的问题,指的是定位人脸中有语义结构信息的一些关键部位,如眼睛,鼻子和嘴巴等,是有监督人脸对齐中的一个重要的步骤。关键点定位也有很多实际的应用,比如说人脸识别、人脸表情分析、人机交互应用等。由于头部姿态、人脸表情以及光照的变化,关键点定位依然是一个十分有挑战性的问题。传统的基于卷积神经网络的关键点检测算法先用一个整体神经网络定位关键点,之后把每个关键点单独隔离出来定位。虽然传统的方法定位精度较高,但是忽略了人脸形状的全局信息,对光照变化、遮挡等不够鲁棒,时间复杂度偏高,很难应用在大规模场景下的精准关键点定位。
发明内容
为了解决现有技术不足,本发明的目的是提供一种基于全局卷积神经网络的关键点定位方法,该方法利用了人脸整体形状信息,把关键点之间位置顺序关系作为约束,加入到卷积神经网络之中,提高了关键点定位的鲁棒性。另外,为了克服大姿态对于人脸定位影响,本发明在第一阶段用多任务卷积神经网络定位关键点,同时考虑姿态估计和关键点定位,提升了在大姿态场景下的关键点定位精度。最后在每个关键点周围提取局部区域,训练精细关键点定位模型。综上所述,相比其他方法,本发明用三阶段卷积神经网络进行关键点定位,对于姿态、遮挡和光照等比较鲁棒,可以更加精准的定位人脸关键点。
根据本发明一方面,提供了一种人脸关键点定位方法,包括如下步骤:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像;
将所述第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
其中,所述第一阶段多任务关键点定位模型通过如下方式训练得到:
获取包括人脸图像样本的训练样本集,在人脸图像样本中标定人脸关键点位置和头部姿态信息;
通过人脸检测器获取人脸图像样本中的人脸目标区域,把人脸目标区域缩放到第一指定分辨率,并更新标定的人脸关键点位置;
构建第一阶段多任务深度卷积神经网络;
将人脸图像样本的人脸目标区域作为输入图像输入至第一阶段多任务深度卷积神经网络进行训练,得到第一阶段关键点定位模型。
其中,训练所述第一阶段多任务深度卷积神经网络的目标函数如下表示:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
Figure BDA0001175258860000031
其中,N表示输入图像的个数,
Figure BDA0001175258860000032
是第i个输入图像中标定的人脸关键点位置,
Figure BDA0001175258860000033
表示第一阶段多任务深度卷积神经网络中第T层的输入,
Figure BDA0001175258860000034
为所述第一阶段多任务深度卷积神经网络中第T层的映射函数,
Figure BDA0001175258860000035
为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
Figure BDA0001175258860000036
其中,K为头部姿态信息的类别数目,
Figure BDA0001175258860000037
表示第i个输入图像中标定的头部姿态信息;
Figure BDA0001175258860000038
表示第i个输入图像被分为第k类头部姿态信息的概率,
Figure BDA0001175258860000039
为预测的第i个输入图像的头部姿态信息。
其中,所述
Figure BDA00011752588600000310
如下表示:
Figure BDA00011752588600000311
其中,
Figure BDA00011752588600000312
是第k类头部姿态信息的映射矩阵,
Figure BDA00011752588600000313
是第j类头部姿态信息的映射矩阵,
Figure BDA00011752588600000314
其中,所述第二阶段关键点校准模型如下训练得到:
获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
其中,所述第二阶段全局卷积神经网络的目标函数如下表示:
J=Jr2(ΔSg,f2(Ip;Wr))
其中,Jr2表示关键点定位的损失函数,ΔS=Sg-S0表示标定的人脸关键点位置和更新后的所述初始人脸关键点位置的差值,S0是更新后的所述初始人脸关键点位置,Ip表示输入图像,f2(·)是第二阶段全局卷积神经网络的非线性映射函数。
其中,所述第三阶段关键点检测模型如下训练得到:
获取包括人脸图像样本的训练样本集,以及利用第二阶段关键点校准模型定位得到的所述人脸图像样本的校准人脸关键点位置;
将所述人脸图像样本中的人脸目标区域缩放到第三指定分辨率,并更新所述校准人脸关键点位置;
以更新后的所述校准人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
根据所述提取的局部区域图像训练得到关键点检测模型,其中,根据不同人脸关键点对应的局部区域训练得到不同的关键点检测模型。
根据本发明第二方面,提供了一种人脸关键点定位装置,包括:
第一缩放模块,用于将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
初始定位模块,用于将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值;
第二缩放模块,用于将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
第一局部区域提取模块,用于以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像;
校准模块,用于将所述第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
第三缩放模块,用于将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
第二局部区域提取模块,用于以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
最终定位模块,用于将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
其中,还包括训练模块,用于训练所述第二阶段关键点校准模型,包括:
第一获取子模块,用于获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
缩放子模块,用于将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
更新子模块,用于以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
构建子模块,用于构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
训练子模块,用于将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
根据本发明第三方面,提供了一种人脸关键点定位装置,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像;
将所述第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
本发明采用由粗到精的三阶段关键点定位方法,通过多任务卷积神经网络进行粗定位,确定人脸关键点大体位置;然后在关键点周围提取局部区域,通过全局级联卷积神经网络把关键点周围提取局部区域融合到一起,进行级联定位;最后在针对每个关键点单独训练卷积神经网络进行精细定位。在第一阶段的粗定位之中,把多种任务结合:头部姿态估计和人脸关键点定位,通过一个目标函数求解相关任务,增加了第一阶段模型对于头部姿态的鲁棒性能。在第二阶段中,本发明把不同部位关键点之间的位置顺序关系作为约束加入到神经网络训练中,增加了定位精度。在最后一个阶段再根据针对每个关键点单独训练关键点检测模型,进一步提高了定位的精度。本发明提出的关键点定位算法定位精度高,泛华性能好。
附图说明
图1是本发明基于全局卷积神经网络的关键点定位的流程图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本发明作进一步的详细说明。
本发明的目的是提供一种基于全局卷积神经网络的关键点定位方法。该方法把把不同部位关键点之间的位置顺序关系作为约束加入到神经网络训练中,实现精准的关键点定位。
根据本发明一方面,提供了一种基于全局卷积神经网络关键点定位方法,如图1所示,包括如下步骤:
步骤S1,建立人脸图像训练集,借助于相关标定软件,人工标定关键点位置的绝对坐标Sg和头部姿态信息Pg:左侧脸(侧脸角度大于60度),轻微左侧脸(侧脸角度在30度到60度之间),正脸(侧脸角度在负30度到30度之间),轻微右侧脸(侧脸角度在负30度到负60度之间),右侧脸(侧脸角度在负60度以上)。
步骤S2,通过人脸检测器获取训练集中人脸图像中的人脸位置,把人脸区域缩放到指定分辨率大小,更新标定的关键点位置,将将标定的关键点人脸位置坐标更新到缩放后人脸区域中的相对位置坐标。
所述步骤S2具体包括如下:
步骤S21,对输入人脸图像进行尺度变换、旋转、缩放等,计算扰动后关键点位置,增加训练样本。
步骤S22,检测训练集中人脸图像中的人脸位置,把人脸区域缩放到第一指定分辨率,比如50x50,更新标定的人脸关键点位置。
步骤S3,构建第一阶段多任务深度卷积神经网络,利用所述训练集中的人脸图像对其进行训练得到多任务关键点定位模型,该多任务关键点定位模型能够通过多任务学习(同时预测头部姿态和关键点位置)精准的定位关键点。
步骤S31,步骤S2中训练集中人脸图像中缩放到第一指定分辨率的人脸区域的坐标位置归一化到0-1之间,图像像素灰度值也归一化到0-1之间,形成训练样本。
步骤S32,把步骤S31中的训练样本输入到多任务卷积神经网络之中进行训练,最终得到多任务关键点定位模型。
在一实施例中,第一阶段多任务深度卷积神经网络关键点定位目标函数为:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
上述公式表示同时进行关键点定位和头部姿态估计,可以定位较大姿态下的关键点。公式中Jr表示关键点定位的损失函数,Jl表示头部姿态估计的损失函数,Sg,Pg分别表示人脸关键点位置坐标、头部姿态信息,I为输入图像,f(·)是第一阶段的多任务卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵。其中,Jr用回归形式的平方误差损失函数表示:
Figure BDA0001175258860000081
其中N表示输入图像的个数,
Figure BDA0001175258860000082
是第i个输入样本的关键点坐标的实际值,
Figure BDA0001175258860000083
表示第i个样本在第T层神经网络的输入,
Figure BDA0001175258860000084
为多任务卷积神经网络第T层映射函数,
Figure BDA0001175258860000085
为多任务卷积神经网络第T层基于回归的映射矩阵;Jl用分类形式的交叉熵损失函数表示,
Figure BDA0001175258860000091
其中K为头部姿态类别,
Figure BDA0001175258860000092
表示第i个输入的实际头部姿态信息,
Figure BDA0001175258860000093
表示第i个样本在第T层神经网络的输入,头部姿态被分成第k,k=1,...,K类的概率为:
Figure BDA0001175258860000094
其中,
Figure BDA0001175258860000095
为预测的第i个输入的头部姿态,Tj(j=1,...,K)是第T层神经网络中与头部姿态分类相关信息。
Figure BDA0001175258860000096
是多任务卷积神经网络中第T层第k类头部姿态的映射矩阵,
Figure BDA0001175258860000097
是多任务卷积神经网络中第T层第j类头部姿态的映射函数,
Figure BDA0001175258860000098
为多任务卷积神经网络第T层基于分类的映射矩阵。
步骤S4,为了更加精准的定位关键点,本发明采取由粗到精的策略,把人脸图像再次缩放到第二指定分辨率,比如80x80,所述第二指定分辨率大于第一指定分辨率;同时根据步骤S3粗略定位的人脸关键点坐标,更新缩放后的人脸关键点坐标。
步骤S5,根据步骤S4得到人脸关键点位置,以关键点位置为中心提取其周边预定范围内的局部区域,并重新进行归一化,归一化后把所有关键点位置周围提取的局部区域像素值串联起来输入到第二阶段全局卷积神经网络之中定位人脸关键点坐标的精细值。
其中,所述全局卷积神经网络包括多个子神经网络以及一个全连接层,所述全连接层用于将所述多个子神经网络连接起来,所述多个子神经网络的输出作为全连接层的输入,全连接层的输出为所述全卷积神经网络的输出;所述多个子神经网络中的每个子神经网络对应所述人脸的其中一个关键点,训练好的所述多个子神经网络分别用于识别所述人脸的其中一个关键点,例如人脸包括五个关键点,所述子神经网络为五个,分别对应一个关键点;
步骤S5包括:
步骤S51,以步骤S4中得到关键点位置为中心,提取其周边预定范围内的局部区域的像素值,并且把像素值归一化到0-1之间。
步骤S52,把所有关键点周围提取的局部区域归一化的像素值串联起来输入到第二阶段全局卷积神经网络之中定位关键点。
第二阶段全局卷积神经网络总体目标函数如下:
J=Jr2(ΔS,f2(Ip;Wr))
其中Jr2表示关键点定位的损失函数,ΔS=Sg-S1表示人脸关键点位置坐标的实际值和第一阶段多任务神经网络输出预测值的差值,S1是第一阶段多任务卷积神经网络预测的人脸关键点位置坐标,Ip表示以S1为中心提取的其周边预定范围内局部区域的像素值,f2(·)是第二阶段全局卷积神经网络的非线性映射函数,Wr表示第二阶段卷积神经网络回归映射矩阵。在每个关键点周围提取的局部区域像素值Ip依次输入到各自独立的子神经网络之中,最后在全连接层串联,其中每个各自独立的子神经网络形式如下:
类型 核参数 激活函数 输出大小
IO 输入层 - - 32x32x3
C1 卷积层 5x5x16 relu 32x32x16
P2 池化层 2x2 - 16x16x16
C3 卷积层 3x3x32 relu 18x18x32
P4 池化层 2x2 - 9x9x32
C5 局部卷积层 3x3x64 relu 9x9x64
F7 全连接层 - - 1x1x60
步骤S6,根据本发明由粗到精的策略,把人脸图像再次缩放到第三指定分辨率,比如120x120,第三指定分辨率大于第一指定分辨率和第二指定分辨率;同时根据步骤S5定位的人脸关键点坐标,计算缩放后的关键点位置坐标。
步骤S7,根据S6定位的人脸关键点坐标,在关键点位置周围提取预定大小的局部区域像素值,针对每一个关键点单独训练关键点定位模型,输入第三阶段卷积神经网络进行精细定位。
步骤S61,以步骤S6中得到的关键点位置为中心,提取其周边预定范围内的局部区域的像素值,并且把像素值归一化到0-1之间。
步骤S62,对每个关键点周围提取的局部区域像素值单独训练一个局部关键点检测器,经行精细定位。
第三阶段局部卷积神经网络目标函数如下:
J=Jr3(ΔS,f3(Ip;Wr))
其中Jr3表示关键点定位的损失函数,ΔS=Sg-S2表示人脸关键点位置坐标的实际值和第二阶段全局卷积神经网络输出预测值的差值,S2是第二阶段全局卷积神经网络预测的人脸关键点位置坐标,Ip表示以S2为中心提取的其周边预定范围内局部区域的像素值,f3(·)是第三阶段卷积神经网络的非线性映射函数。第三阶段输出的关键点位置就是我们三阶段级联神经网络的最终定位结果。以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步详细说明,应理解的是,以上所述仅为本发明的具体实施例而已,并不用于限制本发明,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (9)

1.一种人脸关键点定位方法,其特征在于,包括如下步骤:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
Figure FDA0002160587120000011
其中,N表示输入图像的个数,
Figure FDA0002160587120000012
是第i个输入图像中标定的人脸关键点位置,
Figure FDA0002160587120000013
表示第一阶段多任务深度卷积神经网络中第T层的输入,
Figure FDA0002160587120000014
为所述第一阶段多任务深度卷积神经网络中第T层的映射函数,
Figure FDA0002160587120000015
为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
Figure FDA0002160587120000016
其中,K为头部姿态信息的类别数目,Pi g表示第i个输入图像中标定的头部姿态信息;
Figure FDA0002160587120000021
表示第i个输入图像被分为第k类头部姿态信息的概率,
Figure FDA0002160587120000022
为预测的第i个输入图像的头部姿态信息;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
2.如权利要求1所述的方法,其特征在于,所述第一阶段多任务关键点定位模型通过如下方式训练得到:
获取包括人脸图像样本的训练样本集,在人脸图像样本中标定人脸关键点位置和头部姿态信息;
通过人脸检测器获取人脸图像样本中的人脸目标区域,把人脸目标区域缩放到第一指定分辨率,并更新标定的人脸关键点位置;
构建第一阶段多任务深度卷积神经网络;
将人脸图像样本的人脸目标区域作为输入图像输入至第一阶段多任务深度卷积神经网络进行训练,得到第一阶段关键点定位模型。
3.如权利要求1所述的方法,其特征在于,所述
Figure FDA0002160587120000023
如下表示:
Figure FDA0002160587120000031
其中,
Figure FDA0002160587120000032
是第k类头部姿态信息的映射矩阵,
Figure FDA0002160587120000033
是第j类头部姿态信息的映射矩阵,
Figure FDA0002160587120000034
4.如权利要求1所述的方法,其特征在于,所述第二阶段关键点校准模型如下训练得到:
获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
5.如权利要求4所述的方法,其特征在于,所述第二阶段全局卷积神经网络的目标函数如下表示:
J=Jr2(ΔSg,f2(Ip;Wr))
其中,Jr2表示关键点定位的损失函数,ΔSg=Sg-S0表示标定的人脸关键点位置和更新后的所述初始人脸关键点位置的差值,S0是更新后的所述初始人脸关键点位置,Ip表示输入图像,f2(·)是第二阶段全局卷积神经网络的非线性映射函数。
6.如权利要求1所述的方法,其特征在于,所述第三阶段关键点检测模型如下训练得到:
获取包括人脸图像样本的训练样本集,以及利用第二阶段关键点校准模型定位得到的所述人脸图像样本的校准人脸关键点位置;
将所述人脸图像样本中的人脸目标区域缩放到第三指定分辨率,并更新所述校准人脸关键点位置;
以更新后的所述校准人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
根据所述提取的局部区域图像训练得到关键点检测模型,其中,根据不同人脸关键点对应的局部区域训练得到不同的关键点检测模型。
7.一种人脸关键点定位装置,其特征在于,包括:
第一缩放模块,用于将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
初始定位模块,用于将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
Figure FDA0002160587120000041
其中,N表示输入图像的个数,
Figure FDA0002160587120000042
是第i个输入图像中标定的人脸关键点位置,
Figure FDA0002160587120000043
表示第一阶段多任务深度卷积神经网络中第T层的输入,
Figure FDA0002160587120000051
为所述第一阶段多任务深度卷积神经网络中第T层的映射函数,
Figure FDA0002160587120000052
为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
Figure FDA0002160587120000053
其中,K为头部姿态信息的类别数目,Pi g表示第i个输入图像中标定的头部姿态信息;
Figure FDA0002160587120000054
表示第i个输入图像被分为第k类头部姿态信息的概率,
Figure FDA0002160587120000055
为预测的第i个输入图像的头部姿态信息;
第二缩放模块,用于将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
第一局部区域提取模块,用于以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
校准模块,用于将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
第三缩放模块,用于将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
第二局部区域提取模块,用于以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
最终定位模块,用于将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
8.如权利要求7所述的装置,其特征在于,还包括训练模块,用于训练所述第二阶段关键点校准模型,包括:
第一获取子模块,用于获取包括人脸图像样本的训练样本集,以及利用第一阶段多任务关键点定位模型定位得到的所述人脸图像样本的初始人脸关键点位置;
缩放子模块,用于将所述人脸图像样本中的人脸目标区域缩放到第二指定分辨率,并更新所述初始人脸关键点位置;
更新子模块,用于以更新后的所述初始人脸关键点位置为中心,提取周边预定范围内的局部区域图像;
构建子模块,用于构建第二阶段全局卷积神经网络;所述第二阶段全局卷积神经网络包括多个子神经网络和一个全连接层,所述多个子神经网络中的每一个对应不同的人脸关键点,所述全连接层用于连接所述多个子神经网络;
训练子模块,用于将所提取每个人脸关键点的局部区域图像作为输入图像分别输入至第二阶段全局卷积神经网络中对应的子神经网络进行训练,得到第二阶段全局关键点定位模型。
9.一种人脸关键点定位装置,其特征在于,包括:处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
将待检测人脸图像缩放到第一指定分辨率,形成第一缩放待检测人脸图像;
将所述第一缩放待检测人脸图像输入至第一阶段多任务关键点定位模型中,得到第一关键点定位坐标和第一头部姿态估计值,其中,训练所述第一阶段多任务关键点定位模型包括构建第一阶段多任务深度卷积神经网络,构建第一阶段多任务深度卷积神经网络的目标函数为:
J=Jr(Sg,f(I;Wr))+Jl(Pg,f(I;Wl))
其中,Jr表示人脸关键点定位的损失函数,Jl表示头部姿态信息估计的损失函数,Sg,Pg分别表示输入图像中标定的人脸关键点位置和头部姿态信息,I为输入图像,f(·)是第一阶段多任务深度卷积神经网络的非线性映射函数,Wr、Wl分别表示基于回归和基于分类的映射矩阵;
其中,Jr用回归形式的平方误差损失函数表示如下:
Figure FDA0002160587120000071
其中,N表示输入图像的个数,
Figure FDA0002160587120000072
是第i个输入图像中标定的人脸关键点位置,
Figure FDA0002160587120000073
表示第一阶段多任务深度卷积神经网络中第T层的输入,
Figure FDA0002160587120000074
为所述第一阶段多任务深度卷积神经网络中第T层的映射函数,
Figure FDA0002160587120000075
为第一阶段多任务深度卷积神经网络中第T层的回归映射矩阵;
其中,Jl用分类形式的交叉熵损失函数表示如下:
Figure FDA0002160587120000076
其中,K为头部姿态信息的类别数目,Pi g表示第i个输入图像中标定的头部姿态信息;
Figure FDA0002160587120000077
表示第i个输入图像被分为第k类头部姿态信息的概率,
Figure FDA0002160587120000078
为预测的第i个输入图像的头部姿态信息;
将所述待检测人脸图像缩放到第二指定分辨率,得到第二缩放待检测人脸图像,所述第二指定分辨率大于第一指定分辨率;
以缩放后的第二缩放待检测人脸图像中的第一关键点定位坐标为中心,提取周围第一预定大小的第一局部区域图像,将所有第一关键点周围提取的第一局部区域图像串联起来;
将所述串联后的第一局部区域图像输入至第二阶段关键点校准模型中,得到第二关键点定位坐标;
将所述待检测人脸图像缩放至第三指定分辨率,得到第三缩放待检测人脸图像,第三指定分辨率大于第二指定分辨率;
以缩放后的第三缩放待检测人脸图像中的第二关键点定位坐标为中心,提取周围第二预定大小的第二局部区域图像;
将所述第二局部区域图像输入至第三阶段关键点检测模型中,得到最终的关键点定位坐标;其中,不同关键点对应不同的所述第三阶段关键点检测模型。
CN201611135718.7A 2016-12-09 2016-12-09 人脸关键点定位方法及装置 Active CN106599830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201611135718.7A CN106599830B (zh) 2016-12-09 2016-12-09 人脸关键点定位方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201611135718.7A CN106599830B (zh) 2016-12-09 2016-12-09 人脸关键点定位方法及装置

Publications (2)

Publication Number Publication Date
CN106599830A CN106599830A (zh) 2017-04-26
CN106599830B true CN106599830B (zh) 2020-03-17

Family

ID=58599017

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201611135718.7A Active CN106599830B (zh) 2016-12-09 2016-12-09 人脸关键点定位方法及装置

Country Status (1)

Country Link
CN (1) CN106599830B (zh)

Families Citing this family (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107169493A (zh) * 2017-05-31 2017-09-15 北京小米移动软件有限公司 信息识别方法及装置
CN108229494B (zh) * 2017-06-16 2020-10-16 北京市商汤科技开发有限公司 网络训练方法、处理方法、装置、存储介质和电子设备
CN107464261B (zh) * 2017-07-07 2020-10-23 广州市百果园网络科技有限公司 一种图像数据标定训练方法及其设备、存储介质、服务器
CN107577990B (zh) * 2017-08-09 2020-02-18 武汉世纪金桥安全技术有限公司 一种基于gpu加速检索的大规模人脸识别方法
CN107918780B (zh) * 2017-09-01 2021-09-03 中山大学 一种基于关键点检测的衣服种类和属性分类方法
CN107704813B (zh) * 2017-09-19 2020-11-17 北京一维大成科技有限公司 一种人脸活体识别方法及系统
CN107609536A (zh) * 2017-09-29 2018-01-19 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN107679490B (zh) * 2017-09-29 2019-06-28 百度在线网络技术(北京)有限公司 用于检测图像质量的方法和装置
CN107590482A (zh) * 2017-09-29 2018-01-16 百度在线网络技术(北京)有限公司 信息生成方法和装置
CN107767419A (zh) * 2017-11-07 2018-03-06 广州深域信息科技有限公司 一种人体骨骼关键点检测方法及装置
CN107833220B (zh) * 2017-11-28 2021-06-11 河海大学常州校区 基于深度卷积神经网络与视觉显著性的织物缺陷检测方法
CN107766851A (zh) * 2017-12-06 2018-03-06 北京搜狐新媒体信息技术有限公司 一种人脸关键点定位方法及定位装置
CN110047101A (zh) * 2018-01-15 2019-07-23 北京三星通信技术研究有限公司 物体姿态估计方法、获得稠密深度图像的方法、相应装置
CN110060296A (zh) * 2018-01-18 2019-07-26 北京三星通信技术研究有限公司 估计姿态的方法、电子设备和显示虚拟对象的方法及设备
CN108428248B (zh) * 2018-03-14 2021-04-13 苏州科达科技股份有限公司 车窗定位方法、系统、设备及存储介质
CN108764048B (zh) * 2018-04-28 2021-03-16 中国科学院自动化研究所 人脸关键点检测方法及装置
CN109033938A (zh) * 2018-06-01 2018-12-18 上海阅面网络科技有限公司 一种基于可区分性特征融合的人脸识别方法
CN109063584B (zh) * 2018-07-11 2022-02-22 深圳大学 基于级联回归的面部特征点定位方法、装置、设备及介质
CN109146845A (zh) * 2018-07-16 2019-01-04 中南大学 基于卷积神经网络的头颅影像标志点检测方法
CN109509177B (zh) * 2018-10-22 2021-02-23 杭州依图医疗技术有限公司 一种脑部影像识别的方法及装置
CN109584276B (zh) * 2018-12-04 2020-09-25 北京字节跳动网络技术有限公司 关键点检测方法、装置、设备及可读介质
CN109753891A (zh) * 2018-12-19 2019-05-14 山东师范大学 基于人体关键点检测的足球运动员姿势校准方法及系统
CN109815814B (zh) * 2018-12-21 2023-01-24 天津大学 一种基于卷积神经网络的人脸检测方法
CN109741309B (zh) * 2018-12-27 2021-04-02 北京深睿博联科技有限责任公司 一种基于深度回归网络的骨龄预测方法及装置
CN109977751A (zh) * 2019-01-16 2019-07-05 上海理工大学 一种基于卷积神经网络的人脸关键点检测方法
CN109858467B (zh) * 2019-03-01 2021-05-07 北京视甄智能科技有限公司 一种基于关键点区域特征融合的人脸识别方法及装置
CN110046554B (zh) * 2019-03-26 2022-07-12 青岛小鸟看看科技有限公司 一种人脸对齐方法和相机
CN111797656B (zh) * 2019-04-09 2023-08-22 Oppo广东移动通信有限公司 人脸关键点检测方法、装置、存储介质及电子设备
CN110222685A (zh) * 2019-05-16 2019-09-10 华中科技大学 一种基于两阶段的服装关键点定位方法和系统
CN110232133B (zh) * 2019-05-16 2022-09-20 华中科技大学 一种基于特征融合和款式分类的服装图像检索方法和系统
CN110197230B (zh) * 2019-06-03 2022-03-29 北京字节跳动网络技术有限公司 用于训练模型的方法和装置
CN110287955B (zh) * 2019-06-05 2021-06-22 北京字节跳动网络技术有限公司 目标区域确定模型训练方法、装置和计算机可读存储介质
CN110287954A (zh) * 2019-06-05 2019-09-27 北京字节跳动网络技术有限公司 目标区域确定模型的训练方法、装置和计算机可读存储介质
CN110188728A (zh) * 2019-06-06 2019-08-30 四川长虹电器股份有限公司 一种头部姿态估计的方法及系统
CN110276289B (zh) * 2019-06-17 2021-09-07 厦门美图之家科技有限公司 生成匹配模型的方法和人脸特征点追踪方法
CN110415171B (zh) * 2019-07-08 2021-06-25 北京三快在线科技有限公司 图像处理方法、装置及存储介质、电子设备
CN111126379B (zh) * 2019-11-22 2022-05-17 苏州浪潮智能科技有限公司 一种目标检测方法与装置
CN110874587B (zh) * 2019-12-26 2020-07-28 浙江大学 一种人脸特征参数提取系统
CN111209873A (zh) * 2020-01-09 2020-05-29 杭州趣维科技有限公司 一种基于深度学习的高精度人脸关键点定位方法及系统
CN111862047B (zh) * 2020-07-22 2024-06-14 杭州健培科技有限公司 一种级联的医学影像关键点检测方法及装置
CN111832525A (zh) * 2020-07-23 2020-10-27 徐秋林 一种人脸对齐的活体检测方法
CN112633084B (zh) * 2020-12-07 2024-06-11 深圳云天励飞技术股份有限公司 人脸框确定方法、装置、终端设备及存储介质
CN113705344A (zh) * 2021-07-21 2021-11-26 西安交通大学 基于全手掌的掌纹识别方法、装置、终端设备及存储介质
CN114399803A (zh) * 2021-11-30 2022-04-26 际络科技(上海)有限公司 人脸关键点检测方法及装置
CN114638801A (zh) * 2022-03-14 2022-06-17 成都玻尔兹曼智贝科技有限公司 上气道通气情况分析方法、装置及储存介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101057257A (zh) * 2004-11-12 2007-10-17 欧姆龙株式会社 人脸特征点检测装置、特征点检测装置
CN103824049A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联神经网络的人脸关键点检测方法
CN106203376A (zh) * 2016-07-19 2016-12-07 北京旷视科技有限公司 人脸关键点定位方法及装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101057257A (zh) * 2004-11-12 2007-10-17 欧姆龙株式会社 人脸特征点检测装置、特征点检测装置
CN103824049A (zh) * 2014-02-17 2014-05-28 北京旷视科技有限公司 一种基于级联神经网络的人脸关键点检测方法
CN106203376A (zh) * 2016-07-19 2016-12-07 北京旷视科技有限公司 人脸关键点定位方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
multiscale representation for partial face recognition under near infrared illumination;lingxiao he等;《2016 IEEE 8TH international conference on biometrics theory,applications and systems(BTAS)》;20160909;图2、图4-图5,摘要、第3节 *

Also Published As

Publication number Publication date
CN106599830A (zh) 2017-04-26

Similar Documents

Publication Publication Date Title
CN106599830B (zh) 人脸关键点定位方法及装置
CN109816725B (zh) 一种基于深度学习的单目相机物体位姿估计方法及装置
CN109948469B (zh) 基于深度学习的巡检机器人仪表自动检测识别方法
CN108108764B (zh) 一种基于随机森林的视觉slam回环检测方法
CN108764048B (zh) 人脸关键点检测方法及装置
CN105740894B (zh) 一种高光谱遥感图像的语义标注方法
CN111709909B (zh) 基于深度学习的通用印刷缺陷检测方法及其模型
CN107665355B (zh) 一种基于区域卷积神经网络的农业害虫检测方法
CN110826549A (zh) 基于计算机视觉的巡检机器人仪表图像识别方法及系统
CN111881743B (zh) 一种基于语义分割的人脸特征点定位方法
CN109145956B (zh) 评分方法、装置、计算机设备及存储介质
CN110598634B (zh) 一种基于图例库的机房草图识别方法及其装置
CN111008576B (zh) 行人检测及其模型训练、更新方法、设备及可读存储介质
CN107622276B (zh) 一种基于机器人仿真与物理采样结合的深度学习训练方法
CN113705570A (zh) 一种基于深度学习的少样本目标检测方法
CN111368637B (zh) 一种基于多掩模卷积神经网络的搬运机器人识别目标方法
CN110659637A (zh) 一种结合深度神经网络和sift特征的电能表示数与标签自动识别方法
CN113838058A (zh) 一种基于小样本分割的医学图像自动标注方法及系统
CN116503399A (zh) 基于yolo-afps的绝缘子污闪检测方法
CN115810133A (zh) 基于图像处理和点云处理的焊接控制方法及相关设备
CN109615610B (zh) 一种基于YOLO v2-tiny的医用创可贴瑕疵检测方法
CN110992301A (zh) 一种气体轮廓识别方法
CN114743201A (zh) 一种基于旋转目标检测的万用表读数识别方法及系统
CN110705355A (zh) 一种基于关键点约束的人脸姿态估计方法
CN112766305B (zh) 一种基于端到端度量网络的视觉slam闭环检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant