CN106951888A - 人脸特征点的相对坐标约束方法以及定位方法 - Google Patents

人脸特征点的相对坐标约束方法以及定位方法 Download PDF

Info

Publication number
CN106951888A
CN106951888A CN201710322155.0A CN201710322155A CN106951888A CN 106951888 A CN106951888 A CN 106951888A CN 201710322155 A CN201710322155 A CN 201710322155A CN 106951888 A CN106951888 A CN 106951888A
Authority
CN
China
Prior art keywords
characteristic point
image
human face
face characteristic
relative coordinate
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710322155.0A
Other languages
English (en)
Other versions
CN106951888B (zh
Inventor
王妍
李飞凤
年福东
李腾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Anhui Yichen Shenshi Technology Co.,Ltd.
Original Assignee
Anhui University
Huainan Union University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Anhui University, Huainan Union University filed Critical Anhui University
Priority to CN201710322155.0A priority Critical patent/CN106951888B/zh
Publication of CN106951888A publication Critical patent/CN106951888A/zh
Application granted granted Critical
Publication of CN106951888B publication Critical patent/CN106951888B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

本发明公开了一种人脸特征点的相对坐标约束的方法,在人脸定位的过程中,计算任意两个人脸特征点i和j的相对位置,使得任意两个预测人脸特征点i和j的相对位置尽可能接近于其对应的两个真实的人脸特征点之间的相对位置。本发明还公开了一种使用上述人脸特征点的相对坐标约束的方法的人脸特征点的定位方法。发明相比现有技术具有以下优点:通过强制约束每一个人脸特征点与其它所有特征点之间的相对坐标位置,在人脸特征点定位模型训练中使用相对坐标约束,可以提高任意姿态下人脸特征点定位精度的相对坐标约束方法,且本发明提出的约束方法只需在网络训练中进行相关操作,对于训练完成的网络进行实际使用时不增加任何计算量。

Description

人脸特征点的相对坐标约束方法以及定位方法
技术领域
本发明涉及计算机视觉领域,更具体涉及一种人脸识别的方法。
背景技术
人脸特征点自动定位可以分为模型训练和定位计算两大阶段,模型训练具体过程如下:1)收集一批训练用的人脸图像数据;2)人工标记每个人脸训练图像上各特征点位置;3)设计一个人脸特征点模型及其训练学习方法;4)从人工标记的训练人脸图像数据集中训练出模型的具体参数,用于定位识别阶段计算。
定位计算阶段具体过程如下:1)输入一张人脸图像;2)检测人脸区域方框;3)把上步人脸区域内的图像输入上一阶段所学习的模型中计算得出特征点定位识别结果。
目前主流的人脸特征点定位都是采用基于回归的方法。这些方法将人脸特征点定位当作一个多元变量回归问题,即将人脸图像当作输入变量、将人脸特征点坐标作为输出变量进行回归。这类方法又可以分为两小类:1)基于手工设计特征的方法;2)基于深度学习的方法。
基于手工设计的方法首先提取图像的二值特征或小波等特征,然后通过随机森林或者决策树学习映射函数。基于深度学习的方法将特征提取与映射函数学习统一起来通过反向传播的方法学习到一个深层卷积神经网络(CNN)或递归神经网络(RNN)进行图片到坐标的端到端的映射。目前基于深度学习的方法效果要显著好于手工特征的方法。
虽然现有的基于深度神经网络模型的方法达到了非常高的精度,但是其突出缺点在于网络参数过多导致定位速度过慢,若减少其参数则会显著降低其定位精度。
其次,现有基于回归的方法(无论是手工设计特征还是深度网络学习特征),他们的优化目标(约束条件)全部是绝对坐标位置。具体地说,这些方法全是以欧式损失作为坐标约束条件。欧式坐标约束可以保证预测特征点接近于其对应的真实特征点,但是欧式损失这类绝对坐标约束条件并没有考虑到两个特征点之间的相对关系,会出现如图1所示的错误情况。在只看任何一个预测点的情况下,其都非常接近于真实点,然而两个预测点之间的相对位置和真实点相比出现较大误差。在只看任何一个预测点1’和2’的情况下,其都分别非常接近于真实点1和2,然而两个预测点1’和2’之间的相对位置和真实点1和2相比出现较大误差。
发明内容
本发明所要解决的技术问题之一在于提供了一种能够帮助准确的定位人脸特征的人脸特征点的相对坐标约束方法。
本发明所要解决的技术问题之二在于提供了一种能够准确定位人脸特征的方法。
本发明是通过以下技术方案解决上述技术问题之一的:一种人脸特征点的相对坐标约束的方法,在人脸定位的过程中,计算任意两个人脸特征点i和j的相对位置,使得任意两个预测人脸特征点i和j的相对位置尽可能接近于其对应的两个真实的人脸特征点之间的相对位置。
具体的,所述相对坐标约束的方法具体包括:
假设现有训练数据集记为包含N张用于训练的人脸图像,其中In表示第n个图像,Pn表示第n个图像的人脸特征点,且每张图像标注了M个人脸特征点,即Pn=[Pnx1,Pnx2,...PnxM,Pny1,Pny2,...PnyM]∈R2M,这里Pnx*,Pny*分别表示图像In的第*个特征点的横坐标与纵坐标,*∈(0,M);
首先定义两个符号,即Δnijx和Δnijy用来衡量图像In的两个特征点i和j之间的相对位置关系,计算方法如公式(2)和公式(3)所示:
其中,Pnxi和Pnxj分别表示图像In的第i个和第j个特征点的横真实的坐标,Pnyi和Pnyj分别表示图像In的第i个和第j个特征点的真实的纵坐标,分别表示算法预测的图像In的第i个和第j个特征点的横坐标,分别表示算法预测的图像In的第i个和第j个特征点的纵坐标;
因此,获得相对坐标约束误差函数LR的计算公式如下:
本发明是通过以下技术方案解决上述技术问题之二的:一种采用上述的人脸特征点的相对坐标约束的方法的人脸特征点定位方法,分为模型训练和定位计算两大阶段:
模型训练流程如下:
1)收集一批训练用的人脸图像数据;
2)人工标记每个人脸训练图像上各特征点位置;
3)在坐标约束方法的监督下学习深度映射函数模型,用于定位识别阶段计算;
定位识别流程如下:
1)输入一张人脸图像;
2)检测人脸区域方框;
3)把上步人脸区域方框内的图像输入模型训练阶段所学习的模型中计算对应的人脸特征点坐标;
所述模型训练流程中的步骤3)中,采用了相对坐标约束的方法进行训练。
所述相对坐标约束的方法具体包括:
假设现有训练数据集记为包含N张用于训练的人脸图像,其中In表示第n个图像,Pn表示第n个图像的人脸特征点,且每张图像标注了M个人脸特征点,即Pn=[Pnx1,Pnx2,...PnxM,Pny1,Pny2,...PnyM]∈R2M,这里Pnx*,Pny*分别表示图像In的第*个特征点的横坐标与纵坐标,*∈(0,M);
首先定义两个符号,即Δnijx和Δnijy用来衡量图像In的两个特征点i和j之间的相对位置关系,计算方法如公式(2)和公式(3)所示:
其中,Pnxi和Pnxj分别表示图像In的第i个和第j个特征点的横真实的坐标,Pnyi和Pnyj分别表示图像In的第i个和第j个特征点的真实的纵坐标,分别表示算法预测的图像In的第i个和第j个特征点的横坐标,分别表示算法预测的图像In的第i个和第j个特征点的纵坐标;
因此,获得相对坐标约束误差函数LR的计算公式如下:
优化的,所述模型训练流程中的步骤3)中,综合利用了现有的绝对坐标约束LE和本发明提出的相对坐标约束LR,最终的总约束函数形式如下:
L=LE+λLR (5)
其中,
公式(1)中的是算法预测的人脸特征点,Pn是真实的人脸特征点,公式(5)中的λ是超参数,用以平衡绝对随时和相对损失对总效果的影响,对于超参数λ,通过遍历的方法得到其最优值。
优化的,对于5个特征点,λ的最优值是0.006。
优化的,对于68个特征点,λ的最优值是0.0006。
优化的,所述步骤三中,构建用于人脸特征点定位的深层神经网络的结构共7个卷积层,3个最大值池化层和3个全连接层。
优化的,所述深层神经网络的结构具体为:卷积层、池化层、卷积层、卷积层、池化层、卷积层、卷积层、池化层、卷积层、卷积层、全连接层、全连接层、全连接层。
优化的,每个卷积层的卷积核大小为2‐4,每个池化层的池化核大小为1‐3。
本发明相比现有技术具有以下优点:
1、可以提高任意姿态下人脸特征点定位精度的相对坐标约束方法,且本发明提出的约束方法只需在网络训练中进行相关操作,对于训练完成的网络进行实际使用时不增加任何计算量。
2、本发明提出的轻量级的高性能人脸特征点定位神经网络结构,可以在较少参数的条件下获得更丰富的图片语义特征。
附图说明
图1是现有的方法的缺陷示意图;
图2是本发明实施例提出的人脸特征点定位实现总体流程示意图;
图3是本发明提出的相对坐标约束为什么可以以及如何克服现有绝对坐标约束的缺点解释示意图;
图4是本发明实施例提出的用于人脸特征点定位的轻量级高表示力深层卷积神经网络结构;
图5是实际人脸特征点定位效果图;
图6是使用本发明实施例的定位方法的测试结果。
具体实施方式
下面对本发明的实施例作详细说明,本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于下述的实施例。
请参阅图2所示,本发明实施例提供的人脸特征点定位方法的整体框架是采用深层卷积神经网络的回归结构,即把人脸特征点定位当作回归任务。具体地说,将原始人脸图像作为输入特征,将人脸特征点的坐标当作输出,深层卷积网络用来进行人脸图像到特征点坐标的映射。本发明设计一种轻量级且高表示力的深层卷积网络结构在本发明提出的新的坐标约束方法的监督下学习映射函数。
本发明实施例提供的人脸特征点定位方法分为模型训练和定位计算两大阶段:
模型训练流程如下:
1)收集一批训练用的人脸图像数据;
2)人工标记每个人脸训练图像上各特征点位置;
3)在坐标约束方法的监督下学习深度映射函数模型,用于定位识别阶段计算。
定位计算流程如下:
1)输入一张含有人脸的图像;
2)检测人脸区域方框;
3)把上步人脸区域方框内的图像输入模型训练阶段所学习的模型中计算对应的人脸特征点坐标。
上述模型训练流程中的步骤1)、2)以及定位计算流程均是采用现有的方法实现。
上述模型训练流程中的步骤3)中,采用了相对坐标约束的方法进行训练,具体为:
假设现有训练数据集记为包含N张用于训练的人脸图像,其中In表示第n个图像,Pn表示第n个图像的人脸特征点,且每张图像标注了M个人脸特征点,即Pn=[Pnx1,Pnx2,...PnxM,Pny1,Pny2,...PnyM]∈R2M,这里Pnx*,Pny*分别表示图像In的第*个特征点的横坐标与纵坐标,*∈(0,M)。现有方法的优化目标都是最小化预测点与真实点之间的绝对位置误差,即把如下事(1)计算的欧式损失LE当作深度神经网络的损失函数:
公式(1)中的是算法预测的人脸特征点,Pn是真实的人脸特征点。
在公式(1)的基础上,现有的深度学习的方法都将人脸特征点定位当作一个深度回归问题。缺点是明显的,如图1所示,公式(1)只能保证每个预测特征点的绝对坐标与其对应的真实特征点接近,并不能保证两个预测特征点之间的相对位置是正确的。
本发明实施例提出了一种相对坐标约束的方法完美的解决了公式(1)所存在的问题,具体如下:
首先定义两个符号,即Δnijx和Δnijy用来衡量图像In的两个特征点i和j之间的相对位置关系,计算方法如公式(2)和公式(3)所示:
其中,Pnxi和Pnxj分别表示图像In的第i个和第j个特征点的真实的横坐标,Pnyi和Pnyj分别表示图像In的第i个和第j个特征点的真实的纵坐标,分别表示算法预测的图像In的第i个和第j个特征点的横坐标,分别表示算法预测的图像In的第i个和第j个特征点的纵坐标;
因此,我们可以获得相对坐标约束误差函数LR的计算公式如下:
从公式(4)我们可以看出,本发明提出的相对坐标约束考虑了任意两个人脸特征点i和j的相对位置,使得任意两个预测人脸特征点i和j的相对位置尽可能接近于其对应的两个真实的人脸特征点之间的相对位置。
图3从向量的角度解释了本发明提出的相对坐标约束为什么可以以及如何克服现有绝对坐标约束的缺点。从图3中可以看出,传统的绝对坐标约束方法对于每一个目标点的优化是独立的,且传统方法的绝对坐标约束采用欧式误差函数作为优化目标,使得预测点的最优化空间处于真实点的周围。对于本发明提出的相对坐标约束,优化目标变为保证任意两个真实点之间的向量与其对应的两个预测点之间的向量相同,从而利用相对位置坐标信息克服了传统方法的缺陷。
更进一步的,上述模型训练流程中的步骤3)中,综合利用了现有的绝对坐标约束LE和本发明提出的相对坐标约束LR,本发明最终的总约束函数形式如下:
L=LE+λLR (5)
公式(5)中的λ是超参数,用以平衡绝对损失和相对损失对总效果的影响。对于超参数λ,本发明通过遍历的方法得到其最优值,对于5个特征点,λ的最优值是0.006、对于68个特征点,λ的最优值是0.0006。
上述模型训练流程中的步骤3)中,设计一种轻量级且高表示力的深层卷积网络结构在坐标约束方法的监督下学习深度映射函数模型,该深层神经网络的结构如图4所示,共7个卷积层,3个最大值池化层和3个全连接层。
针对人脸这一特定目标,本发明从两个角度设计深层卷积网络的结构:
1.1为了增加网络的表示力,本发明设计了一种可以在较少参数的条件下获得更丰富图片语义特征的深层卷积神经网络结构。具体地说,即在每一个池化层之后堆叠两个具有相同参数的卷积层,这种结构可以保证在同一语义特征尺度下学习到更丰富的语义特征,由于网络整体和局部都加深,本发明实施例提出的这种结构可以使整个网络结构在不同语义信息层级和同一语义信息层级内部的特征都进行更丰富的非线性映射。
1.2为了减少模型的大小,本发明实施例严格控制各层神经元的尺寸,在极小的模型参数条件下保证了网络的表示能力,具体参数如表1所示。通过控制每一层特征图的个数,本发明实施例设计的深层网络模型大小可以控制在3M以内,虽然每一个卷积层的参数较少,但通过上述1.1中所描述网络结构可以获得比大参数模型更好的语义信息表示。
表1
各层类型 卷积核(池化核)大小
卷积层 2‐4
最大值池化层 1‐3
卷积层 2‐4
卷积层 2‐4
最大值池化层 1‐3
卷积层 2‐4
卷积层 2‐4
最大值池化层 1‐3
卷积层 2‐4
卷积层 2‐4
全连接层
全连接层
全连接层 ‐/‐/‐/2*特征点的个数
经过验证,使用本发明实施例的人脸特征点定位方法,在常用的三个公开评测数据集上(MTFL,AFLW,300-W)达到了最好的精度,平均误差如下表2所示(以所有人脸特征点的平均误差作为度量):
表2
数据集 平均误差
MTFL 5.54
AFLW 6.99
300-W 5.39
模型仅有3MB且速度达到300FPS(Core-i5CPU)。实际检测效果示例如图5所示。图6展示的结果的测试数据来源于300-W,每张图像68个特征点,其中标号10所指的曲线为无遮挡图像检测效果,标号20所指的曲线为模拟遮挡图像1的检测效果,标号30所指的曲线为模拟遮挡图像2的检测效果,证明本发明提出的方法具有非常高的鲁棒性,可以解决各种严重遮挡情况。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用于训练过程的人脸特征点的相对坐标约束的方法,其特征在于,在人脸特征点定位的模型训练过程中,计算任意两个人脸特征点i和j的相对位置,使得任意两个预测人脸特征点i和j的相对位置尽可能接近于其对应的两个真实的人脸特征点之间的相对位置。
2.根据权利要求1所述的人脸特征点的相对坐标约束的方法,其特征在于,所述相对坐标约束的方法具体包括:
假设现有训练数据集记为包含N张用于训练的人脸图像,其中In表示第n个图像,Pn表示第n个图像的人脸特征点,且每张图像标注了M个人脸特征点,即Pn=[Pnx1,Pnx2,…PnxM,Pny1,Pny2,…PnyM]∈R2M,这里Pnx*,Pny*分别表示图像In的第*个特征点的横坐标与纵坐标,*∈(0,M);
首先定义两个符号,即Δnijx和Δnijy用来衡量图像In的两个特征点i和j之间的相对位置关系,计算方法如公式(2)和公式(3)所示:
Δn i j x = ( P ^ n x i - P ^ n x j ) - ( P n x i - P n x j ) - - - ( 2 )
Δn i j y = ( P ^ n y i - P ^ n y j ) - ( P n y i - P n y j ) - - - ( 3 )
其中,Pnxi和Pnxj分别表示图像In的第i个和第j个特征点的真实的横坐标,Pnyi和Pnyj分别表示图像In的第i个和第j个特征点的真实的纵坐标,分别表示算法预测的图像In的第i个和第j个特征点的横坐标,分别表示算法预测的图像In的第i个和第j个特征点的纵坐标;
因此,获得相对坐标约束误差函数LR的计算公式如下:
L R = 1 2 N Σ n = 1 N ( Σ i = 1 M - 1 Σ j = i + 1 M ( | | Δn i j x | | 2 2 + | | Δn i j y | | 2 2 ) ) - - - ( 4 ) .
3.一种采用权利要求1所述的人脸特征点的相对坐标约束的方法的人脸特征点定位方法,分为模型训练和定位计算两大阶段:
模型训练流程如下:
1)收集一批训练用的人脸图像数据;
2)人工标记每个人脸训练图像上各特征点位置;
3)在坐标约束方法的监督下学习深度映射函数模型,用于定位识别阶段计算;
定位识别流程如下:
1)输入一张人脸图像;
2)检测人脸区域方框;
3)把上步人脸区域方框内的图像输入模型训练阶段所学习的模型中计算对应的人脸特征点坐标;
其特征在于,所述模型训练流程中的步骤3)中,采用了相对坐标约束的方法进行训练,并公开了一种轻量级高表示力的用于人脸特征点定位的深层卷积神经网络设计方法。
4.根据权利要求3所述的人脸特征点定位方法,其特征在于,所述相对坐标约束的方法具体包括:
假设现有训练数据集记为包含N张用于训练的人脸图像,其中In表示第n个图像,Pn表示第n个图像的人脸特征点,且每张图像标注了M个人脸特征点,即Pn=[Pnx1,Pnx2,…PnxM,Pny1,Pny2,…PnyM]∈R2M,这里Pnx*,Pny*分别表示图像In的第*个特征点的横坐标与纵坐标,*∈(0,M);
首先定义两个符号,即Δnijx和Δnijy用来衡量图像In的两个特征点i和j之间的相对位置关系,计算方法如公式(2)和公式(3)所示:
Δn i j x = ( P ^ n x i - P ^ n x j ) - ( P n x i - P n x j ) - - - ( 2 )
Δn i j y = ( P ^ n y i - P ^ n y j ) - ( P n y i - P n y j ) - - - ( 3 )
其中,Pnxi和Pnxj分别表示图像In的第i个和第j个特征点的真实的横坐标,Pnyi和Pnyj分别表示图像In的第i个和第j个特征点的真实的纵坐标,分别表示算法预测的图像In的第i个和第j个特征点的横坐标,分别表示算法预测的图像In的第i个和第j个特征点的纵坐标;
因此,获得相对坐标约束误差函数LR的计算公式如下:
L R = 1 2 N Σ n = 1 N ( Σ i = 1 M - 1 Σ j = i + 1 M ( | | Δn i j x | | 2 2 + | | Δn i j y | | 2 2 ) ) - - - ( 4 ) .
5.根据权利要求4所述的人脸特征点定位方法,其特征在于,所述模型训练流程中的步骤3)中,综合利用了现有的绝对坐标约束LE和本发明提出的相对坐标约束LR,最终的总约束函数形式如下:
L=LE+λLR (5)
其中,
公式(1)中的是算法预测的人脸特征点,Pn是真实的人脸特征点,公式(5)中的λ是超参数,用以平衡绝对损失和相对损失对总效果的影响,对于超参数λ,通过遍历的方法得到其最优值。
6.根据权利要求5所述的人脸特征点定位方法,其特征在于,对于5个特征点,λ的最优值是0.006。
7.根据权利要求5所述的人脸特征点定位方法,其特征在于,对于68个特征点,λ的最优值是0.0006。
8.根据权利要求3至7任一项所述的人脸特征点定位方法,基于一种轻量级高表示力的用于人脸特征点定位的深层卷积神经网络设计方法,其特征在于,所述步骤3)中,构建用于人脸特征点定位的深层神经网络的结构共7个卷积层,3个最大值池化层和3个全连接层。
9.根据权利要求8所述的人脸特征点定位方法,其特征在于,所述深层神经网络的结构具体为:卷积层、池化层、卷积层、卷积层、池化层、卷积层、卷积层、池化层、卷积层、卷积层、全连接层、全连接层、全连接层。
10.根据权利要求9所述的人脸特征点定位方法,其特征在于,每个池化层之后有两个相同配置的卷积层,每个卷积层的卷积核大小为2‐4,每个池化层的池化核大小为1‐3。
CN201710322155.0A 2017-05-09 2017-05-09 人脸特征点的相对坐标约束方法以及定位方法 Active CN106951888B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710322155.0A CN106951888B (zh) 2017-05-09 2017-05-09 人脸特征点的相对坐标约束方法以及定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710322155.0A CN106951888B (zh) 2017-05-09 2017-05-09 人脸特征点的相对坐标约束方法以及定位方法

Publications (2)

Publication Number Publication Date
CN106951888A true CN106951888A (zh) 2017-07-14
CN106951888B CN106951888B (zh) 2020-12-01

Family

ID=59478420

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710322155.0A Active CN106951888B (zh) 2017-05-09 2017-05-09 人脸特征点的相对坐标约束方法以及定位方法

Country Status (1)

Country Link
CN (1) CN106951888B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808129A (zh) * 2017-10-17 2018-03-16 南京理工大学 一种基于单个卷积神经网络的面部多特征点定位方法
CN111179257A (zh) * 2019-12-31 2020-05-19 上海联影医疗科技有限公司 一种评价方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731416A (zh) * 2005-08-04 2006-02-08 上海交通大学 快速且精确的人脸特征点定位方法
CN1959702A (zh) * 2006-10-10 2007-05-09 南京搜拍信息技术有限公司 人脸识别系统中的人脸特征点定位方法
US20140133743A1 (en) * 2011-09-27 2014-05-15 Olaworks, Inc. Method, Apparatus and Computer Readable Recording Medium for Detecting a Location of a Face Feature Point Using an Adaboost Learning Algorithm
CN105956581A (zh) * 2016-06-08 2016-09-21 华南理工大学 一种快速的人脸特征点初始化方法
CN106575367A (zh) * 2014-08-21 2017-04-19 北京市商汤科技开发有限公司 用于基于多任务的人脸关键点检测的方法和系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1731416A (zh) * 2005-08-04 2006-02-08 上海交通大学 快速且精确的人脸特征点定位方法
CN1959702A (zh) * 2006-10-10 2007-05-09 南京搜拍信息技术有限公司 人脸识别系统中的人脸特征点定位方法
US20140133743A1 (en) * 2011-09-27 2014-05-15 Olaworks, Inc. Method, Apparatus and Computer Readable Recording Medium for Detecting a Location of a Face Feature Point Using an Adaboost Learning Algorithm
US20160078319A1 (en) * 2011-09-27 2016-03-17 Intel Corporation Method, Apparatus and Computer Readable Recording Medium for Detecting a Location of a Face Feature Point Using an Adaboost Learning Algorithm
CN106575367A (zh) * 2014-08-21 2017-04-19 北京市商汤科技开发有限公司 用于基于多任务的人脸关键点检测的方法和系统
CN105956581A (zh) * 2016-06-08 2016-09-21 华南理工大学 一种快速的人脸特征点初始化方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
HANJIANG LAI 等: "Deep Recurrent Regression for Facial Landmark Detection", 《ARXIV:1510.09083V3》 *
T.F.COOTES等: "Active shape Models -Their Training and Application", 《COMPUTER VISION AND IMAGE UNDERSTANDING》 *
张芹芹: "面相识别中的特征点定位", 《中国优秀硕士论文全文数据库(信息科技辑)》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107808129A (zh) * 2017-10-17 2018-03-16 南京理工大学 一种基于单个卷积神经网络的面部多特征点定位方法
CN107808129B (zh) * 2017-10-17 2021-04-16 南京理工大学 一种基于单个卷积神经网络的面部多特征点定位方法
CN111179257A (zh) * 2019-12-31 2020-05-19 上海联影医疗科技有限公司 一种评价方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN106951888B (zh) 2020-12-01

Similar Documents

Publication Publication Date Title
CN106326937B (zh) 基于卷积神经网络的人群密度分布估计方法
CN108010067B (zh) 一种基于组合判断策略的视觉目标跟踪方法
CN107451602A (zh) 一种基于深度学习的果蔬检测方法
CN106650827A (zh) 基于结构指导深度学习的人体姿态估计方法和系统
CN106875406A (zh) 图像引导的视频语义对象分割方法及装置
CN110008842A (zh) 一种基于深度多损失融合模型的行人重识别方法
CN107818302A (zh) 基于卷积神经网络的非刚性多尺度物体检测方法
CN109977918A (zh) 一种基于无监督域适应的目标检测定位优化方法
CN108021947B (zh) 一种基于视觉的分层极限学习机目标识别方法
CN108090443A (zh) 基于深度强化学习的场景文本检测方法及系统
CN106920243A (zh) 改进的全卷积神经网络的陶瓷材质件序列图像分割方法
CN109034190A (zh) 一种动态选择策略的主动样本挖掘的物体检测系统及方法
CN105740892A (zh) 一种高准确率的基于卷积神经网络的人体多部位识别方法
CN109902677A (zh) 一种基于深度学习的车辆检测方法
CN110223323A (zh) 基于深度特征自适应相关滤波的目标跟踪方法
CN106980858A (zh) 一种语言文本检测与定位系统及应用该系统的语言文本检测与定位方法
CN106778835A (zh) 融合场景信息和深度特征的遥感图像机场目标识别方法
CN110516539A (zh) 基于对抗网络的遥感影像建筑物提取方法、系统、存储介质及设备
CN106127173A (zh) 一种基于深度学习的人体属性识别方法
CN110472738A (zh) 一种基于深度强化学习的无人艇实时避障算法
CN108960330A (zh) 基于快速区域卷积神经网络的遥感图像语义生成方法
CN109299701A (zh) 基于gan扩充多人种特征协同选择的人脸年龄估计方法
CN103778414A (zh) 基于深度神经网络的实时人脸识别方法
CN109783887A (zh) 一种面向三维加工特征的智能识别与检索方法
CN108229589A (zh) 一种基于迁移学习的地基云图分类方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20240112

Address after: Room 502, Maker Space, 5th Floor, Commercial and Office Building, University City, Danxia Road North and Feicui Road West, Economic and Technological Development Zone, Hefei City, Anhui Province, China, 230601

Patentee after: Anhui Yichen Shenshi Technology Co.,Ltd.

Address before: No. 3 Feixi Road, Shushan District, Hefei City, Anhui Province, 230000;

Patentee before: ANHUI University

Patentee before: HUAINAN UNION University

TR01 Transfer of patent right