CN107004136A - 用于估计人脸图像的人脸关键点的方法和系统 - Google Patents
用于估计人脸图像的人脸关键点的方法和系统 Download PDFInfo
- Publication number
- CN107004136A CN107004136A CN201480082760.XA CN201480082760A CN107004136A CN 107004136 A CN107004136 A CN 107004136A CN 201480082760 A CN201480082760 A CN 201480082760A CN 107004136 A CN107004136 A CN 107004136A
- Authority
- CN
- China
- Prior art keywords
- key point
- image data
- mark
- facial image
- estimation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
- G06V10/7553—Deformable models or variational models, e.g. snakes or active contours based on shape, e.g. active shape models [ASM]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
公开一种用于估计人脸图像的人脸关键点的方法,以及一种用于估计人脸图像的人脸关键点的系统。该方法可包括:获取具有第一类型关键点标注的第一人脸图像数据集和具有第二类型关键点标注的第二人脸图像数据集;将第一类型关键点标注从第一人脸图像数据集转移到第二人脸图像数据集,以获取第二人脸图像数据集的伪第一类型标注;以及将具有伪第二类型关键点标注的第二人脸图像数据集和第一人脸图像数据集进行组合,以使第二人脸图像数据集具有第一类型关键点标注。
Description
技术领域
本申请涉及用于估计人脸图像的人脸关键点的方法,以及用于估计人脸图像的人脸关键点的系统。
背景技术
人脸对齐是各种人脸分析的关键部分,诸如,人脸验证和表情分类。已经公布了各种基准数据集,每个数据集含有大量加了标签的图像。尽管在收集数据集时尽可能使得数据集丰富且多样化,但实际上,数据集固有的偏差是不可避免的。
偏差的呈现形式是:数据集上存在的不同特征和分布。例如,一个集主要含有多数是正脸的白种高加索男性,而另一集由带有各种姿势或严重遮挡的颇具挑战性的样本组成。此外,在数据集上,轮廓视图(profile views)之间的分布差异可相差几乎10%以上。显然,在一个数据集上强制训练模型将容易导致过度拟合,并且导致在未知领域中表现会较差。为了改善一般化(generalization),具有实际意义的是将不同数据集组合,以便利用多个来源的特征和分布。然而,由于需要在数据库融合成为可能之前付出大量努力对标注差距(annotation gap)进行标准化,因此该想法被阻碍。
发明内容
在本申请的一方面,公开用于估计人脸图像的人脸关键点的方法,该方法包括:
获取具有第一类型关键点标注的第一人脸图像数据集和具有第二类型关键点标注的第二人脸图像数据集;
将第一类型关键点标注从第一人脸图像数据集转移到第二人脸图像数据集,以获取第二人脸图像数据集的伪第一类型标注;以及
将具有伪第二类型关键点标注的第二人脸图像数据集和第一人脸图像数据集进行组合,以使第二人脸图像数据集具有第一类型关键点标注。
在本申请的另一方面,公开用于估计人脸图像的人脸关键点的系统,该系统包括:
转移对齐装置,其被配置成获取具有第一类型关键点标注的第一人脸图像数据集和具有第二类型关键点标注的第二人脸图像数据集,并且将第一类型关键点标注从第一人脸图像数据集转移到第二人脸图像数据集,以获取第二人脸图像数据集的伪第一类型标注;以及
数据增补装置,其被配置成将具有伪第二类型关键点标注的第二人脸图像数据集和第一人脸图像数据集进行组合,以使第二人脸图像数据集具有第一类型关键点标注。
附图说明
下文参考附图描述本发明的示例性非限制实施例。附图是说明性的,并且一般不按确切比例。不同图上的相同或类似元件引用相同的附图标号。
图1是示出根据本申请的一个实施例的用于转移人脸关键点标注的示例性系统100的示意图。
图2是示出根据本申请的一个实施例的用于转移对齐装置10的示例性框图的示意图。
图3示出用来展示单元101到106如何协作以获取新训练集的伪S型标注的过程200的流程图。
图4是示出符合本申请的一些公开实施例的用于转移模型训练单元的详细过程的示意流程图。
图5示出符合本申请的另一公开实施例的数据增补装置的过程的流程图。
图6是示出根据本申请的一个实施例的用于确定人脸关键点的示例性系统的示意图。
图7示出根据本申请的一个实施例的训练装置训练预测装置的过程的流程图。
图8示出根据本申请的一个实施例的用于预测装置的详细过程的流程图。
具体实施方式
现在将详细参考示例性实施例,这些实施例的示例将在附图中说明。在适当的时候,附图中相同的附图标号始终指代相同或相似部分。
图1是示出根据本申请的一个实施例的用于转移人脸关键点标注的示例性系统100的示意图。如图1所示,用于转移人脸关键点标注的系统100可包括转移对齐装置10和数据增补装置20。
转移对齐装置10被配置成获取具有S型关键点标注的第一人脸图像的第一(原始)训练集(下文也称为“集1”)和具有T型关键点标注的第二(新)训练集(下文也称为“集2”),并且将S型关键点标注从原始人脸图像数据集(训练数据集)转移到新训练集,以便获取新训练集的伪S型标注。在本申请的实施例中,关键点标注可包括给定人脸图像上的人脸关键点,诸如,眼睛、鼻子和嘴角。数据增补装置20便被配置成将具有伪S型关键点标注的新训练集和原始训练集组合成经增补的数据训练集,即,使新训练集具有S型关键点标注。根据本申请的一些实施例,S型可更密集,具有多个(例如,194个或更多)关键点,甚至人脸外轮廓都被标注,而T型可更稀疏,只具有仅在眼睛和嘴角上的少许(例如,5个)关键点。
只有在提供新训练集上的T型标注时,这个转移对齐装置10才可预测新训练数据集上的S型标注。但本申请的目标是预测任意输入人脸图像的S型标注,使得不需要T型标注来预测关键点标注。由于包括比新训练数据集更多样的训练样本,因此,可得到用于预测人脸图像的S型关键点的更稳健模型。
在本申请的一个实施例中,转移对齐装置还被配置成从第一类型关键点与第二类型关键点标注之间的公用关键点索引、初始第一类型标注和第一人脸图像数据集中确定转移模型{MPCA,k,Mreg,k};并且基于转移模型,将第一关键点标注从第一人脸图像数据集转移到第二人脸图像数据集,以获取第二人脸图像数据集的伪第一类型标注。图2是示出根据本申请的一个实施例的用于转移对齐装置10的示例性框图的示意图。如图2所示,转移对齐装置10可包括公用关键点确定单元101、映射单元102、第一标注估计单元103、转移模型单元104、第二标注估计单元105和伪标注确定单元106。
图3示出用来展示单元101到106如何协作以获取新训练集的伪S型标注的过程300的流程图。
在步骤S301处,公用关键点确定单元101操作以获取具有S型关键点标注的第一人脸图像的第一训练集{I1,xS,B1}(集1)和具有T型关键点标注的第二训练集{I2,xT,B2}(集2),其中第一和第二训练集分别包括图像I1和图像I2中的每个人脸的边界框B1和B2,其中Ii表示来自具有索引i的训练图像集的人脸图像,xk表示关键点位置(在x-y坐标中),并且B1和B2分别表示图像I1和图像I2的边界框。然后,公用关键点确定单元101确定两个类型的标注(即,数据集1中的S型关键点标注和数据集2中的T型关键点标注)的多个公用关键点索引(xS)common。在实施例中,公用关键点(xS)common存在于数据集1和数据集2上。公用关键点标注被定义为以不同数据集上的决定性语义定义良好地标识的人脸关键点,诸如,左眼角和右眼角、嘴角和瞳孔中心。
在步骤S302处,映射单元102操作以获得从公用关键点标注索引(xS)common到原始训练集(即,集1)中的S型关键点xS的映射矩阵T。为了获得映射,可使用简单线性回归,并且一般学习方案是其中xsc是(xS)common的缩写,并且‘(xS)common*T’中的‘*’是指矩阵相乘,而不是卷积。
在步骤S303处,第一标注估计单元103操作以根据下列规则,基于从步骤S201中获取的公用关键点(xS)common和从步骤S202中获取的映射T来计算数据集1上的初始或估计的S型标注x:
x=(xS)common*T。 1)
在步骤S304处,转移模型训练单元104操作以从来自步骤S301的公用关键点索引(xS)common、初始S型标注x和具有S型关键点标注的第一训练数据集{I1,xS,B1}(即,数据集1)中确定转移模型M,这将在之后参考图4论述。
在步骤S305处,第二标注估计单元105接收新训练数据集(即,集2)(具有T型标注{I2,xT,B2})并且根据下列规则,使用从S302获取的映射T和从S301获取的公用关键点索引(xT)common来得到新训练数据集(数据集2)的初始化/估计的标注x:
x=(xT)common*T。 2)
在步骤S306处,针对迭代K中的每个,伪标注确定单元106操作以提取数据集1的局部外貌信息φ(x)和只针对公用关键点(xS)common的特征雅可比行列式φ(x*)-φ(x),然后根据下列规则,将局部外貌信息φ(x)和特征雅可比行列式连接,作为特征f:
f(x)=[(φ(x*)-φ(x))common,φ(x)private] 3)
其中[]是指矩阵连接,
φ(x)是根据坐标x来提取局部SIFT(尺度不变特征变换)特征,并且SIFT将被作为未知框。
然后,伪标注确定单元106操作以根据下列规则,基于转移模型M来计算估计的标注误差Δx:
Δx=Mreg(MPCA(f)) 4)
其中MPCA将原始特征变换成PCA(主成分分析)特征,Mreg将PCA特征变换成回归位移目标。
伪标注确定单元106然后根据公式5)的规则来更新当前估计的标注x,并且从最后的迭代中输出x,即,伪标注
x=x+Δx 5)
在下文中,将参考图4进一步论述转移模型训练单元104的详细过程。
在步骤S3041处,将由转移模型训练单元104来准备训练数据集。具体地说,转移模型训练单元104接收具有S型关键点标注的第一人脸图像的第一训练数据集{I1,xS}(数据集1)并且准备下列数据,然后开始针对k个迭代进行训练:
1)公用关键点索引(xS)common,
2)人脸图像I=I1,
3)初始化/估计的标注x
4)基本真实标注x*=xS
在步骤S3042处,转移模型训练单元104操作以提取:(1)数据集1的局部外貌信息φ(x),和(2)只针对公用关键点(xS)common的特征雅可比行列式φ(x*)-φ(x),然后根据公式3)的规则将这两部分(1)和(2)连接,作为特征f,如上文所述。
在S3043处,转移模型训练单元104根据Δx=x*-x的规则来计算估计的当前形状x与基本真实形状x*之间的相异度。
在S3044处,转移模型训练单元104经由对特征f执行PCA分析来得到PCA投影模型MPCA;并且经由岭回归得到从PCA投影特征到相异度的映射Mreg。在本申请的一个实施例中,出于训练的目的,使用奇异值分解来执行主成分分析(PCA),从而输出含有均值向量和投影系数的PCA投影模型MPCA。在测试阶段,通过首先减去具有均值向量的原始特征,然后执行与投影系数的矩阵相乘来获取PCA投影特征。岭回归(ridge regression)是含有系数和偏差的映射函数,它将用来获取Δx,如等式4所示。
在步骤S3045处,转移模型训练单元104操作以确定估计的形状是否收敛到基本真实形状。如果是的话,那么在步骤S2046处,转移模型训练单元104将根据下列规则来确定转移模型M(含有用于每个迭代的PCA(主成分分析)投影模型和映射函数):
否则,在步骤S3047处,将估计的标注更新为x=x+Mreg(MPCA(f)),然后将它输入到步骤S3041。
在下文中,将详细论述数据增补装置20。如上文所述,数据增补装置20被配置成将具有伪S型关键点标注的新训练集和原始训练集组合成经增补的数据训练集。用于新训练集的S型关键点标注可不准确,所以它被称为“伪S型标注”,因此需要然后的数据增补过程,以从伪S型标注中移除误差。
图5示出数据增补装置20的过程的流程图500。具体而言,在步骤S501处,数据增补装置20操作以通过将估计的公用关键点和基本真实公用关键点进行比较来从新训练数据集的伪S型关键点标注中过滤错误转移的标注,以便得到清理后的训练集在步骤502处,数据增补装置20接收原始训练集(数据集1)(具有S型关键点标注{I1,xS,B1}),然后将清理后的新训练集与原始训练集进行组合,以获取{IA,xS,B}。
图6是示出根据本申请的一个实施例的用于确定人脸关键点的示例性系统1000的示意图。如图6所示,除了转移对齐装置10和数据增补装置20之外,系统1000还可包括训练装置30和预测装置40。系统1000中的转移对齐装置10和数据增补装置20的操作与系统100的那些装置相同,因此,下文将省略它们的详细描述。
由数据增补装置20生成的组合数据集可被作为训练装置30用来训练预测装置40的预定训练集。
图7示出训练装置30训练预测装置40的过程的流程图700。在步骤S701处,训练装置30接收来自数据增补装置20的具有图像的边界框的经增补训练集{IA,xS,B},然后学习初始化函数init(B),以估计初始关键点与边界框B之间的关系,以便根据边界框B和学习的init(B)来得到初始化的关键点x。可直观地确定函数intit。例如,它可相对于边界框来生成初始关键点,例如,以定位初始左眼中心,来自所有训练样本的相对位置都将被平均地学习,然后它找到左眼位置(向上高度0.25且向左0.3)。如果存在具有上:100、下:200、左:500、右:600的测试样本的边界框,那么左眼中心的初始坐标将是x=530,y=125。相对于左眼中心而言,本申请始终将0.25和0.3用于所有样本,并且其他关键点相同。
在步骤S702处,将准备训练数据集。具体地说,训练装置30接收具有S型关键点标注的第一人脸图像的第一训练集{I1,xS}(数据集1)并且准备下列数据,然后开始针对k个迭代进行训练:
人脸图像I=IA,
初始化/估计的标注x
基本真实标注x*=xS,
在步骤S703处,训练装置30操作以提取经增补训练集{IA,xS,B}的局部外貌信息φ(x),并且将提取的局部外貌信息表示为特征f。
在步骤S704处,训练装置30操作以根据Δx=x*-x的规则来计算估计的当前形状x与基本真实形状x*之间的相异度Δx。
在步骤S705处,训练装置30经由对特征f执行PCA(主成分分析)分析来得到PCA投影模型MPCA,k;并且经由岭回归得到从PCA投影特征到相异度的映射Mreg,k。
在步骤S706处,训练装置30操作以确定估计的形状是否收敛到基本真实形状。如果是的话,那么在步骤S707处,训练装置30将确定模型M={MPCA,k,Mreg,k},(含有用于每个迭代的PCA投影模型和映射函数)。
否则,在步骤S708处,将估计的标准更新为x=x+Mreg(MPCA(f)),然后将它输入到步骤S702,以重复步骤S703到S708,以便获取稳健模型训练模型M和初始化函数init(B)。
再次参考图6,预测装置40被配置成接收具有预先检测的边界框B的人脸图像,并且预测人脸关键点位置,即,所接收的人脸图像的人脸关键点的估计2D坐标(x和y)。将参考图8进一步论述预测装置40的详细过程。
在步骤S801处,预测装置40得到来自训练装置30的初始化函数init(B),并且根据所接收的人脸图像的边界框B和init(B)来得到初始化的关键点x。在步骤S802处,预测装置40得到来自训练装置30的稳健模型训练模型M,然后针对每个迭代,预测装置40计算局部外貌信息φ(x),作为特征f,并且根据Δx=Mreg(MPCA(f))的规则来计算估计的Δx。然后,预测装置40操作以根据x=x+Δx的规则来更新关键点x。最后,单元40从迭代K的最后迭代中输出x。
在上文中,已经在使用某一硬件或者硬件和软件的组合来实施系统10和100的情况下论述了系统。应了解,也可使用软件来实施系统10和100。此外,本发明的实施例可适于计算机程序产品,所述计算机程序产品体现在含有计算机程序代码的一个或多个计算机可读存储介质上(包括但不限于,磁盘存储器、CD-ROM、光学存储器等)。
在用软件实施系统10和100的情况下,这些系统100可在下列中运行:通用计算机、计算机集群、主流计算机、专用于提供在线内容的计算装置,或者计算机网络,所述计算机网络包括一组以集中或分布方式操作的计算机。
尽管已描述了本发明的优选示例,但在了解本发明基本概念后,本领域的技术人员可对这些示例进行变化或更改。所附权利要求书意图包括落入本发明的范围内的优选实例和所有变化或更改。
显然,在不脱离本发明的精神和范围的情况下,本领域的技术人员可对本发明进行变化或更改。因此,如果这些变化或更改属于权利要求书和等效技术的范围,那么它们也可落入本发明的范围内。
Claims (24)
1.一种用于估计人脸图像的人脸关键点的方法,包括:
获取具有第一类型关键点标注的第一人脸图像数据集和具有第二类型关键点标注的第二人脸图像数据集;
将所述第一类型关键点标注从所述第一人脸图像数据集转移到所述第二人脸图像数据集,以获取所述第二人脸图像数据集的伪第一类型标注;以及
将具有伪第二类型关键点标注的所述第二人脸图像数据集和所述第一人脸图像数据集进行组合,以使所述第二人脸图像数据集具有所述第一类型关键点标注。
2.根据权利要求1所述的方法,其中所述第一类型关键点标注包括S型关键点标注,并且所述第二类型关键点标注包括T型关键点标注。
3.根据权利要求1所述的方法,其中所述转移的处理还包括:
从所述第一类型关键点标注与所述第二类型关键点标注之间的公用关键点索引、初始第一类型标注和所述第一人脸图像数据集中确定出转移模型;以及
基于所述转移模型,将所述第一关键点标注从所述第一人脸图像数据集转移到所述第二人脸图像数据集,以获取所述第二人脸图像数据集的伪第一类型关键点标注。
4.根据权利要求3所述的方法,其中所述确定的处理还包括:
1)确定所述第一类型关键点标注和所述第二类型关键点标注的多个公用关键点索引;
2)获得从确定的公用关键点索引(xS)common到所述第一类型关键点标注的映射矩阵;
3)基于所述公用关键点索引和所述映射矩阵来确定所述第二人脸图像数据集的初始/估计的第一类型标注;
4)从所述公用关键点索引、所述初始第一类型标注和所述第一人脸图像数据集中确定出所述转移模型{MPCA,k,Mreg,k}。
5.根据权利要求4所述的方法,其中所述转移的处理还包括:
5)从所述映射矩阵和所述公用关键点索引中确定所述第二人脸图像数据集的估计的标注x;
6)基于所述转移模型、所述第一人脸图像数据集的局部外貌信息φ(x)和公用关键点索引(xS)common的特征雅可比行列式φ(x*)-φ(x)来确定估计的误差Δx;
7)根据x=x+Δx的规则来更新当前估计的标注x,以便获取所述伪关键点标注,
其中x*表示x的基本真实标注,
B1和B2分别表示所述第一人脸图像数据集和所述第二人脸图像数据集的图像的边界框。
6.根据权利要求5所述的方法,其中步骤6)还包括:
提取所述第一人脸图像数据集的局部外貌信息φ(x)和公用关键点索引(xS)common的特征雅可比行列式;
将所述局部外貌信息和所述特征雅可比行列式连接;以及
基于所述转移模型,从所述局部外貌信息和所述特征雅可比行列式的连接中确定估计的误差Δx。
7.根据权利要求5所述的方法,其中步骤4)还包括:
a)提取所述第一人脸图像数据集的局部外貌信息和所述公用关键点索引的特征雅可比行列式;
b)将所述局部外貌信息和所述特征雅可比行列式连接;
c)计算估计的当前形状x与基本真实形状x*之间的相异度Δx;
d)经由在特征f上执行PCA分析来得到PCA投影模型MPCA,其中f表示所述局部外貌信息和所述特征雅可比行列式的连接;
e)经由岭回归得到从PCA投影模特征到所述相异度的映射模型Mreg;
f)确定所述估计的形状是否收敛到所述基本真实形状;
如果是的话,则确定出所述转移模型{MPCA,Mreg};
否则,根据x=x+Mreg(MPCA(f))的规则来更新估计的标注,然后以更新的标注来重复上述步骤a)到f)。
8.根据权利要求1所述的方法,其中所述组合的处理还包括:
将估计的公用关键点索引与基本真实公用关键点索引进行比较,以从所述第二人脸图像数据集的所述伪第一类型关键点标注中得到错误转移的标注;
过滤掉错误转移的标注,以便得到清理后的人脸图像数据集{I2′,B2′};
接收所述第一人脸图像数据集{I1,xS,B1};以及
将清理后的新人脸图像数据集与所述第一人脸图像数据集进行组合,以获取经增补的人脸图像数据集{IA,xS,B}。
9.根据权利要求8所述的方法,还包括:
接收具有图像的边界框的所述经增补的人脸图像数据集{IA,xS,B},其中B表示所述经增补的人脸图像数据集中的图像的边界框;Xs表示关键点标注并且IA表示人脸图像的索引,以及
估计初始关键点与所述边界框B之间的关系,以根据所述边界框B来得到初始化的关键点索引x。
10.根据权利要求9所述的方法,其还包括:
接收所述第一人脸图像数据集{I1,xS}并且准备下列数据,然后针对k个迭代开始进行训练:
人脸图像I=IA,
初始化/估计的标注x
基本真实标注x*=xS,
提取所述经增补的人脸图像数据集{IA,xS,B}的局部外貌信息φ(x)并且将提取的局部外貌信息表示为特征f;
计算估计的当前形状x与基本真实形状x*之间的相异度Δx;
经由在所述特征f上执行PCA分析来确定PCA投影模型MPCA,k;
经由岭回归来确定从PCA投影特征到相异度的映射Mreg,k;
确定所述估计的形状是否收敛到所述基本真实形状;
如果是的话,则确定模型否则,将所述估计的标注更新为x=x+Mreg(MPCA(f)),并且重复上述步骤,以便获取稳健模型训练模型M。
11.根据权利要求10所述的方法,还包括:
接收具有预先检测的边界框B的人脸图像;以及
预测接收的人脸图像的人脸关键点的人脸关键点位置。
12.根据权利要求11所述的方法,其中所述预测的处理还包括:
根据所述接收的人脸图像的所述边界框B来得到初始化的关键点x;
计算所述接收的人脸图像的局部外貌信息;
根据Δx=Mreg(MPCA(f))的规则来计算估计的误差Δx,其中f表示所述局部外貌信息;以及
根据x=x+Δx的规则来更新所述关键点x。
13.一种用于估计人脸图像的人脸关键点的系统,包括:
转移对齐装置,其被配置成获取具有第一类型关键点标注的第一人脸图像数据集和具有第二类型关键点标注的第二人脸图像数据集,并且将所述第一类型关键点标注从所述第一人脸图像数据集转移到所述第二人脸图像数据集,以获取所述第二人脸图像数据集的伪第一类型标注;以及
数据增补装置,其被配置成将具有伪第二类型关键点标注的所述第二人脸图像数据集和所述第一人脸图像数据集进行组合,以使所述第二人脸图像数据集具有所述第一类型关键点标注。
14.根据权利要求13所述的系统,其中所述第一类型关键点标注包括S型关键点标注,并且所述第二类型关键点标注包括T型关键点标注。
15.根据权利要求13所述的系统,其中所述转移对齐装置还被配置成从所述第一类型关键点标注与所述第二类型关键点标注之间的公用关键点索引、初始第一类型标注和所述第一人脸图像数据集中确定出转移模型,并且基于所述转移模型,将所述第一关键点标注从所述第一人脸图像数据集转移到所述第二人脸图像数据集,以获取所述第二人脸图像数据集的伪第一类型关键点标注。
16.根据权利要求13所述的系统,其中所述转移对齐装置还包括:
公用关键点确定单元,其被配置成确定所述第一类型关键点标注和所述第二类型关键点标注的多个公用关键点索引;
映射单元,其被配置成获得从确定的公用关键点索引到所述第一类型关键点标注的映射矩阵;
第一标注估计单元,其被配置成基于所述公用关键点索引和所述映射矩阵来确定所述第二人脸图像数据集的初始/估计的第一类型标注;
转移模型训练单元,其被配置成从所述公用关键点索引、所述初始第一类型标注和所述第一人脸图像数据集中确定出所述转移模型。
17.根据权利要求16所述的系统,其中所述转移对齐装置还包括:
第二标注估计单元,其被配置成从所述映射矩阵和所述公用关键点索引中确定所述第二人脸图像数据库的估计的标注x;
伪标注确定单元,其被配置成基于所述转移模型、所述第一人脸图像数据集的局部外貌信息φ(x)和公用关键点索引的特征雅可比行列式φ(x*)-φ(x)来确定估计的误差Δx,然后根据x=x+Δx的规则来更新当前估计的标注x,以便获取伪标注,
其中x*表示x的基本真实标注,
B1和B2分别表示所述第一人脸图像数据集和所述第二人脸图像数据集的图像的边界框。
18.根据权利要求17所述的系统,其中所述伪标注确定单元还被配置成通过下列来确定所述估计的误差Δx:
提取所述第一人脸图像数据集的局部外貌信息φ(x)和公用关键点索引(xS)common的特征雅可比行列式;
将所述局部外貌信息和所述特征雅可比行列式连接;以及
基于所述转移模型,从所述局部外貌信息和所述特征雅可比行列式的连接中确定估计的误差Δx。
19.根据权利要求17所述的系统,其中伪标注确定单元还被配置成通过下列来获取所述伪标注:
a)提取所述第一人脸图像数据集的局部外貌信息和所述公用关键点索引的特征雅可比行列式;
b)将所述局部外貌信息和所述特征雅可比行列式连接;
c)计算估计的当前形状x与基本真实形状x*之间的相异度Δx;
d)经由在特征f上执行PCA分析来得到PCA投影模型MPCA,k,其中f表示所述局部外貌信息和所述特征雅可比行列式的连接;
e)经由岭回归得到从PCA投影模特征到所述相异度的映射模型Mreg,k;
f)确定所述估计的形状是否收敛到所述基本真实形状;
如果是的话,则确定所述转移模型
否则,根据x=x+Mreg(MPCA(f))的规则来更新估计的标注,然后以更新的标注来重复上述步骤a)到f)。
20.根据权利要求13所述的系统,其中所述数据增补装置还被配置成:
将估计的公用关键点索引与基本真实公用关键点索引进行比较,以从所述第二人脸图像数据集的所述伪第一类型关键点标注中得到错误转移的标注;
过滤掉错误转移的标注,以便得到清理后的人脸图像数据集
接收所述第一人脸图像数据集{I1,xS,B1};以及
将清理后的新人脸图像数据集与所述第一人脸图像数据集进行组合,以获取经增补的人脸图像数据集{IA,xS,B}。
21.根据权利要求20所述的系统,其还包括:
训练装置,其被配置成接收具有图像的边界框的所述经增补的人脸图像数据集{IA,xS,B},其中B表示所述经增补的人脸图像数据集中的图像的边界框;Xs表示关键点标注并且IA表示人脸图像的索引,以及
其中预测装置估计初始关键点与所述边界框B之间的关系,以便根据所述边界框B来得到初始化的关键点x。
22.根据权利要求21所述的系统,其中所述训练装置还被配置成通过下列来训练稳健模型训练模型:
接收所述第一人脸图像数据集{I1,xS}并且准备下列数据,然后针对k个迭代开始进行训练:
人脸图像I=IA,
初始化/估计的标注x
基本真实标注x*=xS,
提取所述经增补的人脸图像数据集{IA,xS,B}的局部外貌信息φ(x)并且将提取的局部外貌信息表示为特征f;
计算估计的当前形状x与基本真实形状x*之间的相异度Δx;
经由在所述特征f上执行PCA分析来确定PCA投影模型MPCA,k;
经由岭回归来确定从PCA投影特征到相异度的映射Mreg,k;
确定所述估计的形状是否收敛到所述基本真实形状;
如果是的话,则确定模型
否则,将所述估计的标注更新为x=x+Mreg(MPCA(f)),并且重复上述步骤,以便获取稳健模型训练模型。
23.根据权利要求21所述的系统,其还包括:
预测装置,其被配置成接收具有预先检测的边界框B的人脸图像,并且预测接收的人脸图像的人脸关键点的人脸关键点位置。
24.根据权利要求22所述的系统,其中所述预测装置还被配置成通过下列来预测人脸关键点位置:
根据接收的人脸图像的所述边界框B和init(B)来得到初始化的关键点x;
计算所述接收的人脸图像的局部外貌信息;
根据Δx=Mreg(MPCA(f))的规则来计算估计的误差Δx,其中f表示所述局部外貌信息;以及
根据x=x+Δx的规则来更新所述关键点x。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2014/000785 WO2016026064A1 (en) | 2014-08-20 | 2014-08-20 | A method and a system for estimating facial landmarks for face image |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107004136A true CN107004136A (zh) | 2017-08-01 |
CN107004136B CN107004136B (zh) | 2018-04-17 |
Family
ID=55350057
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201480082760.XA Active CN107004136B (zh) | 2014-08-20 | 2014-08-20 | 用于估计人脸图像的人脸关键点的方法和系统 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN107004136B (zh) |
WO (1) | WO2016026064A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192162A (zh) * | 2021-04-22 | 2021-07-30 | 清华珠三角研究院 | 语音驱动图像的方法、系统、装置及存储介质 |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109858382A (zh) * | 2019-01-04 | 2019-06-07 | 广东智媒云图科技股份有限公司 | 一种根据口述内容绘制人像的方法 |
KR102223753B1 (ko) * | 2020-06-05 | 2021-03-05 | 주식회사 픽스트리 | 얼굴 이미지 개선 방법 및 장치 |
CN111932266B (zh) * | 2020-07-24 | 2023-11-17 | 深圳市富途网络科技有限公司 | 信息处理方法、装置、电子设备及存储介质 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1701339A (zh) * | 2002-09-19 | 2005-11-23 | 汤晓鸥 | 画像-照片识别 |
US7454039B2 (en) * | 2004-07-12 | 2008-11-18 | The Board Of Trustees Of The University Of Illinois | Method of performing shape localization |
US20090132371A1 (en) * | 2007-11-20 | 2009-05-21 | Big Stage Entertainment, Inc. | Systems and methods for interactive advertising using personalized head models |
CN102436668A (zh) * | 2011-09-05 | 2012-05-02 | 上海大学 | 京剧脸谱自动化妆方法 |
CN103268623A (zh) * | 2013-06-18 | 2013-08-28 | 西安电子科技大学 | 一种基于频域分析的静态人脸表情合成方法 |
US20130287294A1 (en) * | 2012-04-30 | 2013-10-31 | Cywee Group Limited | Methods for Generating Personalized 3D Models Using 2D Images and Generic 3D Models, and Related Personalized 3D Model Generating System |
CN103390282A (zh) * | 2013-07-30 | 2013-11-13 | 百度在线网络技术(北京)有限公司 | 图像标注方法及其装置 |
US20140119664A1 (en) * | 2012-10-31 | 2014-05-01 | Google Inc. | Image denoising system and method |
US20140185924A1 (en) * | 2012-12-27 | 2014-07-03 | Microsoft Corporation | Face Alignment by Explicit Shape Regression |
-
2014
- 2014-08-20 CN CN201480082760.XA patent/CN107004136B/zh active Active
- 2014-08-20 WO PCT/CN2014/000785 patent/WO2016026064A1/en active Application Filing
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1701339A (zh) * | 2002-09-19 | 2005-11-23 | 汤晓鸥 | 画像-照片识别 |
US7454039B2 (en) * | 2004-07-12 | 2008-11-18 | The Board Of Trustees Of The University Of Illinois | Method of performing shape localization |
US20090132371A1 (en) * | 2007-11-20 | 2009-05-21 | Big Stage Entertainment, Inc. | Systems and methods for interactive advertising using personalized head models |
CN102436668A (zh) * | 2011-09-05 | 2012-05-02 | 上海大学 | 京剧脸谱自动化妆方法 |
US20130287294A1 (en) * | 2012-04-30 | 2013-10-31 | Cywee Group Limited | Methods for Generating Personalized 3D Models Using 2D Images and Generic 3D Models, and Related Personalized 3D Model Generating System |
US20140119664A1 (en) * | 2012-10-31 | 2014-05-01 | Google Inc. | Image denoising system and method |
US20140185924A1 (en) * | 2012-12-27 | 2014-07-03 | Microsoft Corporation | Face Alignment by Explicit Shape Regression |
CN103268623A (zh) * | 2013-06-18 | 2013-08-28 | 西安电子科技大学 | 一种基于频域分析的静态人脸表情合成方法 |
CN103390282A (zh) * | 2013-07-30 | 2013-11-13 | 百度在线网络技术(北京)有限公司 | 图像标注方法及其装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113192162A (zh) * | 2021-04-22 | 2021-07-30 | 清华珠三角研究院 | 语音驱动图像的方法、系统、装置及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
WO2016026064A1 (en) | 2016-02-25 |
CN107004136B (zh) | 2018-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6832504B2 (ja) | 物体追跡方法、物体追跡装置およびプログラム | |
US10198623B2 (en) | Three-dimensional facial recognition method and system | |
Lee et al. | Face alignment using cascade gaussian process regression trees | |
CN111241989B (zh) | 图像识别方法及装置、电子设备 | |
Shen et al. | Exemplar-based human action pose correction and tagging | |
KR20130073812A (ko) | 객체 포즈 추정을 위한 장치 및 방법 | |
CN104221054A (zh) | 人物属性推定系统及学习用数据生成装置 | |
EP3274964B1 (en) | Automatic connection of images using visual features | |
JP6487642B2 (ja) | 手指形状の検出方法、そのプログラム、そのプログラムの記憶媒体、及び、手指の形状を検出するシステム。 | |
CN107004136B (zh) | 用于估计人脸图像的人脸关键点的方法和系统 | |
CN112699834B (zh) | 交通标识检测方法、装置、计算机设备和存储介质 | |
WO2022095514A1 (zh) | 图像检测方法、装置、电子设备及存储介质 | |
KR20220004009A (ko) | 키 포인트 검출 방법, 장치, 전자 기기 및 저장 매체 | |
WO2023151237A1 (zh) | 人脸位姿估计方法、装置、电子设备及存储介质 | |
Wang et al. | Real-time hand posture recognition based on hand dominant line using kinect | |
CN114511452B (zh) | 融合多尺度空洞卷积和三元组注意力的遥感图像检索方法 | |
CN111667005A (zh) | 一种采用rgbd视觉传感的人体交互系统 | |
CN114842559B (zh) | 基于多模态时间感知和注意力的视频交互动作检测方法 | |
CN109740674A (zh) | 一种图像处理方法、装置、设备和存储介质 | |
CN109712146A (zh) | 一种基于直方图的em多阈值图像分割方法及装置 | |
KR20190115161A (ko) | 3차원 객체 생성 장치 | |
CN108491885A (zh) | 一种基于朴素贝叶斯分类器的autoCAD图块识别方法及装置 | |
CN115661444A (zh) | 图像处理方法、装置、设备、存储介质及产品 | |
CN111459050B (zh) | 一种基于双网互联的智慧仿真型护理教学系统及教学方法 | |
CN114445649A (zh) | 用多尺度超像素融合检测rgb-d单幅图像阴影的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |