CN104395913A - 用于使用adaboost学习算法来检测面部特征点的位点的方法、设备和计算机可读记录介质 - Google Patents

用于使用adaboost学习算法来检测面部特征点的位点的方法、设备和计算机可读记录介质 Download PDF

Info

Publication number
CN104395913A
CN104395913A CN201280058002.5A CN201280058002A CN104395913A CN 104395913 A CN104395913 A CN 104395913A CN 201280058002 A CN201280058002 A CN 201280058002A CN 104395913 A CN104395913 A CN 104395913A
Authority
CN
China
Prior art keywords
image
feature point
point candidate
fisrt feature
location information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201280058002.5A
Other languages
English (en)
Inventor
Y.J.昌
Y.C.朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of CN104395913A publication Critical patent/CN104395913A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions

Abstract

本公开涉及使用Adaboost学习算法来检测面部特征点的位点。根据一些实施例,用于检测面部特征点的位点的方法包括:(a)使用由Adaboost学习算法选择的第一特征模式将子窗口图像归类为第一推荐特征点候选图像和第一非推荐特征点候选图像并且生成关于第一推荐特征点候选图像的第一特征点候选位点信息的步骤;以及(b)使用由Adaboost学习算法选择的第二特征模式将归类为所述第一非推荐特征点候选图像的所述子窗口图像重新归类为第二推荐特征点候选图像和第二非推荐特征点候选图像并且生成关于第二推荐特征点推荐候选图像的第二特征点候选位点信息的步骤。

Description

用于使用ADABOOST学习算法来检测面部特征点的位点的方法、设备和计算机可读记录介质
技术领域
本公开涉及用于通过使用Adaboost学习算法来检测面部特征点的位置的方法、设备和计算机可读记录介质。更具体地,本公开涉及用于通过使用多层Adaboost分类器来更准确地检测具有不寻常状态的面部图像中的面部特征点的位置的方法、设备和计算机可读记录介质。
背景技术
生物计量是用于识别例如指纹、面部、虹膜、静脉及类似物等因人而异的物理特征的技术。这样的物理特征无法像密钥或密码一样被其他人窃取或复制并且因为它们没有被改变或丢失的风险而可在安全领域或类似中被利用。面部识别是一类生物计量技术,其包括在视频或图片图像中检测面部区并且识别包括在检测的面部区中的面部的身份的技术。这样的面部识别技术不仅可以在安全领域而且还在与智能电话时代的进程一致的多种应用中被利用。
具体地,面部识别是用于通过使用特征点的位置来识别检测的面部图像中的面部的技术。这些特征点可包括眼的中心点、每个眼的两个端点、眉毛的两个端点和中心点、嘴唇的两个端点或类似物。
例如直方图、主成份分析(PCA)和Adaboost学习算法等技术用于检测这样的面部特征点的位置,并且这些方法大体上在它们应用于普通面部图像(即,正常面部图像)时一定程度上提供良好的结果。
然而,当这些方法应用于不寻常的面部图像(例如,佩戴眼镜的人的面部图像、面部的一部分隐藏在头发后面的面部图像、面部表情夸张的人的面部图像、非正面面部图像、部分黑暗的面部图像、闭眼的图像,或类似物)时存在在检测特征点的位置中观察到相当大的性能降级的问题。
因此,有必要开发在检测不寻常面部图像以及普通面部图像的特征点的位置中保证一致性能的技术。
发明内容
技术问题
因此,本公开的目的是解决上文描述的问题。
另外,本公开的另一个目的是在使用Adaboost学习算法来检测面部特征点的位置时通过准确检测不寻常面部图像的候选特征点的位置以及普通面部图像中的候选特征点的位置而保证在检测面部特征点的位置方面的性能。
技术解决方案
用于实现上文的目的的本公开的代表性配置如下:
根据本公开的方面,提供有通过使用Adaboost学习算法来检测面部特征点的位置的方法。该方法包括:(a)使用通过Adaboost学习算法而选择的第一特征模式将子窗口图像归类为第一特征点候选推荐图像和第一特征点非推荐图像,并且生成第一特征点候选推荐图像的第一特征点候选位置信息;以及(b)使用通过Adaboost学习算法而选择的第二特征模式将归类为第一特征点候选非推荐图像的子窗口图像重新归类为第二特征点候选推荐图像和第二特征点候选非推荐图像,并且生成第二特征点候选推荐图像的第二特征点候选位置信息。
根据本公开的另一个方面,提供有用于使用Adaboost学习算法来检测面部特征点的位置的设备。该设备包括:分类器,用于使用通过Adaboost学习算法而选择的第一特征模式将子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像,并且生成第一特征点候选推荐图像的第一特征点候选位置信息;和至少一个重新分类器,用于使用通过Adaboost学习算法而选择的第二特征模式将归类为第一特征点候选非推荐图像的子窗口图像重新归类为第二特征点候选推荐图像和第二特征点候选非推荐图像,并且生成第二特征点候选推荐图像的第二特征点候选位置信息。
本公开的方面的特征在于第一特征模式基于普通面部图像的特征,第二特征模式基于不寻常面部图像的特征,并且第一特征模式和第二特征模式中的每个指定一个或多个黑暗区和一个或多个明亮区。
根据本公开的再另一个方面,进一步提供有特征点候选位置生成单元,用于对于面部图像的子窗口图像生成并且存储第一特征点候选位置信息和第二特征点候选位置信息;和特征点候选位置聚类单元,用于通过对第一特征点候选位置信息和第二特征点候选位置信息的片段(piece)执行聚类而形成集群,并且生成形成集群之中最大的集群的第一特征点候选位置信息和第二特征点候选位置信息的中心点位置的位置信息作为特征点位置信息。
另外,进一步提供有计算机可读记录介质,用于记录计算机程序用于执行上文描述的用于实现本公开的方法。
有利效果
根据本公开,获得有通过检测不寻常面部图像的候选特征点的位置以及普通面部图像的候选特征点的位置而提高检测特征点的位置方面的性能的效果。
附图说明
图1是示出根据本公开的实施例用于检测面部特征点的位置的设备的配置的框图。
图2图示根据本公开的实施例要输入特征点候选位置检测单元内的子窗口图像。
图3是用于图示特征点候选位置聚类单元的功能的图。
图4图示根据本公开的实施例采用Adaboost学习算法的特征点候选位置检测器。
图5图示在图4中示出的特征点候选位置检测器的强分类器的示例。
图6图示根据本公开的实施例通过使用Adaboost学习算法而学习并且选择的特征模式。
具体实施方式
在本公开的下列详细描述中,参考附图,其通过图示示出其中可实践本公开的特定实施例。足够详细地描述这些实施例来使本领域内技术人员能够实现本公开。应理解本公开的各种实施例尽管不同但不一定互相排斥。例如,连同一个实施例在本文描述的特定特征、结构和特性可在其他实施例内实现而不偏离本公开的精神和范围。另外,应理解可修改每个公开的实施例内的个体元件的位点或设置而不偏离本公开的精神和范围。下列详细说明因此不是限制性意义的,并且本公开的范围仅由附上的权利要求(在适当解释的情况下)连同权利要求所要求保护的全范围等同物而限定。在图中,类似的标号可指在许多方面的相同或相似功能。
在下文,将参考附图详细描述本公开的各种实施例以便本领域内技术人员可以容易实现本公开。
图1是示出根据本公开的实施例用于检测面部特征点的位置的设备的配置的框图100。
参考图1,框图100代表用于检测面部特征点的位置的设备,其可包括规格化单元110、图像转换单元120、特征点候选位置检测单元130、特征点候选位置聚类单元140和特征点位置调整单元150。
在图1中示出的每个框的功能如下。
规格化单元110可使面部图像规格化成具有预定大小的灰色图像。输入面部图像可以是彩色图像并且可具有多种大小。规格化单元110可将输入面部图像规格化成具有预定大小的灰色图像以便检测具有各种大小的面部图像中的特征点的位置。
图像转换单元120可通过执行修改的普查变换(MCT)将灰色图像转换成多标度图像。即,图像转换单元120可将灰色图像转换成具有大于灰色图像的标度的标度的图像。例如,如果灰色图像的每个像素具有从0至255的256个标度,图像转换单元120可将灰色图像的每个像素转换成具有从0至511的512个标度。
在输入多标度图像的子窗口图像时,特征点候选位置检测单元130通过使用第一特征模式将子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像中的一个,该第一特征模式已经通过使用Adaboost学习算法学习普通面部图像的模式而选择。在输入归类为第一特征点候选非推荐图像的子窗口图像时,特征点候选位置检测单元130可通过使用第二特征模式将归类为第一特征点候选非推荐图像的子窗口图像归类为第二特征点候选推荐图像和第二特征点候选非推荐图像,该第二特征模式已经通过使用Adaboost学习算法学习不寻常面部图像的模式而选择。特征点候选位置检测单元130可输出第一特征点候选推荐图像的第一特征点位置信息和第二特征点候选推荐图像的第二特征点位置信息。
在这里,关于通过使用第一特征模式(其通过使用Adaboost学习算法学习普通面部图像的模式而选择)将子窗口图像归类为第一特征点候选推荐图像或第一特征点候选非推荐图像中一个,第一特征模式可指包括在第一层中的至少一个强分类器中的模式(其稍后将被描述)。在该实例中,如果在第一层中包括多个强分类器,显然理解,包括在第一层的相应强分类器中的模式可互不相同。另外,在归类为第一特征点候选非推荐图像的子窗口图像被输入特征点候选位置检测单元130时,在通过使用第二特征模式将归类为第一特征点候选非推荐图像的子窗口图像归类为第二特征点候选推荐图像和第二特征点候选非推荐图像时,第二特征模式已经通过使用Adaboost学习算法学习不寻常面部图像的模式而选择,第二特征模式可指在第二或随后的层(即,第二至第k层)中的至少一个强分类器中包括的模式,其稍后将被描述。在该实例中,显然理解,在相应强分类器中包括的模式在层之间或甚至在相同层内互不相同。
另外,本公开的各种实施例的特征在于,第一特征模式基于普通面部图像的特征,第二特征模式基于不寻常面部图像的特征,并且第一特征模式和第二特征模式中的每个指定一个或多个黑暗区以及一个或多个明亮区。在这里,面部图像是否是普通面部图像可通过将面部图像与正常面部图像比较并且确定其之间的差异是否超出预设阈值而确定。在第一和第二特征模式中包括的区是黑暗区还是明亮区可基于至少一个预设明亮度值而确定。更具体地,如果面部图像确定为不寻常面部图像,异常性可被分级,并且为此,可准备多个预设阈值。
图2是根据本公开的实施例用于图示要输入特征点候选位置检测单元130的子窗口图像的图。在图2中,标号A可指示具有图像转换单元120所转换的384 x 288大小的图像,并且标号abcd可指示每个具有24 x 24大小的子窗口图像,其相继被输入特征点候选位置检测单元130。即,在从图像A的第一像素按预定像素单位移到最后的像素时获得的从第一子窗口图像a到最后的子窗口图像d的图像可相继被输入特征点候选位置检测单元130。
特征点候选位置聚类单元140可通过参考从图像A获得并且由特征点候选位置检测单元130检测的第一特征点候选推荐图像和第二特征点候选推荐图像的特征点位置信息而执行聚类来创建集群。然后,特征点候选位置聚类单元140可输出最大集群的中心点的位置信息作为最后的特征点位置信息。
图3是用于图示特征点候选位置聚类单元140的功能的图。黑点示出根据由特征点候选位置检测单元130获得的第一特征点位置信息和第二特征点位置信息的特征点,并且当这些特征点形成e1至e5的五个集群时,最大集群e1的中心点的位置信息可以是最后的特征点位置信息。事实上,本公开不限于此,并且可假设多种修改示例。例如,它不限于中心点,并且可以代表对应集群的某一代表性位置可实现为其上的信息。
特征点位置调整单元150可接收最后的特征点位置信息并且然后将该信息调整为对应于输入规格化单元110的面部图像的大小的位置信息来输出特征点位置信息。即,因为面部图像的大小由规格化单元110改变,特征点位置调整单元150可执行将由特征点候选位置聚类单元140获得的最后的特征点位置信息调整为对应于输入规格化单元110的面部图像的大小的位置信息的功能。
在图1中,当输入用于检测面部特征点位置的设备100的面部图像是对于特征点位置检测器130的具有预定大小的多标度图像时,可不需要规格化单元110、图像转换单元120和特征点位置调整单元150。
图4图示根据本公开的实施例的特征点候选位置检测单元130。
参考图4,根据本公开的实施例的特征点候选位置检测单元130可包括分类器210-1、重新分类器210-2至210-k,和特征点候选位置生成器220。在这里,分类器210-1可以是对应于所谓的第一层的分类器,并且重新分类器210-2至210-k可以是分别对应于所谓的第二至第k层的分类器。为了参考,第一层可包括至少一个强分类器,其包括通过从普通面部图像学习而获取的模式,并且第二至第k层可包括至少一个强分类器,其包括通过从不寻常面部图像学习而获取的模式,其中异常性程度随着k的增加而增加。分类器210-1(其是第一层的分类器)可包括强分类器230-11至230-1n;重新分类器210-2(其是第二层的分类器)可包括强分类器230-21至230-2m;并且重新分类器210-k(其是第k层的分类器)可包括强分类器230-k1至230-kl。分类器210-1和重新分类器210-2至210-k可包括一个或多个强分类器,其分别具有互不相同的配置。
在图4中示出的每个框的功能如下。
分类器210-1可通过使用第一特征模式将输入子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像中的一个(第一特征模式已经通过使用Adaboost学习算法学习而在普通面部图像的模式之中选择),并且可生成对于第一特征点候选推荐图像的位置信息。
重新分类器210-2至210-k中的每个可通过使用第二特征模式将由分类器210-1(其是第一层的分类器)和重新分类器210-2至210-k(其是第二层的分类器)归类为特征点候选非推荐图像的子窗口图像重新归类为第二特征点候选推荐图像和第二特征点候选非推荐图像中的一个(第二特征模式已经通过使用Adaboost学习算法学习而在不寻常面部图像的模式之中选择),并且可生成对于第二特征点候选推荐图像的特征点位置信息。
根据上文,分类器210-1可对普通面部图像生成第一特征点候选推荐图像的第一特征点候选位置,并且重新分类器210-2至210-k中的每个可对不寻常面部图像生成第二特征点候选推荐图像的第二特征点候选位置。
在第一层中包括的强分类器230-11至230-1n配置成通过使用第一特征模式而归类为第一特征点候选推荐图像和第一特征点候选非推荐图像(第一特征模式已经通过使用Adaboost学习算法学习而选择),并且输出第一特征点候选位置信息。在这里,为了输出第一特征点候选位置信息,在第一层中包括的所有强分类器230-11至230-1n应确定为第一特征点候选推荐图像。
另外,在第二层中包括的强分类器230-21至230-2m配置成通过使用第二特征模式而归类为第二特征点候选推荐图像和第二特征点候选非推荐图像(第二特征模式已经通过使用Adaboost学习算法学习而选择),并且输出第二特征点候选位置信息。在这里,为了输出通过第二层的第二特征点候选位置信息,在第二层中包括的所有强分类器230-21至230-2m应确定为第二特征点候选推荐图像。
另外,在第k层中包括的强分类器230-k1至230-kl通过使用第二特征模式(其可与强分类器230-21至230-2m所使用的第二特征模式不同)而归类为第二特征点候选推荐图像和第二特征点候选非推荐图像,并且输出第二特征点候选位置信息,该第二特征模式已经通过使用Adaboost学习算法学习而选择。在这里,为了输出通过第k层的第二特征点候选位置信息,输入子窗口图像应由在第k层中包括的所有强分类器230-k1至230-kl确定为第二特征点候选推荐图像。
在级联的强分类器230-11至230-1n、230-21至230-2m、…以及230-k1至230-kl中的每个中,如与后面的级中的强分类器相比,前面的级中的强分类器可通过使用较小数量的第一和第二特征模式而将子窗口图像归类为第一和第二特征点候选推荐图像以及第一和第二特征点候选非推荐图像,该第一和第二特征模式已经通过使用Adaboost学习算法学习而选择。例如,强分类器230-11可使用两个第一特征模式,强分类器230-12可使用十个第一特征模式,并且强分类器230-1n可使用三十个第一特征模式。原因是鉴于子窗口图像中的大部分确定为“否定的”(即,相继确定为特征点候选非推荐图像直到第k层)这一事实,要在每个层的前面的级中的强分类器处使用少量的模式来轻微过滤子窗口图像(因为单个图像中确定为面部特征点的位置的点的数量是小的)。因此从示例来看,尽管相继输入的一百个子窗口图像在前面的级中的强分类器处归类为第一和第二特征点候选推荐图像,仅五十个子窗口图像可在下一级的强分类器处归类为第一和第二特征点候选推荐图像(即,接受的),并且经过(即,被接受)最后的级的第n个强分类器的第一和第二特征点候选推荐图像可减少至十。因此,在分类器210-1和重新分类器210-2至210-k的最后的级的强分类器230-1n、230-2m和230-k1处生成的第一和第二特征点候选推荐图像的特征点位置信息可以是高概率地包括特征点的位置信息。
特征点候选位置生成器220可存储并且输出分别从分类器210-1和重新分类器210-2至210-n输出的第一和第二特征点候选位置信息的片段。特征点候选位置生成器220可存储并且然后输出对于图2的图像A的所有子窗口图像的第一和第二特征点候选位置信息的片段。
图5图示在图4中示出的特征点候选位置检测器130的示例强分类器。
参考图5,根据实施例的强分类器230可包括弱分类器240-1至240-p和确定单元250。
在图5中示出的每个框的功能如下。
如果输入子窗口图像,弱分类器240-1至240-p中的每个可使用互不相同的特征模式生成特征值,其指示子窗口图像是特征点候选推荐图像还是特征点候选非推荐图像。
确定单元250使来自弱分类器240-1至240-p的结果组合、在子窗口图像是特征点候选推荐图像时向后面的级中的强分类器输出特征点候选位置信息和子窗口图像(如果在后面的级中没有强分类器,在特征点候选位置生成器220中记录“肯定”状态)并且在子窗口图像是特征点候选非推荐图像时向后面的级中的重新分类器210-2至210-k输出特征点候选非推荐位置信息和子窗口图像。
图6示出根据本公开的实施例通过使用Adaboost学习算法学习而选择的特征模式。当三个弱分类器240-1至240-3形成一个强分类器时,在图6(a)、(b)和(c)中示出的特征模式可用于互不相同的弱分类器。在图6(a)中示出的特征模式指示这样的模式,其包括在子窗口10中的对应位置处设置的两个方形,图6(b)中的特征模式指示这样的模式,其包括在子窗口10中的对应位置处设置的三个方形,并且图6(c)中的特征模式指示这样的模式,其包括在子窗口10中的对应位置处设置的四个方形。另外,黑暗图像可在图6(a)、(b)和(c)中示出的特征模式的阴影方形f中存在,并且明亮图像可在方形g中存在。即,特征模式可指定在子窗口10内其中存在黑暗图像的一个或多个区f和其中存在明亮图像的一个或多个区g。另外,在图6(a)、(b)和(c)中示出的特征模式中的每个使用Adaboost学习算法而学习,并且如果找到特征点位置的概率是高的则加权因子可设置成高的,并且如果概率是低的则设置成低的,并且形成一个强分类器的弱分类器240-1至240-3的加权因子可设置成产生总和1。另外,用于将输入子窗口图像归类为特征点候选推荐图像和特征点候选非推荐图像的阈值可通过使用Adaboost学习算法学习而在弱分类器和强分类器中的每个中设置。
图5的弱分类器240-1至240-p通过使用图6而将子窗口图像归类为特征点候选推荐图像和特征点候选非推荐图像所采用的方法将描述如下。
图5的弱分类器240-1至240-p中的每个可通过将设置的阈值与在方形g内存在的子窗口图像的像素的总和与在子窗口10的一个选择模式的方形f内存在的子窗口图像中的像素的总和之间的差异进行比较而生成特征值,其指示子窗口图像是特征点候选推荐图像还是特征点候选非推荐图像。特征值在子窗口图像是特征点候选推荐图像时可具有值1并且在子窗口图像是特征点候选非推荐图像时可具有值0。
图5的确定单元250通过使用图6将从弱分类器240-1至240-p输出的特征值组合而将子窗口图像归类为特征点候选推荐图像和特征点候选非推荐图像所采用的方法将描述如下。
确定单元250可计算通过使从相应弱分类器240-1至240-p输出的特征值与在相应弱分类器240-1至240-p中设置的加权因子相乘而获得的值的总和并且通过将该总和与在强分类器230中设置的阈值比较而确定子窗口图像是特征点候选推荐图像还是特征点候选非推荐图像。
然后,强分类器230可计算并且输出对于特征点候选推荐图像的特征点候选位置信息的置信度值。在该情况下,确定单元250可通过使从相应弱分类器240-1至240-p输出的特征值乘以相应弱分类器240-1至240-p的加权因子而获得的值的总和作为置信度值。
另外,使用置信度值,特征点候选位置聚类单元140可参考通过使通过聚类而创建的最大集群的特征点候选位置信息的相应片段乘以特征点候选位置信息的相应片段的置信度值而获得的值的总和来确定最后的特征点候选位置信息。
作为在本公开中使用的Adaboost学习算法的示例,可参考在日期是2004年5月International Journal of Computer Vision第57卷、第2期中公布并且由Paul Viola和Michael J. Jones开发的题为“Robust Real-Time Face Detection(鲁棒的实时面部检测)”的文章。在该文章中包括的用于检测特征点的位置的所有描述(包括通过使用Adaboost学习算法学习而从面部图像的模式选择特征模式的技术和通过使强分类器级联而检测特征点的位置的技术及类似物)由此在检测本公开的面部特征点的方法中通过引用而合并于此。
尽管未示出,根据本公开的实施例的面部识别系统可通过将从登记的面部图像提取的特征点位置信息与从输入面部图像提取的特征点位置信息比较并且确定其之间的相似性而识别输入面部图像。
上文描述的根据本公开的实施例可以采用程序命令的形式实现,这些程序命令可以通过各种计算机部件执行并且记录在计算机可读记录介质中。该计算机可读记录介质可单独或采用组合的方式包括程序命令、数据文件、数据结构和类似物。在计算机可读记录介质中记录的程序命令可以是专门为本公开设计和配置的程序命令或已知被计算机软件领域内技术人员所使用的程序命令。计算机可读记录介质包括例如磁介质(例如硬盘、软盘和磁带)、光记录介质(例如CD-ROM和DVD)、磁光介质(例如光盘)和专门配置成存储并且执行程序命令的硬件装置,例如ROM、RAM、闪速存储器和类似物。程序命令包括例如可以由计算机使用解释器或类似物执行的高级语言代码以及由编译器生成的机器代码。硬件装置可以配置成使用一个或多个软件模块来操作以便执行根据本公开的处理,并且反之亦然。在前面的论述中,尽管本公开已经连同例如特定部件、示范性实施例和图等特定事宜来描述,提供它们仅为了帮助理解本公开,并且本公开不限于这些实施例。本领域内技术人员可以对此做出各种修改和改变,这从这些描述将是明显的。
因此,本公开的精神不应局限于上文描述的实施例,并且附图和对此所做的同样或等同修改将视为落入本公开的范围内。
标号解释
100 用于检测面部特征点的位置的设备
110 规格化单元
120 图像转换单元
130 特征点候选位置检测单元
140 特征点候选位置聚类单元
150 特征点位置调整单元
210-1 分类器
210-2至210-k  重新分类器
220 特征点候选位置生成器
230-11至230-k1 强分类器
240-1至240-p 弱分类器
250 确定单元

Claims (33)

1. 一种通过使用Adaboost学习算法来检测面部特征点的位置的方法,所述方法包括:
(a)通过使用通过所述Adaboost学习算法而选择的第一特征模式将子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像,并且生成所述第一特征点候选推荐图像的第一特征点候选位置信息;以及
(b)通过使用通过所述Adaboost学习算法而选择的第二特征模式将归类为所述第一特征点候选非推荐图像的子窗口图像重新归类为第二特征点候选推荐图像和第二特征点候选非推荐图像,并且生成所述第二特征点候选推荐图像的第二特征点候选位置信息。
2. 如权利要求1所述的方法,其进一步包括:
(c)存储对于面部图像的子窗口图像的第一特征点候选位置信息和第二特征点候选位置信息的片段;以及
(d)通过根据所述第一特征点候选位置信息和所述第二特征点候选位置信息执行聚类而形成集群,并且生成形成集群之中最大集群的第一特征点候选位置信息和第二特征点候选位置信息的某一代表性位置的位置信息作为特征点位置信息。
3. 如权利要求1所述的方法,其中所述第一特征模式基于普通面部图像的特征而确定,并且所述第二特征模式基于不寻常面部图像的特征而确定。
4. 如权利要求3所述的方法,其中所述普通面部图像和所述不寻常面部图像通过将所述普通面部图像和所述不寻常面部图像与正常图像进行比较并且确定它是否超出预设阈值而确定。
5. 如权利要求1所述的方法,其中所述第一特征模式和所述第二特征模式中的每个指定所述子窗口图像内的一个或多个明亮区和一个或多个黑暗区。
6. 如权利要求5所述的方法,其中所述一个或多个明亮区和所述一个或多个黑暗区基于至少一个预设亮度值而归类。
7. 如权利要求1所述的方法,其中步骤(a)进一步包括:
通过将对所述第一特征模式中的每个所设置的第一阈值与第一值和第二值之间的差值中的每个进行比较而生成第一特征值,用于确定所述子窗口图像是所述第一特征点候选推荐图像还是所述第一特征点候选非推荐图像,第一值是通过对由相应第一特征模式的黑暗区所指定的子窗口图像内的像素值求和而获得,第二值是通过对由明亮区指定的子窗口图像内的像素值求和而获得;以及
通过将第二阈值与第一置信度值比较来确定所述子窗口图像是所述第一特征点候选推荐图像还是所述第一特征点候选非推荐图像,所述第一置信度值是通过使相应第一特征值乘以对相应第一特征值设置的加权因子而获得的值的总和。
8. 如权利要求7所述的方法,其中步骤(b)进一步包括:
通过将为所述第二特征模式中的每个所设置的第三阈值与第三值和第四值之间的差值中的每个进行比较而生成第二特征值,用于确定所述子窗口图像是所述第二特征点候选推荐图像还是所述第二特征点候选非推荐图像,第三值是通过对由相应第二特征模式的黑暗区指定的子窗口图像内的像素值求和而获得,第四值是通过对由明亮区指定的子窗口图像内的像素值求和而获得;以及
通过将第四阈值与第二置信度值进行比较来确定所述子窗口图像是所述第二特征点候选推荐图像还是所述第二特征点候选非推荐图像,所述第二置信度值是通过使相应第二特征值乘以对相应第二特征值所设置的加权因子而获得的值的总和。
9. 如权利要求1所述的方法,其中在步骤(a)中,与后面的级中的强分类器相比,用于生成所述第一特征点候选位置信息的一个或多个强分类器之中的前面的级中的强分类器使用较小数量的第一特征模式将所述子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像。
10. 如权利要求9所述的方法,其中在步骤(b)中,与后面的级中的强分类器相比,用于生成所述第二特征点候选位置信息的一个或多个强分类器之中的前面的级中的强分类器使用较小数量的第二特征模式将所述子窗口图像归类为第二特征点候选推荐图像和第二特征点候选非推荐图像。
11. 如权利要求1所述的方法,其进一步包括:(c)对于面部图像的子窗口图像的第一特征点候选推荐图像和第二特征点候选推荐图像,存储第一特征点候选位置信息、对于所述第一特征点候选位置信息的第一置信度值、第二特征点候选位置信息和对于所述第二特征点候选位置信息的第二置信度值。
12. 如权利要求11所述的方法,其进一步包括:(d)通过根据所述第一特征点候选位置信息和所述第二特征点候选位置信息执行聚类而形成集群,并且生成形成集群之中最大集群的第一特征点候选位置信息的片段和第二特征点候选位置信息的片段的某一代表性位置的位置信息作为特征点位置信息。
13. 如权利要求12所述的方法,其中步骤(d)参考某一值来输出所述特征点位置信息,所述某一值是通过将通过使形成最大集群的第一特征点候选位置信息的每个片段乘以第一特征点候选位置信息的每个片段的第一置信度值而获得的值加上通过使第二特征点候选位置信息的每个片段乘以第二特征点候选位置信息的每个片段的第二置信度值而获得的值来获得。
14. 如权利要求2所述的方法,其进一步包括:在步骤(a)之前,
使原始面部图像规格化为具有相同大小的灰色图像;以及
将规格化的面部图像转换成多标度面部图像,
其中在步骤(a)中,所述子窗口图像是所述多标度面部图像。
15. 如权利要求14所述的方法,其进一步包括:(e)将所述特征点位置信息调整为对应于所述面部图像的大小的位置信息。
16. 如权利要求15所述的方法,其中具有预定大小的子窗口图像在按照像素单位移动所述多标度面部图像时创建。
17. 一种用于通过使用Adaboost学习算法来检测面部特征点的位置的设备,所述设备包括:
分类器,用于使用通过所述Adaboost学习算法而选择的第一特征模式将子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像,并且生成第一特征点候选推荐图像的第一特征点候选位置信息;以及
至少一个重新分类器,用于使用通过所述Adaboost学习算法而选择的第二特征模式将归类为所述第一特征点候选非推荐图像的子窗口图像重新归类为第二特征点候选推荐图像和第二特征点候选非推荐图像,并且生成所述第二特征点候选推荐图像的第二特征点候选位置信息。
18. 如权利要求17所述的设备,其进一步包括:
特征点候选位置生成单元,用于存储面部图像的子窗口图像的第一特征点候选位置信息和第二特征点候选位置信息;和
特征点候选位置聚类单元,用于通过根据第一特征点候选位置信息和第二特征点候选位置信息执行聚类而形成集群,并且生成形成集群之中最大的集群的第一特征点候选位置信息和第二特征点候选位置信息的某一代表性位置的位置信息作为特征点位置信息。
19. 如权利要求17所述的设备,其中所述第一特征模式基于普通面部图像的特征而确定,并且所述第二特征模式基于不寻常面部图像的特征而确定。
20. 如权利要求19所述的设备,其中所述普通面部图像和所述不寻常面部图像通过将所述普通面部图像和所述不寻常面部图像与正常图像比较并且确定它是否超出预设阈值而确定。
21. 如权利要求17所述的设备,其中所述第一特征模式和所述第二特征模式中的每个指定所述子窗口图像内的一个或多个明亮区和一个或多个黑暗区。
22. 如权利要求20所述的设备,其中所述一个或多个明亮区和所述一个或多个黑暗区基于至少一个预设亮度值而归类。
23. 如权利要求17所述的设备,其中所述分类器包括级联的强分类器,并且与后面的级中的强分类器相比,所述级联的强分类器之中的前面的级中的强分类器使用较小数量的第一特征模式将所述子窗口图像归类为第一特征点候选推荐图像和第一特征点候选非推荐图像。
24. 如权利要求23所述的设备,其中所述强分类器中的每个包括至少一个弱分类器和确定单元,
其中每个弱分类器计算第一值和第二值之间的差,第一值是通过对由之前指定的第一特征模式的黑暗区指定的子窗口图像内的像素值求和而获得,第二值是通过对由明亮区指定的子窗口图像内的像素值求和而获得,并且通过将所述差值与设置的第一阈值进行比较来生成第一特征值,用于确定所述子窗口图像是所述第一特征点候选推荐图像还是所述第一特征点候选非推荐图像;
所述确定单元通过将第二阈值与第一置信度值比较来确定所述子窗口图像是所述第一特征点候选推荐图像还是所述第一特征点候选非推荐图像,所述第一置信度值是通过将相应的第一特征值乘以对相应第一特征值设置的加权因子而获得的值的总和。
25. 如权利要求17所述的设备,其中所述重新分类器包括级联的强分类器,并且与后面的级中的强分类器相比,所述级联的强分类器之中前面的级中的强分类器使用较小数量的第二特征模式将所述子窗口图像重新归类为第二特征点候选推荐图像和第二特征点候选非推荐图像。
26. 如权利要求25所述的设备,其中所述强分类器中的每个包括至少一个弱分类器和确定单元,
其中每个弱分类器计算第三值与第四值之间的差值,所述第三值是通过对由之前指定的第二特征模式的黑暗区指定的子窗口图像内的像素值求和而获得,所述第四值通过对由明亮区指定的子窗口图像内的像素值求和而获得,以及通过将所述差值与设置的第三阈值进行比较来生成第二特征值用于确定所述子窗口图像是第二特征点候选推荐图像还是第二特征点候选非推荐图像;
所述确定单元通过将第四阈值与第二置信度值比较来确定所述子窗口图像是第二特征点候选推荐图像还是第二特征点候选非推荐图像,所述第二置信度值是通过将相应的第二特征值乘以对相应第二特征值设置的加权因子而获得的值的总和。
27. 如权利要求17所述的设备,其进一步包括特征点候选位置生成器,用于对于面部图像的子窗口图像的第一特征点候选推荐图像和第二特征点候选推荐图像存储并且输出第一特征点候选位置信息、对于所述第一特征点候选位置信息的第一置信度值、第二特征点候选位置信息和对于第二特征点候选位置信息的第二置信度值。
28. 如权利要求27所述的设备,其进一步包括特征点候选位置聚类单元,用于通过对所述第一特征点候选位置信息和所述第二特征点候选位置信息执行聚类而形成集群,并且生成形成集群之中最大的集群的第一特征点候选位置信息和第二特征点候选位置信息的某一代表性位置的位置信息作为特征点位置信息。
29. 如权利要求28所述的设备,其中所述特征点候选位置聚类单元参考某一值来输出所述特征点位置信息,所述某一值是通过将通过使配置最大集群的第一特征点候选位置信息的每个片段乘以第一特征点候选位置信息的每个片段的第一置信度值而获得的值加上通过使第二特征点候选位置信息的每个片段乘以第二特征点候选位置信息的每个片段的第二置信度值而获得的值来获得。
30. 如权利要求17所述的设备,其进一步包括:
规格化单元,用于使原始面部图像规格化为具有相同大小的灰色图像;以及
图像转换单元,用于将规格化的面部图像转换成多标度面部图像,其中所述子窗口图像是所述多标度面部图像。
31. 如权利要求30所述的设备,其进一步包括特征点位置调整单元,用于将所述特征点位置信息调整为对应于所述面部图像的大小的位置信息。
32. 如权利要求31所述的设备,其中具有预定大小的子窗口图像在按照像素单位移动所述多标度面部图像时创建。
33. 一种计算机可读记录介质,用于记录计算机程序用于执行如权利要求1至16中任一项所述的方法。
CN201280058002.5A 2011-09-27 2012-09-27 用于使用adaboost学习算法来检测面部特征点的位点的方法、设备和计算机可读记录介质 Pending CN104395913A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR1020110097794A KR101175597B1 (ko) 2011-09-27 2011-09-27 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
KR10-2011-0097794 2011-09-27
PCT/KR2012/007843 WO2013048159A1 (ko) 2011-09-27 2012-09-27 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체

Publications (1)

Publication Number Publication Date
CN104395913A true CN104395913A (zh) 2015-03-04

Family

ID=46887540

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201280058002.5A Pending CN104395913A (zh) 2011-09-27 2012-09-27 用于使用adaboost学习算法来检测面部特征点的位点的方法、设备和计算机可读记录介质

Country Status (6)

Country Link
US (2) US9202109B2 (zh)
EP (1) EP2763078A4 (zh)
JP (2) JP5795443B2 (zh)
KR (1) KR101175597B1 (zh)
CN (1) CN104395913A (zh)
WO (1) WO2013048159A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005094A (ko) * 2013-07-04 2015-01-14 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 눈 영역 검출 방법
US9020213B1 (en) * 2013-10-17 2015-04-28 Daon Holdings Limited Methods and systems for detecting biometric characteristics in an image
KR101945821B1 (ko) 2015-05-14 2019-02-11 인하대학교 산학협력단 공간 컨텍스트 아다부스트를 이용한 얼굴 표식 위치 추정 방법
US9898674B2 (en) 2015-12-10 2018-02-20 International Business Machines Corporation Spoof detection for facial recognition
US9524430B1 (en) * 2016-02-03 2016-12-20 Stradvision Korea, Inc. Method for detecting texts included in an image and apparatus using the same
CN106067013B (zh) * 2016-06-30 2022-04-12 美的集团股份有限公司 嵌入式系统人脸识别方法及装置
KR101802500B1 (ko) 2016-10-20 2017-11-28 재단법인대구경북과학기술원 영상 인식을 위한 학습 장치 및 그 학습 방법
CN106951888B (zh) * 2017-05-09 2020-12-01 安徽大学 人脸特征点的相对坐标约束方法以及定位方法
US11210498B2 (en) 2017-06-26 2021-12-28 Nec Corporation Facial authentication device, facial authentication method, and program recording medium
JP6970553B2 (ja) * 2017-08-17 2021-11-24 キヤノン株式会社 画像処理装置、画像処理方法
CN108573054A (zh) * 2018-04-24 2018-09-25 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN112749296B (zh) * 2019-10-31 2024-01-26 北京达佳互联信息技术有限公司 一种视频推荐方法、装置、服务器及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1781122A (zh) * 2003-10-28 2006-05-31 精工爱普生株式会社 用于搜索被认为是面部图像的区域的方法、系统和程序

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7024033B2 (en) * 2001-12-08 2006-04-04 Microsoft Corp. Method for boosting the performance of machine-learning classifiers
US7203669B2 (en) * 2003-03-17 2007-04-10 Intel Corporation Detector tree of boosted classifiers for real-time object detection and tracking
KR100643303B1 (ko) * 2004-12-07 2006-11-10 삼성전자주식회사 다면 얼굴을 검출하는 방법 및 장치
KR100682906B1 (ko) * 2004-12-09 2007-02-15 삼성전자주식회사 부스트 알고리즘을 이용한 영상의 얼굴 검출 장치 및 방법
KR100608596B1 (ko) * 2004-12-28 2006-08-03 삼성전자주식회사 얼굴 검출을 기반으로 하는 휴대용 영상 촬영 기기 및영상 촬영 방법
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7903870B1 (en) * 2006-02-24 2011-03-08 Texas Instruments Incorporated Digital camera and method
JP4933186B2 (ja) * 2006-07-26 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US20080107341A1 (en) * 2006-11-02 2008-05-08 Juwei Lu Method And Apparatus For Detecting Faces In Digital Images
US20080170778A1 (en) * 2007-01-15 2008-07-17 Huitao Luo Method and system for detection and removal of redeyes
US7844085B2 (en) * 2007-06-07 2010-11-30 Seiko Epson Corporation Pairwise feature learning with boosting for use in face detection
JP4479756B2 (ja) * 2007-07-05 2010-06-09 ソニー株式会社 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
CN103124354B (zh) * 2007-09-28 2016-01-20 杜比实验室特许公司 处理视频信息
GB2471036B (en) * 2008-03-03 2012-08-22 Videoiq Inc Object matching for tracking, indexing, and search
JP5072655B2 (ja) * 2008-03-03 2012-11-14 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP4513898B2 (ja) * 2008-06-09 2010-07-28 株式会社デンソー 画像識別装置
KR100981832B1 (ko) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Boosting 알고리즘 및 특징벡터분할 기법을 이용한얼굴특징 선택방법 및 장치
KR100998842B1 (ko) * 2009-02-03 2010-12-06 인하대학교 산학협력단 부스팅 기법을 통한 얼굴 인식 방법 및 장치
KR101077312B1 (ko) * 2009-07-01 2011-10-26 삼성전기주식회사 하라이크 특징점을 이용한 사람 검출 장치 및 그 방법
KR20110012820A (ko) * 2009-07-31 2011-02-09 삼성전기주식회사 얼굴 구성 성분의 모션 조합에 의한 개인 인증 장치 및 그 방법
JP2011128916A (ja) * 2009-12-18 2011-06-30 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム
JP5286574B2 (ja) * 2010-01-08 2013-09-11 日本電信電話株式会社 オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム
US8693791B2 (en) * 2010-02-01 2014-04-08 Morpho, Inc. Object detection apparatus and object detection method
JP5675214B2 (ja) * 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US8144976B1 (en) * 2010-12-06 2012-03-27 Seiko Epson Corporation Cascaded face model
US8306257B2 (en) * 2011-01-31 2012-11-06 Seiko Epson Corporation Hierarchical tree AAM

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1781122A (zh) * 2003-10-28 2006-05-31 精工爱普生株式会社 用于搜索被认为是面部图像的区域的方法、系统和程序

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HENRY A. ROWLEY EL AT.: "《Neural Network-Based Face Detection》", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *
STAN Z. LI EL AT.: "《FloatBoost Learning and Statistical Face Detection》", 《IEEE TRANSACTIONS ON PATTERN ANALYSIS AND MACHINE INTELLIGENCE》 *

Also Published As

Publication number Publication date
EP2763078A1 (en) 2014-08-06
KR101175597B1 (ko) 2012-08-21
US20140133743A1 (en) 2014-05-15
EP2763078A4 (en) 2016-04-13
JP2014530424A (ja) 2014-11-17
US9202109B2 (en) 2015-12-01
WO2013048159A1 (ko) 2013-04-04
US20160078319A1 (en) 2016-03-17
JP6111297B2 (ja) 2017-04-05
US9563821B2 (en) 2017-02-07
JP2016001492A (ja) 2016-01-07
JP5795443B2 (ja) 2015-10-14

Similar Documents

Publication Publication Date Title
CN104395913A (zh) 用于使用adaboost学习算法来检测面部特征点的位点的方法、设备和计算机可读记录介质
CN103136504B (zh) 人脸识别方法及装置
US7447338B2 (en) Method and system for face detection using pattern classifier
CN109558810B (zh) 基于部位分割与融合目标人物识别方法
Sarfraz et al. Head Pose Estimation in Face Recognition Across Pose Scenarios.
KR102190484B1 (ko) 인식기 학습 방법 및 장치, 데이터 인식 방법 및 장치
CN103984948B (zh) 一种基于人脸图像融合特征的软双层年龄估计方法
CN104504362A (zh) 基于卷积神经网络的人脸检测方法
Verma et al. Local invariant feature-based gender recognition from facial images
WO2015037973A1 (en) A face identification method
Jacob Comparison of popular face detection and recognition techniques
Asrith et al. Face recognition and weapon detection from very low resolution image
Duta et al. Learning the human face concept in black and white images
Kodinariya Hybrid Approach to Face Recognition System using Principle component and Independent component with score based fusion process
Thanh Do et al. Facial feature extraction using geometric feature and independent component analysis
Reddy et al. Comparison of HOG and fisherfaces based face recognition system using MATLAB
Khryashchev et al. Enhancement of Fast Face Detection Algorithm Based on A Cascade of Decision Trees
Ghahramani et al. Unseen family member classification using mixture of experts
Scheirer et al. How reliable are your visual attributes?
Abbas Frs-occ: Face recognition system for surveillance based on occlusion invariant technique
KR102321039B1 (ko) 머신러닝 기반의 비디오 분류 장치, 방법 및 컴퓨터 프로그램
Mahmod et al. Quranic Sign Language for Deaf People: Quranic Recitation Classification and Verification
Hong et al. Pedestrian detection based on merged cascade classifier
Devireddy Human Face Detection and Recognition Using Advanced Image Processing and Deep Learning Techniques
Jain et al. Face Recognition and Face Detection Using Open Computer Vision Classifiers and Python

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20150304

RJ01 Rejection of invention patent application after publication