JP2016001492A - Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体 - Google Patents

Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体 Download PDF

Info

Publication number
JP2016001492A
JP2016001492A JP2015159728A JP2015159728A JP2016001492A JP 2016001492 A JP2016001492 A JP 2016001492A JP 2015159728 A JP2015159728 A JP 2015159728A JP 2015159728 A JP2015159728 A JP 2015159728A JP 2016001492 A JP2016001492 A JP 2016001492A
Authority
JP
Japan
Prior art keywords
feature point
point candidate
image
feature
position information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015159728A
Other languages
English (en)
Other versions
JP6111297B2 (ja
Inventor
ジャエ チェオン、ヨン
Yeong Jae Cheon
ジャエ チェオン、ヨン
チャン パーク、ヨン
Yong Chan Park
チャン パーク、ヨン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intel Corp
Original Assignee
Intel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intel Corp filed Critical Intel Corp
Publication of JP2016001492A publication Critical patent/JP2016001492A/ja
Application granted granted Critical
Publication of JP6111297B2 publication Critical patent/JP6111297B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/231Hierarchical techniques, i.e. dividing or merging pattern sets so as to obtain a dendrogram
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions

Abstract

【課題】Adaboost学習アルゴリズムを使用した顔特徴点の位置の検出方法を提供する。
【解決手段】Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用して、サブウィンドウ画像を第1の推奨特徴点候補画像及び第1の非推奨特徴点候補画像へ分類し、第1の推奨特徴点候補画像の第1の特徴点候補位置情報を生成するステップと、Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用して、第1の非推奨特徴点候補画像へ分類されたサブウィンドウ画像を第2の推奨特徴点候補画像及び第2の非推奨特徴点候補画像へ再分類し、第2の推奨特徴点候補画像の第2の特徴点候補位置情報を生成するステップとを含む。
【選択図】図4

Description

本開示は、Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体に関する。より具体的には、本開示は、多層Adaboost分類器を使用することによって普通でない状態の顔画像における顔特徴点の位置をより正しく検出するための方法、装置、およびコンピュータ可読記録媒体に関する。
バイオメトリクスは、人によって異なる、指紋、顔、虹彩、静脈などといった身体的特徴を認識するための技術である。そのような身体的特徴は、キーやパスワードのように他者によって盗み取られ、複製される恐れがなく、また、変更されたり、失われたりする危険がないためにセキュリティ分野などで利用されうる。顔認識は、ビデオまたは写真画像内の顔領域を検出し、検出された顔領域に含まれる顔の同一性を識別する技法を含む生体認証技術の一種である。そのような顔認識技術は、スマートフォン時代における発展と呼応して、セキュリティ分野のみならず様々な他の用途においても利用することができる。
具体的には、顔認識は、特徴点の位置を使用することによって検出された顔画像内の顔を識別するための技法である。特徴点は、目の中心点、両目の両端点、眉の両端点および中心点、唇の両端点などを含んでいてよい。
ヒストグラム、主成分分析(PCA:principal component analysis)、Adaboost学習アルゴリズムといった技法がそのような顔特徴点の位置を検出するのに使用され、これらの方法は、一般に、通常の顔画像(すなわち、正常な顔画像)に適用されるときにはある程度まで良好な結果を提供する。
しかし、これらの方法が普通でない顔画像(例えば、眼鏡をかけた人の顔画像、顔の一部分が髪の後ろに隠れている顔画像、誇張された表情をした人の顔画像、正面でない顔画像、部分的に暗い顔画像、目が閉じられている画像など)に適用されるときには、特徴点の位置を検出する際に大幅な性能の低下が見られるという点で問題がある。
したがって、通常の顔画像のみならず普通でない顔画像の特徴点の位置を検出する際にも一貫した性能を保証する技法を開発することが必要である。
したがって、本開示の一目的は上記の問題を解決することである。
さらに、本開示の別の目的は、Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出する間に、通常の顔画像内の候補特徴点の位置のみならず普通でない顔画像内の候補特徴点の位置も正確に検出することによって、顔特徴点の位置を検出する際の性能を保証することである。
上記の目的を達成するための本開示の代表的な構成は以下のとおりである。
本開示の一態様によれば、Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出する方法が提供される。方法は、(a)Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用して、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するステップと、(b)Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用して、第1の特徴点候補非推奨画像として分類されたサブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するステップとを含む。
本開示の別の態様によれば、Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための装置が提供される。装置は、Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用して、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するための分類器と、Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用して、第1の特徴点候補非推奨画像として分類されたサブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するための少なくとも1つの再分類器とを含む。
本開示の各態様は、第1の特徴パターンは通常の顔画像の特徴に基づくものであり、第2の特徴パターンは普通でない顔画像の特徴に基づくものであり、第1の特徴パターンおよび第2の特徴パターンの各々は1つまたは複数の暗い領域および1つまたは複数の明るい領域を指定することを特徴とする。
本開示のさらに別の態様によれば、顔画像のサブウィンドウ画像についての第1の特徴点候補位置情報および第2の特徴点候補位置情報を生成し、記憶するための特徴点候補位置生成部、ならびに第1の特徴点候補位置情報およびいくつかの第2の特徴点候補位置情報についてのクラスタ化を実行することによってクラスタを形成し、クラスタのうちで最大のクラスタを形成する第1の特徴点候補位置情報および第2の特徴点候補位置情報についての中心点の位置情報を特徴点位置情報として生成する特徴点候補位置クラスタ化部とがさらに提供される。
加えて、本開示を実現するための上記の方法を実行するためのコンピュータプログラムを記録するためのコンピュータ可読記録媒体もさらに提供される。
本開示によれば、通常の顔画像の候補特徴点の位置のみならず普通でない顔画像の候補特徴点の位置も検出することによって、特徴点の位置を検出する際の性能を高めるという効果が得られる。
本開示の一実施形態による顔特徴点の位置を検出するための装置の構成を示すブロック図である。 本開示の一実施形態による特徴点候補位置検出部へ入力されるべきサブウィンドウ画像を示す図である。 特徴点候補位置クラスタ化部の機能を示す図である。 本開示の一実施形態によるAdaboost学習アルゴリズムを用いる特徴点候補位置検出器を示す図である。 図4に示す特徴点候補位置検出器の強い分類器の一例を示す図である。 本開示の一実施形態によるAdaboost学習アルゴリズムを使用することによって学習され、選択される特徴パターンを示す図である。
本開示の以下の詳細な説明では、例として、本開示が実施されうる具体的実施形態を示す添付の図面を参照する。これらの実施形態は、当業者が本開示を実施することを可能にするのに十分な程度に詳細に記載されている。本開示の様々な実施形態は、たとえ異なっていても、必ずしも相互に排他的であるとは限らないことを理解すべきである。例えば、ある実施形態と関連して本明細書に記載される特定の特徴、構造、および特性が、本開示の趣旨および範囲を逸脱することなく、他の実施形態内で実施されてもよい。さらに、開示の各実施形態内の個々の要素の位置決めまたは配置は、本開示の趣旨および範囲を逸脱することなく変更されてもよいことも理解すべきである。したがって以下の詳細な説明は限定的な意味に解するべきではなく、本開示の範囲は、添付の特許請求の範囲によってのみ定義され、特許請求の範囲が特許請求するものと等価の十分な範囲と共に適切に解釈されるものである。図面において、類似の参照符号は、多くの点において同じ機能または類似の機能を指しうる。
以下、本開示の様々な実施形態を、当業者が本開示を容易に実施することができるように、添付の図面を参照して詳細に説明する。
図1は、本開示の一実施形態による顔特徴点の位置を検出するための装置の構成を示すブロック図、100である。
図1を参照すると、ブロック図、100は顔特徴点の位置を検出するための装置を表しており、装置は、正規化部110、画像変換部120、特徴点候補位置検出部130、特徴点候補位置クラスタ化部140、および特徴点位置調整部150を含んでいてよい。
図1に示す各ブロックの機能は以下のとおりである。
正規化部110は、顔画像を所定のサイズの濃淡画像へ正規化してよい。入力顔画像はカラー画像としてよく、様々なサイズのものとしてよい。正規化部110は、様々なサイズの顔画像内の特徴点の位置を検出するために、入力顔画像を所定のサイズの濃淡画像へ正規化してよい。
画像変換部120は、変形センサス変換(MCT:modified census transform)を実行することによって濃淡画像をマルチスケール画像へ変換してよい。すなわち、画像変換部120は、濃淡画像を、濃淡画像のスケールより大きいスケールを有する画像へ変換してよい。例えば、濃淡画像の各画素が0〜255までの256スケールを有する場合、画像変換部120は、濃淡画像の各画素を0〜511までの512スケールを有するように変換してよい。
特徴点候補位置検出部130は、マルチスケール画像のサブウィンドウ画像が入力されると、Adaboost学習アルゴリズムを使用して通常の顔画像のパターンを学習することによって選択されたものである第1の特徴パターンを使用することによって、サブウィンドウ画像を、第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像のうちの1つとして分類する。第1の特徴点候補非推奨画像として分類されたサブウィンドウ画像が入力されると、特徴点候補位置検出部130は、Adaboost学習アルゴリズムを使用して普通でない顔画像のパターンを学習することによって選択されたものである第2の特徴パターンを使用することによって、第1の特徴点候補非推奨画像として分類されたサブウィンドウ画像を、第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ分類してよい。特徴点候補位置検出部130は、第1の特徴点候補推奨画像の第1の特徴点位置情報および第2の特徴点候補推奨画像の第2の特徴点位置情報を出力してよい。
ここで、(Adaboost学習アルゴリズムを使用して通常の顔画像のパターンを学習することによって選択された)第1の特徴パターンを使用することによって、サブウィンドウ画像を、第1の特徴点候補推奨画像または第1の特徴点候補非推奨画像の1つとしての分類することに関して、第1の特徴パターンは、(後述する)第1層内の少なくとも1つの強い分類器に含まれるパターンを指していてよい。この例では、複数の強い分類器が第1層に含まれる場合、第1層のそれぞれの強い分類器に含まれるパターンは相互に異なっていてよいことが明らかに理解される。さらに、第1の特徴点候補非推奨画像として分類されたサブウィンドウ画像が特徴点候補位置検出部130へ入力されるときに、Adaboost学習アルゴリズムを使用して普通でない顔画像のパターンを学習することによって選択されたものである第2の特徴パターンを使用することによって、第1の特徴点候補非推奨画像として分類されたサブウィンドウ画像を、第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ分類する際に、第2の特徴パターンは、後述する、第2層または後続の層(すなわち、第2層から第k層)内の少なくとも1つの強い分類器に含まれるパターンを指していてよい。この例では、それぞれの強い分類器に含まれるパターンは、層間で、または同じ層内でさえも相互に異なっていてよいことが明らかに理解される。
さらに、本開示の様々な態様は、第1の特徴パターンは通常の顔画像の特徴に基づくものであり、第2の特徴パターンは普通でない顔画像の特徴に基づくものであり、第1の特徴パターンおよび第2の特徴パターンの各々は1つまたは複数の暗い領域および1つまたは複数の明るい領域を指定することを特徴とする。ここで、顔画像が通常の顔画像であるか否かは、顔画像を正常な顔画像と比較し、それらの間の差が既定の閾値を超えるか否かを判定することによって判定されてよい。第1および第2の特徴パターンに含まれる領域が暗い領域であるか、それとも明るい領域であるかは、少なくとも1つの既定の輝度値に基づいて判定されてよい。より具体的には、顔画像が普通でない顔画像と判定される場合、その異常さが評価されてよく、このために、複数の既定の閾値が用意されてよい。
図2は、本開示の一実施形態による特徴点候補位置検出部130へ入力されるべきサブウィンドウ画像を示すためのブロック図である。図2で、参照記号Aは、画像変換部120によって変換された384×288のサイズを有する画像を表示していてよく、参照記号a、b、cおよびdは、特徴点候補位置検出部130へ順次に入力される、各々が24×24のサイズを有するサブウィンドウ画像を表示していてよい。すなわち、画像Aの最初の画素から最後の画素まで所定の画素単位ずつ移動する間に獲得される最初のサブウィンドウ画像aから最後のサブウィンドウ画像dまでの画像は、特徴点候補位置検出部130へ順次に入力されてよい。
特徴点候補位置クラスタ化部140は、画像Aから獲得され、特徴点候補位置検出部130によって検出された第1の特徴点候補推奨画像および第2の特徴点候補推奨画像の特徴点位置情報を参照してクラスタ化を実行することによってクラスタを作成してよい。次いで、特徴点候補位置クラスタ化部140は、最大のクラスタの中心点の位置情報を最終的な特徴点位置情報として出力してよい。
図3は、特徴点候補位置クラスタ化部140の機能を示す図である。黒点は、特徴点候補位置検出部130によって獲得された第1の特徴点位置情報および第2の特徴点位置情報による特徴点を示しており、これらの特徴点がe1〜e5までの5個のクラスタを形成するとき、最大のクラスタe1の中心点の位置情報を最終的な特徴点位置情報とすることができる。実際は、本開示はそれだけに限定されず、様々な変更例が想定されうる。例えば、最終的な特徴点位置情報は中心点だけに限定されず、対応するクラスタを表すことのできるある代表的な位置がそれに関する情報として実装されてよい。
特徴点位置調整部150は、最終的な特徴点位置情報を受け取り、次いでその情報を正規化部110へ入力された顔画像のサイズに対応する位置情報に調整して、特徴点位置情報を出力する。すなわち、顔画像のサイズは正規化部110によって変更されるため、特徴点位置調整部150は、特徴点候補位置クラスタ化部140によって獲得された最終的な特徴点位置情報を正規化部110へ入力された顔画像のサイズに対応する位置情報に調整する機能を果たしてよい。
図1では、顔特徴点の位置を検出するための装置100へ入力された顔画像が特徴点候補位置検出部130のための所定のサイズのマルチスケール画像であるときには、正規化部110、画像変換部120、および特徴点位置調整部150は不要とされてよい。
図4に、本開示の一実施形態による特徴点候補位置検出部130を示す。
図4を参照すると、本開示の一実施形態による特徴点候補位置検出部130は、分類器210−1、再分類器210−2〜210−k、および特徴点候補位置生成器220を含んでいてよい。ここで、分類器210−1は、いわゆる第1層に対応する分類器としてよい、再分類器210−2〜210−kは、それぞれ、いわゆる第2層から第k層に対応する分類器としてよい。参考までに、第1層は、通常の顔画像から学習することによって取得されたパターンを含む少なくとも1つの強い分類器を含んでいてよく、第2層から第k層は、普通でない顔画像から学習することによって取得されたパターンを含む少なくとも1つの強い分類器を含んでいてよく、異常さの程度はkが増加するにつれて増加する。分類器210−1は、第1層の分類器であり、強い分類器230−11〜230−1nを含んでいてよく;再分類器210−2は、第2層の分類器であり、強い分類器230−21〜230−2mを含んでいてよく;再分類器210−kは、第k層の分類器であり、強い分類器230−k1〜230−klを含んでいてよい。分類器210−1および再分類器210−2〜210−kは、それぞれ、相互に異なる構成を有する1つまたは複数の強い分類器を含んでいてよい。
図4に示す各ブロックの機能は以下のとおりである。
分類器210−1は、Adaboost学習アルゴリズムを使用した学習によって通常の顔画像のパターンの中から選択された第1の特徴パターンを使用することによって、入力サブウィンドウ画像を、第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像のうちの1つとして分類してよく、第1の特徴点候補推奨画像についての位置情報を生成してよい。
再分類器210−2〜210−kの各々は、Adaboost学習アルゴリズムを使用した学習によって普通でない顔画像のパターンの中から選択された第2の特徴パターンを使用することによって、第1層の分類器である分類器210−1、および第2層の分類器である再分類器210−2〜210−kによって特徴点候補非推奨画像として分類されたサブウィンドウ画像を、第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像のうちの1つとして再分類してよく、第2の特徴点候補推奨画像についての特徴点位置情報を生成してよい。
上記に従い、分類器210−1は、通常の顔画像についての第1の特徴点候補推奨画像の第1の特徴点候補位置を生成してよく、再分類器210−2〜210−kの各々は、普通でない顔画像についての第2の特徴点候補推奨画像の第2の特徴点候補位置を生成してよい。
第1層に含まれる強い分類器230−11〜230−1nは、Adaboost学習アルゴリズムを使用した学習によって選択されたものである第1の特徴パターンを使用することによって、入力サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、第1の特徴点候補位置情報を出力するように構成されている。ここで、第1の特徴点候補位置情報を出力するためには、第1層に含まれるすべての強い分類器230−11〜230−1nが、第1の特徴点候補推奨画像と判定する必要がある。
さらに、第2層に含まれる強い分類器230−21〜230−2mは、Adaboost学習アルゴリズムを使用した学習によって選択されたものである第2の特徴パターンを使用することによって、入力サブウインドウ画像を、第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ分類し、第2の特徴点候補位置情報を出力するように構成されている。ここで、第2層によって第2の特徴点候補位置情報を出力するためには、第2層に含まれるすべての強い分類器230−21〜230−2mが第2の特徴点候補推奨画像と判定する必要がある。
さらに、第k層含まれる強い分類器230−k1〜230−klは、Adaboost学習アルゴリズムを使用した学習によって選択されたものである(強い分類器230−21〜230−2mによって使用された第2の特徴パターンとは異なりうる)第2の特徴パターンを使用することによって、入力サブウィンドウ画像を、第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ分類し、第2の特徴点候補位置情報を出力する。ここで、第k層によって第2の特徴点候補位置情報を出力するためには、入力サブウィンドウ画像が、第k層に含まれるすべての強い分類器230−k1〜230−klによって第2の特徴点候補推奨画像と判定される必要がある。
カスケード接続された強い分類器230−11〜230−1n、230−21〜230−2m、…、および230−k1〜230−klの各々において、前段の強い分類器は、Adaboost学習アルゴリズムを使用した学習によって選択されたものである、後段の強い分類器と比べてより少ない数の第1および第2の特徴パターンを使用することによって、サブウィンドウ画像を、第1および第2の特徴点候補推奨画像ならびに第1および第2の特徴点候補非推奨画像へ分類してよい。例えば、強い分類器230−11は2個の第1の特徴パターンを使用してよく、強い分類器230−12は10個の第1の特徴パターンを使用してよく、強い分類器230−1nは30個の第1の特徴パターンを使用してよい。その理由は、顔特徴点の位置と判定される1つの画像内の点の数は小さいため、サブウィンドウ画像の大部分は「否定」と判定される(すなわち、第k層に至るまで連続して特徴点候補非推奨画像と判定される)ことを考慮して、各層の前段では、強い分類器において少数のパターンを使用してサブウィンドウ画像を軽くフィルタリングすることである。したがってこの例からいうと、たとえ順次に入力される100個のサブウィンドウ画像が前段の強い分類器で第1および第2の特徴点候補推奨画像として分類されたとしても、次段の強い分類器では50個のサブウィンドウ画像だけが第1および第2の特徴点候補推奨画像として分類され(すなわち受諾され)、最終段の第nの強い分類器を通過する(すなわち受諾される)第1および第2の特徴点候補推奨画像は10個まで低減される可能性がある。したがって、分類器210−1および再分類器210−2〜210−kの各最終段の強い分類器230−1n、230−2mおよび230−klで生成される第1および第2の特徴点候補推奨画像の特徴点位置情報は、特徴点を含む確率の高い位置情報となりうる。
特徴点候補位置生成器220は、それぞれ、分類器210−1および再分類器210−2〜210−nから出力されたいくつかの第1および第2の特徴点候補位置情報を記憶し、出力してよい。特徴点候補位置生成器220は、図2の画像Aのすべてのサブウィンドウ画像についての第1および第2の特徴点候補位置情報を記憶し、次いで出力してよい。
図5に、図4に示す特徴点候補位置検出部130の強い分類器の一例を示す。
図5を参照すると、一実施形態による強い分類器230は、弱い分類器240−1〜240−pおよび判定部250を含んでいてよい。
図5に示す各ブロックの機能は以下のとおりである。
サブウィンドウ画像が入力された場合、弱い分類器240−1〜240−pの各々は、相互に異なる特徴パターンを使用して、そのサブウィンドウ画像が特徴点候補推奨画像であるか、それとも特徴点候補非推奨画像であるかを指示する特徴値を生成してよい。
判定部250は、弱い分類器240−1〜240−pからの結果を組み合わせ、サブウィンドウ画像が特徴点候補推奨画像であるときには、特徴点候補位置情報およびサブウィンドウ画像を後段の強い分類器に出力し(後段に強い分類器がない場合には、「肯定」状態が特徴点候補位置生成器220において記録される)、サブウィンドウ画像が特徴点候補非推奨画像であるときには、特徴点候補非推奨位置情報およびサブウィンドウ画像を後段の再分類器210−2〜210−kに出力する。
図6に、本開示の一実施形態によるAdaboost学習アルゴリズムを使用した学習によって選択される特徴パターンを示す。3個の弱い分類器240−1〜240−3が1個の強い分類器を形成しているときには、図6(a)、(b)、および(c)の示す特徴パターンが相互に異なる弱い分類器に使用されてよい。図6(a)に示す特徴パターンはサブウィンドウ10内の対応する位置に配置された2個の正方形を含むパターンを表示しており、特徴パターン図6(b)はサブウィンドウ10内の対応する位置に配置された3個の正方形を含むパターンを表示しており、特徴パターン図6(c)はサブウィンドウ10内の対応する位置に配置された4個の正方形を含むパターンを表示している。さらに、図6(a)、(b)、および(c)に示す特徴パターンの影付き正方形fには暗い画像が存在していてよく、正方形gには明るい画像が存在していてよい。すなわち、各特徴パターンは、サブウィンドウ10内で暗い画像が存在する1つまたは複数の領域fおよび明るい画像が存在する1つまたは複数の領域gを指定していてよい。さらに、図6(a)、(b)、および(c)に示す特徴パターンの各々は、Adaboost学習アルゴリズムを使用して学習され、重み係数は、特徴点位置を見つける確率が高い場合には高く設定され、確率が低い場合には低く設定されてよく、1個の強い分類器を形成している弱い分類器240−1〜240−3の重み係数は総和が1になるように設定されてよい。さらに、入力サブウィンドウ画像を特徴点候補推奨画像および特徴点候補非推奨画像へ分類するための閾値が、Adaboost学習アルゴリズムを使用した学習によって弱い分類器および強い分類器の各々で設定されてよい。
図5の弱い分類器240−1〜240−pが図6を使用することによってサブウィンドウ画像を特徴点候補推奨画像および特徴点候補非推奨画像へ分類する方法を以下のように説明する。
図5の弱い分類器240−1〜240−pの各々は、サブウィンドウ10の1つの選択されたパターンの正方形g内に存在するサブウィンドウ画像内の画素の総和と正方形f内に存在するサブウィンドウ画像内の画素の総和との差と設定された閾値を比較することによって、サブウィンドウ画像が特徴点候補推奨画像であるか、それとも特徴点候補非推奨画像であるかを指示する特徴値を生成してよい。特徴値は、サブウィンドウ画像が特徴点候補推奨画像であるときには1の値を有していてよく、サブウィンドウ画像が特徴点候補非推奨画像であるときには0の値を有していてよい。
図5の判定部250が、図6を使用することにより、弱い分類器240−1〜240−pから出力された特徴値を組み合わせることによって、サブウィンドウ画像を、特徴点候補推奨画像および特徴点候補非推奨画像へ分類する方法を以下のように説明する。
判定部250は、それぞれの弱い分類器240−1〜240−pから出力された特徴値を、それぞれの弱い分類器240−1〜240−pで設定された重み係数と乗算することによって獲得される値の総和を計算し、その総和を強い分類器230で設定された閾値と比較することによって、サブウィンドウ画像が特徴点候補推奨画像であるか、それとも特徴点候補非推奨画像であるか判定してよい。
次いで、強い分類器230は、特徴点候補推奨画像の特徴点候補位置情報の信頼値を計算し、出力してよい。この場合には、判定部250は、それぞれの弱い分類器240−1〜240−pから出力された特徴値をそれぞれの弱い分類器240−1〜240−pの重み係数で乗算することによって獲得された値の総和を信頼値として出力してよい。
さらに、信頼値を使用して、特徴点候補位置クラスタ化部140は、クラスタ化によって作成された最大のクラスタのそれぞれの特徴点候補位置情報を、それぞれの特徴点候補位置情報の信頼値で乗算することによって獲得された値の総和を参照して、最終的な特徴点候補位置情報を決定してよい。
本開示で使用されるAdaboost学習アルゴリズムの一例として、Paul ViolaおよびMichael J.Jonesによって作成された、International Journal of Computer Vision,Volume 57,Issue 2 dated May,2004所収の、「Robust Real−Time Face Detection」という名称の論文を参照してよい。この論文に含まれる特徴点の位置を検出するのに使用されるすべての記述は(Adaboost学習アルゴリズムを使用した学習によって顔画像のパターンから特徴パターンを選択する技法および強い分類器をカスケードすることによって特徴点の位置を検出する技法などを含めて)、参照により本開示の顔特徴点を検出する方法に組み入れられる。
図示されていないが、本開示の一実施形態による顔認識システムは、登録された顔画像から抽出された特徴点位置情報を入力顔画像から抽出された特徴点位置情報と比較し、それらの間の類似性を判定することによって、入力顔画像を識別してよい。
前述の本開示による各実施形態は、様々なコンピュータ構成要素によって実行し、コンピュータ可読記録媒体に記録することのできるプログラムコマンドとして実装することができる。コンピュータ可読記録媒体は、プログラムコマンド、データファイル、データ構造などを、単独で、または組み合わせとして含んでいてよい。コンピュータ可読記録媒体に記録されたプログラムコマンドは、本開示のために特別に設計され、構成されたプログラムであってもよく、コンピュータソフトウェア分野の当業者によって使用されることが知られているプログラムコマンドであってもよい。コンピュータ可読記録媒体には、例えば、ハードディスク、フロッピー(登録商標)ディスク、磁気テープといった磁気媒体、CD−ROMやDVDといった光記録媒体、光ディスクといった光磁気媒体、およびROM、RAM、フラッシュメモリなどといった、プログラムコマンドを記憶し、実行するように特に構成されたハードウェアデバイスが含まれる。プログラムコマンドは、例えば、インタープリタなどを使用してコンピュータによって実行されうる高水準言語コードや、コンパイラによって生成される機械コードを含む。ハードウェアデバイスは、本開示による処理を実行するために1つまたは複数のソフトウェアモジュールを使用して動作するように構成することができ、逆もまた同様である。以上の考察では、本開示を、特定の構成要素、例示的実施形態、図面といった特定の事項との関連で説明したが、これらは本開示の理解を助けるために提供したものにすぎず、本開示はこれらの実施形態だけに限定されない。当業者はこれらの説明を読めば実施形態に様々な改変および変更を加えることができることは明らかであろう。
したがって、本開示の趣旨は上記の実施形態だけに限定されるべきでなく、添付の特許請求の範囲およびこれに対する同等な、または等価の改変は、本開示の範囲内に属するとみなされる。
100 顔特徴点の位置を検出するための装置 110 正規化部 120 画像変換部 130 特徴点候補位置検出部 140 特徴点候補位置クラスタ化部 150 特徴点位置調整部 210−1 分類器 210−2〜210−k 再分類器 220 特徴点候補位置生成器 230−11〜230−kl 強い分類器 240−1〜240−p 弱い分類器 250 判定部

Claims (31)

  1. Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出する方法であって、
    (a)前記Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用することによって、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、前記第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するステップと、
    (b)前記Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用することによって、前記第1の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、前記第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するステップと、
    前記Adaboost学習アルゴリズムによって選択された第3の特徴パターンを使用することによって、前記第2の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第3の特徴点候補推奨画像および第3の特徴点候補非推奨画像へ再分類し、前記第3の特徴点候補推奨画像の第3の特徴点候補位置情報を生成するステップと、
    を含み、
    前記第1の特徴パターンは通常の顔画像の特徴に基づいて決定され、前記第2の特徴パターンは普通でない顔画像の特徴に基づいて決定され、前記第3の特徴パターンは、前記第2の特徴パターンよりも異常さの程度が高い普通でない顔画像の特徴に基づいて決定される方法。
  2. 前記通常の顔画像および前記普通でない顔画像は、前記通常の顔画像および前記普通でない顔画像を正常な画像と比較し、前記比較の結果が既定の閾値を超えるか否かを判定することによって決定される、請求項1に記載の方法。
  3. 前記第1の特徴パターンおよび前記第2の特徴パターンの各々は前記サブウィンドウ画像内の1つまたは複数の明るい領域および1つまたは複数の暗い領域を指定する、請求項1または2に記載の方法。
  4. 前記1つまたは複数の明るい領域および前記1つまたは複数の暗い領域は、少なくとも1つの既定の輝度値に基づいて分類される、請求項3に記載の方法。
  5. 前記ステップ(a)は、
    前記第1の特徴パターンの各々について設定された第1の閾値を、前記第1の特徴パターンそれぞれの前記暗い領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第1の値と前記明るい領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第2の値との差分値の各々と比較することによって、前記サブウィンドウ画像が、前記第1の特徴点候補推奨画像であるかまたは前記第1の特徴点候補非推奨画像であるかを判定するための第1の特徴値を生成するステップと、
    第2の閾値を、前記第1の特徴値それぞれを前記第1の特徴値について設定された重み係数で乗算することによって獲得された値の総和である第1の信頼値と比較することによって、前記サブウィンドウ画像が、前記第1の特徴点候補推奨画像であるかまたは前記第1の特徴点候補非推奨画像であるかを判定するステップと、
    をさらに含む、請求項3または4に記載の方法。
  6. 前記ステップ(b)は、
    前記第2の特徴パターンの各々について設定された第3の閾値を、前記第2の特徴パターンそれぞれの前記暗い領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第3の値と前記明るい領域によって指定された前記サブウィンドウ画像内の画素値を加えることによって獲得された第4の値との差分値の各々と比較することによって、前記サブウィンドウ画像が、前記第2の特徴点候補推奨画像であるかまたは前記第2の特徴点候補非推奨画像であるかを判定するための第2の特徴値を生成するステップと、
    第4の閾値を、前記第2の特徴値それぞれを前記第2の特徴値に設定された重み係数で乗算することによって獲得された値の総和である第2の信頼値と比較することによって、前記サブウィンドウ画像が、前記第2の特徴点候補推奨画像であるかまたは前記第2の特徴点候補非推奨画像であるかを判定するステップと、
    をさらに含む、請求項5に記載の方法。
  7. ステップ(a)において、前記第1の特徴点候補位置情報を生成するための1つまたは複数の強い分類器のうちの前段に位置する強い分類器は、後段に位置する強い分類器と比べてより少ない数の前記第1の特徴パターンを使用して、前記サブウィンドウ画像を前記第1の特徴点候補推奨画像および前記第1の特徴点候補非推奨画像へ分類する、請求項1から6のいずれか1項に記載の方法。
  8. ステップ(b)において、前記第2の特徴点候補位置情報を生成するための1つまたは複数の強い分類器のうちの前段に位置する強い分類器は、後段の強い分類器と比べてより少ない数の前記第2の特徴パターンを使用して、前記サブウィンドウ画像を前記第2の特徴点候補推奨画像および前記第2の特徴点候補非推奨画像へ分類する、請求項7に記載の方法。
  9. Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出する方法であって、
    (a)前記Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用することによって、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、前記第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するステップと、
    (b)前記Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用することによって、前記第1の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、前記第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するステップと、
    (c)顔画像のサブウィンドウ画像の前記第1の特徴点候補推奨画像および前記第2の特徴点候補推奨画像について、前記第1の特徴点候補位置情報、前記第1の特徴点候補位置情報の第1の信頼値、前記第2の特徴点候補位置情報、および前記第2の特徴点候補位置情報の第2の信頼値を記憶するステップと、
    を含む方法。
  10. (d)前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報を考慮してクラスタ化を実行することによってクラスタを形成し、前記クラスタのうちで最大のクラスタを形成するいくつかの前記第1の特徴点候補位置情報およびいくつかの前記第2の特徴点候補位置情報のある代表的な位置の位置情報を特徴点位置情報として生成するステップをさらに含む、請求項9に記載の方法。
  11. ステップ(d)は、前記最大のクラスタを形成する前記第1の特徴点候補位置情報の各々を前記第1の特徴点候補位置情報の各々の前記第1の信頼値で乗算することによって獲得された値と、前記第2の特徴点候補位置情報の各々を前記第2の特徴点候補位置情報の各々の前記第2の信頼値で乗算することによって獲得された値とを加算することによって獲得された値を参照して前記特徴点位置情報を出力する、請求項10に記載の方法。
  12. Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出するための装置であって、
    前記Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用して、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、前記第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するための分類器と、
    前記Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用して、前記第1の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、前記第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するための少なくとも1つの再分類器と、
    前記Adaboost学習アルゴリズムによって選択された第3の特徴パターンを使用して、前記第2の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第3の特徴点候補推奨画像および第3の特徴点候補非推奨画像へ再分類し、前記第3の特徴点候補推奨画像の第3の特徴点候補位置情報を生成するための少なくとも1つの再分類器と、
    を備え、
    前記第1の特徴パターンは通常の顔画像の特徴に基づいて決定され、前記第2の特徴パターンは普通でない顔画像の特徴に基づいて決定され、前記第3の特徴パターンは、前記第2の特徴パターンよりも異常さの程度が高い普通でない顔画像の特徴に基づいて決定される、
    装置。
  13. 前記通常の顔画像および前記普通でない顔画像は、前記通常の顔画像および前記普通でない顔画像を正常な画像と比較し、前記比較の結果が既定の閾値を超えるか否かを判定することによって決定される、請求項12に記載の装置。
  14. 前記第1の特徴パターンおよび前記第2の特徴パターンの各々は前記サブウィンドウ画像内の1つまたは複数の明るい領域および1つまたは複数の暗い領域を指定する、請求項12または13に記載の装置。
  15. 前記1つまたは複数の明るい領域および前記1つまたは複数の暗い領域は、少なくとも1つの既定の輝度値に基づいて分類される、請求項14に記載の装置。
  16. 前記分類器はカスケード接続された強い分類器を含み、前記カスケード接続された強い分類器のうちの前段に位置する強い分類器は、後段に位置する強い分類器と比べてより少ない数の前記第1の特徴パターンを使用して、前記サブウィンドウ画像を前記第1の特徴点候補推奨画像および前記第1の特徴点候補非推奨画像へ分類する、請求項14または15に記載の装置。
  17. 前記強い分類器の各々は少なくとも1つの弱い分類器および判定部を含み、
    前記弱い分類器はそれぞれ、前に指定された前記第1の特徴パターンの前記暗い領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第1の値と、前記明るい領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第2の値との差分値を計算し、前記差分値を、設定された第1の閾値と比較することによって、前記サブウィンドウ画像が、前記第1の特徴点候補推奨画像であるかまたは前記第1の特徴点候補非推奨画像であるかを判定するための第1の特徴値を生成し、
    前記判定部は、第2の閾値を、前記第1の特徴値それぞれを前記第1の特徴値に設定された重み係数で乗算することによって獲得された値の総和である第1の信頼値と比較することによって、前記サブウィンドウ画像が、前記第1の特徴点候補推奨画像であるかまたは前記第1の特徴点候補非推奨画像であるかを判定する、請求項16に記載の装置。
  18. 前記再分類器はカスケード接続された強い分類器を含み、前記カスケード接続された強い分類器のうちの前段に位置する強い分類器は、後段に位置する強い分類器と比べてより少ない数の前記第2の特徴パターンを使用して、前記サブウィンドウ画像を前記第2の特徴点候補推奨画像および前記第2の特徴点候補非推奨画像へ再分類する、請求項14または15に記載の装置。
  19. 前記強い分類器の各々は少なくとも1つの弱い分類器および判定部を含み、
    前記弱い分類器はそれぞれ、前に指定された前記第2の特徴パターンの前記暗い領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第3の値と、前記明るい領域によって指定された前記サブウィンドウ画像内の画素値を加算することによって獲得された第4の値との差分値を計算し、前記差分値を、設定された第3の閾値と比較することによって、前記サブウィンドウ画像が、前記第2の特徴点候補推奨画像であるかまたは前記第2の特徴点候補非推奨画像であるかを判定するための第2の特徴値を生成し、
    前記判定部は、第4の閾値を、前記第2の特徴値それぞれを前記第2の特徴値に設定された重み係数で乗算することによって獲得された値の総和である第2の信頼値と比較することによって、前記サブウィンドウ画像が、前記第2の特徴点候補推奨画像であるかまたは前記第2の特徴点候補非推奨画像であるかを判定する、請求項18に記載の装置。
  20. 元の顔画像を同サイズの濃淡画像へ正規化するための正規化部と、
    正規化された前記顔画像をマルチスケール顔画像に変換する画像変換部と
    をさらに備え、前記サブウィンドウ画像は前記マルチスケール顔画像である、請求項12から19のいずれか1項に記載の装置。
  21. 特徴点位置情報を前記顔画像のサイズに対応する位置情報へと調整する特徴点位置調整部をさらに備える、請求項20に記載の装置。
  22. 所定のサイズを有する前記サブウィンドウ画像は前記マルチスケール顔画像を画素単位ずつ移動する間に作成される、請求項21に記載の装置。
  23. Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出するための装置であって、
    前記Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用して、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、前記第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するための分類器と、
    前記Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用して、前記第1の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、前記第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するための少なくとも1つの再分類器と、
    顔画像のサブウィンドウ画像の前記第1の特徴点候補推奨画像および前記第2の特徴点候補推奨画像について、前記第1の特徴点候補位置情報、前記第1の特徴点候補位置情報の第1の信頼値、前記第2の特徴点候補位置情報、および前記第2の特徴点候補位置情報の第2の信頼値を記憶し、出力する特徴点候補位置生成器と、
    を備える装置。
  24. 前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報についてクラスタ化を実行することによってクラスタを形成し、前記クラスタのうちで最大のクラスタを形成する前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報のある代表的な位置の位置情報を特徴点位置情報として生成する特徴点候補位置クラスタ化部をさらに備える、請求項23に記載の装置。
  25. 前記特徴点候補位置クラスタ化部は、前記最大のクラスタを構成する前記第1の特徴点候補位置情報の各々を前記第1の特徴点候補位置情報の各々の前記第1の信頼値で乗算することによって獲得された値と、前記第2の特徴点候補位置情報の各々を前記第2の特徴点候補位置情報の各々の前記第2の信頼値で乗算することによって獲得された値とを加算することによって獲得された値を参照して前記特徴点位置情報を出力する、請求項24に記載の装置。
  26. 請求項1から11のいずれか一項に記載の方法をコンピュータに実行させるためのプログラム。
  27. Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出する方法であって、
    (a)前記Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用することによって、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、前記第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するステップと、
    (b)前記Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用することによって、前記第1の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、前記第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するステップと、
    (c)顔画像のサブウィンドウ画像についての前記第1の特徴点候補位置情報およびいくつかの前記第2の特徴点候補位置情報を記憶するステップと、
    (d)前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報を考慮してクラスタ化を実行することによってクラスタを形成し、前記クラスタのうちで最大のクラスタを形成する前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報のある代表的な位置の位置情報を特徴点位置情報として生成するステップと、
    を含む方法。
  28. ステップ(a)の前に、
    元の顔画像を同サイズの濃淡画像へ正規化するステップと、
    前記正規化された顔画像をマルチスケール顔画像に変換するステップと
    をさらに含み、ステップ(a)において、前記サブウィンドウ画像は前記マルチスケール顔画像である、請求項27に記載の方法。
  29. (e)前記特徴点位置情報を前記顔画像のサイズに対応する位置情報に調整するステップをさらに含む、請求項28に記載の方法。
  30. 所定のサイズを有する前記サブウィンドウ画像は前記マルチスケール顔画像を画素単位ずつ移動する間に作成される、請求項29に記載の方法。
  31. Adaboost学習アルゴリズムを使用することによって顔特徴点の位置を検出するための装置であって、
    前記Adaboost学習アルゴリズムによって選択された第1の特徴パターンを使用して、サブウィンドウ画像を第1の特徴点候補推奨画像および第1の特徴点候補非推奨画像へ分類し、前記第1の特徴点候補推奨画像の第1の特徴点候補位置情報を生成するための分類器と、
    前記Adaboost学習アルゴリズムによって選択された第2の特徴パターンを使用して、前記第1の特徴点候補非推奨画像として分類された前記サブウィンドウ画像を第2の特徴点候補推奨画像および第2の特徴点候補非推奨画像へ再分類し、前記第2の特徴点候補推奨画像の第2の特徴点候補位置情報を生成するための少なくとも1つの再分類器と、
    顔画像のサブウィンドウ画像の前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報を記憶するための特徴点候補位置生成部と、
    前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報を考慮してクラスタ化を実行することによってクラスタを形成し、前記クラスタのうちで最大のクラスタを形成する前記第1の特徴点候補位置情報および前記第2の特徴点候補位置情報のある代表的な位置の位置情報を特徴点位置情報として生成する特徴点候補位置クラスタ化部と、
    を備える装置。
JP2015159728A 2011-09-27 2015-08-12 方法、装置、およびプログラム Expired - Fee Related JP6111297B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020110097794A KR101175597B1 (ko) 2011-09-27 2011-09-27 아다부스트 학습 알고리즘을 이용하여 얼굴 특징점 위치를 검출하기 위한 방법, 장치, 및 컴퓨터 판독 가능한 기록 매체
KR10-2011-0097794 2011-09-27

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014531736A Division JP5795443B2 (ja) 2011-09-27 2012-09-27 Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体

Publications (2)

Publication Number Publication Date
JP2016001492A true JP2016001492A (ja) 2016-01-07
JP6111297B2 JP6111297B2 (ja) 2017-04-05

Family

ID=46887540

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2014531736A Expired - Fee Related JP5795443B2 (ja) 2011-09-27 2012-09-27 Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体
JP2015159728A Expired - Fee Related JP6111297B2 (ja) 2011-09-27 2015-08-12 方法、装置、およびプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2014531736A Expired - Fee Related JP5795443B2 (ja) 2011-09-27 2012-09-27 Adaboost学習アルゴリズムを使用して顔特徴点の位置を検出するための方法、装置、およびコンピュータ可読記録媒体

Country Status (6)

Country Link
US (2) US9202109B2 (ja)
EP (1) EP2763078A4 (ja)
JP (2) JP5795443B2 (ja)
KR (1) KR101175597B1 (ja)
CN (1) CN104395913A (ja)
WO (1) WO2013048159A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20150005094A (ko) * 2013-07-04 2015-01-14 삼성전자주식회사 전자 디바이스 및 전자 디바이스에서 눈 영역 검출 방법
US9020213B1 (en) 2013-10-17 2015-04-28 Daon Holdings Limited Methods and systems for detecting biometric characteristics in an image
KR101945821B1 (ko) 2015-05-14 2019-02-11 인하대학교 산학협력단 공간 컨텍스트 아다부스트를 이용한 얼굴 표식 위치 추정 방법
US9898674B2 (en) 2015-12-10 2018-02-20 International Business Machines Corporation Spoof detection for facial recognition
US9524430B1 (en) * 2016-02-03 2016-12-20 Stradvision Korea, Inc. Method for detecting texts included in an image and apparatus using the same
CN106067013B (zh) * 2016-06-30 2022-04-12 美的集团股份有限公司 嵌入式系统人脸识别方法及装置
KR101802500B1 (ko) 2016-10-20 2017-11-28 재단법인대구경북과학기술원 영상 인식을 위한 학습 장치 및 그 학습 방법
CN106951888B (zh) * 2017-05-09 2020-12-01 安徽大学 人脸特征点的相对坐标约束方法以及定位方法
JP6835223B2 (ja) * 2017-06-26 2021-02-24 日本電気株式会社 顔認証装置、顔認証方法およびプログラム
JP6970553B2 (ja) * 2017-08-17 2021-11-24 キヤノン株式会社 画像処理装置、画像処理方法
CN108573054A (zh) * 2018-04-24 2018-09-25 百度在线网络技术(北京)有限公司 用于推送信息的方法和装置
CN112749296B (zh) * 2019-10-31 2024-01-26 北京达佳互联信息技术有限公司 一种视频推荐方法、装置、服务器及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060140614A1 (en) * 2004-12-28 2006-06-29 Samsung Electronic Co., Ltd. Apparatus, medium, and method for photographing based on face detection
JP2009015614A (ja) * 2007-07-05 2009-01-22 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP2011128916A (ja) * 2009-12-18 2011-06-30 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム
JP2011141799A (ja) * 2010-01-08 2011-07-21 Nippon Telegr & Teleph Corp <Ntt> オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム
WO2011092865A1 (ja) * 2010-02-01 2011-08-04 株式会社モルフォ 物体検出装置及び物体検出方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7024033B2 (en) * 2001-12-08 2006-04-04 Microsoft Corp. Method for boosting the performance of machine-learning classifiers
US7203669B2 (en) * 2003-03-17 2007-04-10 Intel Corporation Detector tree of boosted classifiers for real-time object detection and tracking
JP2005134966A (ja) * 2003-10-28 2005-05-26 Seiko Epson Corp 顔画像候補領域検索方法及び検索システム並びに検索プログラム
KR100643303B1 (ko) * 2004-12-07 2006-11-10 삼성전자주식회사 다면 얼굴을 검출하는 방법 및 장치
KR100682906B1 (ko) * 2004-12-09 2007-02-15 삼성전자주식회사 부스트 알고리즘을 이용한 영상의 얼굴 검출 장치 및 방법
US8503800B2 (en) * 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
US7903870B1 (en) * 2006-02-24 2011-03-08 Texas Instruments Incorporated Digital camera and method
JP4933186B2 (ja) * 2006-07-26 2012-05-16 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
US20080107341A1 (en) * 2006-11-02 2008-05-08 Juwei Lu Method And Apparatus For Detecting Faces In Digital Images
US20080170778A1 (en) * 2007-01-15 2008-07-17 Huitao Luo Method and system for detection and removal of redeyes
US7844085B2 (en) * 2007-06-07 2010-11-30 Seiko Epson Corporation Pairwise feature learning with boosting for use in face detection
US8243790B2 (en) * 2007-09-28 2012-08-14 Dolby Laboratories Licensing Corporation Treating video information
GB2492246B (en) * 2008-03-03 2013-04-10 Videoiq Inc Dynamic object classification
JP5072655B2 (ja) * 2008-03-03 2012-11-14 キヤノン株式会社 画像処理装置、画像処理方法、プログラム及び記憶媒体
JP4513898B2 (ja) * 2008-06-09 2010-07-28 株式会社デンソー 画像識別装置
KR100981832B1 (ko) * 2008-06-12 2010-09-13 인하대학교 산학협력단 Boosting 알고리즘 및 특징벡터분할 기법을 이용한얼굴특징 선택방법 및 장치
KR100998842B1 (ko) * 2009-02-03 2010-12-06 인하대학교 산학협력단 부스팅 기법을 통한 얼굴 인식 방법 및 장치
KR101077312B1 (ko) * 2009-07-01 2011-10-26 삼성전기주식회사 하라이크 특징점을 이용한 사람 검출 장치 및 그 방법
KR20110012820A (ko) * 2009-07-31 2011-02-09 삼성전기주식회사 얼굴 구성 성분의 모션 조합에 의한 개인 인증 장치 및 그 방법
JP5675214B2 (ja) * 2010-08-18 2015-02-25 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム
US8144976B1 (en) * 2010-12-06 2012-03-27 Seiko Epson Corporation Cascaded face model
US8306257B2 (en) * 2011-01-31 2012-11-06 Seiko Epson Corporation Hierarchical tree AAM

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060140614A1 (en) * 2004-12-28 2006-06-29 Samsung Electronic Co., Ltd. Apparatus, medium, and method for photographing based on face detection
JP2009015614A (ja) * 2007-07-05 2009-01-22 Sony Corp 画像処理装置及び画像処理方法、並びにコンピュータ・プログラム
JP2011128916A (ja) * 2009-12-18 2011-06-30 Fujifilm Corp オブジェクト検出装置および方法並びにプログラム
JP2011141799A (ja) * 2010-01-08 2011-07-21 Nippon Telegr & Teleph Corp <Ntt> オブジェクト検出認識装置、オブジェクト検出認識方法、および、プログラム
WO2011092865A1 (ja) * 2010-02-01 2011-08-04 株式会社モルフォ 物体検出装置及び物体検出方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
JPN6016031684; 吉永 智明、外2名: '"顔の確率分布推定を用いた高速顔検出手法"' 情報処理学会研究報告 Vol.2008, No.82, 20080829, pp.225-230, 社団法人情報処理学会 *
JPN6016031685; 賀谷 晃太、外2名: '"類似特徴を有した異種物体認識のためのブーステッド・カスケード学習アルゴリズム"' 電子情報通信学会技術研究報告 Vol.107, No.542, 20080305, pp.489-494, 社団法人電子情報通信学会 *

Also Published As

Publication number Publication date
EP2763078A1 (en) 2014-08-06
JP5795443B2 (ja) 2015-10-14
US20160078319A1 (en) 2016-03-17
US9563821B2 (en) 2017-02-07
US9202109B2 (en) 2015-12-01
KR101175597B1 (ko) 2012-08-21
US20140133743A1 (en) 2014-05-15
JP2014530424A (ja) 2014-11-17
JP6111297B2 (ja) 2017-04-05
CN104395913A (zh) 2015-03-04
EP2763078A4 (en) 2016-04-13
WO2013048159A1 (ko) 2013-04-04

Similar Documents

Publication Publication Date Title
JP6111297B2 (ja) 方法、装置、およびプログラム
JP5010905B2 (ja) 顔認証装置
Agarwal et al. Swapped! digital face presentation attack detection via weighted local magnitude pattern
KR20080104943A (ko) 얼굴 인식 방법 및 시스템
KR20110067373A (ko) 영상 인식 장치 및 방법
WO2015037973A1 (en) A face identification method
Mohamed et al. Automated face recogntion system: Multi-input databases
JP2021103538A (ja) 情報処理装置、情報処理方法、および、情報処理プログラム
Jacob Comparison of popular face detection and recognition techniques
Razzaq et al. A comprehensive survey on face detection techniques
Xu et al. A novel multi-view face detection method based on improved real adaboost algorithm
Mekami et al. Towards a new approach for real time face detection and normalization
Aggarwal et al. Face Recognition System Using Image Enhancement with PCA and LDA
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
Vivekanandam et al. Face recognition from video frames using hidden markov model classification model based on modified random feature extraction
Amine et al. Face detection in still color images using skin color information
Sharma et al. Study and implementation of face detection algorithm using Matlab
Mostafa et al. Rejecting pseudo-faces using the likelihood of facial features and skin
Wang et al. Face detection using rectangle features and SVM
Asif et al. Deep component based age invariant face recognition in an unconstrained environment
Huang et al. Real-time face detection in color video
Abbas Frs-occ: Face recognition system for surveillance based on occlusion invariant technique
Kar et al. Disguised Face Verification Using Inverse Disguise Quality
Nasiri Real-Time Face Mask Detection and Recognition for Video Surveillance Using Deep Learning Approach
Teja et al. Face Detection and Recognition for Criminal Identification

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160810

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161121

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20170209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170313

R150 Certificate of patent or registration of utility model

Ref document number: 6111297

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees