JP4317465B2 - 顔識別装置、顔識別方法及び顔識別プログラム - Google Patents

顔識別装置、顔識別方法及び顔識別プログラム Download PDF

Info

Publication number
JP4317465B2
JP4317465B2 JP2004036126A JP2004036126A JP4317465B2 JP 4317465 B2 JP4317465 B2 JP 4317465B2 JP 2004036126 A JP2004036126 A JP 2004036126A JP 2004036126 A JP2004036126 A JP 2004036126A JP 4317465 B2 JP4317465 B2 JP 4317465B2
Authority
JP
Japan
Prior art keywords
face
area
image
candidate point
eye
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004036126A
Other languages
English (en)
Other versions
JP2005228042A (ja
Inventor
孝裕 大橋
直亮 住田
信男 檜垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honda Motor Co Ltd
Original Assignee
Honda Motor Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honda Motor Co Ltd filed Critical Honda Motor Co Ltd
Priority to JP2004036126A priority Critical patent/JP4317465B2/ja
Priority to US10/965,919 priority patent/US7362887B2/en
Priority to DE102004051159A priority patent/DE102004051159B4/de
Priority to KR1020040087294A priority patent/KR100617390B1/ko
Publication of JP2005228042A publication Critical patent/JP2005228042A/ja
Application granted granted Critical
Publication of JP4317465B2 publication Critical patent/JP4317465B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/167Detection; Localisation; Normalisation using comparisons between temporally consecutive images

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Collating Specific Patterns (AREA)

Description

本発明は、撮像対象である対象人物の顔を識別する顔識別装置、顔識別方法及び顔識別プログラムに関するものである。
より詳細には、対象人物を撮像して得られた撮像画像において仮定した顔の領域(顔領域)が、対象人物の顔の識別に好適であるか否かを判断し、好適であると判断された顔の領域(顔領域)に基づいて、対象人物の顔の識別を行う顔識別装置、顔識別方法及び顔識別プログラムに関するものである。
近年、CCDカメラなどのビデオカメラ(以下、単に「カメラ」という)によって対象人物を撮像した画像から、対象人物の顔を認識する方法及びその装置が数多く提案されている。
この種の従来の技術としては、以下のようなものがある。
特開平09−251534号公報(段落0021) 特開平10−232934号公報(段落0023、図1) 特開平11−015979号公報(段落0015〜0031、図2)
これら特許文献に記載された発明では、対象人物を撮像して得られた撮像画像から顔の領域(顔領域)を抽出し、抽出した顔領域に含まれる目や口などの特徴点を基準として顔領域に正規化処理を施して、正規化した顔領域の画像(正規化顔画像)を作成する。そして、正規化顔画像と予め用意された辞書画像とを比較・照合して、対象人物の顔の認識・識別を行っている。
特許文献1及び特許文献2に記載された発明の場合、顔領域の抽出は、撮像画像の全画面に渡って標準顔画像(テンプレート)を移動させながら相関値を計算し、相関値の最も高い領域を顔領域と見なすことで行っている。
また、特許文献3に記載された発明の場合、顔領域の抽出は、撮像画像における肌色の領域と暗い領域とを検索し、肌色領域内に暗い領域が一定の割合で含まれている肌色領域を顔領域と見なすことで行っている。
しかし、対象人物が移動している場合や、対象人物の撮像を移動しながら行う場合には、光源と対象人物との間の位置関係が変化するので、撮像画像内の対象人物の顔に影が入り、この影の影響を受けて、顔領域の抽出を適切に行えないことがある。
このような場合、前記特許文献に記載の発明では、抽出された顔領域が対象人物の顔の認識・識別に好適であるか否かを判断せずに、対象人物の顔の認識・識別が行われる。よって、不適切な顔領域が抽出された場合、不適切な顔領域に基づいて対象人物の顔の認識・識別を行うことになり、対象人物の顔の認識・識別を正確に行えないという問題が生じている。
そこで、このような問題を生じることのない方法及び装置に対する要求があった。
本発明は、カメラによって撮像された対象人物の撮像画像を基に前記対象人物の顔を識別する識別手段を備えた顔識別装置に関するものである。
この顔識別装置は、前記撮像画像から生成した前記対象人物の輪郭画像を参照して、前記撮像画像内において前記対象人物が存在する対象人物存在領域を設定し、肌色領域情報を参照して、前記対象人物存在領域に含まれる肌色領域を抽出し、当該肌色領域を含む検索領域を予め用意された楕円形の顔テンプレートで走査すると共に、前記顔テンプレートに所定の適合度を示す前記肌色領域を顔領域として推定する顔領域推定手段と、前記カメラから前記対象人物までの距離を表す距離情報に基づいて前記顔領域を基準サイズの画像に変換して基準画像を生成すると共に、当該基準画像における前記顔領域の重心を基準として検索域を設定し、当該検索域に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素の中から前記対象人物の右瞳候補点と左瞳候補点とを検出する瞳候補点検出手段と、前記右瞳候補点と前記左瞳候補点とを結ぶ線分が前記基準画像内で水平となるように前記基準画像を回転した後に、前記右瞳候補点と前記左瞳候補点との間隔を基準として正規化画像を生成すると共に、当該正規化画像の中で前記左目候補点を含む左目正規化画像をベクトルで表す左目参照用ベクトルと、当該正規化画像の中で前記右目候補点を含む右目正規化画像をベクトルで表す右目参照用ベクトルとを生成し、前記左目参照用ベクトルと前記右目参照用ベクトルとを含む参照用データを生成する参照用データ生成手段と、前記参照用データに含まれる前記左目参照用ベクトルと正規化された複数の左目画像から予め得た左目固有ベクトルとの近似度である距離値を求めると共に、前記右目参照用ベクトルと複数の右目画像から予め得た右目固有ベクトルとの近似度である距離値を求め、求めた両距離値を基に前記顔領域の適否を評価する顔領域評価手段とを含んで構成される。
この顔識別装置では、前記瞳候補点検出手段において、前記右瞳候補点と前記左瞳候補点とを少なくとも2つ以上検出し、前記参照用データ生成手段において、検出された前記右瞳候補点と左瞳候補点との総ての組み合わせについて前記参照用データを作成することが好ましい。
さらに、この顔識別装置では、前記顔領域評価手段において前記顔領域が不適であると判断された場合、前記顔領域評価手段は、前記顔領域推定手段に、前記対象人物の顔領域を再推定するように要求することが好ましく、前記顔領域評価手段において前記顔領域が適切であると判断された場合、前記顔領域評価手段は、瞳候補点検出手段において検出された前記右瞳候補点と前記左瞳候補点とを基準として、前記顔領域の補正を行うことが好ましい。
また、本発明は、カメラによって撮像された対象人物の撮像画像を基に前記対象人物の顔を識別する方法であって、前記撮像画像から生成した前記対象人物の輪郭画像を参照して、前記撮像画像内において前記対象人物が存在する対象人物存在領域を設定し、肌色領域情報を参照して、前記対象人物存在領域に含まれる肌色領域を抽出し、当該肌色領域を含む検索領域を予め用意された楕円形の顔テンプレートで走査すると共に、前記顔テンプレートに所定の適合度を示す前記肌色領域を顔領域として推定する顔領域推定ステップと、前記カメラから前記対象人物までの距離を表す距離情報に基づいて前記顔領域を基準サイズの画像に変換して基準画像を生成すると共に、当該基準画像における前記顔領域の重心を基準として検索域を設定し、当該検索域に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素の中から前記対象人物の右瞳候補点と左瞳候補点とを検出する瞳候補点検出ステップと、前記右瞳候補点と前記左瞳候補点とを結ぶ線分が前記基準画像内で水平となるように前記基準画像を回転した後に、前記右瞳候補点と前記左瞳候補点との間隔を基準として正規化画像を生成すると共に、当該正規化画像の中で前記左目候補点を含む左目正規化画像をベクトルで表す左目参照用ベクトルと、当該正規化画像の中で前記右目候補点を含む右目正規化画像をベクトルで表す右目参照用ベクトルとを生成し、前記左目参照用ベクトルと前記右目参照用ベクトルとを含む参照用データを生成する参照用データ生成ステップと、前記参照用データに含まれる前記左目参照用ベクトルと正規化された複数の左目画像から予め得た左目固有ベクトルとの近似度である距離値を求めると共に、前記右目参照用ベクトルと複数の右目画像から予め得た右目固有ベクトルとの近似度である距離値を求め、求めた両距離値を基に前記顔領域の適否を評価する顔領域評価ステップと、前記顔領域評価ステップにおいて、前記顔領域が好適であると判断された場合に、前記正規化画像から前記対象人物の顔データを作成する顔データ作成ステップと、前記顔データ作成ステップで作成された顔データを、記憶手段に登録された顔データと比較・照合する顔識別ステップとを有することを特徴とする顔識別方法に関するものである。
さらに本発明は、カメラによって撮像された対象人物の撮像画像を基に前記対象人物の顔を識別するために、コンピュータを、前記撮像画像から生成した前記対象人物の輪郭画像を参照して、前記撮像画像内において前記対象人物が存在する対象人物存在領域を設定し、肌色領域情報を参照して、前記対象人物存在領域に含まれる肌色領域を抽出し、当該肌色領域を含む検索領域を予め用意された楕円形の顔テンプレートで走査すると共に、前記顔テンプレートに所定の適合度を示す前記肌色領域を顔領域として推定する顔領域推定手段、前記カメラから前記対象人物までの距離を表す距離情報に基づいて前記顔領域を基準サイズの画像に変換して基準画像を生成すると共に、当該基準画像における前記顔領域の重心を基準として検索域を設定し、当該検索域に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素の中から前記対象人物の右瞳候補点と左瞳候補点とを検出する瞳候補点検出手段、前記右瞳候補点と前記左瞳候補点とを結ぶ線分が前記基準画像内で水平となるように前記基準画像を回転した後に、前記右瞳候補点と前記左瞳候補点との間隔を基準として正規化画像を生成すると共に、当該正規化画像の中で前記左目候補点を含む左目正規化画像をベクトルで表す左目参照用ベクトルと、当該正規化画像の中で前記右目候補点を含む右目正規化画像をベクトルで表す右目参照用ベクトルとを生成し、前記左目参照用ベクトルと前記右目参照用ベクトルとを含む参照用データを生成する参照用データ生成手段、前記参照用データに含まれる前記左目参照用ベクトルと正規化された複数の左目画像から予め得た左目固有ベクトルとの近似度である距離値を求めると共に、前記右目参照用ベクトルと複数の右目画像から予め得た右目固有ベクトルとの近似度である距離値を求め、求めた両距離値を基に前記顔領域の適否を評価する顔領域評価手段、前記顔領域評価手段において、前記顔領域が好適であると判断された場合に、前記正規化画像から前記対象人物の顔データを作成する顔データ作成手段、前記顔データ作成手段で作成された顔データを、記憶手段に登録された顔データと比較・照合する顔識別手段として機能させることを特徴とする顔識別プログラムに関するものである。
本発明によると、撮像画像から生成した対象人物の輪郭情報、肌色領域情報、及び距離情報に基づいて顔領域が推定されると共に、推定された顔領域を距離情報に基づいて基準サイズの画像に変換して基準画像を生成する。そして、基準画像において、顔領域の重心を基準として対象人物の右瞳候補点と左瞳候補点とを検出し、検出された右瞳候補点と左瞳候補点との間隔を基準として基準画像の正規化処理を行って、対象人物の参照用データを作成する。そして、作成された参照用データを予め用意された基準データと比較して、推定された顔領域が対象人物の顔の識別に好適に利用できるか否かが評価される。
これにより、対象人物の顔の領域であると推定された領域が、対象人物の顔領域として好適であるか否かが判断できるので、顔領域として推定された領域が対象人物の顔領域として不適切である場合には再度顔領域の推定を行い、顔領域として推定された領域が対象人物の顔領域として適切である場合には、この顔領域を基に対象人物の顔の識別・認識を行うことができる。
よって、より正確に対象人物の顔の識別・認識を行うことができる。
また、検索された左瞳候補点と右瞳候補点との総ての組み合わせについて参照用データが作成され、当該参照用データと基準データとの比較により、どの左瞳候補点と右候補点との組み合わせが、対象人物の顔の識別に好適に利用できるかが評価できる。
これにより、従来のように、厳密に瞳候補点を検索する必要がないので、対象人物の顔の識別・認識に要する処理時間を短縮することが可能となる。
以下、添付図面を参照しながら、本発明の好ましい実施態様を説明する。ここでは、始めに、本発明に係る顔識別装置4を含む顔識別システムAの構成について図1乃至図5を参照して説明し、その後、顔識別システムAの動作について図14及び図15を参照して説明する。
(顔識別システムAの構成)
まず、本発明に係る顔識別装置4を含む顔識別システムAの全体構成について図1を参照して説明する。図1は顔識別システムAの全体構成を示すブロック図である。
図1に示すように、顔識別システムAは、対象人物(図示せず)を撮像する2台のカメラ1(1a,1b)と、カメラ1で撮像された画像(撮像画像)を解析して各種情報を生成する撮像画像解析装置2と、撮像画像解析装置2で生成された各種情報に基づいて対象人物の輪郭を抽出する輪郭抽出装置3と、撮像画像解析装置2で生成された各種情報及び輪郭抽出装置3で抽出された対象人物の輪郭(輪郭情報)に基づいて、対象人物の顔を識別する顔識別装置4とから構成される。以下、カメラ1、撮像画像解析装置2、輪郭抽出装置3、顔識別装置4について、順に説明する。
(カメラ1)
カメラ1(1a,1b)はカラーCCDカメラであり、右カメラ1aと左カメラ1bは、左右に距離Bだけ離れて並設されている。ここでは、右カメラ1aを基準カメラとしている。カメラ1a,1bで撮像された画像(撮像画像)は、フレーム毎に図示しないフレームグラバに記憶された後、撮像画像解析装置2に同期して入力される。
なお、カメラ1a,1bで画像(撮像画像)は、図示しない補正機器によりキャリブレーション処理とレクティフィケーション処理を行い、画像補正した後に撮像画像解析装置2に入力される。また、カメラ1が移動カメラであり、撮像画像内の背景が変化する場合は、撮像画像毎のパン、チルト等のカメラ移動量に基づいて、撮像画像をそのカメラ移動量分だけ補正する。
(撮像画像解析装置2)
撮像画像解析装置2は、カメラ1a,1bから入力された画像(撮像画像)を解析して、「距離情報」、「動き情報」、「エッジ情報」、「肌色領域情報」を生成する装置である。
図2は、図1に示した顔識別システムAに含まれる撮像画像解析装置2と輪郭抽出装置3の構成を示すブロック図である。図2に示すように、撮像画像解析装置2は、「距離情報」を生成する距離情報生成部21と、「動き情報」を生成する動き情報生成部22と、「エッジ情報」を生成するエッジ情報生成部23と、「肌色領域情報」を生成する肌色領域情報生成部24とから構成されている。
(距離情報生成部21)
距離情報生成部21は、同時刻にカメラ1a,1bで撮像された2枚の撮像画像の視差に基づいて、各画素についてカメラ1からの距離を検出する。具体的には、基準カメラであるカメラ1aで撮像された第1の撮像画像と、カメラ1bで撮像された第2の撮像画像とからブロック相関法を用いて視差を求め、その視差から三角法を用いてカメラ1から各画素に撮像された物までの距離を求める。そして、求めた距離を第1の撮像画像の各画素に対応付けて、距離を画素値で表した距離画像D1(図3(a)参照)を生成する。この距離画像D1が距離情報となる。図3(a)の例では、同一の距離に対象人物Cが存在している。
なお、ブロック相関法とは、第1の撮像画像と第2の撮像画像とで特定の大きさの同一ブロック(例えば16×16画素)を比較し、第1の撮像画像と第2の撮像画像とでブロック内の被写体が何画素分ずれているかを調べることにより視差を検出する方法である。
(動き情報生成部22)
動き情報生成部22は、基準カメラであるカメラ1aで時系列に撮像した時刻tにおける「撮像画像(t)」と、時刻t+1における「撮像画像(t+1)」との差分に基づいて、対象人物の動きを検出する。具体的には、「撮像画像(t)」と「撮像画像(t+1)」との差分をとり、各画素の変位を調べる。そして、調べた変位に基づいて変位ベクトルを求め、求めた変位ベクトルを画素値で表わした差分画像D2(図3(b)参照)を生成する。この差分画像D2が動き情報となる。図3(b)の例では、対象人物Cの左腕に動きが検出されている。
(エッジ情報生成部23)
エッジ情報生成部23は、基準カメラであるカメラ1aで撮像された画像(撮像画像)における各画素の濃淡情報又は色情報に基づいて、その撮像画像内に存在するエッジを抽出したエッジ画像を生成する。具体的には、撮像画像における各画素の輝度に基づいて、輝度が大きく変化する部分をエッジとして検出し、そのエッジのみからなるエッジ画像D3(図3(c)参照)を生成する。このエッジ画像D3がエッジ情報となる。
エッジの検出は、例えばSobelオペレータを画素毎に乗算し、行又は列単位で、隣の線分と所定の差がある線分をエッジ(横エッジ又は縦エッジ)として検出する。なお、Sobelオペレータとは、ある画素の近傍領域の画素に対して重み係数を持つ係数行例のことである。
(肌色領域情報生成部24)
肌色領域情報生成部24は、基準カメラであるカメラ1aで撮像された画像(撮像画像)から、その撮像画像内に存在する対象人物の肌色領域を抽出する。具体的には、撮像画像における全画素のRGB値を、色相、明度、彩度からなるHLS空間に変換し、色相、明度、彩度が予め設定された閾値の範囲内にある画素を肌色領域として抽出する(図3(d)参照)。図3(d)の例では、対象人物Cの顔が肌色領域R1として抽出され、手先が肌色領域R2として抽出されている。この肌色領域R1,R2が肌色領域情報となる。
撮像画像解析装置2で生成された「距離情報(距離画像D1)」、「動き情報(差分画像D2)」、「エッジ情報(エッジ画像D3)」は、輪郭抽出装置3に入力される。また、撮像画像解析装置2で生成された「距離情報(距離画像D1)」と「肌色領域情報(肌色領域R1,R2)」は、顔識別装置4に入力される。
(輪郭抽出装置3)
輪郭抽出装置3は、撮像画像解析装置2で生成された「距離情報(距離画像D1)」、「動き情報(差分画像D2)」、「エッジ情報(エッジ画像D3)」に基づいて、対象人物の輪郭を抽出する装置である(図1参照)。
図2に示すように、輪郭抽出装置3は、対象人物が存在する距離である「対象距離」を設定する対象距離設定部31と、「対象距離」に基づいた「対象距離画像」を生成する対象距離画像生成部32と、「対象距離画像内」における「対象領域」を設定する対象領域設定部33と、「対象領域内」から「対象人物の輪郭」を抽出する輪郭抽出部34とから構成されている。
(対象距離設定部31)
対象距離設定部31は、撮像画像解析装置2で生成された距離画像D1(図3(a)参照)と、動き情報生成部22で生成された差分画像D2(図3(b)参照)とに基づいて、対象人物が存在する距離である「対象距離」を設定する。具体的には、距離画像D1における同一の画素値を有する画素を一群(画素群)として、差分画像D2における前記画素群の画素値を累計する。そして、画素値の累計値が所定値よりも大きい、かつ、カメラ1に最も近い距離にある領域に、最も動き量の多い移動物体、即ち対象人物が存在しているとみなし、その距離を対象距離とする(図4(a)参照)。図4(a)の例では、対象距離は2.2mに設定されている。対象距離設定部31で設定された対象距離は、対象距離画像生成部32に入力される。
(対象距離画像生成部32)
対象距離画像生成部32は、撮像画像解析装置2で生成された距離画像D1(図3(a)参照)を参照し、対象距離設定部31で設定された対象距離±αmに存在する画素に対応する画素をエッジ画像D3(図3(c)参照)から抽出した「対象距離画像D4」を生成する。具体的には、距離画像D1における対象距離設定部31から入力された対象距離±αmに対応する画素を求める。そして、求められた画素のみをエッジ情報生成部23で生成されたエッジ画像D3(図3(c)参照)から抽出し、対象距離画像D4(図4(b)参照)を生成する。したがって、対象距離画像D4は、対象距離に存在する対象人物をエッジで表した画像になる。なお、図3(c)の例では、αは0.5mに設定されている。対象距離画像生成部32で生成された対象距離画像D4は、対象領域設定部33と輪郭抽出部34に入力される。
(対象領域設定部33)
対象領域設定部33は、対象距離画像生成部32で生成された対象距離画像D4内における「対象領域T」を設定する。具体的には、対象距離画像D4の縦方向の画素値を累計したヒストグラムHを生成し、ヒストグラムHにおける度数が最大となる位置を、対象人物Cの水平方向における中心位置と特定する(図5(a)参照)。そして、特定された中心位置の左右に特定の大きさ(例えば0.5m)の範囲を対象領域Tとして設定する(図5(b)参照)。なお、対象領域Tの縦方向の範囲は、特定の大きさ(例えば2m)に設定される。また、対象領域Tを設定する際は、カメラ1のチルト角や、カメラ1の高さ等のカメラパラメータを参照して、対象領域Tの設定範囲を補正する。対象領域設定部33で設定された対象領域Tは、輪郭抽出部34に入力される。
(輪郭抽出部34)
輪郭抽出部34は、対象距離画像生成部32で生成された対象領域画像D4(図4(b)参照)において、対象領域設定部33で設定された対象領域T内から対象人物Cの輪郭を抽出する。具体的には、Snakesと呼ばれる手法を用いて対象人物Cの輪郭Oを抽出する(図5(c)参照)。なお、Snakesとは、スネークと呼ばれる閉曲線からなる動的輪郭モデルを用い、予め定義したエネルギーを最小化するように閉曲線を収縮変形させることにより、物体の輪郭を抽出する手法である。輪郭抽出部34で抽出された対象人物Cの輪郭Oは、「輪郭情報」として顔識別装置4に入力される(図1参照)。
(顔識別装置4)
図6は、図1に示した顔識別システムAに含まれる顔識別装置4の構成を示すブロック図である。
顔識別装置4は、輪郭抽出装置3から入力される輪郭情報、そして撮像画像解析装置2から入力される肌色領域情報及び距離情報に基づいて、対象人物の撮像により得られた撮像画像から対象人物の顔が存在すると予想される領域(顔推定領域)を推定し、この顔推定領域が対象人物の顔識別に好適に利用できるかを判断し、好適に利用できると判断した場合のみに対象人物の識別を行い、好適に利用できないと判断した場合には、好適に利用できる顔推定領域の再推定等を行うものである。
図1及び図6に示すように、顔識別装置4は、顔領域推定手段50と、瞳候補点検出手段60と、参照用データ生成手段70と、顔領域評価手段80と、顔識別手段90と、記憶手段100とから構成される。
記憶手段100には、顔データベースと、瞳データベースと、顔データベース及び瞳データベースのそれぞれに合わせて生成された固有空間を規定する顔と瞳の固有ベクトルとが登録されている。
顔データベースには、個人の顔を固有ベクトルの線形和で表したときの係数が、複数人数分登録されている。
瞳データベースには、個人の瞳を固有ベクトルの線形和で表したときの係数が、複数人数分登録されている。
顔の固有ベクトルは、十分なばらつきを持った複数の正規化された顔画像を主成分分析して得られた固有ベクトルのうち、寄与率の高いものである。
瞳の固有ベクトルは、十分なばらつきを持った複数の正規化された瞳画像を主成分分析して得られた固有ベクトルのうち、寄与率の高いものである。
(顔領域推定手段50)
顔領域推定手段50は、輪郭抽出装置3から入力される輪郭情報、そして撮像画像解析装置2から入力される肌色領域情報及び距離情報に基づいて、カメラ1で撮像された画像(撮像画像)から、対象人物の顔が存在するであろう領域(顔推定領域)を決定するものである。
この顔領域推定手段50は、顔領域検索部51を含んで構成される。
この顔領域推定手段50の顔領域検索部51は、対象人物の撮像により得られた撮像画像の中から対象人物の顔が存在すると推定される領域(顔推定領域)を検索するものである。
具体的には、図7(a)に示すように、顔領域検索部51は、輪郭抽出装置3から入力された輪郭情報を参照して、撮像画像内において対象人物が存在する領域(対象人物存在領域)を確認する。そして、顔領域検索部51は、撮像画像解析装置2から入力された肌色領域情報を参照して、対象人物存在領域に含まれる肌色領域を確認し、確認された肌色領域とその近傍の領域を検索領域として設定する。そして、この検索領域を予め用意された楕円形の顔テンプレートで走査し、この顔テンプレートと所定の適合度を示す肌色領域を顔推定領域とする。
本実施の形態では、顔テンプレートの楕円内に含まれる肌色領域の面積の割合(面積割合)、顔テンプレートのエッジと肌色領域のエッジとの重なり具合(エッジ適合度)をそれぞれ求め、面積割合やエッジ適合度が所定の閾値を超えた際に、顔テンプレートの楕円が位置する肌色領域を顔推定領域として決定している。
そして、顔領域検索部51は、顔推定領域が撮像画像においてどこに存在するのかを示すデータ(顔推定領域データ)を生成すると共に、顔推定領域に含まれる画素の画素値を参照して、この顔領域とカメラ1との距離を示す距離データを生成する。
そして、顔領域検索部51は、顔推定領域データと距離データとを、瞳候補点検出手段60の基準画像生成部61に出力する。
(瞳候補点検出手段60)
瞳候補点検出手段60は、顔推定領域の中から、対象人物の左目が存在すると予想される領域(左目候補点)と、右目が存在すると予想される領域(右目候補点)とを検出するものである。
この瞳候補点検出手段60は、基準画像生成部61と、瞳検索領域設定部62と、瞳候補点検出部63とを含んで構成される。
基準画像生成部61は、顔領域検索部51から出力された顔推定領域データと距離データに基づいて、対象人物の撮像により得られた撮像画像を拡大縮小して、所定距離における画像と同等のサイズの画像(基準画像)に調整するものである。
具体的には、基準画像生成部61は、顔領域検索部51から入力された距離データを参照し、カメラ1から対象人物の顔推定領域(対象人物の顔)までの距離を求める。そして、所定距離が1mに設定されている場合には、撮像画像の大きさを、カメラ1から顔推定領域までの距離が1mの場合に相当する大きさの画像に調整して、これを基準画像とする。
すなわち、基準画像生成部61は、カメラ1から対象人物の顔推定領域までの距離が1.5mである場合、撮像画像の大きさを距離が1mである場合に相当する大きさの画像に拡大し、距離が0.5mである場合、撮像画像の大きさを距離が1mである場合に相当する大きさの画像に縮小する。
ここで、この基準画像は、撮像画像をα倍して生成することができ、αは次式のような関係にある。
α =(顔推定領域内の画素の距離値の平均)/所定距離
ここで、後述する参照用データ生成手段70の正規化処理部73において、対象人物の左右の瞳の間の距離が所定ピクセル(例えば、Nピクセル)になるように正規化処理が行われるので、本実施の形態では、基準画像における対象人物の左右の瞳の間の距離がほぼ同じピクセル数、すなわちNピクセルになる大きさの基準画像とすることが好ましい。
例えば、焦点距離がfmm、セルサイズがCmm/pixのカメラの場合、人間の瞳の間の距離Lは平均で65mmであるので、Nピクセルが65mmになるおおよその所定距離Xは、前記値を次式に代入して求めることができる。
X=fL/NC=65f/NC
よって、この所定距離は、カメラ1の焦点距離やセルサイズに応じて変更されるものである。
そして、基準画像生成部61は、生成した基準画像を示すデータ(基準画像データ)を、瞳検索領域設定部62と、参照用データ生成手段70の正規化処理部73とに出力する。
なお、本実施の形態では、撮像画像を拡大縮小して所定距離における画像と同じスケールの画像としたものそのものを基準画像としているが、この基準画像の中から、顔推定領域を含んだその周辺領域を所定の大きさで切り出したもの(図7(b))を基準画像とする構成としても良い。
この場合、基準画像の情報量を減らすことができるので、この基準画像生成部61の後段に位置する瞳検索領域設定部62、瞳候補点検出部63、そして参照用データ生成手段70での処理の際の負担を軽減することができる。
なお、本実施の形態では、説明の便宜上、基準画像の中から顔推定領域の周辺を切り出したもの(図7(b))を基準画像として、以下の説明を行う。
瞳検索領域設定部62は、顔推定領域の重心Gを基準として、対象人物の右目を検索する領域(右目領域R)と、左目を検索する領域(左目領域L)とを基準画像の中で設定するものである。
具体的には、図8(a)に示すように、瞳検索領域設定部62は、顔領域検索部51において生成された顔推定領域データを参照して顔推定領域の重心Gを求め、重心Gが基準画像内のどの位置にあるのかを、基準画像生成部61から入力された基準画像データを参照して決定する。
そして、基準画像内において、この重心Gを中心として上側に何ピクセル(画素)、下側に何ピクセル、左側に何ピクセル、そして右側に何ピクセルというような所定の大きさの範囲を基準画像において設定する。
本実施の形態では、右目候補点と左目候補点を検出するために、右目候補点検索用に設定された領域(右目領域R)と、左目候補点検策用に設定された領域(左目領域L)とが、設定されることになる(図8(a)参照)。
なお、各領域(右目領域Rと左目領域L)は、重心Gを基準として、上側が広く、下側が狭く、基準画像の中心側が狭く、基準画像の両側側が広くなるような範囲で設定されている。
このように、重心Gを基準とするのは、検出された顔推定領域の左右方向における中心を基準として、右目領域と左目領域とを設定すると、撮像画像において対象人物の顔が傾いている場合には、設定された右目領域と左目領域の中に対象人物の瞳が含まれないことがあり得るからである。
また、本実施の形態では、肌色領域情報を利用して顔推定領域を決定しているので、照明による陰影のため肌色領域が正しく検出できず、重心Gと本当の顔中心がずれることがある。
例えば、対象人物の首に相当する肌色領域も含んだ形で顔推定領域が決定された場合、重心Gは、本来選択されるべき顔推定領域の重心よりも下側に位置し、対象人物の瞳と重心Gとが離れてしまうことが考えられる。よって、このような場合であっても、右目候補点と左目候補点との検索が可能となるようにするために、各領域(右目領域Rと左目領域L)を広めに、特に重心Gを基準とした上側を広く取っている。
図9(a)は、基準画像において設定された右目領域Rと左目領域Lの拡大図である。図から明らかなように、設定された右目領域Rと左目領域L内では、対象人物の目の周辺の領域が複数の画素の濃淡で表されている。
瞳候補点検出部63は、設定した右目領域Rと左目領域Lの中に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素、すなわち円形エッジ強度の高い画素の中から前記瞳候補点を検出するものである。
具体的には、瞳候補点検出部63は、右目領域Rと左目領域Lをそれぞれ円形エッジフィルタで走査し、各領域に含まれる画素(ピクセル)ごとに円形度値を計算する。そして、円形度値の値が最も高い画素を各領域から検出して、これを瞳候補点とする。これにより、各領域において少なくとも一つの瞳候補点が検出されることになる。
ここで、本実施の形態で用いる円形エッジフィルタは、図8(b)に示すように、半径の異なる複数のリングから構成されており、次式から求めた円形度値が、この円形エッジフィルタの中心部が位置する画素の円形度値として取り扱われている。
円形度値=(領域1の平均輝度レベル)/(領域2の平均輝度レベル)
この円形度値は、複数のリングの中央部eが位置する画素について、当該画素を中心とする円形が周囲にあるかを示すものであり、前記式の領域1、領域2は、図8(b)において、たとえば、(a,b)、(b,c)などの二つの領域を示す。この円形度値の値が高くなるほど、円形が存在すること、すなわち円形エッジ強度が高いことを意味するものである。
本実施の形態では、瞳候補点検出部63は、各領域(右目領域Rと左目領域L)のそれぞれにおいて、円形度の値が高い画素のうちの上位3つの画素を瞳候補点として検出する。そして、検出された各瞳候補点に識別番号を付与する。すなわち、図9(a)に示すように、右目領域R内で検出された瞳候補点を、順番に右瞳候補点R1,R2,R3と、左目領域L内で検出された瞳候補点を、順番に左瞳候補点L1,L2,L3として定める。
そして瞳候補点検出部63は、瞳候補点の各領域内(右目領域Rと左目領域L)における位置を示す位置情報と当該瞳候補点に該当する識別番号とを示す瞳候補点データを、各瞳候補点について生成し、生成した瞳候補点データを参照用データ生成手段70に出力する。
なお、本実施の形態では瞳候補点の検出を、基準画像において設定された右目領域Rと左目領域Lに含まれる画素ごとに円形度値を求めて行っているが、黒丸のテンプレートを用いたパターンマッチングにより、瞳候補点を検索する構成としても良い。
(参照用データ生成手段70)
参照用データ生成手段70は、検出された右瞳候補点と左瞳候補点の総ての組み合わせについて、各組み合わせに含まれる右瞳候補点と左瞳候補点を基準として基準画像の正規化処理を行い、参照用データを生成するものである。
ここで、参照用データとは、この参照用データ生成手段70の後段に位置する顔領域評価手段80で行われる顔領域評価に用いられるデータであり、選択された右目候補点と左目候補点との組み合わせが対象人物の識別に好適であるか否かの判断に用いられるデータである。
この参照用データ生成手段70は、瞳ペア設定部71と、瞳ペア調整部72と、正規化処理部73と、参照用データ生成部74とから構成される。
瞳ペア設定部71は、瞳候補点検出部63において検出された右瞳候補点と左瞳候補点との組み合わせを設定するものである。
具体的には、瞳ペア設定部71は、瞳候補点検出手段60から入力された瞳候補点データを参照して、左目候補点の数と右目候補点の数とを確認し、左目候補点と右目候補点の総ての組み合わせを設定する。
本実施の形態では、図9(a)に示すように、左目領域と右目領域には、右瞳候補点と左瞳候補点とがそれぞれ3つずつ含まれているので、図9(b)に示す合計9つの組み合わせ(ペア1〜ペア9)が設定される。
よって、左目候補点と右目候補点の数がそれぞれ2つずつである場合には、合計4つの組み合わせが瞳ペア設定部71により設定されることになる。
そして、瞳ペア設定部71は、図9(b)に示すような内容の情報を、組み合わせ情報として瞳ペア調整部72に出力する。
瞳ペア調整部72は、瞳ペア設定部71において設定された組み合わせ(ペア1〜ペア9)の中から、左瞳候補点と右瞳候補点との幾何配置の妥当性等を基準として瞳候補点の選別を行う、すなわち、明らかに瞳に相当しない瞳候補点を含むペアを除外するものである。
具体的には、瞳ペア調整部72は、各ペアの左瞳候補点と右瞳候補点との間の距離dを求め(図10(a)参照)、この求めた距離dが所定の範囲に収まらない場合、当該ペアを除外する。
本実施の形態の場合、距離情報に基づいて基準画像が生成されているので、当該基準画像に含まれる2点(画素)間の距離を求めることができる。すなわち、瞳候補点データに含まれる位置情報から、右瞳候補点と左瞳候補点との距離dを求めることができる。
従って、計算により求めた距離dの値が、所定の範囲に収まっていない場合、当該瞳ペアに含まれる右瞳候補点と左瞳候補点のうちの少なくとも一方が、瞳に相当しないと判断できることになる。
尚、ここで用いる所定の範囲は、人の瞳間の平均距離65mmを基準にして任意に設定されるものである。
このように、明らかに瞳に相当しないと考えられる瞳候補点を含むペアを、この瞳ペア調整部72において除外するのは、
1)図8(a)及び図9(a)に示すように、検索された瞳候補点(右目候補点(R1〜R3)と左目候補点(L1〜L3))の中には、瞳に相当しない領域、例えば眉毛に相当する領域も含まれているので、瞳に相当しない瞳候補点(R1、R2、L1)が含まれる組合せを除外して、この瞳ペア調整部72の後段に位置する正規化処理部73での処理を軽減することができる、
2)この瞳ペア調整部72における処理により、明らかに瞳に相当しない領域を除外できるので、各瞳検索領域から検出される瞳候補点の数を増やして、瞳候補点検出の確度の向上を図ることができる、という理由によるものである。
従って、図10(b)に示すように、左目候補点と右目候補点との距離dだけでなく、左目候補点と右目候補点とを結ぶ線分Aと水平線Bとの交差角αを求め、このαが所定角度以上となるペアを除外する構成とすることも可能である。
この場合、対象人物の顔が傾いた状態で撮像された場合を考慮して、この所定角度αは、20度程度に設定されていることが好ましい。
従って、この場合、交差角αが20度以上となるペアは除外されることになる。
そして、瞳ペア調整部72は、除外されなかったペアを、正規化処理の対象となるペア(正規化対象ペア)と決定し、どのペアが正規化処理の対象であるのかを示す情報と当該ペアに含まれる瞳候補点(右瞳候補点と左瞳候補点)に関するデータ(瞳候補点データ)とを含む情報(正規化対象情報)を生成し、これを正規化処理部73に出力する。
例えば、図9(b)に示すペアのうち、ペア2、ペア3、そしてペア9が、閾値で設定された範囲に収まらない場合には、瞳ペア調整部72は、ペア1、ペア4、ペア5、ペア6、ペア7、そしてペア8を正規化対象ペアと決定し、正規化対象ペアとして決定されたペアを示す情報と、当該ペアに含まれる瞳候補点に関する瞳候補点データとを含んで構成される正規化対象情報を生成し、これを正規化処理部73に出力する。
なお、総てのペアが除外された場合、瞳ペア調整部72は、ペア不存在情報を顔領域評価手段80に出力する。
正規化処理部73は、正規化対象ペアに含まれる瞳候補点(右目候補点と左目候補点)を基準として、基準画像における顔推定領域から正規化顔画像を生成するものである。
具体的には、正規化処理部73は、瞳ペア調整部72から出力された正規化対象情報を参照して、正規化処理の対象となるペアを確認する。そして、正規化処理の対象となるペアの各々について、各ペアに含まれる右目候補点と左目候補点との間隔を基準として基準顔画像内の顔推定領域の正規化処理を行って、所定画素の領域(M×M画素で表される領域)で構成される正規化顔画像を作成する。
本実施の形態では、図11に示すように、正規化処理部73は、右目候補点の中心と左目候補点の中心とを結ぶ線分が基準画像内で水平になるように、顔領域推定手段50において推定された顔推定領域を回転する。そして、瞳候補点(右目候補点と左目候補点)の位置が所定画素の領域の高さ方向における下から3/4の位置に配置されると共に、右目候補点と左目候補点との間が所定画素(N画素)で表されるように、回転後の顔推定領域を拡大・縮小して、正規化顔画像を作成する。
従って、ペア1、ペア4、ペア5、ペア6、ペア7、そしてペア8が正規化対象ペアである場合、合計6つの正規化顔画像が、正規化処理部73において作成されることになる。
そして、正規化処理部73は正規化処理により得られた正規化顔画像を、参照用データ生成部74に出力する(図6参照)。
参照用データ生成部74は、正規化処理部73から入力された正規化顔画像から、参照用データを生成するものである。ここで、参照用データとは、この参照用データ生成部74の後段に位置する顔領域評価手段80で行われる顔領域評価に用いられるデータであり、選択された右目候補点と左目候補点との組み合わせが対象人物の識別に好適であるか否かの判断に用いられるデータである。
具体的には、図12に示すように、参照用データ生成部74は、正規化処理部73から入力された正規化顔画像の中で、左目候補点を含んだその周辺の領域(左目正規化画像)と右目候補点を含んだその周辺の領域(右目正規化画像)とを設定し、設定された各領域に含まれる画素の値をベクトルで表すものである。
ここで、左目正規化画像をベクトルで表したものを左目参照用ベクトル、右目正規化画像をベクトルで表したものを右目参照用ベクトルとすると、参照用データ生成部74は、左目参照用ベクトルと、右目参照用ベクトルと、そして、これらベクトルがどの正規化対象ペアから生成されたベクトルであるかを示す情報とを含んで構成される参照用データを、正規化対象ペア毎に生成し、生成した参照用データを顔領域評価手段80に出力する。
従って、ペア1、ペア4、ペア5、ペア6、ペア7、そしてペア8が正規化対象ペアである場合、合計6つの参照用データが顔領域評価手段80に出力される。
さらに、参照用データ生成部74は、後述する顔領域評価手段80から入力される識別対象情報を参照し、当該識別対象情報において示されたペア(例えば、ペア8)について作成された正規化顔画像を顔識別手段90に出力する。
顔領域評価手段80は、参照用データ生成部74から出力された参照用データに基づいて、正規化対象ペアとして決定されたペアの中で、
1)どのペアに含まれる左目候補点と右目候補点とが対象人物の左目と右目を示すものとして適切であるか、
2)顔領域推定手段50の顔領域検索部51で検索された顔推定領域が、対象人物の顔の識別に好適であるか、を判断するものである。
具体的には、顔領域評価手段80は、左目参照用ベクトルと記憶手段100内に記憶された左目固有ベクトルとの近似度である距離値Llを求める。さらに、顔領域評価手段80は、右目参照用ベクトルについても、記憶手段100内に記憶された右目固有ベクトルとの近似度である距離値Lrを求める。
尚、ここでの計算は、いわゆる固有顔手法を利用して、DFES(Defference From Eye Space:目空間からの距離)計算によりユークリッド距離を求めることで行われる。
そして、顔領域評価手段80は、この距離値(Ll、Lr)を総ての正規化対象ペアについて求め、その中から、距離値の値が最も小さい正規化対象ペアを検索する。そして、距離値の値が最も小さい当該正規化対象ペアの距離値を、所定の閾値と比較する。
例えば、ペア1、ペア4、ペア5、ペア6、ペア7、そしてペア8に対応する参照用ベクトルが顔領域評価手段80に入力されており、ペア8の距離値が一番小さい値を示した場合、顔領域評価手段80は、このペア8の距離値を所定の閾値と比較する。
そして、この距離値が所定の閾値よりも小さい場合、すなわち近似度が十分に高い場合、顔領域評価手段80は、ペア8に含まれる瞳候補点(左瞳候補点と右瞳候補点)が、対象人物の左目と右目を示すものとして適切であり、顔領域推定手段50で検索された顔推定領域が、対象人物の顔の識別に好適な顔領域であると決定する。
そして、適切であると決定された正規化対象ペア(ここでは、ペア8)を示す識別対象情報を、参照用データ生成部74に出力する。
これを受けて、参照用データ生成部74は、正規化対象ペア(ここではペア8)について生成された正規化顔画像を顔識別手段90に出力することになる。
一方、距離値が所定の閾値よりも大きい場合や、瞳ペア調整部72からペア不存在情報が入力された場合、顔領域推定手段50で検索された顔推定領域は対象人物の顔の識別に不適切であると見なし、顔領域評価手段80は、顔推定領域の再検索を命令する信号(顔領域再検索命令信号)を顔領域推定手段50に出力する。
これにより、顔領域推定手段50は、撮像画像の中から新たに顔推定領域を決定するか、撮像画像における別のフレームから新たに顔推定領域を決定することになる。
従って、図13に示すように、顔領域推定手段50において顔推定領域を決定する際に、顔の存在しない領域を顔推定領域として決定した場合、例えば対象人物の首の領域を顔推定領域として決定した場合や額近傍の領域を顔推定領域と決定した場合、決定された顔推定領域から求めた参照用ベクトルと記憶手段100に記憶された固有ベクトル空間との間の距離値が大きくなるので、決定された顔推定領域が不適切な領域であることを確認することが可能となる。
(顔識別手段90)
顔識別手段90は、正規化顔画像から求めた特徴パラメータを基に記憶手段100を参照し、当該記憶手段100中に特徴パラメータが登録された人物群の中で、求めた特徴パラメータに最も近い特徴パラメータを有する人物を検索するものである。
具体的には、顔識別手段90は、参照用データ生成部74から入力された正規化顔画像の特徴抽出により、対象人物の顔を表す特徴パラメータを求め、求めた特徴パラメータを基に記憶手段100を参照する。そして、当該記憶手段100に特徴パラメータが登録された人物群の中で、参照用データ生成部74から入力された正規化顔画像の特徴抽出により得られた特徴パラメータに最も近い特徴パラメータを有する人物を検索する。
本実施の形態において、参照用データ生成部74から入力された正規化顔画像がペア8について作成されたものである場合、ペア8を基準にして生成された正規化顔画像の特徴パラメータを求める。そして、求めた特徴パラメータに最も近い特徴パラメータを有する人物を、記憶手段100の中から検索する。
ここで、特徴パラメータに最も近い特徴パラメータを有する人物の検索は、生成された特徴パラメータと、記憶手段100に記憶された各人物の特徴パラメータと間の差が、ある閾値以下となるものを記憶手段100において検索し、この条件を満たす特徴パラメータを有する顔データが、特徴パラメータが合致する顔データとして取り扱われる(図12参照)。
そして、顔識別手段90は、記憶手段100内に、特徴パラメータが合致する顔データが存在する場合には、当該顔データの氏名情報を参照し、対象人物が誰であるのかを認識し、認識結果を出力する。
一方、特徴パラメータが合致する顔データが存在しない場合には、対象人物が登録されていない旨の認識結果を出力する。
(顔識別装置における処理動作)
次に、図1に示すブロック図、そして図14に示すフローチャートを参照して、顔識別装置4において行われる処理について詳しく説明する。
図1に示す撮像画像解析装置2により対象人物Cの撮像が行われ、撮像画像解析装置2から距離情報及び肌色領域情報が、輪郭抽出装置3から輪郭情報が、顔識別装置4にそれぞれ入力されると、顔領域推定手段50の顔領域検索部51は、輪郭情報と肌色情報とを参照し、対象人物の撮像により得られた撮像画像内における肌色領域とその近傍の領域を検索領域として設定し、この検索領域を予め用意された楕円形の顔テンプレートで走査して、この顔テンプレートと所定の適合度を示す領域を顔推定領域とする(ステップS301)。
そして、顔領域検索部51は、顔推定領域が撮像画像においてどこに存在するのかを示すデータ(顔推定領域データ)と共に、当該顔推定領域に含まれる画素の画素値を参照して、この顔推定領域とカメラ1との距離を示す距離データを生成する(ステップS302)。
すると、瞳候補点検出手段60の基準画像生成部61は、生成された顔推定領域データと距離データとに基づいて、撮像画像を拡大縮小して、所定距離における画像と同等のサイズの画像(基準画像)に調整する(ステップS303)。
続いて、瞳候補点検出手段60の瞳検索領域設定部62は、顔推定領域の重心Gを基準にして、対象人物の右目を検索する領域(右目領域R)と、左目を検索する領域(左目領域L)とを基準画像の中で設定する(ステップS304)。
すると、瞳候補点検出手段60の瞳候補点検出部63は、設定した右目領域と左目領域をそれぞれ円形エッジフィルタで走査して(ステップS305)、各領域の中から瞳候補点(左瞳候補点、右瞳候補点)を検出する(ステップS306)。
参照用データ生成手段70の瞳ペア設定部71は、瞳候補点検出部63において検出された左目候補点の数と右目候補点の数とを確認し、左目候補点と右目候補点の総ての組み合わせを設定する(ステップS307)。
すると、参照用データ生成手段70の瞳ペア調整部72は、ステップ307において設定された総ての組み合わせについて、各組み合わせ(ペア)の左瞳候補点と右瞳候補点との間の距離dを求め(図10(b)参照)、この求めた距離dが所定の範囲に収まるか否かを確認する(ステップS308)、そして、瞳ペア調整部72は所定の範囲に収まらないペアを除外し、除外されなかったペアを正規化対象ペアと決定する(ステップS309)。
参照用データ生成手段70の正規化処理部73は、正規化対象ペアに含まれる瞳候補点(右目候補点と左目候補点)を基準として、基準顔画像における顔推定領域から正規化顔画像を生成する(ステップS310)。
参照用データ生成手段70の参照用データ生成部74は、正規化処理部73から入力された正規化顔画像から、左目候補点を含んだその周辺の領域(左目正規化画像)と右目候補点を含んだその周辺の領域(右目正規化画像)とを設定し、設定された各領域をベクトルで表して、それぞれ左目参照用ベクトル、右目参照用ベクトルとし、これらを含む参照用データを生成する(ステップS311)。
顔領域評価手段80は、参照用データに含まれる左目参照用ベクトルと記憶手段100内に記憶された左目固有ベクトルとの近似度である距離値Ll、右目参照用ベクトルと記憶手段100内に記憶された右目固有ベクトルと近似度である距離値Lrとをそれぞれ求める。
そして、顔推定領域が顔識別に好適であるのかを、近似度をもとに判断する(ステップS312)。
顔識別手段90は、顔推定領域が顔識別に好適であると判断された場合(Yes)、参照用データ生成部74から入力された正規化顔画像から特徴パラメータを求め、求めた特徴パラメータを基に記憶手段100を参照し、当該記憶手段100に特徴パラメータが登録された人物群の中で、参照用データ生成部74から入力された正規化顔画像の特徴抽出により得られた特徴パラメータに最も近い特徴パラメータを有する人物を検索し、特徴パラメータが所定の条件を満たす顔データが存在する場合には、当該顔データの氏名情報を参照し、対象人物が誰であるのかを認識し、認識結果を出力する(ステップS313)。
(顔識別システムAの動作)
次に、顔識別システムAの動作について図1に示す顔識別システムAの全体構成を示すブロック図と、図15に示すフローチャートを参照して説明する。
<撮像画像解析ステップ>
図15に示すフローチャートを参照して、撮像画像解析装置2では、カメラ1a,1bから撮像画像が入力されると(ステップS101)、距離情報生成部21において、撮像画像から距離情報である距離画像D1(図3(a)参照)を生成し(ステップS102)、動き情報生成部22において、撮像画像から動き情報である差分画像D2(図3(b)参照)を生成する(ステップS103)。また、エッジ情報生成部23において、撮像画像からエッジ情報であるエッジ画像D3(図3(C)参照)を生成し(ステップS104)、肌色領域情報生成部24において、撮像画像から肌色領域情報である肌色領域R1,R2(図3(d)参照)を抽出する(ステップS105)。
<輪郭抽出ステップ>
引き続き図15に示すフローチャートを参照して、輪郭抽出装置3では、まず、対象距離設定部31において、ステップS102とステップS103で生成された距離画像D1と差分画像D2から、対象人物が存在する距離である対象距離を設定する(ステップS106)。続いて、対象距離画像生成部32において、ステップS104で生成されたエッジ画像D3からステップS106で設定された対象距離に存在する画素を抽出した対象距離画像D4(図4(b)参照)を生成する(ステップS107)。
次に、対象領域設定部33において、ステップS107で生成された対象距離画像D4内における対象領域T(図5(b)参照)を設定する(ステップS108)。そして、輪郭抽出部34において、ステップS108で設定された対象領域T内から、対象人物の輪郭O(図5(c)参照)を抽出する(ステップS109)。
<顔領域決定ステップ>
図15に示すフローチャートを参照して、
顔領域推定手段50において、ステップS102において生成された距離情報、ステップS105において生成された肌色領域情報、そしてSステップ109で生成された輪郭情報に基づいて、撮像画像内において対象人物の顔が存在するであろう領域(顔推定領域)を決定し、当該顔推定領域とカメラ1との距離を示す距離データを生成する(ステップS110)。
<瞳候補点検出ステップ>
続いて、瞳候補点検出手段60において、ステップS110において生成された距離データに基づいて基準画像を生成し、この基準画像内の顔推定領域の重心Gを基準にして、基準画像内において、対象人物の瞳を検索する領域を設定する。そして、この領域を円形エッジフィルタで走査して瞳候補点(左瞳候補点、右瞳候補点)を検出する(ステップS111)。
<参照用データ生成ステップ>
参照用データ生成手段70において、瞳候補点の中に含まれる左瞳候補点と右瞳候補点の総ての組み合わせを設定し、その中で、左瞳候補点と右瞳候補点との間の距離dが所定の範囲に収まる左瞳候補点と右瞳候補点の組み合わせ(ペア)を正規化対象ペアと決定する。
そして、正規化対象ペアに含まれる瞳候補点(右目候補点と左目候補点)を基準として、基準顔画像における顔推定領域から正規化顔画像を生成し、この中から、後段のステップ113における評価に用いられる参照用データを生成する(ステップS112)。
<顔領域評価ステップ>
続いて、顔領域評価手段80において、参照用データに基づいて、顔領域推定手段50で決定された顔領域が、対象人物の顔の識別に好適であるかを判断する(ステップS113)。
<顔識別ステップ>
最後に、顔識別手段90において、ステップ113において、顔領域推定手段50で決定された顔領域が、対象人物の顔の識別に好適である場合、ステップ112で生成された正規化顔画像から特徴パラメータを求め、記憶手段100に記憶された特徴パラメータの中で、最も近い特徴パラメータを検索し、カメラ1を介して撮像された対象人物の顔の識別を行う(ステップS114)。
(瞳候補点の補正)
前述の実施の形態では、瞳候補点検出部63は、右目領域と左目領域をそれぞれ円形エッジフィルタで走査し、各領域に含まれる画素(ピクセル)ごとに円形度を計算し、円形度の値が最も高い画素を瞳候補点としている。
ここで、瞳候補点の位置の精度を向上させるために、対象人物の顔の識別に好適であると判断された正規化対象ペアを確認し、当該正規化対象ペアに含まれる瞳候補点(左瞳候補点と右瞳候補点)の位置の補正を行う瞳候補点補正部75をさらに備えた構成とすることも可能である。
この瞳候補点補正部75は、左目候補点と右目候補点の周りの画素のそれぞれを基準にして、新たに左目参照用ベクトルと右目参照用ベクトルを求める。そして、これらと左目固有ベクトルと、右目固有ベクトルとの間の近似度を求め、より近似度の高い画素が、左瞳候補点と右瞳候補点の近傍にある場合、当該画素に瞳候補点を変更するものである。
図16を参照してより具体的に説明すると、この図において、グラフの底面に写っているのは左目と眉毛を含む画像であり、その上の曲面は、各画素における近似度(DFES値)である。この図において、曲面と底面との距離が近いほど近似度が高いことを示している。
例えば、はじめに図中の画素Xが瞳候補点として検索されていたとしても、この画素Xの周辺の画素について上述の方法により近似度(DFES値)を求め、画素Yの方がより高い近似度を示した場合に、当該画素Yが瞳候補点としてより適切であると判断し、瞳候補点を画素Yに変更する。
これにより、正規化処理部73において、変更後の瞳候補点に基づいて正規化顔画像を再度生成し、この正規化顔画像に基づいて、顔識別手段90において、対象人物の識別を行えば、より正確な対象人物の識別が行えることになる。
(参照用データ生成部74での処理の他の態様)
前述したように、本実施の形態では、参照用データ生成部74は、正規化処理部73から入力された正規化顔画像の中で左目正規化画像と右目正規化画像とを設定し、設定された各領域をベクトル(左目参照用ベクトル、右目参照用ベクトル)で表すように構成されている。
しかしながら、参照用データ生成部74において、左目参照用ベクトルと、右目参照用ベクトルとを生成せずに、正規化顔画像の全体をベクトルで表した顔参照用ベクトルを生成する構成とすることも可能である。
この場合、顔領域評価手段80では、顔参照用ベクトルと記憶手段100の顔固有ベクトルとの距離値を求め、すなわち、DFFS(Defference From Face Space:顔空間からの距離)計算によりユークリッド距離を求め、この距離値を基に、前述の手順に従って、顔領域推定手段50において決定された顔推定領域が、対象人物の顔の識別に好適であるか否かの判断を行うことができる(図12参照)。
(顔推定領域の補正)
ここで、顔領域推定手段において対象人物の顔が存在すると推定された領域(顔推定領域)が対象人物の顔の領域として適切であると顔領域評価手段において判断された場合に、顔領域評価手段は、瞳候補点検出手段において検出された右瞳候補点と左瞳候補点とを基準として、顔推定領域を再度推定、すなわち顔推定領域の補正を行う構成とすることも可能である。
具体的には、対象人物の顔を検索するために撮像画像において設定された検索領域を楕円形の顔テンプレートで走査する際に、この顔テンプレート内の目に相当する位置と、瞳候補点との位置を一致させて、すなわち右瞳候補点と前記左瞳候補点とを基準として、顔推定領域を再設定(補正)する。
これにより、この補正された顔推定領域(補正後顔推定領域)は、当初推定された顔推定領域よりもより正確に対象人物の顔が存在する領域を示しているので、より正確に対象人物の顔が存在すると領域を決定することが可能となる。
以上、本発明の好ましい実施形態について説明したが、本発明は前記実施形態に限定されるものではない。例えば、本実施形態では、顔識別システムとして説明したが、顔識別システムの各構成の処理を汎用的なコンピュータ言語で記述したプログラムとしてとらえることも可能である。
また、本発明に係る顔識別装置は、対象人物が移動している場合や、対象人物の撮像を移動しながら行う場合のように、光源と対象人物との間の位置関係が変化して、顔領域の抽出が常に成功するとは限らない状況であっても、顔識別に好適な顔領域であるかの評価を行った上で顔領域の抽出が行われるので、対象人物の顔識別を好適に行うことができる。よって、脚式歩行ロボットや自動車などの種々の移動体への応用も可能である。
顔識別システムAの全体構成を示すブロック図である。 図1に示した顔識別システムAに含まれる撮像画像解析装置2と輪郭抽出装置3の構成を示すブロック図である。 (a)は距離画像D1、(b)は差分画像D2、(c)はエッジ画像D3、(d)は肌色領域R1,R2を示す図である。 対象距離を設定する方法を説明するための図である。 対象領域Tを設定する方法と、対象領域T内から対象人物Cの輪郭Oを抽出する方法を説明するための図である。 図1に示した顔識別システムAに含まれる顔識別装置4の構成を示すブロック図である。 (a)は、撮像画像から生成した基準画像において、顔推定領域を決定する方法を説明する図である。 (b)は、基準画像における顔推定領域として決定された領域周辺の拡大図である。 (a)は、顔推定領域の中から、左目候補点と右目候補点とを検索する左目領域と右目領域とを示す図である。 (b)は、円形エッジフィルタの一態様を説明する図である。 (a)は、左目領域と右目領域において検索された左瞳候補点と右瞳候補点を説明するための図である。 (b)は、左瞳候補点と右目候補点について設定された組み合わせを説明する図である。 (a)は、左瞳候補点と右目候補点とのペアの中から、不適切なペアを除外する方法を説明する図である。 (b)は、左瞳候補点と右目候補点とのペアの中から、不適切なペアを除外する方法を説明する図である。 基準画像から、正規化顔画像を生成するまでの手順を説明する図である。 顔推定領域から生成した参照用データと基準データとの近似度を求める場合を説明する説明図である。 顔領域の推定を失敗した場合の例を示す図である。 顔識別装置4における処理を説明するためのフローチャートである。 顔認識システムAにおける処理を説明するためのフローチャートである。 瞳候補点を補正する際に行う近似計算の結果を模式的に表す図である。
符号の説明
A 顔識別システム
1 カメラ
2 撮像画像解析装置
3 輪郭抽出装置
4 顔識別装置
50 顔領域推定手段
60 瞳候補点検出手段
70 参照用データ生成手段
80 顔領域評価手段
90 顔識別手段
100 記憶手段

Claims (6)

  1. カメラによって撮像された対象人物の撮像画像を基に前記対象人物の顔を識別する顔識別手段を備えた顔識別装置であって、
    前記撮像画像から生成した前記対象人物の輪郭画像を参照して、前記撮像画像内において前記対象人物が存在する対象人物存在領域を設定し、肌色領域情報を参照して、前記対象人物存在領域に含まれる肌色領域を抽出し、当該肌色領域を含む検索領域を予め用意された楕円形の顔テンプレートで走査すると共に、前記顔テンプレートに所定の適合度を示す前記肌色領域を顔領域として推定する顔領域推定手段と、
    前記カメラから前記対象人物までの距離を表す距離情報に基づいて前記顔領域を基準サイズの画像に変換して基準画像を生成すると共に、当該基準画像における前記顔領域の重心を基準として検索域を設定し、当該検索域に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素の中から前記対象人物の右瞳候補点と左瞳候補点とを検出する瞳候補点検出手段と、
    前記右瞳候補点と前記左瞳候補点とを結ぶ線分が前記基準画像内で水平となるように前記基準画像を回転した後に、前記右瞳候補点と前記左瞳候補点との間隔を基準として正規化画像を生成すると共に、当該正規化画像の中で前記左目候補点を含む左目正規化画像をベクトルで表す左目参照用ベクトルと、当該正規化画像の中で前記右目候補点を含む右目正規化画像をベクトルで表す右目参照用ベクトルとを生成し、前記左目参照用ベクトルと前記右目参照用ベクトルとを含む参照用データを生成する参照用データ生成手段と、
    前記参照用データに含まれる前記左目参照用ベクトルと正規化された複数の左目画像から予め得た左目固有ベクトルとの近似度である距離値を求めると共に、前記右目参照用ベクトルと複数の右目画像から予め得た右目固有ベクトルとの近似度である距離値を求め、求めた両距離値を基に前記顔領域の適否を評価する顔領域評価手段と
    を有することを特徴とする顔識別装置。
  2. 前記瞳候補点検出手段では、前記右瞳候補点と前記左瞳候補点とを少なくとも2つ以上ずつ検出し、
    前記参照用データ生成手段では、検出された前記右瞳候補点と左瞳候補点との総ての組み合わせについて前記参照用データを作成することを特徴とする請求項1に記載の顔識別装置。
  3. 前記顔領域評価手段において前記顔領域が不適であると判断された場合、
    前記顔領域評価手段は、前記顔領域推定手段に、前記対象人物の顔領域を再推定するように要求することを特徴とする請求項1又は請求項2に記載の顔識別装置。
  4. 前記顔領域評価手段において前記顔領域が適切であると判断された場合、
    前記顔領域評価手段は、前記右瞳候補点と前記左瞳候補点とを基準として、前記顔領域の補正を行うことを特徴とする請求項1乃至請求項3の何れか一項に記載の顔識別装置。
  5. カメラによって撮像された対象人物の撮像画像を基に前記対象人物の顔を識別する方法であって、
    前記撮像画像から生成した前記対象人物の輪郭画像を参照して、前記撮像画像内において前記対象人物が存在する対象人物存在領域を設定し、肌色領域情報を参照して、前記対象人物存在領域に含まれる肌色領域を抽出し、当該肌色領域を含む検索領域を予め用意された楕円形の顔テンプレートで走査すると共に、前記顔テンプレートに所定の適合度を示す前記肌色領域を顔領域として推定する顔領域推定ステップと、
    前記カメラから前記対象人物までの距離を表す距離情報に基づいて前記顔領域を基準サイズの画像に変換して基準画像を生成すると共に、当該基準画像における前記顔領域の重心を基準として検索域を設定し、当該検索域に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素の中から前記対象人物の右瞳候補点と左瞳候補点とを検出する瞳候補点検出ステップと、
    前記右瞳候補点と前記左瞳候補点とを結ぶ線分が前記基準画像内で水平となるように前記基準画像を回転した後に、前記右瞳候補点と前記左瞳候補点との間隔を基準として正規化画像を生成すると共に、当該正規化画像の中で前記左目候補点を含む左目正規化画像をベクトルで表す左目参照用ベクトルと、当該正規化画像の中で前記右目候補点を含む右目正規化画像をベクトルで表す右目参照用ベクトルとを生成し、前記左目参照用ベクトルと前記右目参照用ベクトルとを含む参照用データを生成する参照用データ生成ステップと、
    前記参照用データに含まれる前記左目参照用ベクトルと正規化された複数の左目画像から予め得た左目固有ベクトルとの近似度である距離値を求めると共に、前記右目参照用ベクトルと複数の右目画像から予め得た右目固有ベクトルとの近似度である距離値を求め、求めた両距離値を基に前記顔領域の適否を評価する顔領域評価ステップと、
    前記顔領域評価ステップにおいて、前記顔領域が好適であると判断された場合に、前記正規化画像から前記対象人物の顔データを作成する顔データ作成ステップと、
    前記顔データ作成ステップで作成された顔データを、記憶手段に登録された顔データと比較・照合する顔識別ステップと
    を有することを特徴とする顔識別方法。
  6. カメラによって撮像された対象人物の撮像画像を基に前記対象人物の顔を識別するために、コンピュータを、
    前記撮像画像から生成した前記対象人物の輪郭画像を参照して、前記撮像画像内において前記対象人物が存在する対象人物存在領域を設定し、肌色領域情報を参照して、前記対象人物存在領域に含まれる肌色領域を抽出し、当該肌色領域を含む検索領域を予め用意された楕円形の顔テンプレートで走査すると共に、前記顔テンプレートに所定の適合度を示す前記肌色領域を顔領域として推定する顔領域推定手段、
    前記カメラから前記対象人物までの距離を表す距離情報に基づいて前記顔領域を基準サイズの画像に変換して基準画像を生成すると共に、当該基準画像における前記顔領域の重心を基準として検索域を設定し、当該検索域に含まれる画素ごとに円形エッジを探索し、所定の円形エッジとなる画素の中から前記対象人物の右瞳候補点と左瞳候補点とを検出する瞳候補点検出手段、
    前記右瞳候補点と前記左瞳候補点とを結ぶ線分が前記基準画像内で水平となるように前記基準画像を回転した後に、前記右瞳候補点と前記左瞳候補点との間隔を基準として正規化画像を生成すると共に、当該正規化画像の中で前記左目候補点を含む左目正規化画像をベクトルで表す左目参照用ベクトルと、当該正規化画像の中で前記右目候補点を含む右目正規化画像をベクトルで表す右目参照用ベクトルとを生成し、前記左目参照用ベクトルと前記右目参照用ベクトルとを含む参照用データを生成する参照用データ生成手段、
    前記参照用データに含まれる前記左目参照用ベクトルと正規化された複数の左目画像から予め得た左目固有ベクトルとの近似度である距離値を求めると共に、前記右目参照用ベクトルと複数の右目画像から予め得た右目固有ベクトルとの近似度である距離値を求め、求めた両距離値を基に前記顔領域の適否を評価する顔領域評価手段、
    前記顔領域評価手段において、前記顔領域が好適であると判断された場合に、前記正規化画像から前記対象人物の顔データを作成する顔データ作成手段、
    前記顔データ作成手段で作成された顔データを、記憶手段に登録された顔データと比較・照合する顔識別手段
    として機能させることを特徴とする顔識別プログラム。
JP2004036126A 2004-02-13 2004-02-13 顔識別装置、顔識別方法及び顔識別プログラム Expired - Fee Related JP4317465B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2004036126A JP4317465B2 (ja) 2004-02-13 2004-02-13 顔識別装置、顔識別方法及び顔識別プログラム
US10/965,919 US7362887B2 (en) 2004-02-13 2004-10-18 Face identification apparatus, face identification method, and face identification program
DE102004051159A DE102004051159B4 (de) 2004-02-13 2004-10-20 Gesichts-Identifizierungsvorrichtung, Gesicht-Identifizierungsverfahren und Gesicht-Identifizierungsprogramm
KR1020040087294A KR100617390B1 (ko) 2004-02-13 2004-10-29 얼굴 식별 장치, 얼굴 식별 방법 및 기록매체

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004036126A JP4317465B2 (ja) 2004-02-13 2004-02-13 顔識別装置、顔識別方法及び顔識別プログラム

Publications (2)

Publication Number Publication Date
JP2005228042A JP2005228042A (ja) 2005-08-25
JP4317465B2 true JP4317465B2 (ja) 2009-08-19

Family

ID=34836237

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004036126A Expired - Fee Related JP4317465B2 (ja) 2004-02-13 2004-02-13 顔識別装置、顔識別方法及び顔識別プログラム

Country Status (4)

Country Link
US (1) US7362887B2 (ja)
JP (1) JP4317465B2 (ja)
KR (1) KR100617390B1 (ja)
DE (1) DE102004051159B4 (ja)

Families Citing this family (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100664956B1 (ko) * 2004-11-24 2007-01-04 삼성전자주식회사 눈 검출 방법 및 장치
JP4328286B2 (ja) * 2004-12-14 2009-09-09 本田技研工業株式会社 顔領域推定装置、顔領域推定方法及び顔領域推定プログラム
JP2007094906A (ja) * 2005-09-29 2007-04-12 Toshiba Corp 特徴点検出装置および方法
KR100734849B1 (ko) * 2005-11-26 2007-07-03 한국전자통신연구원 얼굴 인식 방법 및 그 장치
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
JP4747894B2 (ja) * 2006-03-15 2011-08-17 オムロン株式会社 認証装置、認証方法、認証プログラムおよびコンピュータ読み取り可能な記録媒体
JP4692371B2 (ja) * 2006-04-26 2011-06-01 オムロン株式会社 画像処理装置、画像処理方法、画像処理プログラム、および画像処理プログラムを記録した記録媒体、ならびに移動物体検出システム
JP4699298B2 (ja) * 2006-06-28 2011-06-08 富士フイルム株式会社 人体領域抽出方法および装置並びにプログラム
EP2045775A4 (en) * 2006-07-25 2017-01-18 Nikon Corporation Image processing method, image processing program, and image processing device
US8103061B2 (en) * 2006-10-02 2012-01-24 Johnson & Johnson Consumer Companies, Inc. Method and apparatus for identifying facial regions
US8254648B2 (en) * 2007-01-04 2012-08-28 General Electric Company Method for providing adaptive hanging protocols for image reading
JP2008191816A (ja) * 2007-02-02 2008-08-21 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
JP4389954B2 (ja) * 2007-03-29 2009-12-24 セイコーエプソン株式会社 画像処理装置、画像処理方法、コンピュータープログラム、記録媒体、および、プリンタ
EP2026246A1 (en) * 2007-08-03 2009-02-18 Harman/Becker Automotive Systems GmbH Method and apparatus for evaluating an image
KR100882139B1 (ko) * 2007-09-12 2009-02-06 전자부품연구원 얼굴 검출 방법
CN101409784A (zh) * 2007-10-10 2009-04-15 联想(北京)有限公司 摄像装置及信息提示装置
JP2009223523A (ja) * 2008-03-14 2009-10-01 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム
JP2009223527A (ja) * 2008-03-14 2009-10-01 Seiko Epson Corp 画像処理装置、画像処理方法、画像処理のためのコンピュータプログラム
US8098938B1 (en) * 2008-03-17 2012-01-17 Google Inc. Systems and methods for descriptor vector computation
JP5098973B2 (ja) 2008-11-27 2012-12-12 富士通株式会社 生体認証装置、生体認証方法及び生体認証プログラム
JP5154392B2 (ja) * 2008-12-12 2013-02-27 株式会社キーエンス 撮像装置
JP5096302B2 (ja) * 2008-12-12 2012-12-12 株式会社キーエンス 撮像装置
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
US9508162B2 (en) * 2009-08-01 2016-11-29 Tsinghua University Method and system for rapidly vectorizing image by gradient meshes based on parameterization
JP5538909B2 (ja) * 2010-01-05 2014-07-02 キヤノン株式会社 検出装置およびその方法
JP2011210238A (ja) * 2010-03-10 2011-10-20 Dainippon Printing Co Ltd 広告効果測定装置及びコンピュータプログラム
JP5593990B2 (ja) * 2010-09-08 2014-09-24 リコーイメージング株式会社 撮像システムおよび画素信号読出し方法
JP5538160B2 (ja) * 2010-09-24 2014-07-02 パナソニック株式会社 瞳孔検出装置及び瞳孔検出方法
EP2453386B1 (en) * 2010-11-11 2019-03-06 LG Electronics Inc. Multimedia device, multiple image sensors having different types and method for controlling the same
CN103208005A (zh) * 2012-01-13 2013-07-17 富士通株式会社 对象识别方法和对象识别设备
GB201205340D0 (en) * 2012-03-27 2012-05-09 I Align Ltd A method of processing an image
WO2013176265A1 (ja) * 2012-05-25 2013-11-28 国立大学法人静岡大学 瞳孔検出方法、角膜反射検出方法、顔姿勢検出方法及び瞳孔追尾方法
US8396265B1 (en) * 2012-06-26 2013-03-12 Google Inc. Facial recognition
CN103279764A (zh) * 2013-06-27 2013-09-04 苏州福丰科技有限公司 基于人脸识别的网络实名认证系统
CN103400136B (zh) * 2013-08-13 2016-09-28 苏州大学 基于弹性匹配的目标识别方法
US9047504B1 (en) * 2013-08-19 2015-06-02 Amazon Technologies, Inc. Combined cues for face detection in computing devices
CN103400393B (zh) * 2013-08-21 2016-07-20 中科创达软件股份有限公司 一种图像匹配方法和系统
CN104182726A (zh) * 2014-02-25 2014-12-03 苏凯 基于人脸识别的实名认证系统
US9405965B2 (en) * 2014-11-07 2016-08-02 Noblis, Inc. Vector-based face recognition algorithm and image search system
JP6624877B2 (ja) * 2015-10-15 2019-12-25 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
DE102015222388A1 (de) 2015-11-13 2017-05-18 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung und Verfahren zum Steuern einer Anzeigeeinrichtung in einem Kraftfahrzeug
CA3030015A1 (en) * 2016-07-05 2018-01-11 Yecheng WU Spoofing attack detection during live image capture
JP2018045309A (ja) * 2016-09-12 2018-03-22 株式会社東芝 特徴量抽出装置および認証システム
US10482336B2 (en) 2016-10-07 2019-11-19 Noblis, Inc. Face recognition and image search system using sparse feature vectors, compact binary vectors, and sub-linear search
KR101962203B1 (ko) * 2017-03-10 2019-03-27 크루셜텍 (주) 다중 생체 데이터를 이용한 비접촉식 다중 생체 인식 방법 및 다중 생체 인식 장치
JP7118622B2 (ja) * 2017-11-16 2022-08-16 株式会社Preferred Networks 物体検出装置、物体検出方法及びプログラム
US20200320334A1 (en) * 2019-04-05 2020-10-08 Ent. Services Development Corporation Lp Systems and methods for digital image-based object authentication
CN112656366B (zh) * 2020-12-03 2022-10-25 昆明依利科特科技有限公司 一种非接触式测量瞳孔大小的方法和系统
CN112603256B (zh) * 2020-12-03 2022-10-25 昆明依利科特科技有限公司 基于瞳孔大小的高精度非接触式涉毒检测方法及检测系统
CN113221699B (zh) * 2021-04-30 2023-09-08 杭州海康威视数字技术股份有限公司 一种提高识别安全性的方法、装置、识别设备

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01158579A (ja) * 1987-09-09 1989-06-21 Aisin Seiki Co Ltd 像認識装置
JP2973676B2 (ja) 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
US5659625A (en) * 1992-06-04 1997-08-19 Marquardt; Stephen R. Method and apparatus for analyzing facial configurations and components
JP3293308B2 (ja) 1994-03-10 2002-06-17 三菱電機株式会社 人物状態検出装置
US5912721A (en) * 1996-03-13 1999-06-15 Kabushiki Kaisha Toshiba Gaze detection apparatus and its method as well as information display apparatus
JP3279913B2 (ja) * 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
JP3469031B2 (ja) 1997-02-18 2003-11-25 株式会社東芝 顔画像登録装置及びその方法
US6215891B1 (en) * 1997-03-26 2001-04-10 Oki Electric Industry Co., Ltd. Eye image recognition method eye image selection method and system therefor
JP3459950B2 (ja) 1997-04-30 2003-10-27 学校法人立命館 顔検出及び顔追跡方法並びにその装置
JP3477047B2 (ja) * 1997-10-02 2003-12-10 三菱電機株式会社 網膜反射像を利用したまばたき検出顔画像処理装置
US6137896A (en) * 1997-10-07 2000-10-24 National Research Council Of Canada Method of recognizing faces using range images
AU1613599A (en) * 1997-12-01 1999-06-16 Arsev H. Eraslan Three-dimensional face identification system
GB2341231A (en) 1998-09-05 2000-03-08 Sharp Kk Face detection in an image
US6095650A (en) * 1998-09-22 2000-08-01 Virtual Visual Devices, Llc Interactive eyewear selection system
GB2343945B (en) 1998-11-18 2001-02-28 Sintec Company Ltd Method and apparatus for photographing/recognizing a face
US6879709B2 (en) * 2002-01-17 2005-04-12 International Business Machines Corporation System and method for automatically detecting neutral expressionless faces in digital images
US7280678B2 (en) * 2003-02-28 2007-10-09 Avago Technologies General Ip Pte Ltd Apparatus and method for detecting pupils

Also Published As

Publication number Publication date
KR100617390B1 (ko) 2006-08-31
JP2005228042A (ja) 2005-08-25
US7362887B2 (en) 2008-04-22
DE102004051159B4 (de) 2008-10-02
DE102004051159A1 (de) 2005-09-08
KR20050081850A (ko) 2005-08-19
US20050180611A1 (en) 2005-08-18

Similar Documents

Publication Publication Date Title
JP4317465B2 (ja) 顔識別装置、顔識別方法及び顔識別プログラム
JP5629803B2 (ja) 画像処理装置、撮像装置、画像処理方法
US12056954B2 (en) System and method for selecting images for facial recognition processing
US7593552B2 (en) Gesture recognition apparatus, gesture recognition method, and gesture recognition program
JP4743823B2 (ja) 画像処理装置、撮像装置、画像処理方法
JP4604439B2 (ja) 画像処理装置及び画像処理方法、並びに記録媒体
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
JP4912206B2 (ja) 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム
JP4153818B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP2006155563A (ja) 動作分析装置
JP2007114029A (ja) 顔中心位置検出装置、顔中心位置検出方法、及び、プログラム
JP4153819B2 (ja) ジェスチャ認識装置、ジェスチャ認識方法及びジェスチャ認識プログラム
JP4146751B2 (ja) 顔識別装置、顔識別方法及び顔識別プログラム
JP2004213567A (ja) 画像学習装置及びその学習方法
JP2014064083A (ja) 監視装置及び方法
JP4148903B2 (ja) 画像処理装置、画像処理方法およびデジタルカメラ
JPH11306348A (ja) 対象物検出装置及び対象物検出方法
WO2021192295A1 (ja) 画像処理システム、撮像システム、画像処理方法および非一時的なコンピュータ可読媒体
JP4789526B2 (ja) 画像処理装置、画像処理方法
JP2008084109A (ja) 目開閉判定装置及び目開閉判定方法
JP5688514B2 (ja) 視線計測システム、方法およびプログラム
JP4664805B2 (ja) 顔端検出装置、顔端検出方法、及び、プログラム
JP2009009404A (ja) 画像処理装置、画像処理方法及び画像処理プログラム
CN111241870A (zh) 一种终端设备及其脸部图像的识别方法、识别系统
JP3811474B2 (ja) 顔部品位置検出方法及び顔部品位置検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061201

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090519

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090522

R150 Certificate of patent or registration of utility model

Ref document number: 4317465

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120529

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130529

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140529

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees