JP4414401B2 - 顔特徴点検出方法および装置並びにプログラム - Google Patents

顔特徴点検出方法および装置並びにプログラム Download PDF

Info

Publication number
JP4414401B2
JP4414401B2 JP2006033554A JP2006033554A JP4414401B2 JP 4414401 B2 JP4414401 B2 JP 4414401B2 JP 2006033554 A JP2006033554 A JP 2006033554A JP 2006033554 A JP2006033554 A JP 2006033554A JP 4414401 B2 JP4414401 B2 JP 4414401B2
Authority
JP
Japan
Prior art keywords
face
feature
eye
image
eyes
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006033554A
Other languages
English (en)
Other versions
JP2007213377A (ja
Inventor
元中 李
貞登 赤堀
賢祐 寺川
嘉郎 北村
渡 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2006033554A priority Critical patent/JP4414401B2/ja
Priority to US12/278,616 priority patent/US8254644B2/en
Priority to PCT/JP2007/052541 priority patent/WO2007091714A1/en
Publication of JP2007213377A publication Critical patent/JP2007213377A/ja
Application granted granted Critical
Publication of JP4414401B2 publication Critical patent/JP4414401B2/ja
Priority to US13/534,817 priority patent/US8577099B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、画像に含まれる顔の、目や口の輪郭などを表す顔特徴点を検出する顔特徴点検出方法および装置並びにそのためのプログラムに関するものである。
顔の特徴を用いた認証や顔の表情認識などの様々な分野において、画像データにより表される画像を用いて、この画像に含まれる人物の顔を検出し、さらにその顔を構成する顔部品の位置や輪郭を表す特徴点を検出することが行われており、その手法も種々提案されている。
例えば、特許文献1には、識別対象画像の特徴量を算出し、目の位置を所定の許容度を持って正規化した多数の顔画像および顔でない画像の特徴量について学習を行った第1の参照データを参照して、その識別対象画像に顔が含まれるか否かを識別し、顔が含まれる場合に、目の位置を上記所定の許容度より小さい許容度を持って正規化した多数の顔画像および顔でない画像の特徴量について学習を行った第2の参照データを参照して、顔に含まれる目の位置を識別する手法が提案されている。これにより、顔及びその目を、精度良く、高いロバスト性を持って検出することができる。
また、特許文献2には、画像から顔領域を検出し、4方向面特徴のテンプレートマッチングを行って4方向面特徴の初期類似度を算出し、その初期類似度と、特定の顔部品とこの特定の顔部品の周辺の顔部品との関係を表す周辺適合確率とを求め、これら初期類似度と周辺適合確率とを用いた弛緩整合法によって特定の顔部品の位置を検出する手法が提案されている。これにより、一部の顔部品が部分的あるいは完全に隠蔽されているような場合にも、隠蔽されていない顔部品の位置を精度良く検出することができる。
また、特許文献3には、入力された画像に含まれる顔またはその一部の位置を粗検出し、その検出結果を表示部に表示し、ユーザがその検出結果を基にそれが妥当であるか否かを入力し、その検出結果が妥当でないと入力されたとき、より精密な検出を実行することにより、顔やその構成部品を検出する手法が提案されている。これにより、画像にあった精度で、画像の中から特定の顔またはその構成部品の位置を検出し利用することができる。
特開2005−108197号公報 特開2005−56124号公報 特開2005−56231号公報
ところで、顔の特徴を用いた認証や顔の表情認識等では、顔を構成する顔部品の中心位置だけでなく、顔部品の輪郭を表す特徴点、例えば目の輪郭を表す目頭、目尻、上下瞼の中心点や口の輪郭を表す口角、上下唇の中心点を、良い精度で検出する必要がある。
しかしながら、特許文献1の手法は、精度が良く、ロバスト性も高いが、検出対象は顔およびその目にとどまり、顔を構成する顔部品の輪郭を表す特徴点を検出することはできない。
また、特許文献2の手法は、顔を構成する顔部品の中心位置を検出することができるが、顔部品の輪郭を表す特徴点を検出することはできない。また、テンプレートマッチングの手法を用いているため、検出の対象となる画像の撮影時の照明条件が大きく異なると、検出性能が大きく落ちる可能性がある。
また、特許文献3の手法は、顔部品の輪郭を表す特徴点を検出することはできるが、妥当な検出結果が得られなかった場合には、ユーザが手動で修正を加えることが前提となっており、精度やロバスト性が保証されておらず、ユーザに負担を掛けることになる。
本発明は、上記事情に鑑みてなされたものであり、画像に含まれる顔の顔部品の輪郭を表す特徴点を、ユーザに負担を掛けることなく、良い精度で検出することができる顔特徴点検出方法および装置並びにそのためのプログラムを提供することを目的とするものである。
本発明の顔特徴点検出方法は、検出対象の画像に含まれる顔を検出し、該顔の検出情報を用いて、該顔を構成する目を検出し、該目の検出情報を用いて、該目の目頭と目尻を検出し、前記目頭と目尻の位置情報を用いて、前記目の輪郭を表す上下瞼の特徴点を検出することを特徴とするものである。
本発明の顔特徴点検出方法において、前記上下瞼の特徴点の検出は、前記目頭と前記目尻とを結ぶ線分と交差する、前記上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの前記瞼基準線分上の各画素に対して、該瞼基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する瞼特徴点識別処理を、前記設定されたすべての瞼基準線分に対して行うものであってもよい。
ここで、前記瞼特徴点識別処理は、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることが望ましい。
また、本発明の顔特徴点検出方法において、
前記顔の検出は、前記検出対象画像においてマスク画像を設定し、顔の識別に用いる第1の特徴量を前記マスク画像から算出し、前記顔であることが分かっている、両目の位置関係が所定の許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記第1の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第1の特徴量と該第1の特徴量の各々に対応する識別条件とを予め規定する第1の参照データを、前記マスク画像を前記所定の許容度に応じた変化量にて段階的に変形させつつ前記マスク画像から算出された第1の特徴量に基づいて参照して、前記マスク画像に顔が含まれているか否かを識別するものであり、
前記目の検出は、顔の識別に用いる第2の特徴量を、前記顔の領域内の画像から算出し、前記顔であることが分かっている、両目の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第2の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第2の特徴量と該第2の特徴量の各々に対応する識別条件とを予め規定する第2の参照データを、前記顔の領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記顔の領域内の画像から算出された第2の特徴量に基づいて参照して、前記顔を構成する目の位置を識別するものであり、
前記目頭と目尻の検出は、目の識別に用いる第3の特徴量を、前記目を含む領域内の画像から算出し、前記目であることが分かっている、目頭と目尻の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記目でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第3の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第3の特徴量と該第3の特徴量の各々に対応する識別条件とを予め規定する第3の参照データを、前記目を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記目の目頭と目尻の位置を識別するものであることが望ましい。
ここで、前記目頭と目尻の検出は、前記目であることが分かっている複数のサンプル画像として、左目または右目のいずれか一方の目の画像のみを用いて学習することにより得られた第3の参照データを、前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が同じである目の目頭と目尻を識別し、前記第3の参照データを、前記目を含む領域内の画像を左右反転させた画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が異なる目の目頭と目尻を識別するものであってもよい。
本発明の顔特徴点検出方法において、さらに、前記目の検出情報を用いて、該目と所定の位置関係にある、前記顔を構成する口の左右の口角を検出し、前記左右の口角の位置情報を用いて、前記口の輪郭を表す上下唇の特徴点を検出するものとすることができる。
この場合において、前記上下唇の特徴点の検出は、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの前記唇基準線分上の各画素に対して、該唇基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する唇特徴点識別処理を、前記設定されたすべての唇基準線分に対して行うものであってもよい。
ここで、前記唇特徴点識別処理は、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることが望ましい。
また、前記左右の口角の検出は、口の識別に用いる第4の特徴量を、前記口を含む領域内の画像から算出し、前記口であることが分かっている、左口角と右口角の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記口でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第4の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第4の特徴量と該第4の特徴量の各々に対応する識別条件とを予め規定する第4の参照データを、前記口を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記口を含む領域内の画像から算出された第4の特徴量に基づいて参照して、前記口の左口角と右口角の位置を識別するものであってもよい。
本発明の顔特徴点検出装置は、検出対象の画像に含まれる顔を検出する顔検出手段と、該顔の検出情報を用いて、該顔を構成する目を検出する目検出手段と、該目の検出情報を用いて、該目の目頭と目尻を検出する目頭・目尻検出手段と、前記目頭と目尻の位置情報を用いて、前記目の輪郭を表す上下瞼の特徴点を検出する瞼特徴点検出手段とを備えたことを特徴とするものである。
本発明の顔特徴点検出装置において、前記瞼特徴点検出手段は、前記目頭と前記目尻とを結ぶ線分と交差する、前記上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの前記瞼基準線分上の各画素に対して、該瞼基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する瞼特徴点識別処理を、前記設定されたすべての瞼基準線分に対して行うものであってもよい。
ここで、前記瞼特徴点識別処理は、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることが望ましい。
また、本発明の顔特徴点検出装置において、
前記顔検出手段は、前記検出対象画像においてマスク画像を設定し、顔の識別に用いる第1の特徴量を前記マスク画像から算出する第1の特徴量算出手段と、前記顔であることが分かっている、両目の位置関係が所定の許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記第1の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第1の特徴量と該第1の特徴量の各々に対応する識別条件とを予め規定する第1の参照データを、前記マスク画像を前記所定の許容度に応じた変化量にて段階的に変形させつつ前記マスク画像から算出された第1の特徴量に基づいて参照して、前記マスク画像に顔が含まれているか否かを識別する第1の識別手段とを備えたものであり、
前記目検出手段は、顔の識別に用いる第2の特徴量を、前記顔の領域内の画像から算出する第2の特徴量算出手段と、前記顔であることが分かっている、両目の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第2の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第2の特徴量と該第2の特徴量の各々に対応する識別条件とを予め規定する第2の参照データを、前記顔の領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記顔の領域内の画像から算出された第2の特徴量に基づいて参照して、前記顔を構成する目の位置を識別する第2の識別手段とを備えたものであり、
前記目頭・目尻検出手段は、目の識別に用いる第3の特徴量を、前記目を含む領域内の画像から算出する第3の特徴量算出手段と、前記目であることが分かっている、目頭と目尻の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記目でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第3の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第3の特徴量と該第3の特徴量の各々に対応する識別条件とを予め規定する第3の参照データを、前記目を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記目の目頭と目尻の位置を識別する第3の識別手段とを備えたものであることが望ましい。
ここで、前記目頭・目尻検出手段は、前記目であることが分かっている複数のサンプル画像として、左目または右目のいずれか一方の目の画像のみを用いて学習することにより得られた第3の参照データを、前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が同じである目の目頭と目尻を識別し、前記第3の参照データを、前記目を含む領域内の画像を左右反転させた画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が異なる目の目頭と目尻を識別するものであってもよい。
本発明の顔特徴点検出装置において、さらに、前記目の検出情報を用いて、該目と所定の位置関係にある、前記顔を構成する口の左右の口角を検出する口角検出手段と、前記左右の口角の位置情報を用いて、前記口の輪郭を表す上下唇の特徴点を検出する唇特徴点検出手段とを備えたものとすることができる。
この場合において、前記唇特徴点検出手段は、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの前記唇基準線分上の各画素に対して、該唇基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する唇特徴点識別処理を、前記設定されたすべての唇基準線分に対して行うものであってもよい。
ここで、前記唇特徴点識別処理は、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることが望ましい。
また、前記口角検出手段は、口の識別に用いる第4の特徴量を、前記口を含む領域内の画像から算出する第4の特徴量算出手段と、前記口であることが分かっている、左口角と右口角の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記口でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第4の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第4の特徴量と該第4の特徴量の各々に対応する識別条件とを予め規定する第4の参照データを、前記口を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記口を含む領域内の画像から算出された第4の特徴量に基づいて参照して、前記口の左口角と右口角の位置を識別する第4の識別手段とを備えたものであってもよい。
本発明のプログラムは、コンピュータを、検出対象の画像に含まれる顔を検出する顔検出手段と、該顔の検出情報を用いて、該顔を構成する目を検出する目検出手段と、該目の検出情報を用いて、該目の目頭と目尻を検出する目頭・目尻検出手段と、前記目頭と目尻の位置情報を用いて、前記目の輪郭を表す上下瞼の特徴点を検出する瞼特徴点検出手段として機能させることにより、該コンピュータを顔特徴点検出装置として機能させることを特徴とするものである。
本発明のプログラムにおいて、前記瞼特徴点検出手段は、前記目頭と前記目尻とを結ぶ線分と交差する、前記上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの前記瞼基準線分上の各画素に対して、該瞼基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する瞼特徴点識別処理を、前記設定されたすべての瞼基準線分に対して行うものであってもよい。
ここで、前記瞼特徴点識別処理は、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることが望ましい。
また、本発明のプログラムにおいて、
前記顔検出手段は、前記検出対象画像においてマスク画像を設定し、顔の識別に用いる第1の特徴量を前記マスク画像から算出する第1の特徴量算出手段と、前記顔であることが分かっている、両目の位置関係が所定の許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記第1の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第1の特徴量と該第1の特徴量の各々に対応する識別条件とを予め規定する第1の参照データを、前記マスク画像を前記所定の許容度に応じた変化量にて段階的に変形させつつ前記マスク画像から算出された第1の特徴量に基づいて参照して、前記マスク画像に顔が含まれているか否かを識別する第1の識別手段とを備えたものであり、
前記目検出手段は、顔の識別に用いる第2の特徴量を、前記顔の領域内の画像から算出する第2の特徴量算出手段と、前記顔であることが分かっている、両目の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第2の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第2の特徴量と該第2の特徴量の各々に対応する識別条件とを予め規定する第2の参照データを、前記顔の領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記顔の領域内の画像から算出された第2の特徴量に基づいて参照して、前記顔を構成する目の位置を識別する第2の識別手段とを備えたものであり、
前記目頭・目尻検出手段は、目の識別に用いる第3の特徴量を、前記目を含む領域内の画像から算出する第3の特徴量算出手段と、前記目であることが分かっている、目頭と目尻の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記目でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第3の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第3の特徴量と該第3の特徴量の各々に対応する識別条件とを予め規定する第3の参照データを、前記目を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記目の目頭と目尻の位置を識別する第3の識別手段とを備えたものであることが望ましい。
ここで、前記目頭・目尻検出手段は、前記目であることが分かっている複数のサンプル画像として、左目または右目のいずれか一方の目の画像のみを用いて学習することにより得られた第3の参照データを、前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が同じである目の目頭と目尻を識別し、前記第3の参照データを、前記目を含む領域内の画像を左右反転させた画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が異なる目の目頭と目尻を識別するものであってもよい。
また、本発明のプログラムにおいて、前記コンピュータを、さらに、前記目の検出情報を用いて、該目と所定の位置関係にある、前記顔を構成する口の左右の口角を検出する口角検出手段と、前記左右の口角の位置情報を用いて、前記口の輪郭を表す上下唇の特徴点を検出する唇特徴点検出手段として機能させるものとすることができる。
この場合において、前記唇特徴点検出手段は、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの前記唇基準線分上の各画素に対して、該唇基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する唇特徴点識別処理を、前記設定されたすべての唇基準線分に対して行うものであってもよい。
ここで、前記唇特徴点識別処理は、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることが望ましい。
また、前記口角検出手段は、口の識別に用いる第4の特徴量を、前記口を含む領域内の画像から算出する第4の特徴量算出手段と、前記口であることが分かっている、左口角と右口角の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記口でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第4の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第4の特徴量と該第4の特徴量の各々に対応する識別条件とを予め規定する第4の参照データを、前記口を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記口を含む領域内の画像から算出された第4の特徴量に基づいて参照して、前記口の左口角と右口角の位置を識別する第4の識別手段とを備えたものであってもよい。
本発明における「検出情報」とは、所定の部位を検出した際に取得した、前記検出対象の画像に対するその部位の位置の情報、例えば、その部位の領域の中心もしくは重心の位置や当該領域の輪郭の位置を表す情報、その部位の大きさの情報等を意味するものである。
また、本発明における「マシンラーニング」(machine learning)手法としては、ニューラルネットワークや、ブースティングの手法を考えることができる。
また、本発明における「輝度分布の特徴量」としては、例えば、輝度プロファイルや輝度プロファイルの微分値を考えることができる。なお、輝度プロファイルおよび輝度プロファイルの微分値は、多値化されたものであることが望ましい。
本発明は、真正面を向いた人物の顔だけでなく、横顔や斜め顔についても同様に適用することができる。
本発明の顔特徴点検出方法および装置は、検出対象の画像に含まれる顔を検出し、この顔の検出情報を用いて、顔を構成する目を検出し、この目の検出情報を用いて、目の目頭と目尻を検出し、この目頭と目尻の位置情報を用いて、目の輪郭を表す上下瞼の特徴点を検出するようにしているので、Coarse to fineの考え方に沿って効率的に目の輪郭を表す特徴点を検出することができ、ユーザに負担を掛けることなく、顔の特徴点を精度良く検出することができる。
以下、図面を参照して、本発明の実施形態について説明する。
図1は、本発明の実施形態による顔特徴点検出装置の構成を示すブロック図である。なお、本実施形態による顔特徴点検出装置は、入力された画像から顔を検出し、その顔の位置情報から目を検出し、その目の位置情報から目の目頭・目尻、左右の口角を検出し、最後に、目頭・目尻、左右の口角の位置情報から目の輪郭を表す上下瞼の特徴点と、口の輪郭を表す上下唇の特徴点とを検出するものであり、補助記憶装置に読み込まれた処理プログラムをコンピュータ(たとえばパーソナルコンピュータ等)上で実行することにより実現される。また、この処理プログラムは、CD−ROM等の情報記憶媒体に記憶され、もしくはインターネット等のネットワークを介して配布され、コンピュータにインストールされることになる。
また、画像データは画像を表すものであり、以下、特に画像と画像データの区別をせずに説明を行う。
図1に示すように、本実施形態による顔特徴点検出装置は、処理対象となる画像S0を入力する画像入力部10と、画像S0から顔を検出して、顔部分の画像(以下顔画像という)S1を得る顔検出部20と、顔画像S1から真の顔画像S2を抽出して両目の位置を検出する目検出部30と、検出された両目の位置から各目の目頭および目尻を検出する目頭・目尻検出部40と、検出された両目の位置から口の位置を推定し、当該口の左右の口角を検出する口角検出部50と、顔検出部20に用いられる参照データE1、目検出部30に用いられる参照データE2、目頭・目尻検出部40に用いられる参照データE3および口角検出部50に用いられる参照データE4を記憶した第1のデータベース60と、検出された目頭、目尻および左右の口角の中から真の目頭、目尻および左右の口角として妥当なものを選出する目頭・目尻・口角選出部65と、目頭・目尻の位置から上下瞼の特徴点を検出する上下瞼特徴点検出部70と、左右の口角の位置から上下唇の特徴点を検出する上下唇特徴点検出部80と、上下瞼特徴点検出部70に用いられる参照データE5および上下唇特徴点検出部80に用いられる参照データE6を記憶した第2のデータベース90と、目頭・目尻の点および上下瞼の特徴点を目の輪郭を表す特徴点群、左右の口角の点および上下唇の特徴点を口の輪郭を表す特徴点群として出力する出力部100とを備える。
画像入力部10は、本実施形態の顔特徴点検出装置に処理対象の画像S0を入力するものであり、例えば、ネットワークを介して送信されてきた画像S0を受信する受信部や、CD−ROMなどの記録媒体から画像S0を読み出す読取部や、紙や、プリント用紙などの印刷媒体から印刷媒体に印刷(プリントを含む)された画像を光電変換によって読み取って画像S0を得るスキャナなどとすることができる。
図2は、図1に示す顔特徴点検出装置における顔検出部20の構成を示すブロック図である。顔検出部20は、画像S0に顔が含まれているか否かを検出するとともに、顔が含まれている場合、顔のおおよその位置および大きさを検出し、この位置および大きさにより示される領域の画像を画像S0から抽出して顔画像S1を得るものであり、図2に示すように、画像S0から特徴量C0を算出する第1の特徴量算出部22と、特徴量C0および第1のデータベース60に記憶された参照データE1とを用いて顔検出を実行する顔検出実行部24とを備える。ここで、第1のデータベース60に記憶された参照データE1、顔検出部20の各構成の詳細について説明する。
顔検出部20の第1の特徴量算出部22は、顔の識別に用いる特徴量C0を画像S0から算出する。具体的には、勾配ベクトル(すなわち画像S0上の各画素における濃度が変化する方向および変化の大きさ)を特徴量C0として算出する。以下、勾配ベクトルの算出について説明する。まず、第1の特徴量算出部22は、画像S0に対して図5(a)に示す水平方向のエッジ検出フィルタによるフィルタリング処理を施して画像S0における水平方向のエッジを検出する。また、第1の特徴量算出部22は、画像S0に対して図5(b)に示す垂直方向のエッジ検出フィルタによるフィルタリング処理を施して画像S0における垂直方向のエッジを検出する。そして、画像S0上の各画素における水平方向のエッジの大きさHおよび垂直方向のエッジの大きさVとから、図6に示すように、各画素における勾配ベクトルKを算出する。
なお、このようにして算出された勾配ベクトルKは、図7(a)に示すような人物の顔の場合、図7(b)に示すように、目および口のように暗い部分においては目および口の中央を向き、鼻のように明るい部分においては鼻の位置から外側を向くものとなる。また、口よりも目の方が濃度の変化が大きいため、勾配ベクトルKは口よりも目の方が大きくなる。
そして、この勾配ベクトルKの方向および大きさを特徴量C0とする。なお、勾配ベクトルKの方向は、勾配ベクトルKの所定方向(例えば図6におけるx方向)を基準とした0から359度の値となる。
ここで、勾配ベクトルKの大きさは正規化される。この正規化は、画像S0の全画素における勾配ベクトルKの大きさのヒストグラムを求め、その大きさの分布が画像S0の各画素が取り得る値(8ビットであれば0〜255)に均一に分布されるようにヒストグラムを平滑化して勾配ベクトルKの大きさを修正することにより行う。例えば、勾配ベクトルKの大きさが小さく、図8(a)に示すように勾配ベクトルKの大きさが小さい側に偏ってヒストグラムが分布している場合には、大きさが0〜255の全領域に亘るものとなるように勾配ベクトルKの大きさを正規化して図8(b)に示すようにヒストグラムが分布するようにする。なお、演算量を低減するために、図8(c)に示すように、勾配ベクトルKのヒストグラムにおける分布範囲を例えば5分割し、5分割された頻度分布が図8(d)に示すように0〜255の値を5分割した範囲に亘るものとなるように正規化することが好ましい。
第1のデータベース60に記憶された参照データE1は、後述するサンプル画像から選択された複数画素の組合せからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組合せに対する識別条件を規定したものである。
参照データE1中の、各画素群を構成する各画素における特徴量C0の組合せおよび識別条件は、顔であることが分かっている複数のサンプル画像と顔でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、予め決められたものである。
なお、本実施形態においては、参照データE1を生成する際には、顔であることが分かっているサンプル画像として、30×30画素サイズを有し、図9に示すように、1つの顔の画像について両目の中心間の距離が10画素、9画素および11画素であり、両目の中心間距離において垂直に立った顔を平面上±15度の範囲において3度単位で段階的に回転させた(すなわち、回転角度が−15度,−12度,−9度,−6度,−3度,0度,3度,6度,9度,12度,15度)サンプル画像を用いるものとする。したがって、1つの顔の画像につきサンプル画像は3×11=33通り用意される。なお、図9においては−15度、0度および+15度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、両目の中心間の距離が10画素のサンプル画像であれば、目の中心位置はすべて同一となっている。この目の中心位置をサンプル画像の左上隅を原点とする座標上において(x1,y1)、(x2,y2)とする。また、図面上の上下方向における目の位置(すなわちy1,y2)はすべてのサンプル画像において同一である。
また、顔でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
ここで、顔であることが分かっているサンプル画像として、両目の中心間距離が10画素であり、平面上の回転角度が0度(すなわち顔が垂直な状態)のもののみを用いて学習を行った場合、参照データE1を参照して顔であると識別されるのは、両目の中心間距離が10画素で全く回転していない顔のみである。画像S0に含まれる可能性がある顔のサイズは一定ではないため、顔が含まれるか否かを識別する際には、後述するように画像S0を拡大縮小して、サンプル画像のサイズに適合するサイズの顔の位置を識別できるようにしている。しかしながら、両目の中心間距離を正確に10画素とするためには、画像S0のサイズを拡大率として例えば1.1単位で段階的に拡大縮小しつつ識別を行う必要があるため、演算量が膨大なものとなる。
また、画像S0に含まれる可能性がある顔は、図11(a)に示すように平面上の回転角度が0度のみではなく、図11(b)、(c)に示すように回転している場合もある。しかしながら、両目の中心間距離が10画素であり、顔の回転角度が0度のサンプル画像のみを使用して学習を行った場合、顔であるにも拘わらず、図11(b)、(c)に示すように回転した顔については識別を行うことができなくなってしまう。
このため、本実施形態においては、顔であることが分かっているサンプル画像として、図9に示すように両目の中心間距離が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたサンプル画像を用いて、参照データE1の学習に許容度を持たせるようにしたものである。これにより、後述する顔検出実行部24において識別を行う際には、画像S0を拡大率として11/9単位で段階的に拡大縮小すればよいため、画像S0のサイズを例えば拡大率として例えば1.1単位で段階的に拡大縮小する場合と比較して、演算時間を低減できる。また、図11(b)、(c)に示すように回転している顔も識別することができる。
以下、図12のフローチャートを参照しながらサンプル画像群の学習手法の一例を説明する。
学習の対象となるサンプル画像群は、顔であることが分かっている複数のサンプル画像と、顔でないことが分かっている複数のサンプル画像とからなる。なお、顔であることが分かっているサンプル画像は、上述したように1つのサンプル画像につき両目の中心位置が9,10,11画素であり、各距離において平面上±15度の範囲にて3度単位で段階的に顔を回転させたものを用いる。各サンプル画像には、重み、すなわち重要度が割り当てられる。まず、すべてのサンプル画像の重みの初期値が等しく1に設定される(ステップST1)。
次に、サンプル画像における複数種類の画素群のそれぞれについて識別器が作成される(ステップST2)。ここで、それぞれの識別器とは、1つの画素群を構成する各画素における特徴量C0の組合せを用いて、顔の画像と顔で内画像とを識別する基準を提供するものである。本実施形態においては、1つの画素群を構成する各画素における特徴量C0の組合せについてのヒストグラムを識別器として使用する。
図13を参照しながら、ある識別器の作成について説明する。図13の左側のサンプル画像に示すように、この識別器を作成するための画素群を構成する各画素は、顔であることが分かっている複数のサンプル画像上における、右目の中心にある画素P1、右側の頬の部分にある画素P2、額の部分にある画素P3および左側の頬の部分にある画素P4である。そして顔であることが分かっているすべてのサンプル画像について全画素P1〜P4における特徴量C0の組合せが求められ、そのヒストグラムが作成される。ここで、特徴量C0は勾配ベクトルKの方向および大きさを表すが、勾配ベクトルKの方向は0〜359の360通り、勾配ベクトルKの大きさは0〜255の256通りあるため、これをそのまま用いたのでは、組合せの数は1画素につき360×256通りの4画素分、すなわち(360×256)4通りとなってしまい、学習および検出のために多大なサンプルの数、時間およびメモリを要することとなる。このため、本実施形態においては、勾配ベクトルの方向を0〜359を0〜44と315〜359(右方向、値:0),45〜134(上方向値:1),135〜224(左方向、値:2),225〜314(下方向、値3)に4値化し、勾配ベクトルの大きさを3値化(値:0〜2)する。そして、以下の式を用いて組合せの値を算出する。
組合せの値=0(勾配ベクトルの大きさ=0の場合)
組合せの値=((勾配ベクトルの方向+1)×勾配ベクトルの大きさ(勾配ベクトルの大きさ>0の場合)
これにより、組合せ数が94通りとなるため、特徴量C0のデータ数を低減できる。
同様に、顔でないことが分かっている複数のサンプル画像についても、ヒストグラムが作成される。なお、顔でないことが分かっているサンプル画像については、顔であることが分かっているサンプル画像上における上記画素P1〜P4の位置に対応する画素が用いられる。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、図13の一番右側に示す、識別器として用いられるヒストグラムである。この識別器のヒストグラムが示す各縦軸の値を、以下、識別ポイントと称する。この識別器によれば、正の識別ポイントに対応する特徴量C0の分布を示す画像は顔である可能性が高く、識別ポイントの絶対値が大きいほどその可能性は高まると言える。逆に、負の識別ポイントに対応する特徴量C0の分布を示す画像は顔でない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性は高まる。ステップST2では、識別に使用され得る複数種類の画素群を構成する各画素における特徴量C0の組合せについて、上記のヒストグラム形式の複数の識別器が作成される。
続いて、ステップST2で作成した複数の識別器のうち、画像が顔であるか否かを識別するのに最も有効な識別器が選択される。最も有効な識別器の選択は、各サンプル画像の重みを考慮して行われる。この例では、各識別器の重み付き正答率が比較され、最も高い重み付き正答率を示す識別器が選択される(ステップST3)。すなわち、最初のステップST3では、各サンプル画像の重みは等しく1であるので、単純にその識別器によって画像が顔であるか否かが正しく識別されるサンプル画像の数が最も多いものが、最も有効な識別器として選択される。一方、後述するステップST5において各サンプル画像の重みが更新された後の2回目のステップST3では、重みが1のサンプル画像、重みが1よりも大きいサンプル画像、および重みが1よりも小さいサンプル画像が混在しており、重みが1よりも大きいサンプル画像は、正答率の評価において、重みが1のサンプル画像よりも重みが大きい分多くカウントされる。これにより、2回目以降のステップST3では、重みが小さいサンプル画像よりも、重みが大きいサンプル画像が正しく識別されることに、より重点が置かれる。
次に、それまでに選択した識別器の組合せの正答率、すなわち、それまでに選択した識別器を組み合わせて使用して各サンプル画像が顔の画像であるか否かを識別した結果が、実際に顔の画像であるか否かの答えと一致する率が、所定の閾値を超えたか否かが確かめられる(ステップST4)。ここで、組合せの正答率の評価に用いられるのは、現在の重みが付けられたサンプル画像群でも、重みが等しくされたサンプル画像群でもよい。所定の閾値を超えた場合は、それまでに選択した識別器を用いれば画像が顔であるか否かを十分に高い確率で識別できるため、学習は終了する。所定の閾値以下である場合は、それまでに選択した識別器と組み合わせて用いるための追加の識別器を選択するために、ステップST6へと進む。
ステップST6では、直近のステップST3で選択された識別器が再び選択されないようにするため、その識別器が除外される。
次に、直近のステップST3で選択された識別器では顔であるか否かを正しく識別できなかったサンプル画像の重みが大きくされ、画像が顔であるか否かを正しく識別できたサンプル画像の重みが小さくされる(ステップST5)。このように重みを大小させる理由は、次の識別器の選択において、既に選択された識別器では正しく識別できなかった画像を重要視し、それらの画像が顔であるか否かを正しく識別できる識別器が選択されるようにして、識別器の組合せの効果を高めるためである。
続いて、ステップST3へと戻り、上記したように重み付き正答率を基準にして次に有効な識別器が選択される。
以上のステップST3からST6を繰り返して、顔が含まれるか否かを識別するのに適した識別器として、特定の画素群を構成する各画素における特徴量C0の組合せに対応する識別器が選択されたところで、ステップST4で確認される正答率が閾値を超えたとすると、顔が含まれるか否かの識別に用いる識別器の種類と識別条件とが確定され(ステップST7)、これにより参照データE1の学習を終了する。
なお、上記の学習手法を採用する場合において、識別器は、特定の画素群を構成する各画素における特徴量C0の組合せを用いて顔の画像と顔でない画像とを識別する基準を提供するものであれば、上記のヒストグラムの形式のものに限られずいかなるものであってもよく、例えば2値データ、閾値または関数等であってもよい。また、同じヒストグラムの形式であっても、図13の中央に示した2つのヒストグラムの差分値の分布を示すヒストグラム等を用いてもよい。
また、学習の方法としては上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いることができる。
顔検出実行部24は、複数種類の画素群を構成する各画素における特徴量C0の組合せのすべてについて参照データE1が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組合せについての識別ポイントを求め、すべての識別ポイントを総合して顔を検出する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。本実施形態では、すべての識別ポイントを加算して、その加算値の正負および大小によって顔であるか否かを識別する。例えば、識別ポイントの総和が正の値である場合、顔であると判断し、負の値である場合には顔ではないと判断する。
ここで、画像S0のサイズは30×30画素のサンプル画像とは異なり、各種サイズを有するものとなっている可能性がある。また、顔が含まれる場合、平面上における顔の回転角度が0度であるとは限らない。このため、顔検出実行部24は、図14に示すように、画像S0を縦または横のサイズが30画素となるまで段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ(図14においては縮小する状態を示す)、各段階において拡大縮小された画像S0上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された画像S0上において1画素ずつ移動させながら、マスク内の画像が顔の画像であるか否か(すなわち、マスク内の画像に対して得られた識別ポイントの加算値が正か負か)の識別を行う。そして、この識別を拡大縮小および回転の全段階の画像S0について行い、識別ポイントの加算値が正の値が得られた段階におけるサイズおよび回転角度の画像S0から、識別されたマスクMの位置に対応する30×30画素の領域を顔領域として検出すると共に、この領域の画像を顔画像S1として画像S0から抽出する。なお、全ての段階において識別ポイントの加算値が負である場合には、画像S0に顔が無いと判定し、処理を終了する。
なお、参照データE1の生成時に学習したサンプル画像として両目の中心位置の画素数が9,10,11画素のものを使用しているため、画像S0を拡大縮小する時の拡大率は11/9とすればよい。また、参照データE1の生成時に学習したサンプル画像として、顔が平面上で±15度の範囲において回転させたものを使用しているため、画像S0は30度単位で360度回転させればよい。
ここで、第1の特徴量算出部22は、画像S0の拡大縮小および回転という変形の各段階において特徴量C0を算出している。
顔検出部20は、このようにして画像S0からおおよその顔の位置および大きさを検出して、顔画像S1を得る。なお、顔検出部20は、識別ポイントの加算値が正であれば顔が含まれると判定されるので、顔検出部20においては、複数の顔画像S1が得られる可能性がある。
図3は、目検出部30の構成を示すブロック図である。目検出部30は、顔検出部20により得られた複数の顔画像S1から真の顔画像S2を得ることにより、両目の位置を検出するものであり、図示のように、顔画像S1から特徴量C0を算出する第2の特徴量算出部32と、特徴量C0および第1のデータベース80に記憶された参照データE2に基づいて目の位置の検出を実行して、目の位置情報G1を得る目検出実行部34とを備える。
本実施形態において、目検出実行部34により識別される目の位置とは、顔における目尻から目頭の間の中心位置(図4中×で示す)であり、図4(a)に示すように真正面を向いた目の場合においては瞳の中心位置と同様であるが、図4(b)に示すように右を向いた目の場合は瞳の中心位置ではなく、瞳の中心から外れた位置または白目部分に位置する。
第2の特徴量算出部32は、画像S0ではなく、顔画像S1から特徴量C0を算出する点を除いて、図2に示す顔検出部20における第1の特徴量算出部22と同じであるため、ここではその詳細な説明を省略する。
第1のデータベース60に記憶された参照データE2は、参照データE1と同じように、後述するサンプル画像から選択された複数画素の組合せからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組合せに対する識別条件を規定したものである。
ここで、参照データE2の学習には、図10に示すように両目の中心間距離が9.7,10,10.3画素であり、各距離において平面上±3度の範囲にて1度単位で段階的に顔を回転させたサンプル画像を用いている。そのため、参照データE1と比較して学習の許容度は小さく、精確に目の位置を検出することができる。なお、参照データE2を得るための学習は、用いられるサンプル画像群が異なる点を除いて、参照データE1を得るための学習と同じであるので、ここではその詳細な説明を省略する。
目検出実行部34は、顔検出部20により得られた顔画像S1上において、複数種類の画素群を構成する各画素における特徴量C0の組合せのすべてについて参照データE2が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組合せについての識別ポイントを求め、すべての識別ポイントを総合して顔に含まれる目の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、目検出実行部34は、顔検出部20により得られた顔画像S1のサイズを段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ、各段階において拡大縮小された顔画像上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された顔上において1画素ずつ移動させながら、マスク内の画像における目の位置の検出を行う。
なお、参照データE2の生成時に学習したサンプル画像として両目の中心位置の画素数が9.7,10,10.3画素のものを使用しているため、顔画像S1の拡大縮小時の拡大率は10.3/9.7とすればよい。また、参照データE2の生成時に学習したサンプル画像として、顔が平面上で±3度の範囲において回転させたものを使用しているため、顔画像は6度単位で360度回転させればよい。
なお、第2の特徴量算出部32は、顔画像S1の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、顔検出部20により得られた全ての顔画像S1毎に、顔画像S1の変形の全段階においてすべての識別ポイントを加算し、最も大きい加算値が得られた顔画像S1の変形の段階における30×30画素のマスクM内の画像において、左上隅を原点とする座標を設定し、サンプル画像における目の位置の座標(x1,y1)、(x2,y2)に対応する位置を求め、変形前の当該顔画像S1におけるこの位置に対応する位置を目の位置として検出する。
目検出部30は、このようにして、顔検出部20により得られた顔画像S1から真の顔画像S2を抽出して両目の位置を検出し、その両目の位置情報G1および顔画像S2の位置情報を、目頭・目尻検出部40および口角検出部50にそれぞれ出力する。
図15は、目頭・目尻検出部40の構成を示すブロック図である。目頭・目尻検出部40は、目検出部30により得られた真の顔画像S2のうち検出された目の位置を中心とする所定範囲の目近傍画像S3から、目頭および目尻の位置を検出するものであり、図示のように、目近傍画像S3から目の識別に用いる特徴量C0を算出する第3の特徴量算出部42と、特徴量C0および第1のデータベース60に記憶された参照データE3に基づいて目頭および目尻の位置の検出を実行して、目頭および目尻の位置情報G2′を得る目頭・目尻検出実行部44とを備える。
第3の特徴量算出部42は、真の顔画像S2のうち検出された目の位置を中心とする所定範囲の目近傍画像S3から特徴量C0を算出する点を除いて、図2に示す顔検出部20の第1の特徴量算出部22と同じであるため、ここでは、その詳細な説明を省略する。
第1のデータベース60に記憶された参照データE3は、参照データE1と同じように、後述するサンプル画像から選択された複数画素の組合せからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組合せに対する識別条件を規定したものである。
参照データE3中の、各画素群を構成する各画素における特徴量C0の組合せおよび識別条件は、目であることが分かっている複数のサンプル画像と目でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、予め決められたものである。
なお、本実施形態においては、参照データE3を生成する際には、目であることが分かっているサンプル画像として、30×30画素サイズを有し、図17に示すように、1つの目の画像について目頭と目尻の間の距離が20画素、19.4画素および20.6画素であり、目頭と目尻を結ぶ線分が水平となるように置かれた目を平面上±3度の範囲において1度単位で段階的に回転させたサンプル画像を用いるものとする。そのため、参照データE2と同様に、参照データE1と比較して学習の許容度は小さく、精確に目頭および目尻の位置を検出することができる。なお、図17においては−3度、0度および+3度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、目頭と目尻の間の距離が20画素のサンプル画像であれば、目頭と目尻の位置はすべて同一となっている。この目頭および目尻の位置を、サンプル画像の左上隅を原点とする座標上において(x1′,y1′)、(x2′,y2′)とする。また、図面上の上下方向における目頭および目尻の位置(すなわちy1′,y2′)はすべてのサンプル画像において同一である。
また、目でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
なお、参照データE3を得るための学習は、用いられるサンプル画像群が異なる点を除いて、参照データE2を得るための学習と同じなので、ここではその詳細な説明を省略する。
目頭・目尻検出実行部44は、目検出部30により得られた真の顔画像S2のうち検出された目の位置を中心とする所定範囲の目近傍画像S3上において、複数種類の画素群を構成する各画素における特徴量C0の組合せのすべてについて参照データE3が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組合せについての識別ポイントを求め、すべての識別ポイントを総合して目の目頭および目尻の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、目頭・目尻検出実行部44は、目検出部30により得られた真の顔画像S2のうち検出された目の位置を中心とする所定範囲の目近傍画像S3のサイズを段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ、各段階において拡大縮小された目近傍画像S3上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された目近傍画像S3上において1画素ずつ移動させながら、マスク内の画像における目頭および目尻の位置の検出を行う。
なお、参照データE3の生成時に学習したサンプル画像として目頭と目尻の間の画素数が19.4,20,20.6画素のものを使用しているため、目近傍画像S3の拡大縮小時の拡大率は20.6/19.4とすればよい。また、参照データE3の生成時に学習したサンプル画像として、目が平面上で±3度の範囲において回転させたものを使用しているため、目近傍画像S3は6度単位で360度回転させればよい。
なお、第3の特徴量算出部42は、目近傍画像S3の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、各目近傍画像S3毎に、目近傍画像S3の変形の全段階においてすべての識別ポイントを加算し、その加算値の正負および大小によって目であるか否かを識別する。目であると識別された目近傍画像S3の変形の段階における30×30画素のマスクM内の画像において、左上隅を原点とする座標を設定し、サンプル画像における目頭および目尻の位置の座標(x1′,y1′)、(x2′,y2′)に対応する位置を求め、変形前の当該目近傍画像S3におけるこの位置に対応する位置を目頭および目尻の位置として検出する。
目頭・目尻検出部40は、このようにして、目近傍画像S3から目頭および目尻の位置を検出し、その目頭および目尻の位置情報G2′を、目頭・目尻・口角選出部65に出力する。
なお、目頭・目尻検出部40は、左目と右目のそれぞれに対応する目近傍画像S3に対して目頭および目尻の位置を検出する。このとき、左目と右目とでは目の形状が異なるものの、左右反転させると同形状になると考え、例えば、参照データE3を目のサンプル画像として左目のサンプル画像のみを用いた学習により得て用意し、左目に対して目頭および目尻を検出するときは、マスクM内の画像に対して特徴量C0を算出して参照データE3を適用し、右目に対して目頭および目尻を検出するときは、マスクM内の画像を左右反転した状態で特徴量C0を算出して参照データE3を適用するようにしてもよい。あるいは、いずれの目も左右対称な形状に近似すると考え、例えば、参照データE3を左目および右目の混合したサンプル画像を用いた学習により得て用意し、左目と右目のいずれの目に対しても目頭および目尻を検出するときは、マスクM内の画像に対して特徴量C0を算出して参照データE3を適用するようにしてもよい。
図16は、口角検出部50の構成を示すブロック図である。口角検出部50は、目検出部30により得られた真の顔画像S2のうち検出された目の位置と所定の位置関係にある所定範囲の口近傍画像S4から、左右の口角の位置を検出するものであり、図示のように、口近傍画像S4から口の識別に用いる特徴量C0を算出する第4の特徴量算出部52と、特徴量C0および第1のデータベース60に記憶された参照データE4に基づいて左右の口角の位置の検出を実行して、口角の位置情報G3′を得る口角検出実行部54とを備える。
第4の特徴量算出部52は、真の顔画像S2のうち検出された目の位置と所定の位置関係にある所定範囲の口近傍画像S4から特徴量C0として算出する点を除いて、図2に示す顔検出部20の第1の特徴量算出部22と同じであるため、ここでは、その詳細な説明を省略する。
第1のデータベース60に記憶された参照データE4は、参照データE1と同じように、後述するサンプル画像から選択された複数画素の組合せからなる複数種類の画素群のそれぞれについて、各画素群を構成する各画素における特徴量C0の組合せに対する識別条件を規定したものである。
参照データE4中の、各画素群を構成する各画素における特徴量C0の組合せおよび識別条件は、口であることが分かっている複数のサンプル画像と口でないことが分かっている複数のサンプル画像とからなるサンプル画像群の学習により、予め決められたものである。
なお、本実施形態においては、参照データE4を生成する際には、口であることが分かっているサンプル画像として、30×30画素サイズを有し、図18に示すように、1つの口の画像について左の口角と右の口角との間の距離が20画素、19.4画素および20.6画素であり、左右の口角同士を結ぶ線分が水平となるように置かれた口を平面上±3度の範囲において1度単位で段階的に回転させたサンプル画像を用いるものとする。そのため、参照データE2と同様に、参照データE1と比較して学習の許容度は小さく、精確に左右の口角の位置を検出することができる。なお、図18においては−3度、0度および+3度に回転させたサンプル画像のみを示す。また、回転の中心はサンプル画像の対角線の交点である。ここで、左右の口角の間の距離が20画素のサンプル画像であれば、左右の口角の位置はすべて同一となっている。この左右の口角の位置を、サンプル画像の左上隅を原点とする座標上において(x1″,y1″)、(x2″,y2″)とする。また、図面上の上下方向における左右の口角の位置(すなわちy1″,y2″)はすべてのサンプル画像において同一である。
また、口でないことが分かっているサンプル画像としては、30×30画素サイズを有する任意の画像を用いるものとする。
なお、参照データE4を得るための学習は、用いられるサンプル画像群が異なる点を除いて、参照データE2を得るための学習と同じなので、ここではその詳細な説明を省略する。
口角検出実行部54は、目検出部30により得られた真の顔画像S2のうち検出された目の位置と所定の位置関係にある所定範囲の口近傍画像S4上において、複数種類の画素群を構成する各画素における特徴量C0の組合せのすべてについて参照データE4が学習した識別条件を参照して、各々の画素群を構成する各画素における特徴量C0の組合せについての識別ポイントを求め、すべての識別ポイントを総合して口の左右の口角の位置を識別する。この際、特徴量C0である勾配ベクトルKの方向は4値化され大きさは3値化される。
ここで、口角検出実行部54は、目検出部30により得られた真の顔画像S2のうち検出された目の位置と所定の位置関係にある所定範囲の口近傍画像S4のサイズを段階的に拡大縮小するとともに平面上で段階的に360度回転させつつ、各段階において拡大縮小された口近傍画像S4上に30×30画素サイズのマスクMを設定し、マスクMを拡大縮小された口近傍画像S4上において1画素ずつ移動させながら、マスク内の画像における左右の口角の位置の検出を行う。
なお、参照データE4の生成時に学習したサンプル画像として左右の口角の間の画素数が19.4,20,20.6画素のものを使用しているため、口近傍画像S4の拡大縮小時の拡大率は20.6/19.4とすればよい。また、参照データE4の生成時に学習したサンプル画像として、口が平面上で±3度の範囲において回転させたものを使用しているため、口近傍画像S4は6度単位で360度回転させればよい。
なお、第4の特徴量算出部52は、口近傍画像S4の拡大縮小および回転という変形の各段階において特徴量C0を算出する。
そして、本実施形態では、口近傍画像S4の変形の全段階においてすべての識別ポイントを加算し、その加算値の正負および大小によって口であるか否かを識別する。口であると識別された口近傍画像S4の変形の段階における30×30画素のマスクM内の画像において、左上隅を原点とする座標を設定し、サンプル画像における左右の口角の位置の座標(x1″,y1″)、(x2″,y2″)に対応する位置を求め、変形前の当該口近傍画像S4におけるこの位置に対応する位置を左右の口角の位置として検出する。
口角検出部50は、このようにして、口近傍画像S4から左右の口角の位置を検出し、その左右の口角の位置情報G3′を、目頭・目尻・口角選出部65に出力する。
目頭・目尻・口角選出部65は、検出されたすべての目頭、目尻、口角の中から、これらの位置情報G2′,G3′に基づいて、その位置関係が妥当と考えられる左目の目頭および目尻、右目の目頭および目尻、左右の口角を選出するものである。例えば、左目の目尻と右目の目尻とを結ぶ線分と、左右の口角を結ぶ線分とが略平行になるという拘束条件や、左目の目頭と目尻を結ぶ線分と右目の目頭と目尻を結ぶ線分とが、真の顔画像S2の中心軸を基準として略軸対象になるという拘束条件などを設け、これらの拘束条件をできるだけ満たすように、目頭、目尻、口角を選出する。目頭・目尻・口角選出部65は、選出した左右の目の目頭、目尻の位置情報G2,G3を上下瞼特徴点検出部70に出力し、選出した左右の口角の位置の情報を上下唇特徴点検出部80に出力する。
図19は、上下瞼特徴点検出部70の構成を示すブロック図である。上下瞼特徴点検出部70は、目頭・目尻・口角選出部65により選出された左右各目の目頭および目尻の位置の情報を用いて、目の輪郭を表す上下瞼の特徴点を各目毎に検出するものであり、図示のように、目頭および目尻の位置から上下瞼の特徴点を検索するエリアLe1を設定する第1の検索エリア設定部72と、第1の検索エリア設定部72により設定された検索エリアLe1の各画素において、1次元の輝度プロファイルBeを算出する第1の輝度プロファイル算出部74と、第1の輝度プロファイル算出部74により算出された輝度プロファイルBeと第2のデータベース90に記憶されている参照データE5とに基づいて、識別対象の画素が上下瞼の特徴点に該当するか否かを識別する第1の識別部76とを備える。
第1の検索エリア設定部72は、目検出部30により検出された目に対して、目頭・目尻検出部40により検出された目頭と目尻を結ぶ線分Le0と交差する、上下瞼の特徴点に対応する瞼基準線分Le1を検索エリアとして設定するものであり、本実施形態においては、目頭と目尻を結ぶ線分Le0の中点を中心とする線分Le0に垂直な所定幅(例えば11画素)の線分を瞼基準線分Le1とする。なお、この瞼基準線分Le1の設定は、各目に対して行われる。
ここで、第2のデータベース90に記憶された参照データE5について説明する。この参照データE5は、上下瞼の輪郭の中点を示す各特徴点に対して定義された輝度プロファイルおよび輝度プロファイルに対する識別条件を規定したものであり、複数の目のサンプル画像における、該当する特徴点が示す位置であることが分かっている部位と、複数のサンプル画像の目における、該当する特徴点が示す位置でないことが分かっている部位の学習により、予め決められたものである。ここで、上瞼の輪郭の中点を示す特徴点に対して定義された輝度プロファイルに対する識別条件の取得を例に説明する。
本実施形態において、参照データE5を生成する際に、サンプル画像は30×30画素サイズを有し、1つの目の画像について目頭と目尻の間の距離が20画素となるように正規化されたものを用いる。上瞼の輪郭の中点を示す特徴点に対して定義された輝度プロファイルは、図21に示すように、目頭A1と目尻A2を結ぶ線分L0と垂直で、かつこの上瞼の輪郭の中点を示す特徴点A0を通過する線分L1における、この特徴点を中心とする11個の画素の輝度プロファイルであり、この特徴点に対して定義された輝度プロファイルに対する識別条件を得るために、まず、各サンプル画像の目に対して指定された上瞼の輪郭の中点を示す特徴点A0の位置における輝度プロファイルをそれぞれ算出する。そして、各サンプル画像の目における、上瞼の輪郭の中点以外の任意の位置を示す点に対しても、上記の如く定義された輝度プロファイルをそれぞれ算出する。
そして、後の処理時間を短縮するために、これらの輝度プロファイルを多値化、例えば分散値に基づいて5値化する。この5値化は、具体的には、輝度プロファイルを形成する各輝度値(上瞼の輪郭の中点を示す特徴点の輝度プロファイルの場合、この輝度プロファイルを取得する際に用いられた11個の画素の輝度値)の分散値σを求めると共に、各輝度値の平均値Yavを中心にし、分散値単位に5値化を行うものである。例えば、(Yav―(3/4)σ)以下の輝度値を0に、(Yav−(3/4)σ)と(Yav−(1/4)σ)間の輝度値を1に、(Yav−(1/4)σ)と(Yav+(1/4)σ)間の輝度値を2に、(Yav+(1/4)σ)と(Yav+(3/4)σ)間の輝度値を3に、(Yav+(3/4)σ)以上の輝度値を4にするように5値化する。
上瞼の輪郭の中点を示す特徴点の輝度プロファイルを識別するための識別条件は、上記のような5値化された、各サンプル画像における上瞼の輪郭の中点を示す特徴点の輝度プロファイル(以下第1の輝度プロファイル群という)と、上瞼の輪郭の中点を示す特徴点に対して求められた輝度プロファイル(以下第2の輝度プロファイル群という)とに対して学習することによって得られる。
上記2種類の輝度プロファイル群の学習手法は、顔検出部20に用いられた参照データE1や、目検出部30に用いられた参照データE2の学習手法と同じであるが、ここでその概略について説明する。
まず、識別器の作成について説明する。1つの輝度プロファイルを構成する要素としては、該輝度プロファイルを構成する各輝度値の組合せにより示される輝度プロファイルの形状とすることができ、輝度値が0、1、2、3、4の5通りあり、1つの輝度プロファイルに含まれる画素11個をそのままを用いたのでは、輝度値の組合せが511通りとなり、学習および検出のために多大な時間およびメモリを要することとなる。このため、本実施形態においては、1つの輝度プロファイルを構成する複数の画素のうちの一部の画素のみを用いることとする。例えば、11個の画素の輝度値から構成された輝度プロファイルの場合、その2番目、6番目、10番目の画素の3つの画素を用いる。この3つの画素の輝度値の組合せは5通りとなるため、演算時間の短縮およびメモリの節約を図ることができる。識別器の作成に当たり、まず、第1の輝度プロファイル群における全ての輝度プロファイルについて、上記輝度値の組合せ(当該輝度プロファイルを構成する画素の一部ここでは2番目、6番目、10番目の3個の画素の輝度値の組合せ。以下同じ)が求められ、そしてヒストグラムが作成される。同様に、第2の輝度プロファイル群に含まれる各輝度プロファイルについても、同じヒストグラムが作成される。これらの2つのヒストグラムが示す頻度値の比の対数値を取ってヒストグラムで表したものが、特徴点の輝度プロファイルの識別器として用いられるヒストグラムである。顔を検出する際に作られた識別器と同じように、この識別器によれば、該識別器のヒストグラムが示す各縦軸の値(識別ポイント)が正であれば、該識別ポイントに対応する輝度値分布を有する輝度プロファイルの位置が上瞼の輪郭の中点を示す特徴点である可能性が高く、識別ポイントの絶対値が大きいほどその可能性が高まると言える。逆に識別ポイントが負であれば、該識別ポイントに対応する輝度値分布を有する輝度プロファイルの位置が上瞼の輪郭の中点を示す特徴点ではない可能性が高く、やはり識別ポイントの絶対値が大きいほどその可能性が高まる。
上瞼の輪郭の中点を示す特徴点の輝度プロファイルに対して、このようなヒストグラム形式の複数の識別器が作成される。
続いて、作成した複数の識別器のうち、上瞼の輪郭の中点を示す特徴点であるか否かの識別に最も有効な識別器が選択される。ここで、特徴点の輝度プロファイルを識別するための最も有効な識別器の選択手法は、識別対象が特徴点の輝度プロファイルである点を除いて、顔検出部20に用いられた参照データE1中の識別器を作成する際に行われた選択の手法と同じであるため、ここで詳細な説明を省略する。
第1の輝度プロファイル群と第2の輝度プロファイル群に対する学習の結果、上瞼の輪郭の中点を示す特徴点の輝度プロファイルであるか否かの識別に用いる識別器の種類と識別条件が確定される。
ここで、サンプル画像の特徴点の輝度プロファイルの学習方法は、アダブースティングの手法に基づいたマシンラーニング手法を用いたが、上記手法に限定されるものではなく、ニューラルネットワーク等他のマシンラーニングの手法を用いてもよい。
このような識別器の作成と識別条件の確定が、上瞼の輪郭の中点の特徴点のほか、下瞼の輪郭の中点の特徴点についても同様になされ、参照データE5が生成される。
第1の輝度プロファイル算出部74は、第1の検索エリア設定部72により設定された瞼基準線分Le1上の各画素の位置に対して、瞼基準線分Le1が対応する特徴点に対して定義された、その特徴点を識別するための1次元の輝度プロファイルBeを算出する。この輝度プロファイルは、瞼基準線分Le1上の1つの画素を中心として瞼基準線分Le1の方向に沿った11個の画素の輝度プロファイルである。
第1の識別部76は、第1の輝度プロファイル算出部74により算出された各輝度プロファイル毎に、当該輝度プロファイルが上瞼の輪郭の中点を示す特徴点または下瞼の輪郭の中点を示す特徴点の輝度プロファイルであるか否かを識別する。具体的には、瞼基準線分Le1上の各画素の位置に対して算出された21個の輝度プロファイルのそれぞれに対して、参照データE5に含まれる上瞼の輪郭の中点を示す特徴点の輝度プロファイルの識別器および識別条件を用いて識別を行って識別ポイントを求め、1つの輝度プロファイルに対して各識別器による識別ポイントの総和が正である場合、当該輝度プロファイルが上瞼の輪郭の中点を示す特徴点の輝度プロファイルである、すなわち当該輝度プロファイルの対応する画素(11個の画素の中心画素、すなわち6番目の画素)が上瞼の輪郭の中点を示す特徴点である可能性が高いとし、逆に1つの輝度プロファイルに対して各識別器による識別ポイントの総和が負である場合、当該輝度プロファイルが上瞼の輪郭の中点を示す特徴点の輝度プロファイルではない、すなわち当該輝度プロファイルの対応する画素が上瞼の輪郭の中点を示す特徴点ではないとして識別する。そして、第1の識別部76は、21個の輝度プロファイルのうち、識別ポイントの総和が正であり、かつ絶対値が最も大きい輝度プロファイルの対応する中心画素を上瞼の輪郭の中点を示す特徴点として識別する。一方、21個の輝度プロファイルのうち、識別ポイントの総和が正である輝度プロファイルが1つもない場合、21個の輝度プロファイルの対応する21個の画素すべてが、上瞼の輪郭の中点を示す特徴点ではないと識別する。また、このような識別を、上瞼の輪郭の中点を示す特徴点と同様に、下瞼の輪郭の中点を示す特徴点に対しても行い、これらの識別結果として、上下瞼の輪郭の中点を示す特徴点の位置情報G4を出力部100に出力する。
図20は、上下唇特徴点検出部80の構成を示すブロック図である。上下唇特徴点検出部80は、目頭・目尻・口角選出部65により選出された左右の口角の位置の情報を用いて、口の輪郭を表す上下唇の特徴点を検出するものであり、図示のように、左右の口角の位置から上下唇の特徴点を検索するエリアLm1を設定する第2の検索エリア設定部82と、第2の検索エリア設定部82により設定された検索エリアLm1の各画素において、1次元の輝度プロファイルBmを算出する第2の輝度プロファイル算出部84と、第2の輝度プロファイル算出部84により算出された輝度プロファイルBmと第2のデータベース90に記憶されている参照データE6とに基づいて、識別対象の画素が上下唇の特徴点に該当するか否かを識別する第2の識別部86とを備える。
第2の検索エリア設定部82は、口角検出部50により検出された左右の口角を結ぶ線分Lm0と交差する、上下唇の特徴点に対応する唇基準線分Lm1を検索エリアとして設定するものであり、本実施形態においては、左右の口角を結ぶ線分Lm0の中点を中心とする線分Lm0に垂直な所定幅(例えば11画素)の線分を唇基準線分Lm1とする。
ここで、第2のデータベース90に記憶された参照データE6について説明する。この参照データE6は、上下唇の輪郭の中点を示す各特徴点に対して定義された輝度プロファイルおよび輝度プロファイルに対する識別条件を規定したものであり、複数の口のサンプル画像における、該当する特徴点が示す位置であることが分かっている部位と、複数のサンプル画像の口における、該当する特徴点が示す位置でないことが分かっている部位の学習により、予め決められたものである。なお、この参照データE6の生成については、特徴点が上下唇の輪郭の中点を示す特徴点であり、サンプル画像として、30×30画素サイズを有し、1つの口の画像について左の口角と右の口角との間の距離が20画素となるように正規化されたものを用いる点を除いて、参照データE5の場合と同じである。例えば、上唇の輪郭の中点を示す特徴点に対して定義された輝度プロファイルは、図22に示すように、左の口角A1′と右の口角A2′を結ぶ線分L0′と垂直で、かつこの上唇の輪郭の中点を示す特徴点A0′を通過する線分L1′における、この特徴点を中心とする11個の画素の輝度プロファイルである。
第2の輝度プロファイル算出部84は、第2の検索エリア設定部82により設定された唇基準線分Lm1上の各画素の位置に対して、唇基準線分Lm1が対応する特徴点に対して定義された、その特徴点を識別するための1次元の輝度プロファイルBmを算出する。この輝度プロファイルBmは、唇基準線分Lm1上の1つの画素を中心として唇基準線分Lm1の方向に沿った11個の画素の輝度プロファイルである。
第2の識別部86は、第2の輝度プロファイル算出部84により算出された各輝度プロファイル毎に、当該輝度プロファイルが上唇の輪郭の中点を示す特徴点または下唇の輪郭の中点を示す特徴点の輝度プロファイルであるか否かを識別する。また、このような識別を、上唇の輪郭の中点を示す特徴点と同様に、下唇の輪郭の中点を示す特徴点に対しても行い、これらの識別結果として、上下唇の輪郭の中点を示す特徴点の位置情報G5を出力部100に出力する。
出力部100は、目尻・目頭検出部40により得られた左右の目それぞれに対する目頭および目尻の位置情報G2と、瞼特徴点検出部70により得られた左右の目それぞれに対する上下瞼の輪郭の中点を示す特徴点の位置情報G4とを合わせて、左右の目の輪郭を表す特徴点群の位置情報GG1として出力するとともに、口角検出部50により得られた左右の口角の位置情報G3と、唇特徴点検出部80により得られた上下唇の輪郭の中点を示す特徴点の位置情報G5とを合わせて、口の輪郭を表す特徴点群の位置情報GG2として出力する。
図23は、図1に示す実施形態の顔特徴点検出装置において行われる処理を示すフローチャートである。図示のように、図1に示す顔特徴点検出装置において、画像S0が入力されると、まず、顔検出部20および目検出部30により画像S0に含まれる顔の検出を行い、画像S0に含まれる顔における両目の位置を得る(ステップST11、S12、S13)。そして、目頭・目尻検出部40および口角検出部50によりその両目の目頭および目尻、画像S0に含まれる顔を構成する口の左右の口角を、暫定的に、場合によっては複数、検出する(ステップST14)。目頭・目尻・口角選出部65は、検出された目頭、目尻、口角の中から、それぞれの間の位置関係に基づいて、顔の構造上の所定の拘束条件にしたがって、妥当なものを選出する(ステップST15)。瞼特徴点検出部70および唇特徴点検出部80は、その選出された目頭、目尻および口角の位置から、上下瞼の輪郭の中点を示す特徴点と、上下唇の輪郭の中点を示す特徴点とを検出し(ステップST16)、出力部100が、目頭、目尻、上下瞼の特徴点を目の輪郭を表す特徴点群として、口角、上下唇の特徴点を口の輪郭を表す特徴点群として、それぞれまとめて出力する(ステップST17)。
このように、本実施形態の顔特徴点検出装置は、検出対象の画像に含まれる顔を検出し、この顔の検出情報を用いて、顔を構成する目を検出し、この目の検出情報を用いて、目の目頭と目尻を検出し、この目頭と目尻の位置情報を用いて、目の輪郭を表す上下瞼の特徴点を検出するようにしているので、Coarse to fineの考え方に沿って効率的に目の輪郭を表す特徴点を検出することができ、ユーザに負担を掛けることなく、顔の特徴点である目の輪郭を表す特徴点を精度良く検出することができる。
また、本実施形態の顔特徴点検出装置は、その目の検出情報を用いて、この目と所定の位置関係にある口の位置を推定して、口の左右の口角を検出し、口の輪郭を表す上下唇の特徴点を検出するようにしているので、目の輪郭を表す特徴点だけでなく、口の輪郭を表す特徴点についても効率的に精度良く検出することができる。
なお、上下瞼の特徴点の検出は、目頭と目尻とを結ぶ線分と交差する、上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの瞼基準線分上の各画素に対して、その瞼基準線分が対応する特徴点に対して定義された、その特徴点を識別するための1次元の輝度プロファイルを算出するとともに、その輝度プロファイルに基づいて各画素のそれぞれが、その特徴点を示す画素であるか否かを識別する処理を、設定されたすべての瞼基準線分に対して行うものであり、また、上下唇の特徴点の検出は、口角同士を結ぶ線分上と交差する、上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの唇基準線分上の各画素に対して、その唇基準線分が対応する特徴点に対して定義された、その特徴点を識別するための1次元の輝度プロファイルを算出するとともに、その輝度プロファイルに基づいて各画素のそれぞれが、その特徴点を示す画素であるか否かを識別する処理を、設定された全ての唇基準線分に対して行うものであるから、上下瞼の特徴点や上下唇の特徴点を、比較的許容度が大きい画像パターンのような2次元的な情報ではなく、比較的許容度の小さい1次元の輝度プロファイルという1次元的な情報を用いて検出することで、位置を特定し難い上下瞼の特徴点や上下唇の特徴点を精度良く検出することができる。
また、各部位の検出において、サンプル画像を用いたマシンラーニングの手法により学習を行って得られた、識別器と識別条件を用いて検出を行っているので、精度が良い上に、ロバスト性も高い。またこの学習に用いる所定の部位であることが分かっている複数のサンプル画像として、その部位の大きさや位置が所定の許容度を持つように正規化されたものを用いているので、この許容度を調整することで、所望の検出精度やロバスト性を得ることができる。
また、本実施形態では、上下唇の輪郭の中点を示す特徴点として、唇の内側輪郭の中点を示す特徴点としており、顔の肌と唇との境界が分かり難いことから輪郭が定まり難い外側輪郭の場合に比較して、唇の輪郭の情報をより明確に抽出することが可能である。
なお、本実施形態では、画像に含まれる顔として、正面を向いた顔を例に説明したが、横顔や斜め顔に対しても、同様に顔特徴点を検出することが可能である。
以上、本発明の望ましい実施形態について説明したが、本発明の顔特徴点検出方法および装置並びにそのためのプログラムは、上述した実施形態に限られることなく、本発明の主旨を逸脱しない限り、様々な増減、変化を加えることができる。
例えば、上述した実施形態において、顔特徴点を特定するための輝度分布の特徴量として輝度プロファイルを用いたが、輝度プロファイルに限られることがなく、輝度プロファイルの微分値など、顔特徴点を特定することができるいかなる輝度分布の特徴量を用いてもよい。
また、上述した実施形態において、識別器としてヒストグラムを用いたが、マシンラーニング手法に用いられるいかなる識別器を用いてもよい。
本発明の実施形態となる顔特徴点検出装置の構成を示すブロック図 顔検出部20の構成を示すブロック図 目検出部30の構成を示すブロック図 目の中心位置を説明するための図 (a)は水平方向のエッジ検出フィルタを示す図、(b)は垂直方向のエッジ検出フィルタを示す図 勾配ベクトルの算出を説明するための図 (a)は人物の顔を示す図、(b)は(a)に示す人物の顔の目および口付近の勾配ベクトルを示す図 (a)は正規化前の勾配ベクトルの大きさのヒストグラムを示す図、(b)は正規化後の勾配ベクトルの大きさのヒストグラムを示す図、(c)は5値化した勾配ベクトルの大きさのヒストグラムを示す図、(d)は正規化後の5値化した勾配ベクトルの大きさのヒストグラムを示す図 参照データE1の学習に用いられる顔であることが分かっているサンプル画像の例を示す図 参照データE2の学習に用いられる顔であることが分かっているサンプル画像の例を示す図 顔の回転を説明するための図 顔、目、目頭・目尻、口角、瞼特徴点および唇特徴点の検出に用いられる参照データの学習手法を示すフローチャート 識別器の導出方法を示す図 識別対象画像の段階的な変形を説明するための図 目頭・目尻検出部40の構成を示すブロック図 口角検出部50の構成を示すブロック図 参照データE3の学習に用いられる顔であることが分かっているサンプル画像の例を示す図 参照データE4の学習に用いられる顔であることが分かっているサンプル画像の例を示す図 瞼特徴点検出部70の構成を示すブロック図 唇特徴点検出部80の構成を示すブロック図 上瞼の中点を示す特徴点に対して定義される輝度プロファイルを説明するための図 上唇の中点を示す特徴点に対して定義される輝度プロファイルを説明するための図 顔特徴点検出装置において行われる処理を示すフローチャート
符号の説明
10 画像入力部
20 顔検出部
22 第1の特徴量算出部
24 顔検出実行部
30 目検出部
32 第2の特徴量算出部
34 目検出実行部
40 目頭・目尻検出部
42 第3の特徴量算出部
44 目頭・目尻検出実行部
50 口角検出部
52 第4の特徴量算出部
54 口角検出実行部
60 第1のデータベース
70 瞼特徴点検出部
72 第1の検索エリア設定部
74 第1の輝度プロファイル算出部
76 第1の識別部
80 唇特徴点検出部
82 第2の検索エリア設定部
84 第2の輝度プロファイル算出部
86 第2の識別部
90 第2のデータベース
100 出力部

Claims (24)

  1. 検出対象の画像に含まれる顔を検出し、
    該顔の検出情報を用いて、該顔を構成する目を検出し、
    該目の検出情報を用いて、該目の目頭と目尻を検出し、
    前記目頭と目尻の位置情報を用いて、前記目の輪郭を表す上下瞼の特徴点を検出する顔特徴点検出方法であって、
    前記上下瞼の特徴点の検出が、前記目頭と前記目尻とを結ぶ線分と交差する、前記上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの前記瞼基準線分上の各画素に対して、該瞼基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する瞼特徴点識別処理を、前記設定されたすべての瞼基準線分に対して行うものであることを特徴とする顔特徴点検出方法。
  2. 前記瞼特徴点識別処理が、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることを特徴とする請求項1記載の顔特徴点検出方法。
  3. 前記顔の検出が、
    前記検出対象画像においてマスク画像を設定し、顔の識別に用いる第1の特徴量を前記マスク画像から算出し、
    前記顔であることが分かっている、両目の位置関係が所定の許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記第1の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第1の特徴量と該第1の特徴量の各々に対応する識別条件とを予め規定する第1の参照データを、前記マスク画像を前記所定の許容度に応じた変化量にて段階的に変形させつつ前記マスク画像から算出された第1の特徴量に基づいて参照して、前記マスク画像に顔が含まれているか否かを識別するものであり、
    前記目の検出が、
    顔の識別に用いる第2の特徴量を、前記顔の領域内の画像から算出し、
    前記顔であることが分かっている、両目の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第2の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第2の特徴量と該第2の特徴量の各々に対応する識別条件とを予め規定する第2の参照データを、前記顔の領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記顔の領域内の画像から算出された第2の特徴量に基づいて参照して、前記顔を構成する目の位置を識別するものであり、
    前記目頭と目尻の検出が、
    目の識別に用いる第3の特徴量を、前記目を含む領域内の画像から算出し、
    前記目であることが分かっている、目頭と目尻の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記目でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第3の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第3の特徴量と該第3の特徴量の各々に対応する識別条件とを予め規定する第3の参照データを、前記目を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記目の目頭と目尻の位置を識別するものであることを特徴とする請求項1または2項記載の顔特徴点検出方法。
  4. 前記目頭と目尻の検出が、
    前記目であることが分かっている複数のサンプル画像として、左目または右目のいずれか一方の目の画像のみを用いて学習することにより得られた第3の参照データを、前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が同じである目の目頭と目尻を識別し、前記第3の参照データを、前記目を含む領域内の画像を左右反転させた画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が異なる目の目頭と目尻を識別するものであることを特徴とする請求項3記載の顔特徴点検出方法。
  5. 検出対象の画像に含まれる顔を検出し、
    該顔の検出情報を用いて、該顔を構成する目を検出し、
    該目の検出情報を用いて、該目と所定の位置関係にある、前記顔を構成する口の左右の口角を検出し、
    前記左右の口角の位置情報を用いて、前記口の輪郭を表す上下唇の特徴点を検出する顔特徴点検出方法であって、
    前記上下唇の特徴点の検出が、
    前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分の設定と、
    該唇基準線分上の各画素に対し、前記特徴点を示す画素であるか否かを識別する唇特徴点識別処理を施すことにより行われることを特徴とする顔特徴点検出方法。
  6. 前記上下唇の特徴点の検出が、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの前記唇基準線分上の各画素に対して、該唇基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する唇特徴点識別処理を、前記設定されたすべての唇基準線分に対して行うものであることを特徴とする請求項5記載の顔特徴点検出方法。
  7. 前記唇特徴点識別処理が、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることを特徴とする請求項6記載の顔特徴点検出方法。
  8. 前記左右の口角の検出が、
    口の識別に用いる第4の特徴量を、前記口を含む領域内の画像から算出し、
    前記口であることが分かっている、左口角と右口角の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記口でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第4の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第4の特徴量と該第4の特徴量の各々に対応する識別条件とを予め規定する第4の参照データを、前記口を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記口を含む領域内の画像から算出された第4の特徴量に基づいて参照して、前記口の左口角と右口角の位置を識別するものであることを特徴とする請求項5から7いずれか1項記載の顔特徴点検出方法。
  9. 検出対象の画像に含まれる顔を検出する顔検出手段と、
    該顔の検出情報を用いて、該顔を構成する目を検出する目検出手段と、
    該目の検出情報を用いて、該目の目頭と目尻を検出する目頭・目尻検出手段と、
    前記目頭と目尻の位置情報を用いて、前記目の輪郭を表す上下瞼の特徴点を検出する瞼特徴点検出手段とを備え、
    前記瞼特徴点検出手段が、前記目頭と前記目尻とを結ぶ線分と交差する、前記上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの前記瞼基準線分上の各画素に対して、該瞼基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する瞼特徴点識別処理を、前記設定されたすべての瞼基準線分に対して行うものであることを特徴とする顔特徴点検出装置。
  10. 前記瞼特徴点識別処理が、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることを特徴とする請求項9記載の顔特徴点検出装置。
  11. 前記顔検出手段が、
    前記検出対象画像においてマスク画像を設定し、顔の識別に用いる第1の特徴量を前記マスク画像から算出する第1の特徴量算出手段と、
    前記顔であることが分かっている、両目の位置関係が所定の許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記第1の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第1の特徴量と該第1の特徴量の各々に対応する識別条件とを予め規定する第1の参照データを、前記マスク画像を前記所定の許容度に応じた変化量にて段階的に変形させつつ前記マスク画像から算出された第1の特徴量に基づいて参照して、前記マスク画像に顔が含まれているか否かを識別する第1の識別手段とを備えたものであり、
    前記目検出手段が、
    顔の識別に用いる第2の特徴量を、前記顔の領域内の画像から算出する第2の特徴量算出手段と、
    前記顔であることが分かっている、両目の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第2の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第2の特徴量と該第2の特徴量の各々に対応する識別条件とを予め規定する第2の参照データを、前記顔の領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記顔の領域内の画像から算出された第2の特徴量に基づいて参照して、前記顔を構成する目の位置を識別する第2の識別手段とを備えたものであり、
    前記目頭・目尻検出手段が、
    目の識別に用いる第3の特徴量を、前記目を含む領域内の画像から算出する第3の特徴量算出手段と、
    前記目であることが分かっている、目頭と目尻の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記目でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第3の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第3の特徴量と該第3の特徴量の各々に対応する識別条件とを予め規定する第3の参照データを、前記目を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記目の目頭と目尻の位置を識別する第3の識別手段とを備えたものであることを特徴とする請求項9または10記載の顔特徴点検出装置。
  12. 前記目頭・目尻検出手段が、
    前記目であることが分かっている複数のサンプル画像として、左目または右目のいずれか一方の目の画像のみを用いて学習することにより得られた第3の参照データを、前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が同じである目の目頭と目尻を識別し、前記第3の参照データを、前記目を含む領域内の画像を左右反転させた画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が異なる目の目頭と目尻を識別するものであることを特徴とする請求項11記載の顔特徴点検出装置。
  13. 検出対象の画像に含まれる顔を検出する顔検出手段と、
    該顔の検出情報を用いて、該顔を構成する目を検出する目検出手段と、
    前記目の検出情報を用いて、該目と所定の位置関係にある、前記顔を構成する口の左右の口角を検出する口角検出手段と、
    前記左右の口角の位置情報を用いて、前記口の輪郭を表す上下唇の特徴点を検出する唇特徴点検出手段とを備え、
    前記唇特徴点検出手段が、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、該唇基準線分上の各画素に対し、前記特徴点を示す画素であるか否かを識別する唇特徴点識別処理を行うものであることを特徴とする顔特徴点検出装置。
  14. 前記唇特徴点検出手段が、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの前記唇基準線分上の各画素に対して、該唇基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する唇特徴点識別処理を、前記設定されたすべての唇基準線分に対して行うものであることを特徴とする請求項13記載の顔特徴点検出装置。
  15. 前記唇特徴点識別処理が、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることを特徴とする請求項14記載の顔特徴点検出装置。
  16. 前記口角検出手段が、
    口の識別に用いる第4の特徴量を、前記口を含む領域内の画像から算出する第4の特徴量算出手段と、
    前記口であることが分かっている、左口角と右口角の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記口でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第4の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第4の特徴量と該第4の特徴量の各々に対応する識別条件とを予め規定する第4の参照データを、前記口を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記口を含む領域内の画像から算出された第4の特徴量に基づいて参照して、前記口の左口角と右口角の位置を識別する第4の識別手段とを備えたものであることを特徴とする請求項13から15いずれか1項記載の顔特徴点検出装置。
  17. コンピュータを、
    検出対象の画像に含まれる顔を検出する顔検出手段と、
    該顔の検出情報を用いて、該顔を構成する目を検出する目検出手段と、
    該目の検出情報を用いて、該目の目頭と目尻を検出する目頭・目尻検出手段と、
    前記目頭と目尻の位置情報を用いて、前記目の輪郭を表す上下瞼の特徴点を検出する瞼特徴点検出手段として機能させることにより、
    前記コンピュータを顔特徴点検出装置として機能させるプログラムであって、
    前記瞼特徴点検出手段が、前記目頭と前記目尻とを結ぶ線分と交差する、前記上下瞼の特徴点に対応する少なくとも1つの瞼基準線分を設定し、1つの前記瞼基準線分上の各画素に対して、該瞼基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する瞼特徴点識別処理を、前記設定されたすべての瞼基準線分に対して行うものであることを特徴とするプログラム。
  18. 前記瞼特徴点識別処理が、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることを特徴とする請求項17記載のプログラム。
  19. 前記顔検出手段が、
    前記検出対象画像においてマスク画像を設定し、顔の識別に用いる第1の特徴量を前記マスク画像から算出する第1の特徴量算出手段と、
    前記顔であることが分かっている、両目の位置関係が所定の許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数のサンプル画像群に含まれる前記第1の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第1の特徴量と該第1の特徴量の各々に対応する識別条件とを予め規定する第1の参照データを、前記マスク画像を前記所定の許容度に応じた変化量にて段階的に変形させつつ前記マスク画像から算出された第1の特徴量に基づいて参照して、前記マスク画像に顔が含まれているか否かを識別する第1の識別手段とを備えたものであり、
    前記目検出手段が、
    顔の識別に用いる第2の特徴量を、前記顔の領域内の画像から算出する第2の特徴量算出手段と、
    前記顔であることが分かっている、両目の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記顔でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第2の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第2の特徴量と該第2の特徴量の各々に対応する識別条件とを予め規定する第2の参照データを、前記顔の領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記顔の領域内の画像から算出された第2の特徴量に基づいて参照して、前記顔を構成する目の位置を識別する第2の識別手段とを備えたものであり、
    前記目頭・目尻検出手段が、
    目の識別に用いる第3の特徴量を、前記目を含む領域内の画像から算出する第3の特徴量算出手段と、
    前記目であることが分かっている、目頭と目尻の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記目でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第3の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第3の特徴量と該第3の特徴量の各々に対応する識別条件とを予め規定する第3の参照データを、前記目を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記目の目頭と目尻の位置を識別する第3の識別手段とを備えたものであることを特徴とする請求項17または18記載のプログラム。
  20. 前記目頭・目尻検出手段が、
    前記目であることが分かっている複数のサンプル画像として、左目または右目のいずれか一方の目の画像のみを用いて学習することにより得られた第3の参照データを、前記目を含む領域内の画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が同じである目の目頭と目尻を識別し、前記第3の参照データを、前記目を含む領域内の画像を左右反転させた画像から算出された第3の特徴量に基づいて参照して、前記一方の目と左右の別が異なる目の目頭と目尻を識別するものであることを特徴とする請求項19記載の顔特徴点検出方法。
  21. コンピュータを、
    検出対象の画像に含まれる顔を検出する顔検出手段と、
    該顔の検出情報を用いて、該顔を構成する目を検出する目検出手段と、
    前記目の検出情報を用いて、該目と所定の位置関係にある、前記顔を構成する口の左右の口角を検出する口角検出手段と、
    前記左右の口角の位置情報を用いて、前記口の輪郭を表す上下唇の特徴点を検出する唇特徴点検出手段として機能させるプログラムであって、
    前記唇特徴点検出手段が、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、該唇基準線分上の各画素に対し、前記特徴点を示す画素であるか否かを識別する唇特徴点識別処理を行うものであることを特徴とするプログラム。
  22. 前記唇特徴点検出手段が、前記左右の口角を結ぶ線分と交差する、前記上下唇の特徴点に対応する少なくとも1つの唇基準線分を設定し、1つの前記唇基準線分上の各画素に対して、該唇基準線分が対応する特徴点に対して定義された、該特徴点を識別するための1次元の輝度分布の特徴量を算出するとともに、該輝度分布の特徴量に基づいて前記各画素のそれぞれが、該特徴点を示す画素であるか否かを識別する唇特徴点識別処理を、前記設定されたすべての唇基準線分に対して行うものであることを特徴とする請求項21記載のプログラム。
  23. 前記唇特徴点識別処理が、複数の顔のサンプル画像のそれぞれにおける、前記特徴点であることが分かっている位置の前記輝度分布の特徴量と、前記特徴点でないことが分かっている位置の前記輝度分布の特徴量とを、マシンラーニングの手法により予め学習することにより得られた前記輝度分布の特徴量に対応する識別条件に基づいて行うものであることを特徴とする請求項22記載のプログラム。
  24. 前記口角検出手段が、
    口の識別に用いる第4の特徴量を、前記口を含む領域内の画像から算出する第4の特徴量算出手段と、
    前記口であることが分かっている、左口角と右口角の位置関係が前記所定の許容度よりも小さい小許容度を持って正規化された複数のサンプル画像と、前記口でないことが分かっている複数のサンプル画像とからなる多数の小許容度サンプル画像群に含まれる前記第4の特徴量をマシンラーニングの手法により予め学習することにより得られた、前記第4の特徴量と該第4の特徴量の各々に対応する識別条件とを予め規定する第4の参照データを、前記口を含む領域内の画像を前記小許容度に応じた変化量にて段階的に変形させつつ前記口を含む領域内の画像から算出された第4の特徴量に基づいて参照して、前記口の左口角と右口角の位置を識別する第4の識別手段とを備えたものであることを特徴とする請求項21から23いずれか1項記載のプログラム。
JP2006033554A 2006-02-10 2006-02-10 顔特徴点検出方法および装置並びにプログラム Active JP4414401B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006033554A JP4414401B2 (ja) 2006-02-10 2006-02-10 顔特徴点検出方法および装置並びにプログラム
US12/278,616 US8254644B2 (en) 2006-02-10 2007-02-07 Method, apparatus, and program for detecting facial characteristic points
PCT/JP2007/052541 WO2007091714A1 (en) 2006-02-10 2007-02-07 Method, apparatus, and program for detecting facial characteristic points
US13/534,817 US8577099B2 (en) 2006-02-10 2012-06-27 Method, apparatus, and program for detecting facial characteristic points

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006033554A JP4414401B2 (ja) 2006-02-10 2006-02-10 顔特徴点検出方法および装置並びにプログラム

Publications (2)

Publication Number Publication Date
JP2007213377A JP2007213377A (ja) 2007-08-23
JP4414401B2 true JP4414401B2 (ja) 2010-02-10

Family

ID=38345302

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006033554A Active JP4414401B2 (ja) 2006-02-10 2006-02-10 顔特徴点検出方法および装置並びにプログラム

Country Status (3)

Country Link
US (2) US8254644B2 (ja)
JP (1) JP4414401B2 (ja)
WO (1) WO2007091714A1 (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7920725B2 (en) * 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP5262243B2 (ja) * 2008-03-31 2013-08-14 アイシン精機株式会社 眼開閉判別装置、及びプログラム
JP2010020594A (ja) * 2008-07-11 2010-01-28 Kddi Corp 瞳画像認識装置
JP5221436B2 (ja) 2009-04-02 2013-06-26 トヨタ自動車株式会社 顔特徴点検出装置及びプログラム
CN102667861A (zh) 2010-02-22 2012-09-12 丰田自动车株式会社 图像处理装置以及睡意判断装置
JP5929896B2 (ja) * 2011-03-17 2016-06-08 日本電気株式会社 画像認識システム、画像認識方法および画像認識用プログラム
US8983147B2 (en) * 2011-07-11 2015-03-17 Toyota Jidosha Kabushiki Kaisha Eyelid detection device
US20130243270A1 (en) * 2012-03-16 2013-09-19 Gila Kamhi System and method for dynamic adaption of media based on implicit user input and behavior
JP6547244B2 (ja) * 2014-06-30 2019-07-24 カシオ計算機株式会社 動作処理装置、動作処理方法及びプログラム
KR102342167B1 (ko) * 2015-01-22 2021-12-22 에스케이케미칼 주식회사 고투명 고내열 폴리카보네이트 에스테르의 신규 제조방법
US11783524B2 (en) * 2016-02-10 2023-10-10 Nitin Vats Producing realistic talking face with expression using images text and voice
US10082866B2 (en) 2016-04-12 2018-09-25 International Business Machines Corporation Gaze point detection using dynamic facial reference points under varying lighting conditions
CN106203262A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于眼睑曲线相似度与眼型指数的眼型分类方法
CN111178117B (zh) * 2018-11-09 2023-09-22 浙江宇视科技有限公司 数据处理方法及装置
CN111488836B (zh) * 2020-04-13 2023-06-02 广州市百果园信息技术有限公司 人脸轮廓修正方法、装置、设备及存储介质
JPWO2022059066A1 (ja) 2020-09-15 2022-03-24

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0546743A (ja) * 1991-08-09 1993-02-26 Matsushita Electric Ind Co Ltd 個人識別装置
JP2973676B2 (ja) * 1992-01-23 1999-11-08 松下電器産業株式会社 顔画像特徴点抽出装置
US5680481A (en) * 1992-05-26 1997-10-21 Ricoh Corporation Facial feature extraction method and apparatus for a neural network acoustic and visual speech recognition system
KR0158038B1 (ko) * 1993-03-29 1998-12-15 모리시다 요오이찌 개인식별장치
US6181805B1 (en) * 1993-08-11 2001-01-30 Nippon Telegraph & Telephone Corporation Object image detecting method and system
JP4469476B2 (ja) * 2000-08-09 2010-05-26 パナソニック株式会社 眼位置検出方法および眼位置検出装置
JP3993029B2 (ja) 2002-06-24 2007-10-17 デジタルファッション株式会社 化粧シミュレーション装置、化粧シミュレーション方法、化粧シミュレーションプログラム及びそのプログラムを記録した記録媒体
JP2004341844A (ja) 2003-05-15 2004-12-02 Digital Fashion Ltd エッジ抽出装置、エッジ抽出プログラム及びエッジ抽出方法
JP2005018358A (ja) 2003-06-25 2005-01-20 Nec Soft Ltd 顔画像登録抽出システム、顔画像登録抽出方法、およびコンピュータプログラム
EP3358501B1 (en) * 2003-07-18 2020-01-01 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP3811474B2 (ja) 2003-08-04 2006-08-23 財団法人ソフトピアジャパン 顔部品位置検出方法及び顔部品位置検出装置
JP2005056231A (ja) 2003-08-06 2005-03-03 Matsushita Electric Ind Co Ltd 画像処理装置
KR100682889B1 (ko) * 2003-08-29 2007-02-15 삼성전자주식회사 영상에 기반한 사실감 있는 3차원 얼굴 모델링 방법 및 장치
JP4493448B2 (ja) 2003-09-09 2010-06-30 富士フイルム株式会社 対象物識別装置および方法並びにプログラム
US7920725B2 (en) 2003-09-09 2011-04-05 Fujifilm Corporation Apparatus, method, and program for discriminating subjects
JP4449723B2 (ja) * 2004-12-08 2010-04-14 ソニー株式会社 画像処理装置、画像処理方法、およびプログラム
JP4375420B2 (ja) * 2007-03-26 2009-12-02 株式会社デンソー 眠気警報装置、及びプログラム

Also Published As

Publication number Publication date
US20120269443A1 (en) 2012-10-25
WO2007091714A1 (en) 2007-08-16
US20090010544A1 (en) 2009-01-08
US8577099B2 (en) 2013-11-05
US8254644B2 (en) 2012-08-28
JP2007213377A (ja) 2007-08-23

Similar Documents

Publication Publication Date Title
JP4414401B2 (ja) 顔特徴点検出方法および装置並びにプログラム
US7035461B2 (en) Method for detecting objects in digital images
CN109952594B (zh) 图像处理方法、装置、终端及存储介质
US7599549B2 (en) Image processing method, image processing apparatus, and computer readable medium, in which an image processing program is recorded
JP4234381B2 (ja) 顔の特徴を位置確認するための方法及びコンピュータープログラム製品
US7920725B2 (en) Apparatus, method, and program for discriminating subjects
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
JP2005242640A (ja) 対象物検出方法および装置並びにプログラム
CN111539911B (zh) 一种口呼吸面容识别方法、设备和存储介质
CN104794693A (zh) 一种人脸关键区域自动检测蒙版的人像优化方法
JP4795864B2 (ja) 特徴点検出装置および方法並びにプログラム
JP2006164133A (ja) 画像処理方法および装置並びにプログラム
JP4690190B2 (ja) 画像処理方法および装置並びにプログラム
JP4749884B2 (ja) 顔判別装置の学習方法、顔判別方法および装置並びにプログラム
JP4510556B2 (ja) 対象物識別装置および方法並びにプログラム
JP2003044853A (ja) 顔検出装置、顔向き検出装置、部分画像抽出装置及びそれらの方法
JP4510562B2 (ja) 円中心位置検出方法および装置並びにプログラム
JP4493448B2 (ja) 対象物識別装置および方法並びにプログラム
JP4541806B2 (ja) 対象物識別装置および方法並びにプログラム
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2005250771A (ja) 対象物識別装置および方法並びにプログラム
JP2005250773A (ja) 対象物識別装置および方法並びにプログラム
CN111160418B (zh) 一种模型45度主视图自动分类的方法
CN115131368A (zh) 图像处理方法及装置
JP2005250775A (ja) 対象物識別装置および方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080716

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091016

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091117

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091119

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4414401

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121127

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131127

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250