JP4655235B2 - 情報処理装置および方法、並びにプログラム - Google Patents

情報処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP4655235B2
JP4655235B2 JP2008065229A JP2008065229A JP4655235B2 JP 4655235 B2 JP4655235 B2 JP 4655235B2 JP 2008065229 A JP2008065229 A JP 2008065229A JP 2008065229 A JP2008065229 A JP 2008065229A JP 4655235 B2 JP4655235 B2 JP 4655235B2
Authority
JP
Japan
Prior art keywords
face
face part
range
predetermined
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008065229A
Other languages
English (en)
Other versions
JP2009223459A (ja
Inventor
武史 大橋
浩太郎 佐部
健一 日台
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2008065229A priority Critical patent/JP4655235B2/ja
Priority to US12/369,241 priority patent/US20090232363A1/en
Priority to EP09155087A priority patent/EP2101283A2/en
Priority to CN200910128531A priority patent/CN101533472A/zh
Publication of JP2009223459A publication Critical patent/JP2009223459A/ja
Application granted granted Critical
Publication of JP4655235B2 publication Critical patent/JP4655235B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、情報処理装置および方法、並びにプログラムに関し、特に、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することができるようにする情報処理装置および方法、並びにプログラムに関する。
従来、顔検出において、特徴点としての顔の器官を検出する様々な手法が提案されている。
例えば、両瞳、鼻孔、口端などの4点以上の基準特徴点を検出し、その検出結果を顔の3次元形状上に当てはめ、口中点の検出範囲を決定する手法が提案されている(例えば、特許文献1参照)。
また、許容度の大きい特徴量検出器で顔の特徴点を暫定的に決定し、その特徴点同士の位置関係から、特徴点の検索範囲を決定し、許容度の小さい特徴量検出器で、最終的な特徴点を決定する手法が提案されている(例えば、特許文献2参照)。
特開2007−241579号公報 特開2008−3749号公報
しかしながら、特許文献1の手法では、基準特徴点の検出に失敗した場合、口中点の検出範囲を適切に決定できない恐れがあり、基準特徴点の検出を正確に行うことができない。また、特許文献2の手法でも、1回目の特徴点の決定に失敗すると、特徴点の検索範囲を適切に決定できない恐れがあり、特徴点の検出を正確に行うことができない。
本発明は、このような状況に鑑みてなされたものであり、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することができるようにするものである。
本発明の一側面の情報処理装置は、顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角を検出する顔検出手段と、前記顔検出手段によって検出された前記顔の向きを表す情報のうちの前記ピッチ角および前記ヨー角の関数として前記ロール角の分だけ補正された前記顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布を生成する重み分布生成手段と、前記重み分布を基に、重みの値が所定の値以上である位置の範囲を設定する範囲設定手段と、前記範囲内の前記顔画像における所定の領域毎に、予め学習された顔の器官の画像と前記範囲内の前記顔画像における前記所定の領域とを比較することで、前記所定の顔の器官であるか否かを評価する第1の評価値を画素毎に算出する第1の算出手段と、前記範囲内の前記第1の評価値が所定の閾値以上となる前記所定の領域を、前記所定の顔の器官として特定する顔器官特定手段とを備える。
前記情報処理装置には、予め設定された前記範囲を示す範囲情報を、前記ピッチ角および前記ヨー角に対応付けて記憶する記憶手段をさらに設け、前記範囲設定手段には、前記ピッチ角および前記ヨー角に応じて、前記記憶手段に記憶された前記範囲情報を選択させることができる。
前記情報処理装置には、前記重み分布に基づいて前記第1の評価値を重み付けした第2の評価値を算出する第2の算出手段をさらに設け、前記顔器官特定手段には、前記第2の評価値に基づいて、前記所定の領域を、前記所定の顔の器官として特定させることができる。
前記所定の領域は、画素単位の領域とすることができる。
前記重み分布は、前記顔の向きを決定する顔の角度の関数とすることができる。
本発明の一側面の情報処理方法は、顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角を検出する顔検出ステップと、前記顔検出ステップの処理によって検出された前記顔の向きを表す情報のうちの前記ピッチ角および前記ヨー角の関数として前記ロール角の分だけ補正された前記顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布を生成する重み分布生成ステップと、前記重み分布を基に、重みの値が所定の値以上である位置の範囲を設定する範囲設定ステップと、前記範囲内の前記顔画像における所定の領域毎に、予め学習された顔の器官の画像と前記範囲内の前記顔画像における前記所定の領域とを比較することで、前記所定の顔の器官であるか否かを評価する評価値を画素毎に算出する算出ステップと、前記範囲内の前記評価値が所定の閾値以上となる前記所定の領域を、前記所定の顔の器官として特定する顔器官特定ステップとを含む。
本発明の一側面のプログラムは、顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角を検出する顔検出ステップと、前記顔検出ステップの処理によって検出された前記顔の向きを表す情報のうちの前記ピッチ角および前記ヨー角の関数として前記ロール角の分だけ補正された前記顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布を生成する重み分布生成ステップと、前記重み分布を基に、重みの値が所定の値以上である位置の範囲を設定する範囲設定ステップと、前記範囲内の前記顔画像における所定の領域毎に、予め学習された顔の器官の画像と前記範囲内の前記顔画像における前記所定の領域とを比較することで、前記所定の顔の器官であるか否かを評価する評価値を画素毎に算出する算出ステップと、前記範囲内の前記評価値が所定の閾値以上となる前記所定の領域を、前記所定の顔の器官として特定する顔器官特定ステップとを含む処理をコンピュータに実行させる。
本発明の一側面においては、顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角が検出され、検出された顔の向きを表す情報のうちのピッチ角およびヨー角の関数としてロール角の分だけ補正された顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布が生成され、重み分布を基に、重みの値が所定の値以上である位置の範囲が設定され、範囲内の顔画像における所定の領域毎に、予め学習された顔の器官の画像と範囲内の顔画像における所定の領域とを比較することで、所定の顔の器官であるか否かを評価する評価値が画素毎に算出され、範囲内の評価値が所定の閾値以上となる所定の領域が、所定の顔の器官として特定される。
本発明の一側面によれば、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することができる。
以下、本発明の実施の形態について図を参照して説明する。
図1は、本発明を適用した顔パーツ検出装置の一実施の形態の構成例を示す図である。
図1の顔パーツ検出装置11は、入力された画像に含まれる顔を検出し、その顔の顔画像において、所定の顔の器官である顔パーツを検出する。顔パーツ検出装置11は、まず、人の顔を検出するものであるが、人以外の動物の顔や、人を模した人形の顔なども同様に検出することができる。また、顔パーツは、目、鼻、口などの顔の器官自体を指すものとするが、顔の器官の中心点や端点、輪郭等であってもよい。
図1の顔パーツ検出装置11は、画像入力部41、顔検出部42、顔画像回転補正部43、顔パーツ重みマップ生成部44、顔パーツ検出部45、重み付け部46、および顔パーツ特定部47から構成される。また、顔パーツ重みマップ生成部44は、記憶部51および計算部52を備えている。
画像入力部41は、例えば、ビデオカメラ等で撮像された画像や、リムーバブルメディア等の図示せぬ記録媒体に予め記録されている画像を入力画像として取得し、顔検出部42に供給する。
顔検出部42は、画像入力部41から供給された入力画像から、顔および顔の向きを検出し、顔を検出する領域である顔検出領域の位置および大きさに基づいて顔画像を抽出して、顔の向きを表す情報とともに、顔画像回転補正部43および顔パーツ重みマップ生成部44に供給する。
具体的には、顔検出部42は、特開2005−284487号公報、特開2007−249852号公報、および「佐部浩太郎、日台健一、“ピクセル差分特徴を用いた実時間任意姿勢顔検出器の学習”、第10回画像センシングシンポジウム講演論文集、pp547-552,2004年」等に提案されているように、様々な方向を向いている顔の顔画像を学習しておくことで、顔を検出するとともに、顔の向きを検出する。
ここで、顔の向きは、図2に示されるように、ピッチ角、ヨー角、およびロール角によって表される。ピッチ角は、図2の左部に示されるように、人の両目の中心を結んだ線と平行で、ほぼ人の頭の中心を通る軸61を中心とする上下の角度であり、例えば、上を向くと正、下を向くと負とされる。ヨー角は、図2の左部に示されるように、軸61と垂直な軸であって、ほぼ人の頭の中心を垂直に通る軸62を中心とした角度であり、例えば、正面が0度とされ、右方向が負、左方向が正となるように定義される。ロール角は、図2の右部に示されるように、軸61と軸62と直交する軸63を中心として回転する角度を表し、軸61が水平になる角度が0度とされる。
顔検出部42は、所定の大きさの顔検出領域で抽出された、所定の角度のヨー角とピッチ角を有する人の顔の顔画像を学習し、画像入力部41からの入力画像において、その顔検出領域内と同じ大きさの領域の画像と、学習した顔画像とを比較し、顔であるか否かを評価することで、顔および顔の向きを検出する。
顔検出部42が学習する顔画像の顔の向きは、ある範囲の角度毎に分類されており、顔検出部42は、顔の向きを、例えば、正面を向いた顔を基準として、ヨー角が、−45度乃至−15度の範囲、−15度乃至+15度の範囲、+15度乃至+45度の範囲などの大まかな範囲の角度として検出する。また、この検出結果について、顔検出領域の周辺の領域で同様にして検出された複数の検出結果を平均することで、より正確な角度を得るようにすることができる。なお、顔検出部42は、上述した手法に限らず、他の手法によって、顔および顔の向きを検出するようにしてもよい。
顔画像回転補正部43は、顔検出部42から供給された顔画像を、顔の向きを表す情報の1つであるロール角の分だけ、回転(回転補正)し、顔パーツ検出部45に供給する。
顔パーツ重みマップ生成部44は、顔検出部42から供給された顔の向きを表す情報であるピッチ角およびヨー角に応じて、顔画像において所定の顔パーツが存在する可能性の高い位置の画素に対して、より高い重み付けをするための顔パーツ重みマップを生成し、重み付け部46に供給する。なお、顔パーツ重みマップの詳細は、後述する。
顔パーツ重みマップ生成部44の記憶部51は、顔検出部42からの顔画像の大きさと、正面を向いた(ロール角、ピッチ角、ヨー角がいずれも0度である)顔の顔画像における顔パーツの種類毎に、顔パーツ重みマップを記憶している。すなわち、同じ大きさの顔画像の顔パーツ重みマップであっても、右目の顔パーツ重みマップと左目の顔パーツ重みマップとでは異なる。なお、記憶部51に記憶されている顔パーツ重みマップを、以下、適宜、基本顔パーツ重みマップと称する。
顔パーツ重みマップ生成部44の計算部52は、記憶部51の基本顔パーツ重みマップを基に、顔検出部42からのピッチ角およびヨー角に応じた顔パーツ重みマップを計算により求める。
顔パーツ検出部45は、顔画像回転補正部43からの顔画像において、顔パーツであるか否かを評価するための評価値である検出スコアを画素毎に算出し、重み付け部46に供給する。
具体的には、例えば、顔パーツ検出部45は、顔検出部42と同様にして、所定の大きさの領域で抽出された顔パーツを学習し、顔画像において、所定の大きさの領域の画像と、学習した顔パーツの画像とを比較することで、その所定の大きさの領域内の画素についての検出スコアを算出する。その所定の大きさの領域内の画素についての検出スコアが高ければ、その領域の画像は、検出しようとしている顔パーツの候補とされる。
重み付け部46は、顔パーツ検出部45からの画素毎の検出スコアに、顔パーツ重みマップ生成部44からの顔パーツ重みマップに基づいて重み付けし、その重み付けされた画素毎の検出スコアを顔パーツ特定部47に供給する。
顔パーツ特定部47は、重み付け部46からの、顔画像の全ての画素についての検出スコアにおいて、所定の閾値以上の検出スコアの画素を、顔パーツを構成する画素として特定する。
次に、図3のフローチャートを参照して、顔パーツ検出装置11の顔パーツ検出処理について説明する。
顔パーツ検出装置11においては、画像入力部41が入力画像を取得し、顔検出部42および顔画像回転補正部43に供給すると、顔パーツ検出処理が開始される。
ステップS11において、顔検出部42は、画像入力部41から供給された入力画像から顔、並びに顔の向きを決定するロール角、ピッチ角、およびヨー角を検出する。顔検出部42は、顔検出領域の位置および大きさに基づいて顔画像を抽出し、ロール角とともに顔画像回転補正部43に供給する。また、顔検出部42は、抽出した顔画像の大きさを、ピッチ角およびヨー角とともに顔パーツ重みマップ生成部44に供給する。
ステップS12において、顔画像回転補正部43は、顔検出部42から供給されたロール角の分だけ、顔画像を回転(回転補正)し、顔パーツ検出部45に供給する。
すなわち、顔検出部42は、例えば、図4の画像Aに示される入力画像から顔、並びに、顔の向きを決定するロール角(=−30度)、ピッチ角(=0度)、およびヨー角(=−20度)を検出し、顔画像71を抽出する。
そして、顔画像回転補正部43は、図4の画像Bにおいて、顔の両目の中心を結んだ線が水平になるように(すなわち、ロール角が0度となるように)、図4の画像Cに示されるように、顔画像71を+30度分だけ回転補正する。
このようにして、入力画像から、両目の位置が水平になった(ロール角が0度である)顔画像71が得られる。
ステップS13において、顔パーツ重みマップ生成部44は、顔検出部42から供給された顔画像71の大きさと、ピッチ角およびヨー角とに応じて、顔パーツ重みマップを生成し、重み付け部46に供給する。
ここで、図5乃至図8を参照して、顔パーツ重みマップ生成部44によって生成される顔パーツ重みマップについて説明する。なお、ここでは、検出対象となる顔パーツを右目として説明する。
一般に、顔検出の検出結果として得られた、複数の、同じ大きさの顔画像を重ね合わせた場合、右目の位置は、顔検出の対象となった顔の位置のぶれ、顔の形状、顔の方向、右目の位置の個人差等によって、ばらつきが生じる。
逆に、同じ大きさの顔画像を重ね合わせて、右目の位置(中心位置)をプロットした場合、そのプロットの密度が高い領域ほど、同じ大きさの顔画像において、右目(の中心)が存在する可能性が高い領域と言える。顔パーツ重みマップは、このようなプロットの分布に基づいたものである。
例えば、図5に示される顔パーツ重みマップ72は、数百の、顔画像71と同じ大きさの顔画像を重ね合わせて、右目の位置(中心位置)をプロットした場合の分布に基づいて得られる。すなわち、顔パーツ重みマップ72は、顔画像における右目の統計的な位置の分布に基づいて得られる。
図5の顔パーツ重みマップ72において、色の濃い領域ほどプロットの密度が高く、右目が存在する可能性が高い領域となる。すなわち、色の濃い領域に対応する顔画像の画素に対して、高い重み付けがされる。
顔パーツ重みマップ72によって付加される重みは、所定の範囲の値で表され、例えば、図5の顔パーツ重みマップ72において、プロットの密度が最大である位置の重みの値を1.0とし、プロットの密度が0である位置の重みを0.0とした場合、重みの値は、0.0乃至1.0の範囲の値をとる。
ところで、プロットされた位置で表される右目の位置は、顔の向きによって変化するので、顔パーツ重みマップ72は、顔の向きに応じて生成される必要がある。
例えば、図6の画像Aに示されるように、正面を向いた顔の顔画像のみに基づいて生成された顔パーツ重みマップ72を、正面を向いた顔の顔画像71に適用した場合、顔の右目を中心に重み付けされる。
しかしながら、図6の画像Aの顔パーツ重みマップ72を、左を向いた(ピッチ角=0度、ヨー角=+20度)顔の顔画像71に適用した場合、図6の画像Bに示されるように、本来、重み付けされるべき右目とは異なる位置に対して重み付けされ、顔パーツの検出の精度の低下を招く。
そこで、顔パーツ重みマップ生成部44は、ピッチ角(=0度)およびヨー角(=+20度)に応じて、図6の画像Cに示される顔パーツ重みマップ72を生成する。
より具体的には、計算部52は、記憶部51に記憶されている、顔画像71の大きさに応じた基本顔パーツ重みマップ(図6の画像Aの顔パーツ重みマップ72に等しい)を基に、ピッチ角およびヨー角を変数とした関数として顔パーツ重みマップ72を定義し、(ピッチ角、ヨー角)=(0,+20)を代入することで、図6の画像Cで示される顔パーツ重みマップ72を求める。
例えば、計算部52は、顔パーツ重みマップ72(基本顔パーツ重みマップ)を、図7に示されるように、直交する軸aおよび軸bそれぞれに対する正規分布を合成した合成分布に近似するものとし、軸aおよび軸bの交点である中心座標値(x,y)、顔画像71の水平方向に対する軸aの角度α、軸aおよび軸bそれぞれの正規分布の分散σaおよびσbのパラメータにより決定されるようにする。さらに、計算部52は、それぞれのパラメータを、ピッチ角およびヨー角の関数とすることで、連続的なピッチ角およびヨー角の値に対して、連続的な重みの値を持つ顔パーツ重みマップ72を求める。
これにより、図6の画像Cに示されるように、画像Bのような左を向いた顔の顔画像71であっても、その右目を中心に重み付けされる。
上述のようにして、顔パーツ重みマップ生成部44は、図8に示されるように、所定のピッチ角およびヨー角に応じて、顔パーツ重みマップ72を生成する。
図8においては、所定の角度範囲に含まれるピッチ角およびヨー角に対する顔パーツ重みマップ72が示されている。なお、図8に示される角度範囲において、“[”および“]”は、「以上」および「以下」を表し、“(”および“)”は、「超過」および「未満」を表す。
例えば、ピッチ角が−45度以上−15度未満で、かつ、ヨー角が−45度以上−15度未満である場合には、図中、左上に示される顔パーツ重みマップ72−1が生成される。
ピッチ角が−45度以上−15度未満で、かつ、ヨー角が−15度以上+15度未満である場合には、図中、中央上に示される顔パーツ重みマップ72−2が生成される。
ピッチ角が−45度以上−15度未満で、かつ、ヨー角が+15度超過+45度以下である場合には、図中、右上に示される顔パーツ重みマップ72−3が生成される。
ピッチ角が−15度以上+15度未満で、かつ、ヨー角が−45度以上−15度未満である場合には、図中、左中央に示される顔パーツ重みマップ72−4が生成される。
ピッチ角が−15度以上+15度未満で、かつ、ヨー角が−15度以上+15度未満である場合には、図中、中央に示される顔パーツ重みマップ72−5が生成される。なお、顔パーツ重みマップ72−5は、記憶部51に記憶されている基本顔パーツ重みマップと同一である。
ピッチ角が−15度以上+15度未満で、かつ、ヨー角が+15度超過+45度以下である場合には、図中、右中央に示される顔パーツ重みマップ72−6が生成される。
ピッチ角が+15度超過+45度以下で、かつ、ヨー角が−45度以上−15度未満である場合には、図中、左下に示される顔パーツ重みマップ72−7が生成される。
ピッチ角が+15度超過+45度以下で、かつ、ヨー角が−15度以上+15度未満である場合には、図中、中央下に示される顔パーツ重みマップ72−8が生成される。
ピッチ角が+15度超過+45度以下で、かつ、ヨー角が+15度超過+45度以下である場合には、図中、右下に示される顔パーツ重みマップ72−9が生成される。
このようにして、顔パーツ重みマップ生成部44は、ピッチ角およびヨー角に応じた顔パーツ重みマップ72を生成することができる。
図3のフローチャートに戻り、ステップS14において、顔パーツ検出部45は、顔画像回転補正部43からの回転補正された顔画像において、顔パーツである右目を検出するための検出スコアを画素毎に算出し、重み付け部46に供給して、処理は、ステップS15に進む。
ステップS15において、重み付け部46は、顔パーツ検出部45からの画素毎の検出スコアに、顔パーツ重みマップ生成部44からの顔パーツ重みマップ72に基づいて重み付けし、その重み付けされた画素毎の検出スコアを顔パーツ特定部47に供給して、処理は、ステップS16に進む。
より具体的には、重み付け部46は、以下の式(1)で示されるように、検出スコアと、顔パーツ重みマップ72の重みの値とを、画素毎に乗算する。
すなわち、顔画像71において、水平右方向をx方向、垂直下方向をy方向、顔画像71の左上端を原点(x,y)=(0,0)として正規化し、座標(x,y)における画素の検出スコアをScorePD(x,y)、座標(x,y)に対応する顔パーツ重みマップ72の重みの値をWeight(x,y)とした場合、重み付けされた座標(x,y)における画素の検出スコアScore(x,y)は、式(1)のように表される。
Score(x,y)=ScorePD(x,y)×Weight(x,y) ・・・(1)
ステップS16において、重み付け部46は、顔画像71の全ての画素について乗算したか否かを判定する。
ステップS16において、顔画像71の全ての画素について乗算していないと判定された場合、顔画像71の全ての画素について乗算するまで、ステップS15およびステップS16の処理が繰り返される。
一方、ステップS16において、顔画像71の全ての画素について乗算したと判定された場合、処理は、ステップS17に進む。
ステップS17において、顔パーツ特定部47は、重み付け部46からの、顔画像71の全ての画素についての検出スコアにおいて、所定の閾値以上の検出スコアの画素を、顔パーツを構成する画素として特定する。
以上の処理により、顔パーツ検出装置11は、顔パーツ重みマップ72を用いて、入力画像から抽出された顔画像71において、顔パーツである右目を検出することができる。
このように、顔の向きに応じた顔パーツ重みマップ72を用いるので、顔パーツの検出スコアに対して、顔の向きに応じて、正確に重み付けすることができ、結果として、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することが可能となる。
なお、図8で説明において、顔パーツ重みマップ72を生成するためのピッチ角およびヨー角の角度範囲を、−45度以上−15度未満、−15度以上+15度未満、+15度超過+45度以下としたが、他の角度範囲であってもよい。
また、顔パーツ重みマップ72における重みの値は、図7等で説明したような、連続的な値を持つ分布に限らず、図9に示される顔パーツ重みマップ73のように、顔画像71内で正規化された座標値に対して離散的に与えられる重みの値であってもよい。
次に、図10を参照して、顔パーツ検出装置の他の構成例について説明する。
なお、図10においては、図1と対応する構成には同一の符号を付してあり、その説明は適宜省略する。すなわち、図10の顔パーツ検出装置111は、顔パーツ重みマップテーブル141を新たに備えている以外は、基本的に、図1の顔パーツ検出装置11と同様の構成を有するものである。
顔パーツ重みマップテーブル141は、顔パーツ重みマップ生成部44によって生成された顔パーツ重みマップ72を、顔画像71の大きさと、ピッチ角およびヨー角とに対応付けて記憶する。
より具体的には、顔パーツ重みマップテーブル141は、顔画像71の大きさ毎に、図8で説明したような、所定の角度範囲のピッチ角およびヨー角に対応付けられた顔パーツ重みマップ72を記憶する。
顔パーツ重みマップ生成部44は、顔検出部42から供給された顔画像71の大きさと、ピッチ角およびヨー角とに基づいて、顔パーツ重みマップテーブル141から、対応する顔パーツ重みマップ72を選択する。
すなわち、顔パーツ重みマップ生成部44は、過去に生成した顔パーツ重みマップ72を、顔画像71の大きさと、ピッチ角およびヨー角とに基づいて、顔パーツ重みマップテーブル141から選択する。
なお、顔パーツ重みマップテーブル141に記憶される顔パーツ重みマップ72は、顔パーツ重みマップ生成部44が過去に生成したものに限らず、他の装置から供給されたものであってもよい。
次に、図11のフローチャートを参照して、図10の顔パーツ検出装置111の顔パーツ検出処理について説明する。
なお、図11のフローチャートのステップS111およびステップS112、並びに、ステップS114乃至ステップS117の処理は、図3のフローチャートのステップS11およびステップS12、並びに、ステップS14乃至ステップS17の処理と同様であるので、その説明は省略する。
ステップS113において、顔パーツ重みマップ生成部44は、顔検出部42から供給された、ロール角の分だけ補正された顔画像71の大きさと、ピッチ角およびヨー角とに応じて、顔パーツ重みマップテーブル141から、顔パーツ重みマップ72を選択し、重み付け部46に供給する。
以上の処理により、顔パーツ検出装置111は、顔パーツ重みマップテーブル141に記憶された顔パーツ重みマップ72を用いて、入力画像から抽出された顔画像71において、顔パーツである右目を検出することができる。
このように、予め生成され記憶された顔パーツ重みマップ72を用いるので、ピッチ角およびヨー角に応じた顔パーツ重みマップ72を新たに生成する必要がなく、顔パーツの検出スコアに対して、顔の向きに応じて、正確に重み付けすることができ、結果として、少ない演算量で、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することが可能となる。
次に、図12を参照して、顔パーツ検出装置のさらに他の構成例について説明する。
なお、図12においては、図1と対応する構成には同一の符号を付してあり、その説明は適宜省略する。すなわち、図12の顔パーツ検出装置211は、図1の顔パーツ検出装置11の重み付け部46を削除し、顔パーツ検出範囲設定部241を新たに備えている以外は、基本的に、図1の顔パーツ検出装置11と同様の構成を有するものである。
顔パーツ検出範囲設定部241は、顔パーツ重みマップ生成部44によって生成された顔パーツ重みマップ72を基に、重みの値が所定の値以上の範囲である顔パーツ検出範囲を設定し、その顔パーツ検出範囲を示す範囲情報を顔パーツ検出部45に供給する。
顔パーツ検出部45は、顔画像回転補正部43からの顔画像71の、顔パーツ検出範囲設定部241からの範囲情報で示される顔パーツ検出範囲において、検出スコアを画素毎に算出し、顔パーツ特定部47に供給する。
顔パーツ特定部47は、顔パーツ検出部45からの、顔パーツ検出範囲内の全ての画素についての検出スコアにおいて、所定の閾値以上の検出スコアの画素を、顔パーツを構成する画素として特定する。
次に、図13のフローチャートを参照して、図12の顔パーツ検出装置211の顔パーツ検出処理について説明する。
図13のフローチャートのステップS211乃至ステップS213の処理は、図3のフローチャートのステップS11乃至ステップS13の処理と同様であるので、その説明は省略する。
ステップS214において、顔パーツ検出範囲設定部241は、顔パーツ重みマップ生成部44からの顔パーツ重みマップ72において、重みの値が所定の値以上の範囲である顔パーツ検出範囲を設定する。
具体的には、例えば、顔パーツ検出範囲設定部241は、図14に示されるように、図7を参照して説明した顔パーツ重みマップ72において、軸aおよび軸bそれぞれの正規分布において重みの値が所定の値以上の範囲である3σaおよび3σbを示す楕円271の内側を顔パーツ検出範囲として設定する。
また、検出スコアの算出における演算量を少なくするために、楕円271に外接する矩形272の内側を顔パーツ検出範囲として設定してもよい。
顔パーツ検出範囲設定部241は、このようにして設定した顔パーツ検出範囲を示す範囲情報を顔パーツ検出部45に供給する。
ステップS215において、顔パーツ検出部45は、顔画像回転補正部43からの顔画像の、顔パーツ検出範囲設定部241からの範囲情報で示される顔パーツ検出範囲内で、検出スコアを画素毎に算出し、顔パーツ特定部47に供給する。
ステップS216において、顔パーツ特定部47は、顔パーツ検出部45からの、顔パーツ検出範囲内の全ての画素についての検出スコアにおいて、所定の閾値以上の検出スコアの画素を、顔パーツを構成する画素として特定する。
以上の処理により、顔パーツ検出装置211は、入力画像から抽出された顔画像71において、顔パーツ重みマップ72を基に設定された顔パーツ検出範囲内で、顔パーツである右目を検出することができる。
このように、顔の向きに応じた顔パーツ重みマップ72を基に、顔パーツ検出範囲を設定するので、顔画像71の全ての画素について検出スコアを算出する必要がなく、結果として、より少ない演算量で、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することが可能となる。
なお、顔パーツ検出範囲は、図7で説明した顔パーツ重みマップ72を基に設定されるものとしたが、図15に示されるように、図9を参照して説明した、顔画像71内で正規化された座標値に対して離散的な重みの値を示す顔パーツ重みマップ73において、所定の値の重みを示す境界線273の内側(所定の値以上の重みを示す領域)を、顔パーツ検出範囲としてもよく、また、より演算量を少なくするために、境界線273に外接する矩形の境界線274の内側を、顔パーツ検出範囲としてよい。
また、図10の顔パーツ検出装置111において、顔パーツ重みマップテーブル141が生成した顔パーツ重みマップ72を、ピッチ角およびヨー角に対応付けて記憶するのと同様にして、顔パーツ検出装置211において、顔パーツ検出範囲設定部241が設定した顔パーツ検出範囲を、ピッチ角およびヨー角に対応付けて記憶する構成を考えることもできる。
そこで、図16を参照して、顔パーツ検出範囲を記憶するようにした顔パーツ検出装置の構成例について説明する。
なお、図16においては、図12と対応する構成には同一の符号を付してあり、その説明は適宜省略する。すなわち、図16の顔パーツ検出装置311は、顔パーツ検出範囲テーブル341を新たに備えている以外は、基本的に、図12の顔パーツ検出装置211と同様の構成を有するものである。
図16においては、顔検出部42は、顔画像71およびロール角を顔画像回転補正部43に供給するとともに、顔画像71の大きさ、並びにピッチ角およびヨー角を、顔パーツ重みマップ生成部44および顔パーツ検出範囲設定部241に供給する。
顔パーツ検出範囲テーブル341は、顔パーツ検出範囲設定部241によって設定された顔パーツ検出範囲を示す範囲情報を、顔画像71の大きさと、ピッチ角およびヨー角とに対応付けて記憶する。
より具体的には、顔パーツ検出範囲テーブル341は、顔画像71の大きさ毎に、所定の角度範囲のピッチ角およびヨー角に対応付けられた範囲情報を記憶する。
顔パーツ検出範囲設定部241は、顔検出部42から供給された顔画像71の大きさと、ピッチ角およびヨー角とに基づいて、顔パーツ検出範囲テーブル341から、対応する範囲情報を選択する。
すなわち、顔パーツ検出範囲設定部241は、過去に設定した顔パーツ検出範囲が示す範囲情報を、顔画像71の大きさと、ピッチ角およびヨー角とに基づいて、顔パーツ検出範囲テーブル341から選択する。
なお、顔パーツ検出範囲テーブル341に記憶される範囲情報は、顔パーツ検出範囲設定部241が過去に設定したものに限らず、他の装置から供給されたものであってもよい。
次に、図17のフローチャートを参照して、図16の顔パーツ検出装置311の顔パーツ検出処理について説明する。
図17のフローチャートのステップS311およびステップS312、並びに、ステップS314およびステップS315の処理は、図13のフローチャートのステップS211およびステップS212、並びに、ステップS214およびステップS215の処理と同様であるので、その説明は省略する。
ステップS313において、顔パーツ検出範囲設定部241は、顔検出部42から供給された顔画像71の大きさと、ピッチ角およびヨー角とに基づいて、顔パーツ検出範囲テーブル341から、対応する範囲情報を選択し、顔パーツ検出部45に供給する。
以上の処理により、顔パーツ検出装置311は、入力画像から抽出された顔画像71において、顔パーツ検出範囲テーブル341に記憶された範囲情報で示される顔パーツ検出範囲内で、顔パーツである右目を検出することができる。
このように、予め設定され記憶された範囲情報を用いるので、ピッチ角およびヨー角に応じた顔パーツ検出範囲を新たに設定する必要がなく、また、顔パーツ検出範囲内のみの検出スコアを算出すればよく、結果として、より少ない演算量で、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することが可能となる。
上述の説明では、顔パーツ重みマップ72に基づいて、検出スコアに重み付けする構成、および、顔パーツ重みマップ72に基づいた顔パーツ検出範囲内で、検出スコアを算出する構成について説明したが、これらの構成を併せるようにしてもよい。
そこで、図18を参照して、顔パーツ検出範囲内で算出した検出スコアに、顔パーツ重みマップ72に基づいて重み付けするようにした顔パーツ検出装置の構成例について説明する。
なお、図18においては、図1と対応する構成には同一の符号を付してあり、その説明は適宜省略する。すなわち、図18の顔パーツ検出装置411は、図12の顔パーツ検出範囲設定部241をさらに備えている以外は、基本的に、図1の顔パーツ検出装置11と同様の構成を有するものである。
次に、図19のフローチャートを参照して、図18の顔パーツ検出装置411の顔パーツ検出処理について説明する。
図19のフローチャートのステップS411およびステップS412の処理は、図3のフローチャートのステップS11およびステップS12の処理と同様であるので、その説明は省略する。
ステップS413において、顔パーツ重みマップ生成部44は、顔検出部42から供給されたピッチ角およびヨー角に応じて、顔パーツ重みマップ72を生成し、重み付け部46および顔パーツ検出範囲設定部241に供給する。
ステップS414において、顔パーツ検出範囲設定部241は、顔パーツ重みマップ生成部44からの顔パーツ重みマップ72において、重みの値が所定の値以上の範囲である顔パーツ検出範囲を設定し、その顔パーツ検出範囲を示す範囲情報を顔パーツ検出部45に供給する。
ステップS415において、顔パーツ検出部45は、顔画像回転補正部43からの顔画像71の、顔パーツ検出範囲設定部241からの範囲情報で示される顔パーツ検出範囲内で、検出スコアを画素毎に算出し、重み付け部46に供給する。
ステップS416において、重み付け部46は、顔パーツ検出部45からの顔パーツ検出範囲内の画素毎の検出スコアに、顔パーツ重みマップ生成部44からの顔パーツ重みマップ72に基づいて重み付けし、その重み付けされた画素毎の検出スコアを顔パーツ特定部47に供給する。
ステップS417において、重み付け部46は、顔パーツ検出範囲内の全ての画素について乗算したか否かを判定する。
ステップS417において、顔パーツ検出範囲内の全ての画素について乗算していないと判定された場合、顔パーツ検出範囲内の全ての画素について乗算するまで、ステップS416およびステップS417の処理が繰り返される。
一方、ステップS417において、顔パーツ検出範囲内の全ての画素について乗算したと判定された場合、処理は、ステップS418に進む。
ステップS418において、顔パーツ特定部47は、重み付け部46からの、顔パーツ検出範囲内の全ての画素についての検出スコアにおいて、所定の閾値以上の検出スコアの画素を、顔パーツを構成する画素として特定する。
以上の処理により、顔パーツ検出装置411は、入力画像から抽出された顔画像71における顔パーツ検出範囲内で、顔パーツ重みマップ72を用いて、顔パーツである右目を検出することができる。
このように、顔の向きに応じた顔パーツ重みマップ72を基に、顔パーツ検出範囲を設定し、その顔パーツ検出範囲内で算出された検出スコアに対して、顔パーツ重みマップ72を用いるので、限定された範囲の検出スコアに対して正確に重み付けすることができ、結果として、より少ない演算量で、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することが可能となる。
また、顔パーツ検出範囲内で算出した検出スコアに重み付けするようにした顔パーツ検出装置の構成は、上述した顔パーツ検出装置411の構成に限らず、図10で説明した顔パーツ重みマップテーブル141や、図16で説明した顔パーツ検出範囲テーブル341を含む構成としてもよい。
なお、上述した説明において、検出スコアは、画素毎(画素単位の領域毎)に算出されるものとしたが、画素毎に限るものではなく、例えば、4画素×4画素のブロック等の所定の領域毎に算出されるものであってもよい。
また、顔パーツ検出装置における検出対象は、顔の顔パーツに限らず、それぞれの位置関係がある程度拘束されていて、かつ、向きを有するものに配置されているものであればよく、例えば、車のヘッドライト等であってもよい。
以上のように、顔パーツ検出装置では、顔画像における、顔の向きを検出し、顔の向きに応じて、顔画像における、所定の顔パーツの統計的な位置の分布に基づいた顔パーツ重みマップ72を生成し、顔画像における画素毎に、所定の顔パーツであるか否かを評価する検出スコアを算出し、その検出スコアと顔パーツ重みマップ72とに基づいて、所定の画素を、顔パーツとして特定するので、顔パーツの検出スコアに対して正確に重み付けすることができ、結果として、顔の向きにかかわらず、顔画像から顔の器官をより正確に検出することができる。
上述した顔パーツ検出処理の一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータ等に、プログラム記録媒体からインストールされる。
図20は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)601,ROM(Read Only Memory)602,RAM(Random Access Memory)603は、バス604により相互に接続されている。
バス604には、さらに、入出力インターフェース605が接続されている。入出力インターフェース605には、キーボード、マウス、マイクロホン等よりなる入力部606、ディスプレイ、スピーカ等よりなる出力部607、ハードディスクや不揮発性のメモリ等よりなる記憶部608、ネットワークインタフェース等よりなる通信部609、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等のリムーバブルメディア611を駆動するドライブ610が接続されている。
以上のように構成されるコンピュータでは、CPU601が、例えば、記憶部608に記憶されているプログラムを、入出力インターフェース605およびバス604を介して、RAM603にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU601)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリ等よりなるパッケージメディアであるリムーバブルメディア611に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア611をドライブ610に装着することにより、入出力インターフェース605を介して、記憶部608にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部609で受信し、記憶部608にインストールすることができる。その他、プログラムは、ROM602や記憶部608に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。
本発明を適用した顔パーツ検出装置の一実施の形態の構成例を示すブロック図である。 顔の向きを決定する角度を説明する図である。 図1の顔パーツ検出装置の顔パーツ検出処理を説明するフローチャートである。 顔検出部および顔画像回転補正部の処理について説明する図である。 顔パーツ重みマップについて説明する図である。 顔パーツ重みマップについて説明する図である。 顔パーツ重みマップの例について説明する図である。 ピッチ角およびヨー角に応じた顔パーツ重みマップについて説明する図である。 顔パーツ重みマップの他の例について説明する図である。 顔パーツ検出装置の他の構成例を示すブロック図である。 図10の顔パーツ検出装置の顔パーツ検出処理を説明するフローチャートである。 顔パーツ検出装置のさらに他の構成例を示すブロック図である。 図12の顔パーツ検出装置の顔パーツ検出処理を説明するフローチャートである。 顔パーツ検出範囲について説明する図である。 顔パーツ検出範囲について説明する図である。 顔パーツ検出装置のさらに他の構成例を示すブロック図である。 図16の顔パーツ検出装置の顔パーツ検出処理を説明するフローチャートである。 顔パーツ検出装置のさらに他の構成例を示すブロック図である。 図18の顔パーツ検出装置の顔パーツ検出処理を説明するフローチャートである。 本発明が適用される顔パーツ検出装置として機能するコンピュータのハードウェアの構成例を示すブロック図である。
符号の説明
11,111,211,311,411 顔パーツ検出装置, 41 画像入力部, 42 顔検出部, 43 顔画像回転補正部, 44 顔パーツ重みマップ生成部, 45 顔パーツ検出部, 46 重み付け部, 47 顔パーツ特定部, 51 記憶部, 52 計算部, 71 顔画像, 72,72−1乃至72−9,73 顔パーツ重みマップ, 141 顔パーツ重みマップテーブル, 241 顔パーツ検出範囲設定部, 341 顔パーツ検出範囲テーブル

Claims (7)

  1. 顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角を検出する顔検出手段と、
    前記顔検出手段によって検出された前記顔の向きを表す情報のうちの前記ピッチ角および前記ヨー角の関数として前記ロール角の分だけ補正された前記顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布を生成する重み分布生成手段と、
    前記重み分布を基に、重みの値が所定の値以上である位置の範囲を設定する範囲設定手段と、
    前記範囲内の前記顔画像における所定の領域毎に、予め学習された顔の器官の画像と前記範囲内の前記顔画像における前記所定の領域とを比較することで、前記所定の顔の器官であるか否かを評価する第1の評価値を画素毎に算出する第1の算出手段と、
    前記範囲内の前記第1の評価値が所定の閾値以上となる前記所定の領域を、前記所定の顔の器官として特定する顔器官特定手段と
    を備える情報処理装置。
  2. 予め設定された前記範囲を示す範囲情報を、前記ピッチ角および前記ヨー角に対応付けて記憶する記憶手段をさらに備え、
    前記範囲設定手段は、前記ピッチ角および前記ヨー角に応じて、前記記憶手段に記憶された前記範囲情報を選択する
    請求項1に記載の情報処理装置。
  3. 前記重み分布に基づいて前記第1の評価値を重み付けした第2の評価値を算出する第2の算出手段をさらに備え、
    前記顔器官特定手段は、前記第2の評価値に基づいて、前記所定の領域を、前記所定の顔の器官として特定する
    請求項1に記載の情報処理装置。
  4. 前記所定の領域は、画素単位の領域である
    請求項1に記載の情報処理装置。
  5. 前記重み分布は、前記顔の向きを決定する顔の角度の関数である
    請求項1に記載の情報処理装置。
  6. 顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角を検出する顔検出ステップと、
    前記顔検出ステップの処理によって検出された前記顔の向きを表す情報のうちの前記ピッチ角および前記ヨー角の関数として前記ロール角の分だけ補正された前記顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布を生成する重み分布生成ステップと、
    前記重み分布を基に、重みの値が所定の値以上である位置の範囲を設定する範囲設定ステップと、
    前記範囲内の前記顔画像における所定の領域毎に、予め学習された顔の器官の画像と前記範囲内の前記顔画像における前記所定の領域とを比較することで、前記所定の顔の器官であるか否かを評価する評価値を画素毎に算出する算出ステップと、
    前記範囲内の前記評価値が所定の閾値以上となる前記所定の領域を、前記所定の顔の器官として特定する顔器官特定ステップと
    を含む情報処理方法。
  7. 顔画像における、顔の向きを表す情報であるピッチ角、ヨー角、およびロール角を検出する顔検出ステップと、
    前記顔検出ステップの処理によって検出された前記顔の向きを表す情報のうちの前記ピッチ角および前記ヨー角の関数として前記ロール角の分だけ補正された前記顔画像における、所定の顔の器官の統計的な位置の分布に基づいた重み分布を生成する重み分布生成ステップと、
    前記重み分布を基に、重みの値が所定の値以上である位置の範囲を設定する範囲設定ステップと、
    前記範囲内の前記顔画像における所定の領域毎に、予め学習された顔の器官の画像と前記範囲内の前記顔画像における前記所定の領域とを比較することで、前記所定の顔の器官であるか否かを評価する評価値を画素毎に算出する算出ステップと、
    前記範囲内の前記評価値が所定の閾値以上となる前記所定の領域を、前記所定の顔の器官として特定する顔器官特定ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2008065229A 2008-03-14 2008-03-14 情報処理装置および方法、並びにプログラム Expired - Fee Related JP4655235B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2008065229A JP4655235B2 (ja) 2008-03-14 2008-03-14 情報処理装置および方法、並びにプログラム
US12/369,241 US20090232363A1 (en) 2008-03-14 2009-02-11 Information processing apparatus, method, and program
EP09155087A EP2101283A2 (en) 2008-03-14 2009-03-13 Information processing apparatus, method, and program
CN200910128531A CN101533472A (zh) 2008-03-14 2009-03-16 信息处理设备、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008065229A JP4655235B2 (ja) 2008-03-14 2008-03-14 情報処理装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
JP2009223459A JP2009223459A (ja) 2009-10-01
JP4655235B2 true JP4655235B2 (ja) 2011-03-23

Family

ID=40792899

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008065229A Expired - Fee Related JP4655235B2 (ja) 2008-03-14 2008-03-14 情報処理装置および方法、並びにプログラム

Country Status (4)

Country Link
US (1) US20090232363A1 (ja)
EP (1) EP2101283A2 (ja)
JP (1) JP4655235B2 (ja)
CN (1) CN101533472A (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4702418B2 (ja) * 2008-09-09 2011-06-15 カシオ計算機株式会社 撮影装置、画像領域の存否判定方法及びプログラム
JP2012068948A (ja) * 2010-09-24 2012-04-05 Renesas Electronics Corp 顔属性推定装置およびその方法
JP5768533B2 (ja) * 2011-01-26 2015-08-26 カシオ計算機株式会社 電子機器及びプログラム
JP5555193B2 (ja) * 2011-03-01 2014-07-23 株式会社メガチップス データ処理装置、データ処理システム、及びプログラム
JP5716479B2 (ja) 2011-03-25 2015-05-13 カシオ計算機株式会社 電子機器及びプログラム
AU2012247147A1 (en) * 2011-04-28 2013-12-12 Koninklijke Philips Electronics N.V. Face location detection
US8457367B1 (en) 2012-06-26 2013-06-04 Google Inc. Facial recognition
US8542879B1 (en) * 2012-06-26 2013-09-24 Google Inc. Facial recognition
US8856541B1 (en) 2013-01-10 2014-10-07 Google Inc. Liveness detection
JP6430102B2 (ja) * 2013-05-21 2018-11-28 沖電気工業株式会社 人物属性推定装置、人物属性推定方法及びプログラム
US9177194B2 (en) * 2014-01-29 2015-11-03 Sony Corporation System and method for visually distinguishing faces in a digital image
US9727776B2 (en) * 2014-05-27 2017-08-08 Microsoft Technology Licensing, Llc Object orientation estimation
JP6624794B2 (ja) * 2015-03-11 2019-12-25 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6462787B2 (ja) * 2016-10-22 2019-01-30 俊之 坂本 画像処理装置及びプログラム
CN111507304B (zh) * 2020-04-29 2023-06-27 广州市百果园信息技术有限公司 自适应刚性先验模型训练方法、人脸跟踪方法及相关装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265367A (ja) * 2006-03-30 2007-10-11 Fujifilm Corp 視線検出方法および装置ならびにプログラム
JP2008003749A (ja) * 2006-06-21 2008-01-10 Fujifilm Corp 特徴点検出装置および方法並びにプログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6526161B1 (en) * 1999-08-30 2003-02-25 Koninklijke Philips Electronics N.V. System and method for biometrics-based facial feature extraction
JP2001357404A (ja) * 2000-06-14 2001-12-26 Minolta Co Ltd 画像抽出装置
KR100438841B1 (ko) * 2002-04-23 2004-07-05 삼성전자주식회사 이용자 검증 및 데이터 베이스 자동 갱신 방법, 및 이를이용한 얼굴 인식 시스템
JP2004062565A (ja) * 2002-07-30 2004-02-26 Canon Inc 画像処理装置及び方法並びにプログラム記憶媒体
US7565030B2 (en) * 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
JP5025893B2 (ja) 2004-03-29 2012-09-12 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4592744B2 (ja) * 2005-02-17 2010-12-08 富士通株式会社 画像処理方法、画像処理システム、画像処理装置及びコンピュータプログラム
JP4532419B2 (ja) * 2006-02-22 2010-08-25 富士フイルム株式会社 特徴点検出方法および装置並びにプログラム
JP4585471B2 (ja) 2006-03-07 2010-11-24 株式会社東芝 特徴点検出装置及びその方法
JP4556891B2 (ja) 2006-03-17 2010-10-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP4957922B2 (ja) * 2006-06-07 2012-06-20 日本電気株式会社 画像方向判定装置、画像方向判定方法、および画像方向判定用プログラム
JP4338047B2 (ja) * 2006-07-25 2009-09-30 富士フイルム株式会社 撮像装置
JP2008065229A (ja) 2006-09-11 2008-03-21 Fuji Xerox Co Ltd トナー格納部品および画像形成装置
JP4789825B2 (ja) * 2007-02-20 2011-10-12 キヤノン株式会社 撮像装置及びその制御方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007265367A (ja) * 2006-03-30 2007-10-11 Fujifilm Corp 視線検出方法および装置ならびにプログラム
JP2008003749A (ja) * 2006-06-21 2008-01-10 Fujifilm Corp 特徴点検出装置および方法並びにプログラム

Also Published As

Publication number Publication date
CN101533472A (zh) 2009-09-16
US20090232363A1 (en) 2009-09-17
JP2009223459A (ja) 2009-10-01
EP2101283A2 (en) 2009-09-16

Similar Documents

Publication Publication Date Title
JP4655235B2 (ja) 情報処理装置および方法、並びにプログラム
US11836943B2 (en) Virtual face model creation based on key point
US10990803B2 (en) Key point positioning method, terminal, and computer storage medium
US10546183B2 (en) Liveness detection
EP3332403B1 (en) Liveness detection
JP4830650B2 (ja) 追跡装置
US10853677B2 (en) Verification method and system
TWI662433B (zh) Living body detection method and device, and identity authentication method and device
JP5772821B2 (ja) 顔特徴点位置補正装置、顔特徴点位置補正方法および顔特徴点位置補正プログラム
TWI611353B (zh) 一種眼球追蹤的方法及裝置
US8811744B2 (en) Method for determining frontal face pose
US20070189584A1 (en) Specific expression face detection method, and imaging control method, apparatus and program
US20160379050A1 (en) Method for determining authenticity of a three-dimensional object
US7697752B2 (en) Method and apparatus for performing object detection
US20180075291A1 (en) Biometrics authentication based on a normalized image of an object
EP3241151A1 (en) An image face processing method and apparatus
JP2008198193A (ja) 顔認証システム、方法及びプログラム
JP2005242567A (ja) 動作評価装置及び方法
CN1892702A (zh) 追踪装置
CN114333021A (zh) 面部识别方法、装置、计算机设备、存储介质
US20240104769A1 (en) Information processing apparatus, control method, and non-transitory storage medium
JP2006202276A (ja) 画像処理方法および装置並びにプログラム
US20220309704A1 (en) Image processing apparatus, image processing method and recording medium
GB2522259A (en) A method of object orientation detection
JP2009059165A (ja) 輪郭検出装置、それを用いた視線検出装置、偽の輪郭データの除去をコンピュータに実行させるためのプログラム、視線方向の検出をコンピュータに実行させるためのプログラムおよびそのプログラムを記録したコンピュータ読み取り可能な記録媒体

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100105

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100415

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100614

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100713

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101013

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101026

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101125

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140107

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees