JP2011133977A - 画像処理装置および方法、並びにプログラム - Google Patents

画像処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2011133977A
JP2011133977A JP2009290903A JP2009290903A JP2011133977A JP 2011133977 A JP2011133977 A JP 2011133977A JP 2009290903 A JP2009290903 A JP 2009290903A JP 2009290903 A JP2009290903 A JP 2009290903A JP 2011133977 A JP2011133977 A JP 2011133977A
Authority
JP
Japan
Prior art keywords
face
face image
reference mask
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009290903A
Other languages
English (en)
Inventor
Akifumi Kashiwagi
暁史 柏木
Yuichi Abe
友一 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009290903A priority Critical patent/JP2011133977A/ja
Priority to US12/906,376 priority patent/US20110150339A1/en
Priority to CN2010105682475A priority patent/CN102103687A/zh
Publication of JP2011133977A publication Critical patent/JP2011133977A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/243Aligning, centring, orientation detection or correction of the image by compensating for image skew or non-uniform image deformations

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】顔画像の検出精度を低下させることなく、計算量を小さくして、効率よく高速で顔画像を検出できるようにする。
【解決手段】顔画像検出部22は、画像取得部21より供給される入力画像より顔画像を検出する。基準マスク情報生成部23は、検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成し、基準マスク情報記憶部25に記憶させる。顔色領域抽出部61は、入力画像より顔色領域を検出する。高周波成分抽出部62は、顔色領域より高周波成分を抽出する。基準マスク比較部63は、検出された顔色領域の高周波成分に対して、基準マスクを用いて顔画像を検索する。本発明は、顔画像検出装置に適用することができる。
【選択図】図1

Description

本発明は、画像処理装置および方法、並びにプログラムに関し、特に、動画像内で回転しているような顔画像であっても検出精度を低減させることなく、高速で検出できるようにした画像処理装置および方法、並びにプログラムに関する。
動画像中の顔画像の検出方法については、以前より研究が行われている。
例えば、顔画像の検出方法としては、特徴点を利用して、回転した顔画像をも検出できるとされる手法が提案されている(引用文献1参照)。
このように顔画像の回転角度が、顔画像の検出と共に検出可能な情報とすることができれば、顔画像の検出機能を備えた構成のみで、いずれの情報も入手することが可能となる。
特開2009−075926公報
しかしながら、引用文献1に記載の手法では両目を結ぶ線と水平軸とのなす角で顔の傾きが検出されるのみであり、検出された顔画像の上下が完全に反転した状態となっているのか否かを判別することができない。
同様に、顔画像の回転角度についても、左右方向に90度以上回転しているのか否かについては判別できないため、誤って認識されてしまう恐れがある。
すなわち、引用文献1に記載の手法によって検出された顔画像に対して顔画像による認識処理を行う場合、再度、抽出された顔画像を詳細に解析して、回転角度を求める必要があった。
また、これに加えて、従来手法を用いて動画像内から回転した顔画像を検出する場合、全ての角度で回転した顔画像を検出するには、計算量が膨大になる恐れがある。すなわち、動画像内における顔画像を検出するとき、従来手法においては、事前に回転角度毎に用意した顔画像を用いて、各シーンの全領域を検索する必要がある。例えば、全ての回転角度に回転している可能性のある顔画像を検索する場合、全ての回転角度に対応する顔画像のパターン数だけ、シーン毎に全範囲を検索する必要がある。
つまり、1シーンから1の顔画像のパターンを用いて顔画像を検索する計算量をsとし、顔画像のパターンの回転角度の間隔を1/b度ずつとする場合、360度のいずれかの回転角度を持つ顔画像の検索に掛かる計算量は、計算量S(=s×b×360)となる。
しかしながら、特定のシーンにおける顔画像の持つ回転角度は必ず1であるのに対し、上記のような全領域に全回転角度に対応した顔画像のパターンを用いて検索する処理を行うのは計算量が膨大になり、結果として、検索処理時間も膨大なものとなる恐れがあった。
本発明はこのような状況に鑑みてなされたものであり、特に、顔画像の検出精度を低下させることなく、高速で顔画像を検出できるようにするものである。
本発明の一側面の画像処理装置は、画像より顔画像を検出する顔画像検出手段と、前記顔画像検出手段により検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成する基準マスク生成手段と、前記画像より顔色領域を検出する顔色領域検出手段と、前記顔色領域検出手段により検出された顔色領域について、前記基準マスクを用いて顔画像を検索する顔画像検索手段とを含む。
前記顔画像検出手段により検出された顔画像の高周波成分を抽出する高周波成分抽出手段をさらに含ませるようにすることができ、前記基準マスク生成手段には、前記顔画像検出手段により検出された顔画像の高周波成分の分布から、前記顔画像を構成する各パーツの配置を認識し、その認識結果から基準マスクを生成させるようにすることができる。
前記顔色領域の高周波成分を抽出する高周波成分抽出手段をさらに含ませるようにすることができ、前記顔画像検索手段には、前記顔色領域と一致するように、前記基準マスクの大きさ、および位置を調整し、前記基準マスク上の所定の位置を中心として、前記基準マスクを回転させ、前記高周波成分抽出手段により抽出された高周波成分の分布と、前記基準マスクにおける前記パーツの位置関係とが一致するか否かにより前記顔画像を検索させるようにすることができる。
前記顔画像検索手段には、前記基準マスク上の所定の位置を中心として、前記高周波成分抽出手段により抽出された高周波成分の分布と、前記基準マスク上における前記パーツの位置関係とが所定の関係となる位置より、前記基準マスクを回転させ、前記高周波成分抽出手段により抽出された高周波成分の分布と、前記基準マスクにおける前記パーツの位置関係が一致するか否かにより前記顔画像を検索させるようにすることができる。
本発明の一側面の画像処理方法は、画像より顔画像を検出する顔画像検出ステップと、前記顔画像検出ステップの処理により検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成する基準マスク生成ステップと、前記画像より顔色領域を検出する顔色領域検出ステップと、前記顔色領域検出ステップの処理により検出された顔色領域について、前記基準マスクを用いて顔画像を検索する顔画像検索ステップとを含む。
本発明の一側面のプログラムは、画像より顔画像を検出する顔画像検出ステップと、前記顔画像検出ステップの処理により検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成する基準マスク生成ステップと、前記画像より顔色領域を検出する顔色領域検出ステップと、前記顔色領域検出ステップの処理により検出された顔色領域について、前記基準マスクを用いて顔画像を検索する顔画像検索ステップとを含む処理をコンピュータに実行させる。
本発明の一側面においては、画像より顔画像が検出され、検出された顔画像を構成するパーツの配置に基づいて、基準マスクが生成され、前記画像より顔色領域が検出され、検出された顔色領域について、前記基準マスクが用いられて顔画像が検索される。
本発明の画像処理装置は、独立した装置であっても良いし、画像処理を行うブロックであっても良い。
本発明の一側面によれば、入力された画像から顔画像を抽出する精度を低下させることなく、回転した顔画像をも含めた顔画像を画像より高速に抽出させることが可能となる。
本発明を適用した顔画像抽出装置の一実施の形態の構成例を示す図である。 顔画像抽出処理を説明するフローチャートである。 基準マスク情報生成処理を説明するフローチャートである。 基準マスク情報生成処理を説明する図である。 顔画像検索処理を説明するフローチャートである。 顔画像検索処理を説明する図である。 顔画像検索処理を説明する図である。 顔画像検索処理を説明する図である。 汎用のパーソナルコンピュータの構成例を説明する図である。
[顔画像抽出装置の構成例]
図1は、本発明を適用した顔画像抽出装置のハードウェアの一実施の形態の構成例を示している。図1の顔画像抽出装置11は、入力画像より顔画像を検索して抽出する。より詳細には、顔画像抽出装置11は、入力画像より従来の手法により顔画像を抽出し、基準マスク情報を生成する。そして、次に、顔画像抽出装置11は、入力画像における顔色領域を検索して検索された顔色領域の高周波成分を抽出し、基準マスク情報に基づいた基準マスクを用いて顔画像を検索する。より具体的には、顔画像抽出装置11は、基準マスク情報に基づいた基準マスクを、顔色領域に対応した大きさに調整すると共に、基準マスクの所定の位置を中心として回転させながら、顔色領域の高周波成分との比較により顔画像を検索する。
顔画像抽出装置11は、画像取得部21、顔画像検出部22、基準マスク情報生成部23、顔画像検索部24、および基準マスク情報記憶部25を備えている。
画像取得部21は、入力画像を取得し、顔画像検出部22、および顔画像検索部24に供給する。
顔画像検出部22は、例えば、上述した特許文献1で示されるような、従来の検出手法により、画像取得部21より供給されてきた入力画像のうち、顔画像を構成している領域を検出し、顔画像として基準マスク情報生成部23に供給する。
基準マスク情報生成部23は、顔画像検出部22より供給されてくる顔画像を基準とする基準マスクの情報を基準マスク情報として生成し、基準マスク情報記憶部25に記憶させる。基準マスク情報とは、顔画像検出部22により検出された顔画像を構成する目、鼻、および口といった各パーツの輪郭形状、および重心位置、並びに、顔画像より得られる顔色情報より構成される、検索しようとする顔画像を特定するための情報である。そして、この基準マスク情報より生成される顔型が、検索しようとする顔画像、すなわち、基準マスクとなる。
基準マスク情報生成部23は、顔画像方向補正部31、高周波成分抽出部32、輪郭抽出部33、基準マスク情報抽出部34、および類似判定部35を備えている。顔画像方向補正部31は、顔画像検出部22より供給されてくる顔画像の情報のうち、左右の目の重心位置を結ぶ直線が水平方向となるように顔画像を回転補正し、高周波成分抽出部32に供給する。
高周波成分抽出部32は、回転補正された顔画像に対してハイパスフィルタを掛けることにより、高周波成分を抽出して輪郭抽出部33に供給する。輪郭抽出部33は、高周波成分抽出部32からの顔画像の高周波成分であるエッジ画像に基づいて、その最外周を構成する外形形状を顔画像の輪郭形状として抽出し、高周波成分であるエッジ画像と共に基準マスク情報抽出部34に供給する。
基準マスク情報抽出部34は、顔画像検出部22より供給されてくる顔画像、および輪郭抽出部33より供給されてくる顔画像の輪郭形状、およびエッジ画像に基づいて、基準マスクを構成する基準マスク情報を抽出する。より詳細には、基準マスク情報抽出部34は、顔パーツ抽出部41、顔パーツテンプレート記憶部42、および顔色抽出部43を備えている。
ここで、顔パーツテンプレートとは、一般的な顔画像における輪郭形状の範囲内に、目、鼻、および口などの顔を構成するパーツが存在する存在領域が設定されたテンプレートである。従って、顔パーツテンプレート上における各パーツの存在領域は、統計上求められたものであり、顔の輪郭形状に合わせて顔パーツテンプレートを重ねて配置したとき、ほとんどの顔画像において、各パーツは、それぞれの存在領域内に包含される状態となる。
顔パーツ抽出部41は、顔パーツテンプレート記憶部42に記憶されている顔パーツテンプレートを読み出し、輪郭抽出部39より供給されてくる高周波成分の情報(エッジ画像)に対して、輪郭形状が一致するように配置する。また、顔パーツ抽出部41は、顔パーツテンプレート上に設定される目、鼻、および口の存在領域内においてエッジ画像における最外周形状を、それぞれの顔パーツの輪郭形状の情報として抽出し、類似判定部35に供給する。さらに、顔パーツ抽出部41は、各顔パーツの輪郭形状から、重心位置を求め、その重心位置が、顔パーツテンプレート上のどの位置であるのかを求めて類似判定部35に供給する。顔色抽出部43は、左右の目の重心位置を結ぶ直線より下の範囲であって、輪郭抽出部33より供給されてくる輪郭形状内のうち、各パーツの存在領域以外の領域における顔画像の色情報を抽出する。そして、顔色抽出部43は、抽出した色情報の最小値、最大値、および平均値の情報を顔色情報として類似判定部35に供給する。
類似判定部35は、基準マスク情報抽出部34からの基準マスク情報である、外形輪郭形状、各パーツの輪郭形状、各パーツの重心位置、および顔色情報と、既に基準マスク情報記憶部25に記憶されている基準マスク情報と比較し、類似しているか否かを判定する。そして、類似判定部35は、類似している基準マスク情報がない場合、新たな基準マスク情報として基準マスク情報記憶部25に記憶させ、それ以外の場合、既に記憶されているものとみなして、抽出された基準マスク情報を破棄する。
顔画像検索部24は、基準マスク情報記憶部25に記憶されている基準マスク情報を順次読み出し、基準マスクを構成して、画像取得部21より供給されてくる画像における顔色情報が検出された領域内で回転しながら比較し、一致した場合、顔画像として抽出する。顔画像検索部24は、顔色領域抽出部61、高周波成分抽出部62、基準マスク比較部63、顔画像検索結果出力部64、顔色領域中心位置算出部65、および顔色領域中心整合判定部66を備えている。
顔色領域抽出部61は、基準マスク情報記憶部25の基準マスク情報における顔色情報を読み出し、画像取得部21からの画像内における顔色領域を抽出して、高周波成分抽出部62、顔色領域中心位置算出部65、および顔色領域中心整合判定部66に供給する。高周波成分抽出部62は、顔色領域抽出部61より供給されてくる顔画像のうちの、顔色領域について高周波成分を抽出し、基準マスク比較部63に供給する。
基準マスク比較部63は、基準マスク情報記憶部25に記憶された基準マスク情報から基準マスクを構成し、高周波成分抽出部62からの顔色領域の大きさと調整し、所定位置を中心に回転させながら顔色領域の高周波成分との比較により一致するか否かを判定する。そして、基準マスク比較部63は、一致する場合、基準マスク情報記憶部25に記憶されている基準マスク情報に対応する顔画像が検索されたものとして、検索された顔画像を顔画像検索結果出力部64に供給する。顔画像検索結果出力部64は、検索された顔画像を出力する。
より詳細には、基準マスク比較部63は、中心位置調整部81、スケール調整部82、回転部83、および高周波成分存在判定部84を備えている。中心位置調整部81は、基準マスク情報に基づいて生成される基準マスクの中心位置を、顔色領域の中心位置に調整する。スケール調整部82は、基準マスクの大きさを、顔色領域の大きさに合わせてスケール調整する。回転部83は、スケール調整された基準マスクを、中心位置を基準にして、所定の角度単位で回転させる。高周波成分存在判定部84は、顔色領域の高周波成分の輪郭形状と、基準マスクの各パーツの輪郭形状とを比較し、一致するか否かに基づいて、顔画像が検索されるか否かを判定する。そして、顔色領域の高周波成分の輪郭形状と、基準マスクの各パーツの輪郭形状とが一致し、顔画像が検索されるとき、高周波成分存在判定部84は、基準マスクに対応する位置の顔色領域を顔画像の検索結果として出力する。
顔色領域中心位置算出部65は、顔色領域より中心位置を算出し、基準マスク比較部63および顔色領域中心整合判定部66に供給する。顔色領域中心整合判定部66は、顔色領域中心位置算出部65より供給されてくる顔色領域中心位置が、顔色領域の中心位置として適正な位置に存在するか否かを判定し、判定結果を基準マスク比較部63、および顔画像検索結果出力部64に出力する。
[顔画像抽出処理]
次に、図2のフローチャートを参照して、顔画像抽出装置11による顔画像抽出処理について説明する。
ステップS1において、画像取得部21は、入力画像を取得し、顔画像検出部22、および顔画像検索部24に供給する。
ステップS2において、顔画像検出部22は、入力画像の情報に基づいて、顔画像を検出し、検出した顔画像を基準マスク情報生成部23に供給する。より詳細には、顔画像検出部22は、例えば、入力画像のうち、目、鼻、および口のような配置関係が予め予測可能な色彩の部分が見られる領域を検出して、検出した領域を顔画像として出力する。すなわち、顔画像検出部22は、厳密な検出処理ではなく、画像中の情報から最も顔画像として検出し易いものだけを、顔画像領域として検出する。
ステップS3において、基準マスク情報生成部23は、顔画像検出部22より供給されてくる顔画像に基づいて、基準マスク情報生成処理を実行し、生成した基準マスク情報を基準マスク情報記憶部25に記憶させる。尚、基準マスク情報生成処理については、図3のフローチャートを参照して、詳細を後述するものとする。
ステップS4において、顔画像検索部24は、基準マスク画像を読み出し、顔画像検索処理を実行し、基準マスクに基づいて顔画像を検索し、検索結果である顔画像を出力する。尚、顔画像検索処理については、図5のフローチャートを参照して、詳細を後述する。
すなわち、顔画像抽出装置11は、入力画像から従来の簡単な手法により顔画像を検出し、検出された顔画像に基づいて、各パーツの輪郭形状と重心位置とを含む基準マスクを生成する。そして、顔画像抽出装置11は、入力画像のうち、顔色領域を抽出して、この顔色領域の高周波成分が、基準マスクの各パーツの輪郭形状、および重心位置が一致するか否かを照合して検索する。そして、顔画像抽出装置11は、一致するとき、検索された顔画像を抽出結果として出力する。
つまり、顔画像抽出装置11は、容易な顔画像検出方法により、基準となる基準マスク情報を生成する。そして、顔画像抽出装置11は、基準マスクを用いて、従来の容易な方法では検出できない顔画像を検索することで、顔画像を高速に抽出する。
[基準マスク情報生成処理]
次に、図2のフローチャートを参照して、基準マスク情報生成処理について説明する。
ステップS11において、顔画像方向補正部31は、顔画像検出部22より供給されてくる顔画像に基づいて、顔画像の回転方向を補正する。より詳細には、顔画像方向補正部31は、顔画像検出部22より供給されてきた顔画像に含まれる左右の目を結ぶ直線が水平位置となるように、顔画像の回転方向を補正する。
ステップS12において、高周波成分抽出部32は、回転補正された顔画像に対して、例えば、Sobelフィルタ、Prewittフィルタ、またはラプラシアンフィルタなどのハイパスフィルタを掛けて、高周波成分であるエッジ画像を抽出して輪郭抽出部33に供給する。
ステップS13において、輪郭抽出部33は、顔画像の高周波成分であるエッジ画像より、顔の輪郭を抽出して、基準マスク情報抽出部34に供給する。
ステップS14において、基準マスク情報抽出部34の顔パーツ抽出部41は、顔パーツテンプレート記憶部42に記憶されている顔パーツテンプレートを読み出して、抽出された顔の輪郭と重ねて、顔を構成する各パーツの位置を特定する。より詳細には、顔パーツ抽出部41は、例えば、図4で示されるように、実線で示される顔パーツテンプレートBMと、点線で示される顔画像の高周波成分であるエッジ画像Fとを重ね合わせる。
すなわち、顔パーツテンプレートBMには、顔画像を構成する左右の目、鼻、および口の大まかな存在領域として、図4の実線で示されるように、右目領域E1、左目領域E2、鼻領域N、および口領域Mが設けられている。この右目領域E1、左目領域E2、鼻領域N、および口領域Mは、人間の顔を構成する右左の目、鼻、および口の顔画像内の存在分布の統計により求められた領域である。このため、顔パーツテンプレートBMと、顔画像の高周波成分であるエッジ画像Fとを重ねると、右目領域E1、左目領域E2、鼻領域N、および口領域M内に、エッジ画像Fからなる顔画像内の右左の目、鼻、および口が存在することになる。
顔パーツ抽出部41は、顔パーツテンプレートBMの毛髪の生え際付近となる上端P1および下端P2が、顔画像のエッジ画像Fにおける下端および生え際付近の上端と一致するように、顔パーツテンプレートBMを調整し、顔画像のエッジ画像Fに重ね合わせる。そして、顔パーツ抽出部41は、上端P1および下端P2の中点Pを求める。
ステップS15において、顔パーツ抽出部41は、顔画像のエッジ画像に、顔パーツテンプレートBMを重ねたときの、右目領域E1、左目領域E2、鼻領域N、および口領域M内のエッジ画像の最外周輪郭形状を右左の目、鼻、および口の輪郭形状として抽出する。すなわち、図4の場合、右目領域E1内に存在するエッジ画像Fの最外周形状が右目輪郭形状RE1として抽出される。また、左目領域E2内に存在するエッジ画像Fの最外周形状が左目輪郭形状RE2として抽出される。さらに、鼻領域N内に存在するエッジ画像Fの最外周形状が鼻輪郭形状RNとして抽出される。また、口領域M内に存在するエッジ画像Fの最外周形状が口輪郭形状RMとして抽出される。
ステップS16において、顔パーツ抽出部41は、目、鼻、および口の各パーツにおける重心位置と、その重心位置が顔パーツテンプレートBM上のどの位置に存在するのかを求め、上述した中点Pの位置の情報と併せて類似判定部35に供給する。すなわち、この処理により、顔パーツ抽出部41は、左右の目、鼻、および口といった各パーツの輪郭形状と、各パーツの重心位置が、顔パーツテンプレートBM上のどの位置に存在するのかを示す情報を抽出して、類似判定部35に供給する。
例えば、図4の場合、右目輪郭形状RE1の重心位置として重心位置PRE1が求められ、重心位置PRE1の顔パーツテンプレートBM上のどの位置であるかが求められる。また、左目輪郭形状RE2の重心位置として重心位置PRE2が求められ、重心位置PRE2の顔パーツテンプレートBM上のどの位置であるかが求められる。さらに、鼻輪郭形状RNの重心位置として重心位置PRNが求められ、重心位置PRNが顔パーツテンプレートBM上のどの位置であるかが求められる。また、口輪郭形状RMの重心位置として重心位置PRMが求められ、重心位置PRMが顔パーツテンプレートBM上のどの位置であるかが求められる。
ステップS17において、顔色抽出部43は、エッジ画像F内の、重心位置PRE1,PRE2を結ぶ直線より下であって、右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、および口輪郭形状RMの領域を除く領域における色の情報を抽出する。そして、顔色抽出部43は、抽出した色の最小値、最大値、および平均値を求めて、顔色情報として類似判定部35に供給する。すなわち、顔色抽出部43により抽出される色情報は、事実上顔画像における肌色の情報である。
ステップS18において、類似判定部43は、上述した処理により右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、口輪郭形状RM、中点P、上端P1、下端P2、重心位置PRE1,PRE2,PRN,PRM、および顔色情報を取得する。類似判定部43は、これらの一連の情報を基準マスク情報として取得する。そして、類似判定部43は、取得した基準マスク情報と、基準マスク情報記憶部25に既に記憶されている基準マスク情報とを比較し、類似、または一致するものがあるのか否かを判定する。
ステップS18において、例えば、取得した基準マスク情報と、基準マスク情報記憶部25に既に記憶されている基準マスク情報とが類似、および一致のいずれでもない場合、処理は、ステップS19に進む。
ステップS19において、類似判定部43は、基準マスク情報抽出部34より取得した基準マスク情報を、新たに基準マスク情報記憶部25に記憶させて、処理を終了する。
一方、ステップS18において、例えば、取得した基準マスク情報と、基準マスク情報記憶部25に既に記憶されている基準マスク情報とが類似、または一致する場合、ステップS19の処理がスキップされて、取得した基準マスク情報が破棄される。
すなわち、基準マスク情報として既に記憶されているものと同一、または類似した基準マスク情報については、同一人物の顔画像に対応した基準マスク情報が重複して記憶されることになり、不要であるので、新たに記憶させず、新規のものだけを記憶させる。
以上の処理により、入力画像に含まれている顔画像のうち、従来の顔画像検出処理でも容易に抽出できる、顔画像として認識し易い顔画像に基づいて、基準マスク情報を生成して、基準マスク情報記憶部25に記憶させることが可能となる。結果として、後述するように、基準マスク情報を用いた基準マスクにより、回転しているような顔画像でも、高速に検索することが可能となる。
[顔画像検索処理]
次に、図5のフローチャートを参照して、顔画像検索処理について説明する。
ステップS31において、顔色領域抽出部61は、基準マスク情報記憶部25に記憶されている基準マスク情報のうち、未処理の基準マスク情報を処理対象の基準マスク情報に設定する。
ステップS32において、顔色領域抽出部61は、処理対象となっている基準マスク情報のうち、顔色情報を読み出して、入力画像のうち、顔色情報と一致する色を含む領域を顔色領域として検索する。このとき、顔色領域抽出部61は、顔色情報に含まれる肌色の最小値から最大値までのいずれかの色を含む領域を検索する。
ステップS33において、顔色領域抽出部61は、顔色領域を検索することができたか否かを判定し、顔色領域が検索できない場合、処理は、ステップS31に戻る。すなわち、この場合、処理対象となっている基準マスク情報に対応する人物の顔色領域がないことになるので、顔画像の検索ができないものとみなし、別の処理対象の基準マスク情報による処理に進むこととなる。
一方、ステップS33において、顔色領域が検索された場合、処理は、ステップS34に進む。
ステップS34において、顔色領域抽出部61は、検索した顔色領域を高周波成分抽出部62に供給する。高周波成分抽出部62は、供給された顔色領域に対して、例えば、Sobelフィルタ、Prewittフィルタ、またはラプラシアンフィルタなどのハイパスフィルタを掛けて、高周波成分であるエッジ画像を抽出して基準マスク比較部63に供給する。
ステップS35において、基準マスク比較部63は、基準マスク情報記憶部25に記憶されている基準マスク情報のうち、処理対象となっている基準マスク情報を読み出し、基準マスク情報に基づいて、基準マスクを生成する。すなわち、基準マスク比較部63は、基準マスク情報に基づいて、右目輪郭形状RE1を重心位置PRE1に配置し、左目輪郭形状RE2を重心位置PRE2に配置し、鼻輪郭形状RNを重心位置PRNに配置し、口輪郭形状RMを重心位置PRMに配置する。これにより、基準マスクBM’が生成される。
ステップS36において、顔色領域中心位置算出部65は、供給されてきた顔色領域における中心位置P’を算出し、基準マスク比較部63、および顔色領域中心整合判定部66に供給する。より具体的には、まず、顔色領域中心位置算出部65は、例えば、図6の顔色領域Z1で示されるように、顔色領域Z1の端部を結ぶ直線が最長となる直線L1と、直線L1に垂直に交わり、かつ、顔色領域Z1の端部を結ぶ直線が最長となる直線L2とを設定する。そして、顔色領域中心位置算出部65は、直線L1,L2の交点を中心位置P’として算出する。
ステップS37において、顔色領域中心整合判定部66は、顔色領域Z1および中心位置P’とから、中心位置P’が顔色領域Z1内に存在するか否かを判定する。例えば、図6で示されるように、中心位置P’が顔色領域Z1内に存在する場合、顔色領域Z1および中心位置P’とから、中心位置P’が顔色領域Z1内に存在するものとみなされ、処理は、ステップS38に進む。
ステップS38において、基準マスク比較部63は、中心位置調整部81を制御して、顔色領域Z1における中心位置P’と、生成した基準マスクの中点P(図4)とが一致するように中心位置を調整して、顔色領域Z1と基準マスクBM’とを重ねる。
ステップS39において、基準マスク比較部63は、スケール調整部82を制御して、基準マスクBM’における上端P1、および下端P2の位置が、直線L1またはL2の顔色領域Z1の端部の交点となるようにスケールを調整させる。すなわち、図6で示されるように、上端P1と下端P2とが直線L1における顔色領域Z1との交点と一致するように、基準マスクBM’のスケールを調整する。
ステップS40において、基準マスク比較部63は、回転部83を制御して、スケールが調整された基準マスクBM’を、エッジ画像として抽出されている顔色領域Z1に対して所定の回転基準位置で重なるようにセットする。例えば、基準マスクの上端P1および下端P2が、いずれも直線L1上に存在する位置を回転基準位置とすれば、図6で示されるように、基準マスクBM’がセットされる。
ステップS41において、基準マスク比較部63は、高周波成分存在判定部84を制御し、右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、および口輪郭形状RMのそれぞれの同位置に同形状の顔色領域Z1の高周波成分が存在するか否かを判定させる。ステップS41において、右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、および口輪郭形状RMのそれぞれの同位置に、同形状の顔色領域Z1の高周波成分が存在しない場合、処理は、ステップS42に進む。
ステップS42において、基準マスク比較部63は、回転部83を制御して、基準マスクを、中点Pを中心として所定角度だけ回転させる。そして、ステップS43において、基準マスク比較部63は、回転部83を制御して、360度回転したか否かを判定させる。ステップS43において、360度回転していないと判定された場合、処理は、ステップS41に戻る。すなわち、ステップS41において、右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、および口輪郭形状RMのそれぞれの同位置に同形状の顔色領域Z1の高周波成分が存在しない場合、ステップS41乃至S43の処理が繰り返される。この間、基準マスクBM’は、中点Pを中心として所定角度の間隔で回転され、その都度右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、および口輪郭形状RMのそれぞれの同位置に同形状の顔色領域Z1の高周波成分が存在するか否かが判定され続ける。
そして、ステップS41において、右目輪郭形状RE1、左目輪郭形状RE2、鼻輪郭形状RN、および口輪郭形状RMのそれぞれの同位置に同形状の顔色領域Z1の高周波成分が存在すると判定された場合、処理は、ステップS44に進む。すなわち、顔色領域Z1の顔画像における目、鼻、および口の輪郭形状がそれぞれ基準マスクと同位置で、かつ、同形状である場合、基準マスクと一致し、基準マスク情報として登録された人物の顔画像が検出されたと判定されたものとみなされる。
そして、ステップS44において、基準マスク比較部63は、今現在基準マスクにおける顔を構成する各パーツの配置状態に対応した、顔色領域Z1の画像を、基準マスク情報として登録されている人物の顔画像として顔画像検索結果出力部64に供給する。この際、基準マスク比較部63は、顔画像が検出された時点での基準マスクの回転角度の情報を併せて顔画像検索結果出力部64に供給する。顔画像検索結果出力部64は、基準マスク比較部63より供給されてきた顔画像と、回転角度の情報を顔画像検索結果として出力する。
一方、ステップS37において、中心位置P’が顔色領域Z1内に存在しないと判定された場合、処理は、ステップS45に進む。すなわち、例えば、図7で示されるように、顔色領域Z1が、顔画像として成立しない形状であるとき、上述した直線L1,L2に基づいて求められる中心位置P’は、顔色領域Z1内に存在しないことになる。このような場合、中心位置P’が顔色領域Z1内に存在しないものとみなされ、処理は、ステップS45に進む。
また、ステップS43において、基準マスクを360度回転させていると判定されている場合、基準マスクに相当する顔画像が顔色領域Z1には存在しないものとして、処理は、ステップS45に進む。
ステップS45において、顔色領域抽出部61は、未処理の基準マスク情報が、基準マスク情報記憶部25に存在するか否かを判定し、未処理の基準マスク情報が存在するか否かを判定し、存在する場合、処理は、ステップS31に戻る。すなわち、未処理の基準マスク情報がなくなるまで、ステップS31乃至S45が繰り返される。そして、ステップS45において、未処理の基準マスクが存在しないと判定された場合、処理は終了する。
以上の処理により、基準マスク情報が求められた後は、顔色領域を検出し、検出した顔色領域に位置とサイズを調整して基準マスクを重ねて、中点Pを基準に所定角度で回転させながら各パーツの存在領域の同形状の輪郭形状の有無により顔画像の検索が可能となる。結果として、顔色領域のみで、基準マスクを回転させるだけで顔画像が検索できるので、通常のブロックマッチングなどを用いた顔画像の検索処理よりも、顔画像の検索処理における計算量を小さくすることができ、高速に顔画像を検索することが可能となる。さらに、入力画像内における顔画像が回転しているような場合、顔画像の回転に対応させて基準マスクを回転させながら顔画像を検索するので、90度以上回転しているような顔画像でも、検索精度を低減させることなく顔画像を検索することが可能となる。また、顔画像が検索される際、顔画像の回転角度も検索させることができるので、動画などで連続的に顔画像が回転するような場合、回転角度の変移を認識することができ、回転角度に応じた情報に基づいて、例えば、時系列の姿勢変化の情報を取得することも可能となる。
尚、顔色領域に対して基準マスクを配置して、回転させることで顔画像を検索するため、回転基準位置から、顔画像であると認識されるまでの角度差が小さければ、顔画像の検索処理をさらに高速に実現することができる。
すなわち、図8で示されるような顔色領域Z2のように、顔色領域Z2におけるエッジ画像から、例えば、右目、左目、および口の重心位置Z11,Z12,Z13が認識できるような場合、これらに併せて基準マスクの回転基準位置を設定するようにしてもよい。この結果、基準マスクをほとんど回転させることなく、顔画像を検索することができるので、顔画像検索処理に掛かる処理負荷を低減させることで、検索精度を低減させることなく、高速に顔画像を検索させることが可能となる。また、これ以外にも、顔色領域において、帽子や髪飾りなどの位置が認識できれば、顔色領域内の顔画像の回転角度がある程度認識できるので、その角度に対応した角度で基準マスクの回転基準位置を設定することで、顔画像をより高速に検索することが可能となる。
ところで、上述した一連の監視処理は、ハードウェアにより実行させることもできるが、ソフトウェアにより実行させることもできる。一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。
図9は、汎用のパーソナルコンピュータの構成例を示している。このパーソナルコンピュータは、CPU(Central Processing Unit)1001を内蔵している。CPU1001にはバス1004を介して、入出力インタ-フェイス1005が接続されている。バス1004には、ROM(Read Only Memory)1002およびRAM(Random Access Memory)1003が接続されている。
入出力インタ-フェイス1005には、ユーザが操作コマンドを入力するキーボード、マウスなどの入力デバイスよりなる入力部1006、処理操作画面や処理結果の画像を表示デバイスに出力する出力部1007、プログラムや各種データを格納するハードディスクドライブなどよりなる記憶部1008、LAN(Local Area Network)アダプタなどよりなり、インターネットに代表されるネットワークを介した通信処理を実行する通信部1009が接続されている。また、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory)、DVD(Digital Versatile Disc)を含む)、光磁気ディスク(MD(Mini Disc)を含む)、もしくは半導体メモリなどのリムーバブルメディア1011に対してデータを読み書きするドライブ1010が接続されている。
CPU1001は、ROM1002に記憶されているプログラム、または磁気ディスク、光ディスク、光磁気ディスク、もしくは半導体メモリ等のリムーバブルメディア1011から読み出されて記憶部1008にインストールされ、記憶部1008からRAM1003にロードされたプログラムに従って各種の処理を実行する。RAM1003にはまた、CPU1001が各種の処理を実行する上において必要なデータなども適宜記憶される。
尚、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理は、もちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理を含むものである。
また、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
11 顔画像抽出装置, 21 画像取得部、 22 顔画像検出部, 23 基準マスク情報生成部, 24 顔画像検索部, 25 基準マスク情報記憶部, 31 顔画像方向補正部, 32 高周波成分抽出部, 33 輪郭抽出部, 34 基準マスク情報抽出部, 35 類似判定部, 41 顔パーツ抽出部, 42 顔パーツテンプレート記憶部, 43 顔色抽出部, 61 顔色領域抽出部, 62 高周波成分抽出部, 63 基準マスク比較部, 64 顔画像検索結果出力部, 65 顔色領域中心位置算出部, 66 顔色領域中心整合判定部, 81 中心位置調整部, 82 スケール調整部, 83 回転部, 84 高周波成分存在判定部

Claims (6)

  1. 画像より顔画像を検出する顔画像検出手段と、
    前記顔画像検出手段により検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成する基準マスク生成手段と、
    前記画像より顔色領域を検出する顔色領域検出手段と、
    前記顔色領域検出手段により検出された顔色領域について、前記基準マスクを用いて顔画像を検索する顔画像検索手段と
    を含む画像処理装置。
  2. 前記顔画像検出手段により検出された顔画像の高周波成分を抽出する高周波成分抽出手段をさらに含み、
    前記基準マスク生成手段は、前記顔画像検出手段により検出された顔画像の高周波成分の分布から、前記顔画像を構成する各パーツの配置を認識し、その認識結果から基準マスクを生成する
    請求項1に記載の画像処理装置。
  3. 前記顔色領域の高周波成分を抽出する高周波成分抽出手段をさらに含み、
    前記顔画像検索手段は、前記顔色領域と一致するように、前記基準マスクの大きさ、および位置を調整し、前記基準マスク上の所定の位置を中心として、前記基準マスクを回転させ、前記高周波成分抽出手段により抽出された高周波成分の分布と、前記基準マスクにおける前記パーツの位置関係とが一致するか否かにより前記顔画像を検索する
    請求項1に記載の画像処理装置。
  4. 前記顔画像検索手段は、前記基準マスク上の所定の位置を中心として、前記高周波成分抽出手段により抽出された高周波成分の分布と、前記基準マスク上における前記パーツの位置関係とが所定の関係となる位置より、前記基準マスクを回転させ、前記高周波成分抽出手段により抽出された高周波成分の分布と、前記基準マスクにおける前記パーツの位置関係が一致するか否かにより前記顔画像を検索する
    請求項3に記載の画像処理装置。
  5. 画像より顔画像を検出する顔画像検出ステップと、
    前記顔画像検出ステップの処理により検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成する基準マスク生成ステップと、
    前記画像より顔色領域を検出する顔色領域検出ステップと、
    前記顔色領域検出ステップの処理により検出された顔色領域について、前記基準マスクを用いて顔画像を検索する顔画像検索ステップと
    を含む画像処理方法。
  6. 画像より顔画像を検出する顔画像検出ステップと、
    前記顔画像検出ステップの処理により検出された顔画像を構成するパーツの配置に基づいて、基準マスクを生成する基準マスク生成ステップと、
    前記画像より顔色領域を検出する顔色領域検出ステップと、
    前記顔色領域検出ステップの処理により検出された顔色領域について、前記基準マスクを用いて顔画像を検索する顔画像検索ステップと
    を含む処理をコンピュータに実行させるプログラム。
JP2009290903A 2009-12-22 2009-12-22 画像処理装置および方法、並びにプログラム Withdrawn JP2011133977A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009290903A JP2011133977A (ja) 2009-12-22 2009-12-22 画像処理装置および方法、並びにプログラム
US12/906,376 US20110150339A1 (en) 2009-12-22 2010-10-18 Apparatus, method, and program for image processing
CN2010105682475A CN102103687A (zh) 2009-12-22 2010-12-01 图像处理设备、方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009290903A JP2011133977A (ja) 2009-12-22 2009-12-22 画像処理装置および方法、並びにプログラム

Publications (1)

Publication Number Publication Date
JP2011133977A true JP2011133977A (ja) 2011-07-07

Family

ID=44151207

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009290903A Withdrawn JP2011133977A (ja) 2009-12-22 2009-12-22 画像処理装置および方法、並びにプログラム

Country Status (3)

Country Link
US (1) US20110150339A1 (ja)
JP (1) JP2011133977A (ja)
CN (1) CN102103687A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276271A1 (ja) * 2021-06-28 2023-01-05 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107615288B (zh) * 2015-03-28 2021-10-22 英特尔公司 姿态匹配机制
CN110929708A (zh) * 2019-09-30 2020-03-27 京东数字科技控股有限公司 识别泰国身份证中国旗的方法、设备及存储介质
CN112115803B (zh) * 2020-08-26 2023-10-13 深圳市优必选科技股份有限公司 口罩状态提醒方法、装置及移动终端

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000067237A (ja) * 1998-08-17 2000-03-03 Victor Co Of Japan Ltd 人物識別装置
JP4519681B2 (ja) * 2004-02-26 2010-08-04 大日本印刷株式会社 人物の唇領域マスクデータの作成方法および作成装置
JP2004265431A (ja) * 2004-04-05 2004-09-24 Konica Minolta Holdings Inc 顔抽出方法
CN100377164C (zh) * 2004-10-21 2008-03-26 佳能株式会社 用于检测图像中的人脸肤色区域的方法、装置和存储介质
JP5354842B2 (ja) * 2006-05-26 2013-11-27 キヤノン株式会社 画像処理方法および画像処理装置
CN101163189A (zh) * 2006-10-13 2008-04-16 上海银晨智能识别科技有限公司 人脸图像校正方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023276271A1 (ja) * 2021-06-28 2023-01-05 ソニーグループ株式会社 情報処理装置、情報処理方法、及び記録媒体

Also Published As

Publication number Publication date
CN102103687A (zh) 2011-06-22
US20110150339A1 (en) 2011-06-23

Similar Documents

Publication Publication Date Title
JP7365445B2 (ja) コンピューティング装置及び方法
JP7046625B2 (ja) 顔認証方法及び装置
TWI687832B (zh) 生物識別系統及用於生物識別之電腦實施方法
KR20190001066A (ko) 얼굴 인증 방법 및 장치
KR102415509B1 (ko) 얼굴 인증 방법 및 장치
JP5873442B2 (ja) 物体検出装置および物体検出方法
JP5715833B2 (ja) 姿勢状態推定装置および姿勢状態推定方法
JP4410732B2 (ja) 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
US20180075291A1 (en) Biometrics authentication based on a normalized image of an object
CN111344703A (zh) 基于虹膜识别的用户认证设备和方法
Levinshtein et al. Hybrid eye center localization using cascaded regression and hand-crafted model fitting
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
US20190286891A1 (en) Unconstrained ear recognition using a combination of deep learning and handcrafted features
JP5480532B2 (ja) 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム
JP2004265267A (ja) 顔認証方法、および顔認証装置。
JP2011133977A (ja) 画像処理装置および方法、並びにプログラム
US20180211089A1 (en) Authentication method and authentication apparatus using synthesized code for iris
US10176374B2 (en) Image processing method and apparatus
JP2010244381A (ja) ガボアフィルタ、画像認識装置および方法、プログラム、並びに記録媒体
US20140050404A1 (en) Combining Multiple Image Detectors
US20220139113A1 (en) Method and device for detecting object in image
KR102380426B1 (ko) 얼굴 인증 방법 및 장치
JP4660534B2 (ja) 顔画像による顔領域追跡方法及びその装置
JP2008015871A (ja) 認証装置、及び認証方法
WO2023175939A1 (ja) 情報処理装置、情報処理方法、及び、記録媒体

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130305