JP4884251B2 - 撮影装置および方法並びにプログラム - Google Patents

撮影装置および方法並びにプログラム Download PDF

Info

Publication number
JP4884251B2
JP4884251B2 JP2007030074A JP2007030074A JP4884251B2 JP 4884251 B2 JP4884251 B2 JP 4884251B2 JP 2007030074 A JP2007030074 A JP 2007030074A JP 2007030074 A JP2007030074 A JP 2007030074A JP 4884251 B2 JP4884251 B2 JP 4884251B2
Authority
JP
Japan
Prior art keywords
face
candidate
image
component
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007030074A
Other languages
English (en)
Other versions
JP2008197762A (ja
Inventor
克俊 井澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2007030074A priority Critical patent/JP4884251B2/ja
Priority to KR1020080011635A priority patent/KR100942766B1/ko
Priority to US12/027,848 priority patent/US7868915B2/en
Priority to CN2008100097270A priority patent/CN101241549B/zh
Publication of JP2008197762A publication Critical patent/JP2008197762A/ja
Application granted granted Critical
Publication of JP4884251B2 publication Critical patent/JP4884251B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)

Description

本発明は、撮影により画像を取得するデジタルカメラ等の撮影装置および方法並びに撮影方法をコンピュータに実行させるためのプログラムに関するものである。
デジタルカメラによる撮影において、撮影により取得した画像から例えば顔等の対象物を検出し、その対象物の検出結果に応じて画像に施す画像処理の条件を変更したり、撮影時における撮影条件を変更したりすることが行われている。また、とくに対象物を顔とした場合において、検出した顔の数をカウントしたり、検出した顔をトリミングして記録することも行われている。
このように画像から対象物を検出して種々の処理を行うためには、画像から正確に対象物を検出する必要がある。このため、対象物を正確に検出するための各種手法が提案されている。例えば、認証対象者の顔画像を撮影し、顔画像から認証対象者の顔の特徴量を抽出し、抽出した特徴量と基準の特徴量との類似度を計算し、この計算により得られる類似度をしきい値と比較して、認証対象者が本人であるか否かを認証する際に、認証対象者の利用頻度の高い時間帯か否かに応じてしきい値を変更することにより、認証対象者の利用頻度の高い時間帯における認証率を向上させる手法が提案されている(特許文献1参照)。
また、画像から顔候補を検出し、顔候補の色の分散値が小さい場合、肌色領域の占有率が大きい場合等の所定の条件を満たさない顔候補を非顔として、検出した顔候補から排除する手法も提案されている(特許文献2参照)。
特開2002−183734号公報 特開2005−78376号公報
上記特許文献1,2に記載された手法により、顔の認証精度または顔の検出精度を向上することができるが、さらに精度を向上させることが望まれている。
本発明は上記事情に鑑みなされたものであり、画像からの顔の検出精度をより向上させることを目的とする。
顔と非顔とでは、目、鼻および口等の顔の構成部品の有無という大きな相違がある。したがって、顔の構成部品を考慮することは、画像に含まれる顔候補が真の顔であるか否かを判断するための有効な手がかりとなりうる。本発明はこの点に着目してなされたものである。
すなわち、本発明による第1の撮影装置は、撮影により画像を取得する撮影手段と、
前記画像に含まれるすべての顔候補を検出する顔検出手段と、
前記各顔候補に含まれる少なくとも1つの顔構成部品の候補を該顔構成部品毎に検出する顔構成部品検出手段と、
前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記各顔候補が真の顔であるか否かを判定する判定手段とを備えたことを特徴とするものである。
「顔構成部品」とは、顔に含まれる構成部品のことであり、具体的には両目の目頭、両目の目尻、左右の鼻の穴の脇、左右の口元および口の中央部分等を顔構成部品とすることができる。ここで、顔候補が真の顔である場合、顔構成部品候補は、顔構成部品がある位置に1つのみ検出されるわけではなく、顔構成部品の周囲にばらつく形で複数検出されることが多い。このため、本願発明においては、1つの顔構成部品について1以上の顔構成部品候補が検出されるものである。
本発明による第2の撮影装置は、撮影により画像を取得する撮影手段と、
前記画像に含まれるすべての顔候補を検出する顔検出手段と、
前記各顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出する顔構成部品検出手段と、
前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記各顔候補が真の顔であるか否かを判定する判定手段とを備えたことを特徴とするものである。
なお、本発明による第2の撮影装置においては、前記判定手段を、前記顔候補の領域内における前記各顔構成部品候補の、対応する前記顔構成部品に対する位置的な尤度を算出し、該位置的な尤度に基づいて前記各顔候補が真の顔であるか否かを判定する手段としてもよい。
また、本発明による第2の撮影装置においては、前記判定手段を、前記顔候補の領域内における前記各顔構成部品候補の、対応する前記顔構成部品以外の他の顔構成部品に対する位置関係の尤度を算出し、該位置関係の尤度に基づいて前記各顔候補が真の顔であるか否かを判定する手段としてもよい。
また、本発明による第2の撮影装置においては、前記判定手段を、前記各顔候補の領域内において前記各顔構成部品候補の位置が対応する顔構成部品の位置となるように前記各顔候補を正規化し、該正規化した前記各顔候補内における前記各顔構成部品候補の位置に基づいて、前記各顔候補が真の顔であるか否かを判定する手段としてもよい。
「顔候補を正規化する」とは、顔構成部品候補を顔候補の領域内における本来あるべき位置に位置せしめることである。具体的には顔候補の領域内の画像をアフィン変換して、各顔構成部品を拡大縮小、平行移動および回転することにより、各顔構成部品候補の位置を本来あるべき位置に位置せしめることができる。
本発明による第3の撮影装置は、撮影により画像を取得する撮影手段と、
前記画像に含まれるすべての顔候補を検出する顔検出手段と、
前記各顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出する顔構成部品検出手段と、
前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記各顔候補が真の顔、非顔および曖昧顔のいずれであるかを判定し、該曖昧顔であると判定された前記顔候補について、前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記曖昧顔であると判定された顔候補が前記真の顔であるか否かを判定する判定手段とを備えたことを特徴とするものである。
なお、本発明による第1から第3の撮影装置においては、前記顔検出手段を、所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を前記顔候補として検出するか、前記真の顔として検出するかを、所定の条件に基づいて切り換える手段としてもよい。
また、本発明による第1から第3の撮影装置においては、前記撮影手段が、連続して前記画像を取得する手段である場合において、
前記顔検出手段を、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該真の顔が検出されなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する手段としてもよい。
また、本発明による第3の撮影装置においては、前記撮影手段が、連続して前記画像を取得する手段である場合において、
前記顔検出手段を、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する手段としてもよい。
本発明による第1の撮影方法は、撮影により画像を取得し、
前記画像に含まれるすべての顔候補を検出し、
前記各顔候補に含まれる少なくとも1つの顔構成部品の候補を該顔構成部品毎に検出し、
前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記各顔候補が真の顔であるか否かを判定することを特徴とするものである。
本発明による第2の撮影方法は、撮影により画像を取得し、
前記画像に含まれるすべての顔候補を検出し、
前記各顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出し、
前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記各顔候補が真の顔であるか否かを判定することを特徴とするものである。
本発明による第3の撮影方法は、撮影により画像を取得し、
前記画像に含まれるすべての顔候補を検出し、
前記各顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出し、
前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記各顔候補が真の顔、非顔および曖昧顔のいずれであるかを判定し、
前記曖昧顔であると判定された前記顔候補について、前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記曖昧顔であると判定された顔候補が前記真の顔であるか否かを判定することを特徴とするものである。
なお、本発明による第1から第3の撮影方法をコンピュータに実行させるためのプログラムとして提供してもよい。
本発明の第1の撮影装置および方法によれば、撮影により取得された画像に含まれるすべての顔候補が検出され、各顔候補に含まれる少なくとも1つの顔構成部品の候補が、顔構成部品毎に検出される。そして、顔構成部品毎に検出された顔構成部品候補の数に基づいて、各顔候補が真の顔であるか否かが判定される。ここで、顔には、目、鼻および口等の顔構成部品が含まれており、顔候補が真の顔である場合には、1つの顔構成部品について検出される顔構成部品候補が多くなる。したがって、顔候補に含まれる顔構成部品毎の顔構成部品候補の数に基づいて各顔候補が真の顔であるか否かを判定することにより、顔候補から真の顔を精度良く検出することができる。
本発明の第2の撮影装置および方法によれば、撮影により取得された画像に含まれるすべての顔候補が検出され、各顔候補に含まれる複数の顔構成部品の候補が顔構成部品毎に検出される。そして、顔構成部品毎に検出された顔構成部品候補の位置に基づいて、各顔候補から真の顔が検出される。ここで、顔には、目、鼻および口等の顔構成部品が含まれており、顔候補が真の顔である場合には、顔構成部品候補は対応する顔構成部品の位置に存在することとなる。したがって、顔候補に含まれる顔構成部品候補の位置に基づいて各顔候補が真の顔であるか否かを判定することにより、顔候補から真の顔を精度良く検出することができる。
この場合、各顔構成部品候補の位置が対応する顔構成部品の位置となるように各顔候補を正規化することにより、より精度良く顔候補が真の顔であるか否かを判定することができる。
本発明の第3の撮影装置および方法によれば、撮影により取得された画像に含まれるすべての顔候補が検出され、各顔候補に含まれる複数の顔構成部品の候補が顔構成部品毎に検出される。そして、検出された顔構成部品候補の数に基づいて、各顔候補が真の顔、非顔および曖昧顔のいずれであるかが判定される。そして、曖昧顔と判定された顔候補について、各顔構成部品候補の位置に基づいて真の顔であるか否かが判定される。
ここで、顔構成部品候補の数に基づいて真の顔であるか否かを判定する場合と、顔構成部品候補の位置に基づいて真の顔であるか否かを判定する場合とでは、前者の方が演算量が少ない。このため、顔構成部品候補の数に基づいて曖昧顔と判定された顔候補についてのみ、顔構成部品候補の位置に基づいて真の顔であるか否かを判定することにより、演算量を低減して精度良く顔候補から真の顔を検出することができる。
以下、図面を参照して本発明の実施形態について説明する。図1は本発明の第1の実施形態による撮影装置を適用したデジタルカメラの構成を示す概略ブロック図である。図1に示すように本実施形態によるデジタルカメラ1は、動作モードスイッチ、ズームレバー、上下左右ボタン、レリーズボタンおよび電源スイッチ等の操作系2と、操作系2の操作内容をCPU40に伝えるためのインターフェース部分である操作系制御部3とを有している。
撮像系6としては、撮影レンズ10を構成するフォーカスレンズ10aおよびズームレンズ10bを有している。各々のレンズは、モータとモータドライバとからなるフォーカスレンズ駆動部11およびズームレンズ駆動部12によって光軸方向に移動可能である。フォーカスレンズ駆動部11はAF処理部30から出力されるフォーカス駆動量データに基づいて、ズームレンズ駆動部12はズームレバーの操作量データに基づいて、各々のレンズの移動を制御する。
また、絞り14は、モータとモータドライバとからなる絞り駆動部15によって駆動される。この絞り駆動部15は、AE/AWB処理部31から出力される絞り値データに基づいて絞り径の調整を行う。
シャッタ16は、メカニカルシャッタであり、モータとモータドライバとからなるシャッタ駆動部17によって駆動される。シャッタ駆動部17は、レリーズボタンの押下により発生する信号と、AE/AWB処理部31から出力されるシャッタスピードデータとに応じて、シャッタ16の開閉の制御を行う。
光学系の後方には撮像素子であるCCD18を有している。CCD18は、多数の受光素子を2次元的に配列した光電面を有しており、光学系を通過した被写体光がこの光電面に結像し、光電変換される。光電面の前方には、各画素に光を集光するためのマイクロレンズアレイと、R,G,B各色のフィルタが規則的に配列されたカラーフィルタアレイとが配置されている。CCD18は、CCD制御部19から供給される垂直転送クロックおよび水平転送クロックに同期して、画素毎に蓄積された電荷を1ラインずつシリアルなアナログ撮影信号として出力する。各画素において電荷を蓄積する時間、すなわち、露光時間は、CCD制御部19から与えられる電子シャッタ駆動信号によって決定される。また、CCD18はCCD制御部19により、あらかじめ定められた大きさのアナログ撮像信号が得られるようにゲインが調整されている。
なお、撮影レンズ10、絞り14、シャッタ16およびCCD18が撮像系6を構成する。
CCD18から取り込まれたアナログ撮影信号は、アナログ信号処理部20に入力される。アナログ信号処理部20は、アナログ信号のノイズを除去する相関2重サンプリング回路(CDS)と、アナログ信号のゲインを調節するオートゲインコントローラ(AGC)と、アナログ信号をデジタル信号に変換するA/Dコンバータ(ADC)とからなる。なお、アナログ信号処理部20が行う処理をアナログ信号処理とする。このデジタル信号に変換された画像データは、画素毎にR,G,Bの濃度値を持つCCD−RAWデータである。
タイミングジェネレータ21は、タイミング信号を発生させるものであり、このタイミング信号をシャッタ駆動部17、CCD制御部19、およびアナログ信号処理部20に供給することにより、レリーズボタンの操作、シャッタ16の開閉、CCD18の電荷の取込み、およびアナログ信号処理部20の処理の同期をとっている。
フラッシュ制御部23は、撮影時にフラッシュ24を発光させる。
画像入力コントローラ25は、アナログ信号処理部20から入力されたCCD−RAWデータをフレームメモリ26に書き込む。
フレームメモリ26は、画像データに対して後述の各種画像処理(信号処理)を行う際に使用する作業用メモリであり、例えば、一定周期のバスクロック信号に同期してデータ転送を行うSDRAM(Synchronous Dynamic Random Access Memory)が使用される。
表示制御部27は、フレームメモリ26に格納された画像データをスルー画像としてモニタ28に表示させたり、再生モード時に記録メディア35に保存されている画像データをモニタ28に表示させたりするためのものである。なお、スルー画像は、撮影モードが選択されている間、所定時間間隔でCCD18により連続して撮影される。
AF処理部30およびAE/AWB処理部31は、プレ画像に基づいて撮影条件を決定する。このプレ画像とは、レリーズボタンが半押しされることによって発生する半押し信号を検出したCPU40がCCD18にプレ撮影を実行させた結果、フレームメモリ26に格納された画像データにより表される画像である。
AF処理部30は、プレ画像に基づいて焦点位置を検出し、フォーカス駆動量データを出力する(AF処理)。焦点位置の検出方式としては、例えば、所望とする被写体にピントが合った状態では画像のコントラストが高くなるという特徴を利用して合焦位置を検出するパッシブ方式が考えられる。
AE/AWB処理部31は、プレ画像に基づいて被写体輝度を測定し、測定した被写体輝度に基づいてISO感度、絞り値およびシャッタスピード等を決定し、ISO感度データ、絞り値データおよびシャッタスピードデータを露出設定値として決定するとともに(AE処理)、撮影時のホワイトバランスを自動調整する(AWB処理)。なお、露出およびホワイトバランスについては、撮影モードがマニュアルモードに設定されている場合には、デジタルカメラ1の撮影者がマニュアル操作により設定可能である。また、露出およびホワイトバランスが自動で設定された場合にも、撮影者が操作系2から指示を行うことにより、露出およびホワイトバランスをマニュアル調整することが可能である。
画像処理部32は、本画像の画像データに対して、階調補正、シャープネス補正、色補正等の画質補正処理、CCD−RAWデータを輝度信号であるYデータと、青色色差信号であるCbデータおよび赤色色差信号であるCrデータとからなるYCデータに変換するYC処理を行う。この本画像とは、レリーズボタンが全押しされることによって実行される本撮影によりCCD18から取り込まれ、アナログ信号処理部20、画像入力コントローラ25経由でフレームメモリ26に格納された画像データによる画像である。本画像の画素数の上限は、CCD18の画素数によって決定されるが、例えば、ファイン、ノーマル等の設定により、記録画素数を変更することができる。一方、スルー画像およびプレ画像の画像数は、本画像よりも少なく、例えば、本画像の1/16程度の画素数で取り込まれる。
圧縮/伸長処理部33は、画像処理部32によって補正・変換処理が行われた本画像の画像データに対して、例えば、JPEG等の圧縮形式で圧縮処理を行い、画像ファイルを生成する。この画像ファイルには、Exifフォーマット等に基づいて、撮影日時等の付帯情報が格納されたタグが付加される。また、圧縮/伸長処理部33は、再生モードの場合には、記録メディア35から圧縮された画像ファイルを読み出し、伸長処理を行う。伸長後の画像データはモニタ28に出力され、画像データの画像が表示される。
メディア制御部34は、記録メディア35にアクセスして画像ファイルの書き込みと読み込みの制御を行う。
内部メモリ36は、デジタルカメラ1において設定される各種定数、およびCPU40が実行するプログラム等を記憶する。
顔検出部37は、撮影により取得された画像に含まれるすべての顔候補を検出する。なお、画像は、スルー画像、プレ画像および本画像のいずれであってもよい。ここで、顔を検出する手法としては、あるサイズを有する検出枠を画像上少しずつ移動させ、移動した位置毎に検出枠内の画像から特徴量を算出し、あらかじめ定められていた顔特徴量とのマッチング度を算出し、マッチング度がしきい値Th0以上となる検出枠の位置を顔候補として検出する手法を用いる。なお、検出枠の大きさを変更することにより異なる大きさの顔候補の検出が可能となる。
これにより、図2に示すように画像G1から矩形の検出枠により囲まれる顔候補F1〜F5を検出することができる。なお、図2においては、検出されるのは顔の候補であるため、顔が存在しない部分においても検出枠により囲まれる領域が含まれている。
なお、顔候補を検出する手法はこれに限定されるものではなく、例えば画像における肌色を有しかつ顔の輪郭形状を囲む矩形の領域を顔候補として検出する手法、顔の輪郭形状をなす領域を顔候補として検出する手法等、任意の手法を用いることができる。
顔構成部品検出部38は、顔候補に含まれる複数の顔構成部品についての候補である顔構成部品候補を検出する。本実施形態においては、両目の目尻K1,K2、両目の目頭K3,K4、左右の鼻の穴の脇K5,K6、左右の口元K7,K8および口の中央部分K9の9個の顔構成部品K1〜K9についての顔構成部品候補を検出するものとする。具体的には、矩形の各顔構成部品のパターンを、処理対象の顔候補の領域内の画像上を少しずつ移動させ、移動した位置毎にマッチング度を算出し、マッチング度があらかじめ定められたしきい値Th1以上となったパターンの位置の座標を顔構成部品候補として検出する。なお、座標は顔候補内の領域の左上隅を原点とした場合の顔候補内における座標である。
ここで、顔候補が真の顔である場合、マッチング度がしきい値Th1以上となるパターンの位置を顔構成部品候補として検出すると、顔構成部品候補は対応する顔構成部品K1〜K9の位置において1つのみ検出されるものではなく、対応する顔構成部品K1〜K9の周囲に複数分布して検出されることが多い。このため、顔構成部品検出部38は、各顔構成部品毎に1以上の顔構成部品候補を検出する。
ここで、顔候補に9つの顔構成部品K1〜K9のすべてが含まれている場合、図3(a)に示すように両目の目尻K1,K2、両目の目頭K3,K4、左右の鼻の穴の脇K5,K6、左右の口元K7,K8および口の中央部分K9の9個の顔構成部品のそれぞれに対応する顔構成部品候補が検出される。また、例えば左目の目頭について、図3(b)の×印で示すように複数の顔構成部品候補が検出される。
なお、マッチング度がしきい値Th1以上となる顔構成部品候補が検出されない場合には、対応する顔構成部品の候補は検出されなかったものとする。
判定部39は、顔検出部37が検出したすべての顔候補について、顔構成部品検出部38が検出した顔構成部品毎の顔構成部品候補の数に基づいて真の顔であるか否かを判定して、真の顔と判定された顔候補を真の顔として検出する。具体的には、すべての顔候補のうちの処理対象の顔候補について、上記9個の顔構成部品K1〜K9のそれぞれについての顔構成部品候補の総数N1〜N9を算出し、さらに総数N1〜N9の加算値であるNsumを算出する。そして加算値Nsumがしきい値Th2以上である場合に、処理対象の顔候補を真の顔であると判定し、その顔候補を真の顔として検出する。なお、加算値Nsumがしきい値Th2未満の場合は処理対象の顔候補を非顔と判定する。
なお、上記9個の顔構成部品K1〜K9のそれぞれについての顔構成部品候補の総数N1〜N9を9次元空間にプロットし、9次元空間においてしきい値を定める超平面または超曲面を設定し、プロットした総数N1〜N9がしきい値を定める超平面または超曲面のいずれの側にあるかに応じて、処理対象の顔候補が真の顔であるか否かを判定するようにしてもよい。ここで、簡単のために、判定に使用する顔構成部品を左右の口元K7,K8および口の中央部分K9のみとした場合、総数N7〜N9は3次元空間にプロットされる。図4は総数N7〜N9を3次元空間にプロットした状態を示す図である。まず、総数N7〜N9が図4(a)に示すようにプロットされたとすると、そのプロットの位置X1(N7,N8,N9)は、しきい値を設定する超平面A1よりも上側(すなわち値が大きい側)にある。したがって、図4(a)に示すようにプロットがなされた場合は、処理対象の顔候補を真の顔と判定する。
一方、総数N7〜N9が図4(b)に示すようにプロットされたとすると、そのプロットの位置X2(N7,N8,N9)は、しきい値を設定する超平面A1よりも下側(すなわち値が小さい側)にある。したがって、図4(b)に示すようにプロットがなされた場合は、処理対象の顔候補を真の顔でないと判定する。
なお、総数N1〜N9のそれぞれについてしきい値Th3を超えるか否かを判定し、しきい値Th3を超えた総数の数がさらにしきい値Th4を超えたときに、処理対象の顔候補を真の顔であると判定してもよい。
CPU40は、操作系2およびAF処理部30等の各種処理部からの信号に応じてデジタルカメラ1の本体各部を制御する。また、CPU40は、スルー画像の撮影中に、各スルー画像から真の顔を検出するように、顔検出部37、顔構成部品検出部38および判定部39を制御する。なお、判定部39が真の顔を検出すると、CPU40は、図5に示すように検出した真の顔を矩形の領域A1〜A3で囲んでスルー画像を表示するように表示制御部27に指示を行う。なお、矩形の領域は顔検出部37が検出した顔候補の検出枠に相当するものである。
データバス41は、各種処理部、フレームメモリ26およびCPU40等に接続されており、デジタル画像データおよび各種指示等のやり取りを行う。
次いで、第1の実施形態において行われる処理について説明する。図6は第1の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST1)。続いて、顔検出部37がスルー画像に含まれるすべての顔候補を検出する(ステップST2)。
次いで、顔構成部品検出部38が、i番目の顔候補を処理対象の顔候補として、処理対象の顔候補から顔構成部品毎の顔構成部品候補を検出する(ステップST3)。なお、iの初期値は1である。また、処理の順序は、例えばスルー画像上における向かって左側に存在する顔候補から右側に向かって順に行うようにすればよい。
そして、判定部39が、顔構成部品検出部38が検出した顔構成部品毎の顔構成部品候補の総数の加算値Nsumがしきい値Th2以上であるか否かを判定し(ステップST4)、ステップST4が肯定されると、処理対象の顔候補を真の顔と判定して検出する(ステップST5)。一方、ステップST4が否定されると、処理対象の顔候補を非顔と判定する(ステップST6)。
ステップST5,6に続いて、CPU40がすべての顔候補について判定部39が判定を終了したか否かを判定し(ステップST7)、ステップST7が否定されると、iに1を加算し(ステップST8)、ステップST3に戻る。ステップST7が肯定されると、真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST9)、ステップST1にリターンする。
このように、第1の実施形態においては、検出された顔構成部品候補の数に基づいて、各顔候補から真の顔を検出するようにしたものである。ここで、顔には、目、鼻および口等の顔構成部品が含まれており、顔候補が真の顔である場合には、1つの顔構成部品について検出される顔構成部品候補が多くなる。したがって、顔候補に含まれる顔構成部品毎の顔構成部品候補の数に基づいて顔候補が真の顔であるか否かを判定することにより、顔候補から真の顔を精度良く検出することができる。
なお、上記第1の実施形態においては、両目の目尻K1,K2、両目の目頭K3,K4、左右の鼻の穴の脇K5,K6、左右の口元K7,K8および口の中央部分K9の9個の顔構成部品を検出しているが、これらをすべて検出する必要はなく、これらの顔構成部品のうちの1以上の顔構成部品の候補を検出するようにしてもよい。この場合、総数の加算値Nsumと比較するしきい値Th2は、検出する顔構成部品の数に応じて変更すればよい。なお、検出する顔構成部品が1つのみの場合は、両目の目尻および両目の目頭のうちのいずれか1つを検出することが好ましい。また、検出する顔構成部品は、両目の目尻、両目の目頭、左右の鼻の穴の脇、左右の口元および口の中央部分に限定されるものではなく、眉毛、両目の黒目部分等、顔を構成する部品であれば、任意の構成部品を用いることができる。
次いで、本発明の第2の実施形態について説明する。なお、第2の実施形態においては、判定部39が行う処理が第1の実施形態と異なるのみであるため、構成についての詳細な説明はここでは省略する。
第2の実施形態においては、判定部(第1の実施形態と異なるため39Aとする)が、顔構成部品検出部38が検出した顔構成部品毎の顔構成部品候補の位置的な尤度を算出し、位置的な尤度に基づいて顔候補が真の顔であるか否かを判定する。ここで、位置的な尤度とは、顔候補の領域内において、検出された顔構成部品候補がどの程度対応する本来あるべき顔構成部品の位置に位置しているかを表す確率である。
ここで、本実施形態においては、9種類の顔構成部品について各顔構成部品の顔候補内における存在確率を表した確率分布があらかじめ求められている。
図7は顔構成部品の存在確率を表す確率分布を示す図である。図7に示す確率分布は、顔候補を検出した検出枠をあらかじめ定められた一定のサイズに正規化した場合における、検出枠内での両目の目尻K1,K2、両目の目頭K3,K4、左右の鼻の穴の脇K5,K6、左右の口元K7,K8および口の中央部分K9の9個の顔構成部品の存在確率の確率分布を表すものである。なお、図7における丸印B1〜B9は、それぞれ顔候補の両目の目尻K1,K2、両目の目頭K3,K4、左右の鼻の穴の脇K5,K6、左右の口元K7,K8および口の中央部分K9の存在確率を表す確率分布であり、図7における紙面をXY平面とし、紙面に垂直な方向をZ方向とした場合、図8の確率分布のプロファイルに示すようにZ方向が各顔構成部品の存在確率を示すものとなる。したがって、図7における各丸印の中心に近いほど各顔構成部品の存在確率が高いものとなる。
なお、確率分布は多数の顔のサンプル画像を用いてあらかじめ求めておけばよい。
判定部39Aは、顔検出部37が検出した各顔候補を上記一定のサイズに正規化し、正規化した顔候補内の各顔構成部品毎の顔構成部品候補について、対応する顔構成部品の確率分布を参照して存在確率を位置的な尤度として算出する。具体的には、各顔構成部品候補について、対応する顔構成部品の存在確率を表す確率分布付近の位置を求め、その位置における存在確率を位置的な尤度として算出する。これにより、例えば左目目尻の候補1〜4が、図9に示す確率分布B1付近の位置C1〜C4にある場合には、図10に示すように、位置C1にある左目目尻候補1の尤度0%、位置C2にある左目目尻候補2の尤度2%、位置C3にある左目目尻候補3の尤度9%、位置C4にある左目目尻候補4の尤度17%というように、各顔構成部品候補の位置的な尤度が求められる。
さらに判定部39Aは、顔構成部品毎に顔構成部品候補の位置的な尤度の平均値を算出する。図11は2つの顔候補についての顔構成部品毎の顔構成部品候補の位置的な尤度の平均値を示す図である。そして、処理対象の顔候補について、位置的な尤度の平均値がしきい値Th5以上となる顔構成部品の数がしきい値Th6以上であるか否かを判定し、この判定が肯定された場合に処理対象の顔候補を真の顔であると判定して検出する。例えば、しきい値Th5として13%を、本実施形態においては9個の顔構成部品を用いているためしきい値Th6として5を用いるとすると、図11に示す顔候補1について、位置的な尤度の平均値がしきい値Th5以上となる顔構成部品は、左目目尻、左目目頭、右目目頭、左鼻脇、右鼻脇および右口元の6個となり、その数がしきい値Th6以上となるため、処理対象の顔候補1は真の顔と判定されて検出される。一方、顔候補2は尤度の平均値がしきい値Th5以上となる顔構成部品は0個であるため、顔候補2は真の顔とは判定されない。
次いで、第2の実施形態において行われる処理について説明する。図12は第2の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST11)。続いて、顔検出部37がスルー画像に含まれるすべての顔候補を検出する(ステップST12)。次いで、顔構成部品検出部38が、i番目の顔候補を処理対象の顔候補として、処理対象の顔候補から顔構成部品毎の顔構成部品候補を検出する(ステップST13)。
そして、判定部39Aが、顔構成部品毎に顔構成部品候補の位置的な尤度を算出し(ステップST14)、位置的な尤度の平均値がしきい値Th5以上となる顔構成部品の数がしきい値Th6以上であるか否かを判定する(ステップST15)。ステップST15が肯定されると、処理対象の顔候補を真の顔と判定して検出する(ステップST16)。一方、ステップST15が否定されると、処理対象の顔候補を非顔と判定する(ステップST17)。
ステップST16,17に続いて、CPU40がすべての顔候補について判定部39Aが判定を終了したか否かを判定し(ステップST18)、ステップST18が否定されると、iに1を加算し(ステップST19)、ステップST13に戻る。ステップST18が肯定されると、真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST20)、ステップST11にリターンする。
このように、第2の実施形態においては、検出された顔構成部品候補の位置、とくに位置的な尤度に基づいて、各顔候補から真の顔を検出するようにしたものである。ここで、顔には、目、鼻および口等の顔構成部品が含まれており、顔候補が真の顔である場合には、顔構成部品候補は対応する顔構成部品の位置に存在することとなる。したがって、顔候補に含まれる顔構成部品候補の位置に基づいて顔候補が真の顔であるか否かを判定することにより、精度良く顔候補から真の顔を検出することができる。
なお、上記第2の実施形態においては、判定部39Aが顔構成部品毎の顔構成部品候補の位置的な尤度を算出し、これに基づいて顔候補が真の顔であるか否かを判定しているが、顔構成部品毎の顔構成部品候補の位置関係の尤度を算出し、位置関係の尤度に基づいて顔候補が真の顔であるか否かを判定してもよい。以下、これを第3の実施形態として説明する。
第3の実施形態においては、判定部(第1の実施形態と異なるため39Bとする)は、顔構成部品検出部38が検出した顔構成部品毎の顔構成部品候補について、顔構成部品候補毎に他の顔構成部品の位置に対する存在確率を位置関係の尤度として算出し、算出した位置関係の尤度に基づいて顔候補が真の顔であるか否かを判定する。
図13は右目の目頭の、両目の目尻、左目の目頭、左右の鼻の穴の脇、左右の口元および口の中央部分の他の8個の顔構成部品に対する存在確率の確率分布を示す図である。なお、図13において確率分布B11〜B18は、それぞれ右目の目頭の、左目の目尻、右目の目尻、左目の目頭、左の鼻の穴の脇、右の鼻の穴の脇、左の口元、右の口元および口の中央部分に対する存在確率の確率分布を示す。
ここで、位置関係の尤度を算出する対象を右目目頭とした場合、第3の実施形態においては、判定部39Bは、顔検出部37が検出した各顔候補を第2の実施形態と同様に一定のサイズに正規化し、正規化した顔候補内において顔構成部品検出部38が検出した右目目頭候補毎に、確率分布B11〜B18を参照して存在確率を仮の位置関係の尤度として算出する。例えば、右目の目頭の、左目の目尻に対する仮の位置関係の尤度15%、右目の目尻に対する仮の位置関係の尤度12%、左目の目頭に対する仮の位置関係の尤度13%、左の鼻の穴の脇に対する仮の位置関係の尤度10%、右の鼻の穴の脇に対する仮の位置関係の尤度19%、左の口元に対する仮の位置関係の尤度13%、右の口元に対する仮の位置関係の尤度17%および口の中央部分に対する仮の位置関係の尤度15%というように仮の位置関係の尤度を算出する。
そして判定部39Bは、算出した8個の仮の位置関係の尤度の平均値を算出し、さらにこの平均値のすべての顔構成部品候補についての平均値を、その顔構成部品候補の最終的な位置関係の尤度として算出する。
なお、第3の実施形態においては、右目の目頭のみならず、左目の目尻、右目の目尻、左目の目頭、左の鼻の穴の脇、右の鼻の穴の脇、左の口元、右の口元および口の中央部分についても、それぞれ他の顔構成部品に対する存在確率の確率分布が求められており、判定部39Bは、9個すべての顔構成部品の顔構成部品候補について位置関係の尤度を算出する。そして、判定部39Bは顔構成部品毎に算出した9個の顔構成部品候補の位置関係の尤度がしきい値Th7以上となる顔構成部品の数がしきい値Th8以上であるか否かを判定し、この判定が肯定された場合に処理対象の顔候補を真の顔であると判定して検出する。
次いで、第3の実施形態において行われる処理について説明する。図14は第3の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST31)。続いて、顔検出部37がスルー画像に含まれるすべての顔候補を検出する(ステップST32)。次いで、顔構成部品検出部38が、i番目の顔候補を処理対象の顔候補として、処理対象の顔候補から顔構成部品毎の顔構成部品候補を検出する(ステップST33)。なお、iの初期値は1である。
そして、判定部39Bが、顔構成部品毎に顔構成部品候補の位置関係の尤度を算出し(ステップST34)、位置関係の尤度がしきい値Th7以上となる顔構成部品の数がしきい値Th8以上であるか否かを判定する(ステップST35)。ステップST35が肯定されると、処理対象の顔候補を真の顔と判定して検出する(ステップST36)。一方、ステップST35が否定されると、処理対象の顔候補を非顔と判定する(ステップST37)。
ステップST36,37に続いて、CPU40がすべての顔候補について判定部39Bが判定を終了したか否かを判定し(ステップST38)、ステップST38が否定されると、iに1を加算し(ステップST39)、ステップST33に戻る。ステップST38が肯定されると、真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST40)、ステップST31にリターンする。
このように、第3の実施形態においては、検出された顔構成部品の位置、とくに位置関係の尤度に基づいて、各顔候補から真の顔を検出するようにしたものである。ここで、顔には、目、鼻および口等の顔構成部品が含まれており、顔候補が真の顔である場合には、顔構成部品候補は対応する顔構成部品の位置に存在することとなり、さらに顔構成部品間の位置関係は略決まっている。したがって、顔候補に含まれる顔構成部品候補の位置関係に基づいて顔候補が真の顔であるか否かを判定することにより、顔候補から真の顔を精度良く検出することができる。
なお、上記第3の実施形態においては、9種類の顔構成部品のすべての位置関係の尤度を算出し、位置関係の尤度がしきい値Th7以上となる顔構成部品がしきい値Th8以上であるか否かに基づいて顔候補が真の顔か否かを判定しているが、9種類の顔構成部品のすべてを用いる必要はなく、少なくとも1つの顔構成部品についての位置関係の尤度に基づいて顔候補が真の顔か否かを判定するようにしてもよい。
また、上記第2および第3の実施形態においては、検出した顔候補の顔構成部品候補が、対応する各顔構成部品の確率分布上に位置していれば、精度よく位置的な尤度および位置関係の尤度を算出することができるが、図15に示すように顔候補の各顔構成部品候補の位置(図中×で示す)が本来あるべき顔構成部品の位置の確率分布とずれていると、尤度を精度よく算出することができず、その結果、顔候補が真の顔であるか否かを精度よく判定することができない。このため、検出した顔構成部品候補が確率分布内に位置するように、顔候補を正規化することが好ましい。以下、これを第4の実施形態として説明する。
第4の実施形態において、顔候補を正規化するためには、顔候補内の顔構成部品候補のうちのいずれかの顔構成部品候補を対応する顔構成部品の確率分布の中心(すなわち最も確率が高い位置)と一致させるように、顔候補の画像をアフィン変換する。アフィン変換は、平面上の任意の3点を拡大縮小、平行移動および回転することにより任意の3点に移動させる変換であり、具体的には下記の式(1)により表される。
x′=a1・x+b1・y+d1
y′=a2・x+b2・y+d2 (1)
式(1)より、アフィン変換の係数a1,a2,b1,b2,d1,d2を算出するためには、顔候補内および顔構成部品の確率分布内においてそれぞれ対応する3点の座標が必要となる。ここで、顔候補および顔構成部品の確率分布において、図15に示すように左下隅を原点とするXY座標系を考えると、顔構成部品候補P1〜P9が確率分布B1〜B9の中心に位置するようにアフィン変換の係数を設定する必要がある。第4の実施形態においては、顔構成部品毎に顔構成部品検出部38が検出した少なくとも1つの顔構成部品候補のうち、マッチング度が最も高い顔構成部品候補を顔構成部品候補を代表する顔構成部品候補P1〜P9として選択し、選択した9個の顔構成部品候補P1〜P9のうちマッチング度が大きい上位3個の顔構成部品候補を、対応する顔構成部品の確率分布の中心と一致させるようにアフィン変換の係数a1,a2,b1,b2,d1,d2を算出すればよい。
例えば、図15に示す顔構成部品候補P1〜P9のマッチング度がP1>P2>P3>P4>P5…である場合には、顔構成部品候補P1,P2,P3を、対応する顔構成部品の確率分布B1,B2,B3の中心とそれぞれ一致させるようにアフィン変換の係数a1,a2,b1,b2,d1,d2を算出する。
なお、アフィン変換の係数を算出するためには3点の座標を用いるのみならず、4点以上の座標を用いてもよい。例えば、9個の顔構成部品候補P1〜P9のすべてを対応する顔構成部品の確率分布B1〜B9の中心と一致させるようにアフィン変換の係数を算出してもよい。この場合、変換後の9個の顔構成部品候補P1〜P9の座標と、確率分布B1〜B9の中心位置の座標との誤差が最小となるように、最小二乗法を用いてアフィン変換の係数を算出すればよい。
次いで、第4の実施形態において行われる処理について説明する。図16は第4の実施形態において行われる処理を示すフローチャートである。なお、ここでは、第4の実施形態を第2の実施形態に適用した場合の処理について説明するが、第3の実施形態に対しても同様に適用できるものである。
デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST41)。続いて、顔検出部37がスルー画像に含まれるすべての顔候補を検出する(ステップST42)。次いで、顔構成部品検出部38が、i番目の顔候補を処理対象の顔候補として、処理対象の顔候補から顔構成部品毎の顔構成部品候補を検出する(ステップST43)。なお、iの初期値は1である。
そして、判定部39Aが処理対象の顔候補を正規化し(ステップST44)、正規化の後、顔構成部品毎に顔構成部品候補の位置的な尤度を算出し(ステップST45)、位置的な尤度の平均値がしきい値Th5以上となる顔構成部品の数がしきい値Th6以上であるか否かを判定する(ステップST46)。ステップST46が肯定されると、処理対象の顔候補を真の顔と判定して検出する(ステップST47)。一方、ステップST46が否定されると、処理対象の顔候補を非顔と判定する(ステップST48)。
ステップST47,48に続いて、CPU40がすべての顔候補について判定部39Aが判定を終了したか否かを判定し(ステップST49)、ステップST49が否定されると、iに1を加算し(ステップST50)、ステップST43に戻る。ステップST49が肯定されると、真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST51)、ステップST41にリターンする。
このように、第4の実施形態においては、顔候補の領域内において各顔構成部品候補の位置が対応する顔構成部品の位置に位置するように顔候補をアフィン変換して正規化するようにしたため、より精度良く顔候補から真の顔を検出することができる。
なお、上記第4の実施形態においては、顔候補毎にアフィン変換の係数を算出してアフィン変換を行っているが、すべての顔候補について、各顔構成部品について選択した顔構成部品候補の平均位置を算出し、算出した平均位置が確率分布の中心と一致するようにアフィン変換の係数を算出してもよい。この場合においても、9個の顔構成部品から選択した顔構成部品候補のうちの3つの顔構成部品候補からアフィン変換の係数を算出してもよく、4以上の顔構成部品候補からアフィン変換の係数を算出してもよい。
また、上記第4の実施形態においては、正規化前に顔構成部品毎の顔構成部品候補について仮の位置的な尤度または仮の位置関係の尤度を算出し、仮の位置的な尤度または仮の位置関係の尤度が最も高い上位所定数の顔構成部品候補が、対応する顔構成部品の位置(すなわち存在確率がピークとなる位置)と一致するように、顔候補に対してアフィン変換を施すことにより正規化を行うようにしてもよい。
次いで、本発明の第5の実施形態について説明する。なお、第5の実施形態においては、判定部39が行う処理が第1の実施形態と異なるのみであるため、構成についての詳細な説明はここでは省略する。
第5の実施形態においては、判定部(第1の実施形態と異なるため39Cとする)が、顔構成部品検出部38が検出した顔構成部品毎の顔構成部品候補の数に基づいて、顔候補が真の顔、非顔および曖昧顔のいずれかであるかを判定することにより真の顔を検出する第1の判定処理を行い、第1の判定処理により曖昧顔と判定された顔候補について、第2、第3または第4の実施形態と同様に、顔構成部品候補の位置に基づいて顔候補が真の顔であるか否かを判定することにより真の顔を検出する第2の判定処理を行うようにした点が第1の実施形態と異なる。
第5の実施形態における判定部39Cは、第1の判定処理においては、第1の実施形態における判定部39と同様に9個の顔構成部品K1〜K9のそれぞれについての顔構成部品候補の総数N1〜N9を算出し、さらに総数N1〜N9の加算値であるNsumを算出する。そして加算値Nsumがしきい値Th9以上である場合に処理対象の顔候補を真の顔であると判定し、その顔候補を真の顔として検出する。また、加算値Nsumがしきい値Th10以上しきい値Th9未満である場合に処理対象の顔候補を曖昧顔と判定し、加算値Nsumがしきい値Th10未満である場合に処理対象の顔候補を非顔であると判定する。また、曖昧顔と判定された顔候補に対する上記第2、第3または第4の実施形態のいずれかの処理を第2の判定処理として行う。
次いで、第5の実施形態において行われる処理について説明する。図17は第5の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST61)。続いて、顔検出部37がスルー画像に含まれるすべての顔候補を検出する(ステップST62)。次いで、顔構成部品検出部38が、i番目の顔候補を処理対象の顔候補として、処理対象の顔候補から顔構成部品毎の顔構成部品候補を検出する(ステップST63)。なお、iの初期値は1である。
そして、判定部39Cが第1の判定処理を行う(ステップST64)。まず、顔構成部品検出部38が検出した顔構成部品毎の顔構成部品候補の総数の加算値Nsumがしきい値Th9以上であるか否かを判定し(ステップST65)、ステップST65が肯定されると、処理対象の顔候補を真の顔と判定して検出する(ステップST66)。一方、ステップST65が否定されると、加算値Nsumがしきい値Th10以上しきい値Th9未満であるか否かを判定し(ステップST67)、ステップST67が否定されると、処理対象の顔候補を非顔と判定する(ステップST68)。ステップST67が肯定されると、処理対象の顔候補が曖昧顔であるとして、第2の判定処理を行う(ステップST69)。
まず、第2の実施形態と同様に、判定部39Cが、顔構成部品毎に顔構成部品候補の位置的な尤度を算出し(ステップST70)、顔構成部品毎に尤度の平均値がしきい値Th5以上となる顔構成部品の数がしきい値Th6以上であるか否かを判定する(ステップST71)。なお、ステップST70の前に第4の実施形態と同様に処理対象の顔候補を正規化してもよい。また、ステップST70,71の処理を第3の実施形態のステップST34,35の処理と同様に位置関係の尤度を用いて行ってもよい。ステップST71が肯定されると、処理対象の顔候補を真の顔と判定して検出する(ステップST72)。一方、ステップST71が否定されると、処理対象の顔候補を非顔と判定する(ステップST73)。
ステップST66,68,72,73に続いて、CPU40がすべての顔候補について判定部39Cが判定を終了したか否かを判定し(ステップST74)、ステップST74が否定されると、iに1を加算し(ステップST75)、ステップST63に戻る。ステップST74が肯定されると、真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST76)、ステップST61にリターンする。
ここで、顔構成部品候補の数に基づいて顔候補が真の顔であるか否かを判定する場合と、顔構成部品候補の位置に基づいて顔候補が真の顔であるか否かを判定する場合とでは、前者の方が演算量が少ない。また、暗いシーンや逆光の撮影時においては顔候補が暗くなるため、その顔候補が真の顔であっても検出される顔構成部品候補の数が少なくなり、その結果、第1の実施形態の処理を行うのみでは、真の顔を非顔と判定してしまうおそれがある。このため、第5の実施形態のように、顔構成部品候補の数に基づいて曖昧顔と判定された顔候補についてのみ、顔構成部品候補の位置に基づいて顔候補が真の顔であるか否かを判定することにより、演算量を低減でき、かつ精度良く顔候補から真の顔を検出することができる。
なお、上記第5の実施形態においては、第1の判定処理として、上記9個の顔構成部品K1〜K9のそれぞれについての顔構成部品候補の総数N1〜N9を9次元空間にプロットし、9次元空間においてしきい値を定める超平面または超曲面を設定し、プロットした総数N1〜N9がしきい値を定める超平面または超曲面のいずれの側にあるかに応じて、顔候補が真の顔、曖昧顔および非顔のいずれであるかを判定するようにしてもよい。
また、上記第5の実施形態においては、第1の判定処理および第2の判定処理を同一の判定部39Cにおいて行っているが、第1および第2の判定処理をそれぞれ行う2つの判定部を設けるようにしてもよい。
次いで、本発明の第6の実施形態について説明する。なお、第6の実施形態においては、顔検出部37および判定部39が行う処理が第1の実施形態と異なるのみであるため、構成についての詳細な説明はここでは省略する。
第6の実施形態においては、顔検出部(第1の実施形態と異なるため37Aとする)がマッチング度がしきい値Th0以上となる検出枠の位置の画像を真の顔として検出する処理(顔検出部のみに基づく処理とする)を行うか、上記第1から第5の実施形態と同様に、マッチング度がしきい値Th0以上となる検出枠の位置の画像を顔候補として検出し、検出した顔候補に対して上記第1から第5のいずれかの処理(以下、顔構成部品に基づく処理とする)を行うかを、ユーザによる操作系2からの指示によりCPU40が切り替えるようにしたものである。
次いで、第6の実施形態において行われる処理について説明する。図18は第6の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST81)。続いて、CPU40が顔構成部品に基づく処理を行う設定がなされているか否かを判定し(ステップST82)、ステップST82が否定されると、顔検出部のみに基づく処理を行う(ステップST83)。一方、ステップST82が肯定されると顔構成部品に基づく処理を行う(ステップST84)。なお、顔構成部品に基づく処理は、上記第1から第5の実施形態のいずれかの処理を用いればよいため、ここでは詳細な説明は省略する。
そして、CPU40が真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST85)、ステップST81にリターンする。
ここで、顔構成部品に基づく処理は演算量が多いため処理に長時間を要するが、顔検出の精度は高い。一方、顔検出部のみに基づく処理は演算量が少ないが顔検出の精度はそれほど高くない。このため、第6の実施形態のように、顔構成部品に基づく処理と顔検出部のみに基づく処理とを切り替え可能とすることにより、ユーザは、顔検出の精度および演算速度のいずれを優先させるかを任意に切り替えることが可能となる。
なお、上記第6の実施形態においては、ユーザの設定により顔構成部品に基づく処理と顔検出部のみに基づく処理とを切り替えているが、例えばスルー画像を1秒間に30フレーム撮影する場合において、最初の25フレーム目までを顔検出部のみに基づく処理を行い、残りの5フレームを顔構成部品に基づく処理を行うようにしてもよい。
次いで、本発明の第7の実施形態について説明する。なお、第7の実施形態においては、顔検出部37および判定部39が行う処理が第1の実施形態と異なるのみであるため、構成についての詳細な説明はここでは省略する。
第7の実施形態においては、顔検出部(第1の実施形態と異なるため37Bとする)がマッチング度がしきい値Th0以上となる検出枠の位置の画像を真の顔として検出する処理(顔検出部のみに基づく処理とする)を行い、さらに次に撮影されたスルー画像に対して顔検出部のみに基づく処理を行った際に、それまで検出されていた顔が検出されなくなったときに、上記第1から第5の実施形態と同様に、マッチング度がしきい値Th0以上となる検出枠の位置の画像を顔候補として検出し、検出した顔候補に対して上記第1から第5のいずれかの処理(以下、顔構成部品に基づく処理とする)を行うようにしたものである。
次いで、第7の実施形態において行われる処理について説明する。図19は第7の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST91)。次いで、CPU40が顔検出部のみに基づく処理を行い(ステップST92)、さらに、1つ前のスルー画像の撮影時に検出された真の顔が再度検出されたか否かを判定する(ステップST93)。なお、1回目の処理においては、ステップST93の処理はスルーする。
ステップST93が否定されると、顔構成部品に基づく処理を行う(ステップST94)。なお、顔構成部品に基づく処理は、上記第1から第5の実施形態のいずれかの処理を用いればよいため、ここでは詳細な説明は省略する。
ステップST93が肯定された場合およびステップST94に続いて、CPU40が真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST95)、ステップST91にリターンする。
ここで、顔構成部品に基づく処理は演算量が多いため処理に長時間を要するが、顔検出の精度は高い。一方、顔検出部のみに基づく処理は演算量が少ないが顔検出の精度はそれほど高くない。このため、第7の実施形態のように、顔検出部のみに基づく処理により真の顔が検出されなくなったときに顔構成部品に基づく処理を行うことにより、顔検出部のみに基づく処理による真の顔の検出漏れを防止して、精度良く真の顔を検出することができる。
次いで、本発明の第8の実施形態について説明する。図20は本発明の第8の実施形態による撮影装置を適用したデジタルカメラの構成を示す概略ブロック図である。なお、第8の実施形態において第1の実施形態と同一の構成については同一の参照番号を付与し、ここでは詳細な説明は省略する。第8の実施形態によるデジタルカメラ1Aは、撮影シーンの明るさを判定するシーン判定部43を備え、顔検出部37Cによる真の顔の検出およびシーン判定部43による判定結果を用いての判定部39Dによる顔の検出を行うようにした点が第1の実施形態と異なる。なお、第8の実施形態においては、CPU40が切換手段に対応する。
シーン判定部43は、スルー画像全体の画素値の平均値を輝度として算出し、算出した輝度がしきい値Th11以上の場合にはシーンが明るいと判定し、輝度がしきい値Th11未満の場合にシーンが暗いと判定する。
第8の実施形態においては、シーン判定部43によるシーン判定を行い、シーンが明るいと判定された場合には、顔検出部37Cがマッチング度がしきい値Th0以上となる検出枠の位置の画像を真の顔として検出する処理(顔検出部のみに基づく処理とする)を行い、シーンが暗いと判定された場合には、上記第1から第5の実施形態と同様に、マッチング度がしきい値Th0以上となる検出枠の位置の画像を顔候補として検出し、判定部39Dが検出した顔候補に対して上記第1から第5のいずれかの処理(以下、顔構成部品に基づく処理とする)を行うようにしたものである。また、顔検出部のみに基づく処理を行い、さらに次のスルー画像のシーンをシーン判定部43が判定した結果、シーンが暗くなった場合に、顔構成部品に基づく処理を行うようにしたものである。
次いで、第8の実施形態において行われる処理について説明する。図21は第8の実施形態において行われる処理を示すフローチャートである。デジタルカメラ1の動作モードが撮影モードに設定されることによりCPU40が処理を開始し、スルー画像の撮影を行う(ステップST101)。続いて、シーン判定部43がシーン判定を行い、シーンが明るいか否かを判定する(ステップST102)。ステップST102が肯定されると、顔検出部のみに基づく処理を行う(ステップST103)。一方、ステップST102が否定されると顔構成部品に基づく処理を行う(ステップST104)。なお、顔構成部品に基づく処理は、上記第1から第5の実施形態のいずれかの処理を用いればよいため、ここでは詳細な説明は省略する。
そして、CPU40が真の顔を矩形領域で囲んだスルー画像をモニタ28に表示し(ステップST105)、ステップST101にリターンする。
ここで、顔構成部品に基づく処理は演算量が多いため処理に長時間を要するが、顔検出の精度は高い。一方、顔検出部のみに基づく処理は演算量が少ないが顔検出の精度はそれほど高くない。このため、第8の実施形態のように、シーンが暗い場合にのみ顔構成部品に基づく処理を行うことにより、顔検出部のみに基づく処理による真の顔の検出漏れを防止して、精度良く真の顔を検出することができる。
なお、上記第8の実施形態においては、シーン判定部43がシーンの明るさを判定しているが、スルー画像の中央付近と周辺部との輝度を比較し、中央付近の輝度が周辺付近の輝度よりも所定値以上暗い場合に、そのシーンは逆光であると判定するようにしてもよい。この場合、逆光であると判定された場合には顔構成部品に基づく処理を行い、逆光でないと判定された場合には顔検出部のみに基づく処理を行えばよい。
以上、本発明の実施形態に係るデジタルカメラについて説明したが、コンピュータを、上記の顔検出部37A〜37C、顔構成部品検出部38、判定部39,39A〜39Dおよびシーン判定部43に対応する手段として機能させ、図6,12,14,16〜19,21に示すような処理を行わせるプログラムも本発明の実施形態の1つである。また、そのようなプログラムを記録したコンピュータ読取り可能な記録媒体も、本発明の実施形態の1つである。
本発明の第1の実施形態による撮影装置を適用したデジタルカメラの構成を示す概略ブロック図 顔候補の検出を説明するための図 顔構成部品候補の検出を説明するための図 顔候補が真の顔であるか否かの判定を説明するための図 真の顔が矩形で囲まれたスルー画像を示す図 第1の実施形態において行われる処理を示すフローチャート 顔構成部品の存在確率の確率分布を示す図 確率分布のプロファイルを示す図 確率分布付近における顔構成部品候補の位置の例を示す図 各顔構成部品候補について算出した位置的な尤度を示す図 2つの顔候補についての顔構成部品毎の顔構成部品候補の位置的な尤度の平均値を示す図 第2の実施形態において行われる処理を示すフローチャート 右目の目頭の、両目の目尻、左目の目頭、左右の鼻の穴の脇、左右の口元および口の中央部分の他の8個の顔構成部品に対する存在確率の確率分布を示す図 第3の実施形態において行われる処理を示すフローチャート 顔構成部品の位置のずれを説明するための図 第4の実施形態において行われる処理を示すフローチャート 第5の実施形態において行われる処理を示すフローチャート 第6の実施形態において行われる処理を示すフローチャート 第7の実施形態において行われる処理を示すフローチャート 本発明の第8の実施形態による撮影装置を適用したデジタルカメラの構成を示す概略ブロック図 第8の実施形態において行われる処理を示すフローチャート
符号の説明
1 デジタルカメラ
2 操作系
3 操作系制御部
6 撮像系
28 モニタ
35 記録メディア
37 顔検出部
38 顔構成部品検出部
39 判定部
40 CPU
43 シーン判定部

Claims (12)

  1. 連続した撮影により画像を連続して取得する撮影手段と、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換える顔検出手段であって、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する顔検出手段と、
    前記顔検出手段が前記顔候補を検出した場合に、該顔候補に含まれる少なくとも1つの顔構成部品の候補を該顔構成部品毎に検出する顔構成部品検出手段と、
    前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記候補が真の顔であるか否かを判定する判定手段とを備えたことを特徴とする撮影装置。
  2. 連続した撮影により画像を連続して取得する撮影手段と、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換える顔検出手段であって、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する顔検出手段と、
    前記顔検出手段が前記顔候補を検出した場合に、該顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出する顔構成部品検出手段と、
    前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記候補が真の顔であるか否かを判定する判定手段とを備えたことを特徴とする撮影装置。
  3. 前記判定手段は、前記顔候補の領域内における前記各顔構成部品候補の、対応する前記顔構成部品に対する位置的な尤度を算出し、該位置的な尤度に基づいて前記候補が真の顔であるか否かを判定する手段であることを特徴とする請求項2記載の撮影装置。
  4. 前記判定手段は、前記顔候補の領域内における前記各顔構成部品候補の、対応する前記顔構成部品以外の他の顔構成部品に対する位置関係の尤度を算出し、該位置関係の尤度に基づいて前記候補が真の顔であるか否かを判定する手段であることを特徴とする請求項2記載の撮影装置。
  5. 前記判定手段は、前記候補の領域内において前記各顔構成部品候補の位置が対応する顔構成部品の位置となるように前記候補を正規化し、該正規化した前記候補内における前記各顔構成部品候補の位置に基づいて、前記候補が真の顔であるか否かを判定する手段であることを特徴とする請求項2から4のいずれか1項記載の撮影装置。
  6. 連続した撮影により画像を連続して取得する撮影手段と、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換える顔検出手段であって、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する顔検出手段と、
    前記顔検出手段が前記顔候補を検出した場合に、該顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出する顔構成部品検出手段と、
    前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記候補が真の顔、非顔および曖昧顔のいずれであるかを判定し、該曖昧顔であると判定された前記顔候補について、前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記曖昧顔であると判定された顔候補が前記真の顔であるか否かを判定する判定手段とを備えたことを特徴とする撮影装置。
  7. 連続した撮影により画像を連続して取得し、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換えるに際し、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出し、
    前記顔候補が検出された場合に、該顔候補に含まれる少なくとも1つの顔構成部品の候補を該顔構成部品毎に検出し、
    前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記候補が真の顔であるか否かを判定することを特徴とする撮影方法。
  8. 連続した撮影により画像を連続して取得し、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換えるに際し、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出し、
    前記顔候補が検出された場合に、該顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出し、
    前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記候補が真の顔であるか否かを判定することを特徴とする撮影方法。
  9. 連続した撮影により画像を連続して取得し、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換えるに際し、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出し、
    前記顔候補が検出された場合に、該顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出し、
    前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記候補が真の顔、非顔および曖昧顔のいずれであるかを判定し、
    前記曖昧顔であると判定された前記顔候補について、前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記曖昧顔であると判定された顔候補が前記真の顔であるか否かを判定することを特徴とする撮影方法。
  10. 連続した撮影により画像を連続して取得する手順と、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換えるに際し、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する手順と、
    前記顔候補が検出された場合に、該顔候補に含まれる少なくとも1つの顔構成部品の候補を該顔構成部品毎に検出する手順と、
    前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記候補が真の顔であるか否かを判定する手順とを有することを特徴とする撮影方法をコンピュータに実行させるためのプログラム。
  11. 連続した撮影により画像を連続して取得する手順と、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換えるに際し、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する手順と、
    前記顔候補が検出された場合に、該顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出する手順と、
    前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記候補が真の顔であるか否かを判定する手順とを有することを特徴とする撮影方法をコンピュータに実行させるためのプログラム。
  12. 連続した撮影により画像を連続して取得する手順と、
    所定サイズの顔検出用の検出枠を前記画像上において移動させ、移動した位置毎に該検出枠内の前記画像から特徴量を算出し、該特徴量とあらかじめ定められた顔特徴量とのマッチング度を算出し、該マッチング度が所定のしきい値以上となったときに前記検出枠の位置の画像を顔候補として検出するか、真の顔として検出するかを切り換えるに際し、前記連続して取得された画像について、前記検出枠の位置の画像を前記真の顔として検出し、該画像のシーンの明るさが所定の条件を満たさなくなったときに、前記検出枠の位置の画像を前記顔候補として検出する手順と、
    前記顔候補が検出された場合に、該顔候補に含まれる複数の顔構成部品の候補を該顔構成部品毎に検出する手順と、
    前記顔構成部品毎に検出された前記顔構成部品候補の数に基づいて、前記候補が真の顔、非顔および曖昧顔のいずれであるかを判定する手順と、
    前記曖昧顔であると判定された前記顔候補について、前記顔構成部品毎に検出された前記顔構成部品候補の位置に基づいて、前記曖昧顔であると判定された顔候補が前記真の顔であるか否かを判定する手順とを有することを特徴とする撮影方法をコンピュータに実行させるためのプログラム。
JP2007030074A 2007-02-09 2007-02-09 撮影装置および方法並びにプログラム Expired - Fee Related JP4884251B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2007030074A JP4884251B2 (ja) 2007-02-09 2007-02-09 撮影装置および方法並びにプログラム
KR1020080011635A KR100942766B1 (ko) 2007-02-09 2008-02-05 촬영 장치와 방법, 및 프로그램 기록 매체
US12/027,848 US7868915B2 (en) 2007-02-09 2008-02-07 Photographing apparatus, method and computer program product
CN2008100097270A CN101241549B (zh) 2007-02-09 2008-02-13 拍摄设备和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007030074A JP4884251B2 (ja) 2007-02-09 2007-02-09 撮影装置および方法並びにプログラム

Publications (2)

Publication Number Publication Date
JP2008197762A JP2008197762A (ja) 2008-08-28
JP4884251B2 true JP4884251B2 (ja) 2012-02-29

Family

ID=39685477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007030074A Expired - Fee Related JP4884251B2 (ja) 2007-02-09 2007-02-09 撮影装置および方法並びにプログラム

Country Status (4)

Country Link
US (1) US7868915B2 (ja)
JP (1) JP4884251B2 (ja)
KR (1) KR100942766B1 (ja)
CN (1) CN101241549B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189195A1 (ja) 2022-03-30 2023-10-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009237976A (ja) * 2008-03-27 2009-10-15 Seiko Epson Corp 顔画像出力制御装置、顔画像出力制御方法、顔画像出力制御プログラムおよび印刷装置
JP5132445B2 (ja) * 2008-06-25 2013-01-30 キヤノン株式会社 画像処理装置および画像処理方法並びにコンピュータプログラムおよび記憶媒体
JP4702418B2 (ja) * 2008-09-09 2011-06-15 カシオ計算機株式会社 撮影装置、画像領域の存否判定方法及びプログラム
JP5106355B2 (ja) * 2008-11-13 2012-12-26 キヤノン株式会社 表情判定装置、その制御方法、撮像装置及びプログラム
KR101593502B1 (ko) * 2009-07-20 2016-02-18 엘지이노텍 주식회사 인물 촬영 방법
JP5385752B2 (ja) * 2009-10-20 2014-01-08 キヤノン株式会社 画像認識装置、その処理方法及びプログラム
JP5818409B2 (ja) * 2010-06-17 2015-11-18 キヤノン株式会社 眼底撮像装置及びその制御方法
JP5725793B2 (ja) * 2010-10-26 2015-05-27 キヤノン株式会社 撮像装置およびその制御方法
US9501714B2 (en) 2010-10-29 2016-11-22 Qualcomm Incorporated Systems and methods to improve feature generation in object recognition
WO2013008302A1 (ja) * 2011-07-11 2013-01-17 トヨタ自動車株式会社 赤目判定装置
US20150185308A1 (en) * 2014-01-02 2015-07-02 Katsuhiro Wada Image processing apparatus and image processing method, image pickup apparatus and control method thereof, and program
CN106778585B (zh) * 2016-12-08 2019-04-16 腾讯科技(上海)有限公司 一种人脸关键点跟踪方法和装置
JP6627894B2 (ja) * 2018-01-12 2020-01-08 日本電気株式会社 顔認証装置
CN111447355B (zh) * 2019-10-23 2021-06-25 上海探宇网络科技有限公司 自动化白平衡值大数据调节系统

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07311833A (ja) * 1994-05-17 1995-11-28 Nec Corp 人物の顔の検出装置
DE60119418T2 (de) * 2000-03-22 2007-05-24 Kabushiki Kaisha Toshiba, Kawasaki Gesichtsbildaufnehmendes Erkennungsgerät und Passüberprüfungsgerät
KR20020036143A (ko) * 2000-11-08 2002-05-16 구자홍 디지털 영상 저장장치에 의한 접근 제어 장치 및 방법
JP2002183734A (ja) 2000-12-15 2002-06-28 Toshiba Corp 顔認証装置および顔認証方法
KR20030040680A (ko) * 2001-11-15 2003-05-23 삼성에스디에스 주식회사 얼굴 검출 방법 및 그 장치
JP4314017B2 (ja) * 2002-11-06 2009-08-12 キヤノン株式会社 階層処理装置
JP4107104B2 (ja) * 2003-02-25 2008-06-25 日産自動車株式会社 顔部位追跡装置
EP1653279B1 (en) * 2003-07-15 2019-02-06 Omron Corporation Object decision device and imaging device
JP4743823B2 (ja) * 2003-07-18 2011-08-10 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法
EP1650711B1 (en) * 2003-07-18 2015-03-04 Canon Kabushiki Kaisha Image processing device, imaging device, image processing method
JP2005078376A (ja) * 2003-08-29 2005-03-24 Sony Corp 対象物検出装置、対象物方法、及びロボット装置
JP4259365B2 (ja) * 2004-03-25 2009-04-30 トヨタ自動車株式会社 画像認識装置及び画像認識方法
US8194173B2 (en) * 2004-07-16 2012-06-05 Nikon Corporation Auto-focusing electronic camera that focuses on a characterized portion of an object
KR100668303B1 (ko) * 2004-08-04 2007-01-12 삼성전자주식회사 피부색 및 패턴 매칭을 이용한 얼굴 검출 방법
WO2006090449A1 (ja) * 2005-02-23 2006-08-31 Fujitsu Limited 画像処理方法、画像処理装置、画像処理システム及びコンピュータプログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023189195A1 (ja) 2022-03-30 2023-10-05 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム

Also Published As

Publication number Publication date
CN101241549B (zh) 2012-07-18
US20080192122A1 (en) 2008-08-14
JP2008197762A (ja) 2008-08-28
CN101241549A (zh) 2008-08-13
KR20080074780A (ko) 2008-08-13
US7868915B2 (en) 2011-01-11
KR100942766B1 (ko) 2010-02-18

Similar Documents

Publication Publication Date Title
JP4884251B2 (ja) 撮影装置および方法並びにプログラム
JP4819001B2 (ja) 撮影装置および方法並びにプログラム、画像処理装置および方法並びにプログラム
JP4973098B2 (ja) 画像処理装置、画像処理方法およびプログラム
US8520091B2 (en) Auto white balance correction value calculation device, method, program, and image pickup device
JP4217698B2 (ja) 撮像装置及び画像処理方法
US8593542B2 (en) Foreground/background separation using reference images
JP4782725B2 (ja) 合焦装置および方法並びにプログラム
JP4008778B2 (ja) 撮像装置
US20080317379A1 (en) Digital image enhancement with reference images
US9092659B2 (en) Subject determination apparatus that determines whether or not subject is specific subject
JP4839908B2 (ja) 撮像装置、自動焦点調整方法、およびプログラム
JP2011166442A (ja) 撮像装置
US8988545B2 (en) Digital photographing apparatus and method of controlling the same
CN101242494B (zh) 数字拍摄装置和用于控制数字拍摄装置的方法
JP2010028608A (ja) 画像処理装置、撮像装置、再生装置及び画像処理方法
JP2011128643A (ja) 撮像装置、自動焦点調整方法、およびプログラム
JP4726251B2 (ja) 撮像装置及び画像処理方法
JP2013152643A (ja) 画像処理装置、画像処理方法及びプログラム
JP5509621B2 (ja) 画像処理装置、カメラおよびプログラム
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
JP2008197763A (ja) 撮影装置および方法並びにプログラム
JP2008199146A (ja) 撮影装置および方法並びにプログラム
JP5016999B2 (ja) 撮像装置、撮像方法、及びプログラム
JP2012118634A (ja) 画像認識方法、画像認識装置及び撮像システム
JP5606300B2 (ja) 撮像装置及び撮像装置の制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090910

RD15 Notification of revocation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7435

Effective date: 20110415

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111206

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141216

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4884251

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees