JP2010107938A - 撮像装置、撮像方法、及びプログラム - Google Patents

撮像装置、撮像方法、及びプログラム Download PDF

Info

Publication number
JP2010107938A
JP2010107938A JP2009075900A JP2009075900A JP2010107938A JP 2010107938 A JP2010107938 A JP 2010107938A JP 2009075900 A JP2009075900 A JP 2009075900A JP 2009075900 A JP2009075900 A JP 2009075900A JP 2010107938 A JP2010107938 A JP 2010107938A
Authority
JP
Japan
Prior art keywords
brightness
face area
imaging
face
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009075900A
Other languages
English (en)
Inventor
Masatoshi Matsudaira
正年 松平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009075900A priority Critical patent/JP2010107938A/ja
Priority to US12/566,602 priority patent/US8391597B2/en
Publication of JP2010107938A publication Critical patent/JP2010107938A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/141Control of illumination
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Stroboscope Apparatuses (AREA)

Abstract

【課題】フラッシュ発光を伴う撮像を適切に制御することを可能とする。
【解決手段】顔領域特定部53は、上記撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定し、
撮像処理部52は、上記顔領域の明るさを求め、
上記顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求め、
上記顔領域の明るさ及び上記背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行させる。
【選択図】図2

Description

本発明は、撮像装置、撮像方法、及びプログラムに関する。
フラッシュ発光を伴う撮像が可能なデジタルカメラには、被写体の輝度に応じて、フラッシュの発光を自動的に制御する、自動フラッシュ撮像機能を有するものがある(特許文献1参照)。
特開平07−20524号公報
しかしながら、従来の自動フラッシュ撮像機能のように、被写体の輝度に基づいてフラッシュの発光を単に自動的に制御するだけでは、適切に被写体を撮像することができないことがあった。
本発明は、上述した従来の課題を解決するためになされたものであり、フラッシュ発光を伴う撮像処理を適切に制御することを目的とする。
本発明の一側面の撮像装置は、撮像素子と、撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定する顔領域特定手段と、顔領域の明るさを求める顔領域明るさ算出手段と、顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求める背景領域明るさ算出手段と、顔領域の明るさ及び背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行する撮像制御手段とを有することを特徴とする。
撮像制御手段は、少なくとも顔領域の明るさに応じて、発光を伴う撮像又は発光を伴わない撮像を実行することができる。
撮像制御手段は、顔領域の明るさが所定の明るさより暗く、かつ背景領域の明るさが所定の明るさより明るい場合、感度又は露出度を下げ、顔領域の明るさが所定の明るさより暗く、かつ背景領域の明るさも所定の明るさより暗い場合、感度又は露出度を上げることができる。
撮像制御手段による撮像の結果得られた撮像画像を補正する補正手段をさらに有し、補正手段は、顔領域の明るさ及び背景領域の明るさに応じて補正条件を決定することができる。
補正手段は、顔領域の明るさが所定の明るさより暗く、かつ背景領域の明るさが所定の明るさより明るい場合、ノイズ除去処理を行わず、顔領域の明るさが所定の明るさより暗く、かつ背景領域の明るさが所定の明るさより暗い場合、ノイズ除去処理を実行することができる。
顔領域特定手段は、撮像素子を用いて得られた画像の明るさが所定の明るさより暗い場合、撮像素子を用いて得られた画像の明るさを一定量明るくし、その明るくなった画像から、顔領域を特定することができる。
顔領域が複数特定された場合において、複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、顔領域明るさ算出手段は、エッジ強度が所定のエッジ強度より大きい顔領域の明るさを求めることができる。
顔領域が複数特定された場合において、複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きいとき、顔領域明るさ算出手段は、大きさが所定の大きさより大きい顔領域の明るさを求めることができる。
顔領域が複数特定された場合において、複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きく、かつ、複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、顔領域明るさ算出手段は、大きさが所定の大きさより大きい顔領域であって、エッジ強度が所定のエッジ強度より大きい顔領域の明るさを求めることができる。
顔領域の大きさを用いて、被写体までの距離を算出する距離算出手段をさらに有し、撮像制御手段は、顔領域の明るさが所定の明るさより暗く、かつ、被写体までの距離が発光された光が到達する距離以下である場合、発光を伴う撮像を実行し、顔領域の明るさが所定の明るさより暗いが、被写体までの距離が発光された光が到達する距離よりも長い場合、発光を伴う撮像を実行しない旨を提示して、発光を伴わない撮像を実行することができる。
撮像制御手段は、顔領域の明るさが所定の明るさより暗いが、被写体までの距離が発光された光が到達する距離よりも長い場合、撮像感度を上げて、発光を伴わない撮像を実行することができる。
顔領域が複数特定された場合において、複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、顔領域明るさ算出手段は、エッジ強度が所定のエッジ強度より大きい顔領域の明るさを算出し、距離算出手段は、エッジ強度が所定のエッジ強度より大きい顔領域の大きさを用いて、被写体までの距離を算出する
顔領域が複数特定された場合において、複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きいとき、顔領域明るさ算出手段は、大きさが所定の大きさより大きい顔領域の明るさを求め、距離算出手段は、大きさが所定の大きさより大きい顔領域の大きさを用いて、被写体までの距離を算出することができる。
顔領域が複数特定された場合において、複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きく、かつ、複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、顔領域明るさ算出手段は、大きさが所定の大きさより大きい顔領域であって、エッジ強度が所定のエッジ強度より大きい顔領域の明るさを求め、距離算出手段は、大きさが所定の大きさより大きい顔領域であって、エッジ強度が所定のエッジ強度より大きい顔領域の大きさを用いて、被写体までの距離を算出することができる。
本発明の一側面の撮像方法は、撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定する顔領域特定ステップと、顔領域の明るさを求める顔領域明るさ算出ステップと、顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求める背景領域明るさ算出ステップと、顔領域の明るさ及び背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行させる撮像制御ステップとを含むことを特徴とする。
本発明の一側面のプログラムは、撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定する顔領域特定ステップと、顔領域の明るさを求める顔領域明るさ算出ステップと、顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求める背景領域明るさ算出ステップと、顔領域の明るさ及び背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行させる撮像制御ステップとを含む画像処理をコンピューターに実行させることを特徴とする。
本発明の一側面の撮像装置、撮像方法、又はプログラムにおいては、撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域が特定され、顔領域の明るさが求められ、顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさが求められ、顔領域の明るさ及び背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像が実行される。
本発明によれば、フラッシュ発光を伴う撮像処理を適切に制御することができる。
本発明の実施の形態に係るデジタルカメラのハードウェアの構成例を示すブロック図である。 フラッシュ制御処理を実行するためのデジタルカメラの機能的構成例を示すブロック図である。 フラッシュ制御処理の流れを示すフローチャートである。 図3のステップS2の顔領域特定処理の流れを示すフローチャートである。 第1の画像データに基づいて第2の画像データを生成する方法を示すヒストグラムである。 検出窓の例を示す図である。 複数段階のステージを経て顔領域の特定がなされる流れを模式的に示した図である。 図7のあるステージで用いられる矩形フィルタの例を示す図である。 被写体距離の演算で用いられる係数を説明する図である。 図3のステップS4の対象顔領域決定処理の流れを示すフローチャートである。 8方向のラプラシアンフィルタの例を示す図である。 図3のステップS4の他の対象顔領域決定処理の流れを示すフローチャートである。 顔領域の大きさを模式的に表した図である。 図3のステップS4の他の対象顔領域決定処理の流れを示すフローチャートである。 他のフラッシュ制御処理の流れを示すフローチャートである。 撮像/補正条件設定処理(図15のステップ258の処理)の流れを示すフローチャートである。 他のフラッシュ制御処理の流れを示すフローチャートである。
図1は、本発明の実施形態のデジタルカメラ1の構成例を示すブロック図である。
CPU(Central Processing Unit:中央処理装置)11には、EEPROM(Electronically Erasable and Programmable Read Only Memory:電気消去可能プログラマブル読出し専用メモリー)11A、ROM( Read Only Memory:読出し専用メモリー)11Bが内蔵されている。EEPROM11Aは、書き換え可能な不揮発性メモリーで構成されている。ROM11Bには、プログラムが格納されている。このプログラムの手順に従ってデジタルカメラ1の動作がCPU11により制御される。
例えばCPU11は、自動フラッシュモードが設定されているか否かを判定し、自動フラッシュモードが設定されている場合には、人物の顔が写っているときのその顔部分の画像の明るさや被写体までの距離に応じてフラッシュ発光を伴う撮像又はフラッシュ発光を伴わない撮像を実行する。以下において、この一連の処理を、フラッシュ制御処理Z1と称する。
操作部12は、デジタルカメラ1の背面及び上面に備えられているシャッターボタン等の各操作子(図示せず)の操作を受け付けて、その操作内容を示す信号をCPU11に出力する。
撮像部13は、ズームレンズ13A、フォーカスレンズ13B、及びアイリス13C、並びにCCD(Charge Coupled Devices:電荷結合素子)13Dから構成されている。
ズームレンズ13Aに入射した被写体光は、フォーカスレンズ13Bを経て、被写体光の光量を調整するアイリス13Cを通過した後、CCD13Dに結像する。この例では、焦点距離の変更に係わるレンズをズームレンズ13A、ピントの調節に係わるレンズをフォーカスレンズ13Bとして、それぞれ模式的に示している。
光学制御部14は、CPU11からの指示に従って、図示せぬモーターを制御して、ズームレンズ13A、フォーカスレンズ13Bを駆動させる。また、光学制御部14は、CPU11からの指示に従って、図示せぬモーターを制御して、アイリス13Cの開口径を変化させる。
CDS(Crrellated Double Sampling:相関二重サンプリング)15は、CCD13Dから出力された画像信号の雑音を低減する処理等を行う。
A/D変換部16は、アナログ信号をデジタル化したRGB信号に変換する。
ホワイトバランス調整部17は、A/D変換部16で変換されたRGB信号のR成分、G成分、B成分のバランスを調整することにより、画像データの白色のバランスを調整する。このホワイトバランス調整部17には、CCD13Dからの画像信号の増幅率(ゲイン)を変える図示せぬ増幅器が設けられている。
γ処理部18は、被写体像の階調特性(いわゆるγカーブ)を調整する。バッファメモリー19は、ホワイトバランス調整部17での画像処理を経てγ処理部18において画像処理が施されたRGB信号を一時的に記憶する。
AF(Auto Focus:オートフォーカス)検出部20は、CPU11から測距領域が指示されて、撮影画像を表す画像信号に基づいてその測距領域での合焦状態を検出する。その検出された合焦状態と、その時点におけるフォーカスレンズ13Bの位置とに基づいて測距領域における被写体距離が算出される。AE(Auto Exposure:自動露出)検出部21は、CPU11から測光領域が指示されて、輝度信号(Y)に基づいて、その測定領域内における被写体輝度を検出する。
YC処理部22は、AE検出部21へ輝度信号(Y)を提供するために、バッファメモリー19に記憶されたRGB信号を輝度信号(Y)と色信号(C)とからなるYC信号に変換する。
YC/RGB処理部23は、YC処理部22で生成されたYC信号をスルー画像表示用のRGB信号に変換する。このRGB信号は、RGB信号を高速に処理するLCD(Liquid Crystal Display:液晶表示)制御部24を介して液晶表示パネル25に伝えられ、液晶表示パネル25上にスルー画像として表示される。
圧縮/伸張部26は、YC信号に変換された画像データを圧縮若しくは伸長処理する。インターフェース(I/F)部27は、圧縮された画像データを記録媒体28Aに記録できるように、通信インターフェースを提供する。媒体記録装置28は、画像データを物理的に記録媒体28Aに記録する。
フラッシュ発光制御部29は、R(赤)、G(緑)、B(青)の3色のLED(Light Emitting Diode:発光ダイオード)をフラッシュ光源とし、CPU11からの指示に従って、撮影補助光(所謂フラッシュ光)を発光する。
図2は、フラッシュ制御処理Z1を実行するためのデジタルカメラ1の機能的構成例を示すブロック図である。この機能は、CPU11がROM11Bに記憶されている所定のプログラムを実行することより実現される。
撮像操作部51は、ユーザからの撮影操作を受け付けて、その内容を示す信号を撮像処理部52に通知する。
撮像処理部52は、撮像処理全般を制御する。例えば撮像処理部52は、撮像操作部51から図示せぬシャッターボタンの全押し操作が伝えられると、撮像素子上に被写体像を結像させ、その被写体信号を表わすRGB信号を出力したり、スルー画像を表わすRGB信号を出力する処理を行う。
また、撮像処理部52は、シャッターボタンの半押し操作が伝えられたとき、フラッシュ制御処理を実行する。このフラッシュ制御処理では、そのときの入力画像に顔の画像がある場合、その顔の画像の明るさが所定の明るさより暗く、かつ、被写体までの距離がフラッシュ光が到達する距離以下である場合、フラッシュ発光を伴う撮像が実行され、顔の画像の明るさが所定の明るさより暗いが、被写体までの距離がフラッシュ光が到達する距離よりも長い場合、フラッシュ発光を伴う撮像を実行しない旨が提示され、フラッシュ発光を伴わない撮像が実行される。
顔領域特定部53は、撮像処理部52からの指示を受けて、撮影画角内で人物の顔部分が写っている画像の中の顔の少なくとも一部の画像が含まれる領域(以下、顔領域と称する)を特定する。
顔領域情報記憶部54は、顔領域特定部53により特定された顔領域に関する顔領域情報(例えば、撮影画角内における顔領域の位置を特定するための座標データ、及び大きさ(水平幅、垂直幅)、焦点距離、デジタルズーム倍率等)を記憶する。
対象顔領域決定部55は、顔領域特定部53により特定された顔領域の中から、フラッシュのオンオフの判定に用いる顔領域(以下、対象顔領域と称する)を決定する。具体的には、対象顔領域決定部55は、顔領域情報記憶部54に記憶されている顔領域情報の中から、所定の条件を満たしていない顔領域の顔領域情報を削除する。即ち最終的に顔領域情報記憶部54に顔領域情報が記憶されている顔領域が対象顔領域とされる。
感度設定部56は、撮像処理部52の制御に従って、撮像時のパラメータを変更する。
図3は、フラッシュ制御処理Z1の流れを示すフローチャートである。このフローチャートを参照してフラッシュ制御処理Z1について説明する。
ユーザにより図示せぬ電源ボタンが押され電源が投入されると、CPU11では、デジタルカメラ1の初期化として、ROM11B内のプログラムの実行が開始され、液晶表示パネル25にスルー画像が表示されるとともに、撮影条件の設定操作や図示せぬシャッターボタンの操作を受け付ける状態となる。
そこでシャッターボタンが半押されると、ステップS1において、撮像処理部52は、自動フラッシュモードが設定されているか否かを判定し、設定されていると判定した場合、処理は、ステップS2に進む。
ステップS2において、顔領域特定処理が行われる。図4は、この顔領域特定処理の流れを示すフローチャートである。このフローチャートを参照して顔領域特定処理について説明する。
ステップS31において、顔領域特定部53は、顔領域特定の対象となる画像、即ち顔領域が含まれている可能性がある画像(以下、適宜、対象画像と称する)から作業用の画像データ(以下、第1の画像データと称する)を生成する。この例の場合、撮像部13により取り込まれているスルー画像全体が対象画像となり、そのデモザイク前(即ちA/D変換後であって、ホワイトバランス等の処理前)の画像データが取得される。そしてそのデモザイク前の画像データがサンプリングされて、例えば320画素×240画素の画像データが、第1の画像データとして生成される。
デモザイク前の画像データ(所謂現像前の画像データ)は、1画素に、R、G、又はBのいずれか1種類の色成分しか有していない。RGBのセットの画素データは、デモザイク(所謂現像によって)で設定される。
ステップS32において、顔領域特定部53は、対象画像全体の明るさが所定の明るさより暗いか否かを判定する。具体的には、第1の画像データの全画素の平均輝度値Yh1が所定の閾値Yp1(例えば、70)より小さいか否かが判定される。なお平均輝度値Yh1は、式(1)に示すように、第1の画素データを構成するG成分の値によって算出される。
Y=0.587G・・・(1)
ステップS32で、対象画像全体の明るさが所定の明るさより暗いと判定された場合(即ち平均輝度値Yh1が閾値Yp1より小さいと判定された場合)、処理は、ステップS33に進む。
ステップS33において、顔領域特定部53は、対象画像全体を明るくする。具体的には、第1の画像データの画素の輝度を、それぞれより明るいものに置き換えて第2の画像データが生成される。
図5は、第1の画像データに基づいて第2の画像データを生成する方法を示すヒストグラムである。図5には、第1の画像データにおける画素の明度の分布D1と、第2の画像データにおける画素の明度の分布D2aが示されている。図5中、横軸は、0〜255の明度であり、縦軸は、画像データにおける各明度の画素数(頻度)である。なお、分布D1及び分布D2aは離散的となるが、理解を容易にするため、ここでは曲線として示す。
この例では第2の画像データは、第1の画像データの各画素の明度を2倍の明度に置き換えることによって生成される。その結果、例えば、第1の画像データにおいて、例えば、0〜70の明度の範囲R1に含まれる明度Y1を有していた画素の明度は、0〜140の明度の範囲R2aに含まれる明度Y2(Y2=Y1×2)に変換される。
なお、2倍した結果、255を越えることとなる明度については、全て255に置き換えられる。すなわち、第1の画像データの画像中において126以上の明度で表現されている部分の明度については、全て255に置き換えられる。
図4に戻りステップS34において、顔領域特定部53は、第2の画像データに基づいて、顔領域を特定する顔領域特定処理を行う。
ここで顔領域特定処理について説明する。この例の場合、作業画像データ(いまの場合、第2の画像データ)に検出窓を移動させながら、作業画像データの検出窓に対応する領域が顔領域であるか否かが判定される。
図6は、検出窓SWの例を示す図である。検出窓SWによって取り出されたデータの画像領域(以下、画像領域IDWと称する)が顔領域であるか否かが判定される。そしてその判定は、複数段階のステージを経て結論づけられる。
図7は、複数段階のステージを経て顔領域が特定される流れを模式的に示した図である。図7の例では、St1〜St24の24段階のステージを経て顔領域が特定される。
各ステージにおいては、矩形フィルタを使った判定が行われる。
図8は、あるステージで用いられる矩形フィルタF11,F12(以下、個々に区別する必要がない場合、矩形フィルタFと称する)の例を示す図である。矩形フィルタFは、画像領域IDWの一部の領域(図8においてハッチを付して示す領域)に含まれる画素の明度の情報を取り出すために使用される。
なお図8には、矩形フィルタFが適用される画像領域IDWの画像と、矩形フィルタFとが重ねて表示されている。画像領域IDWの画像は、人間の顔の目と鼻と口の画像を含む顔の画像である。
矩形フィルタFは、この例の場合、20画素×20画素の大きさを有する。ここでは、説明を簡略にするために、検出窓SWによって取り出されたデータの画像領域IDWの大きさと、矩形フィルタFの大きさとは同じであるものとする。すなわち、画像領域IDWも、20画素×20画素の大きさを有する。
矩形フィルタF11を使用した判定について説明する。矩形フィルタF11を使用して、画像領域IDWのデータのうち、領域A11aの各画素の明度のデータY11aが取り出される。領域A11aは、画像領域IDWにおいて高さ方向の中央よりも上側にあって画像領域IDWの左右幅と等しい幅を有する長方形の領域である。また、同様に、領域A11bの各画素の明度のデータY11bも取り出される。領域A11bは、画像領域IDWにおいて高さ方向の中央よりも下側にあって画像領域IDWの左右幅と等しい幅を有する長方形の領域である。
なお、領域A11aは、画像領域IDWが顔領域である場合に、人間の目があると推定される領域である。また、領域A11bは、画像領域IDWが顔領域である場合に、人間の口があると推定される領域である。
そして、領域A11aの各画素の明度Y11aの合計をα11a倍した値と(α11aは定数)、領域A11bの各画素の明度Y11bの合計をα11b倍した値と(α11bは定数)、の合計値が所定の基準値θ11よりも大きいか否かが判定される。合計値がθ11よりも大きい場合には、矩形フィルタF11を用いた判定の結果の値A11として、値D11yが返される。合計値がθ11以下である場合には、矩形フィルタF11を用いた判定の結果の値A11として、値D11nが返される(図8の上段右側参照)。値D11y,D11nは、所定の定数である。
次に矩形フィルタF12を使用した判定について説明する。矩形フィルタF12を使用して、画像領域IDWのデータのうち、領域A12aの各画素の明度のデータY12aが取り出される。領域A12aは、領域A11aの左半分の領域A11alの一部であって、領域A11alの中心を含む領域である。また、同様に、画像領域IDWのデータのうち、領域A12bの各画素の明度のデータY12bが取り出される。領域A12bは、領域A11aの右半分の領域A11arの一部であって、領域A11arの中心を含む領域である。
なお、領域A12aは、画像領域IDWが顔領域である場合に、人間の右目があると推定される領域である。また、領域A12bは、画像領域IDWが顔領域である場合に、人間の左目があると推定される領域である。
そして、領域A12aの各画素の明度Y12aの合計をα12a倍した値と(α12aは定数)、領域A12bの各画素の明度Y12bの合計をα12b倍した値と(α12bは定数)、の合計値が所定の基準値θ12よりも大きいか否かが判定される。合計値がθ12よりも大きい場合には、矩形フィルタF12を用いた判定の結果の値A12として、値D12yが返される。合計値がθ12以下である場合には、矩形フィルタF12を用いた判定の結果の値A12として、値D12nが返される(図8の中段右側参照)。値D12y,D12nは、所定の定数である。
以上のように、一つのステージの処理において、1以上の矩形フィルタFを用いた判定が行われる。そして、各矩形フィルタFの判定結果の値A11,A12...の合計値が所定の基準値Θ1よりも大きいか否かが判定される(図8の下段参照)。合計値がΘ1よりも大きい場合には、画像領域IDWは、このステージの判定条件を満たしたと判定される。合計値がΘ1以下である場合には、画像領域IDWは、このステージの判定条件を満たさないと判定される。画像領域IDWが、このステージの判定条件を満たさない場合には、画像領域IDWは、顔領域ではないと判定され、処理が終了する。一方、画像領域IDWが、このステージの判定条件を満たした場合には、次のステージの判定が行われる(図7参照)。
このようにして各ステージの判定が順次行われ、その各ステージの判定結果に基づいて画像領域IDWが顔領域であるか否かが判定される。
ところで上述した画像領域IDWが顔領域であるか否かの判定は、画素の明度に基づいて行われる。各画素の明度で表される画像中において被写体は各画素の明度差で表される。すなわち、この判定は、画像の一部の領域(図8の領域A11a,A11b,A12a,A12b参照)と他の一部の領域の画素の明度の差に基づいて行われる。このため、全体に暗く写っている人物の顔の領域については、「顔領域である」と判定されない可能性がある。
そこで対象画像全体が暗い場合(ステップS32でのYES判定)、第1の画像データの画素の輝度を、それぞれより明るいものに置き換えて第2の画像データを生成し(ステップS33)、例えば、第1の画像データにおける明度の差を、第2の画像データにおいてその2倍となるようにしたので、顔領域を、正確に特定することができる(ステップS34)。例えば、第1の画像データの明度20の画素と明度30の画素との明度の差10は、変換後の第2の画像データにおいて2倍の20となる。
また、例えば、第1の画像データの明度20の画素と明度30の画素との明度の差10と、第1の画像データの明度120の画素と明度130の画素との明度の差10とは、変換後の第2の画像データにおいてもそれぞれ2倍の20となる。すなわち、等しい量の明度差は、変換後も等しい量の明度差となる。よって、第2の画像データにおいても、第1の画像データと同様に、正確に顔領域の特定を行うことができる。
なお、第1の画像データの画像中において126以上の明度で表現されている部分の明度については、明度を2倍にする上記の処理によって255となり、明度差が小さくなることがある。しかしながら、第2の画像データの生成は、画像データの平均明度が70以下の場合にのみ行われる。このため、対象となる画像中において図4の処理によって明度差がなくなる部分は大きくはない。さらに、明度が126以上の部分については、後述するように第2の画像データではなく第1の画像データに対する顔領域の特定の処理(図4のステップS35)によって、顔領域が特定される。
図4に戻りステップS32で、対象画像全体の明るさが所定の明るさより明るいと判定された場合(即ち、平均輝度値Yh1が閾値Yp1以上であると判定された場合)、又はステップS34で、第2の画像データに基づいて顔領域が特定された後、処理は、ステップS35に進む。ステップS35において、顔領域特定部53は、第1の画像データに基づいて、顔領域を特定する処理を行う。具体的には、ステップS34における場合と同様にして、顔領域が特定される。
次にステップS36において、顔領域特定部53は、ステップS35で特定された顔領域、又はステップS34で特定された顔領域及びステップS35で特定された顔領域に基づいて、第1の画像データが表す画像PI1中の顔領域の集合を決定し、決定した第1の画像データが表す画像PI1中の顔領域を示す情報(例えば、撮影画角内における顔領域の位置を特定するための座標データ、及び大きさ(水平幅、垂直幅)、焦点距離、デジタルズーム倍率等)を顔領域情報記憶部54に記憶させる。
なお画像PI1中の顔領域の集合を決定する際には、例えば、互いに75%以上の画素を共有するN個(Nは2以上の整数)の顔領域については、その中から一つの顔領域が選択され、他の顔領域は廃棄される。選択される顔領域は、例えば、その中心が、それらN個の顔領域によって共有される領域の中心と、最も近い顔領域である。なお、本実施例においては、顔領域は長方形の領域である。長方形の領域の中心は、その長方形の対角線の交点である。そのようにして選択された顔領域によって構成される顔領域の集合が、画像PI1中の顔領域の集合とされる。
以上のようにして顔領域特定処理が行われ、処理は、図3のステップS3に進む。
ステップS3において、撮像処理部52は、ステップS2の処理で、顔領域が特定されたか否かを判定し、顔領域が特定されたと判定した場合、ステップS4に進み、後述するフラッシュ制御に用いる顔領域(即ち対象顔領域)を決定する。この処理については、後述する。
次にステップS5において、撮像処理部52は、ステップS4で決定された対象顔領域の平均輝度値Yh2を算出する。
ステップS6において、撮像処理部52は、対象顔領域の明るさが所定の明るさより暗いか否かを判定する。具体的には、ステップS5で算出した対象顔領域の平均輝度値Yh2が、フラッシュを発して外光の光量不足を補わなくてもよい明るさの限界輝度値Yp2より小さいか否かが判定される。
ステップS6で、対象顔領域の明るさがフラッシュを発して外光の光量不足を補わなくてもよい明るさより暗いと判定された場合(即ち平均輝度値Yh2が閾値Yp2より小さいと判定された場合)、ステップS7に進む。
ステップS7において、撮像処理部52は、対象顔領域に基づいて、デジタルカメラ1から被写体までの距離を算出する。具体的には、初めに、対象顔領域の平均サイズ(例えば垂直幅の平均値)Cが算出され、その平均サイズCに基づいて、式(2)が演算されて、被写体距離Aが算出される。
被写体距離A=(B×D×X)/(C×24×100/283(m)
・・・(2)
図9は、式(2)の演算に用いられる係数を示す図である。係数Bは、レンズ焦点距離mmであり、係数Cは、上述したように対象顔領域の平均サイズであり、係数Dは、デジタルズーム倍率であり、係数Xは、実物の顔のサイズである。なお係数B及び係数Dは、デジタルカメラ1の設定により決定される。係数Cは、例えば顔領域の垂直方向のピクセル数である。また係数Xは、標準的な顔サイズとして20cmとしている。また2832は、画素数4256×2832ピクセルの垂直方向のピクセル数であり、24は、センササイズ36×24mmの垂直幅である。
次にステップS8において、撮像処理部52は、被写体距離が、フラッシュ光が到達する距離(例えば、5m)より長いか否かを判定し、それより長いと判定した場合、処理は、ステップS9に進む。
ステップS9において、撮像処理部52は、LCD制御部24を介して、フラッシュを発光しない旨を示す警告を、液晶表示パネル25に表示させる。
次に、ステップS10において、撮像処理部52は、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光の禁止を指示し、ステップS11において、感度設定部56を制御して、撮像時のパラメータを感度が上がる方向に設定させる。例えば撮像の結果得られた信号の増幅率が大きな値に設定される。
このように、撮像時のフラッシュ発光の禁止が指示され、感度が上がる方向に撮像時のパラメータが設定されると、ユーザによりシャッターボタンが全押しされたとき、高い感度で、フラッシュ発光を伴わない撮像が実行される。
ステップS8で、被写体距離が、フラッシュ光が到達する距離以下であると判定された場合、ステップS12において、撮像処理部52は、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光を指示する。
このように、撮像時のフラッシュ発光が指示されると、ユーザによりシャッターボタンが全押しされたとき、フラッシュを伴う撮像(フラッシュ光の発光と同調する撮像)が実行される。
ステップS6で、対象顔領域の明るさがフラッシュを発して外光の光量不足を補わなくてもよい明るさ以上であると判定された場合(即ち対象顔領域の平均輝度値Yh2が閾値Yp2以上であると判定された場合)、ステップS13において、撮像処理部52は、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光の禁止を指示する。このように、撮像時のフラッシュ発光の禁止が指示されると、ユーザによりシャッターボタンが全押しされたとき、フラッシュ発光を伴わない撮像(フラッシュが発光しない撮像)が実行される。
またステップS3で、顔領域が特定されなかったと判定された場合、撮像処理部52は、ステップS14〜ステップS17において、対象画像全体の明るさに基づいてフラッシュのオンオフを決定する。
即ち撮像処理部52は、ステップS14において、対象画像全体の明るさを検出する。具体的には、図4のステップS31における場合と同様に、撮像部13により取り込まれている対象画像のデモザイク前の画像データが取得され、その画像データをサンプリングして、第1の画像データが生成される。そして第1の画像データの全画素の平均輝度値Yh1が検出される。なお平均輝度値Yh1は、式(1)に示すように、第1の画素データを構成するG成分の値によって算出される。
次にステップS15において、撮像処理部52は、対象画像全体の明るさが所定の明るさより暗いか否かを判定する。具体的には、ステップS14で算出された第1の画像データの平均輝度値Yh1が、フラッシュを発して外光の光量不足を補わなくてもよい明るさの限界輝度値Yp3より小さいか否かが判定される。なおいまの例では、輝度値Yp3は、図4のステップS32での判定に用いられた輝度値Yp1と同じものとする。即ちフラッシュを発して外光の光量不足を補わなくてはならない場合、第2の画像データが生成される。
ステップS15で、対象画像全体の明るさがフラッシュを発して外光の光量不足を補わなくてもよい明るさより暗いと判定された場合(即ち第1の画像データの全画素の平均輝度値Yh1が閾値Yp3より小さいと判定された場合)、ステップS16に進み、撮像処理部52は、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光を指示する。このように、撮像時のフラッシュ発光が指示されると、ユーザによりシャッターボタンが全押しされたとき、フラッシュを伴う撮像(フラッシュ光の発光と同調する撮像)が実行される。
ステップS15で、対象画像全体の明るさがフラッシュを発して外光の光量不足を補わなくてもよい明るさ以上であると判定された場合(即ち第1の画像データの全画素の平均輝度値Yh1が閾値Yp1以上であると判定された場合)、ステップS17に進み、撮像処理部52は、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光の禁止を指示する。このように、撮像時のフラッシュ発光の禁止が指示されると、ユーザによりシャッターボタンが全押しされたとき、フラッシュ発光を伴わない撮像(フラッシュ光が発光しない撮像)が実行される。
なおこの例の場合、閾値Yp2,Yp3は、フラッシュを発して外光の光量不足を補わなくてもよい明るさの限界輝度値であるが、注目する領域が(対象画像領域又は対象画像全体と)違うので、異なる値とすることもできるし、同じ値とすることもできる。
以上のように、自動フラッシュモードが設定されている場合においても(図3のステップS1でのYES判定)、顔領域の明るさが暗ければ(ステップS6でのYES判定)、フラッシュをオンすることができるので(ステップS12)、例えば周りは明るいが逆光によって顔の部分が暗くなっている場合にはフラッシュ発光を伴う撮像が行われ、顔を適切な露出で撮像することができる。
また顔領域が特定されない場合は(ステップ3でのNO判定)、全体の明るさに基づいてフラッシュのオンオフが制御されるので(ステップ14からS17)、顔領域が特定されない場合においても、適切にフラッシュのオンオフを制御することができる。
また以上のように、フラッシュをオンする必要がある場合でも(ステップS6でのYES判定)、フラッシュ光が被写体に到達しないようなときは(ステップS8でのYES判定)、フラッシュをオフするようにしたので(ステップS10)、無駄にフラッシュが焚かれることを防止することができ、例えば電力の消費を抑えることができる。またそのとき、フラッシュをオフする旨を提示するようにしたので(ステップS9)、ユーザは、その提示によって、撮像の停止や撮像条件の変更を行うことができ、適切な撮像を行うことができる。なおこの例では警告を表すメッセージが表示されるものとしたが、ライトが点滅したり、ブザーが出力されるようにすることもできる。また感度を上げるようにしたので(ステップS11)、フラッシュがオフされても比較的良好な画像を撮像することができる。
また以上のように、顔領域の明るさを判定するに当たり、現像前の画像データを利用したので(図3のステップS14、図4のステップS31)、より迅速にフラッシュ制御を行うことができる。なお以上の例では、G成分を利用して輝度値を算出したが、例えばR成分を利用することもできる。また現像後の画像データを利用することもできる。
なお以上においては、シャッタスピードを遅くすることによって感動を上げるようにしたが、他の撮像条件を変更することによって感度を上げることもできる。
図10は、図3の対象顔領域決定処理の流れを示すフローチャートである。このフローチャートを参照して、対象顔領域決定処理について説明する。
ステップS101において、対象顔領域決定部55は、複数の顔領域が特定されたか否かを判定し、複数の顔領域が特定されたと判定した場合、処理は、ステップS102に進む。
ステップS102において、対象顔領域決定部55は、各顔領域のエッジ強度を検出する。具体的には、例えば、ラプラシアンフィルタを用いて、各顔領域のエッジ強度が検出される。
図11は、エッジ強度検出に用いられる8方向のラプラシアンフィルタの例を示す図である。このラプラシアンフィルタには、中央の係数が最も大きく、かつ全て足し合わせると0となる係数が3×3で配置されている。このラプラシアンフィルタを顔領域に重ね合わせて配置し、ラプラシアンフィルタに対応する顔領域の画素とラプラシアンフィルタの係数が乗算されて、足し合わされる。この演算を、ラプラシアンフィルタを1画素ずつ移動させながら行い、その演算結果得られた値の中で、最も大きな値がその顔領域のエッジ強度となる。この処理が、全ての顔領域に対して行われる。
ステップS103において、対象顔領域決定部55は、ステップS102で検出された各顔領域のエッジ強度について、最大強度と最小強度の差分が所定の閾値H1より大きいか否かを判定し、大きいと判定した場合、ステップS104に進む。
ステップS104において、対象顔領域決定部55は、複数の顔領域の中から1つの顔領域を選択し、ステップS105において、その顔領域のエッジ強度が所定の閾値H2より小さいか否かを判定し、小さいと判定した場合、ステップS106において、いま選択されている顔領域に関する顔領域情報を、顔領域情報記憶部54から削除する。
次にステップS107において、対象顔領域決定部55は、検出された複数の顔領域が全て選択されたか否かを判定し、まだ選択されていない顔領域が残っていると判定した場合、ステップS104に戻り、他の顔領域を選択し、ステップS105以降の処理を同様に行う。
ステップS101で、複数の顔領域が検出されていないと判定された場合、若しくはステップS103で、エッジ強度の最大強度と最小強度の差分が閾値H1以下であると判定された場合、又はステップS107で、複数の顔領域が全て選択されたと判定された場合、処理は、終了する。
以上のようにして対象顔領域決定処理が行われる。即ち所定の条件を満たさない顔領域の顔領域情報は削除されるので、図3のステップS5では、顔領域情報記憶部54に、削除されずに顔領域情報が残っている顔領域が対象顔領域として処理される。
本来撮像対象である顔とともに、例えば通行人の顔など本来撮像対象ではない顔が撮影画角内に入っている場合、ピントは、通常、撮像対象である顔に合わせられ、撮像対象ではない顔には合わせられない。従ってそのような場合、そのとき得られる画像には、エッジ強度が高い顔領域(撮像対象である顔の画像を含む顔領域)と、エッジ強度が低い顔領域(撮像対象ではない顔の画像を含む顔領域)が存在する。
そこでピントが合ってエッジ強度が高い顔領域(撮像対象である顔の画像を含む顔領域)と、ピントが合っておらずエッジ強度が低い顔領域(撮像対象ではない顔の画像を含む顔領域)が共に存在する場合(ステップS103でのYES判定)、ピントが合っておらずエッジ強度が低い顔領域(撮像対象ではない顔の画像を含む顔領域)が排除されて(ステップS105,106)、残ったエッジ強度が高い顔領域(撮像対象の顔の画像を含む顔領域)(即ち対象顔領域)に基づいて、フラッシュ制御が行われる(図3のステップS5〜S13)。即ち撮像対象である顔の画像に基づいて、フラッシュ制御を行うことができる。
なおステップS101で、複数の顔領域が検出されていないと判定された場合は、顔領域が1個だけ特定されているので、その場合は、その1個の顔領域が対象顔領域とされる。またステップS103で、エッジ強度の最大強度と最小強度の差分が所定の閾値H1以下であると判定された場合は、全ての顔領域にピントが合わされ、全てが撮像の対象とされている可能性があるので、その複数の顔領域の全てが対象顔領域とされる。
図12は、他の対象顔領域決定処理の流れを示すフローチャートである。このフローチャートを参照して、この対象顔領域決定処理について説明する。
ステップS151において、対象顔領域決定部55は、複数の顔領域が特定されたか否かを判定し、複数の顔領域が特定されたと判定した場合、処理は、ステップS152に進む。
ステップS152において、対象顔領域決定部55は、各顔領域の大きさを検出する。なおこの例では、顔領域の垂直幅(例えば、ピクセル数)が、顔領域の大きさとされる。
ステップS153において、対象顔領域決定部55は、ステップS152で検出された顔領域の中の最大の大きさ(即ち、最大サイズ)が、その最小の大きさ(即ち最小サイズ)の2倍より大きいか否かを判定し、大きいと判定した場合、ステップS154に進む。
図13は、顔領域の大きさを模式的に表した図である。図13には、大きさがそれぞれ異なる4つの顔領域FA1〜FA4が、大きさの順に並んでいる。この例の場合、最大サイズとなる顔領域FA4の垂直幅S4が、最小サイズとなる顔領域FA1の垂直幅S1の2倍より大きいか否かが判定される。最大サイズである顔領域FA4の垂直幅S4は、最小サイズである顔領域FA1の垂直幅S1の2倍より大きいので、ステップS154に進む。
ステップS154において、対象顔領域決定部55は、複数の顔領域の中から1つの顔領域を選択する。
ステップS155において、対象顔領域決定部55は、いま選択した顔領域の大きさが、顔領域の最小サイズに、最大サイズと最小サイズの差分の半分を加算した結果得られた値(式(3))より小さいか否かを判定し、小さいと判定された場合、ステップS156において、いま選択されている顔領域に関する顔領域情報を、顔領域情報記憶部54から削除する。
顔領域の大きさ<最小サイズ+(最大サイズ−最小サイズ)/2
・・・(3)
図13の例において、いま顔領域FA2が選択されているものとすると、顔領域FA2のサイズS2は、最小サイズ(S1)に、最大サイズ(S4)と最小サイズ(S1)の差分(S4-1)の半分のサイズ(S'4-1)を加算して得られた値(図中、点線までの高さ)より小さいので、顔領域FA2の顔領域情報は、顔領域情報記憶部54から削除される。
次にステップS157において、対象顔領域決定部55は、検出された複数の顔領域が全て選択されたか否かを判定し、まだ選択されていない顔領域が残っていると判定した場合、ステップS154に戻り、他の顔領域を選択し、ステップS155以降の処理を同様に行う。
ステップS151で、複数の顔領域が検出されていないと判定された場合、若しくはステップS153で、顔領域の最大サイズが、最小サイズの2倍以下であると判定された場合、又はステップS157で、複数の顔領域が全て選択されたと判定された場合、処理は、終了する。
以上のようにして対象顔領域決定処理が行われる。この例の場合も、所定の条件を満たさない顔領域の顔領域情報は削除されるので、図3のステップS5では、顔領域情報記憶部54に、削除されずに顔領域情報が残っている顔領域が対象顔領域として処理される。
撮像対象である顔はクローズアップされていることが多いので、撮像対象である顔とともに、例えば通行人の顔など本来撮像対象ではない顔が撮影画角内に入っている場合、そのとき得られる画像には、大きな顔領域(撮像対象である顔の画像を含む顔領域)と、小さな顔領域(撮像対象ではない顔の画像を含む顔領域)が存在する。
そこで、大きな顔領域(撮像対象である顔の画像を含む顔領域)と、小さな顔領域(撮像対象ではない顔の画像を含む顔領域)が共に存在する場合(ステップS153でのYES判定)、小さな顔領域(撮像対象ではない顔の画像を含む顔領域)が排除され、残った大きな顔領域(撮像対象である顔の画像を含む顔領域)(即ち対象顔領域)に基づいて(ステップS156,157)、フラッシュ制御が行われる(図3のステップS5〜S13)。即ち撮像対象である顔の画像に基づいて、フラッシュ制御を行うことができる。
図13の例では、4つの顔領域FA1〜FA4のうちの2個の顔領域FA3とFA4が対象顔領域とされ、それらに基づいてフラッシュ制御が行われる。
なおステップS151で、複数の顔領域が検出されていないと判定された場合は、顔領域が1個だけ特定されているので、その場合は、その1個の顔領域が対象顔領域とされる。またステップS153で、最大サイズが、最小サイズの2倍より大きくないと判定された場合、全ての顔を同じように撮ろうとしており、全てが撮像の対象とされている可能性があるので、その複数の顔領域の全てが対象顔領域とされる。
図10及び図12を参照して説明したように、撮像対象である顔と撮像対象ではない顔が含まれている可能性がある場合、撮像対象である顔の可能性がある画像を含む顔領域に基づいて、フラッシュ制御を行うようにしたので、より効果的なフラッシュ制御を行うことができる。例えば撮像対象ではない顔の画像を含む顔領域は排除されるので、そのような顔領域の影響を受けずに、フラッシュのオンオフの判定(図3のステップS6)、又フラッシュ光が到達するか否かの判定(ステップS8)を行うことができる。
なお以上においては、対象顔領域決定処理として、エッジ強度による方法(図10)又は大きさによる方法(図12)のいずれか一方が実行される場合を例として説明したが、エッジ強度による方法(図10)及び大きさによる方法(図12)をそれぞれ組み合わせて行うこともできる。
図14は、エッジ強度による方法で顔領域を選択した後に大きさによる方法でさらに顔領域を選択するようにして対象顔領域を決定する場合の対象顔領域決定処理の流れを示すフローチャートである。
基本的は、図10に示した処理が行われ、その後図12に示した処理が行われるので、その詳細な説明は省略するが、この例の場合、エッジ強度による対象顔領域決定処理で残った顔領域を対象に、大きさによる対象顔領域決定処理が行われる。
図15は、他のフラッシュ制御処理Z1の流れを示すフローチャートである。このフラッシュ制御処理Z1では、対象顔領域の明るさが所定の明るさより暗い場合(ステップS256)、フラッシュがオンされることを前提として(ステップS257)、背景の明るさに応じて、撮像条件等が変更される(ステップS258)。
ステップS251からステップS256においては、図3のステップS1からステップS6における場合と同様の処理が実行され、ステップS259からステップS263においては、図3のステップS13からステップS17における場合と同様の処理が実行させるので、その説明は適宜省略する。
ステップS256において、対象顔領域の明るさが所定の明るさより暗いと判定された場合、ステップS257において、撮像処理部52は、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光を指示する。このように、撮像時のフラッシュ発光が指示されると、ユーザによりシャッターボタンが全押しされたとき、フラッシュを伴う撮像(フラッシュ光の発光と同調する撮像)が実行される。
ステップS258において、撮像/補正条件決定処理が実行される。図16は、この撮像/補正条件決定処理の流れを示すフローチャートである。このフローチャートを参照して、撮像/補正条件決定処理について説明する。
ステップS301において、撮像処理部52は、対象画像の中の、ステップS254で決定された対象顔領域以外の領域(以下、背景領域と称する)の平均輝度値Yh3を算出する。
ステップS302において、撮像処理部52は、背景領域の明るさが所定の明るさより暗いか否かを判定する。具体的には、ステップS301で算出された背景領域の平均輝度値Yh3が、フラッシュを発して外光の光量不足を補わなくてもよい明るさの限界輝度値Yp3より小さいか否かが判定される。
ステップS302で、背景領域の明るさが所定の明るさより暗いと判定された場合、ステップS303において、撮像処理部52は、感度設定部56を制御して、撮像時のパラメータを、感度及び露出が上がる方向に設定させる。例えば増幅率が大きな値に設定されたり、絞りやシャッタースピードが調整される。撮像処理部52はまた、図示せぬ画像処理部を制御して、ノイズ除去処理をオンに設定させる。このように、ノイズ除去処理がオンに設定されると、撮像の結果得られた画像に対して、例えばノイズを除去するためのフィルタリング処理が施されるようになる。
ステップS302で、背景領域の明るさが所定の明るさより暗くないと判定された場合(即ち明るい場合)、ステップS304において、撮像処理部52は、感度設定部56を制御して、撮像時のパラメータを、感度及び露出が下がる方向に設定させる。このときノイズ除去処理はオフに設定させる。
ステップS303又はステップS304で、パラメータが変更されると、処理は、図15のフラッシュ制御処理Z1は終了する。
以上のように、対象顔領域が暗く、かつ背景領域が暗い場合(例えば、夜の撮影の場合)は、感度及び露出を上げるように撮像条件を設定し、フラッシュを伴う撮像を行うようにしたので、例えばフラッシュの光が十分に届かない背景も綺麗に撮像することができる。また感度が上がるのでノイズが乗りやすいが、ノイズ除去処理をオンに設定するようにしたので、ノイズを除去することができる。
また対象顔領域が暗く、かつ背景領域が明るい場合(例えば、逆光での撮影の場合)は、感度及び露出を下げて、フラッシュを伴う撮像を行うようにしたので、例えば背景の色飛びを防止することができる。
なお図15の例では、対象顔領域の明るさが所定の明るさより暗い場合、フラッシュをオンすることを前提としたが、図3の例の場合のように、対象顔領域の明るさが所定の明るさより暗い場合においても、被写体距離に応じてフラッシュのオンオフを制御することもできる。即ち図3と図15のフラッシュ制御処理Z1を組み合わせることができる。図17は、図3と図15の処理を組み合わせたフラッシュ制御処理Z1の流れを示すフローチャートである。
ステップS351からステップS362においては、図3のステップS1からステップS12における場合と同様の処理が実行され、ステップS364からステップS368においては、図3のステップS13からステップS17における場合と同様の処理が実行させるので、その説明は適宜省略する。
即ちこのフラッシュ制御処理Z1では、ステップS358において、被写体距離が、フラッシュ光が到達する距離(例えば、5m)以下であると判定され、ステップS362において、フラッシュ発光制御部29に対して、撮像時のフラッシュ発光が指示された後に、撮像/補正条件決定処理(図16)が実行される。
なおフローチャートにその流れを示した処理は、各ステップが、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくても、並列的あるいは個別に実行される処理を含むものである。例えば図15のステップS254の処理や、図17のステップS354の処理は、適宜省略することもできる。即ち特定された顔領域を、そのまま対象顔領域とすることができる。
なお上述した機能の処理内容を記述したプログラムが提供される。処理内容を記述したプログラムは、コンピューターで読み取り可能な記録媒体に記録しておくことができる。コンピューターで読み取り可能な記録媒体としては、磁気記録装置、光ディスク、光磁気記録媒体、半導体メモリーなどがある。磁気記録装置には、ハードディスク装置(HDD)、フレキシブルディスク(FD)、磁気テープなどがある。光ディスクには、DVD(Digital Versatile Disc)、DVD−RAM、CD−ROM(Compact Disc ROM)、CD−R(Recordable)/RW(ReWritable)などがある。光磁気記録媒体には、MO(Magneto-Optical disc)などがある。
プログラムを流通させる場合には、例えば、そのプログラムが記録されたDVD、CD−ROMなどの可搬型記録媒体が販売される。また、プログラムをサーバコンピューターの記憶装置に格納しておき、ネットワークを介して、サーバコンピューターから他のコンピューターにそのプログラムを転送することもできる。
プログラムを実行するコンピューターは、例えば、可搬型記録媒体に記録されたプログラム若しくはサーバコンピューターから転送されたプログラムを、自己の記憶装置に格納する。そして、コンピューターは、自己の記憶装置からプログラムを読み取り、プログラムに従った処理を実行する。なお、コンピューターは、可搬型記録媒体から直接プログラムを読み取り、そのプログラムに従った処理を実行することもできる。また、コンピューターは、サーバコンピューターからプログラムが転送される毎に、逐次、受け取ったプログラムに従った処理を実行することもできる。
なお上記実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。
51 撮影操作部, 52 撮像処理部, 53 顔領域特定部, 54 顔領域情報記憶部, 55 対象顔領域決定部, 56 感度設定部

Claims (16)

  1. 撮像素子と、
    上記撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定する顔領域特定手段と、
    上記顔領域の明るさを求める顔領域明るさ算出手段と、
    上記顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求める背景領域明るさ算出手段と、
    上記顔領域の明るさ及び上記背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行する撮像制御手段と
    を有することを特徴とする撮像装置。
  2. 請求項1に記載の撮像装置であって、
    前記撮像制御手段は、少なくとも前記顔領域の明るさに応じて、発光を伴う撮像又は発光を伴わない撮像を実行する
    ことを特徴とする撮像装置。
  3. 請求項2に記載の撮像装置であって、
    前記撮像制御手段は、
    前記顔領域の明るさが所定の明るさより暗く、かつ前記背景領域の明るさが所定の明るさより明るい場合、感度又は露出度を下げ、
    前記顔領域の明るさが所定の明るさより暗く、かつ前記背景領域の明るさも所定の明るさより暗い場合、感度又は露出度を上げる
    ことを特徴とする撮像装置。
  4. 請求項2に記載の撮像装置であって、
    前記撮像制御手段による撮像の結果得られた撮像画像を補正する補正手段をさらに有し、
    上記補正手段は、前記顔領域の明るさ及び前記背景領域の明るさに応じて補正条件を決定する
    ことを特徴とする撮像装置。
  5. 請求項4に記載の撮像装置であって、
    前記補正手段は、
    前記顔領域の明るさが所定の明るさより暗く、かつ前記背景領域の明るさが所定の明るさより明るい場合、ノイズ除去処理を行わず、
    前記顔領域の明るさが所定の明るさより暗く、かつ前記背景領域の明るさが所定の明るさより暗い場合、ノイズ除去処理を実行する
    ことを特徴とする撮像装置。
  6. 請求項1に記載の撮像装置であって、
    前記顔領域特定手段は、前記撮像素子を用いて得られた画像の明るさが所定の明るさより暗い場合、前記撮像素子を用いて得られた画像の明るさを一定量明るくし、その明るくなった画像から、前記顔領域を特定する
    ことを特徴とする撮像装置。
  7. 請求項3又は4に記載の撮像装置であって、
    前記顔領域が複数特定された場合において、上記複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、前記顔領域明るさ算出手段は、エッジ強度が所定のエッジ強度より大きい前記顔領域の明るさを求める
    ことを特徴とする撮像装置。
  8. 請求項3又は4に記載の撮像装置であって、
    前記顔領域が複数特定された場合において、上記複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きいとき、前記顔領域明るさ算出手段は、大きさが所定の大きさより大きい前記顔領域の明るさを求める
    ことを特徴とする撮像装置。
  9. 請求項3又は4に記載の撮像装置であって、
    前記顔領域が複数特定された場合において、上記複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きく、かつ、上記複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、前記顔領域明るさ算出手段は、大きさが所定の大きさより大きい前記顔領域であって、エッジ強度が所定のエッジ強度より大きい前記顔領域の明るさを求める
    ことを特徴とする撮像装置。
  10. 請求項2に記載の撮像装置であって、
    前記顔領域の大きさを用いて、被写体までの距離を算出する距離算出手段をさらに有し、
    前記撮像制御手段は、
    前記顔領域の明るさが所定の明るさより暗く、かつ、上記被写体までの距離が発光された光が到達する距離以下である場合、発光を伴う撮像を実行し、
    前記顔領域の明るさが所定の明るさより暗いが、上記被写体までの距離が発光された光が到達する距離よりも長い場合、発光を伴う撮像を実行しない旨を提示して、発光を伴わない撮像を実行する
    ことを特徴とする撮像装置。
  11. 請求項10に記載の撮像装置であって、
    前記撮像制御手段は、前記顔領域の明るさが所定の明るさより暗いが、前記被写体までの距離が発光された光が到達する距離よりも長い場合、撮像感度を上げて、発光を伴わない撮像を実行する
    ことを特徴とする撮像装置。
  12. 請求項10に記載の撮像装置であって、
    前記顔領域が複数特定された場合において、上記複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、前記顔領域明るさ算出手段は、エッジ強度が所定のエッジ強度より大きい前記顔領域の明るさを算出し、前記距離算出手段は、エッジ強度が所定のエッジ強度より大きい前記顔領域の大きさを用いて、上記被写体までの距離を算出する
    ことを特徴とする撮像装置。
  13. 請求項10に記載の撮像装置であって、
    前記顔領域が複数特定された場合において、上記複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きいとき、前記顔領域明るさ算出手段は、大きさが所定の大きさより大きい前記顔領域の明るさを求め、前記距離算出手段は、大きさが所定の大きさより大きい前記顔領域の大きさを用いて、上記被写体までの距離を算出する
    ことを特徴とする撮像装置。
  14. 請求項10に記載の撮像装置であって、
    前記顔領域が複数特定された場合において、上記複数の顔領域の最大サイズと最小サイズの差分が所定の閾値より大きく、かつ、上記複数の顔領域のエッジの最大強度と最小強度の差分が所定の閾値より大きいとき、前記顔領域明るさ算出手段は、大きさが所定の大きさより大きい前記顔領域であって、エッジ強度が所定のエッジ強度より大きい前記顔領域の明るさを求め、前記距離算出手段は、大きさが所定の大きさより大きい前記顔領域であって、エッジ強度が所定のエッジ強度より大きい前記顔領域の大きさを用いて、上記被写体までの距離を算出する
    ことを特徴とする撮像装置。
  15. 撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定する顔領域特定ステップと、
    上記顔領域の明るさを求める顔領域明るさ算出ステップと、
    上記顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求める背景領域明るさ算出ステップと、
    上記顔領域の明るさ及び上記背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行させる撮像制御ステップと
    を含むことを特徴とする撮像方法。
  16. 画像処理を行うコンピュータに実行させるプログラムであって、
    撮像素子を用いて得られた画像から、その中の顔の少なくとも一部の画像が含まれる顔領域を特定する顔領域特定ステップと、
    上記顔領域の明るさを求める顔領域明るさ算出ステップと、
    上記顔領域以外の少なくとも一部の画像が含まれる背景領域の明るさを求める背景領域明るさ算出ステップと、
    上記顔領域の明るさ及び上記背景領域の明るさに応じて撮像条件を決定し、決定した撮像条件に応じた撮像を実行させる撮像制御ステップと
    を含む画像処理をコンピューターに実行させることを特徴とするプログラム。
JP2009075900A 2008-10-02 2009-03-26 撮像装置、撮像方法、及びプログラム Withdrawn JP2010107938A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009075900A JP2010107938A (ja) 2008-10-02 2009-03-26 撮像装置、撮像方法、及びプログラム
US12/566,602 US8391597B2 (en) 2008-10-02 2009-09-24 Image capturing apparatus, method for capturing image, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008257087 2008-10-02
JP2009075900A JP2010107938A (ja) 2008-10-02 2009-03-26 撮像装置、撮像方法、及びプログラム

Publications (1)

Publication Number Publication Date
JP2010107938A true JP2010107938A (ja) 2010-05-13

Family

ID=42075874

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009075900A Withdrawn JP2010107938A (ja) 2008-10-02 2009-03-26 撮像装置、撮像方法、及びプログラム

Country Status (2)

Country Link
US (1) US8391597B2 (ja)
JP (1) JP2010107938A (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034200A (ja) * 2010-07-30 2012-02-16 Canon Inc 撮像装置及びその制御方法
JP2013042237A (ja) * 2011-08-11 2013-02-28 Nikon Corp 撮像装置
JP2014535108A (ja) * 2011-10-28 2014-12-25 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー 顔検出を使用した画像の再構成
KR101757138B1 (ko) 2014-06-26 2017-07-11 퀄컴 인코포레이티드 배경 화소들에 기초한 노출 미터링

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI417811B (zh) * 2008-12-31 2013-12-01 Altek Corp The Method of Face Beautification in Digital Image
TWI419063B (zh) * 2010-11-19 2013-12-11 Inventec Corp 照相式行動通訊裝置及其閃光燈控制方法
JP5625844B2 (ja) * 2010-12-09 2014-11-19 ソニー株式会社 撮像方法、および撮像システム
JP5488530B2 (ja) * 2011-05-23 2014-05-14 富士ゼロックス株式会社 画像処理装置及び画像処理プログラム
US9413976B2 (en) * 2012-08-08 2016-08-09 Intuitive Surgical Operations, Inc. Auto exposure of a camera in a surgical robot
CN104809849A (zh) * 2014-01-25 2015-07-29 深圳富泰宏精密工业有限公司 自动侦测色狼求救的装置、方法及系统
EP2993645B1 (en) * 2014-09-02 2019-05-08 Nintendo Co., Ltd. Image processing program, information processing system, information processing apparatus, and image processing method
CN104363341B (zh) * 2014-11-12 2017-06-06 惠州Tcl移动通信有限公司 多应用使用flash led的控制方法及系统
CN108038444A (zh) * 2017-12-11 2018-05-15 北京小米移动软件有限公司 图像识别方法及装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3397381B2 (ja) 1993-06-30 2003-04-14 キヤノン株式会社 カメラ
DE50112268D1 (de) * 2001-02-09 2007-05-10 Imaging Solutions Ag Digitale lokale Bildeigenschaftssteuerung mittels Masken
JP2005190435A (ja) * 2003-12-26 2005-07-14 Konica Minolta Photo Imaging Inc 画像処理方法、画像処理装置及び画像記録装置
JP4396387B2 (ja) * 2004-05-13 2010-01-13 オムロン株式会社 画像補正装置
JP4665780B2 (ja) * 2006-01-30 2011-04-06 ソニー株式会社 顔重要度判定装置、方法、および撮像装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012034200A (ja) * 2010-07-30 2012-02-16 Canon Inc 撮像装置及びその制御方法
JP2013042237A (ja) * 2011-08-11 2013-02-28 Nikon Corp 撮像装置
JP2014535108A (ja) * 2011-10-28 2014-12-25 インテレクチュアル ベンチャーズ ファンド 83 エルエルシー 顔検出を使用した画像の再構成
KR101757138B1 (ko) 2014-06-26 2017-07-11 퀄컴 인코포레이티드 배경 화소들에 기초한 노출 미터링

Also Published As

Publication number Publication date
US20100086217A1 (en) 2010-04-08
US8391597B2 (en) 2013-03-05

Similar Documents

Publication Publication Date Title
JP2010107938A (ja) 撮像装置、撮像方法、及びプログラム
US9936141B2 (en) Image processing apparatus for performing correction processing for effecting virtual light source and method executed by image processing apparatus
TWI395472B (zh) 對目標影像施予階調修正之影像處理裝置及方法
TWI444041B (zh) 影像處理裝置、影像處理方法及記錄媒體
JP5520038B2 (ja) 映像処理装置及び映像処理方法
JP5624809B2 (ja) 画像信号処理装置
US20160037046A1 (en) Image capturing apparatus and control method therefor
US20030007076A1 (en) Image-processing apparatus and image-quality control method
JP6720881B2 (ja) 画像処理装置及び画像処理方法
JP2010016664A (ja) 撮像装置
JP6613697B2 (ja) 画像処理装置、プログラムおよび記録媒体
JP5225137B2 (ja) 撮像装置、画像処理方法及びプログラム
JP2008131530A (ja) 撮像装置、画像処理装置、および方法、並びにコンピュータ・プログラム
JP6243629B2 (ja) 画像処理装置及び方法、及び撮像装置
JP2019029833A (ja) 撮像装置
JP2007336172A (ja) 画像信号処理装置及び画像信号処理方法
JP2018181070A (ja) 画像処理装置および画像処理方法
JP4422353B2 (ja) 電子カメラ
JP6631099B2 (ja) 撮像装置
JP5782546B2 (ja) 映像処理装置、映像処理方法、撮像装置、プログラムおよび記憶媒体
JP2002268116A (ja) 自動露出制御装置およびそのプログラムを組み込んだ外部記憶媒体
JP2010268134A (ja) 撮像装置
JP7387411B2 (ja) 画像処置装置および画像処置方法、並びに撮像装置
JP2012129611A (ja) 撮像装置
US20230353880A1 (en) Imaging device, method for controlling imaging device and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120605