JP4154400B2 - 撮像装置及びその制御方法及びプログラム - Google Patents

撮像装置及びその制御方法及びプログラム Download PDF

Info

Publication number
JP4154400B2
JP4154400B2 JP2005093874A JP2005093874A JP4154400B2 JP 4154400 B2 JP4154400 B2 JP 4154400B2 JP 2005093874 A JP2005093874 A JP 2005093874A JP 2005093874 A JP2005093874 A JP 2005093874A JP 4154400 B2 JP4154400 B2 JP 4154400B2
Authority
JP
Japan
Prior art keywords
image data
face area
control
image
detection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005093874A
Other languages
English (en)
Other versions
JP2005318554A5 (ja
JP2005318554A (ja
Inventor
善也 川口
義宏 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2005093874A priority Critical patent/JP4154400B2/ja
Priority to US11/095,888 priority patent/US7573505B2/en
Priority to CNB2005100628613A priority patent/CN100413321C/zh
Publication of JP2005318554A publication Critical patent/JP2005318554A/ja
Publication of JP2005318554A5 publication Critical patent/JP2005318554A5/ja
Application granted granted Critical
Publication of JP4154400B2 publication Critical patent/JP4154400B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Color Television Image Signal Generators (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Processing Of Color Television Signals (AREA)

Description

本発明は、入力画像から主要被写体である人物の顔位置を検出し、それに対して焦点及び露出を合わせる技術に関するものである。
デジタルスチルカメラ等の撮影装置で人物を撮影する場合、主被写体である人物の顔に焦点を合わせ、主被写体である人物の顔に最適な露出で撮影することが求められる。従来のAF/AE(オートフォーカス/自動露出)制御では、画面内の予め決められた領域を測距/測光領域とし、その測距/測光領域に焦点と露出が合うように制御している。従って、主被写体である人物の顔が測距/測光領域に含まれていない場合には、人物の顔に焦点と露出が合わないという問題がある。
例えば画面中央部を測距/測光領域に設定していて、図5(a)に示すような二人の人物が並んだ構図や、図5(b)に示すような人物が画面の右側にずれている構図で撮影すると、人物の背景に焦点と露出が合ってしまう。図5(a)、図5(b)において破線枠部分が測距/測光領域である。これに対して撮影画像から人物の顔の位置を検出し、検出した領域からAF/AE評価値を抽出して、焦点や露出を合わせる制御方法が多数提案されている。例えば、特開平05−041830号公報(特許文献1)、特開2001−119622号公報(特許文献2)、特開2003−107335号公報(特許文献3)、特開2003−107555号公報(特許文献4)等が挙げられる。
特開平05−0418300号公報では、撮影画像から肌色領域を求め、その肌色領域が人物の顔であると判定されたら、その後取得した撮影画像の肌色領域における平均輝度信号レベルが所望の値になるように露出制御している。すなわち、人物の顔の位置を検出する撮影画像と露出制御に用いられる評価値を検出する撮影画像は異なったものである。
特開2001−119622号公報および特開2003−107335号公報では撮影画像の人物の顔に露出を合わせる制御方法、特開2003−107555号公報では撮影画像の人物の顔に焦点を合わせる制御方法が示されているが、いずれも、人物の顔の位置を検出する撮影画像とAF/AE評価値を検出する撮影画像が同一とみなせるものであるかどうかについては述べられていない。
特開平05−041830号公報 特開2001−119622号公報 特開2003−107335号公報 特開2003−107555号公報
しかしながら、人物の顔の位置の検出には時間がかかるので、撮影画像から人物の顔の位置を検出して測距/測光領域を設定し、その後取得した撮影画像からAF/AE評価値を検出しても、人物が動いたり撮影装置が手振れしたりすると、人物の顔が測距/測光領域から外れてしまい、人物の顔に焦点と露出が合わないという問題がある。
例えば、画面内を左から右に移動している人物を撮影していて、図6(a)、図6(b)に示すような2フレーム分の撮影画像が取得された場合について説明する。図6(b)は、例えば図6(a)から1秒後に得られた撮影画像である。
図6(a)、図6(b)それぞれの画像から人物の顔の位置を検出した結果がx、yで示されている点線で囲まれた領域である。図6(a)の画像から人物の顔の位置と判定されたx領域を測距/測光領域に設定し、その後取得した図6(b)の画像からAF/AE評価値を検出した場合、図6(b)では人物の顔の位置はy領域に移動しており、x領域から検出したAF/AE評価値を基にAF/AE制御を行うと、焦点と露出はx領域の背景に存在している、人物とは関係ない対象物に合ってしまう。
本発明はこのような点に鑑みてなされたものであって、その目的は、顔領域検出の対象となるフレームの画像に対してAF/AE/WB評価値検出とを行うことができるため、人物の顔への焦点調節と露出制御を従来よりも精度よく行い、人物の動きや手振れに強い撮影装置を提供することである。
上述した課題を解決し、目的を達成するために、本発明に係わる撮像装置は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、前記A/D変換手段から出力された画像データを基に第1の画像データを生成する第1の画像データ生成手段と、前記画像データを基に前記第1の画像データとは異なる第2の画像データを生成する第2の画像データ生成手段と、前記第2の画像データから顔領域を検出する顔領域検出手段と、前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、前記顔領域検出手段が前記第2の画像データから顔領域の検出を完了すると、前記第1の画像データにおける、前記顔領域検出手段により検出された顔領域に対応する部分のデータを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出手段と、前記抽出手段によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、を具備することを特徴とする。
また、本発明に係わる撮像装置は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、前記A/D変換手段から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出して記憶する抽出手段と、前記画像データを基に生成した画像データから顔領域を検出する顔領域検出手段と、前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、前記顔領域検出手段が顔領域の検出を完了すると、前記抽出手段が予め記憶した評価値のうち、前記顔領域検出手段により検出された前記顔領域に対応する部分の前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、を具備することを特徴とする。
また、本発明に係わる撮像装置は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、前記A/D変換手段から出力された画像データを基に複数の第1の画像データを生成する第1の画像データ生成手段と、前記画像データを基に第1の画像データとは異なる複数の第2の画像データを生成する第2の画像データ生成手段と、前記第2の画像データのいずれかから顔領域を検出する顔領域検出手段と、前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、前記顔領域検出手段が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域の検出の対象となった第2の画像データと比較してその変化量が所定量以内である第2の画像データと同一の画像データから生成された前記第1の画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出手段と、前記抽出手段によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、を具備することを特徴とする。
また、本発明に係わる撮像装置は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、前記A/D変換手段から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出して記憶する抽出手段と、前記画像データを基に生成した画像データから顔領域を検出する顔領域検出手段と、前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、前記顔領域検出手段が顔領域の検出を完了すると、前記顔領域検出手段が前記顔領域の検出を完了するまでに前記抽出手段が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が所定量以内である画像データにおいて前記顔領域検出手段により検出された顔領域に対応する部分の前記評価値に基づき、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、を具備することを特徴とする。
また、本発明に係わる撮像装置の制御方法は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、前記A/D変換工程から出力された画像データを基に第1の画像データを生成する第1の画像データ生成工程と、前記画像データを基に前記第1の画像データとは異なる第2の画像データを生成する第2の画像データ生成工程と、前記第2の画像データから顔領域を検出する顔領域検出工程と、前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、前記顔領域検出工程が前記第2の画像データから顔領域の検出を完了すると、前記第1の画像データにおける、前記顔領域検出工程により検出された顔領域に対応する部分のデータを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出工程と、前記抽出工程によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、を具備することを特徴とする。
また、本発明に係わる撮像装置の制御方法は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、前記A/D変換工程から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出して記憶する抽出工程と、前記画像データを基に生成した画像データから顔領域を検出する顔領域検出工程と、前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、前記顔領域検出工程が顔領域の検出を完了すると、前記抽出工程が予め記憶した評価値のうち、前記顔領域検出工程により検出された前記顔領域に対応する部分の前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、を具備することを特徴とする。
また、本発明に係わる撮像装置の制御方法は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、前記A/D変換工程から出力された画像データを基に複数の第1の画像データを生成する第1の画像データ生成工程と、前記画像データを基に第1の画像データとは異なる複数の第2の画像データを生成する第2の画像データ生成工程と、前記第2の画像データのいずれかから顔領域を検出する顔領域検出工程と、前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、前記顔領域検出工程が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域の検出の対象となった第2の画像データと比較してその変化量が所定量以内である第2の画像データと同一の画像データから生成された前記第1の画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出工程と、前記抽出工程によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、を具備することを特徴とする。
また、本発明に係わる撮像装置の制御方法は、結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、前記A/D変換工程から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための撮影情報のうちのいずれかを抽出して記憶する抽出工程と、前記画像データを基に生成した画像データから顔領域を検出する顔領域検出工程と、前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、前記顔領域検出工程が顔領域の検出を完了すると、前記顔領域検出工程が前記顔領域の検出を完了するまでに前記抽出工程が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が所定量以内である画像データにおいて前記顔領域検出工程により検出された顔領域に対応する部分の前記評価値に基づき、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、を具備することを特徴とする。
本発明によれば、動きのある被写体に対しても精度の高い顔検出を用いた撮像装置の制御を行うことが可能になる。
以下、本発明の好適な実施形態について、図面を参照して詳細に説明する。
(第1の実施形態)
図1は、本発明の撮影装置の第1の実施形態の機能ブロック図である。
図1において、10はレンズや絞り等からなる結像光学部であり、フォーカス調節や露出調節を行う。11は光学像を電気信号に変換するCCD等の撮像素子、12は撮像素子11からのアナログ画像信号をデジタル画像データに変換するA/D変換回路、13はA/D変換回路12から出力された画像データにガンマ処理、補間処理、マトリクス変換等を施して映像データを作成する信号処理部、14はメモリ(DRAM)15との間で映像データや各種制御データの書き込み/読み出しを行うメモリI/F、16は映像データから人物の顔の領域を判定する顔領域判定部、17はAF/AE/WB(オートフォーカス/自動露出/ホワイトバランス)評価値を検出するAF/AE/WB検出部である。18は各種制御を司るCPUであり、AF/AE/WB検出部17からの評価値に基づいて結像光学部を制御し、また、信号処理部13での信号処理のパラメータ設定を行う。19は表示部であり、信号処理部13にて作成された映像データを随時表示し、使用者がリアルタイムで被写体の様子を観察できるようにするための液晶モニター等からなる表示部である。
以下、本発明の第1の実施形態の撮影装置の動作を図2に示すフローチャートに従って説明する。
デジタルスチルカメラでは撮影の前に表示部19でこれから撮影をしようとする画像のモニタリングを行っており、本実施形態ではモニタリング動作中に人物の顔の位置およびAF/AE/WB評価値を抽出するものとする。
ステップS101では、モニタリングしている画像に対して顔検出を行う顔検出モードが設定されると、結像光学部10に入射した光は撮像素子11の受光面に結像し、撮像素子11からアナログ画像信号として出力される。アナログ画像信号はA/D変換回路12でデジタル画像データに変換され、信号処理部13に入力される。なお、ここでは顔検出モードの設定されると信号処理部13へ信号の入力が開始されているが、レリーズボタンが半押し(SW1)されると、信号処理部13へ信号の入力を開始してもよい。
信号処理部13では、ステップS102とステップS103の2つの処理が並行して行われる。ステップS102では、入力された画像データをそのまま(RAW圧縮方式で圧縮されたデータ)の状態でメモリI/F14を通じてメモリ15の予め決められたメモリ空間(メモリ空間A)に記憶する。一方、ステップS103では、入力された画像データにガンマ処理、補間処理、マトリクス変換等を施して映像データを作成する。
ステップS104では、CPU18は、メモリI/F14を通じてメモリ15のメモリ空間Aとは異なる予め決められたメモリ空間(メモリ空間B)にステップS103にて作成された映像データを記憶する。ステップS102にて記憶された画像データと、ステップS103にて作成された映像データとは、A/D変換回路12から出力された同一の画像データを基にしていることになる。
ステップS105では、顔領域判定部16は、ステップS104においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データを用いて人物の顔の領域を検出する。メモリ空間Bに記憶された映像データはメモリ空間Aに記憶された画像データよりも容量が小さく、メモリ空間Bに記憶された映像データから顔領域の検出を行えば、メモリ空間Aに記憶された画像データから行うようも短い時間で顔領域の検出が完了する。
人物の顔領域の検出方法としては、主成分分析による固有顔(eigenface)を用いた方法(M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.)や、特開平09−251534号公報では、目、鼻、口等の特徴点を利用した方法が提案されており、適用可能である。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により入力画像が人物の顔であるかどうかを判定している。
本実施形態では、予めメモリ15のメモリ空間Cに記憶されている人物の顔の標準パターンと、ステップS104においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データとの間でパターンマッチングを行う。そしてこのパターンマッチングを行っている間に、使用者が被写体をモニタリングできるように表示部19は、顔検出モード設定後の最初に得られた1フレーム後に新たに得られた映像データを随時表示する。
ステップS106では、AF/AE/WB検出部17は、ステップS105において検出された人物の顔領域の情報に基づいて、AF(オートフォーカス)評価値を検出する領域(AF領域)、AE(自動露出)評価値を検出する領域(AE領域)およびWB(ホワイトバランス)評価値を検出する領域(WB領域)を設定する。ステップS105において人物の顔が存在しないと判定された場合には、通常の方法でAF/AE/WB領域を設定する。なお、AF/AE/WB領域の設定は、CPU18で行っても構わない。
ステップS107では、ステップS102においてメモリ空間Aに記憶されたRAW圧縮方式で圧縮されたデータの内顔検出モード設定後の最初の1フレーム分のデータに対して、ステップS106において設定したAF/AE/WB領域に含まれるRAW圧縮方式で圧縮されたデータをAF/AE/WB検出部17に読み出し、AF/AE/WB評価値を検出する。なお、RAW圧縮方式で圧縮されたデータには、輝度情報だけでなく色情報も含まれる。
ステップS108では、CPU18は、ステップS107において得られたAF/AE/WB評価値に基づいてAF/AE/WB調整量を求め、結像光学部10を制御する。また、ステップS107において得られたAE評価値を基に、信号処理部13での信号処理のパラメータ設定を行う。
上述したようにデジタルスチルカメラのモニタリング動作中には、連続してフレーム画像がA/D変換回路12から出力されるので、上記ステップS105からステップS108の処理が行われている最中にも、次のフレーム画像が信号処理部13に入力されている。顔領域検出の対象となるフレーム1の画像に対して顔領域判定とAF/AE/WB評価値検出を行うため、フレーム毎にメモリ空間を切り替えて上記ステップS102からステップS107の処理を行う。この様子を図3のタイミングチャートおよび図4のメモリ空間図に従って説明する。
フレーム画像に対して信号処理部13に入力された順番にフレーム1、フレーム2、フレーム3、…と番号を付け、また、フレーム1の画像データが入力されている期間をフレーム1期間、同様にフレーム2期間、フレーム3期間、…と名付ける。ここでは、人物の顔の位置を検出するのに10フレーム期間かかるものとする。
図3のタイミングチャートは、垂直同期信号で区切られたフレーム1期間からフレーム12期間における、上記ステップS101からS108までの処理が行われるタイミングと、それぞれのステップで処理するフレーム番号を示している。図3において、画像データ入力はステップS101、RAW圧縮方式で圧縮されたデータ記憶はステップS102、映像データ記憶はステップS104、顔領域判定はステップS105、AF/AE/WB評価値検出はステップS107、AF/AE/WB制御はステップS108に相当する。
(1)フレーム1期間
信号処理部13に入力されたフレーム1の画像データに対して、上記ステップS102とステップS104の2つの処理が並行して行われ、フレーム1のRAW圧縮方式で圧縮されたデータはメモリ空間Aに、映像データはメモリ空間Bに記憶される。フレーム1期間のメモリ空間の例を図4(a)に示す。メモリ空間Cには、顔領域判定の際に用いられる顔の標準パターンが予め記憶されているものとする。
(2)フレーム2〜11期間
ステップS105の顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データを読み出して、メモリ空間Cに記憶されている標準パターンとのパターンマッチングによる顔領域判定を行う。フレーム2〜11期間においても信号処理部13にA/D変換回路12から出力された画像データは入力され続け、表示部19がこのフレーム2〜11期間にて得られた画像データを基にした映像データを用いて表示動作を行うが、顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データに対して行われる。
ステップS106ではCPU18は、顔領域判定が完了すると(図3ではフレーム11の画像を得ている時点にて)ステップS105にて記録されたフレーム1の画像に対して、AF/AE/WB領域を設定する。
ステップS107では、AF/AE/WB検出部17は、ステップS106にてAF/AE/WB領域に設定されたフレーム1のRAW圧縮方式で圧縮されたデータをメモリ空間Aから読み出してAF/AE/WB評価値を検出を行う。なお、AF評価値に関しては、1フレーム分の画像から求めることはできない為、ステップS106にてAF/AE/WB領域に設定されたフレーム1から数フレーム後までのフレームも加味して評価値の検出を行う。
そして、ステップS108では、CPU18は、ステップS107にて求められた評価値に基づきAF/AE/WB制御を行う。一方、信号処理部13に入力されたフレーム2の画像データに対して上記フレーム1期間と同じ処理が施されるが、フレーム2のRAW圧縮方式で圧縮されたデータはメモリ空間Aと異なるメモリ空間A’に、映像データはメモリ空間Bと異なるメモリ空間B’に記憶される。フレーム2期間のメモリ空間の例を図4(b)に示す。
例えば、フレーム1およびフレーム11の撮影画像として図6A、図6Bに示す撮影画像が取得された場合、フレーム1期間では図6(a)のRAW圧縮方式で圧縮されたデータと映像データが、フレーム11期間では図6(b)のRAW圧縮方式で圧縮されたデータと映像データがメモリ15に記憶される。図6(a)の映像データから顔の位置を検出した結果がxで示されている点線で囲まれた領域であり、AF/AE/WB制御は図6(a)のx領域のRAW圧縮方式で圧縮されたデータから検出したAF/AE/WB評価値を基に行われる。
(3)フレーム12期間以降
フレーム12期間以降は、上記フレーム2〜11期間と同じ処理が行われるが、メモリ15の書き込み/読み出しのメモリ空間はフレーム毎に交互に異なる。すなわち、フレーム3期間では、上記ステップS102およびS104におけるメモリ15への書き込みはメモリ空間Aおよびメモリ空間Bに行われ、上記ステップS105の顔領域判定におけるメモリ15からの読み出しはメモリ空間B’およびメモリ空間A’から行われる。フレーム22期間終了後におけるメモリ空間の例を図4(c)に示す。
(4)静止画撮影時
モニタリング動作中に得られたAE評価値をメモリ15に記憶しておけば、モニタリング動作の後に行われる静止画撮影時にも、そのAE評価値を用いて信号処理部13におけるガンマ処理、補間処理、マトリクス変換等のパラメータを設定することが可能である。
以上説明したとおり、上記実施形態によれば、フレーム1の画像に対して顔領域検出を開始してから完了するまでの間にフレーム2〜10期間の新たな画像データが得られているにもかかわらず、フレーム11期間にて顔領域検出結果が得られると記憶したフレーム1の画像を用いてAF/AE/WB評価値検出を行う。つまり、顔領域検出とAF/AE/WB評価値検出とが同一フレームに対して行われ、人物の顔への焦点調節と露出制御を従来よりも精度よく行い、人物の動きや手振れに強い撮影装置を提供することが可能となる。
(第2の実施形態)
図7は、本発明の撮影装置の第2の実施形態の機能ブロック図である。
図7において、10はレンズや絞り等からなる結像光学部であり、フォーカス調節や露出調節を行う。11は光学像を電気信号に変換するCCD等の撮像素子、12は撮像素子11からのアナログ画像信号をデジタル画像データに変換するA/D変換回路、13はA/D変換回路12から出力された画像データにガンマ処理、補間処理、マトリクス変換等を施して映像データを作成する信号処理部、14はメモリ(DRAM)15との間で映像データや各種制御データの書き込み/読み出しを行うメモリI/F、16は映像データから人物の顔の領域を判定する顔領域判定部、17はAF/AE/WB評価値を検出するAF/AE/WB検出部である。18は各種制御を司るCPUであり、AF/AE/WB検出部17からの評価値に基づいて結像光学部を制御し、また、信号処理部13での信号処理のパラメータ設定を行う。19は表示部であり、信号処理部13にて作成された映像データを随時表示し、使用者がリアルタイムで被写体の様子を観察できるようにするための液晶モニター等からなる表示部である。
以下、本発明の第2の実施形態における撮影装置の動作を図8に示すフローチャートに従って説明する。
デジタルスチルカメラでは撮影の前に表示部19でこれから撮影をしようとする画像のモニタリングを行っており、本実施形態ではモニタリング動作中に人物の顔の位置およびAF/AE/WB評価値を抽出するものとする。
ステップS201では、モニタリングしている画像に対して顔検出を行う顔検出モードが設定されると、結像光学部10に入射した光は撮像素子11の受光面に結像し、撮像素子11からアナログ画像信号として出力される。アナログ画像信号はA/D変換回路12でデジタル画像データに変換され、信号処理部13およびAF/AE/WB検出部17に入力される。なお、ここでは顔検出モードの設定されると信号処理部13へ信号の入力が開始されているが、レリーズボタンが半押し(SW1)されると、信号処理部13へ信号の入力を開始してもよい。
ステップS202では、AF/AE/WB検出部は、顔検出モード設定後の最初に入力された画像データからAF/AE/WB評価値を検出する。
ステップS203において、CPU18は、メモリI/F14を通じてメモリ15の予め決められたメモリ空間(メモリ空間A)にAF/AE/WB評価値の積分値を記憶する。
ここで、画面全体を例えば縦横16分割の256ブロックに分割し、それぞれのブロック内のAF/AE/WB評価値の積分値をメモリ15に記憶する。こうすることで、第1の実施形態においてRAW圧縮方式で圧縮されたデータをメモリ15に記憶した場合よりも、メモリ15に記憶するデータ量を削減することができる。また、AF評価値は、画像データにハイパスフィルタもしくはバンドパスフィルタを施すことにより得られ、特定の範囲の周波数成分のみを含む。従って、AF評価値を低域成分に周波数変換してデシメート(データ間引き)することにより、メモリ15に記憶するデータ量を削減することができる。
ステップS204では、信号処理部13は、入力された画像データにガンマ処理、補間処理、マトリクス変換等を施して映像データを作成する。
ステップS205では、CPU18は、メモリI/F14を通じてメモリ15のメモリ空間Aとは異なる予め決められたメモリ空間(メモリ空間B)にステップS204で作成された映像データを記憶する。ステップS102にて記憶された画像データと、ステップS103にて作成された映像データとは、A/D変換回路12から出力された同一の画像データを基にしていることになる。
ステップS206では、顔領域判定部16は、ステップS205においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データを用いて人物の顔の領域を検出する。人物の顔領域の検出方法としては、主成分分析による固有顔(eigenface)を用いた方法(M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.)や、特開平09−251534号公報では、目、鼻、口等の特徴点を利用した方法が提案されており、適用可能である。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により入力画像が人物の顔であるかどうかを判定している。
本実施形態では、予めメモリ15のメモリ空間Cに記憶してある人物の顔の標準パターンと、ステップS205においてメモリ空間Bに記憶された映像データとの間でパターンマッチングを行う。そしてこのパターンマッチングを行っている間に、使用者が被写体をモニタリングできるように表示部19は、顔検出モード設定後の最初に得られた1フレーム後に新たに得られた映像データを随時表示する。
ステップS207では、CPU18は、ステップS206において検出された人物の顔領域の情報に基づいて、AF評価値を検出する領域(AF領域)およびAE評価値を検出する領域(AE領域)を設定する。ステップS206において人物の顔が存在しないと判定された場合には、通常の方法でAF/AE/WB領域を設定する。
次に、ステップS208では、CPU18は、ステップS203においてメモリ空間Aに記憶されたAF/AE/WB評価値の内、ステップS207において設定したAF/AE/WB領域に含まれる領域(既に述べた分割された256ブロックのうちの1つ又は複数)のAF/AE/WB評価値を読み出す。
ステップS209では、CPU18は、AF/AE/WB調整量を求め、結像光学部10を制御する。また、ステップS208において得られたAE評価値に基づいて、信号処理部13での信号処理のパラメータ設定を行う。
上述したようにデジタルスチルカメラのモニタリング動作中には、連続してフレーム画像がA/D変換回路12から出力されるので、上記ステップS206からステップS209の処理が行われている最中にも、次のフレーム画像が信号処理部13およびAF/AE/WB検出部17に入力されている。顔領域検出の対象となるフレーム1の画像に対してAF/AE/WB評価値検出を行うため、フレーム毎にメモリ空間を切り替えて上記ステップS202からステップS208の処理を行う。この様子を図9のタイミングチャートおよび図10(a)、(b)、(c)のメモリ空間図に従って説明する。
フレーム画像に対して信号処理部13およびAF/AE/WB検出部17に入力された順番にフレーム1、フレーム2、フレーム3、…と番号を付け、また、フレーム1の画像データが入力されている期間をフレーム1期間、同様にフレーム2期間、フレーム3期間、…と名付ける。ここでは、人物の顔の位置を検出するのに10フレーム期間かかるものとする。
図9のタイミングチャートは、垂直同期信号で区切られたフレーム1期間からフレーム12期間における、上記ステップS201からS209までの処理が行われるタイミングと、それぞれのステップで処理するフレーム番号を示している。図9において、画像データ入力はステップS201、AF/AE/WB評価値検出および記憶はステップS202とステップS203、映像データ記憶はステップS205、顔領域判定はステップS206、AF/AE/WB評価値読み出しはステップS208、AF/AE/WB制御はステップS209に相当する。
(1)フレーム1期間
フレーム1の画像データに対して、AF/AE/WB検出部17では上記ステップS202およびステップS203の処理が、信号処理部13では上記ステップS205の処理が並行して行われ、フレーム1のAF/AE/WB評価値はメモリ空間Aに、映像データはメモリ空間Bに記憶される。フレーム1期間のメモリ空間の例を図10(a)に示す。メモリ空間Cには、顔領域判定の際に用いられる顔の標準パターンが予め記憶されているものとする。
(2)フレーム2〜11期間
ステップS206の顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データを読み出して、メモリ空間Cに記憶されている標準パターンとのパターンマッチングによる顔領域判定を行う。フレーム2〜11期間においても信号処理部13にA/D変換回路12から出力された画像データは入力され続け、表示部19がこのフレーム2〜11期間にて得られた画像データを基にした映像データを用いて表示動作を行うが、顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データに対して行われる。
ステップS207ではCPU18は、顔領域判定が完了するとステップS206にて記録された顔領域判定の対象となるフレーム1のデータに対して、AF/AE/WB領域の設定を行う。
ステップS208では、AF/AE/WB検出部17は、ステップS207にてAF/AE/WB領域に設定されたフレーム1のAF/AE/WB評価値をメモリ15から読み出す。なお、AF評価値に関しては、1フレーム分の画像から求めることはできない為、ステップS207にてAF/AE/WB領域に設定されたフレーム1から数フレーム後までのフレームも加味して評価値の検出を行う。
そして、ステップS209では、CPU18は、ステップS208にて読み出された評価値に基づきAF/AE/WB制御を行う。
一方、フレーム2の画像データに対して上記フレーム1期間と同じ処理が施されるが、フレーム2のAF/AE/WB評価値はメモリ空間Aと異なるメモリ空間A’に、映像データはメモリ空間Bと異なるメモリ空間B’に記憶される。フレーム2期間のメモリ空間の例を図10(b)に示す。
例えば、フレーム1およびフレーム11の撮影画像として図6A、Bに示す撮影画像が取得された場合、フレーム1期間では図6(a)のAF/AE/WB評価値と映像データが、フレーム11期間では図6(b)のAF/AE/WB評価値と映像データがメモリ15に記憶される。図6(a)の映像データから顔の位置を検出した結果がxで示されている点線で囲まれた領域であり、AF/AE/WB制御は図6(a)のx領域から得られたAF/AE/WB評価値をメモリ15から読み出して行われる。
(3)フレーム12期間以降
フレーム12期間以降は、上記フレーム2〜11期間と同じ処理が行われるが、メモリ15の書き込み/読み出しのメモリ空間はフレーム毎に異なる。すなわち、フレーム3期間では、上記ステップS203およびS205におけるメモリ15への書き込みはメモリ空間Aおよびメモリ空間Bに行われ、上記ステップS206の顔領域判定におけるメモリ15からの読み出しはメモリ空間B’およびメモリ空間A’から行われる。フレーム22期間終了後におけるメモリ空間の例を図10(c)に示す。
(4)静止画撮影時
モニタリング動作中に得られたAE評価値をメモリ15に記憶しておけば、モニタリング動作の後に行われる静止画撮影時にも、そのAE評価値を用いて信号処理部13におけるガンマ処理、補間処理、マトリクス変換等のパラメータを設定することが可能である。
以上説明したとおり、上記の実施形態によれば、フレーム1の画像に対して顔領域検出を開始してから完了するまでの間にフレーム2〜10期間の新たな画像データが得られているにもかかわらず、フレーム11期間にて顔領域検出結果が得られると記憶したフレーム1の画像からAF/AE/WB評価値を読み出す。つまり、顔領域検出とAF/AE/WB評価値検出とが同一フレームに対して行われ、人物の顔への焦点調節と露出制御を従来よりも精度よく行い、人物の動きや手振れに強い撮影装置を提供することが可能となる。
(第3の実施形態)
本実施形態は第1の実施形態ではフレーム1の画像に対してAF/AE/WB評価値検出領域を行っているのに対して、顔領域検出の対象となるフレームの画像に対しての変化量が所定内の撮影画像に基づきAF/AE/WB評価値検出を行う点が、第1の実施形態と異なる。
撮像装置の構成については第1の実施形態と同様なので説明は省略する。
以下、本発明の第3の実施形態の撮影装置の動作を図11に示すフローチャートに従って説明する。
デジタルスチルカメラでは撮影の前に表示部19でこれから撮影をしようとする画像のモニタリングを行っており、本実施形態ではモニタリング動作中に人物の顔の位置およびAF/AE/WB評価値を抽出するものとする。
ステップS301では、モニタリングしている画像に対して顔検出を行う顔検出モードが設定されると、結像光学部10に入射した光は撮像素子11の受光面に結像し、撮像素子11からアナログ画像信号として出力される。アナログ画像信号はA/D変換回路12でデジタル画像データに変換され、信号処理部13に入力される。なお、ここでは顔検出モードの設定されると信号処理部13へ信号の入力が開始されているが、レリーズボタンが半押し(SW1)されると、信号処理部13へ信号の入力を開始してもよい。
信号処理部13では、ステップS302とステップS303の2つの処理が並行して行われる。ステップS302では、入力された画像データをそのまま(RAW圧縮方式で圧縮されたデータ)の状態でメモリI/F14を通じてメモリ15の予め決められたメモリ空間(メモリ空間A)に記憶する。一方、ステップS303では、入力された画像データにガンマ処理、補間処理、マトリクス変換等を施して映像データを作成する。
ステップS304では、CPU18は、メモリI/F14を通じてメモリ15のメモリ空間Aとは異なる予め決められたメモリ空間(メモリ空間B)にステップS303にて作成された映像データを記憶する。ステップS102にて記憶された画像データと、ステップS103にて作成された映像データとは、A/D変換回路12から出力された同一の画像データを基にしていることになる。
ステップS305では、顔領域判定部16は、ステップS304においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データを用いて人物の顔の領域を検出する。
人物の顔領域の検出方法としては、主成分分析による固有顔(eigenface)を用いた方法(M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.)や、特開平09−251534号公報では、目、鼻、口等の特徴点を利用した方法が提案されており、適用可能である。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により入力画像が人物の顔であるかどうかを判定している。
本実施形態では、予めメモリ15のメモリ空間Cに記憶されている人物の顔の標準パターンと、ステップS304においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データとの間でパターンマッチングを行う。そしてこのパターンマッチングを行っている間に、使用者が被写体をモニタリングできるように表示部19は、顔検出モード設定後の最初に得られた1フレーム後に新たに得られた映像データを随時表示する。
ステップS306では、AF/AE/WB検出部17は、ステップS305において検出された人物の顔領域の情報に基づいて、AF(オートフォーカス)評価値を検出する領域(AF領域)およびAE(自動露出)評価値を検出する領域(AE領域)を設定する。ステップS305において人物の顔が存在しないと判定された場合には、通常の方法でAF/AE/WB領域を設定する。なお、AF/AE/WB領域の設定は、CPU18で行っても構わない。
ステップS307では、ステップS302においてメモリ空間Aに記憶された1フレーム期間以降のRAW圧縮方式で圧縮されたデータの内、顔領域検出の対象となるフレーム1の画像に対しての変化量が所定内である最新の画像データに対して、ステップS306において設定したAF/AE/WB領域に含まれるRAW圧縮方式で圧縮されたデータをAF/AE/WB検出部17に読み出し、AF/AE/WB評価値を検出する。なお、RAW圧縮方式で圧縮されたデータには、輝度情報だけでなく色情報も含まれる。
ステップS308では、CPU18は、ステップS307において得られたAF/AE/WB評価値に基づいてAF/AE/WB調整量を求め、結像光学部10を制御する。また、ステップS307において得られたAE評価値を基に、信号処理部13での信号処理のパラメータ設定を行う。
上述したようにデジタルスチルカメラのモニタリング動作中には、連続してフレーム画像がA/D変換回路12から出力されるので、上記ステップS305からステップS308の処理が行われている最中にも、次のフレーム画像が信号処理部13に入力されている。顔領域検出の対象となるフレーム1の画像に対しての変化量が所定内の撮影画像に基づき顔領域判定とAF/AE/WB評価値検出を行うため、フレーム毎にメモリ空間を切り替えて上記ステップS302からステップS307の処理を行う。この様子を図12のタイミングチャートおよび図13のメモリ空間図に従って説明する。
フレーム画像に対して信号処理部13に入力された順番にフレーム1、フレーム2、フレーム3、…と番号を付け、また、フレーム1の画像データが入力されている期間をフレーム1期間、同様にフレーム2期間、フレーム3期間、…と名付ける。ここでは、人物の顔の位置を検出するのに10フレーム期間かかるものとする。
図12のタイミングチャートは、垂直同期信号で区切られたフレーム1期間からフレーム12期間における、上記ステップS301からS308までの処理が行われるタイミングと、それぞれのステップで処理するフレーム番号を示している。図12において、画像データ入力はステップS301、RAW圧縮方式で圧縮されたデータ記憶はステップS302、映像データ記憶はステップS304、顔領域判定はステップS305、AF/AE/WB評価値検出はステップS307、AF/AE/WB制御はステップS308に相当する。
(1)フレーム1期間
信号処理部13に入力されたフレーム1の画像データに対して、上記ステップS302とステップS304の2つの処理が並行して行われ、フレーム1の圧縮方式で圧縮されたデータはメモリ空間Aに、映像データはメモリ空間Bに記憶される。フレーム1期間のメモリ空間の例を図4(a)に示す。メモリ空間Cには、顔領域判定の際に用いられる顔の標準パターンが予め記憶されているものとする。
(2)フレーム2〜11期間
ステップS305の顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データを読み出して、メモリ空間Cに記憶されている標準パターンとのパターンマッチングによる顔領域判定を行う。フレーム2〜11期間においても信号処理部13にA/D変換回路12から出力された画像データは入力され続け、表示部19がこのフレーム2〜11期間にて得られた画像データを基にした映像データを用いて表示動作を行うが、顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データに対して行われる。フレーム2〜11の画像データに対しても、上記フレーム1期間と同じ処理が施され、フレーム2〜11のRAW圧縮方式で圧縮されたデータはメモリ空間Aと異なるメモリ空間に、映像データはメモリ空間Bと異なるメモリ空間に順次記憶される。フレーム11期間終了後のメモリ空間の例を図13(b)に示す。図13(b)のメモリ空間A’にはフレーム11のRAW圧縮方式で圧縮されたデータ、メモリ空間B’にはフレーム11の映像データが記憶されている。
ステップS306ではCPU18は、ステップS305にて記録された顔領域判定の対象となるフレーム1の画像とフレーム2〜11の画像との相関を求める。そして、求められた相関値に基づきフレーム間の変化が許容内であるかどうかの判定を行い、変化が許容内であればシーンが変化していないとして、変化が許容内のフレームで且つ最新のフレームの画像に対して、AF/AE/WB領域を設定する。
ステップS307では、AF/AE/WB検出部17は、ステップS306にてAF/AE/WB領域に設定されたフレームに対応するフレームのRAW圧縮方式で圧縮されたデータをメモリ空間Aから読み出してAF/AE/WB評価値を検出を行う。なお、AF評価値に関しては、1フレーム分の画像から求めることはできない為、ステップS306にてAF/AE領域に設定されたフレームを基準に前後のフレームも加味して評価値の検出を行う。なお、評価値の検出が完了すれば、CPU18は、フレーム1からフレーム11までの記憶されていたデータを消去する。
そして、ステップS308では、CPU18は、ステップS307にて求められた評価値に基づきAF/AE/WB制御を行う。一方、信号処理部13に入力されたフレーム2の画像データに対して上記フレーム1期間と同じ処理が施されるが、フレーム2のRAW圧縮方式で圧縮されたデータはメモリ空間Aと異なるメモリ空間A’に、映像データはメモリ空間Bと異なるメモリ空間B’に記憶される。フレーム2期間のメモリ空間の例を図13(b)に示す。
例えば、フレーム1およびフレーム11の撮影画像として図6(a)、図6(b)に示す撮影画像が取得された場合、フレーム1期間では図6(a)のRAW圧縮方式で圧縮されたデータと映像データが、フレーム11期間では図6(b)のRAW圧縮方式で圧縮されたデータと映像データがメモリ15に記憶される。図6(a)の映像データから顔の位置を検出した結果がxで示されている点線で囲まれた領域であり、AF/AE/WB制御は図6(a)のx領域のRAW圧縮方式で圧縮されたデータから検出したAF/AE/WB評価値を基に行われる。
(3)フレーム12期間以降
フレーム12期間以降は、上記フレーム2〜11期間と同じ処理が行われるが、メモリ15の書き込み/読み出しのメモリ空間はフレーム毎に交互に異なる。すなわち、フレーム3期間では、上記ステップS302およびS304におけるメモリ15への書き込みはメモリ空間Aおよびメモリ空間Bに行われ、上記ステップS305の顔領域判定におけるメモリ15からの読み出しはメモリ空間B’およびメモリ空間A’から行われる。フレーム22期間終了後におけるメモリ空間の例を図13(c)に示す。
(4)静止画撮影時
モニタリング動作中に得られたAE評価値をメモリ15に記憶しておけば、モニタリング動作の後に行われる静止画撮影時にも、そのAE評価値を用いて信号処理部13におけるガンマ処理、補間処理、マトリクス変換等のパラメータを設定することが可能である。
なお、本実施形態において、シーンの変化が許容内のフレームで且つ最新のフレームの画像に対して、AF/AE/WB領域を設定するとしたが、シーンの変化が許容内のフレームの画像であるならば、どの画像を領域設定の際に使用する画像としても良い。
また、シーンの変化が許容内のフレームの画像の中で最もシーンの変化が少ない(評価の高い)フレームの画像に対してAF/AE/WB領域を設定してもよい。
また、シーンの変化が許容内のフレームの画像がない場合は、例えば、通常の評価測光を行い、AF/AE/WB領域を設定しAF/AE/WB制御を行う。
以上説明したとおり、上記実施形態によれば、顔領域検出の対象となるフレームの画像に対しての変化量が所定内の撮影画像に基づきAF/AE/WB評価値検出とを行うことができるため、人物の顔への焦点調節と露出制御を従来よりも精度よく行い、人物の動きや手振れに強い撮影装置を提供することが可能となる。
また、時間的に最も新しいフレームの画像にてAF/AE/WB評価値検出を行うことで構図自体は変わっていなくても、時間の変化からシーン全体の明るさ等が変わった時にも正確な露出制御を行うことが可能である。
(第4の実施形態)
本実施形態は第2の実施形態ではフレーム1のデータに対してAF/AE/WB評価値検出領域を行っているのに対して、顔領域検出の対象となるフレームの画像に対しての変化量が所定内の撮影画像に基づきAF/AE/WB評価値検出を行う点が、第2の実施形態と異なる。
撮像装置の構成については第2の実施形態と同様なので説明は省略する。
以下、本発明の第4の実施形態の撮影装置の動作を図14に示すフローチャートに従って説明する。
デジタルスチルカメラでは撮影の前に表示部19でこれから撮影をしようとする画像のモニタリングを行っており、本実施形態ではモニタリング動作中に人物の顔の位置およびAF/AE/WB評価値を抽出するものとする。
ステップS401では、モニタリングしている画像に対して顔検出を行う顔検出モードが設定されると、結像光学部10に入射した光は撮像素子11の受光面に結像し、撮像素子11からアナログ画像信号として出力される。アナログ画像信号はA/D変換回路12でデジタル画像データに変換され、信号処理部13およびAF/AE/WB検出部17に入力される。なお、ここでは顔検出モードの設定されると信号処理部13へ信号の入力が開始されているが、レリーズボタンが半押し(SW1)されると、信号処理部13へ信号の入力を開始してもよい。
ステップS402では、AF/AE/WB検出部は、随時入力された画像データからAF/AE/WB評価値を検出する。
ステップS403において、CPU18は、メモリI/F14を通じてメモリ15の予め決められたメモリ空間(メモリ空間A)にAF/AE/WB評価値の積分値を記憶する。
ここで、画面全体を例えば縦横16分割の256ブロックに分割し、それぞれのブロック内のAF/AE/WB評価値の積分値をメモリ15に記憶する。こうすることで、第3の実施形態においてRAW圧縮方式で圧縮されたデータをメモリ15に記憶した場合よりも、メモリ15に記憶するデータ量を削減することができる。また、AF評価値は、画像データにハイパスフィルタもしくはバンドパスフィルタを施すことにより得られ、特定の範囲の周波数成分のみを含む。従って、AF評価値を低域成分に周波数変換してデシメート(データ間引き)することにより、メモリ15に記憶するデータ量を削減することができる。
ステップS404では、信号処理部13は、入力された画像データにガンマ処理、補間処理、マトリクス変換等を施して映像データを作成する。
ステップS405では、CPU18は、メモリI/F14を通じてメモリ15のメモリ空間Aとは異なる予め決められたメモリ空間(メモリ空間B)にステップS404で作成された映像データを記憶する。ステップS102にて記憶された画像データと、ステップS103にて作成された映像データとは、A/D変換回路12から出力された同一の画像データを基にしていることになる。
ステップS406では、顔領域判定部16は、ステップS405においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データを用いて人物の顔の領域を検出する。人物の顔領域の検出方法としては、主成分分析による固有顔(eigenface)を用いた方法(M.A.Turk and A.P.Pentland, "Face recognition using eigenfaces", Proc. of IEEE Conf. on Computer Vision and Pattern Recognition, pp.586-591, 1991.)や、特開平09−251534号公報では、目、鼻、口等の特徴点を利用した方法が提案されており、適用可能である。これらの方法は、入力画像と複数の標準パターンとのパターンマッチング法により入力画像が人物の顔であるかどうかを判定している。
本実施形態では、予めメモリ15のメモリ空間Cに記憶してある人物の顔の標準パターンと、ステップS405においてメモリ空間Bに記憶された顔検出モード設定後の最初の1フレーム分の映像データとの間でパターンマッチングを行う。そしてこのパターンマッチングを行っている間に、使用者が被写体をモニタリングできるように表示部19は、顔検出モード設定後の最初に得られた1フレーム後に新たに得られた映像データを随時表示する。
ステップS407では、CPU18は、ステップS406において検出された人物の顔領域の情報に基づいて、AF評価値を検出する領域(AF領域)およびAE評価値を検出する領域(AE領域)を設定する。ステップS406において人物の顔が存在しないと判定された場合には、通常の方法でAF/AE/WB領域を設定する。
次に、ステップS408では、CPU18は、ステップS403においてメモリ空間Aに記憶された1フレーム期間以降の画像データの内、顔領域検出の対象となるフレーム1の画像に対しての変化量が所定内である最新の画像データを選択する。そしてこの選択された画像データのAF/AE/WB評価値の内、ステップS407において設定したAF/AE/WB領域に含まれる領域(既に述べた分割された256ブロックのうちの1つ又は複数)のAF/AE/WB評価値を読み出す。
ステップS409では、CPU18は、AF/AE/WB調整量を求め、結像光学部10を制御する。また、ステップS408において得られたAE評価値に基づいて、信号処理部13での信号処理のパラメータ設定を行う。
上述したようにデジタルスチルカメラのモニタリング動作中には、連続してフレーム画像がA/D変換回路12から出力されるので、上記ステップS406からステップS409の処理が行われている最中にも、次のフレーム画像が信号処理部13およびAF/AE/WB検出部17に入力されている。顔領域検出の対象となるフレーム1の画像に対しての変化量が所定内の撮影画像に基づきAF/AE/WB評価値検出を行うため、フレーム毎にメモリ空間を切り替えて上記ステップS402からステップS408の処理を行う。この様子を図15のタイミングチャートおよび図16(a)、(b)、(c)のメモリ空間図に従って説明する。
フレーム画像に対して信号処理部13およびAF/AE/WB検出部17に入力された順番にフレーム1、フレーム2、フレーム3、…と番号を付け、また、フレーム1の画像データが入力されている期間をフレーム1期間、同様にフレーム2期間、フレーム3期間、…と名付ける。ここでは、人物の顔の位置を検出するのに10フレーム期間かかるものとする。
図15のタイミングチャートは、垂直同期信号で区切られたフレーム1期間からフレーム12期間における、上記ステップS401からS409までの処理が行われるタイミングと、それぞれのステップで処理するフレーム番号を示している。図15において、画像データ入力はステップS401、AF/AE/WB評価値検出および記憶はステップS402とステップS403、映像データ記憶はステップS405、顔領域判定はステップS406、AF/AE/WB評価値読み出しはステップS408、AF/AE/WB制御はステップS409に相当する。
(1)フレーム1期間
フレーム1の画像データに対して、AF/AE/WB検出部17では上記ステップS402およびステップS403の処理が、信号処理部13では上記ステップS405の処理が並行して行われ、フレーム1のAF/AE/WB評価値はメモリ空間Aに、映像データはメモリ空間Bに記憶される。フレーム1期間のメモリ空間の例を図10(a)に示す。メモリ空間Cには、顔領域判定の際に用いられる顔の標準パターンが予め記憶されているものとする。
(2)フレーム2〜11期間
ステップS406の顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データを読み出して、メモリ空間Cに記憶されている標準パターンとのパターンマッチングによる顔領域判定を行う。フレーム2〜11期間においても信号処理部13にA/D変換回路12から出力された画像データは入力され続け、表示部19がこのフレーム2〜11期間にて得られた画像データを基にした映像データを用いて表示動作を行うが、顔領域判定は、メモリ空間Bに記憶されているフレーム1の映像データに対して行われる。フレーム2〜11の画像データに対しても、上記フレーム1期間と同じ処理が施され、フレーム2〜11のAF/AE/WB評価値はメモリ空間Aと異なるメモリ空間に、映像データはメモリ空間Bと異なるメモリ空間に順次記憶される。フレーム11期間終了後のメモリ空間の例を図16(b)に示す。図16(b)のメモリ空間A’にはフレーム11のAF/AE/WB評価値、メモリ空間B’にはフレーム11の映像データが記憶されている。
ステップS407ではCPU18は、ステップS406にて記録された顔領域判定の対象となるフレーム1の画像とフレーム2〜11の画像との相関を求める。そして、求められた相関値に基づきフレーム間の変化が許容内であるかどうかの判定を行い、変化が許容内であればシーンが変化していないとして、変化が許容内のフレームで且つ最新のフレームのデータに対して、AF/AE/WB領域の設定を行う。
ステップS408では、AF/AE/WB検出部17は、ステップS407にてAF/AE/WB領域に設定されたフレームに対応するフレームの領域のAF/AE/WB評価値をメモリ15から読み出す。なお、AF評価値に関しては、1フレーム分の画像から求めることはできない為、ステップS407にてAF/AE/WB領域に設定されたフレームを基準に前後の数フレームのデータを加味して評価値の検出を行う。なお、評価値の検出が完了すれば、CPU18は、フレーム1からフレーム11までの記憶されていたデータを消去する。
そして、ステップS409では、CPU18は、ステップS408にて読み出された評価値に基づきAF/AE/WB制御を行う。
一方、フレーム2の画像データに対して上記フレーム1期間と同じ処理が施されるが、フレーム2のAF/AE/WB評価値はメモリ空間Aと異なるメモリ空間A’に、映像データはメモリ空間Bと異なるメモリ空間B’に記憶される。フレーム2期間のメモリ空間の例を図16(b)に示す。
例えば、フレーム1およびフレーム11の撮影画像として図6(a)、(b)に示す撮影画像が取得された場合、フレーム1期間では図6(a)のAF/AE/WB評価値と映像データが、フレーム11期間では図6(b)のAF/AE/WB評価値と映像データがメモリ15に記憶される。図6(a)の映像データから顔の位置を検出した結果がxで示されている点線で囲まれた領域であり、AF/AE/WB制御は図6(a)のx領域から得られたAF/AE/WB評価値をメモリ15から読み出して行われる。
(3)フレーム12期間以降
フレーム12期間以降は、上記フレーム2〜11期間と同じ処理が行われるが、メモリ15の書き込み/読み出しのメモリ空間はフレーム毎に異なる。すなわち、フレーム3期間では、上記ステップS403およびS405におけるメモリ15への書き込みはメモリ空間Aおよびメモリ空間Bに行われ、上記ステップS406の顔領域判定におけるメモリ15からの読み出しはメモリ空間B’およびメモリ空間A’から行われる。フレーム22期間終了後におけるメモリ空間の例を図10(c)に示す。
(4)静止画撮影時
モニタリング動作中に得られたAE評価値をメモリ15に記憶しておけば、モニタリング動作の後に行われる静止画撮影時にも、そのAE評価値を用いて信号処理部13におけるガンマ処理、補間処理、マトリクス変換等のパラメータを設定することが可能である。
なお、本実施形態においても第1の実施形態と同様に、シーンの変化が許容内のフレームで且つ最新のフレームの画像に対して、AF/AE/WB領域を設定するとしたが、シーンの変化が許容内のフレームの画像であるならば、どの画像を領域設定の際に使用する画像としても良い。
また、シーンの変化が許容内のフレームの画像の中で最もシーンの変化が少ない(評価の高い)フレームの画像に対してAF/AE/WB領域を設定してもよい。
また、シーンの変化が許容内のフレームの画像がない場合は、例えば、通常の評価測光を行い、AF/AE/WB領域を設定しAF/AE/WB制御を行う。
以上説明したとおり、上記の実施形態によれば、顔領域検出の対象となるフレームの画像に対しての変化量が所定内の撮影画像に基づきAF/AE/WB評価値検出とを行うことができるため、人物の顔への焦点調節と露出制御を従来よりも精度よく行い、人物の動きや手振れに強い撮影装置を提供することが可能となる。
また、時間的に最も新しいフレームのデータにてAF/AE/WB評価値検出を行うことで構図自体は変わっていなくても、時間の変化からシーン全体の明るさ等が変わった時にも正確な露出制御を行うことが可能である。
(他の実施形態)
また、各実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の撮影装置の第1の実施形態の機能ブロック図である。 本発明の第1の実施形態における処理のフローチャートである。 本発明の第1の実施形態におけるタイミングチャートである。 本発明の第1の実施形態におけるメモリのメモリ空間を示す図である。 測距/測光領域と人物の位置関係を示す図である。 動いている人物の撮影画像を示す図である。 本発明の撮影装置の第2の実施形態の機能ブロック図である。 本発明の第2の実施形態における処理のフローチャートである。 本発明の第2の実施形態におけるタイミングチャートである。 本発明の第2の実施形態におけるメモリのメモリ空間を示す図である。 本発明の第3の実施形態における処理のフローチャートである。 本発明の第3の実施形態におけるタイミングチャートである。 本発明の第3の実施形態におけるメモリのメモリ空間を示す図である。 本発明の第4の実施形態における処理のフローチャートである。 本発明の第4の実施形態におけるタイミングチャートである。 本発明の第4の実施形態におけるメモリのメモリ空間を示す図である。
符号の説明
10 結像光学部
11 撮像素子
12 A/D変換回路
13 信号処理部
14 メモリI/F
15 メモリ
16 顔領域判定部
17 AF/AE検出部
18 CPU

Claims (17)

  1. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、
    前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、
    前記A/D変換手段から出力された画像データを基に第1の画像データを生成する第1の画像データ生成手段と、
    前記画像データを基に前記第1の画像データとは異なる第2の画像データを生成する第2の画像データ生成手段と、
    前記第2の画像データから顔領域を検出する顔領域検出手段と、
    前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、
    前記顔領域検出手段が前記第2の画像データから顔領域の検出を完了すると、前記第1の画像データにおける、前記顔領域検出手段により検出された顔領域に対応する部分のデータを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出手段と、
    前記抽出手段によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、
    を具備することを特徴とする撮像装置。
  2. 前記抽出手段は前記第1の画像データから、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを検出して記憶し、記憶した評価値の中から前記顔領域検出手段が前記第2の画像データから検出した前記顔領域の位置に対応した評価値を読み出すことを特徴とする請求項1に記載の撮像装置。
  3. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、
    前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、
    前記A/D変換手段から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出して記憶する抽出手段と、
    前記画像データを基に生成した画像データから顔領域を検出する顔領域検出手段と、
    前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、
    前記顔領域検出手段が顔領域の検出を完了すると、前記抽出手段が予め記憶した評価値のうち、前記顔領域検出手段により検出された前記顔領域に対応する部分の前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、
    を具備することを特徴とする撮像装置。
  4. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、
    前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、
    前記A/D変換手段から出力された画像データを基に複数の第1の画像データを生成する第1の画像データ生成手段と、
    前記画像データを基に第1の画像データとは異なる複数の第2の画像データを生成する第2の画像データ生成手段と、
    前記第2の画像データのいずれかから顔領域を検出する顔領域検出手段と、
    前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、
    前記顔領域検出手段が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域の検出の対象となった第2の画像データと比較してその変化量が所定量以内である第2の画像データと同一の画像データから生成された前記第1の画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出手段と、
    前記抽出手段によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、
    を具備することを特徴とする撮像装置。
  5. 前記抽出手段は、前記顔領域検出手段が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域の検出の対象となった第2の画像データと比較してその変化量が所定量以内である第2の画像データと同一の画像データから生成された第1の画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための前記評価値のうちのいずれかを抽出することを特徴とする請求項4に記載の撮像装置。
  6. 前記抽出手段は、前記顔領域検出手段が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域の検出の対象となった第2の画像データと比較して最も変化量が少ない第2の画像データと同一の画像データから生成された第1の画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための前記評価値のうちのいずれかを抽出することを特徴とする請求項4に記載の撮像装置。
  7. 前記制御手段は、前記顔領域検出手段が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域を検出した第2の画像データと比較してその変化量が所定量以内である第2の画像データがない場合は、前記顔領域検出手段の検出結果を用いずに、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行うことを特徴とする請求項4に記載の撮像装置。
  8. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像手段と、
    前記撮像手段から出力された画像信号をデジタル化して画像データを出力するA/D変換手段と、
    前記A/D変換手段から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出して記憶する抽出手段と、
    前記画像データを基に生成した画像データから顔領域を検出する顔領域検出手段と、
    前記A/D変換手段より出力された画像データに基づいて画像を逐次表示する表示手段と、
    前記顔領域検出手段が顔領域の検出を完了すると、前記顔領域検出手段が前記顔領域の検出を完了するまでに前記抽出手段が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が所定量以内である画像データにおいて前記顔領域検出手段により検出された顔領域に対応する部分の前記評価値に基づき、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御手段と、
    を具備することを特徴とする撮像装置。
  9. 前記制御手段は、前記顔領域検出手段が前記顔領域の検出を完了するまでに前記抽出手段が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が所定量以内である画像データのうちの最新の画像データにおいて前記顔領域検出手段により検出された顔領域に対応する部分の前記評価値に基づき、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行うことを特徴とする請求項8に記載の撮像装置。
  10. 前記制御手段は、前記顔領域検出手段が前記顔領域の検出を完了するまでに前記抽出手段が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が最も少ない画像データにおいて前記顔領域検出手段により検出された顔領域に対応する部分の前記評価値に基づき、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行うことを特徴とする請求項8に記載の撮像装置。
  11. 前記制御手段は、前記顔領域検出手段が前記顔領域の検出を完了するまでに前記抽出手段が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が所定量以内である画像データがない場合は、前記顔領域検出手段の検出結果を用いずに、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行うことを特徴とする請求項8に記載の撮像装置。
  12. 前記第2の画像データは前記第1の画像データよりもデータ容量が小さいことを特徴とする請求項1、2、4、5、6および7のいずれか1項に記載の撮像装置。
  13. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、
    前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、
    前記A/D変換工程から出力された画像データを基に第1の画像データを生成する第1の画像データ生成工程と、
    前記画像データを基に前記第1の画像データとは異なる第2の画像データを生成する第2の画像データ生成工程と、
    前記第2の画像データから顔領域を検出する顔領域検出工程と、
    前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、
    前記顔領域検出工程が前記第2の画像データから顔領域の検出を完了すると、前記第1の画像データにおける、前記顔領域検出工程により検出された顔領域に対応する部分のデータを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出工程と、
    前記抽出工程によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、
    を具備することを特徴とする撮像装置の制御方法。
  14. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、
    前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、
    前記A/D変換工程から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出して記憶する抽出工程と、
    前記画像データを基に生成した画像データから顔領域を検出する顔領域検出工程と、
    前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、
    前記顔領域検出工程が顔領域の検出を完了すると、前記抽出工程が予め記憶した評価値のうち、前記顔領域検出工程により検出された前記顔領域に対応する部分の前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、
    を具備することを特徴とする撮像装置の制御方法。
  15. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、
    前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、
    前記A/D変換工程から出力された画像データを基に複数の第1の画像データを生成する第1の画像データ生成工程と、
    前記画像データを基に第1の画像データとは異なる複数の第2の画像データを生成する第2の画像データ生成工程と、
    前記第2の画像データのいずれかから顔領域を検出する顔領域検出工程と、
    前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、
    前記顔領域検出工程が前記顔領域の検出を完了するまでに生成される前記複数の第2の画像データのうち、顔領域の検出の対象となった第2の画像データと比較してその変化量が所定量以内である第2の画像データと同一の画像データから生成された前記第1の画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための評価値のうちのいずれかを抽出する抽出工程と、
    前記抽出工程によって抽出された前記評価値に基づき少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、
    を具備することを特徴とする撮像装置の制御方法。
  16. 結像光学系により結像された被写体像を光電変換して画像信号を出力する撮像工程と、
    前記撮像工程から出力された画像信号をデジタル化して画像データを出力するA/D変換工程と、
    前記A/D変換工程から出力された画像データを用いて、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のための撮影情報のうちのいずれかを抽出して記憶する抽出工程と、
    前記画像データを基に生成した画像データから顔領域を検出する顔領域検出工程と、
    前記A/D変換工程より出力された画像データに基づいて画像を逐次表示する表示工程と、
    前記顔領域検出工程が顔領域の検出を完了すると、前記顔領域検出工程が前記顔領域の検出を完了するまでに前記抽出工程が記憶した評価値のうち、顔領域の検出の対象となった画像データと比較してその変化量が所定量以内である画像データにおいて前記顔領域検出工程により検出された顔領域に対応する部分の前記評価値に基づき、少なくともオートフォーカス制御、自動露出制御、及び、ホワイトバランス制御のうちのいずれかを行う制御工程と、
    を具備することを特徴とする撮像装置の制御方法。
  17. 請求項13乃至16のいずれか1項に記載の制御方法をコンピュータに実行させるためのプログラム。
JP2005093874A 2004-04-01 2005-03-29 撮像装置及びその制御方法及びプログラム Expired - Fee Related JP4154400B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005093874A JP4154400B2 (ja) 2004-04-01 2005-03-29 撮像装置及びその制御方法及びプログラム
US11/095,888 US7573505B2 (en) 2004-04-01 2005-03-31 Image capturing apparatus, control method therefor, program, and storage medium
CNB2005100628613A CN100413321C (zh) 2004-04-01 2005-04-01 摄像装置及其控制方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004109071 2004-04-01
JP2005093874A JP4154400B2 (ja) 2004-04-01 2005-03-29 撮像装置及びその制御方法及びプログラム

Publications (3)

Publication Number Publication Date
JP2005318554A JP2005318554A (ja) 2005-11-10
JP2005318554A5 JP2005318554A5 (ja) 2008-04-17
JP4154400B2 true JP4154400B2 (ja) 2008-09-24

Family

ID=35050315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005093874A Expired - Fee Related JP4154400B2 (ja) 2004-04-01 2005-03-29 撮像装置及びその制御方法及びプログラム

Country Status (3)

Country Link
US (1) US7573505B2 (ja)
JP (1) JP4154400B2 (ja)
CN (1) CN100413321C (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384798B2 (en) 2010-03-02 2013-02-26 Ricoh Company, Limited Imaging apparatus and image capturing method

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7844076B2 (en) * 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
EP1643758B1 (en) * 2004-09-30 2013-06-19 Canon Kabushiki Kaisha Image-capturing device, image-processing device, method for controlling image-capturing device, and associated storage medium
JP2007065290A (ja) * 2005-08-31 2007-03-15 Nikon Corp オートフォーカス装置
JP4914045B2 (ja) * 2005-09-07 2012-04-11 キヤノン株式会社 撮像装置及び撮像装置の制御方法
WO2007060980A1 (ja) * 2005-11-25 2007-05-31 Nikon Corporation 電子カメラおよび画像処理装置
JP4639271B2 (ja) * 2005-12-27 2011-02-23 三星電子株式会社 カメラ
JP4665780B2 (ja) * 2006-01-30 2011-04-06 ソニー株式会社 顔重要度判定装置、方法、および撮像装置
JPWO2007097287A1 (ja) 2006-02-20 2009-07-16 パナソニック株式会社 撮像装置及びレンズ鏡筒
US7877004B2 (en) * 2006-03-03 2011-01-25 Olympus Imaging Corp. Imaging apparatus and imaging method
JP2007251532A (ja) 2006-03-15 2007-09-27 Fujifilm Corp 撮像装置及び顔領域抽出方法
JP2007324856A (ja) * 2006-05-31 2007-12-13 Sony Corp 撮像装置、撮像制御方法
US20080019669A1 (en) * 2006-07-18 2008-01-24 Sahra Reza Girshick Automatically editing video data
JP4925271B2 (ja) * 2006-08-21 2012-04-25 株式会社メガチップス 一眼レフデジタルカメラにおける連続撮像方法
JP4808578B2 (ja) 2006-09-22 2011-11-02 富士フイルム株式会社 デジタルカメラおよびその制御方法
JP4879840B2 (ja) * 2006-09-22 2012-02-22 富士フイルム株式会社 デジタルカメラおよびその制御方法
JP4218720B2 (ja) * 2006-09-22 2009-02-04 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
JP4254841B2 (ja) * 2006-10-20 2009-04-15 ソニー株式会社 撮像装置、撮像方法、画像処理装置、画像処理方法および画像処理プログラム
JP2008108024A (ja) * 2006-10-25 2008-05-08 Matsushita Electric Ind Co Ltd 画像処理装置および撮像装置
JP4789776B2 (ja) * 2006-11-02 2011-10-12 キヤノン株式会社 撮像装置及び撮像方法
JP4953770B2 (ja) * 2006-11-02 2012-06-13 キヤノン株式会社 撮像装置
US10021291B2 (en) 2006-11-16 2018-07-10 Samsung Electronics Co., Ltd Portable device enabling a user to manually adjust locations of focusing and photometry and method for taking images
KR100805293B1 (ko) * 2006-11-16 2008-02-20 삼성전자주식회사 휴대기기 및 그 촬영방법
JP4725802B2 (ja) 2006-12-27 2011-07-13 富士フイルム株式会社 撮影装置、合焦方法および合焦プログラム
JP4254873B2 (ja) 2007-02-16 2009-04-15 ソニー株式会社 画像処理装置及び画像処理方法、撮像装置、並びにコンピュータ・プログラム
JP4976160B2 (ja) 2007-02-22 2012-07-18 パナソニック株式会社 撮像装置
JP4974704B2 (ja) * 2007-02-22 2012-07-11 パナソニック株式会社 撮像装置
JP2008245055A (ja) * 2007-03-28 2008-10-09 Fujifilm Corp 画像表示装置、撮影装置および画像表示方法
JP4819737B2 (ja) * 2007-04-10 2011-11-24 キヤノン株式会社 撮像装置及び制御方法
US20080278589A1 (en) * 2007-05-11 2008-11-13 Karl Ola Thorn Methods for identifying a target subject to automatically focus a digital camera and related systems, and computer program products
IL183386A0 (en) * 2007-05-24 2007-09-20 Wavebreak Technologies Ltd Systems and methods for counting an audience
IL183385A0 (en) * 2007-05-24 2007-09-20 Yosef Cohen Security systems and methods
US8237803B2 (en) 2007-07-09 2012-08-07 Panasonic Coporation Digital single-lens reflex camera including control section that performs camera shake correction and motion detecting section that detects speed of subject
JP4702635B2 (ja) * 2007-07-17 2011-06-15 富士フイルム株式会社 オートホワイトバランス補正値算出装置、方法およびプログラムならびに撮像装置
JP5116397B2 (ja) * 2007-08-06 2013-01-09 キヤノン株式会社 撮像装置、およびその制御方法
KR101431535B1 (ko) * 2007-08-30 2014-08-19 삼성전자주식회사 얼굴인식 기능을 이용한 영상 촬영 장치 및 방법
WO2009069831A1 (en) * 2007-11-29 2009-06-04 Kabushiki Kaisha Toshiba Picture processing method and picture processing apparatus
JP5094536B2 (ja) * 2008-05-08 2012-12-12 キヤノン株式会社 撮像装置及びその被写体の追尾方法
JP4760947B2 (ja) * 2008-08-05 2011-08-31 カシオ計算機株式会社 画像処理装置、プログラム
JP5178441B2 (ja) 2008-10-14 2013-04-10 三洋電機株式会社 電子カメラ
JP2010130231A (ja) * 2008-11-26 2010-06-10 Olympus Imaging Corp 撮像装置
JP5127686B2 (ja) 2008-12-11 2013-01-23 キヤノン株式会社 画像処理装置および画像処理方法、ならびに、撮像装置
KR20100069501A (ko) * 2008-12-16 2010-06-24 삼성전자주식회사 영상 처리 방법 및 장치, 및 이를 이용한 디지털 촬영 장치
JP5219795B2 (ja) 2008-12-26 2013-06-26 キヤノン株式会社 被写体追跡装置、その制御方法、撮像装置、表示装置及びプログラム
JP2010226558A (ja) * 2009-03-25 2010-10-07 Sony Corp 画像処理装置、画像処理方法、及び、プログラム
US8886206B2 (en) * 2009-05-01 2014-11-11 Digimarc Corporation Methods and systems for content processing
US8520131B2 (en) * 2009-06-18 2013-08-27 Nikon Corporation Photometric device, imaging device, and camera
JP2011090569A (ja) * 2009-10-23 2011-05-06 Sony Corp 画像処理装置および画像処理方法
US8509482B2 (en) 2009-12-21 2013-08-13 Canon Kabushiki Kaisha Subject tracking apparatus, subject region extraction apparatus, and control methods therefor
JP5967916B2 (ja) 2011-08-09 2016-08-10 キヤノン株式会社 焦点検出センサ及び焦点検出センサを用いた光学機器
JP6024107B2 (ja) * 2012-01-06 2016-11-09 株式会社リコー 画像処理装置、撮像装置、画像処理方法およびプログラム
JP5959923B2 (ja) 2012-04-26 2016-08-02 キヤノン株式会社 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
US9286509B1 (en) * 2012-10-19 2016-03-15 Google Inc. Image optimization during facial recognition
JP6087615B2 (ja) * 2012-12-19 2017-03-01 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、および表示装置
JP6049448B2 (ja) 2012-12-27 2016-12-21 キヤノン株式会社 被写体領域追跡装置、その制御方法及びプログラム
JP6099973B2 (ja) * 2012-12-27 2017-03-22 キヤノン株式会社 被写体領域追跡装置、その制御方法及びプログラム
JP6521626B2 (ja) 2014-12-25 2019-05-29 キヤノン株式会社 被写体追跡装置、方法およびプログラム
JP6509027B2 (ja) 2015-05-12 2019-05-08 キヤノン株式会社 被写体追跡装置、光学機器、撮像装置、被写体追跡装置の制御方法、プログラム
JP6555940B2 (ja) 2015-06-12 2019-08-07 キヤノン株式会社 被写体追跡装置、撮像装置、及び被写体追跡装置の制御方法
US10565712B2 (en) 2016-06-21 2020-02-18 Canon Kabushiki Kaisha Image processing apparatus and method for controlling the same
JP6800628B2 (ja) 2016-06-22 2020-12-16 キヤノン株式会社 追跡装置、追跡方法、及びプログラム
CN107508970A (zh) * 2017-07-31 2017-12-22 努比亚技术有限公司 一种拍照方法及移动终端
EP3697078B1 (en) * 2017-10-27 2022-05-25 Guangdong Oppo Mobile Telecommunications Corp., Ltd. Image processing method and device as well as electronic device
US11064173B2 (en) 2017-12-14 2021-07-13 International Business Machines Corporation Photographic directional light reference for articulating devices
US10896350B2 (en) 2018-04-10 2021-01-19 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and image capture apparatus
JP6812387B2 (ja) 2018-07-02 2021-01-13 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、記憶媒体
US11516378B2 (en) 2020-04-27 2022-11-29 Qualcomm Incorporated Methods and apparatus employing a phase detection autofocus (PDAF) optical system
JP7527129B2 (ja) * 2020-04-28 2024-08-02 キヤノン株式会社 焦点調節装置、撮像装置、焦点調節方法、及びプログラム
US11496674B2 (en) * 2020-09-18 2022-11-08 Microsoft Technology Licensing, Llc Camera placement guidance
JP2022125743A (ja) 2021-02-17 2022-08-29 キヤノン株式会社 電子機器、電子機器の制御方法およびプログラム

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3343921B2 (ja) 1991-08-06 2002-11-11 ミノルタ株式会社 人物適応露出制御装置
JP3279913B2 (ja) 1996-03-18 2002-04-30 株式会社東芝 人物認証装置、特徴点抽出装置及び特徴点抽出方法
JP4018218B2 (ja) * 1997-12-25 2007-12-05 キヤノン株式会社 光学装置及び測距点選択方法
JP4401497B2 (ja) 1999-10-20 2010-01-20 キヤノン株式会社 撮像装置及びその制御方法
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
JP2003107335A (ja) 2001-09-28 2003-04-09 Ricoh Co Ltd 撮像装置、自動合焦方法、およびその方法をコンピュータが実行するためのプログラム
US7298412B2 (en) * 2001-09-18 2007-11-20 Ricoh Company, Limited Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
JP4794786B2 (ja) 2001-09-28 2011-10-19 株式会社リコー 撮像装置、自動露出方法、およびその方法をコンピュータが実行するためのプログラム
US6975759B2 (en) * 2002-06-25 2005-12-13 Koninklijke Philips Electronics N.V. Method and system for white balancing images using facial color as a reference signal
JP2006025238A (ja) * 2004-07-08 2006-01-26 Fuji Photo Film Co Ltd 撮像装置
US8194173B2 (en) * 2004-07-16 2012-06-05 Nikon Corporation Auto-focusing electronic camera that focuses on a characterized portion of an object

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8384798B2 (en) 2010-03-02 2013-02-26 Ricoh Company, Limited Imaging apparatus and image capturing method

Also Published As

Publication number Publication date
CN100413321C (zh) 2008-08-20
JP2005318554A (ja) 2005-11-10
US20050231628A1 (en) 2005-10-20
CN1678033A (zh) 2005-10-05
US7573505B2 (en) 2009-08-11

Similar Documents

Publication Publication Date Title
JP4154400B2 (ja) 撮像装置及びその制御方法及びプログラム
CN100581222C (zh) 图像获取设备及图像获取方法
JP4732303B2 (ja) 撮像装置
JP4945722B2 (ja) 撮像装置
KR101117851B1 (ko) 촬상 장치 및 피사체 검출 방법
JP4006415B2 (ja) 撮影装置及びその制御方法並びに制御用プログラム
JP4364464B2 (ja) デジタルカメラ撮像装置
US8411159B2 (en) Method of detecting specific object region and digital camera
US8350918B2 (en) Image capturing apparatus and control method therefor
JP5171468B2 (ja) 撮像装置及び撮像装置の制御方法
KR101433121B1 (ko) 소정의 종횡비의 합성 화상을 생성하는 화상 처리 장치
JP2009272740A (ja) 撮像装置、画像選択方法及び画像選択プログラム
JP4953770B2 (ja) 撮像装置
JP4173459B2 (ja) デジタルカメラ
JP2019169985A (ja) 画像処理装置
JP2014225763A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2007208355A (ja) 撮影装置および方法並びにプログラム
JP6128928B2 (ja) 撮像装置、その制御方法、および制御プログラム
JP5289354B2 (ja) 撮像装置
JP6862225B2 (ja) 撮像装置、撮像装置の制御方法、及びプログラム
JP2020061760A (ja) 撮像装置
JP6087617B2 (ja) 撮像装置及びその制御方法
JP5631084B2 (ja) 画像記録装置
JP6278688B2 (ja) 撮像装置、撮像装置の制御方法及びプログラム
JP6486132B2 (ja) 撮像装置およびその制御方法、並びにプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080305

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080305

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20080305

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20080325

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080526

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080620

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080707

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4154400

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110711

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120711

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130711

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees