JP2016114668A - 撮像装置および制御方法とプログラム - Google Patents

撮像装置および制御方法とプログラム Download PDF

Info

Publication number
JP2016114668A
JP2016114668A JP2014251272A JP2014251272A JP2016114668A JP 2016114668 A JP2016114668 A JP 2016114668A JP 2014251272 A JP2014251272 A JP 2014251272A JP 2014251272 A JP2014251272 A JP 2014251272A JP 2016114668 A JP2016114668 A JP 2016114668A
Authority
JP
Japan
Prior art keywords
face
area
focus detection
user
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014251272A
Other languages
English (en)
Other versions
JP2016114668A5 (ja
JP6512810B2 (ja
Inventor
日向子 中村
Hinako Nakamura
日向子 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2014251272A priority Critical patent/JP6512810B2/ja
Priority to US14/961,473 priority patent/US9876950B2/en
Publication of JP2016114668A publication Critical patent/JP2016114668A/ja
Publication of JP2016114668A5 publication Critical patent/JP2016114668A5/ja
Application granted granted Critical
Publication of JP6512810B2 publication Critical patent/JP6512810B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/675Focus control based on electronic image sensor signals comprising setting of focusing regions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/71Circuitry for evaluating the brightness variation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Geometry (AREA)

Abstract

【課題】 ユーザが焦点検出領域を任意に設定する場合であって被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、適切な露出制御をおこなう。【解決手段】 焦点検出手段により焦点評価値を検出する撮影画面内の焦点検出領域をユーザが任意に設定できる撮像装置であって、測光手段と、撮影画面内の顔を検出する顔検出手段と、ユーザにより撮影画面内の任意の位置に焦点検出領域が設定されている場合であって、顔検出手段により顔が検出されているときに、検出された顔に関する情報とユーザによって設定された焦点検出領域に関する情報に基づき、検出された顔の位置に基づいて撮影画面内の主要な測光領域を設定するか、ユーザによって設定された焦点検出領域の位置に基づいて主要な測光領域を設定するかを選択する測光選択手段と、を有することを特徴とする構成とした。【選択図】 図3

Description

本発明は、焦点検出領域をユーザが任意に設定することができる撮像装置の露出制御に関する。
被写体に顔が含まれている場合に当該顔の明るさを適正にする為に、特許文献1では、入力される画像データの中から人物の顔を検出し、検出された人物の顔を測光エリアとした測光結果に基づいて露出量を算出する撮像装置について提案されている。
また、画面内において、被写体の焦点評価値を検出する領域(以下、焦点検出領域と称す)をユーザが任意に設定し、当該焦点検出領域に基づいて主要な測光領域(以下、主測光領域と称す)を設定することが知られている。この場合、画面内のユーザが任意に設定した焦点検出領域の明るさに合わせて露出制御をおこなうことができる。
特許文献2では、任意に設定した焦点検出視野位置に対応して露出測定視野を移動させるカメラについて提案されている。
特開2003−107555号公報 特開昭61−123368号公報
しかしながら、前述した特許文献1および特許文献2には、被写体に顔が含まれる場合に、ユーザが焦点検出領域を任意に設定することについては言及されていない。
本発明の目的は、ユーザが焦点検出領域を任意に設定する場合であって、被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、適切な露出制御をおこなうことである。
上記目的を達成するための本発明の撮像装置は、焦点検出手段を備え、焦点検出手段を備え、前記焦点検出手段によって被写体の焦点評価値を検出する撮影画面内の焦点検出領域をユーザが任意に設定できる撮像装置であって、被写体を測光する測光手段と、前記測光手段の測光結果に基づいて露出制御をおこなう露出制御手段と、撮影画面に含まれる顔を検出する顔検出手段と、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって顔が検出されているときに、当該検出された顔に関する情報と、ユーザによって設定された前記焦点検出領域に関する情報に基づいて、当該検出された顔の位置に基づいて撮影画面内の主要な測光領域である主測光領域を設定するか、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定するかを選択する測光選択手段と、を有することを特徴とする。
本発明によれば、ユーザが焦点検出領域を任意に設定する場合であって、被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、適切な露出制御をおこなうことが出来る。
本発明を実施した撮像装置の第1実施形態であるデジタルカメラの構成を説明するブロック図である。 従来の撮影制御を説明するフローチャートである。 本発明を実施した撮像装置の第1実施形態であるデジタルカメラの撮影制御を説明するフローチャートである。 本発明を実施した撮像装置の第1実施形態であるデジタルカメラの主測光領域設定処理を示すフローチャートである。 本発明の第1実施形態に係る主測光領域設定処理について例示的に説明する図である。 本発明を実施した撮像装置の第2実施形態であるデジタルカメラの主測光領域設定処理を示すフローチャートである。 本発明の第2実施形態に係る主測光領域設定処理について例示的に説明する図である。 本発明の第3実施形態に係る主測光領域設定処理について例示的に説明する図である。 本発明の第3実施形態に係る主測光領域設定処理について例示的に説明する図である。
(第1実施形態)
以下に、本発明の好ましい実施の形態を、添付の図面に基づいて説明する。図1は、本発明を実施した撮像装置の実施形態であるデジタルカメラ(以下、カメラと称す)の構成を説明するブロック図である。なお、本実施形態のカメラは、カメラ本体100とカメラ本体100に対して取り外しができるレンズユニット200によって構成されている。以下、図1を参照して、カメラ本体100にレンズユニット200が取り付けられた状態のカメラの構成について説明する。
カメラシステム制御部(以下、カメラマイコンと称す)101は、カメラ本体100の各部を統括的に制御する制御手段である。メモリ102は、カメラマイコン101に接続されているRAMやROM等のメモリである。
撮像素子103は、CMOS等の電荷蓄積型の撮像素子であり、レンズユニット200を介して入射した光束(被写体の光学像)を光電変換してアナログ画像データを出力する。シャッター104は、レンズユニット200を介して入射した光束から撮像素子103を遮光する遮光状態、及び、レンズユニット200を介して入射した被写体の光学像を撮像素子103に導く退避状態となる。なお、シャッター104は、カメラマイコン101から指示に応じて駆動されることで、上述した遮蔽状態と退避状態とに変化する。
A/D変換部105は、撮像素子103から出力されるアナログ画像データをデジタル画像データに変換する変換手段である。A/D変換部105によって変換されたデジタル画像データはメモリ102に記録される。
画像処理部106は、A/D変換部105、または、メモリ制御部107から出力されたデータに対して所定の画像補間、リサイズ処理や色変換処理、飽和画素や黒潰れ画素などの画素データ数の演算処理などを行う画像処理手段である。
D/A変換部108は、メモリ102に記録されたデジタル画像データを表示用のアナログ画像データに変換する変換手段である。
表示部109は、TFT型LCD(薄膜トランジスタ駆動型液晶表示器)などで構成された表示手段であって、表示用のアナログ画像データを表示することができる。本実施形態の表示部109は、D/A変換部108から出力されるアナログ画像データを逐次表示することで、所謂ライブビュー表示を行うことができる。なお、表示部109には、取得した画像データ以外の種々の情報を表示できる。
タイミングジェネレータ(以下、TGと称す)110は、撮像素子103の露光やフレームレートの変更、シャッター104の駆動など、カメラ内の動作に関わる種々のタイミングをカメラの各部に送信するタイミング発生手段である。
レリーズボタン111、および操作部112は、カメラに対する各種の動作指示を入力するための操作手段である。レリーズボタン111は、撮像準備動作と撮像動作の開始を指示するための指示手段である。ユーザによってレリーズボタンがSW1状態に変更(例えば、半押し)されたことに応じて、カメラマイコン101によって撮像準備動作の開始が指示され、焦点検出処理、測光演算処理などが開始される。また、ユーザによってレリーズボタンがSW2状態に変更(例えば、全押し)されたことに応じて、カメラマイコン101によって撮像動作の開始が指示され、被写体を撮像して画像を取得するまでの一連の処理が開始される。
操作部112は、スイッチ、ボタン、ダイヤルなど、カメラ本体100に対して、ユーザが各種の指示や設定を行うための操作部材からなる入力デバイス群であって、電源スイッチやメニューボタン、方向指示ボタンなどが含まれる。
なお、表示部109が静電容量式のタッチパネルであって、表示部109に表示されたUIを操作することによって、上述したレリーズボタン111および操作部112を操作する場合と同様の情報入力ができるような構成であっても良い。
焦点検出部113は、画像処理部106から出力された画像データに基づいて、焦点調節に用いる評価値(以下、焦点評価と称す)を検出する焦点検出手段である。カメラマイコン101は、焦点検出部113で検出した焦点評価値に基づいて、被写体が合焦した(ピントが合った)状態となるように、撮影レンズ群202に含まれるフォーカスレンズのレンズ位置を変化させる制御(以下、フォーカス制御と称す)を行う。なお、焦点検出部113で検出した被写体の焦点評価値に関する情報に基づいて、撮影画面に含まれる被写体までの距離に関する情報を取得することもできる。
本実施形態では、上述した焦点評価値として、取得した画像データのコントラスを示すコントラスト情報に関する評価値を検出するような構成であるが、これに限定されるものではない。例えば、取得した画像データに含まれる被写体の位相差を示す位相差情報に関する評価値を検出するような構成であってもよい。
ここで、本実施形態では、画像データ(撮影画面)内において、被写体の焦点評価値を検出するための領域(以下、焦点検出領域と称す)が予め複数個用意されている。焦点検出部113は、当該複数の焦点検出領域のうち、ユーザが設定した任意の焦点検出領域に対応する被写体の焦点評価値を検出する。なお、予め複数の焦点検出領域が設けられているような構成ではなく、ユーザが、撮影画面内の任意の位置に焦点検出領域を設定するような構成であってもよい。
焦点検出領域の設定(選択)方法としては、ユーザが操作部112などを操作することで、表示部109や不図示のファインダー内部に表示された複数の焦点検出領域の中から、任意の焦点検出領域を設定する方法を採用する。
なお、本実施形態では、焦点検出部113が、撮像素子103を用いて取得した画像データに基づいて被写体の焦点評価値を検出するような構成であるが、これに限定されるものではない。例えば、焦点検出部113が、不図示のAFセンサの出力に基づいて、被写体の焦点評価値を検出するような構成であってもよい。
測光部114は、画像処理部106から出力された画像データに基づいて被写体を測光する測光手段である。具体的に、測光部114は、画像処理部106から出力された画像データに基づいて、被写体の輝度値(測光値)を算出するための測光演算を行う。カメラマイコン(露出制御手段)101は、測光部114で算出した測光値に関する情報に基づいて、絞り値、シャッタースピード、ゲイン量などを設定する露出制御をおこなうことで、被写体の明るさに適した露出量を設定することができる。
なお、本実施形態では、撮像素子103を用いて取得した画像データに基づいて測光値を算出するような構成であるが、これに限定されるものではない。例えば、不図示の測光センサの出力に基づいて、前述した測光値を算出するような構成であってもよい。
また、測光部114は、設定されている測光方式(測光モード)に応じて、撮影画面内の主要な測光領域(以下、主測光領域と称す)を選択する測光選択手段でもある。例えば、所謂中央重点評価測光をおこなう測光モードが設定されている場合、測光部114は、画像データ(撮影画面)の略中央付近に主測光領域を設定する(ことを選択する)。そして、測光部114は、主測光領域が設定された、画像データの略中央部に重点をおいて被写体を測光する。
また、撮影画面内の任意の位置で被写体を測光する測光モードが設定されている場合、測光部114は、画像データ(撮影画面)内の任意の位置に基づいて主測光領域を設定する。そして、測光部114は、撮影画面内の、当該主測光領域が設定された位置に重点を置いて被写体を測光する。
ここで、本実施形態では、撮影画面内において、主測光領域に含まれる被写体のみを測光する領域である。すなわち、本実施形態では、撮影画面内の主測光領域以外の領域に含まれる被写体は測光しない(測光対象に含まない)構成である。
これに対して、撮影画面全体(に含まれる被写体)を測光しつつ、主測光領域に含まれる被写体を測光した測光結果のみに基づいて前述した露出制御をおこなうような構成であってもよい。また、撮影画面全体(に含まれる被写体)を測光し、その測光結果に対する重み付けの度合を変更するような構成であってもよい。例えば、任意1点AFが設定されている場合は、撮影画面内の主測光領域に含まれる被写体の測光結果に対する重み付けの度合いが、主測光領域に含まれない被写体の測光結果に対する重み付けの度合よりも大きく設定されるような構成であってもよい。
顔検出部115は、画像処理部106から出力された画像データに基づいて、撮影画面に含まれる被写体の顔(領域)を検出する顔検出手段である。以下、本実施形態の顔検出処理について具体的に説明する。なお、以下に説明する顔検出処理は、カメラマイコン101から指示に従って顔検出部115が実行するものである。
顔検出部115は、画像処理部106(あるいはメモリ102)から出力された画像データに対して水平方向のバンドパスフィルタ処理を施す。また顔検出部115は、上述した水平方向のバンドパスフィルタ処理が施された画像データに対して、垂直方向のバンドパスフィルタ処理を施す。上述した各バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。
次に、顔検出部115は、検出されたエッジ成分とメモリ102に予め記憶されている顔の特徴点に関する情報とに基づいてパターンマッチング処理を実行し、画像データ内に含まれる目、鼻、口、および耳の候補群を抽出する。
次に、顔検出部115は、抽出された目の候補群において予め設定された条件(例えば、対になる目同士の距離や傾きに関する条件)を満たす候補を判定することで、画像データに含まれる目を絞り込む。
次に、顔検出部115は、絞り込んだ目の候補群と当該目に対応する他のパーツ(鼻、口、耳など)とを対応づける。顔検出部115は、予めメモリ102などに記録されている非顔条件フィルタを適用することで、画像データに含まれる顔(顔領域)を検出する。
次に、顔検出部115は、検出した顔の、画像データ(撮影画面)全体に占める大きさを算出する。また、顔検出部115は、画像データ(撮影画面)における、検出した顔の位置を算出する。最後に、顔検出部115は、検出した顔、および、当該顔の大きさに関する情報や撮影画面内における位置に関する情報などを含む、顔検出処理の検出結果を示す顔検出情報をメモリ102に記録する。
人体検出部116は、画像処理部106から取得した画像データと、顔検出部115で検出された顔検出情報とに基づいて、画像データ(撮影画面)に含まれる人体(領域)を検出する人体検出手段である。したがって、顔検出部115で検出された顔に対応した人体領域が人体検出部116によって検出される。
以下、本実施形態の人体検出処理について具体的に説明する。なお、以下に説明する人体検出処理は、カメラマイコン101から指示に従って人体検出部116が実行するものである。人体検出部116は、画像処理部106(あるいはメモリ102)から出力された画像データに対して水平方向のバンドパスフィルタ処理を施す。また、人体検出部116は、上述した水平方向のバンドパスフィルタ処理が施された画像データに対して、垂直方向のバンドパスフィルタ処理を施す。前述した顔検出と同様に、上述した各バンドパスフィルタ処理によって、画像データからエッジ成分が検出される。
次に、人体検出部116は、検出されたエッジ成分とメモリ102に予め記憶されている人体の特徴点に関する情報とに基づいてパターンマッチング処理を実行する。具体的に、人体検出部116は、検出したエッジ成分がメモリ102に予め記憶されている人体領域の輪郭形状に相当するか否かを判定し、当該人体領域の輪郭形状に相当するエッジ成分に基づいて画像データに含まれる人体領域を検出する。
次に、人体検出部116は、検出した人体領域の、画像データ(撮影画面)全体に占める大きさを算出する。また、人体検出部116は、画像データ(撮影画面)における、検出した人体領域の位置を算出する。最後に、人体検出部116は、検出した人体領域、および、当該人体領域の大きさに関する情報や撮影画面内における位置に関する情報など、人体検出処理の検出結果を示す人体検出情報をメモリ102に記録する。なお、顔検出および人体検出の方法としては、撮影画面内の色を検出する方法など、上述した方法以外の公知の方法を採用するような構成であってもよい。
以上説明した焦点検出部113、測光部114、顔検出部115、人体検出部116は、カメラマイコン101の内部に一体的に設けられているような構成であってもよい。また、焦点検出部113、測光部114、顔検出部115、人体検出部116が実行する種々の制御および処理は、カメラマイコン101が実行するような構成であってもよい。すなわち、焦点検出部113、測光部114、顔検出部115、人体検出部116を設けないような構成であってもよい。
なお、以下の説明では、フォーカス制御の方式(以下、AFモードと称す)として、任意1点AFと顔AFが設定された場合におけるカメラの動作について説明する。当該任意1点AFとは、複数の焦点検出領域の中から、ユーザが設定した任意1点の焦点検出領域に基づいてフォーカス制御を行うAFモードである。また、顔AFとは、顔検出部115で検出した顔に対応した焦点検出領域に基づいてフォーカス制御を行うAFモードである。任意1点AFおよび顔AFが設定された場合の撮影に係る各種の動作については後述する。
以下、レンズユニット200の詳細について説明する。レンズシステム制御部(以下、レンズマイコンと称す)201は、レンズユニット200の動作を統括的に制御する制御手段である。なお、カメラ本体100にレンズユニット200が取り付けられている状態で、レンズマイコン201とカメラマイコン101とは、図1に図示するインターフェース(IF)を介して互いに通信可能である。例えば、カメラマイコン101からの指示に応じて、カメラ本体100に取り付けられているレンズユニット200に関する情報が、レンズマイコン201からカメラマイコン101へと出力される。また、フォーカス制御をユーザの手動操作で行う場合は、ユーザによって操作されたフォーカスレンズのレンズ位置に関する情報が、レンズマイコン201からカメラマイコン101へと出力される。
撮影レンズ群202は、光軸シフトレンズやズームレンズ、フォーカスレンズなどを含む複数のレンズからなるレンズ群である。絞り203は、撮影レンズ群202の内部を透過した光束の光量を調節するための光量調節部材であって、レンズマイコン201によって駆動が制御される。なお、カメラマイコン101からの指示によって撮影レンズ群202および絞り203の動作が制御されるような構成であってもよい。
記録媒体300は、メモリ102に記録された画像データの記録が可能なメモリーカードやハードディスクなどの記録媒体である。なお、記録媒体300としては、カメラ本体100に対して挿抜可能なメモリーカード等に限定されるものではなく、DVD−RWディスク等の光学ディスクやハードディスク等の磁気ディスクであってもよい。さらに、記録媒体300が取り外し可能ではなく、予めカメラ本体100に内蔵されているような構成であってもよい。以上が、本実施形態のカメラの基本的な構成である。
以下、図2を参照して従来の被写体撮影に係る制御(以下、撮影制御と称す)について説明する。なお、図2に図示するフローは、撮像によって取得した画像データを表示部109に逐次表示している状態や動画撮影時に、静止画を取得する場合を想定している。図2は、従来の撮影制御を説明するフローチャートである。
まず、ステップS201でカメラマイコン101は、ユーザによって予め設定されたAFモードを判定する。カメラマイコン101によって、任意1点AFが設定されている(ステップS201でYES)と判定された場合はステップS202に進み、任意1点AFが設定されていない(ステップS201でNO)と判定された場合はステップS203に進む。
ステップS202で測光部114は、撮影画面内の、任意に選択された1つの焦点検出領域の位置に基づいて主測光領域を設定する。具体的には、撮影画面内において、ユーザによって任意に設定されている焦点検出領域の中心が主測光領域の略中心と一致するように、当該主測光領域を設定する。そして、測光部114は、当該主測光領域で被写体を測光する。
なお、主測光領域を設定する撮影画面内の位置としては、上述したものに限定されるものではなく、少なくとも、ユーザによって設定された焦点検出領域の位置に存在する被写体を重点的に測光できるような位置であればよい。
ステップS203で顔検出部115は、撮影画面に含まれる顔を検出する(顔検出情報を取得する)。そして、ステップS204でカメラマイコン101は、顔検出情報に基づいて、撮影画面内に顔が含まれているか否かを判定する。
カメラマイコン101によって、撮影画面に顔が含まれていない(ステップS204でNO)と判定された場合、ステップS205で測光部114は、撮影画面内の略中央部に主測光領域を設定し、被写体を測光する。
また、カメラマイコン101によって、撮影画面に顔が含まれている(ステップS204でYES)と判定された場合、ステップS206で測光部114は、撮影画面内の顔の位置に基づいて主測光領域を設定し、被写体を測光する。この場合、検出された顔の大きさに合わせて測光領域が設定されるような構成であってもよい。なお、当該測光処理は、被写体が撮像されるまで所定の周期で行われる。
なお、上述したステップS202、S205、S206の各処理では、測光部114による測光結果に基づいて、カメラマイコン(露出制御手段)101が被写体を撮像するために適切な露出量を算出する露出制御を行っている。
ステップS207でカメラマイコン101は、レリーズボタン111がSW1状態であるか否かを判定する。カメラマイコン101によって、レリーズボタン111がSW1状態である(ステップS207でYES)と判定された場合はステップS208に進む。また、カメラマイコン101によって、レリーズボタン111がSW1状態ではない(ステップS207でNO)と判定された場合はステップS201に戻り、改めて被写体を測光する。
次に、ステップS208で焦点検出部113は、ステップS201で判定したAFモードに基づいて、既に設定されている撮影画面内の焦点検出領域において、被写体の焦点評価値を検出する。そして、カメラマイコン101は、ステップS208で検出した被写体の焦点評価値に基づいて撮影レンズ群202のフォーカスレンズのレンズ位置を変更する。すなわち、ステップS208では、ユーザによって設定されたAFモードに応じたフォーカス制御が実行される。
次に、ステップS209でカメラマイコン101は、フォーカスレンズのレンズ位置を変更した状態の画像データに基づいて、設定されている焦点検出領域に対応した被写体、または、検出した顔に対応した被写体が合焦した状態であるか否かを判定する。
カメラマイコン101によって、被写体が合焦した状態ではない(ステップS209でNO)と判定された場合は、ステップS207に戻り、再びレリーズボタン111がSW1状態にされるまで被写体の測光を繰り返しながら待機する。
また、カメラマイコン101によって、被写体が合焦した状態である(ステップS209でYES)と判定された場合、ステップS210でカメラマイコン101は、レリーズボタン111がSW2状態であるか否かを判定する。
カメラマイコン101によって、レリーズボタン111がSW2状態ではある(ステップS210でYES)と判定された場合、ステップS211でカメラマイコン101は、カメラを構成する各部の動作を制御し、先に算出した露出量で被写体を撮像する。当該撮像によって取得された撮像画像データは、前述した種々の処理が施された後にメモリ102に記録される。なお、ステップS210の処理は、レリーズボタン111がSW2状態にされるまで繰り返し行われる。以上が、従来の撮影制御である。
ここで、上述した従来の撮影制御において、AFモードとして任意1点AFが設定されている場合は、撮影画面内に顔が含まれていたとしても、当該顔が存在する撮影画面内の位置に基づいて主測光領域を設定するような構成ではない。この場合、ユーザが任意に設定した焦点検出領域の位置に基づいて主測光領域が設定されるため、設定された焦点検出領域に対応する被写体の明るさに適切な露出量が設定される。
しかしながら、任意1点AFが設定されている場合であって、ユーザによる焦点検出領域の設定後に撮影画角が変化した場合は、撮影画角の変化に伴って焦点検出領域の位置も変化する。この場合、撮影画面内において、ユーザが意図しない位置に基づいて主測光領域が設定されてしまうので、ユーザにとっての撮影の重要度が低い被写体に合わせて測光が行われてしまう。したがって、当該測光の測光結果に基づいて露出制御が行われると、ユーザにとっての撮影の重要度が低い被写体の明るさに合わせて露出量が設定されてしまう。この場合、ユーザにとっての撮影の重要度が高い被写体が、不自然な明るさになった画像が取得されてしまう。
また、任意1点AFが設定されている場合であって、撮影画面内の顔と重畳する領域に設定可能な焦点検出領域が存在しない場合は、顔の位置に合わせて焦点検出領域を設定することが出来ない。この場合、ユーザにとっての撮影の重要度が高い被写体である顔を測光することが出来ない。特に、逆光時など、顔の明るさに比べて顔の周辺の明るさが著しく明るい場合は、設定した焦点検出領域の位置が顔の位置から少しずれるだけで、測光値が大きく変化してしまう。したがって、この場合も、ユーザにとっての重要度が低い被写体に合わせて測光が行われることで、ユーザにとっての撮影の重要度が低い被写体の明るさに合わせて露出量が設定されてしまう。
以上説明したように、任意1点AFが設定されている場合であって、撮影画面に顔が含まれている場合は、当該検出された顔や、ユーザによって設定された焦点検出領域などを考慮しなければならないので、適切な露出制御をおこなうことが困難である。
そこで、本実施形態では、任意1点AFが設定されている場合であって撮影画面に顔が含まれる場合に、顔の位置に基づいて主測光領域を設定するか、設定された焦点検出領域の位置に基づいて主測光領域を設定するかを選択することで、上述の問題に対応する。具体的には、顔の大きさに基づき、検出された顔の位置に基づいて主測光領域を設定するか、ユーザによって設定された焦点検出領域の位置に基づいて主測光領域を設定するかを選択する。
以下、本実施形態の撮影処理について図3を参照して説明する。なお、図2と同様に、図3に図示するフローも、取得した画像データを表示部109に逐次表示している状態で、静止画を取得する場合を想定している。図3は、本発明を実施した撮像装置の第1実施形態であるカメラの撮影制御を説明するフローチャートである。なお、ステップS301〜S302は前述したステップS201とS203と同様なので説明は省略する。
ステップS303でカメラマイコン101は、主測光領域を設定する撮影画面内の位置を設定する処理(以下、主測光領域設定処理と称す)を実行する。以下、当該主測光領域設定処理について図4を参照して説明する。図4は、本発明を実施した撮像装置の第1実施形態であるカメラの主測光領域設定処理を示すフローチャートである。
ステップS401でカメラマイコン101は、ステップS302で検出した顔検出情報に基づいて、撮影画面内に顔が含まれているか否かを判定する。カメラマイコン101によって、撮影画面に顔が含まれていない(ステップS401でNO)と判定された場合、ステップS403で測光部114は、ユーザによって設定されている焦点検出領域の位置に基づいて主測光領域を設定し、被写体を測光する。
また、カメラマイコン101によって、撮影画面に顔が含まれている(ステップS401でYES)と判定された場合はステップS402に進む。ステップS402でカメラマイコン101は、ステップS302で検出した顔検出情報に基づいて、検出した顔の大きさが所定値(第1の閾値)以上であるか否かを判定する。そして、上述した判定に結果に応じて、測光部(測光選択手段)114は、検出された顔の位置に基づいて主測光領域と設定するか、ユーザによって設定された焦点検出領域の位置に基づいて設定するかを選択する。以下、この詳細を説明する。
カメラマイコン101によって、検出した顔の大きさが所定値よりも小さい(ステップS402でNO)と判定された場合はステップS403に進む。そして、ステップS403で測光部114は、ユーザによって既に設定されている焦点検出領域の位置に基づいて主測光領域を設定し、被写体を測光する。
また、カメラマイコン101によって、検出した顔の大きさが所定値以上である(ステップS402でYES)と判定された場合はステップS404に進む。そして、ステップS404で測光部114は、撮影画面内の顔の位置に基づいて主測光領域に設定し、被写体を測光する。以上が本実施形態の主測光領域設定処理である。上述した主測光領域設定処理の詳細について図5を参照して説明する。
図5は、本発明の第1実施形態に係る主測光領域設定処理について例示的に説明する図である。図5(a)は、検出された顔の大きさが所定値よりも小さい状態を示し、図5(b)は、検出された顔の大きさが所定値よりも大きい状態を示している。図5(a)に図示するように、検出された顔の大きさが所定値よりも小さい場合は、撮影画面に占める当該顔の割合は小さいため、検出された顔に対応した被写体が、ユーザにとっての撮影の重要度が高い主要な被写体である確率は低い。
これに対して、図5(b)に図示するように、検出された顔の大きさが所定値以上である場合は、撮影画面に占める当該顔の割合が大きいため、検出された顔に対応した被写体が、ユーザにとっての撮影の重要度が高い主要な被写体である確率が高い。
そこで、本実施形態のカメラは、任意1点AFが設定されている場合であっても、検出された顔の大きさが所定値以上である場合は、当該検出した顔の位置に基づいて主測光領域を設定する(ステップS404に該当)。また、任意1点AFが設定されている場合であって、検出された顔の大きさが所定値よりも小さい場合は、ユーザによって設定されている焦点検出領域の位置に基づいて主測光領域を設定する(ステップS403に該当)。
なお、上述した所定値としては、検出された顔が、撮影画面内の主要な被写体であると判定できるような値であればどのようなものであってもよい。例えば、撮影画面全体に占める顔の大きさが、撮影画面の全体の10分の1以上となる値を所定値とするような構成であってもよい。また、測光演算の際に分割する撮影画面の1ブロックの大きさを所定値とするような構成であってもよい。
図3に戻る。ステップS303以降のステップS308〜S312の処理は、前述したステップS207〜S211の処理と同様なので説明は省略する。なお、ステップS301の判定で、設定されているAFモードが顔AFである場合の処理(ステップS304〜S307)は、前述したステップS203〜S206と同様であるので説明は省略する。以上が本実施形態の撮影制御である。
以上説明したように本実施形態は、任意1点AFが設定されている場合であって、検出された顔の大きさが所定値以上である場合に、当該検出された顔の位置に基づいて主測光領域を設定する構成である。また、本実施形態は、任意1点AFが設定されている場合であって、検出された顔の大きさが所定値よりも小さい場合に、ユーザによって設定された焦点検出領域の位置に基づいて主測光領域を設定する構成である。
この構成によって、任意1点AFが設定されている場合であっても、検出した顔が、主要な被写体である確率が高いと判定できるときは、当該検出した顔の明るさに最適な露出量を設定することができる。したがって、本実施形態のカメラは、ユーザが焦点検出領域を任意に設定する場合であって、被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、適切な露出制御をおこなうことが出来る。
(第2実施形態)
本実施形態の主測光領域設定処理では、AFモードとして任意1点AFが設定されている場合に、ユーザが設定した任意の焦点検出領域の位置と顔の位置との間の距離に応じて、主測光領域を設定する構成について説明する。なお、デジタルカメラ(以下、単にカメラと称す)を構成するカメラ本体100とレンズユニット200の基本構成は、前述の第1実施形態と同様なので説明は省略する。また、本実施形態における、主測光領域設定処理以外の撮影処理は、図3に図示した前述の第1実施形態と同様なので説明は省略する。
図6は、本発明を実施する撮像装置の第2実施形態であるカメラの主測光領域設定処理を説明するフローチャートであって、撮影処理において、任意1点AFが設定されていた場合に実行する処理である。なお、ステップS601の処理は、前述した第1実施形態のステップS401と同様なので説明は省略する。
ステップS602でカメラマイコン101は、ステップS302で検出した顔検出情報に基づいて、撮影画面内における、検出した顔の位置とユーザが任意に設定した焦点検出領域の位置との間の距離(以下、測光判定距離と称す)に関する情報を取得する。
なお、当該測光判定距離に関する情報としては、検出した顔の位置と設定された焦点検出領域の位置との間の実際の距離であってもよいし、撮影画面全体に対する比率であってもよい。また、上述した測光判定距離とは、焦点検出領域の略中心位置と検出した顔の略中心位置との間の距離であるが、検出した顔の輪郭部分の位置から焦点検出領域の枠部分との間の距離であってもよい。
次に、カメラマイコン101は、検出した測光判定距離に関する情報に基づいて、当該測光判定距離が所定値(第2の閾値)よりも大きいか否かを判定する。そして、上述した判定に結果に応じて、測光部(測光選択手段)114は、検出された顔の位置に基づいて主測光領域を設定するか、ユーザによって設定された焦点検出領域の位置に基づいて設定するかを選択する。以下、その詳細を説明する。
カメラマイコン101によって、測光判定距離が所定値よりも大きい(ステップS602でYES)と判定された場合はステップS603に進む。そして、ステップS603で測光部114は、ユーザによって既に設定されている焦点検出領域の位置に基づいて主測光領域を設定し、被写体を測光する。
また、測光判定距離が所定値以下(ステップS602でNO)と判定された場合はステップS604に進む。そして、ステップS604で測光部114は、撮影画面内の顔の位置に基づいて主測光領域を設定し、被写体を測光する。以上が本実施形態の主測光領域設定処理である。以上に説明した、本実施形態の主測光領域設定処理の詳細について図7を参照して説明する。
図7は、本発明の第2実施形態に係る主測光領域設定処理について例示的に説明する図である。図7(a)は、撮影画面内において、測光判定距離が所定値よりも大きい状態を示している。すなわち、図7(a)は、撮影画面内において、ユーザが任意に設定した焦点検出領域から、比較的離れた位置に検出された顔が位置している状態を示している。また、図7(b)は、測距判定距離が所定値以下である状態を示している。すなわち、図7(b)は、撮影画面内において、ユーザが任意に設定した焦点検出領域から、比較的近い位置に検出された顔が位置している状態を示している。
図7(a)に図示するように、測光判定距離が所定値よりも大きい場合は、ユーザが設定した焦点検出領域から比較的離れた位置において顔が検出されている状態である。したがって、この状態では、検出された顔に対応した被写体が、ユーザにとっての撮影の重要度が高い主要な被写体である確率は低い。
これに対して、図7(b)に図示するように、測光判定距離が所定値以下である場合は、ユーザが設定した焦点検出領域と比較的近い位置において顔が検出されている状態である。したがって、この状態では、検出された顔に対応した被写体が、ユーザにとっての撮影の重要度が高い主要な被写体である確率が高い。
そこで、本実施形態のカメラは、任意1点AFが設定されている場合であっても、測光判定距離が所定値以下である場合に、当該検出した顔の位置に基づいて主測光領域を設定する(ステップS604に該当)。また、任意1点AFが設定されている場合であって、測光判定距離が所定値よりも大きい場合は、ユーザによって設定されている焦点検出領域の位置に基づいて主測光領域を設定する(ステップS603に該当)。
なお、上述した所定値としては、検出された顔が、撮影画面における主要な被写体である確立が高いと判定できる、顔の位置と測光領域の位置との間の距離であればどのようなものであってもよい。例えば、ユーザによって設定された焦点検出領域の枠部分と検出された顔の輪郭部分とが、少なくとも重畳できるような距離に対応した値を、所定値とするような構成であってもよい。すなわち、検出した顔の近傍にユーザによって設定された焦点検出領域が存在すると判定できるような距離に関する値を、上述した所定値として設定する。
この構成によって、AFモードとして任意1点AFが設定されている場合であっても、検出された顔の位置の近傍に焦点検出領域が設定されていれば、検出された顔の明るさに最適な露出量を設定することができる。以上が、本実施形態の主測光領域設定処理である。
以上説明したように本実施形態は、任意1点AFが設定されている場合であって検出された顔の位置とユーザによって設定された焦点検出領域の位置との間の距離が所定値よりも小さい場合に、検出された顔の位置に基づいて主測光領域を設定する構成である。また、本実施形態は、任意1点AFが設定されている場合であって、検出された顔の位置とユーザによって設定された焦点検出領域の位置との間の距離が所定値以上である場合に、検出された顔の位置に基づいて主測光領域を設定する構成である。
この構成によって、任意1点AFが設定されている場合であっても、検出した顔が、主要な被写体である可能性が高いと判定できるときは、当該検出した顔の明るさに最適な露出量を設定することができる。したがって、本実施形態のカメラは、ユーザが焦点検出領域を任意に設定する場合であって、被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、適切な露出制御をおこなうことが出来る。
(第3実施形態)
本実施形態の主測光領域設定処理では、AFモードとして任意1点AFが設定されている場合に、検出された顔に対応する人体領域と重畳する位置にユーザが設定した任意の焦点検出領域が位置するか否かに応じて、主測光領域を設定する構成について説明する。なお、デジタルカメラ(以下、単にカメラと称す)を構成するカメラ本体100とレンズユニット200の基本構成は、前述の第1実施形態と同様なので説明は省略する。また、本実施形態における、主測光領域設定処理以外の撮影処理は、図3に図示した前述の第1実施形態と同様なので説明は省略する。
図8は、本発明を実施する撮像装置の第3実施形態であるカメラの主測光領域設定処理を説明するフローチャートであって、撮影処理において、任意1点AFが設定されていた場合に実行する処理である。なお、ステップS801の処理は、前述した第1実施形態のステップS401と同様なので説明は省略する。
ステップS802で人体検出部116は、ステップS302で検出した顔に対応する人体領域を撮影画面から検出する。そして、ステップS803でカメラマイコン101は、ステップS802の検出結果に基づいて、撮影画面内に人体領域が含まれるか否かを判定する。カメラマイコン101によって、撮影画面内に人体領域が含まれない(ステップS802でNO)と判定された場合はステップS805に進み、撮影画面内に人体領域が含まれる(ステップS802でYES)と判定された場合はステップS804に進む。
次に、ステップS804でカメラマイコン101は、ステップS802で検出した人体領域とユーザによって設定された焦点検出領域に関する情報とに基づいて、当該設定された焦点検出領域が検出された人体領域と重畳した位置に存在するか否かを判定する。そして、上述した判定に結果に応じて、測光部(測光選択手段)114は、検出された顔の位置に基づいて主測光領域を設定するか、ユーザによって設定された焦点検出領域の位置に基づいて設定するかを選択する。以下、その詳細を説明する。
カメラマイコン101によって、ユーザにより設定された焦点検出領域が、ステップS802で検出された人体領域と重畳する位置に存在しない(ステップS804でNO)と判定された場合はステップS805に進む。そして、ステップS805で測光部114は、ユーザによって既に設定されている焦点検出領域の位置に基づいて主測光領域を設定し、被写体を測光する。
また、カメラマイコン101によって、ユーザによって設定された焦点検出領域が、ステップS802で検出された人体領域と重畳する位置に存在する(ステップS804でYES)と判定された場合はステップS806に進む。そして、ステップS806で測光部114は、検出した人体領域に対応した撮影画面内の顔の位置に基づいて主測光領域を設定し、被写体を測光する。以上が本実施形態の主測光領域設定処理である。以上に説明した、本実施形態の主測光領域設定処理の詳細について図9を参照して説明する。
図9は、本発明の第3実施形態に係る主測光領域設定処理について例示的に説明する図である。図9(a)は、撮影画面内において、検出された人体領域とは重畳しない位置である建物部分に、ユーザによって設定された焦点検出領域が存在する状態を示している。また、図9(b)は、撮影画面内において、検出された人体領域とは重畳する位置に、ユーザによって設定された焦点検出領域が存在する状態を示している。なお、図9(b)では、検出された人体領域内部に、ユーザによって設定された焦点検出領域が存在する状態を示している。
図9(a)に図示するように、ユーザが設定した焦点検出領域が、検出された人体領域から十分に離れた位置に存在する場合は、当該人体領域に対応する被写体(人物)が、ユーザにとっての撮影の重要度が高い主要な被写体である確率は低い。例えば、図9(a)に図示した状態では、ユーザによって焦点検出領域が設定された建物が、ユーザにとっての撮影の重要度が高い主要な被写体である確率が高い。
また、図9(b)に図示するように、人体領域と重畳する位置にユーザによって設定された焦点検出領域が位置する(存在する)場合は、当該人体領域に対応する被写体(人物)が、ユーザにとっての撮影の重要度が高い主要な被写体である確率が高い。ここで、一般的に、ユーザにとっての撮影の重要度が高い主要な被写体が人物である場合は、当該人物の顔が最適な明るさとなる画像を取得することが望ましい。
そこで、本実施形態のカメラは、任意1点AFが設定されている場合であっても、検出された人体領域と重畳する位置に設定された焦点検出領域が存在するときは、当該検出した人体領域に対応する顔の位置に基づいて主測光領域を設定する。この構成によって、AFモードとして任意1点AFが設定されている場合であっても、人体領域と重畳する位置に焦点検出領域が設定されていれば、当該人体領域に対応する顔の明るさが最適となる露出量を設定することができる。以上が、本実施形態の主測光領域設定処理である。
以上説明したように本実施形態は、任意1点AFが設定されている場合であって、検出された顔に対応する人体領域と重畳する位置にユーザが設定した焦点検出領域が位置する場合に、該人体領域に対応する顔の位置に基づいて主測光領域を設定する構成である。
また、本実施形態は、任意1点AFが設定されている場合であって、検出された顔に対応する人体領域と重畳する位置にユーザが設定した焦点検出領域が位置しない場合に、該焦点検出領域の位置に基づいて主測光領域を設定する構成である。
この構成によって、任意1点AFが設定されている場合であっても、検出した顔が、主要な被写体である可能性が高いと判定できるときは、当該検出した顔の明るさに最適な露出量を設定することができる。したがって、本実施形態のカメラは、ユーザが焦点検出領域を任意に設定する場合であって、被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、適切な露出制御をおこなうことが出来る。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、前述した実施形態では、AFモードとして、任意1点AFと顔AFを行う場合についてのみ言及したが、これ以外のAFモードを設定できるような構成であってもよい。
また、前述した実施形態の主測光領域設定処理では、撮影画面に顔が含まれることに起因して、顔の位置に基づいて主測光領域を設定するような構成であったが、これに限定されるものではない。例えば、任意1点AFが設定されている場合であって撮影画面に顔が含まれている場合に、カメラマイコン(画角ずれ検出手段)101が、撮影画面の画角(撮影画角)のずれ量を検出する。そして、カメラマイコン101は、検出した画角のずれ量が所定の閾値(第3の閾値)よりも小さい場合に、撮影画面内の、ユーザによって設定された焦点検出領域の位置に基づいて主測光領域を設定する。また、カメラマイコン101は、検出した画角のずれ量が所定の閾値以上である場合に、撮影画面内の、顔の位置に基づいて主測光領域を設定する。なお、当該撮影画面の画角(撮影画角)のずれ量は、ユーザによって焦点検出領域が設定される前の撮影画面と、当該焦点検出領域が設定された後の撮影画面同士を比較することで検出する。
この構成によって、撮影画面内に顔が含まれるような場合であっても、撮影画角がずれたことに応じて、当該顔の位置に基づいて主測光領域を設定することが出来る。したがって、ユーザが焦点検出領域を任意に設定する場合であって、被写体に顔が含まれる場合に、当該顔に関する情報とユーザによって設定された焦点検出領域に関する情報とに基づいて、さらに効果的な露出制御をおこなうことが出来る。
また、前述した各実施形態における主測光領域設定処理をそれぞれ組み合わせて実施するような構成であっても構わない。例えば、主測光領域設定処理において、検出された顔の大きさが第1の閾値以上であって、当該顔の位置と設定された測光領域の位置との間の距離が第2の閾値よりも小さい場合に、顔の位置に基づいて主測光領域を設定するような構成であってもよい。また、主測光領域設定処理において、検出された顔の大きさが第1の閾値以上であって、設定された測光領域が人体領域と重畳する位置に存在する場合に、顔の位置に基づいて主測光領域を設定するような構成であってもよい。
また、前述した実施形態において、撮影画面に複数の顔が含まれる場合は、検出された複数の顔の大きさや、当該複数の顔の位置と設定された焦点検出領域との間の距離の大きさ同士を比較することで、主測光領域の位置を設定するような構成であってもよい。
例えば、撮影画面内に第1の面積を有する顔Aと、当該第1の面積よりも小さい第2の面積を有する顔Bが存在する場合に、顔Aの位置に基づいて主測光領域を設定するような構成であってもよい。この構成によって、撮影画面に占める面積が最も大きく、ユーザが撮影したいと意図する確率が高い顔の位置に対して、主測光領域を設定することが出来る。
また、測光領域からの距離が第1の距離である顔Aと、測光領域からの距離が第1の距離よりも短い第2の距離である顔Bが存在する場合に、顔Bの位置に基づいて主測光領域を設定するような構成であってもよい。この構成によって、ユーザによって設定された焦点検出領域から最も近い位置に存在し、ユーザが撮影したいと意図する確率が高い顔の位置に対して、主測光領域を設定することが出来る。以上説明した構成によって、任意1点AFが設定されている場合であって、撮影画面に複数の顔が含まれる場合であっても、ユーザにとっての撮影の重要度が高い被写体に適した明るさの画像を取得することができる。
なお、前述した実施形態では、カメラマイコン101、焦点検出部113、測光部114、顔検出部115、人体検出部116などが互いに連携して動作することで、カメラの動作を制御するような構成であったが、これに限定されるものではない。例えば、前述した図3や図4、図6、図8のフローに従ったプログラムを予めメモリ102に格納しておき、当該プログラムをカメラマイコン101などが実行することで、カメラの動作を制御するような構成であってもよい。
また、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等、プログラムの形態を問わない。また、プログラムを供給するための記録媒体としては、例えば、ハードディスク、磁気テープ等の磁気記録媒体、光/光磁気記録媒体でもあってもよい。
また、前述した実施形態では、本発明を実施する撮像装置の一例としてデジタルカメラについて説明したが、これに限定されるものではない。例えば、デジタルビデオカメラやスマートフォンなどの可搬型デバイスなど、本発明はその要旨の範囲内で種々の撮像装置に適用することが可能である。
(その他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
100 カメラ本体(撮像装置)
101 カメラシステム制御部(カメラマイコン)
113 焦点検出部
114 測光部
115 顔検出部
116 人体検出部
200 レンズユニット(撮像装置)

Claims (12)

  1. 焦点検出手段を備え、前記焦点検出手段によって被写体の焦点評価値を検出する撮影画面内の焦点検出領域をユーザが任意に設定できる撮像装置であって、
    被写体を測光する測光手段と、
    前記測光手段の測光結果に基づいて露出制御をおこなう露出制御手段と、
    撮影画面に含まれる顔を検出する顔検出手段と、
    ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって顔が検出されているときに、当該検出された顔に関する情報と、ユーザによって設定された前記焦点検出領域に関する情報に基づいて、当該検出された顔の位置に基づいて撮影画面内の主要な測光領域である主測光領域を設定するか、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定するかを選択する測光選択手段と、を有することを特徴とする撮像装置。
  2. 前記測光選択手段は、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって顔が検出されているときに、当該顔の大きさが第1の閾値以上であれば、当該検出された顔の位置に基づいて前記主測光領域を設定し、当該顔の大きさが前記第1の閾値よりも小さければ、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定することを特徴とする請求項1に記載の撮像装置。
  3. 前記測光選択手段は、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって複数の顔が検出されているときに、当該複数の顔のうち、面積が最も大きい顔に基づいて前記主測光領域を設定する位置を選択することを特徴とする請求項2に記載の撮像装置。
  4. 前記測光選択手段は、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって顔が検出されているときに、検出された顔の位置とユーザによって設定された前記焦点検出領域の位置との間の距離が、第2の閾値よりも小さければ、検出された顔の位置に基づいて前記主測光領域を設定し、検出された顔の位置とユーザによって設定された前記焦点検出領域の位置との間の距離が前記第2の閾値以上であれば、前記焦点検出領域の位置に基づいて前記主測光領域を設定することを特徴とする請求項1乃至3の何れか一項に記載の撮像装置。
  5. 前記測光選択手段は、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって複数の顔が検出されているときに、当該複数の顔のうち、検出された顔の位置とユーザによって設定された前記焦点検出領域の位置との間の距離が最も小さい顔に基づいて、前記主測光領域を設定する位置を選択することを特徴とする請求項4に記載の撮像装置。
  6. 前記顔検出によって顔が検出されているときに、検出された顔に対応する人体領域を検出する人体検出手段を有し、
    前記測光選択手段は、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記人体検出手段で前記人体領域が検出されているときに、ユーザによって設定された前記焦点検出領域が前記人体検出手段によって検出された前記人体領域と重畳していれば、当該検出された人体領域に対応する顔の位置に基づいて前記主測光領域を設定し、ユーザによって設定された前記焦点検出領域が前記人体検出手段によって検出された前記人体領域と重畳していなければ、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定することを特徴とする請求項1乃至3の何れか一項に記載の撮像装置。
  7. 前記測光選択手段は、ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出手段によって顔が検出されていないときは、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定することを特徴とする請求項2乃至6の何れか一項に記載の撮像装置。
  8. ユーザによって前記焦点検出領域が任意の位置に設定される前の前記撮影画面と、前記焦点検出領域が当該任意の位置に設定された後の前記撮影画面との、画角のずれを検出する画角ずれ検出手段を有し、
    前記測光選択手段は、前記画角ずれ検出手段によって検出される前記撮影画面の画角のずれ量が第3の閾値よりも小さい場合は、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定することを特徴とする請求項2乃至7の何れか一項に記載の撮像装置。
  9. 前記露出制御手段は、前記測光手段による、前記撮影画面内の前記主測光領域に含まれる被写体の測光結果のみに基づいて露出制御をおこなうことを特徴とする請求項1乃至8の何れか一項に記載の撮像装置。
  10. 前記主測光領域は、前記撮影画面内において、前記測光手段の測光結果に対する重み付けの度合いが他の領域よりも大きく設定される領域であることを特徴とする請求項1乃至8の何れか一項に記載の撮像装置。
  11. 焦点検出手段を備え、前記焦点検出手段によって被写体の焦点評価値を検出する撮影画面内の焦点検出領域をユーザが任意に設定する撮像装置の制御方法であって、
    被写体を測光する測光工程と、
    前記測光工程による測光結果に基づいて露出制御をおこなう露出制御工程と、
    撮影画面に含まれる顔を検出する顔検出工程と、
    ユーザによって撮影画面内の任意の位置に前記焦点検出領域が設定されている場合であって、前記顔検出工程によって顔が検出されているときに、当該検出された顔に関する情報と、ユーザによって設定された前記焦点検出領域に関する情報に基づいて、当該検出された顔の位置に基づいて撮影画面内の主要な測光領域である主測光領域を設定するか、ユーザによって設定された前記焦点検出領域の位置に基づいて前記主測光領域を設定するかを選択する測光選択工程と、を有することを特徴とする撮像装置の制御方法。
  12. 請求項11に記載の撮像装置の制御方法をコンピュータで実行させるためのコンピュータで読み取り可能なプログラム。
JP2014251272A 2014-12-11 2014-12-11 撮像装置および制御方法とプログラム Active JP6512810B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014251272A JP6512810B2 (ja) 2014-12-11 2014-12-11 撮像装置および制御方法とプログラム
US14/961,473 US9876950B2 (en) 2014-12-11 2015-12-07 Image capturing apparatus, control method thereof, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014251272A JP6512810B2 (ja) 2014-12-11 2014-12-11 撮像装置および制御方法とプログラム

Publications (3)

Publication Number Publication Date
JP2016114668A true JP2016114668A (ja) 2016-06-23
JP2016114668A5 JP2016114668A5 (ja) 2018-01-25
JP6512810B2 JP6512810B2 (ja) 2019-05-15

Family

ID=56112410

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014251272A Active JP6512810B2 (ja) 2014-12-11 2014-12-11 撮像装置および制御方法とプログラム

Country Status (2)

Country Link
US (1) US9876950B2 (ja)
JP (1) JP6512810B2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219566A (ja) * 2018-06-21 2019-12-26 キヤノン株式会社 撮像装置、露出制御方法及びプログラム
WO2023188939A1 (ja) * 2022-03-29 2023-10-05 富士フイルム株式会社 撮影方法、撮影装置、及びプログラム
JP7361557B2 (ja) 2019-09-27 2023-10-16 キヤノン株式会社 撮像装置および露出制御方法

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10021291B2 (en) 2006-11-16 2018-07-10 Samsung Electronics Co., Ltd Portable device enabling a user to manually adjust locations of focusing and photometry and method for taking images
JP6701512B2 (ja) 2013-09-24 2020-05-27 ソニー株式会社 撮影装置、撮影方法、およびプログラム
JP6146293B2 (ja) * 2013-12-25 2017-06-14 ソニー株式会社 制御装置、制御方法および制御システム
US20170272660A1 (en) * 2016-03-17 2017-09-21 Casio Computer Co., Ltd. Imaging device configured to control a region of imaging
EP3585048B1 (en) * 2017-02-20 2023-07-19 Sony Group Corporation Photometry device, photometry method, program, and imaging device
EP3588363A4 (en) * 2017-03-09 2020-05-27 Guangdong Oppo Mobile Telecommunications Corp., Ltd. DEPTH-BASED CONTROL METHOD, DEPTH-BASED CONTROL DEVICE AND ELECTRONIC DEVICE
CN107657219B (zh) * 2017-09-12 2021-06-15 Oppo广东移动通信有限公司 人脸检测方法及相关产品
CN111434104B (zh) * 2017-12-07 2021-11-19 富士胶片株式会社 图像处理装置、摄像装置、图像处理方法及记录介质
EP3654236A3 (en) * 2018-10-25 2020-08-26 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, storage medium, and imaging system
WO2021152961A1 (ja) * 2020-01-30 2021-08-05 富士フイルム株式会社 表示方法
JP2021136671A (ja) * 2020-02-28 2021-09-13 キヤノン株式会社 情報処理装置、撮像装置、方法、プログラム及び記憶媒体
JP2021175133A (ja) * 2020-04-28 2021-11-01 キヤノン株式会社 焦点調節装置、撮像装置、焦点調節方法、及びプログラム
JP2022043633A (ja) * 2020-09-04 2022-03-16 キヤノン株式会社 情報処理装置、方法、プログラム及び記憶媒体
JP2022130038A (ja) * 2021-02-25 2022-09-06 キヤノン株式会社 撮像装置、制御方法、プログラム
JP2022131706A (ja) * 2021-02-26 2022-09-07 キヤノン株式会社 画像処理装置およびその制御方法、撮像装置、プログラム

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177428A (ja) * 1993-12-16 1995-07-14 Sony Corp ビデオカメラ
JP2002244176A (ja) * 2001-02-15 2002-08-28 Canon Inc 露出制御装置及び露出制御装置を有する撮影装置
JP2006074164A (ja) * 2004-08-31 2006-03-16 Canon Inc 撮像装置
US20070160359A1 (en) * 2005-12-27 2007-07-12 Casio Computer Co., Ltd. Image pick-up apparatus with a multi-area AF function
US20080068491A1 (en) * 2006-09-14 2008-03-20 Casio Computer Co., Ltd. Imaging apparatus with automatic exposure adjusting function
JP2011164543A (ja) * 2010-02-15 2011-08-25 Hoya Corp 測距点選択システム、オートフォーカスシステム、およびカメラ
US20110249961A1 (en) * 2010-04-07 2011-10-13 Apple Inc. Dynamic Exposure Metering Based on Face Detection
JP2011232371A (ja) * 2010-04-23 2011-11-17 Nikon Corp 撮像装置
JP2012217132A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US20130002884A1 (en) * 2011-06-30 2013-01-03 Canon Kabushiki Kaisha Imaging apparatus having object detection function and method for controlling imaging apparatus
JP2013101320A (ja) * 2011-10-12 2013-05-23 Canon Inc 撮像装置、その制御方法及びプログラム
JP2014106411A (ja) * 2012-11-28 2014-06-09 Canon Inc 自動焦点調節装置及び自動焦点調節方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61123368A (ja) 1984-11-20 1986-06-11 Canon Inc カメラ
JP4794786B2 (ja) 2001-09-28 2011-10-19 株式会社リコー 撮像装置、自動露出方法、およびその方法をコンピュータが実行するためのプログラム
US8306280B2 (en) * 2006-04-11 2012-11-06 Nikon Corporation Electronic camera and image processing apparatus
JP4110178B2 (ja) * 2006-07-03 2008-07-02 キヤノン株式会社 撮像装置及びその制御方法及びプログラム及び記憶媒体
JP2009044463A (ja) * 2007-08-08 2009-02-26 Sanyo Electric Co Ltd 電子カメラ及び被写界像再生装置
JP5046788B2 (ja) * 2007-08-10 2012-10-10 キヤノン株式会社 撮像装置及びその制御方法
JP4582212B2 (ja) * 2008-06-24 2010-11-17 カシオ計算機株式会社 撮像装置及びプログラム
JP5067884B2 (ja) * 2008-08-07 2012-11-07 キヤノン株式会社 撮像装置、その制御方法及びプログラム
JP5459031B2 (ja) * 2010-04-13 2014-04-02 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9148557B2 (en) * 2010-07-16 2015-09-29 Canon Kabushiki Kaisha Focus adjustment apparatus and method, and image capturing apparatus and control method thereof
JP2012247533A (ja) * 2011-05-26 2012-12-13 Sanyo Electric Co Ltd 電子カメラ

Patent Citations (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07177428A (ja) * 1993-12-16 1995-07-14 Sony Corp ビデオカメラ
JP2002244176A (ja) * 2001-02-15 2002-08-28 Canon Inc 露出制御装置及び露出制御装置を有する撮影装置
JP2006074164A (ja) * 2004-08-31 2006-03-16 Canon Inc 撮像装置
US20070160359A1 (en) * 2005-12-27 2007-07-12 Casio Computer Co., Ltd. Image pick-up apparatus with a multi-area AF function
JP2007178576A (ja) * 2005-12-27 2007-07-12 Casio Comput Co Ltd 撮像装置及びそのプログラム
US20080068491A1 (en) * 2006-09-14 2008-03-20 Casio Computer Co., Ltd. Imaging apparatus with automatic exposure adjusting function
JP2008070611A (ja) * 2006-09-14 2008-03-27 Casio Comput Co Ltd 撮像装置、露出条件調整方法及びプログラム
JP2011164543A (ja) * 2010-02-15 2011-08-25 Hoya Corp 測距点選択システム、オートフォーカスシステム、およびカメラ
US20110249961A1 (en) * 2010-04-07 2011-10-13 Apple Inc. Dynamic Exposure Metering Based on Face Detection
JP2011232371A (ja) * 2010-04-23 2011-11-17 Nikon Corp 撮像装置
JP2012217132A (ja) * 2011-03-31 2012-11-08 Sony Corp 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US20130002884A1 (en) * 2011-06-30 2013-01-03 Canon Kabushiki Kaisha Imaging apparatus having object detection function and method for controlling imaging apparatus
JP2013034177A (ja) * 2011-06-30 2013-02-14 Canon Inc 被写体検出機能を備えた撮像装置、撮像装置の制御方法、及び、プログラム
JP2013101320A (ja) * 2011-10-12 2013-05-23 Canon Inc 撮像装置、その制御方法及びプログラム
US20130155276A1 (en) * 2011-10-12 2013-06-20 Canon Kabushiki Kaisha Image capturing apparatus, and control method and program therefor
JP2014106411A (ja) * 2012-11-28 2014-06-09 Canon Inc 自動焦点調節装置及び自動焦点調節方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019219566A (ja) * 2018-06-21 2019-12-26 キヤノン株式会社 撮像装置、露出制御方法及びプログラム
JP7361557B2 (ja) 2019-09-27 2023-10-16 キヤノン株式会社 撮像装置および露出制御方法
WO2023188939A1 (ja) * 2022-03-29 2023-10-05 富士フイルム株式会社 撮影方法、撮影装置、及びプログラム

Also Published As

Publication number Publication date
JP6512810B2 (ja) 2019-05-15
US20160173759A1 (en) 2016-06-16
US9876950B2 (en) 2018-01-23

Similar Documents

Publication Publication Date Title
JP6512810B2 (ja) 撮像装置および制御方法とプログラム
US9888182B2 (en) Display apparatus
US10270978B2 (en) Zoom control device with scene composition selection, and imaging apparatus, control method of zoom control device, and recording medium therewith
US10104299B2 (en) Zoom control apparatus, zoom control method, and storage medium
JP2013013050A (ja) 撮像装置及びこの撮像装置を用いた表示方法
US9628717B2 (en) Apparatus, method, and storage medium for performing zoom control based on a size of an object
JP5713885B2 (ja) 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
JP6752681B2 (ja) 表示制御装置、表示制御装置の制御方法及びプログラム並びに記憶媒体
KR20120140036A (ko) 디지털 촬영 장치, 그 제어 방법, 및 상기 방법을 수행하기 위한 컴퓨터 판독가능 저장매체
JP5950664B2 (ja) 撮像装置およびその制御方法
WO2016002355A1 (ja) 撮影装置及び撮影方法
JP2018007233A (ja) 撮像装置、その制御方法およびプログラム
JP2014078826A (ja) 撮像装置、その制御方法、および制御プログラム、並びに記録媒体
JP2018107705A (ja) 撮像装置、その制御方法とプログラムと記録媒体
JP7418104B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP6431429B2 (ja) 撮像装置およびその制御方法、プログラム、ならびに記憶媒体
US9843715B2 (en) Photographic apparatus, stroboscopic image prediction method, and a non-transitory computer readable storage medium storing stroboscopic image prediction program
JP6834988B2 (ja) 制御装置
US11985420B2 (en) Image processing device, image processing method, program, and imaging device
JP6429497B2 (ja) 撮像装置、制御方法、及びプログラム
JP6225463B2 (ja) 撮像装置、撮像方法および記録媒体
JP2015167308A (ja) 顔検出オートフォーカス制御に適する測光方法
JP6223502B2 (ja) 画像処理装置、画像処理方法、プログラム、それを記憶した記憶媒体
JP2020034759A (ja) 撮像装置及びその制御方法、並びにプログラム
JP2014062926A (ja) オートフォーカスシステム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181204

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190409

R151 Written notification of patent or utility model registration

Ref document number: 6512810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151