JP4794786B2 - Imaging apparatus, automatic exposure method, and program for computer to execute the method - Google Patents

Imaging apparatus, automatic exposure method, and program for computer to execute the method Download PDF

Info

Publication number
JP4794786B2
JP4794786B2 JP2001304638A JP2001304638A JP4794786B2 JP 4794786 B2 JP4794786 B2 JP 4794786B2 JP 2001304638 A JP2001304638 A JP 2001304638A JP 2001304638 A JP2001304638 A JP 2001304638A JP 4794786 B2 JP4794786 B2 JP 4794786B2
Authority
JP
Japan
Prior art keywords
face detection
face
exposure control
exposure
photometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001304638A
Other languages
Japanese (ja)
Other versions
JP2003107555A (en
Inventor
憲昭 尾島
雅人 参納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001304638A priority Critical patent/JP4794786B2/en
Priority to US10/244,670 priority patent/US7298412B2/en
Publication of JP2003107555A publication Critical patent/JP2003107555A/en
Priority to US11/745,775 priority patent/US7787025B2/en
Priority to US11/745,789 priority patent/US7920187B2/en
Priority to US11/745,753 priority patent/US7973853B2/en
Priority to US11/745,686 priority patent/US7978261B2/en
Priority to US11/745,703 priority patent/US7903163B2/en
Priority to US13/012,558 priority patent/US8421899B2/en
Application granted granted Critical
Publication of JP4794786B2 publication Critical patent/JP4794786B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、撮像装置、自動露出方法、およびその方法をコンピュータが実行するためのプログラムに関し、詳細には、自動露光制御機能および顔検出機能を有する撮像装置、自動露出方法、およびその方法をコンピュータが実行するためのプログラムに関する。
【0002】
【従来の技術】
従来のデジタルカメラ等の撮像装置で露出を決定する技術としては、▲1▼画面内の測光範囲を複数の測光エリアに分割し、各測光エリアの測光結果から露出を決定する多分割測光方式、▲2▼画面の中央部に加重をおいて測光する中央重点測光方式、▲3▼画面の中央部の数10%のみを測光する部分測光方式、▲4▼画面の中央部の数%を測光するスポット測光方式等が使用されている。
【0003】
【発明が解決しようとする課題】
しかしながら、従来の▲1▼〜▲4▼の測光方式では、必ずしも人物が適正露光とはならないという問題がある。より具体的には、▲1▼多分割測光方式では、画面全体が適切な露光になるように露出制御するため、画面内の人物が適正露光とならない場合があるという問題がある。また、▲2▼中央重点測光方式、▲3▼部分測光方式、および▲4▼スポット測光方式では、測光エリアと人物の位置が一致した場合しか、人物が適正露光とならないという問題がある。
【0004】
本発明は、上記に鑑みてなされたものであり、画面内の人物の位置/範囲に拘わらず、人物を適正露光とすることが可能な撮像装置、自動露出方法、およびその方法をコンピュータが実行するためのプログラムを提供することを目的とする。
【0005】
【課題を解決するための手段】
上記課題を解決するために、請求項1にかかる発明は、自動露光機能を備えた撮像装置において、被写体に応じた画像データを入力するための撮像手段と、前記撮像手段から入力される画像データの中から人物の顔を検出するための顔検出手段と、前記被写体の輝度を測光する測光手段と、前記測光手段の測光結果に基づいて露光量を算出し、当該算出した露光量に基づき露出制御を行う露出制御手段と、を備え、前記顔検出手段により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または前記顔検出手段により検出された人物の顔の位置が画面の中心位置にある場合には、前記測光手段は、前記顔検出手段により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、前記露出制御手段は、前記第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行い、前記顔検出手段により検出された人物の顔が画面を占める割合が前記所定の割合以下であり、且つ、前記顔検出手段により検出された人物の顔の位置が画面の中心位置にない場合には、前記測光手段は、前記第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、前記露出制御手段は、前記顔検出手段により検出された人物の顔が画面を占める割合または前記顔検出手段により検出された人物の顔の位置に応じて、前記第1の測光処理の測光結果を前記第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うものである。
【0006】
上記発明によれば、顔検出手段により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または顔検出手段により検出された人物の顔の位置が画面の中心位置にある場合には、測光手段が、顔検出手段により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、露出制御手段が、第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行うことにより、人物が適正露光となるように露出制御を行う。一方、顔検出手段により検出された人物の顔が画面を占める割合が所定の割合以下であり、且つ、顔検出手段により検出された人物の顔の位置が画面の中心位置にない場合には、測光手段が、第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、露出制御手段が、顔検出手段により検出された人物の顔が画面を占める割合または顔検出手段により検出された人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うことにより、人物のみでなく背景も適正露光とする。
画面全体の測光結果と顔部分の測光結果が大きく異なる場合には、顔部分と背景の両方を適正露光とすることは困難であり、人物および背景とも中途半端な露光量になってしまう。そこで、画面に占める顔の割合が所定の割合より大きい場合、または人物の顔の位置が画面の中心位置にある場合には、第1の測光処理の測光結果で露光して、人物だけは適正露光となる画像を得る。
また、第2の露出制御処理では、人物の顔が画面を占める割合または人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出することで、顔と背景とバランスのとれた露光を行うことができ、例えば、建物等を背景にした記念写真を撮影するとき等に有効である。
【0011】
また、請求項にかかる発明は、請求項にかかる発明において、前記第1の露出制御処理と、前記第2の露出制御処理のいずれかを使用者が選択するための測光方式選択手段を備えたものである。
【0012】
上記発明によれば、使用者が、測光方式選択手段により、第1の露出制御処理と、第2の露出制御処理のいずれかを選択することにより、画面全体の測光結果と顔部分の測光結果のどちらを重視するか使用者が選択可能として、使用者の撮影意図を反映する。
【0013】
また、請求項にかかる発明は、請求項1または請求項2にかかる発明において、前記第2の測光処理の測光結果に対する前記第1の測光処理の測光結果の重み付けを使用者が設定するための重みづけ設定手段を備えたものである。上記発明によれば、使用者が、重みづけ設定手段により、第2の測光処理の測光結果に対する第1の測光処理の測光結果の重み付けを設定することにより、第1の測光処理の測光結果および第2の測光処理の測光結果に基づき露出を調整する場合に、使用者の撮影意図を反映する。
【0016】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる発明において、前記顔検出手段の顔検出動作の許可/禁止を使用者が設定するための顔検出動作設定手段を備え、前記露出制御手段は、前記顔検出手段の顔検出動作の許可が設定されている場合には、前記顔検出手段に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記顔検出手段の顔検出動作の禁止が設定されている場合には、前記顔検出手段に顔検出動作を実行させることなく、露出制御を行うものである。
【0017】
上記発明によれば、使用者が、顔検出動作設定手段により、顔検出手段の顔検出動作の許可/禁止を設定し、露出制御手段は、顔検出手段の顔検出動作の許可が設定されている場合には、顔検出手段に顔検出動作を実行させ、第1露出制御処理または第2露出制御処理を行う一方、顔検出手段の顔検出動作の禁止が設定されている場合には、顔検出手段に顔検出動作を実行させることなく、露出制御を行う。例えば、風景などの人物が入っていない被写体を撮影する場合等は顔検出は不要となるため、使用者により顔検出を禁止可能として、無駄な顔検出を行わないことにする。
【0018】
また、請求項にかかる発明は、請求項1〜請求項のいずれか1つにかかる発明において、前記顔検出手段の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出手段の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定するためのモード設定手段を備え、前記露出制御手段は、前記第1の撮影モードが設定されている場合には、前記顔検出手段に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記第2の撮影モードが設定されている場合には、前記顔検出手段に顔検出動作を実行させることなく、露出制御を行うものである。
【0019】
上記発明によれば、モード設定手段は、顔検出手段の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出手段の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定し、露出制御手段は、第1の撮影モードが設定されている場合には、顔検出手段に顔検出動作を実行させ、第1露出制御処理または第2露出制御処理を行う一方、第2の撮影モードが設定されている場合には、顔検出手段に顔検出動作を実行させることなく、露出制御を行う。顔検出を行う撮影モードを定めておき、撮影モードを切り替えることで、顔検出の有無を使用者が簡単に選択可能とし、使用者の用途に適した撮影を可能とする。
【0020】
また、請求項6にかかる発明は、請求項1〜請求項5のいずれか1つにかかる発明において、前記顔検出手段の人物の顔の検出結果を使用者に報知するための報知手段を備えたものである。上記発明によれば、報知手段は、顔検出手段の人物の顔の検出結果を使用者に報知することにより、顔検出処理が正常に動作したか使用者が判断でき、誤動作している場合は撮影を中止するなどして、撮影が失敗することを防止する。
【0021】
また、請求項にかかる発明は、請求項にかかる発明において、前記報知手段は、画像データを表示するためのモニタ画面であることとした。上記発明によれば、モニタ画面で、画面内の顔と検出した顔の位置/範囲等の顔検出動作の結果を使用者に知らせる。
【0022】
また、請求項にかかる発明は、請求項にかかる発明において、前記報知手段は、当該撮像装置の動作状態等を表示するためのサブLCDであることとした。上記発明によれば、記録枚数や電池残量等の撮像装置の状態を示すサブLCDを有する撮像装置は一般的であるので、このサブLCDを利用して、安価な構成で顔検出の結果を使用者に知らせることを可能とする。
【0023】
また、請求項にかかる発明は、請求項にかかる発明において、前記報知手段は、LEDであることとした。上記発明によれば、顔検出手段の人物の顔の検出結果をLEDで知らせることにより、モニタ画面のない撮像装置や、モニタ画面を備えた撮像装置で使用者がモニタ画面を使用していない場合にも、使用者に顔検出の結果を知らせることを可能とする。
【0024】
また、請求項10にかかる発明は、請求項1〜請求項9のいずれか1つにかかる発明において、前記露出制御手段は、前記顔検出手段が人物の顔を検出できなかった場合には、他の測光方式の測光結果に基づき露出制御を行うものである。上記発明によれば、露出制御手段は、前記顔検出手段が人物の顔を検出できなかった場合には、他の測光方式の測光結果に基づき露出制御を行うことにより、顔検出できない場合でも、大きく撮影を失敗することなく、従来と同等の撮影を行うことを可能とする。
【0025】
また、請求項11にかかる発明は、被写体に応じた画像データを入力するための画像入力工程と、前記画像入力工程で入力した画像データの中から人物の顔を検出する顔検出工程と、前記被写体の輝度を測光する測光工程と、前記測光工程による測光結果に基づいて露光量を算出し、当該算出した露光量に基づき露出制御を行う露出制御工程と、を含み、前記顔検出工程により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または前記顔検出工程により検出された人物の顔の位置が画面の中心位置にある場合には、前記測光工程は、前記顔検出工程により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、前記露出制御工程は、前記第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行い、前記顔検出工程により検出された人物の顔が画面を占める割合が前記所定の割合以下であり、且つ、前記顔検出工程により検出された人物の顔の位置が画面の中心位置にない場合には、前記測光工程は、前記第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、前記露出制御工程は、前記顔検出工程により検出された人物の顔が画面を占める割合または前記顔検出工程により検出された人物の顔の位置に応じて、前記第1の測光処理の測光結果を前記第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うものである。
【0026】
上記発明によれば、顔検出工程により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または顔検出工程により検出された人物の顔の位置が画面の中心位置にある場合には、測光工程において、顔検出工程により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、露出制御工程において、第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行うことにより、人物が適正露光となるように露出制御を行う。一方、顔検出工程により検出された人物の顔が画面を占める割合が所定の割合以下であり、且つ、顔検出工程により検出された人物の顔の位置が画面の中心位置にない場合には、測光工程において、第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、露出制御工程において、顔検出工程により検出された人物の顔が画面を占める割合または顔検出工程により検出された人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うことにより、人物のみでなく背景も適正露光とする。
画面全体の測光結果と顔部分の測光結果が大きく異なる場合には、顔部分と背景の両方を適正露光とすることは困難であり、人物および背景とも中途半端な露光量になってしまう。そこで、画面に占める顔の割合が所定の割合より大きい場合、または人物の顔の位置が画面の中心位置にある場合には、第1の測光処理の測光結果で露光して、人物だけは適正露光となる画像を得る。
また、第2の露出制御処理では、人物の顔が画面を占める割合または人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出することで、顔と背景とバランスのとれた露光を行うことができ、例えば、建物等を背景にした記念写真を撮影するとき等に有効である。
【0031】
また、請求項12にかかる発明は、請求項11にかかる発明において、前記第1の露出制御処理と、前記第2の露出制御処理のいずれかを使用者が選択するための測光方式選択工程を含むものである。
【0032】
上記発明によれば、使用者が第1の露出制御処理と、第2の露出制御処理のいずれかを選択することにより、画面全体の測光結果と顔部分の測光結果のどちらを重視するか使用者が選択可能として、使用者の撮影意図を反映する。
【0033】
また、請求項13にかかる発明は、請求項11または請求項12にかかる発明において、さらに、前記第2の測光処理の測光結果に対する前記第1の測光処理の測光結果の重み付けを使用者が設定するための重みづけ設定工程を含むものである。
【0034】
上記発明によれば、請求項11または請求項12にかかる発明において、さらに、第2の測光処理の測光結果に対する第1の測光処理の測光結果の重み付けを使用者が設定することにより、第1の測光処理の測光結果および第2の測光処理の測光結果に基づき露出を調整する場合に、使用者の撮影意図を反映する。
【0037】
また、請求項14にかかる発明は、請求項11〜請求項13のいずれか1つにかかる発明において、前記顔検出工程の顔検出動作の許可/禁止を使用者が設定する顔検出動作設定工程を含み、前記露出制御工程では、前記顔検出工程の顔検出動作の許可が設定されている場合には、前記顔検出工程に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記顔検出工程の顔検出動作の禁止が設定されている場合には、前記顔検出工程に顔検出動作を実行させることなく、露出制御を行うものである。
【0038】
上記発明によれば、顔検出動作の許可/禁止を使用者が設定し、顔検出動作の許可が設定されている場合には、顔検出工程に顔検出動作を実行させ、第1露出制御処理または第2露出制御処理を行う一方、顔検出動作の禁止が設定されている場合には、検出工程に顔検出動作を実行させることなく、露出制御を行う。例えば、風景などの人物が入っていない被写体を撮影する場合等は顔検出は不要となるため、使用者により顔検出を禁止可能として、無駄な顔検出を行わないことにする。
【0039】
また、請求項15にかかる発明は、請求項11〜請求項13のいずれか1つにかかる発明において、前記顔検出工程の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出工程の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定するためのモード設定工程を含み、前記露出制御工程では、前記第1の撮影モードが設定されている場合には、前記顔検出工程に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記第2の撮影モードが設定されている場合には、前記顔検出工程に顔検出動作を実行させることなく、露出制御を行うものである。
【0040】
上記発明によれば、顔検出動作を実行して露出制御を行う第1の撮影モードまたは顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定し、第1の撮影モードが設定されている場合には、顔検出動作を実行させ、第1露出制御処理または第2露出制御処理を行う一方、第2の撮影モードが設定されている場合には、顔検出動作を実行させることなく、露出制御を行う。これにより、顔検出を行う撮影モードを定めておき、撮影モードを切り替えることで、顔検出の有無を使用者が簡単に選択可能とし、使用者の用途に適した撮影を可能とする。
【0041】
また、請求項16にかかる発明は、請求項11〜請求項15のいずれか1つにかかる発明において、前記顔検出工程による人物の顔の検出結果を使用者に報知する報知工程を含むものである。上記発明によれば、人物の顔の検出結果を使用者に報知することにより、顔検出処理が正常に動作したか使用者が判断でき、誤動作している場合は撮影を中止するなどして、撮影が失敗することを防止する。
【0042】
また、請求項17にかかる発明は、請求項11〜請求項16のいずれか1つに記載の自動露出方法をコンピュータ実行させるためのプログラムである。
【0043】
【発明の実施の形態】
以下、図面を参照して、本発明にかかる撮像装置、露出制御方法、およびその方法をコンピュータが実行するためのプログラムを適用したデジタルカメラの好適な実施の形態を、(実施の形態1)、(実施の形態2)、(変形例1)、(変形例2)の順に詳細に説明する。
【0044】
(実施の形態1)
図1は、実施の形態1にかかるデジタルカメラの外観構成図であり、同図(A)は正面図、同図(B)は側面図、同図(C)は上面図を示している。図1は、上蓋が開成された状態を示している。同図において、1はカメラ本体、2は撮影レンズ、3はストロボ、4はファインダ、5は開閉可能に設けられた上蓋、6は上蓋5を開閉可能に支持するヒンジ、7は上蓋5の内側に設けられた液晶モニタ、8は上蓋5の外側に設けられたサブLCD、9は上蓋5の開閉を検出するための上蓋開閉検知スイッチ、10はバリア開閉つまみ、11は撮影等の動作指示を行うためのレリーズスイッチ、12は各モードを選択するためのモード切換えスイッチ、13はストロボ発光を行うためのストロボスイッチ、14は撮影画質を設定するための画質モードスイッチ、15はカーソルキー、16は日付を入力するためのDATEスイッチ、17はENTERキー、18はSELECTキーを示している。
【0045】
モード切換えスイッチ12は、▲1▼カメラの設定を変更したり、確認するためのSETUPモード、▲2▼静止画を記録するための静止画モード、▲3▼動画を記録するための動画モード、▲4▼記録したファイルを再生するための再生モード、▲5▼パソコンと接続して、パソコンにファイルを送ったり、パソコンからカメラ操作するためのPCモード、および▲6▼ネットワークを介して通信を行うための通信モード等を選択するためのものである。
【0046】
図2は、実施の形態1にかかるデジタルカメラの構成を示すブロック図である。同図に示すデジタルカメラは、撮影レンズ2(ズームレンズ2a、フォーカスレンズ2b)、メカ機構(メカニカルシャッタ、絞り、フィルタ等)101、CCD102、F/E(CDS回路、AGC回路、A/D変換回路)103、IPP104、圧縮/伸張回路105、メモリカード106、DRAM107、液晶モニタ7、サブLCD10、操作部108、モータ(ズームレンズモータ109a、フォーカスモータ109b、絞り・シャッターモータ109c)109、ドライバ(ズームドライバ110a、フォーカスドライバ110b、絞り・シャッタードライバ110c)110、SG111、電池112、DC/DCコンバータ113、ACアダプタ114、コントローラ(CPU115a、FLASH_ROM115b、SD_RAM115c)115、通信ドライバ部116、ネットワーク通信部117を備えている。
【0047】
撮影レンズ2は、被写体を結像するためのものであり、ズーム機能を実現するためのズームレンズ2aと、被写体に合焦させるためのフォーカスレンズ2bとからなる。メカ機構101は、メカニカルシャッタ、被写体の明るさを調整するための絞りや、フィルタ等からなる。CCD102は、撮影レンズ2により結像された被写体像を電気信号に変換して、アナログの画像データとしてF/E103に出力する。
【0048】
F/E103は、CCD102から入力されるアナログの画像データに対して前処理を施すものであり、CCD102から入力されるアナログの画像データを相関二重サンプリングするCDS回路と、CDS回路から出力されるアナログの画像データのゲインを調整するAGC回路と、AGC回路から出力されるアナログの画像データに対してA/D変換を行って、デジタルの画像データをIPP104に出力するA/D変換回路とからなる。
【0049】
IPP104は、入力される画像データに対して各種画像処理を施すものであり、例えば、F/E103から入力されるカラー画像データに対して補間処理を行った後、YUVデータ(輝度Yデータ、色差U、Vデータ)に変換する。
【0050】
圧縮/伸張回路105は、YUVデータを、JPEG方式に準拠した圧縮方式で圧縮処理したり、また、メモリカード106に格納されている圧縮画像データをJPEG方式に準拠した伸張方式で伸張処理する。
【0051】
DRAM107は、撮像した画像データやメモリカード106から読み出した画像データ等を一時的に格納するためのフレームメモリである。メモリカード106は、デジタルカメラ本体に対して着脱可能に設けられ、圧縮画像データを画像ファイルとして格納する。
【0052】
液晶モニタ7は、画像データ等を表示するためのものである。サブLCD8は、デジタルカメラの設定されているモードや動作内容を表示するためのものである。
【0053】
ズームドライバ110aは、コントローラ115から入力される制御信号に応じて、ズームレンズモータ109aを駆動して、ズームレンズ2aを光軸方向に移動させる。フォーカスドライバ110bは、コントローラ115から入力される制御信号に応じて、フォーカスモータ109bを駆動して、フォーカスレンズ2bを光軸方向に移動させる。絞り・シャッタードライバ110cは、コントローラ115から入力される制御信号に応じて、絞り・シャッターモータ109cを駆動して、メカ機構101の絞りの絞り値の設定やメカ機構101のメカニカルシャッタの開閉駆動を行う。
【0054】
SG111は、コントローラ115から入力される制御信号に基づいて、CCD102やF/E103を駆動する。電池112は、例えば、Nicd、ニッケル水素、リチウム等の電池からなり、DC/DCコンバータ113にDC電圧を供給する。ACアダプタ114は、AC電圧をDC電圧に変換してDC/DCコンバータ113に供給する。DC/DCコンバータ113は、電池112やACアダプタ114から入力されるDC電圧のレベルを変換して、デジタルカメラの各部に電力を供給する。
【0055】
通信ドライバ部116は、外部装置(例えば、パーソナルコンピュータ等)と接続して、データ通信を行うためのものである。ネットワーク通信部117は、ネットワークとデータ通信するためのものである。
【0056】
操作部108は、使用者がデジタルカメラに各種指示を与えるための上記図1に示す各種キーやスイッチ(レリーズスイッチ11、モード切換えスイッチ12、ストロボスイッチ13、画質モードスイッチ14、カーソルキー15、DATEスイッチ16、ENTERキー17、SELECTキー18)を備えており、各種キーやスイッチの操作を検出してコントローラ115に出力する。上述のレリーズスイッチ11は、2段階のSWとなっており、その半押しで第1SWオン、その全押しで第2SWオンとなる。デジタルカメラでは、第1SWがオンされるとAE動作およびAF動作が実行され、さらに、第2SWがオンされると撮影動作が実行される。
【0057】
図3および図4は、操作部108のモード切換えスイッチ12でSETUPモードが選択された場合に、液晶モニタ7に表示される記録条件のユーザ設定画面を示している。同図に示す記録条件のユーザ設定画面は、各項目の設定条件(”フォーカス”の[AF/マニュアル]、”顔検出(顔検出動作モード)”の「ON/OFF]、”測光方式”の[オート/マニュアル(顔(第1の測光方式)/顔+背景(第2の測光方式)]、”長時間露光”の「ON/OFF]、”日付入り”の[ON/OFF])を使用者が設定するための画面である。同図に示す画面で、カーソルキー15により、所望の項目を選択し、選択した項目でSELECTキー18で所望の設定条件を選択し、ENTERキー17で選択した設定条件が設定される。
【0058】
後述するように、使用者が、”測光方式”において[オート]を選択すると、CPU115aが第1の測光方式(顔)と第2の測光方式(顔+背景)のいずれを選択する。他方、使用者が、”測光方式”において[マニュアル]を選択した場合は、さらに、使用者が、[顔(第1の測光方式)]、[顔+背景(第2の測光方式)]のいずれかを選択する。図3および図4に示す例では、”フォーカス”は[AF]、”顔検出(顔検出処理)”は「ON]、”測光方式”は「オート]、”長時間露光”は「OFF]、”日付入り”は[OFF]が設定されている。
【0059】
コントローラ115は、デジタルカメラの全体の動作を制御するユニットであり、操作部108からの指示に基づいて、FLASH_ROM115bに格納された制御プログラムに従って、SD_RAM115cをワークエリアとして使用して、デジタルカメラの各部の動作を制御するCPU115aと、CPU115aが実行するための各種制御プログラムや制御に必要なパラメータやデータ等を格納するFLASH_ROM115bと、CPU115aのワークエリアとして使用されるSD_RAM115cとから構成されている。FLASH_ROM115bに格納される制御プログラム、パラメータ、およびデータは、ネットワークを介して配信可能となっており、また、ネットワークを介してダウンロードして格納可能となっている。また、FLASH_ROM115bには、通信ドライバ部116を介して接続される外部装置からプログラム、パラメータ、およびデータが書込可能となっている。
【0060】
また、CPU115aは、モニタリング動作、AF動作、AE動作、撮影動作を制御する。つぎに、上記CPU115aの制御により実行される▲1▼モニタリング動作、▲2▼AE動作、▲3▼静止画撮影動作の概略を説明する。
【0061】
▲1▼モニタリング動作
操作部108のモード切換えスイッチ12で静止画モードや動画モードが選択されると、液晶モニタ7にはモニタリング画像が表示される。具体的には、CCD102より入力される被写体の画像データは、F/E(CDS、AGC、A/D)103で処理された後、IPP104に入力する。そして、IPP104で信号処理された後、DRAM107に書き込まれ、DRAM107に格納された画像データに応じたモニタリング画像が液晶モニタ7に表示される。使用者は、この液晶モニタ7に表示される被写体のモニタリング画像を見て撮影の構図を決定することができる。
【0062】
▲2▼AE動作
操作部108のモード切換えスイッチ12で静止画モードや動画モードが選択され後、レリーズスイッチ11が半押しされてSW1がオンされると、CPU115aは、AE動作を実行する。具体的には、AE動作では、顔検出動作モードが設定されている場合には(上記図3および図4参照)、まず、顔検出処理を実行して人物の顔の検出を行う。具体的には、CCD102より入力された画像データは、F/E(CDS、AGC、A/D)103で処理された後、IPP104に入力する。この画像データは、IPP104で信号処理された後、DRAM107に書き込まれる。CPU115aは、DRAM107に格納された画像データから公知の顔検出技術(ガボール・ウェーブレット変換+グラフマッチング)を使用して、人物の顔を検出する。そして、検出した人物の顔を測光エリア(AEエリア)として、CPU115aは、AE評価値(測光結果)を算出し、このAE評価値に基づき露光量を算出して、この露光量に応じた露出条件(CCD3の電子シャッタ速度、メカ機構101の絞りの絞り値、F/E103のAGC回路のゲイン等)を設定して露出制御を行う。
【0063】
上記AE評価値の算出方法を具体的に説明する。図5は、CCD102の画面(画像フレーム)を複数のエリアY1〜Y35に分割した場合の分割例を示している。図6は、図5において被写体の画像データの一例を示す図である。
【0064】
IPP104は、CCD102から入力された画像データ(各画素データ(R、G、B))に基づいて、測光の対象となる各エリアY1〜Y35毎に輝度データY1〜Y35を算出する。以下に輝度データの計算式を示す。下記計算式において、Rn、Gn、Bnは、各エリア内の各画素データ(R、G、B)の平均値を示している。
【0065】

Figure 0004794786
【0066】
ここで、顔検出動作モードである場合に、顔のみで測光処理を行う場合(第1の測光方式には、顔を含むエリアの輝度データを各々算出し、算出したエリアの輝度データの平均値を輝度データYy(AE評価値)とする。図6に示す例では、Y14、Y20、Y21、Y26、Y27のエリアの輝度データの平均値を輝度データYy(AE評価値)とする。
【0067】
また、顔検出動作モードである場合に、顔および全体で測光処理を行う場合には、顔を含むエリアの輝度データを各々算出し、算出したエリアの輝度データの平均値を輝度データYfaceとする。また、画面全体のエリアY1〜Y25の輝度データを各々算出し、算出した全エリアの輝度データの平均値を輝度データYallとする。そして、顔部分の重み付けをn1、画面全体の重み付けをn2(但し:n1>n2、n1+n2=1)として、輝度データYy(AE評価値)=Yface×n1+輝度データYall×n2を算出する。
【0068】
通常測光処理の場合には、▲1▼中央重点測光方式(中央部の明るさに、重点を置き、周囲の明るさを加味して輝度データを決定する方式)、▲2▼部分測光方式(画面内のエリア内のみの輝度データの平均値だけで、輝度データを決定する方式)、▲3▼スポット測光方式(部分測光と同じ考え方であるが、測光エリアが小さく、1〜2%程度である。)、▲4▼分割測光方式(画面を複数のエリアに分割し、エリア毎に輝度の平均値を求め、それら輝度の分布パターンから輝度データを決定する方式)のうちのいずれかの方式を使用して輝度データYy(AE評価値)を算出する。
【0069】
そして、CPU115aは、FLASH_ROM115bに予め格納されている目標輝度データYxの値と、被写体を測光した結果である被写体輝度データYyの値が一致した場合に、適正な露出(明るさ)であると判断し、被写体輝度データYyが目標輝度データYxになるような露光量を算出し、算出した露光量に基づいて、露光条件(CCD102のシャッタースピード、メカ機構101の絞りの絞り値(開口値)、CCD102の感度(F/E103のアンプ回路のゲイン値))を設定する。
【0070】
具体的には、CPU115aは、輝度データYyの値を大きくするためには、「CCD102のシャッタスピードを遅くする。」、「絞りの大きさを大きくする。」、「CCD102の感度を高くする。」のいずれか(複数でも良い)を行い、他方、輝度データYyの値を小さくするには、上記とは逆のことを行う。
【0071】
なお、ここでは、CPU115aが制御プログラムを実行して顔検出を行うこととしたが、顔検出のための専用のハードウエアを設けることにしても良い。
【0072】
▲3▼静止画撮影動作
CPU115aは、操作部108のモード切換えスイッチ12で静止画モードや動画モードが選択され後、操作部108のレリーズスイッチ11が全押しされてSW2がオンされると、静止画撮影動作を実行する。CCD102から取り込まれた撮像データは、IPP104で画像処理/圧縮処理が行われた後、DRAM107に書き込まれる。CPU115aは、DRAM107に書き込まれた圧縮画像データを静止画ファイルとしてメモリカード106に書き込む。
【0073】
図7は、実施の形態1にかかるデジタルカメラのAE動作を説明するためのフローチャートである。図8は、液晶モニタ7の表示例を示す図である。実施の形態2にかかるデジタルカメラのAE動作を図7のフローチャートに従って、図8の液晶モニタ7の表示例を参照しつつ説明する。CPU115aは、操作部108のモード切換えスイッチ12で静止画モードや動画モードが選択された後、レリーズスイッチ11が半押しされてSW1がONされた場合にAE処理を実行する。
【0074】
図7において、まず、CPU115aは、人物の顔検出を実行する顔検出動作モードであるか否かを判断する(ステップS1)。顔検出動作モードは、上述の記録条件のユーザ設定画面で設定される(上記図3および図4参照)。この判断の結果、顔検出動作モードであると判断した場合には、CPU115aは、顔検出処理を実行する(ステップS2)。
【0075】
被写体像の中から人物像を検出する方法は、以下に示す▲1▼〜▲3▼の手法が公知となっており、本実施の形態1では、そのうちのいずれかの方法を用いるものとする。
【0076】
▲1▼テレビジョン学会誌Vol.49、No.6、pp.787−797(1995)の「顔領域抽出に有効な修正HSV表色系の提案」に示されるように、カラー画像をモザイク画像化し、肌色領域に着目して顔領域を抽出する方法。
▲2▼電子情報通信学会誌Vol.74−D−II、No.11、pp.1625−1627(1991)の「静止濃淡情景画像からの顔領域を抽出する手法」に示されているように、髪や目や口など正面人物像の頭部を構成する各部分に関する幾何学的な形状特徴を利用して正面人物の頭部領域を抽出する方法。
▲3▼画像ラボ1991−11(1991)の「テレビ電話用顔領域検出とその効果」に示されるように、動画像の場合、フレーム間の人物の微妙な動きによって発生する人物像の輪郭エッジを利用して正面人物像を抽出する方法。
【0077】
そして、CPU115aは、顔を検出したか否かを判断する(ステップS3)。この判断の結果、顔を検出した場合には、CPU115aは、液晶モニタ7に表示されている画像データにおいて、人物の顔部分に矩形の枠を表示(顔検出実行結果OK表示)して、顔が検出された旨を使用者に報知する(ステップS4)。図8(A)は、液晶モニタ7に表示される画像データ(モニタリング画像)の表示例を示している。図8(B)は、図8(A)の画像データの人物の顔部分に矩形の枠を表示した場合の表示例を示している。
【0078】
続いて、CPU115aは、測光方式が設定されているか否かを判断する(ステップS5)。かかる測光方式は、上述の記録条件のユーザ設定画面で設定される(上記図3および図4参照)。この判断の結果、測光方式が設定されている場合には、ステップS7に移行する。
【0079】
他方、上記ステップS5において、測光方式が設定されていない場合には、CPU115aは、測光方式自動判別処理を実行した後(ステップS6)、ステップS7に移行する。この測光方式自動判別処理では、画面に占める顔の割合および/または顔の位置に基づいて、「顔の部分のみを測光して輝度データYy(AE評価値)を算出し、露光量を算出する第1の測光方式」または「顔の部分の測光結果と画面全体の測光結果とに基づき、顔の部分の測光結果に重点を置いて(顔の部分の測光結果の重み付けを大きくして)、輝度データYy(AE評価値)を算出し、露光量を算出する第2の測光方式」のいずれかを選択する。具体的には、CPU115aは、画面に占める顔の割合が大きい場合、および/または、顔が画面の中心位置にある場合には、第1の測光方式を選択し、他の場合には、第2の測光方式を選択する。
【0080】
この後、CPU115aは、選択した測光方式が、第1の測光方式である場合には、顔の部分を測光エリア(AEエリア)として測光処理を行う(ステップS8)。そして、CPU115aは、測光エリアの測光結果(輝度データYy(AE評価値)に基づき露光量を算出し(ステップS9)、露出設定処理を実行して、算出した露光量に基づき露出条件を設定する(ステップS10)。
【0081】
また、上記ステップS7において、選択した測光方式が、第2の測光方式である場合には、画面全体の測光処理を実行して、画面全体の測光を行う(ステップS11)。CPU115aは、顔の部分を測光エリア(AEエリア)として測光処理を行う(ステップS12)。CPU115aは、顔の部分の測光結果と画面全体の測光結果とに基づき、画面に占める顔の割合および/または顔の位置に応じて、顔の部分の測光結果に重点を置いて(顔の部分の測光結果の重み付けを大きくして)、上述の輝度データYy(AE評価値)を算出し、算出した輝度データYy(AE評価値)に基づき露光量を算出する(ステップS13)。そして、CPU115aは、露出設定処理を実行して、算出した露光量に基づき露出条件を設定する(ステップS10)。
【0082】
なお、上記ステップS1において、顔検出動作モードでないと判断した場合、または、上記ステップS3において顔を検出しなかった場合には、CPU115aは、通常の測光処理を実行して(ステップS14)、その測光結果に基づき露光量を算出し(ステップS15)、露出設定処理を行こなって、算出した露光量に基づき露出条件を設定する(ステップS10)。
【0083】
以上説明したように、上記実施の形態1によれば、CPU115aは、被写体の人物の顔を検出し、検出した人物の顔の測光結果に基づき露出制御を行っているので、人物の範囲や位置に拘わらず、人物を適正露光とすることが可能となる。
【0084】
また、実施の形態1によれば、CPU115aは、画面に占める顔の割合および/または顔の位置に応じて、人物の顔の測光結果に基づき露光量を算出する第1の測光方式と、人物の顔の測光結果および画面全体の測光結果に基づき、人物の顔の測光結果を前記画面全体の測光結果に比して重み付けを大きくして露光量を算出する第2の測光方式のいずれかを選択することとしたので、画面に占める顔が大きい場合や、顔が中央にある場合には、人物の顔の測光結果に基づき露光量を算出する第1の測光方式を採用して、人物の適正露光を優先させることが可能となる。
【0085】
また、実施の形態1によれば、第1の測光方式と第2の測光方式を使用者が選択可能としたので(上記図3および図4参照)、画面全体の測光結果と顔部分の測光結果のどちらを重視するかを使用者が選択でき、使用者の撮影意図を反映することが可能となる。
【0086】
また、実施の形態1によれば、第2の測光方式を実行する場合に、CPU115aは、画面に占める顔の割合および/または顔の位置に応じて、画面全体の測光結果に対する人物の顔の測光結果の重み付けを設定することとしたので、画面内に占める顔の割合が大きければ、顔部分の測光結果に重み付けを大きくし、画面内に占める顔の割合が小さければ、重み付けを小さくして、顔と背景とバランスのとれた露光を行うことが可能となる。
【0087】
また、実施の形態1によれば、顔検出(顔検出動作モード)の許可/禁止を使用者が設定(上記図3および図4参照)できることとしたので、人物を適正露光にするか否かを使用者が選択することが可能となる。
【0088】
また、実施の形態1によれば、液晶モニタ7に検出された顔に矩形の枠を表示して、使用者に顔検出が成功した旨を表示することとしたので、使用者は顔検出が成功したか否かを確認することが可能となる。
【0089】
なお、実施の形態1では、液晶モニタ7に表示される記録条件のユーザ設定画面(上記図3および図4参照)で、第1の測光方式と第2の測光方式を選択することとしたが、例えば、液晶モニタ7にモニタリング画像が表示されている画面で第1の測光方式と第2の測光方式を選択することにしても良い。図10は、第1の測光方式と第2の測光方式を選択するための画面の表示例を示している。同図において、E1は第1の選択方式、E2は第2の選択方式を示しており、使用者がいずれか一方を選択する。
【0090】
(実施の形態2)
実施の形態2にかかるデジタルカメラを図11および図12を参照して説明する。実施の形態2のデジタルカメラの構成は、実施の形態1と同様の構成(図1および図2参照)とすることができる。実施の形態2のデジタルカメラは、上記第2の測光方式(人物の顔の測光結果および画面全体の測光結果に基づき、人物の顔の測光結果を前記画面全体の測光結果に比して重み付けを大きくして露光量を算出する方式)において、顔と背景の重み付けの割合を使用者が設定可能としたものである。
【0091】
図11は、実施の形態2にかかるデジタルカメラのAE動作を説明するためのフローチャートである。図12は、液晶モニタ7の表示例を示す図である。実施の形態2にかかるデジタルカメラのAE動作を図11のフローチャートに従って、図12の液晶モニタ7の表示例を参照しつつ説明する。CPU115aは、操作部108のモード切換えスイッチ12で静止画モードや動画モードが選択された後、レリーズスイッチ11が半押しされてSW1がONされた場合にAE処理を実行する。
【0092】
図11において、まず、CPU115aは、人物の顔検出を実行する顔検出動作モードであるか否かを判断する(ステップS21)。顔検出動作モードは、上述の記録条件のユーザ設定画面で設定される(上記図3および図4参照)。この判断の結果、顔検出動作モードであると判断した場合には、CPU115aは、実施の形態1と同様の顔検出処理を実行する(ステップS22)。
【0093】
そして、CPU115aは、顔を検出したか否かを判断する(ステップS23)。この判断の結果、顔を検出した場合には、CPU115aは、液晶モニタ7に表示されている画像データにおいて、人物の顔部分に矩形の枠を表示(顔検出実行結果OK表示)して、顔が検出された旨を使用者に報知する(ステップS24)。上記図8(A)は、液晶モニタ7に表示される画像データ(モニタリング画像)の表示例を示している。上記図8(B)は、上記図8(A)の画像データの人物の顔部分に矩形の枠を表示した場合の表示例を示している。
【0094】
続いて、CPU115aは、顔部分の加重量ユーザー設定処理を実行する(ステップS25)。具体的には、CPU115aは、顔部分の加重量ユーザー設定処理では、顔と画面全体(背景)の重み付けの割合を設定するための画面を表示する。図12は、顔と画面全体(背景)の重み付けの割合を設定するための画面の表示例を示している。使用者は、画面に表示されている矢印の位置をカーソルキー15で所望の位置に移動させて、ENTERキー17を押下することにより、顔と画面全体(背景)の重み付けの割合が設定される。
【0095】
この後、CPU115aは、画面全体の測光処理を実行して、画面全体の測光を行う(ステップS26)。CPU115aは、顔の部分を測光エリア(AEエリア)として測光処理を行う(ステップS27)。CPU115aは、顔の部分の測光結果と画面全体の測光結果とに基づき、使用者により設定された重み付けをして、上述の輝度データYy(AE評価値)を算出し、算出した輝度データYy(AE評価値)に基づき露光量を算出する(ステップS28)。そして、CPU115aは、露出設定処理を実行して、算出した露光量に基づき露出条件を設定する(ステップS29)。
【0096】
なお、上記ステップS21において顔検出動作モードでないと判断した場合、または、上記ステップS23において顔を検出しなかった場合には、CPU115aは、通常の測光処理を実行して(ステップS30)、その測光結果に基づき露光量を算出し、算出した露光量に基づき露出条件を設定する(ステップS29)。
【0097】
以上説明したように、実施の形態2によれば、画面全体の測光結果に対する人物の顔の測光結果の重み付けを、使用者が設定できることとしたので、人物の顔の測光結果および画面全体の測光結果に基づき露出を調整する場合に、使用者の撮影意図を反映することが可能となる。
【0098】
なお、本発明は、上記した実施の形態1および実施の形態2に限定されるものではなく、発明の要旨を変更しない範囲で適宜変形可能であり、例えば、以下のような変形が可能である。
【0099】
(変形例1)
本発明のデジタルカメラに、人物を撮影するための人物撮影モード(第1の撮影モード)と風景を撮影するための風景撮影モード(第2の撮影モード)を設け、このモードを例えばモード切り替えスイッチ12で選択できるようにしておき、CPU115aは、人物撮影モードが選択された場合に、顔検出処理を伴う露出制御(上記図7のステップS1で「YES」以降の処理)を行い、風景撮影モードが選択された場合には、顔検出処理を行わないで、通常の測光方式で露出制御(上記図7のステップS1で「NO」以降の処理)を行うことにしても良い。これは、顔を適正露光とする必要のある人物撮影モードでは、顔検出処理は必要であるが、顔を適正露光とする必要のない風景撮影モードでは、顔検出処理は不要だからである。
【0100】
(変形例2)
実施の形態1および実施の形態2では、顔検出の実行結果を液晶モニタ7に表示することとしたが、サブLCD8に表示することにしても良い。図9は、顔検出が成功した場合のサブLCD8の表示例を示している。また、サブLCD8の代わりに顔検出の実行結果を表示するためのLEDを設けることにしても良い。
【0101】
【発明の効果】
以上説明したように、請求項1にかかる発明によれば、顔検出手段により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または顔検出手段により検出された人物の顔の位置が画面の中心位置にある場合には、測光手段が、顔検出手段により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、露出制御手段が、第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行うので、人物を適正露光とすることが可能となる。一方、顔検出手段により検出された人物の顔が画面を占める割合が所定の割合以下であり、且つ、顔検出手段により検出された人物の顔の位置が画面の中心位置にない場合には、測光手段が、第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、露出制御手段が、顔検出手段により検出された人物の顔が画面を占める割合または顔検出手段により検出された人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うので、人物だけでなく背景も適正露光とすることが可能となる。
また、画面に占める顔の割合または顔の位置に応じて第1の露出制御処理と第2の露出制御処理とを切り替えるので、人物および背景とも中途半端な露光量となるのを防止することが可能となる。さらに、第2の露出制御処理では、人物の顔が画面を占める割合または人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出するので、顔と背景とバランスのとれた露光を行うことが可能となる。
【0104】
また、請求項にかかる発明は、請求項にかかる発明において、前記第1の露出制御処理と、前記第2の露出制御処理のいずれかを使用者が選択するための測光方式選択手段を備えているので、請求項にかかる発明の効果に加えて、面全体の測光結果と顔部分の測光結果のどちらを重視するか使用者が選択可能として、使用者の撮影意図を反映させることが可能となる。
【0105】
また、請求項にかかる発明によれば、請求項1または請求項2にかかる発明において、前記第2の測光処理の測光結果に対する前記第1の測光処理の測光結果の重み付けを使用者が設定するための重みづけ設定手段を備えたこととしたので、請求項1または請求項2にかかる発明の効果に加えて、第1の測光処理の測光結果および第2の測光処理の測光結果に基づき露出を調整する場合に、使用者の撮影意図を反映させることが可能となる。
【0107】
また、請求項にかかる発明によれば、請求項1〜請求項のいずれか1つにかかる発明において、前記顔検出手段の顔検出動作の許可/禁止を使用者が設定するための顔検出動作設定手段を備え、前記露出制御手段は、前記顔検出手段の顔検出動作の許可が設定されている場合には、前記顔検出手段に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記顔検出手段の顔検出動作の禁止が設定されている場合には、前記顔検出手段に顔検出動作を実行させることなく、露出制御を行うこととしたので、請求項1〜請求項のいずれか1つにかかる発明の効果に加えて、使用者が顔検出を禁止することができ、使用者が無駄な顔検出の実行を防止することが可能となる。
【0108】
また、請求項にかかる発明によれば、請求項1〜請求項のいずれか1つにかかる発明において、前記顔検出手段の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出手段の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定するためのモード設定手段を備え、前記露出制御手段は、前記第1の撮影モードが設定されている場合には、前記顔検出手段に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記第2の撮影モードが設定されている場合には、前記顔検出手段に顔検出動作を実行させることなく、露出制御を行うこととしたので、請求項1〜請求項のいずれか1つにかかる発明の効果に加えて、撮影モードを切り替えることで、顔検出の有無を使用者が簡単に選択でき、使用者の用途に適した撮影を行うことが可能となる。
【0109】
また、請求項にかかる発明によれば、請求項1〜請求項5のいずれか1つにかかる発明において、前記顔検出手段の人物の顔の検出結果を使用者に報知するための報知手段を備えているので、顔検出が正常に動作したか否かを使用者が判断でき、誤動作している場合は撮影を中止するなどして、撮影が失敗することを防止することが可能となる。
【0110】
また、請求項にかかる発明によれば、請求項にかかる発明において、前記報知手段は、画像データを表示するためのモニタ画面であることとしたので、モニタ画面で、画面内の顔と検出した顔の位置/範囲等の顔検出動作の結果を使用者に知らせることが可能となる。
【0111】
また、請求項にかかる発明によれば、請求項にかかる発明において、前記報知手段は、当該撮像装置の動作状態等を表示するためのサブLCDであることとしたので、請求項9にかかる発明において、安価な構成で顔検出の結果を使用者に知らせることが可能となる。
【0112】
また、請求項にかかる発明によれば、請求項にかかる発明において、前記報知手段は、LEDであることとしたので、モニタ画面のない撮像装置や、モニタ画面を備えた撮像装置で使用者がモニタ画面を使用していない場合にも、使用者に顔検出の結果を知らせることが可能となる。
【0113】
また、請求項10にかかる発明によれば、請求項1〜請求項9のいずれか1つにかかる発明において、前記露出制御手段は、前記顔検出手段が人物の顔を検出できなかった場合には、他の測光方式の測光結果に基づき露出制御を行うこととしたので、請求項1〜請求項9のいずれか1つにかかる発明の効果に加えて、顔検出できない場合でも、大きく撮影を失敗することなく、従来と同等の撮影を行うことを可能とする。
【0114】
また、請求項11にかかる発明によれば、顔検出工程により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または顔検出工程により検出された人物の顔の位置が画面の中心位置にある場合には、測光工程において、顔検出工程により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、露出制御工程において、第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行うこととしたので、人物を適正露光とすることが可能となる。一方、顔検出工程により検出された人物の顔が画面を占める割合が所定の割合以下であり、且つ、顔検出工程により検出された人物の顔の位置が画面の中心位置にない場合には、測光工程において、第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、露出制御工程において、顔検出工程により検出された人物の顔が画面を占める割合または顔検出工程により検出された人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うこととしたので、人物だけでなく背景も適正露光とすることが可能となる。
また、画面に占める顔の割合または顔の位置に応じて第1の露出制御処理と第2の露出制御処理とを切り替えるので、人物および背景とも中途半端な露光量となるのを防止することが可能となる。さらに、第2の露出制御処理では、人物の顔が画面を占める割合または人物の顔の位置に応じて、第1の測光処理の測光結果を第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出するので、顔と背景とバランスのとれた露光を行うことが可能となる。
【0117】
また、請求項12にかかる発明によれば、請求項11にかかる発明において、前記第1の露出制御処理と、前記第2の露出制御処理のいずれかを使用者が選択するための測光方式選択工程を含んでいるので、請求項11にかかる発明の効果に加えて、画面全体の測光結果と顔部分の測光結果のどちらを重視するか使用者が選択可能として、使用者の撮影意図を反映させることが可能となる。
【0118】
また、請求項13にかかる発明によれば、請求項11または請求項12にかかる発明において、さらに、前記第2の測光処理の測光結果に対する前記第1の測光処理の測光結果の重み付けを使用者が設定するための重みづけ設定工程を含むこととしたので、請求項11または請求項12にかかる発明の効果に加えて、第1の測光処理の測光結果および第2の測光処理の測光結果に基づき露出を調整する場合に、使用者の撮影意図を反映させることが可能となる。
【0120】
また、請求項14にかかる発明によれば、請求項11〜請求項13のいずれか1つにかかる発明において、前記顔検出工程の顔検出動作の許可/禁止を使用者が設定する顔検出動作設定工程を含み、前記露出制御工程では、前記顔検出工程の顔検出動作の許可が設定されている場合には、前記顔検出工程に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記顔検出工程の顔検出動作の禁止が設定されている場合には、前記顔検出工程に顔検出動作を実行させることなく、露出制御を行うこととしたので、請求項11〜請求項13のいずれか1つにかかる発明において、使用者が顔検出を禁止することができ、無駄な顔検出を防止することが可能となる。
【0121】
また、請求項15にかかる発明によれば、請求項11〜請求項13のいずれか1つにかかる発明において、前記顔検出工程の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出工程の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定するためのモード設定工程を含み、前記露出制御工程では、前記第1の撮影モードが設定されている場合には、前記顔検出工程に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記第2の撮影モードが設定されている場合には、前記顔検出工程に顔検出動作を実行させることなく、露出制御を行うこととしたので、請求項11〜請求項13のいずれか1つにかかる発明の効果に加えて、撮影モードを切り替えることで、顔検出の有無を使用者が簡単に選択でき、使用者の用途に適した撮影を行うことが可能となる。
【0122】
また、請求項16にかかる発明によれば、請求項11〜請求項15のいずれか1つにかかる発明において、前記顔検出工程による人物の顔の検出結果を使用者に報知する報知工程を含むこととしたので、請求項11〜請求項15のいずれか1つにかかる発明の効果に加えて、顔認検出が正常に動作したか否かを使用者が判断でき、誤動作している場合は撮影を中止するなどして、撮影が失敗することを防止することが可能となる。
【0123】
また、請求項17にかかる発明によれば、請求項11〜請求項16のいずれか1つに記載の自動露出方法をコンピュータ実行させるので、請求項11〜請求項16のいずれか1つにかかる発明と同等の効果を得ることができる。
【図面の簡単な説明】
【図1】実施の形態1にかかるデジタルカメラの外観構成図である。
【図2】実施の形態1にかかるデジタルカメラの構成を示すブロック図である。
【図3】実施の形態1にかかるデジタルカメラにおける操作部のモード切換えスイッチでSETUPモードが選択された場合に、液晶モニタに表示される記録条件のユーザ設定画面を示す図である。
【図4】実施の形態1にかかるデジタルカメラにおける操作部のモード切換えスイッチでSETUPモードが選択された場合に、液晶モニタに表示される記録条件のユーザ設定画面を示す図である。
【図5】AE動作を説明するための説明図である。
【図6】AE動作を説明するための説明図である。
【図7】実施の形態1にかかるデジタルカメラのAE動作を説明するためのフローチャートである。
【図8】実施の形態1にかかるデジタルカメラの液晶モニタの表示例を示す図である。
【図9】サブLCDの表示例を示す図である。
【図10】実施の形態1にかかるデジタルカメラの液晶モニタの表示例を示す図である。
【図11】実施の形態2にかかるデジタルカメラのAE動作を説明するためのフローチャートである。
【図12】実施の形態2にかかるデジタルカメラの液晶モニタの表示例を示す図である。
【符号の説明】
1 カメラ本体
2 撮影レンズ
3 ストロボ
4 ファインダ
5 上蓋
6 ヒンジ
7 液晶モニタ
8 サブLCD
9 上蓋開閉検知スイッチ
10 バリア開閉つまみ
11 レリーズスイッチ
12 モード切換えスイッチ
13 ストロボスイッチ
14 画質モードスイッチ
15 カーソルキー
16 DATEスイッチ
17 ENTERキー
18 SELECTキー
2a ズームレンズ
2b フォーカスレンズ
101 メカ機構
102 CCD
103 F/E
104 IPP
105 圧縮/伸張回路
106 メモリカード
107 DRAM
108 操作部
109a ズームレンズモータ
109b フォーカスモータ
109c 絞り・シャッターモータ
110a ズームドライバ
110b フォーカスドライバ
110c 絞り・シャッタードライバ
111 SG
112 電池
113 DC/DCコンバータ
114 ACアダプタ
115 コントローラ
115a CPU
115b FLASH_ROM
115c SD_RAM
116 通信ドライバ部
117 ネットワーク通信部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an imaging apparatus, an automatic exposure method, and a program for causing a computer to execute the method, and more particularly, to an imaging apparatus having an automatic exposure control function and a face detection function, an automatic exposure method, and the method. Relates to a program to be executed.
[0002]
[Prior art]
As a technique for determining exposure with a conventional imaging device such as a digital camera, (1) a multi-division photometry method that divides the photometric range in the screen into a plurality of photometric areas and determines the exposure from the photometric results of each photometric area; (2) Center-weighted metering method that applies weighting to the center of the screen, (3) Partial metering method that measures only 10% of the center of the screen, and (4) Metering of several percent of the center of the screen Spot photometry is used.
[0003]
[Problems to be solved by the invention]
However, the conventional photometry methods {circle around (1)} to {circle around (4)} have a problem that a person is not always properly exposed. More specifically, {circle around (1)} multi-division photometry has a problem that a person on the screen may not be properly exposed because exposure control is performed so that the entire screen is appropriately exposed. Further, in (2) center-weighted metering method, (3) partial metering method, and (4) spot metering method, there is a problem that the person is exposed properly only when the photometry area and the position of the person match.
[0004]
The present invention has been made in view of the above, and an imaging apparatus capable of appropriately exposing a person regardless of the position / range of the person on the screen, an automatic exposure method, and a computer executing the method The purpose is to provide a program to do this.
[0005]
[Means for Solving the Problems]
  In order to solve the above problems, an invention according to claim 1 is an image pickup apparatus having an automatic exposure function, an image pickup unit for inputting image data corresponding to a subject, and image data input from the image pickup unit. Detecting means for detecting the face of a person from among the above,The brightness of the subjectPhotometric means for measuring light, and said photometric meansMeasurementExposure control means for calculating an exposure amount based on the light result and performing exposure control based on the calculated exposure amount.When the ratio of the face of the person detected by the face detection means is larger than a predetermined ratio, or when the position of the face of the person detected by the face detection means is at the center position of the screen, The photometry means performs a first photometry process in which only the face portion of the person detected by the face detection means is set as a photometry area, and the exposure control means is based on a photometry result of the first photometry process. The exposure amount is calculated, and a first exposure control process for controlling the exposure based on the calculated exposure amount is performed, and the ratio of the face of the person detected by the face detection unit to the screen is equal to or less than the predetermined ratio. When the face position of the person detected by the face detection means is not at the center position of the screen, the photometry means uses the first photometry processing and the second area with the entire screen as the photometry area. With photometric processing, The exposure control means calculates the photometric result of the first photometric processing according to the ratio of the human face detected by the face detecting means to the screen or the position of the human face detected by the face detecting means. The exposure amount is calculated by increasing the weighting compared to the photometry result of the second photometry processing, and the second exposure control processing for controlling the exposure based on the calculated exposure amount is performed.Is.
[0006]
  According to the above invention,When the ratio of the face of the person detected by the face detection means is larger than a predetermined ratio, or when the position of the face of the person detected by the face detection means is at the center position of the screen, the photometry means The first photometry process is performed with only the face portion of the person detected by the face detection means as the photometry area, and the exposure control means calculates the exposure amount based on the photometry result of the first photometry process, First exposure control processing for controlling exposure based on the calculated exposure amountBy performing the above, exposure control is performed so that the person is properly exposed.On the other hand, when the ratio of the face of the person detected by the face detection means is equal to or less than a predetermined ratio and the position of the face of the person detected by the face detection means is not at the center position of the screen, The metering unit performs the first metering process and the second metering process in which the entire screen is the metering area, and the exposure control unit detects the ratio of the face of the person detected by the face detecting unit or the face detection. In accordance with the position of the face of the person detected by the means, the exposure amount is calculated by increasing the weighting of the photometric result of the first photometric process compared to the photometric result of the second photometric process, and the calculated exposure By performing the second exposure control process for controlling the exposure based on the amount, not only the person but also the background is set to the appropriate exposure.
When the photometric result of the entire screen and the photometric result of the face part are greatly different, it is difficult to set both the face part and the background to appropriate exposure, and the exposure amount is halfway between the person and the background. Therefore, when the proportion of the face occupying the screen is larger than a predetermined proportion, or when the position of the person's face is at the center position of the screen, exposure is performed with the photometry result of the first photometry processing, and only the person is appropriate. An image to be exposed is obtained.
In the second exposure control process, the photometric result of the first photometric process is weighted relative to the photometric result of the second photometric process according to the ratio of the human face to the screen or the position of the human face. By increasing the exposure amount and calculating the exposure amount, exposure with a balance between the face and the background can be performed, which is effective, for example, when taking a commemorative photo with the background of a building or the like.
[0011]
  Claims2The invention according to claim1In the invention according toThe first exposure control process and the second exposure control processThe photometric method selecting means for the user to select one of the above is provided.
[0012]
  According to the above invention, the user can use the photometric method selection means toFirst exposure control process and second exposure control processBy selecting one of the above, the user can select which of the photometry result of the entire screen or the photometry result of the face is to be emphasized, and the user's photographing intention is reflected.
[0013]
  Claims3The invention according to claim1 or claim 2In the invention according to the above,Second photometric processFor the photometric results ofFirst photometric processThe weighting setting means for the user to set the weighting of the photometric result is provided. According to the above invention, the user can use the weight setting means.Second photometric processFor photometric resultsFirst photometric processWeighting of photometric resultsSet upByFirst photometric processPhotometric results andSecond photometric processWhen the exposure is adjusted based on the photometric result, the user's intention to shoot is reflected.
[0016]
  Claims4The invention according to claim 1 to claim 13In the invention according to any one of the above, a face detection operation setting unit for allowing a user to set permission / prohibition of the face detection operation of the face detection unit is provided, and the exposure control unit includes a face of the face detection unit. When the permission of the detection operation is set, the face detection unit is caused to execute the face detection operation,The first exposure control process or the second exposure control processOn the other hand, when the prohibition of the face detection operation of the face detection unit is set, exposure control is performed without causing the face detection unit to execute the face detection operation.
[0017]
  According to the above invention, the user sets permission / prohibition of the face detection operation of the face detection means by the face detection operation setting means, and the exposure control means sets permission of the face detection operation of the face detection means. If it is, let the face detection means execute the face detection operation,First exposure control process or second exposure control processOn the other hand, when the prohibition of the face detection operation of the face detection unit is set, exposure control is performed without causing the face detection unit to execute the face detection operation. For example, face detection is not necessary when shooting a subject such as a landscape that does not contain a person, so that face detection can be prohibited by the user and unnecessary face detection is not performed.
[0018]
  Claims5The invention according to claim 1 to claim 13In the invention according to any one of the above, the first shooting mode in which the face detection operation of the face detection unit is executed to perform exposure control, or the second exposure control is performed without executing the face detection operation of the face detection unit. Mode setting means for setting the shooting mode, and when the first shooting mode is set, the exposure control means causes the face detection means to execute a face detection operation,The first exposure control process or the second exposure control processOn the other hand, when the second shooting mode is set, exposure control is performed without causing the face detection means to execute a face detection operation.
[0019]
  According to the above invention, the mode setting means performs the exposure control without executing the face detection operation of the face detection means by executing the face detection operation of the face detection means or performing the exposure control without executing the face detection operation of the face detection means. The exposure control means causes the face detection means to execute a face detection operation when the first shooting mode is set,First exposure control process or second exposure control processOn the other hand, when the second shooting mode is set, exposure control is performed without causing the face detection means to perform the face detection operation. By defining a shooting mode for performing face detection and switching the shooting mode, the user can easily select the presence or absence of face detection, and shooting suitable for the user's application is possible.
[0020]
  Further, the invention according to claim 6 is the invention according to claim 1.Any one of Claim 5In the invention according to the above aspect, there is provided an informing means for informing a user of the result of the face detection by the face detecting means. According to the above invention, the notification means notifies the user of the detection result of the person's face by the face detection means, so that the user can determine whether the face detection processing has been normally operated, Prevent the shooting from failing by stopping the shooting.
[0021]
  Claims7The invention according to claim6In the invention according to this aspect, the notification means is a monitor screen for displaying image data. According to the above invention, the result of the face detection operation such as the face in the screen and the position / range of the detected face is notified to the user on the monitor screen.
[0022]
  Claims8The invention according to claim6In the invention, the notifying unit is a sub LCD for displaying an operation state or the like of the imaging apparatus. According to the above-described invention, an image pickup apparatus having a sub LCD indicating the state of the image pickup apparatus such as the number of recorded sheets and the remaining battery level is common. Therefore, using this sub LCD, the result of face detection can be obtained with an inexpensive configuration. It is possible to inform the user.
[0023]
  Claims9The invention according to claim6In the invention according to the invention, the notification means is an LED. According to the above-described invention, when the detection result of the face of the person of the face detection means is notified by the LED, the user does not use the monitor screen in the imaging device without the monitor screen or the imaging device having the monitor screen In addition, it is possible to notify the user of the result of face detection.
[0024]
  Claims10The invention according to claim 1 is directed to claim 1.Any one of Claim 9In the invention, the exposure control unit performs exposure control based on a photometric result of another photometric method when the face detecting unit cannot detect a human face. According to the above invention, the exposure control means cannot detect the face of the person by the face detection means.wonIn this case, by performing exposure control based on the photometric result of another photometric method, even when face detection cannot be performed, it is possible to perform the same photographing as before without greatly failing photographing.
[0025]
  Claims11According to the invention, an image input step for inputting image data corresponding to a subject, a face detection step for detecting a human face from the image data input in the image input step,The brightness of the subjectA metering step for metering, and the metering stepMeasurementAn exposure control step of calculating an exposure amount based on the light result and performing exposure control based on the calculated exposure amount.When the ratio of the face of the person detected by the face detection process is larger than a predetermined ratio, or when the position of the face of the person detected by the face detection process is at the center position of the screen The photometry step performs a first photometry process using only the face portion of the person detected by the face detection step as a photometry area, and the exposure control step is based on the photometry result of the first photometry process. The exposure amount is calculated, and a first exposure control process is performed to control exposure based on the calculated exposure amount, and the ratio of the face of the person detected by the face detection step is less than the predetermined ratio And if the position of the person's face detected by the face detection step is not at the center position of the screen, the photometry step includes the first photometry process and a second photometry area for the entire screen. With photometric processing In the exposure control step, the photometric result of the first photometric processing is calculated according to the ratio of the human face detected in the face detecting step to the screen or the position of the human face detected in the face detecting step. The exposure amount is calculated by increasing the weighting compared to the photometry result of the second photometry processing, and the second exposure control processing for controlling the exposure based on the calculated exposure amount is performed.Is.
[0026]
  According to the above invention,When the ratio of the human face detected by the face detection process is larger than a predetermined ratio or when the position of the human face detected by the face detection process is at the center position of the screen, The first photometry process is performed with only the face portion of the person detected by the face detection process as the photometry area, and the exposure control process calculates the exposure amount based on the photometry result of the first photometry process in the exposure control process. First exposure control processing for controlling exposure based on the calculated exposure amountBy performing the above, exposure control is performed so that the person is properly exposed.On the other hand, when the ratio of the face of the person detected by the face detection process is equal to or less than a predetermined ratio and the position of the face of the person detected by the face detection process is not at the center position of the screen, In the photometric process, the first photometric process and the second photometric process using the entire screen as the photometric area are performed. In the exposure control process, the ratio of the person's face detected by the face detecting process or the face detection In accordance with the position of the face of the person detected in the process, the exposure amount is calculated by increasing the weighting of the photometric result of the first photometric process compared to the photometric result of the second photometric process, and the calculated exposure By performing the second exposure control process for controlling the exposure based on the amount, not only the person but also the background is set to the appropriate exposure.
When the photometric result of the entire screen and the photometric result of the face part are greatly different, it is difficult to set both the face part and the background to appropriate exposure, and the exposure amount is halfway between the person and the background. Therefore, when the proportion of the face occupying the screen is larger than a predetermined proportion, or when the position of the person's face is at the center position of the screen, exposure is performed with the photometry result of the first photometry processing, and only the person is appropriate. An image to be exposed is obtained.
In the second exposure control process, the photometric result of the first photometric process is weighted relative to the photometric result of the second photometric process according to the ratio of the human face to the screen or the position of the human face. By increasing the exposure amount and calculating the exposure amount, exposure with a balance between the face and the background can be performed, which is effective, for example, when taking a commemorative photo with the background of a building or the like.
[0031]
  Claims12The invention according to claim11In the invention according toThe first exposure control process and the second exposure control processA photometric method selection step for the user to select one of the above.
[0032]
  According to the above invention, the user canFirst exposure control process and second exposure control processBy selecting one of the above, the user can select which of the photometry result of the entire screen or the photometry result of the face is to be emphasized, and the user's photographing intention is reflected.
[0033]
  Claims13The invention according to claim11 or claim 12In the invention according to the present invention,Second photometric processFor the photometric results ofFirst photometric processThis includes a weighting setting step for the user to set the weighting of the photometric result.
[0034]
  According to the invention, the claim11 or claim 12In the invention according to the present invention,Second photometric processFor photometric resultsFirst photometric processThe user sets the weighting of the photometric result ofFirst photometric processPhotometric results andSecond photometric processWhen the exposure is adjusted based on the photometric result, the user's intention to shoot is reflected.
[0037]
  Claims14The invention according to claim11~ Claim13In the invention according to any one of the above, a face detection operation setting step in which a user sets permission / prohibition of the face detection operation in the face detection step, and the exposure control step includes a face detection operation in the face detection step If the permission is set, the face detection process is executed in the face detection step,The first exposure control process or the second exposure control processOn the other hand, when the prohibition of the face detection operation in the face detection step is set, exposure control is performed without causing the face detection step to execute the face detection operation.
[0038]
  According to the above invention, when the user sets permission / prohibition of the face detection operation and permission of the face detection operation is set, the face detection operation is executed in the face detection process,First exposure control process or second exposure control processOn the other hand, when the prohibition of the face detection operation is set, exposure control is performed without causing the detection process to execute the face detection operation. For example, face detection is not necessary when shooting a subject such as a landscape that does not contain a person, so that face detection can be prohibited by the user and unnecessary face detection is not performed.
[0039]
  Claims15The invention according to claim11~ Claim13In the invention according to any one of the above, the first shooting mode in which the face detection operation in the face detection step is executed to perform exposure control, or the exposure control is performed without executing the face detection operation in the face detection step. Including a mode setting step for setting the shooting mode, and in the exposure control step, when the first shooting mode is set, the face detection step performs a face detection operation,The first exposure control process or the second exposure control processOn the other hand, when the second shooting mode is set, exposure control is performed without causing the face detection step to execute a face detection operation.
[0040]
  According to the above invention, the first shooting mode in which the face detection operation is performed to perform the exposure control or the second shooting mode in which the exposure control is performed without performing the face detection operation is set, and the first shooting mode is set. If it is, execute the face detection operation,First exposure control process or second exposure control processOn the other hand, when the second shooting mode is set, exposure control is performed without executing the face detection operation. As a result, a shooting mode for performing face detection is determined, and by switching the shooting mode, the user can easily select the presence or absence of face detection, thereby enabling shooting suitable for the user's application.
[0041]
  Claims16The invention according to claimAny one of claims 11 to 15In the invention according to this aspect, the method includes a notification step of notifying a user of a result of detection of a human face by the face detection step. According to the above-described invention, by notifying the user of the detection result of the person's face, the user can determine whether the face detection process has been normally operated, and when malfunctioning, the shooting is stopped, etc. Prevents shooting failures.
[0042]
  Claims17The invention according to claim11~ Claim16Any one ofAutomatic exposure method describedThe computerInExecutionLetIt is a program for.
[0043]
DETAILED DESCRIPTION OF THE INVENTION
DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, with reference to the drawings, preferred embodiments of a digital camera to which an imaging apparatus, an exposure control method, and a program for executing a computer program according to the invention are applied (Embodiment 1) (Embodiment 2), (Modification 1), (Modification 2) will be described in detail in this order.
[0044]
(Embodiment 1)
1A and 1B are external configuration diagrams of the digital camera according to the first embodiment. FIG. 1A is a front view, FIG. 1B is a side view, and FIG. 1C is a top view. FIG. 1 shows a state in which the upper lid is opened. In the figure, 1 is a camera body, 2 is a photographic lens, 3 is a strobe, 4 is a viewfinder, 5 is an upper lid that can be opened and closed, 6 is a hinge that supports the upper lid 5 so that it can be opened and closed, and 7 is the inside of the upper lid 5. A liquid crystal monitor provided on the outside, 8 a sub-LCD provided outside the upper lid 5, 9 an upper lid opening / closing detection switch for detecting the opening / closing of the upper lid 5, 10 a barrier opening / closing knob, 11 an operation instruction for photographing, etc. A release switch for performing the operation, 12 is a mode changeover switch for selecting each mode, 13 is a strobe switch for performing strobe light emission, 14 is an image quality mode switch for setting the image quality, 15 is a cursor key, and 16 is a cursor key. A DATE switch for inputting a date, 17 indicates an ENTER key, and 18 indicates a SELECT key.
[0045]
The mode changeover switch 12 includes (1) a SETUP mode for changing or confirming camera settings, (2) a still image mode for recording a still image, (3) a moving image mode for recording a moving image, (4) Playback mode for playing back recorded files, (5) PC mode for sending files to a personal computer and operating the camera from a personal computer, and (6) Communication via a network This is for selecting a communication mode to be performed.
[0046]
FIG. 2 is a block diagram of the configuration of the digital camera according to the first embodiment. The digital camera shown in the figure includes a photographing lens 2 (zoom lens 2a, focus lens 2b), mechanical mechanism (mechanical shutter, diaphragm, filter, etc.) 101, CCD 102, F / E (CDS circuit, AGC circuit, A / D conversion). Circuit) 103, IPP 104, compression / expansion circuit 105, memory card 106, DRAM 107, liquid crystal monitor 7, sub LCD 10, operation unit 108, motor (zoom lens motor 109a, focus motor 109b, aperture / shutter motor 109c) 109, driver ( Zoom driver 110a, focus driver 110b, aperture / shutter driver 110c) 110, SG111, battery 112, DC / DC converter 113, AC adapter 114, controller (CPU 115a, FLASH_ROM 115b, SD) RAM 115c) 115, a communication driver unit 116, and a network communication unit 117.
[0047]
The photographing lens 2 is for imaging a subject, and includes a zoom lens 2a for realizing a zoom function and a focus lens 2b for focusing on the subject. The mechanical mechanism 101 includes a mechanical shutter, a diaphragm for adjusting the brightness of the subject, a filter, and the like. The CCD 102 converts the subject image formed by the photographing lens 2 into an electric signal and outputs it as analog image data to the F / E 103.
[0048]
The F / E 103 performs preprocessing on analog image data input from the CCD 102, and is output from a CDS circuit that performs correlated double sampling of the analog image data input from the CCD 102 and the CDS circuit. An AGC circuit that adjusts the gain of analog image data, and an A / D conversion circuit that performs A / D conversion on analog image data output from the AGC circuit and outputs digital image data to the IPP 104 Become.
[0049]
The IPP 104 performs various types of image processing on input image data. For example, after performing interpolation processing on color image data input from the F / E 103, YUV data (luminance Y data, color difference) (U, V data).
[0050]
The compression / decompression circuit 105 compresses YUV data by a compression method conforming to the JPEG method, and decompresses compressed image data stored in the memory card 106 by an expansion method conforming to the JPEG method.
[0051]
The DRAM 107 is a frame memory for temporarily storing captured image data, image data read from the memory card 106, and the like. The memory card 106 is detachably attached to the digital camera body, and stores compressed image data as an image file.
[0052]
The liquid crystal monitor 7 is for displaying image data and the like. The sub LCD 8 is for displaying the set mode and operation contents of the digital camera.
[0053]
The zoom driver 110a drives the zoom lens motor 109a in accordance with a control signal input from the controller 115 to move the zoom lens 2a in the optical axis direction. The focus driver 110b drives the focus motor 109b in accordance with a control signal input from the controller 115, and moves the focus lens 2b in the optical axis direction. The aperture / shutter driver 110c drives the aperture / shutter motor 109c in accordance with a control signal input from the controller 115 to set the aperture value of the aperture of the mechanical mechanism 101 and to open / close the mechanical shutter of the mechanical mechanism 101. Do.
[0054]
SG 111 drives CCD 102 and F / E 103 based on a control signal input from controller 115. The battery 112 is made of, for example, a battery such as Nicd, nickel hydride, or lithium, and supplies a DC voltage to the DC / DC converter 113. The AC adapter 114 converts the AC voltage into a DC voltage and supplies it to the DC / DC converter 113. The DC / DC converter 113 converts the level of the DC voltage input from the battery 112 or the AC adapter 114 and supplies power to each part of the digital camera.
[0055]
The communication driver unit 116 is connected to an external device (for example, a personal computer) to perform data communication. The network communication unit 117 is for data communication with the network.
[0056]
The operation unit 108 includes various keys and switches (release switch 11, mode change switch 12, strobe switch 13, image quality mode switch 14, cursor key 15, DATE, and the like shown in FIG. 1 for the user to give various instructions to the digital camera. The switch 16, the ENTER key 17, and the SELECT key 18) are provided, and operations of various keys and switches are detected and output to the controller 115. The above-described release switch 11 is a two-stage SW. When the switch is half-pressed, the first SW is turned on and when the switch is fully pressed, the second SW is turned on. In the digital camera, the AE operation and the AF operation are executed when the first SW is turned on, and the photographing operation is executed when the second SW is turned on.
[0057]
3 and 4 show user setting screens for recording conditions displayed on the liquid crystal monitor 7 when the SETUP mode is selected by the mode changeover switch 12 of the operation unit 108. FIG. The user setting screen for recording conditions shown in the figure shows the setting conditions for each item ("AF / Manual" for "Focus", "ON / OFF" for "Face Detection (Face Detection Operation Mode)", and "Metering Method". [Auto / Manual (Face (first metering method) / Face + Background (second metering method)], “Long exposure” “ON / OFF”, “Date” [ON / OFF]) In the screen shown in the figure, the user selects a desired item with the cursor key 15, selects a desired setting condition with the SELECT key 18 in the selected item, and presses the ENTER key 17 to enter a desired setting condition. The selected setting condition is set.
[0058]
As will be described later, when the user selects [Auto] in the “photometry method”, the CPU 115a selects either the first photometry method (face) or the second photometry method (face + background). On the other hand, when the user selects [Manual] in the “photometry method”, the user further selects [face (first photometry method)], [face + background (second photometry method)]. Choose one. In the example shown in FIGS. 3 and 4, “Focus” is “AF”, “Face Detection (Face Detection Processing)” is “ON”, “Metering Method” is “Auto”, and “Long Exposure” is “OFF”. “OFF” is set for “DATE”.
[0059]
The controller 115 is a unit that controls the overall operation of the digital camera. Based on an instruction from the operation unit 108, the controller 115 uses the SD_RAM 115c as a work area in accordance with a control program stored in the FLASH_ROM 115b. The CPU 115a controls operations, the FLASH_ROM 115b that stores various control programs to be executed by the CPU 115a, parameters and data necessary for control, and the SD_RAM 115c used as a work area of the CPU 115a. The control program, parameters, and data stored in the FLASH_ROM 115b can be distributed via the network, and can be downloaded and stored via the network. In addition, programs, parameters, and data can be written to the FLASH_ROM 115b from an external device connected via the communication driver unit 116.
[0060]
The CPU 115a controls a monitoring operation, an AF operation, an AE operation, and a photographing operation. Next, outlines of (1) monitoring operation, (2) AE operation, and (3) still image photographing operation executed under the control of the CPU 115a will be described.
[0061]
(1) Monitoring operation
When the still image mode or the moving image mode is selected with the mode change switch 12 of the operation unit 108, a monitoring image is displayed on the liquid crystal monitor 7. Specifically, the subject image data input from the CCD 102 is processed by the F / E (CDS, AGC, A / D) 103 and then input to the IPP 104. After the signal processing by the IPP 104, the monitoring image corresponding to the image data written in the DRAM 107 and stored in the DRAM 107 is displayed on the liquid crystal monitor 7. The user can determine the composition of the shooting by looking at the monitoring image of the subject displayed on the liquid crystal monitor 7.
[0062]
(2) AE operation
After the still image mode or the moving image mode is selected with the mode change switch 12 of the operation unit 108, when the release switch 11 is pressed halfway and the SW1 is turned on, the CPU 115a executes the AE operation. Specifically, in the AE operation, when the face detection operation mode is set (see FIGS. 3 and 4), first, face detection processing is executed to detect a human face. Specifically, the image data input from the CCD 102 is processed by the F / E (CDS, AGC, A / D) 103 and then input to the IPP 104. This image data is signal-processed by the IPP 104 and then written in the DRAM 107. The CPU 115a detects the face of a person from the image data stored in the DRAM 107 using a known face detection technique (Gabor wavelet transform + graph matching). Then, using the detected human face as a photometric area (AE area), the CPU 115a calculates an AE evaluation value (photometric result), calculates an exposure amount based on the AE evaluation value, and performs exposure according to the exposure amount. Exposure control is performed by setting conditions (electronic shutter speed of the CCD 3, aperture value of the diaphragm of the mechanical mechanism 101, gain of the AGC circuit of the F / E 103, etc.).
[0063]
The calculation method of the AE evaluation value will be specifically described. FIG. 5 shows an example of division when the screen (image frame) of the CCD 102 is divided into a plurality of areas Y1 to Y35. FIG. 6 is a diagram showing an example of the image data of the subject in FIG.
[0064]
The IPP 104 calculates luminance data Y1 to Y35 for each of the areas Y1 to Y35 to be measured based on the image data (respective pixel data (R, G, B)) input from the CCD 102. The formula for calculating luminance data is shown below. In the following calculation formula, Rn, Gn, and Bn indicate the average value of each pixel data (R, G, B) in each area.
[0065]
Figure 0004794786
[0066]
  Here, in the face detection operation mode, when the photometry process is performed only with the face (first photometry method))The brightness data of the area including the face is calculated, and the average value of the calculated brightness data of the area is set as the brightness data Yy (AE evaluation value). In the example shown in FIG. 6, the average value of the luminance data in the areas Y14, Y20, Y21, Y26, and Y27 is defined as luminance data Yy (AE evaluation value).
[0067]
Further, in the face detection operation mode, when photometry processing is performed on the face and the entire face, the luminance data of the area including the face is calculated, and the average value of the calculated luminance data of the area is set as the luminance data Yface. . Also, the luminance data of the areas Y1 to Y25 of the entire screen are calculated, and the average value of the calculated luminance data of all areas is set as the luminance data Yall. Then, luminance data Yy (AE evaluation value) = Yface × n1 + luminance data Yall × n2 is calculated by setting n1 as the weight of the face portion and n2 as the weight of the entire screen (where n1> n2 and n1 + n2 = 1).
[0068]
  In the case of normal metering processing, (1) center-weighted metering method (a method for determining brightness data by placing emphasis on the brightness at the center and taking ambient brightness into account), (2) partial metering method ( (Method to determine the brightness data only by the average value of the brightness data only in the area on the screen), (3)spotMetering method (same concept as partial metering, but the metering area is small, about 1 to 2%), (4) Divided metering method (divides the screen into multiple areas, and averages the brightness for each area The luminance data Yy (AE evaluation value) is calculated using any one of the above-described methods for determining luminance data from the luminance distribution pattern.
[0069]
Then, the CPU 115a determines that the exposure (brightness) is appropriate when the value of the target luminance data Yx stored in advance in the FLASH_ROM 115b matches the value of the subject luminance data Yy that is a result of photometry of the subject. Then, an exposure amount is calculated such that the subject luminance data Yy becomes the target luminance data Yx. Based on the calculated exposure amount, the exposure conditions (the shutter speed of the CCD 102, the aperture value (aperture value) of the aperture of the mechanical mechanism 101), The sensitivity of the CCD 102 (the gain value of the amplifier circuit of the F / E 103) is set.
[0070]
Specifically, in order to increase the value of the luminance data Yy, the CPU 115a increases the sensitivity of the CCD 102 by “lowering the shutter speed of the CCD 102”, “increasing the size of the aperture”, and In order to reduce the value of the luminance data Yy, the reverse of the above is performed.
[0071]
Here, the CPU 115a executes the control program to perform face detection. However, dedicated hardware for face detection may be provided.
[0072]
(3) Still image shooting operation
The CPU 115a executes the still image shooting operation when the release switch 11 of the operation unit 108 is fully pressed and the SW2 is turned on after the still image mode or the moving image mode is selected by the mode change switch 12 of the operation unit 108. The imaging data captured from the CCD 102 is subjected to image processing / compression processing by the IPP 104 and then written to the DRAM 107. The CPU 115a writes the compressed image data written in the DRAM 107 to the memory card 106 as a still image file.
[0073]
FIG. 7 is a flowchart for explaining the AE operation of the digital camera according to the first embodiment. FIG. 8 is a diagram showing a display example of the liquid crystal monitor 7. The AE operation of the digital camera according to the second embodiment will be described according to the flowchart of FIG. 7 with reference to the display example of the liquid crystal monitor 7 of FIG. The CPU 115a executes the AE process when the release switch 11 is pressed halfway and the SW1 is turned on after the still image mode or the moving image mode is selected by the mode switching switch 12 of the operation unit 108.
[0074]
In FIG. 7, first, the CPU 115a determines whether or not it is a face detection operation mode for executing human face detection (step S1). The face detection operation mode is set on the above-described recording condition user setting screen (see FIGS. 3 and 4 above). If it is determined that the face detection operation mode is set, the CPU 115a executes face detection processing (step S2).
[0075]
As methods for detecting a human image from a subject image, the following methods (1) to (3) are known, and in the first embodiment, any one of the methods is used. .
[0076]
(1) Television Society Journal Vol. 49, no. 6, pp. No. 787-797 (1995) “Proposal of a modified HSV color system effective for face area extraction” is a method of extracting a face area by converting a color image into a mosaic image and paying attention to a skin color area.
(2) The Institute of Electronics, Information and Communication Engineers, Vol. 74-D-II, no. 11, pp. 1625-1627 (1991) “A method for extracting a face region from a still gray scene image”, the geometrical structure of each part constituting the head of a front human figure such as hair, eyes and mouth. Of extracting the head region of a frontal person using various shape features.
(3) As shown in “Video phone face area detection and its effect” in Image Lab 1991-11 (1991), in the case of a moving image, the contour edge of a human image generated by a subtle movement of a person between frames To extract a frontal portrait using GIS.
[0077]
Then, the CPU 115a determines whether or not a face has been detected (step S3). If a face is detected as a result of this determination, the CPU 115a displays a rectangular frame on the face portion of the person (face detection execution result OK display) in the image data displayed on the liquid crystal monitor 7, and the face is detected. Is notified to the user (step S4). FIG. 8A shows a display example of image data (monitoring image) displayed on the liquid crystal monitor 7. FIG. 8B shows a display example when a rectangular frame is displayed on the face portion of the person in the image data of FIG.
[0078]
Subsequently, the CPU 115a determines whether or not a photometric method is set (step S5). Such a photometry method is set on the user setting screen for the recording conditions described above (see FIGS. 3 and 4 above). If the result of this determination is that a photometric method has been set, the process proceeds to step S7.
[0079]
  On the other hand, if the photometry method is not set in step S5, the CPU 115a performs the photometry method automatic determination process (step S6), and then proceeds to step S7. In this photometric method automatic discrimination processing, based on the ratio of the face occupying the screen and / or the position of the face, “luminance data Yy (AE evaluation value) is calculated by measuring only the face portion, and the exposure amount is calculated. "First metering method" or "Based on the metering result of the face part and the metering result of the entire screen, with an emphasis on the metering result of the face part (by increasing the weighting of the metering result of the face part) Luminance data Yy (AE evaluation value) is calculated, and one of “second photometry method for calculating exposure amount” is selected. Specifically, the CPU 115a selects the first photometry method when the ratio of the face occupying the screen is large and / or when the face is at the center position of the screen, and in other cases, the first photometry method is selected. Photometry of 2methodSelect.
[0080]
  Thereafter, when the selected photometry method is the first photometry method, the CPU 115a performs photometry processing using the face portion as a photometry area (AE area) (step S8). Then, the CPU 115a performs the photometry result (luminance data Yy (AE evaluation value) of the photometry area.)The exposure amount is calculated based on (Step S9), the exposure setting process is executed, and the exposure condition is set based on the calculated exposure amount (Step S10).
[0081]
If the selected photometry method is the second photometry method in step S7, photometry processing is performed on the entire screen to perform photometry on the entire screen (step S11). The CPU 115a performs photometric processing using the face portion as a photometric area (AE area) (step S12). The CPU 115a puts emphasis on the photometric result of the face part according to the ratio of the face to the screen and / or the position of the face based on the photometric result of the face part and the photometric result of the entire screen (face part). The above-described luminance data Yy (AE evaluation value) is calculated, and the exposure amount is calculated based on the calculated luminance data Yy (AE evaluation value) (step S13). Then, the CPU 115a executes an exposure setting process, and sets an exposure condition based on the calculated exposure amount (step S10).
[0082]
If it is determined in step S1 that the face detection operation mode is not selected, or if no face is detected in step S3, the CPU 115a performs normal photometry processing (step S14). An exposure amount is calculated based on the photometric result (step S15), exposure setting processing is performed, and an exposure condition is set based on the calculated exposure amount (step S10).
[0083]
As described above, according to the first embodiment, the CPU 115a detects the face of the subject person and performs exposure control based on the photometric result of the detected person face. Regardless of this, it becomes possible to make the person have proper exposure.
[0084]
Further, according to the first embodiment, the CPU 115a includes a first photometry method for calculating an exposure amount based on a photometric result of a person's face according to the ratio of the face to the screen and / or the position of the face, Based on the photometry result of the face and the photometry result of the entire screen, one of the second photometry methods for calculating the exposure amount by increasing the weighting of the photometry result of the person's face compared to the photometry result of the entire screen. When the face occupying the screen is large or the face is in the center, the first photometry method that calculates the exposure amount based on the photometric result of the person's face is adopted to It is possible to prioritize proper exposure.
[0085]
Also, according to the first embodiment, the user can select the first photometry method and the second photometry method (see FIGS. 3 and 4 above), so that the photometry result of the entire screen and the photometry of the face portion The user can select which of the results is important, and the user's intention to shoot can be reflected.
[0086]
Further, according to the first embodiment, when executing the second photometry method, the CPU 115a determines the human face to the photometric result of the entire screen according to the ratio of the face to the screen and / or the position of the face. Since the weighting of the photometry result is set, if the face ratio in the screen is large, the weighting is increased for the face photometry result, and if the face ratio in the screen is small, the weight is reduced. It is possible to perform exposure that is balanced between the face and the background.
[0087]
Further, according to the first embodiment, since the user can set permission / prohibition of face detection (face detection operation mode) (see FIGS. 3 and 4 above), it is determined whether or not the person is to be properly exposed. Can be selected by the user.
[0088]
Further, according to the first embodiment, since the rectangular frame is displayed on the detected face on the liquid crystal monitor 7 and the fact that the face detection is successful is displayed to the user, the user can detect the face. It is possible to confirm whether or not it was successful.
[0089]
In the first embodiment, the first photometry method and the second photometry method are selected on the recording condition user setting screen (see FIGS. 3 and 4) displayed on the liquid crystal monitor 7. For example, the first photometry method and the second photometry method may be selected on the screen on which the monitoring image is displayed on the liquid crystal monitor 7. FIG. 10 shows a display example of a screen for selecting the first photometry method and the second photometry method. In the figure, E1 indicates the first selection method, E2 indicates the second selection method, and the user selects one of them.
[0090]
(Embodiment 2)
A digital camera according to the second embodiment will be described with reference to FIGS. 11 and 12. FIG. The configuration of the digital camera of the second embodiment can be the same as that of the first embodiment (see FIGS. 1 and 2). The digital camera according to the second embodiment weights the photometric result of the person's face based on the second photometric method (based on the photometric result of the person's face and the photometric result of the entire screen, compared to the photometric result of the entire screen). In this method, the user can set the weighting ratio between the face and the background.
[0091]
FIG. 11 is a flowchart for explaining the AE operation of the digital camera according to the second embodiment. FIG. 12 is a diagram showing a display example of the liquid crystal monitor 7. The AE operation of the digital camera according to the second embodiment will be described according to the flowchart of FIG. 11 with reference to the display example of the liquid crystal monitor 7 of FIG. The CPU 115a executes the AE process when the release switch 11 is pressed halfway and the SW1 is turned on after the still image mode or the moving image mode is selected by the mode switching switch 12 of the operation unit 108.
[0092]
In FIG. 11, first, the CPU 115a determines whether or not it is a face detection operation mode for executing human face detection (step S21). The face detection operation mode is set on the above-described recording condition user setting screen (see FIGS. 3 and 4 above). As a result of this determination, if it is determined that the face detection operation mode is set, the CPU 115a executes face detection processing similar to that in the first embodiment (step S22).
[0093]
Then, the CPU 115a determines whether or not a face has been detected (step S23). If a face is detected as a result of this determination, the CPU 115a displays a rectangular frame on the face portion of the person (face detection execution result OK display) in the image data displayed on the liquid crystal monitor 7, and the face is detected. Is notified to the user (step S24). FIG. 8A shows a display example of the image data (monitoring image) displayed on the liquid crystal monitor 7. FIG. 8B shows a display example when a rectangular frame is displayed on the face portion of the person in the image data of FIG. 8A.
[0094]
Subsequently, the CPU 115a executes a weighted user setting process for the face portion (step S25). Specifically, the CPU 115a displays a screen for setting a weighting ratio between the face and the entire screen (background) in the weighted user setting process for the face portion. FIG. 12 shows a display example of a screen for setting a weighting ratio between the face and the entire screen (background). The user moves the position of the arrow displayed on the screen to the desired position with the cursor key 15 and presses the ENTER key 17 to set the weighting ratio between the face and the entire screen (background). .
[0095]
Thereafter, the CPU 115a performs photometry processing on the entire screen to perform photometry on the entire screen (step S26). The CPU 115a performs photometry processing using the face portion as a photometry area (AE area) (step S27). The CPU 115a calculates the above-described luminance data Yy (AE evaluation value) by performing weighting set by the user based on the photometric result of the face portion and the photometric result of the entire screen, and the calculated luminance data Yy ( An exposure amount is calculated based on the AE evaluation value (step S28). Then, the CPU 115a executes an exposure setting process and sets an exposure condition based on the calculated exposure amount (step S29).
[0096]
If it is determined in step S21 that the face detection operation mode is not selected, or if no face is detected in step S23, the CPU 115a performs normal photometry processing (step S30), and the photometry is performed. An exposure amount is calculated based on the result, and an exposure condition is set based on the calculated exposure amount (step S29).
[0097]
As described above, according to the second embodiment, since the user can set the weighting of the photometric result of the person's face to the photometric result of the entire screen, the photometric result of the person's face and the photometric result of the entire screen are measured. When adjusting the exposure based on the result, it is possible to reflect the user's intention to shoot.
[0098]
The present invention is not limited to the above-described first and second embodiments, and can be appropriately modified without changing the gist of the invention. For example, the following modifications are possible. .
[0099]
(Modification 1)
The digital camera of the present invention is provided with a person shooting mode (first shooting mode) for shooting a person and a landscape shooting mode (second shooting mode) for shooting a landscape. The CPU 115a performs exposure control with face detection processing (processing after “YES” in step S1 in FIG. 7) when the portrait shooting mode is selected, and the landscape shooting mode is selected. When is selected, exposure control (processing after “NO” in step S1 in FIG. 7) may be performed by a normal photometry method without performing face detection processing. This is because the face detection process is necessary in the person photographing mode that requires the face to be properly exposed, but the face detection process is not necessary in the landscape photography mode that does not require the face to be properly exposed.
[0100]
(Modification 2)
In the first and second embodiments, the face detection execution result is displayed on the liquid crystal monitor 7, but may be displayed on the sub LCD 8. FIG. 9 shows a display example of the sub LCD 8 when the face detection is successful. Further, instead of the sub LCD 8, an LED for displaying the result of face detection may be provided.
[0101]
【The invention's effect】
  As described above, according to the invention of claim 1,When the ratio of the face of the person detected by the face detection means is larger than a predetermined ratio, or when the position of the face of the person detected by the face detection means is at the center position of the screen, the photometry means The first photometry process is performed with only the face portion of the person detected by the face detection means as the photometry area, and the exposure control means calculates the exposure amount based on the photometry result of the first photometry process, First exposure control processing for controlling exposure based on the calculated exposure amountSo do,ManIt becomes possible to make the object have proper exposure.On the other hand, when the ratio of the face of the person detected by the face detection means is equal to or less than a predetermined ratio and the position of the face of the person detected by the face detection means is not at the center position of the screen, The metering unit performs the first metering process and the second metering process in which the entire screen is the metering area, and the exposure control unit detects the ratio of the face of the person detected by the face detecting unit or the face detection. In accordance with the position of the face of the person detected by the means, the exposure amount is calculated by increasing the weighting of the photometric result of the first photometric process compared to the photometric result of the second photometric process, and the calculated exposure Since the second exposure control process for controlling the exposure based on the amount is performed, not only the person but also the background can be properly exposed.
Further, since the first exposure control process and the second exposure control process are switched according to the ratio of the face to the screen or the position of the face, it is possible to prevent halfway exposure amounts for both the person and the background. It becomes possible. Further, in the second exposure control process, the photometric result of the first photometric process is weighted relative to the photometric result of the second photometric process according to the ratio of the human face to the screen or the position of the human face. Since the exposure amount is calculated with a larger value, exposure with a balance between the face and the background can be performed.
[0104]
  Claims2The invention according to claim1In the invention according toThe first exposure control process and the second exposure control processSince the photometric method selecting means for the user to select any one of1In addition to the effect of the present invention, the user can select which of the photometry result of the entire surface and the photometry result of the face is to be emphasized, and the user's intention of photographing can be reflected.
[0105]
  Claims3According to the invention according to claim1 or claim 2In the invention according to the above,Second photometric processFor the photometric results ofFirst photometric processSince the weight setting means for the user to set the weighting of the photometric result is provided,1 or claim 2In addition to the effects of the invention according toFirst photometric processPhotometric results andSecond photometric processWhen the exposure is adjusted based on the photometric result, the user's intention to shoot can be reflected.
[0107]
  Claims4According to the invention according to claim 1 to claim 13In the invention according to any one of the above, a face detection operation setting unit for allowing a user to set permission / prohibition of the face detection operation of the face detection unit is provided, and the exposure control unit includes a face of the face detection unit. When the permission of the detection operation is set, the face detection unit is caused to execute the face detection operation,The first exposure control process or the second exposure control processOn the other hand, when the prohibition of the face detection operation of the face detection unit is set, the exposure control is performed without causing the face detection unit to execute the face detection operation. Claim3In addition to the effect of the invention according to any one of the above, the user can prohibit face detection, and the user can be prevented from performing useless face detection.
[0108]
  Claims5According to the invention according to claim 1 to claim 13In the invention according to any one of the above, the first shooting mode in which the face detection operation of the face detection unit is executed to perform exposure control, or the second exposure control is performed without executing the face detection operation of the face detection unit. Mode setting means for setting the shooting mode, and when the first shooting mode is set, the exposure control means causes the face detection means to execute a face detection operation,The first exposure control process or the second exposure control processOn the other hand, when the second shooting mode is set, exposure control is performed without causing the face detection unit to perform a face detection operation.3In addition to the effect of the invention according to any one of the above, by switching the shooting mode, the user can easily select the presence or absence of face detection, and shooting suitable for the user's application can be performed.
[0109]
  Claims6According to the invention according to claim 1,Any one of Claim 5In the invention according to the present invention, since the notification means for notifying the user of the detection result of the person's face by the face detection means is provided, the user can determine whether or not the face detection has operated normally, and malfunction In such a case, it is possible to prevent the shooting from failing by stopping the shooting.
[0110]
  Claims7According to the invention according to claim6In the invention according to the present invention, since the notification unit is a monitor screen for displaying image data, the result of the face detection operation such as the position / range of the detected face and the face in the screen is displayed on the monitor screen. It becomes possible to inform the user.
[0111]
  Claims8According to the invention according to claim6In the invention according to the present invention, the notification means is a sub-LCD for displaying an operation state or the like of the imaging device. Therefore, in the invention according to claim 9, the result of the face detection is obtained by a user with an inexpensive configuration. Can be informed.
[0112]
  Claims9According to the invention according to claim6In the invention according to the present invention, since the notification means is an LED, even when the user does not use the monitor screen in an imaging device without a monitor screen or an imaging device having a monitor screen, the user Can be informed of the result of face detection.
[0113]
  Claims10According to the invention according to claim 1,Any one of Claim 9In the invention according to claim 1, the exposure control means performs exposure control based on a photometric result of another photometry method when the face detection means cannot detect a human face.Any one of Claim 9In addition to the effects of the present invention, even when face detection is not possible, it is possible to perform shooting equivalent to the conventional one without greatly failing shooting.
[0114]
  Claims11According to the invention concerningWhen the ratio of the human face detected by the face detection process is larger than a predetermined ratio or when the position of the human face detected by the face detection process is at the center position of the screen, The first photometry process is performed with only the face portion of the person detected by the face detection process as the photometry area, and the exposure control process calculates the exposure amount based on the photometry result of the first photometry process in the exposure control process. A first exposure control process for controlling exposure based on the calculated exposure amount is performed.Because I decided,ManIt becomes possible to make the object have proper exposure.On the other hand, when the ratio of the face of the person detected by the face detection process is equal to or less than a predetermined ratio and the position of the face of the person detected by the face detection process is not at the center position of the screen, In the photometric process, the first photometric process and the second photometric process using the entire screen as the photometric area are performed. In the exposure control process, the ratio of the person's face detected by the face detecting process or the face detection In accordance with the position of the face of the person detected in the process, the exposure amount is calculated by increasing the weighting of the photometric result of the first photometric process compared to the photometric result of the second photometric process, and the calculated exposure Since the second exposure control process for controlling the exposure based on the amount is performed, not only the person but also the background can be appropriately exposed.
Further, since the first exposure control process and the second exposure control process are switched according to the ratio of the face to the screen or the position of the face, it is possible to prevent halfway exposure amounts for both the person and the background. It becomes possible. Further, in the second exposure control process, the photometric result of the first photometric process is weighted relative to the photometric result of the second photometric process according to the ratio of the human face to the screen or the position of the human face. Since the exposure amount is calculated with a larger value, exposure with a balance between the face and the background can be performed.
[0117]
  Claims12According to the invention according to claim11In the invention according toThe first exposure control process and the second exposure control processSince the method includes a photometric method selection step for the user to select one of11In addition to the effects of the present invention, the user can select which of the photometry result of the entire screen or the photometry result of the face is to be emphasized, and the user's intention to shoot can be reflected.
[0118]
  Claims13According to the invention according to claim11 or claim 12In the invention according to the present invention,Second photometric processFor the photometric results ofFirst photometric processSince the weighting setting step for the user to set the weighting of the photometric result is included in the claim,11 or claim 12In addition to the effects of the invention according toFirst photometric processPhotometric results andSecond photometric processWhen the exposure is adjusted based on the photometric result, the user's intention to shoot can be reflected.
[0120]
  Claims14According to the invention according to claim11~ Claim13In the invention according to any one of the above, a face detection operation setting step in which a user sets permission / prohibition of the face detection operation in the face detection step, and the exposure control step includes a face detection operation in the face detection step If the permission is set, the face detection process is executed in the face detection step,The first exposure control process or the second exposure control processOn the other hand, when the prohibition of the face detection operation in the face detection step is set, exposure control is performed without causing the face detection step to execute the face detection operation.11~ Claim13In the invention according to any one of the above, the user can prohibit the face detection, and the useless face detection can be prevented.
[0121]
  Claims15According to the invention according to claim11~ Claim13In the invention according to any one of the above, the first shooting mode in which the face detection operation in the face detection step is executed to perform exposure control, or the exposure control is performed without executing the face detection operation in the face detection step. Including a mode setting step for setting the shooting mode, and in the exposure control step, when the first shooting mode is set, the face detection step performs a face detection operation,The first exposure control process or the second exposure control processOn the other hand, when the second shooting mode is set, exposure control is performed without causing the face detection step to execute a face detection operation.11~ Claim13In addition to the effect of the invention according to any one of the above, by switching the shooting mode, the user can easily select the presence or absence of face detection, and shooting suitable for the user's application can be performed.
[0122]
  Claims16According to the invention according to claimAny one of claims 11 to 15In the invention according to the present invention, the method includes a notification step of notifying a user of the detection result of the human face by the face detection step.Any one of claims 11 to 15In addition to the effects of the invention according to the present invention, the user can determine whether or not the facial recognition detection functioned normally, and if it is malfunctioning, the photographing is stopped to prevent the photographing from failing. Is possible.
[0123]
  Claims17According to the invention according to claim11~ Claim16Any one ofAutomatic exposure method describedThe computerInExecutionTherefore, an effect equivalent to that of the invention according to any one of claims 11 to 16 can be obtained.
[Brief description of the drawings]
FIG. 1 is an external configuration diagram of a digital camera according to a first embodiment.
FIG. 2 is a block diagram illustrating a configuration of the digital camera according to the first embodiment.
FIG. 3 is a diagram showing a user setting screen for recording conditions displayed on the liquid crystal monitor when the SETUP mode is selected with the mode change switch of the operation unit in the digital camera according to the first embodiment;
FIG. 4 is a diagram showing a user setting screen for recording conditions displayed on the liquid crystal monitor when the SETUP mode is selected with the mode change switch of the operation unit in the digital camera according to the first embodiment;
FIG. 5 is an explanatory diagram for explaining an AE operation.
FIG. 6 is an explanatory diagram for explaining an AE operation.
FIG. 7 is a flowchart for explaining an AE operation of the digital camera according to the first embodiment;
FIG. 8 is a diagram showing a display example of a liquid crystal monitor of the digital camera according to the first embodiment.
FIG. 9 is a diagram showing a display example of a sub LCD.
FIG. 10 is a diagram illustrating a display example of the liquid crystal monitor of the digital camera according to the first embodiment.
FIG. 11 is a flowchart for explaining an AE operation of the digital camera according to the second embodiment;
FIG. 12 is a diagram illustrating a display example of a liquid crystal monitor of the digital camera according to the second embodiment.
[Explanation of symbols]
1 Camera body
2 Photo lens
3 Strobe
4 Finder
5 Top cover
6 Hinge
7 LCD monitor
8 Sub LCD
9 Upper lid open / close detection switch
10 Barrier opening / closing knob
11 Release switch
12 Mode selector switch
13 Strobe switch
14 Image quality mode switch
15 Cursor keys
16 DATE switch
17 ENTER key
18 SELECT key
2a Zoom lens
2b Focus lens
101 Mechanical mechanism
102 CCD
103 F / E
104 IPP
105 Compression / decompression circuit
106 Memory card
107 DRAM
108 Operation unit
109a Zoom lens motor
109b Focus motor
109c Aperture / Shutter Motor
110a Zoom driver
110b Focus driver
110c Aperture / Shutter Driver
111 SG
112 battery
113 DC / DC converter
114 AC adapter
115 controller
115a CPU
115b FLASH_ROM
115c SD_RAM
116 Communication driver part
117 Network Communication Department

Claims (17)

自動露光機能を備えた撮像装置において、
被写体に応じた画像データを入力するための撮像手段と、
前記撮像手段から入力される画像データの中から人物の顔を検出するための顔検出手段と、
前記被写体の輝度を測光する測光手段と、
前記測光手段の測光結果に基づいて露光量を算出し、当該算出した露光量に基づき露出制御を行う露出制御手段と、を備え
前記顔検出手段により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または前記顔検出手段により検出された人物の顔の位置が画面の中心位置にある場合には、前記測光手段は、前記顔検出手段により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、前記露出制御手段は、前記第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行い、
前記顔検出手段により検出された人物の顔が画面を占める割合が前記所定の割合以下であり、且つ、前記顔検出手段により検出された人物の顔の位置が画面の中心位置にない場合には、前記測光手段は、前記第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、前記露出制御手段は、前記顔検出手段により検出された人物の顔が画面を占める割合または前記顔検出手段により検出された人物の顔の位置に応じて、前記第1の測光処理の測光結果を前記第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うことを特徴とする撮像装置。
In an imaging device with an automatic exposure function,
Imaging means for inputting image data according to the subject;
Face detection means for detecting a human face from the image data input from the imaging means;
Photometric means for measuring the luminance of the subject ;
Wherein calculating the exposure amount based on measurement light results of the photometric unit, comprising an exposure control means for performing exposure control on the basis of the exposure amount and the calculated, and,
When the ratio of the face of the person detected by the face detection means is larger than a predetermined ratio, or when the position of the face of the person detected by the face detection means is at the center position of the screen, The photometry means performs a first photometry process in which only the face portion of the person detected by the face detection means is used as a photometry area, and the exposure control means performs exposure based on the photometry result of the first photometry process. A first exposure control process for calculating an amount and controlling exposure based on the calculated exposure amount;
When the ratio of the face of the person detected by the face detection means is less than the predetermined ratio and the position of the face of the person detected by the face detection means is not at the center position of the screen The metering means performs the first metering process and the second metering process with the entire screen as the metering area, and the exposure control means displays the human face detected by the face detecting means on the screen. Depending on the proportion of the face or the position of the person's face detected by the face detection means, the exposure value is set by increasing the weighting of the photometric result of the first photometric process compared to the photometric result of the second photometric process. And performing a second exposure control process for controlling the exposure based on the calculated exposure amount .
前記第1の露出制御処理と、前記第2の露出制御処理のいずれかを使用者が選択するための測光方式選択手段を備えたことを特徴とする請求項に記載の撮像装置。The imaging apparatus according to claim 1 , further comprising a photometric method selection unit for a user to select one of the first exposure control process and the second exposure control process . さらに、前記第2の測光処理の測光結果に対する前記第1の測光処理の測光結果の重み付けを使用者が設定するための重みづけ設定手段を備えたことを特徴とする請求項1または請求項2に記載の撮像装置。Further, according to claim 1 or claim 2, further comprising a weighting setting means for a user weighting of the first photometric processing of the photometric result for the second photometric processing of the photometry result set The imaging device described in 1. 前記顔検出手段の顔検出動作の許可/禁止を使用者が設定するための顔検出動作設定手段を備え、
前記露出制御手段は、前記顔検出手段の顔検出動作の許可が設定されている場合には、前記顔検出手段に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記顔検出手段の顔検出動作の禁止が設定されている場合には、前記顔検出手段に顔検出動作を実行させることなく、露出制御を行うことを特徴とする請求項1〜請求項のいずれか1つに記載の撮像装置。
A face detection operation setting means for allowing a user to set permission / prohibition of the face detection operation of the face detection means;
If the permission of the face detection operation of the face detection unit is set, the exposure control unit causes the face detection unit to execute a face detection operation, and the first exposure control process or the second exposure control process On the other hand, when the prohibition of the face detection operation of the face detection means is set, exposure control is performed without causing the face detection means to execute the face detection operation. The imaging device according to claim 3 .
前記顔検出手段の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出手段の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定するためのモード設定手段を備え、
前記露出制御手段は、前記第1の撮影モードが設定されている場合には、前記顔検出手段に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記第2の撮影モードが設定されている場合には、前記顔検出手段に顔検出動作を実行させることなく、露出制御を行うことを特徴とする請求項1〜請求項のいずれか1つに記載の撮像装置。
Mode setting for setting a first shooting mode in which exposure control is performed by executing the face detection operation of the face detection unit or a second shooting mode in which exposure control is performed without executing the face detection operation of the face detection unit With means,
The exposure control unit causes the face detection unit to execute a face detection operation when the first shooting mode is set, and performs the first exposure control process or the second exposure control process . wherein when the second photographing mode is set, the face detection unit without executing the face detection operation in any one of claims 1 to 3, characterized in that for performing exposure control The imaging device described in 1.
前記顔検出手段の人物の顔の検出結果を使用者に報知するための報知手段を備えたことを特徴とする請求項1〜請求項5のいずれか1つに記載の撮像装置。The imaging apparatus according to claim 1, further comprising a notification unit configured to notify a user of a detection result of the person's face by the face detection unit. 前記報知手段は、画像データを表示するためのモニタ画面であることを特徴とする請求項に記載の撮像装置。The imaging apparatus according to claim 6 , wherein the notification unit is a monitor screen for displaying image data. 前記報知手段は、当該撮像装置の動作状態等を表示するためのサブLCDであることを特徴とする請求項に記載の撮像装置。The imaging apparatus according to claim 6 , wherein the notification unit is a sub LCD for displaying an operation state or the like of the imaging apparatus. 前記報知手段は、LEDであることを特徴とする請求項に記載の撮像装置。The imaging apparatus according to claim 6 , wherein the notification unit is an LED. 前記露出制御手段は、前記顔検出手段が人物の顔を検出できなかった場合には、他の測光方式の測光結果に基づき露出制御を行うことを特徴とする請求項1〜請求項9のいずれか1つに記載の撮像装置。The exposure control unit, when the face detecting means does not detect a person's face is one of the claims 1 to 9, characterized in that the exposure control on the basis of the photometric result of another metering method The imaging device as described in any one . 被写体に応じた画像データを入力するための画像入力工程と、
前記画像入力工程で入力した画像データの中から人物の顔を検出する顔検出工程と、
前記被写体の輝度を測光する測光工程と、
前記測光工程による測光結果に基づいて露光量を算出し、当該算出した露光量に基づき露出制御を行う露出制御工程と、を含み、
前記顔検出工程により検出された人物の顔が画面を占める割合が所定の割合より大きい場合、または前記顔検出工程により検出された人物の顔の位置が画面の中心位置にある場合には、前記測光工程は、前記顔検出工程により検出された人物の顔の部分のみを測光エリアとする第1の測光処理を行い、前記露出制御工程は、前記第1の測光処理の測光結果に基づいて露出量を算出し、当該算出した露出量に基づき露出を制御する第1の露出制御処理を行い、
前記顔検出工程により検出された人物の顔が画面を占める割合が前記所定の割合以下であり、且つ、前記顔検出工程により検出された人物の顔の位置が画面の中心位置にない場合には、前記測光工程は、前記第1の測光処理と、画面全体を測光エリアとする第2の測光処理とを行い、前記露出制御工程は、前記顔検出工程により検出された人物の顔が画面を占める割合または前記顔検出工程により検出された人物の顔の位置に応じて、前記第1の測光処理の測光結果を前記第2の測光処理の測光結果に比して重み付けを大きくして露出量を算出し、当該算出した露出量に基づき露出を制御する第2の露出制御処理を行うことを特徴とする自動露出方法。
An image input process for inputting image data according to the subject;
A face detection step of detecting a human face from the image data input in the image input step;
A photometric process for measuring the luminance of the subject ;
On the basis of the I that photometric result to the photometric process to calculate the exposure amount, seen including an exposure control step of performing exposure control on the basis of the exposure amount that the calculated and,
When the ratio of the face of the person detected by the face detection step is larger than a predetermined ratio, or when the position of the face of the person detected by the face detection step is at the center position of the screen, The metering step performs a first metering process in which only the face portion of the person detected by the face detection step is a metering area, and the exposure control step exposes based on the metering result of the first metering process. A first exposure control process for calculating an amount and controlling exposure based on the calculated exposure amount;
When the ratio of the face of the person detected by the face detection step is equal to or less than the predetermined ratio and the position of the face of the person detected by the face detection step is not at the center position of the screen The metering step performs the first metering process and the second metering process in which the entire screen is a metering area, and the exposure control step displays the screen of the person's face detected by the face detection step. In accordance with the proportion of the person or the position of the person's face detected by the face detection step, the exposure amount is set by increasing the weighting of the photometric result of the first photometric process compared to the photometric result of the second photometric process. And performing a second exposure control process for controlling the exposure based on the calculated exposure amount .
前記第1の露出制御処理と、前記第2の露出制御処理のいずれかを使用者が選択するための測光方式選択工程を含むことを特徴とする請求項11に記載の自動露出方法。 12. The automatic exposure method according to claim 11 , further comprising a photometric method selection step for a user to select one of the first exposure control process and the second exposure control process . さらに、前記第2の測光処理の測光結果に対する前記第1の測光処理の測光結果の重み付けを使用者が設定するための重みづけ設定工程を含むことを特徴とする請求項11または請求項12に記載の自動露出方法。Furthermore, in claim 11 or claim 12, characterized in that it comprises a weighting setting step for the user weighting of the first photometric processing of the photometric result for the second photometric processing of the photometry result set Automatic exposure method as described. 前記顔検出工程の顔検出動作の許可/禁止を使用者が設定する顔検出動作設定工程を含み、
前記露出制御工程では、前記顔検出工程の顔検出動作の許可が設定されている場合には、前記顔検出工程に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記顔検出工程の顔検出動作の禁止が設定されている場合には、前記顔検出工程に顔検出動作を実行させることなく、露出制御を行うことを特徴とする請求項11〜請求項13のいずれか1つに記載の自動露出方法。
A face detection operation setting step in which a user sets permission / prohibition of the face detection operation in the face detection step,
In the exposure control step, when the permission of the face detection operation in the face detection step is set, the face detection operation is executed in the face detection step, and the first exposure control process or the second exposure control process is performed. while performing, when the prohibition of the face detection operation of the face detection process is set, the face detection process without executing the face detection operation, claim 11 and performing exposure control - The automatic exposure method according to claim 13 .
前記顔検出工程の顔検出動作を実行して露出制御を行う第1の撮影モードまたは前記顔検出工程の顔検出動作を実行しないで露出制御を行う第2の撮影モードを設定するためのモード設定工程を含み、
前記露出制御工程では、前記第1の撮影モードが設定されている場合には、前記顔検出工程に顔検出動作を実行させ、前記第1露出制御処理または前記第2露出制御処理を行う一方、前記第2の撮影モードが設定されている場合には、前記顔検出工程に顔検出動作を実行させることなく、露出制御を行うことを特徴とする請求項11〜請求項13のいずれか1つに記載の自動露出方法。
Mode setting for setting a first shooting mode for performing exposure control by performing a face detection operation in the face detection step or a second shooting mode for performing exposure control without performing a face detection operation in the face detection step Including steps,
In the exposure control step, when the first shooting mode is set, the face detection step performs a face detection operation, and the first exposure control process or the second exposure control process is performed. wherein when the second photographing mode is set, the face detection process without executing the face detection operation in any one of claims 11 to claim 13, characterized in that the exposure control The automatic exposure method described in 1.
前記顔検出工程による人物の顔の検出結果を使用者に報知する報知工程を含むことを特徴とする請求項11〜請求項15のいずれか1つに記載の自動露出方法。The automatic exposure method according to any one of claims 11 to 15, further comprising a notification step of notifying a user of a detection result of a human face in the face detection step. 請求項11〜請求項16のいずれか1つに記載の自動露出方法をコンピュータ実行させるためのプログラム。It claims 11 to program order to execute the automatic exposure method according to the computer in any one of claims 16.
JP2001304638A 2001-09-18 2001-09-28 Imaging apparatus, automatic exposure method, and program for computer to execute the method Expired - Fee Related JP4794786B2 (en)

Priority Applications (8)

Application Number Priority Date Filing Date Title
JP2001304638A JP4794786B2 (en) 2001-09-28 2001-09-28 Imaging apparatus, automatic exposure method, and program for computer to execute the method
US10/244,670 US7298412B2 (en) 2001-09-18 2002-09-17 Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US11/745,753 US7973853B2 (en) 2001-09-18 2007-05-08 Image pickup device, automatic focusing method, automatic exposure method calculating an exposure based on a detected face
US11/745,789 US7920187B2 (en) 2001-09-18 2007-05-08 Image pickup device that identifies portions of a face
US11/745,775 US7787025B2 (en) 2001-09-18 2007-05-08 Image pickup device that cuts out a face image from subject image data
US11/745,686 US7978261B2 (en) 2001-09-18 2007-05-08 Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US11/745,703 US7903163B2 (en) 2001-09-18 2007-05-08 Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program
US13/012,558 US8421899B2 (en) 2001-09-18 2011-01-24 Image pickup device, automatic focusing method, automatic exposure method, electronic flash control method and computer program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001304638A JP4794786B2 (en) 2001-09-28 2001-09-28 Imaging apparatus, automatic exposure method, and program for computer to execute the method

Publications (2)

Publication Number Publication Date
JP2003107555A JP2003107555A (en) 2003-04-09
JP4794786B2 true JP4794786B2 (en) 2011-10-19

Family

ID=19124532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001304638A Expired - Fee Related JP4794786B2 (en) 2001-09-18 2001-09-28 Imaging apparatus, automatic exposure method, and program for computer to execute the method

Country Status (1)

Country Link
JP (1) JP4794786B2 (en)

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4127521B2 (en) 2003-05-20 2008-07-30 富士フイルム株式会社 Digital camera and control method thereof
JP4154400B2 (en) 2004-04-01 2008-09-24 キヤノン株式会社 Imaging apparatus, control method thereof, and program
JP4572583B2 (en) 2004-05-31 2010-11-04 パナソニック電工株式会社 Imaging device
JP4040613B2 (en) 2004-08-31 2008-01-30 キヤノン株式会社 Imaging device
JP4679175B2 (en) * 2005-02-25 2011-04-27 富士通株式会社 Imaging system and control device
CN101010943B (en) 2005-04-26 2010-04-21 佳能株式会社 Image taking device and its controlling method
JP4537255B2 (en) * 2005-04-28 2010-09-01 富士フイルム株式会社 Imaging apparatus and imaging method
JP4527028B2 (en) * 2005-08-11 2010-08-18 富士フイルム株式会社 Imaging apparatus, imaging method, and program
JP2007065290A (en) 2005-08-31 2007-03-15 Nikon Corp Automatic focusing device
JP4429241B2 (en) 2005-09-05 2010-03-10 キヤノン株式会社 Image processing apparatus and method
JP4516503B2 (en) * 2005-09-07 2010-08-04 富士フイルム株式会社 Imaging system and control method thereof
JP4639271B2 (en) 2005-12-27 2011-02-23 三星電子株式会社 camera
JP4510768B2 (en) 2006-02-15 2010-07-28 富士フイルム株式会社 Imaging apparatus and method, and program
CN101317445B (en) 2006-02-20 2011-02-09 松下电器产业株式会社 Imaging device and imaging device body
JP4444218B2 (en) 2006-02-23 2010-03-31 富士フイルム株式会社 Brightness correction apparatus for moving picture, control method thereof and control program thereof
JP4567618B2 (en) 2006-02-23 2010-10-20 富士フイルム株式会社 Imaging apparatus and control method thereof
JP2007251532A (en) 2006-03-15 2007-09-27 Fujifilm Corp Imaging device and face area extraction method
JP4957030B2 (en) * 2006-03-15 2012-06-20 オムロン株式会社 Image processing apparatus, image processing method, and program
JP4656657B2 (en) 2006-07-31 2011-03-23 キヤノン株式会社 Imaging apparatus and control method thereof
JP4600684B2 (en) * 2006-08-18 2010-12-15 日本ビクター株式会社 Imaging apparatus and imaging method
JP2008070562A (en) 2006-09-13 2008-03-27 Canon Inc Imaging apparatus and exposure control method
JP4717766B2 (en) 2006-09-14 2011-07-06 キヤノン株式会社 Image display device, imaging device, image display method, storage medium, and program
JP4789776B2 (en) * 2006-11-02 2011-10-12 キヤノン株式会社 Imaging apparatus and imaging method
US7847830B2 (en) 2006-11-21 2010-12-07 Sony Ericsson Mobile Communications Ab System and method for camera metering based on flesh tone detection
JP5386793B2 (en) * 2006-12-11 2014-01-15 株式会社リコー Imaging apparatus and exposure control method for imaging apparatus
JP2008187317A (en) 2007-01-29 2008-08-14 Fujifilm Corp Photographing device and control method thereof, and program
US7885532B2 (en) 2007-02-08 2011-02-08 Canon Kabushiki Kaisha Image sensing apparatus with pre-flash and image sensing method for calculating flash illumination amount using degree of convergence
JP2008199486A (en) 2007-02-15 2008-08-28 Olympus Imaging Corp Single lens reflex type electronic imaging device
JP4976160B2 (en) 2007-02-22 2012-07-18 パナソニック株式会社 Imaging device
JP4711987B2 (en) 2007-03-14 2011-06-29 株式会社リコー Imaging apparatus and automatic exposure control method
JP4916355B2 (en) * 2007-03-20 2012-04-11 三洋電機株式会社 Aperture control apparatus and image processing apparatus
JP5061188B2 (en) 2007-07-09 2012-10-31 パナソニック株式会社 Digital single-lens reflex camera
JP4523629B2 (en) * 2007-10-17 2010-08-11 三菱電機株式会社 Imaging device
JP5430076B2 (en) * 2008-04-04 2014-02-26 キヤノン株式会社 Image processing apparatus and image processing method
JP4848400B2 (en) * 2008-07-17 2011-12-28 富士フイルム株式会社 Digital camera
JP5425424B2 (en) * 2008-07-22 2014-02-26 富士フイルム株式会社 Flash light emitting method and apparatus
JP2010072619A (en) * 2008-08-22 2010-04-02 Nikon Corp Exposure operation device and camera
JP5202245B2 (en) 2008-11-20 2013-06-05 キヤノン株式会社 Imaging apparatus and control method thereof
JP4831175B2 (en) * 2009-01-27 2011-12-07 ソニー株式会社 Imaging apparatus and imaging method
JP4577446B2 (en) * 2009-07-13 2010-11-10 パナソニック電工株式会社 Imaging device
JP5701136B2 (en) * 2011-04-15 2015-04-15 三菱電機株式会社 Image processing device
JP6070283B2 (en) * 2013-03-04 2017-02-01 株式会社リコー Imaging apparatus, exposure control method, and program
JP5665907B2 (en) * 2013-04-03 2015-02-04 キヤノン株式会社 Imaging apparatus and imaging method
JP6512810B2 (en) 2014-12-11 2019-05-15 キヤノン株式会社 Image pickup apparatus, control method and program
JP6459517B2 (en) 2015-01-06 2019-01-30 株式会社リコー Imaging device, video transmission device, and video transmission / reception system
CN109005366B (en) * 2018-08-22 2020-04-28 Oppo广东移动通信有限公司 Night scene shooting processing method and device for camera module, electronic equipment and storage medium
JP2022094145A (en) 2020-12-14 2022-06-24 キヤノン株式会社 Information processing device, image processing method, and program
CN115118885A (en) * 2022-08-23 2022-09-27 云丁网络技术(北京)有限公司 Image acquisition method and related equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3028003B2 (en) * 1992-01-08 2000-04-04 株式会社ニコン Automatic exposure control device
JPH05196989A (en) * 1992-01-22 1993-08-06 Fuji Photo Film Co Ltd Camera
JPH08136971A (en) * 1994-11-08 1996-05-31 Fuji Photo Film Co Ltd Photographing device and method for controlling exposure
JPH11136568A (en) * 1997-10-31 1999-05-21 Fuji Photo Film Co Ltd Touch panel operation-type camera

Also Published As

Publication number Publication date
JP2003107555A (en) 2003-04-09

Similar Documents

Publication Publication Date Title
JP4794786B2 (en) Imaging apparatus, automatic exposure method, and program for computer to execute the method
JP4870887B2 (en) Imaging apparatus, strobe control method, and program for computer to execute the method
JP2003107335A (en) Image pickup device, automatic focusing method, and program for making computer execute the method
JP5089405B2 (en) Image processing apparatus, image processing method, and imaging apparatus
JP4613724B2 (en) Imaging apparatus and imaging method
JP2006101466A (en) Digital still camera
JP4126721B2 (en) Face area extraction method and apparatus
JP2006211416A (en) Image processor and method
KR20150020720A (en) High dynamic range transition
JP2007295183A (en) Device, method, and program for reproducing image, and image sensing device
JP2008070562A (en) Imaging apparatus and exposure control method
GB2467391A (en) Self-timer photography
US20120081560A1 (en) Digital photographing apparatus and method of controlling the same
JP2004192129A (en) Method and device for extracting facial area
JP3530908B2 (en) Digital camera and image display device
JP2004201228A (en) Method and device for extracting face area
JP2011013683A (en) Imaging apparatus, auto focus method, and program for allowing computer to perform the method
JP2000155358A (en) Image pickup device, control method thereof and storage medium
JP2005167697A (en) Electronic camera having red-eye correction function
JP4732387B2 (en) Display device, display control method thereof, and imaging device
JP5316923B2 (en) Imaging apparatus and program thereof
JP2005026888A (en) Digital camera having function for displaying degree of camera-shake
JP5447286B2 (en) Imaging apparatus, automatic focusing method, and program for computer to execute the method
JP2008160701A (en) Camera and photographic control program for the camera
JP4841111B2 (en) Digital camera device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110408

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110610

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110726

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110727

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140805

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees