JP5386793B2 - 撮像装置および撮像装置の露出制御方法 - Google Patents

撮像装置および撮像装置の露出制御方法 Download PDF

Info

Publication number
JP5386793B2
JP5386793B2 JP2007116485A JP2007116485A JP5386793B2 JP 5386793 B2 JP5386793 B2 JP 5386793B2 JP 2007116485 A JP2007116485 A JP 2007116485A JP 2007116485 A JP2007116485 A JP 2007116485A JP 5386793 B2 JP5386793 B2 JP 5386793B2
Authority
JP
Japan
Prior art keywords
face
photometry
person
area
photometric
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007116485A
Other languages
English (en)
Other versions
JP2008170932A (ja
Inventor
康一 杉浦
学 山田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2007116485A priority Critical patent/JP5386793B2/ja
Priority to CN2007101996819A priority patent/CN101202841B/zh
Publication of JP2008170932A publication Critical patent/JP2008170932A/ja
Application granted granted Critical
Publication of JP5386793B2 publication Critical patent/JP5386793B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)

Description

本発明は、自動露光機能を有するデジタルスチルカメラ等の撮像装置および撮像装置の露出制御方法に関する。
デジタルスチカメラ等の撮像装置に用いられている露出決定方式としては、画面内の測光範囲を複数の測光エリアに分割し、各測光エリアの測光結果から露出を決定する多分割測光方式、画面の中央部に加重をおいて測光する中央重点測光方式、画面の中央部の数10%のみを測光する部分測光方式、画面の中央部の数%を測光するスポット測光方式等が従来より知られている。
ところで、露出決定方式が前記した多分割測光方式では、画面全体が適正な露光となるように露出制御するため、画面内の主要被写体が人物の顔のときに、背景の明るさが人物の顔に比べて大きな明暗差があると、人物の顔に対して適正露光が得られない場合がある。また、露出決定方式が前記した中央重点測光方式、部分測光方式、およびスポット測光方式では、画面内の測光エリアに主要被写体として人物の顔が位置するときは適正露光が得られるが、測光エリア外に人物の顔が位置するときは適正露光が得られない場合がある。
そこで、近年、光学系と撮像素子により撮像した被写体像に応じた画像データから人物の顔を検出する顔検出手段を備え、この顔検出手段で検出された人物の顔部の露光量を算出し、算出した露光量に基づいて人物の顔部が適正な露光となるように露出制御するデジタルスチカメラ等の撮像装置が提案されている(例えば、特許文献1参照)。
特開2003−107555号公報
ところで、前記特許文献1のように顔検出手段を備えているデジタルスチルカメラ等の撮像装置では、顔検出手段により検出した画面内の人物の顔部に対しては適正露光となるように露出制御を行うことができるが、この人物の胴体部の明るさが顔部に比べて大きな明暗差がある場合(例えば、顔が太陽に照らされて明るい状態で、胴体部が建物等の影になっている状態)には、人物の胴体部に対しては適正露光が得られない場合があった。
また、顔検出手段により人物の顔部を検出した場合、検出した顔部のエリアを測光エリアに設定し、この測光エリアでの測光結果に基づいて顔部の露光量を算出している。
しかしながら、従来では、顔部に設定された矩形状の測光エリアの角部付近が顔部の外側周囲に位置することにより、この顔部の外側周囲(顔周囲の背景部分)の明るさが顔部に比べて大きな明暗差がある場合には、顔周囲の背景部分の明るさの影響により顔部に対して適正露光が得られない場合があった。特に、検出した顔部が1つで、かつこの顔部のエリアが画面に対して小さい場合ほど、顔周囲の背景部分の明るさの影響を受け易くなる。
そこで、本発明は、撮像手段から出力された画像データから得られる画面内から顔検出手段により人物の顔部を検出した場合に、その胴体部も合わせて適正露光とすることができる撮像装置および撮像装置の露出制御方法を提供することを目的とする。更に、撮像手段から出力された画像データから得られる画面内から顔検出手段により人物の顔部を検出した場合に、顔周囲の背景部分等の明るさの影響を抑えて顔部を適正露光とすることができる撮像装置を提供することを目的とする。
前記目的を達成するために請求項1に記載の発明は、自動露光機能を備えた撮像装置において、被写体を撮像し、撮像した被写体像に応じた画像データを出力する撮像手段と、前記撮像手段から出力された画像データから得られる画面内から人物の顔を検出する顔検出手段と、前記顔検出手段により検出された人物の顔の部分を測光エリアとして測光する第1の測光手段と、前記顔検出手段により検出された人物の顔の上下方向を判断し、画面内における該人物の顔の上下方向の下側のエリアを測光エリアとして測光する第2の測光手段と、前記第1の測光手段の測光結果と前記第2の測光手段の測光結果との加重平均から露光量を算出する露出制御を行う露出制御手段と、を備えたことを特徴としている。
請求項1に記載の発明によれば、顔検出手段により検出された人物の顔の部分を測光エリアとして第1の測光手段で測光して、顔検出手段により検出された人物の顔の下側部を測光エリアとして第2の測光手段で測光し、露出制御手段で、第1の測光手段の測光結果と第2の測光手段の測光結果に基づいて露光量を算出し、算出した露光量に基づき露出制御を行うことにより、人物の顔とその下側部(胴体部)が適正露光となるように露出制御することができる。
請求項2、11に記載の発明は、第2の測光手段により測光を行う顔の下側部に対応した測光エリアを、顔検出手段により検出された前記画面内における人物の顔の大きさに連動させることを特徴としている。
請求項2、11に記載の発明によれば、画面内における人物の顔の大きさに連動して人物の下側部(胴体部)に対しても適切に測光することができる。
請求項3、12に記載の発明は、第2の測光手段により測光を行う顔の下方部に対応した測光エリアを、顔検出手段により検出された画面内における人物の顔の位置に連動させることを特徴としている。
請求項3、12に記載の発明によれば、画面内における人物の顔の位置に連動して人物の下側部(胴体部)に対しても適切に測光することができる。
請求項4、13に記載の発明は、露出制御手段が、第1の測光手段の測光結果と第2の測光手段の測光結果との加重平均から露光量を算出することを特徴としている。
請求項4、13に記載の発明によれば、第1の測光手段の測光結果と第2の測光手段の測光結果との加重平均から露光量を算出することにより、人物の顔部とその下側部(胴体部)に対してバランスの取れた露光を行うことができる。
請求項5、14に記載の発明は、画面内の、第1の測光手段により測光される測光エリアおよび第2の測光手段により測光される測光エリア以外を含む領域を測光エリアとする第3の測光手段を有し、露出制御手段は、第1の測光手段の測光結果と第2の測光手段の測光結果と第3の測光手段との測定結果に基づいて露光量を算出することを特徴としている。
請求項5、14に記載の発明によれば、第1の測光手段の測光結果と第2の測光手段の測光結果と第3の測光手段の測光結果とに基づいて露光量を算出することにより、人物の顔部とその下側部(胴体部)およびそれ以外の部分(背景)に対してバランスの取れた露光を行うことができる。
請求項6、15に記載の発明は、第3の測光手段により測光される測光エリアが画面全体であることを特徴としている。
請求項6、15に記載の発明によれば、画面内の人物の顔部とその下側部(胴体部)および背景に対してもバランスの取れた露光を行うことができる。
請求項7、16に記載の発明は、露出制御手段が、第1の測光手段の測光結果と第2の測光手段の測光結果と第3の測光手段との測定結果の加重平均から露光量を算出することを特徴としている。
請求項7、16に記載の発明によれば、第1の測光手段の測光結果と第2の測光手段の測光結果と第3の測光手段との測定結果の加重平均から露光量を算出することにより、人物の顔部とその下側部(胴体部)およびそれ以外の部分(背景)に対してもバランスの取れた露光を行うことができる。
請求項8、17に記載の発明は、顔検出手段により検出された人物の顔部の大きさに応じて、第1の測光手段の測光結果に対する重み付けを可変することを特徴としている。
請求項8、17に記載の発明によれば、人物の顔部の大きさに応じて、第1の測光手段の測光結果に対する重み付けを可変することにより、顔部を重点としたバランスの取れた露光を行うことができる。
請求項9、18に記載の発明は、顔検出手段により検出された人物の顔部の大きさに比例して、第1の測光手段の測光結果に対する重み付けを大きくすることを特徴としている。
請求項9、18に記載の発明によれば、人物の顔部の大きさに比例して、第1の測光手段の測光結果に対する重み付けを大きくすることにより、顔部に重点を置いた露光を行うことができる。
請求項に記載の発明は、自動露光機能を備えた撮像装置の露出制御方法において、被写体を撮像し、撮像した被写体像に応じた画像データを出力する撮像工程と、前記画像データから得られる画面内から人物の顔を検出する顔検出工程と、前記顔検出工程により検出された人物の顔の部分を測光エリアとして測光する第1の測光工程と、前記顔検出工程により検出された人物の顔の上下方向を判断し、画面内における該人物の顔の上下方向の下側のエリアを測光エリアとして測光する第2の測光工程と、前記第1の測光工程の測光結果と前記第2の測光工程の測光結果との加重平均から露光量を算出する露出制御を行う露出制御工程と、を含むことを特徴としている。
請求項10に記載の発明によれば、顔検出工程により検出された人物の顔の部分を測光エリアとして第1の測光工程で測光して、顔検出工程により検出された人物の顔の下側部を測光エリアとして第2の測光工程で測光し、露出制御工程で、第1の測光工程の測光結果と第2の測光工程の測光結果に基づいて露光量を算出し、算出した露光量に基づき露出制御を行うことにより、人物の顔とその下側部(胴体部)が適正露光となるように露出制御することができる。
本発明に係る撮像装置および撮像装置の露出制御方法によれば、被写体として人物が検出された場合に、人物の顔部およびその下側部(胴体部)に対して適正露光となるように露出制御することができる。
以下、本発明を図示の実施形態に基づいて説明する。
〈実施形態1〉
図1(a)は、本発明の実施形態1に係る撮像装置の一例としてのデジタルスチルカメラ(以下、「デジタルカメラ」という)を示す正面図、図1(b)は、その上面図、図1(c)は、その背面図、図2は、図1(a),(b),(c)に示したデジタルカメラ内部のシステム構成の概要を示すブロック図である。
(デジタルカメラの外観構成)
図1(a),(b),(c)に示すように、本発明の実施形態1に係るデジタルカメラの上面には、レリーズスイッチ(レリーズシャッタ)SW1、モードダイアルSW2、サブLCD(液晶)ディスプレイ1が配設されている。デジタルカメラの正面(被写体側)には、ストロボ発光部3、光学ファインダ4、測距ユニット5、リモコン受光部6、複数の光学系を含む鏡胴ユニット7が設けられている。
デジタルカメラの背面には、LCDモニタ10、AF(オートフォーカス)LED8、ストロボLED9、接眼レンズ側の前記光学ファインダ4、広角側ズームスイッチSW3、望遠側ズームスイッチSW4、セルフタイマの設定・解除スイッチSW5、メニュースイッチSW6、上移動・ストロボセットスイッチSW7、右移動スイッチSW8、ディスプレイスイッチSW9、下移動・マクロスイッチSW10、左移動・画像確認スイッチSW11、OKスイッチSW12、電源スイッチSW13、クイックアクセススイッチSW14が設けられている。また、デジタルカメラの側面には、メモリカード/電池装填室の蓋2が設けられている。
(デジタルカメラの内部のシステム構成〉
鏡胴ユニット7は、被写体の光学画像を取り込むズーム(ZOOM)レンズ71aとズーム(ZOOM)モータ71bからなるズーム(ZOOM)光学系71、フォーカス(FOUCS)レンズ72aとフォーカス(FOUCS)モータ72bからなるフォーカス(FOUCS)光学系72、絞り73aと絞りモータ73bからなる絞りユニット73、メカシャッタ74aとメカシャッタモータ74bからなるメカシャッタユニット74、前記各モータを駆動するモータドライバ75を有する。
モータドライバ75は、リモコン受光部6から入力したリモコン送信機(不図示)からの入力情報や操作部Keyユニット(SW1〜SW14)の操作入力に基づく、後述するデジタルカメラプロセッサ(以下、「プロセッサ」という)104内にあるCPUブロック104cからの駆動指令により駆動制御される。
ROM108には、CPUブロック104cにて解読可能なコードで記述された、制御プログラムや制御するためのパラメータが格納されている。このデジタルカメラの電源(電源スイッチSW13)がオン状態になると、前記プログラムは不図示のメインメモリにロードされ、前記CPUブロック104cはそのプログラムに従ってカメラ各部の動作を制御するとともに、制御に必要なデータ等を一時的にRAM107、及びプロセッサ104内にあるローカル(Local)SRAM104dに保存する。
ROM108に書き換え可能なフラッシュROMを使用することで、制御プログラムや制御するためのパラメータを変更することが可能となり、機能のバージョンアップが容易に行える。
CCD101は、光学画像を光電変換するための固体撮像素子であり、F/E(フロントエンド)−IC102は、CDS102a、AGC102b、A/D102c、TG102dを有する。CDS102aは画像ノイズ除去用相関二重サンプリングを行う。AGC102bは利得調整を行う。A/D102cはデジタル信号変換を行う。
TG102dはプロセッサ104内にあるCCD1制御ブロック104aより垂直同期信号(VD信号)と水平同期信号(HD信号)が供給されてプロセッサ104内にあるCPUブロック104cによって制御される、CCD101及びF/E−IC102の駆動タイミング信号を発生する。
プロセッサ104は、CCD101からF/E−IC102に出力された出力データにホワイトバランス設定やガンマ設定を行い、また前記VD信号、HD信号(VD−HD信号)を供給するCCD1信号処理ブロック104a、フィルタリング処理により輝度データ・色差データへの変換を行うCCD2信号処理ブロック104b、前述したカメラ各部の動作を制御するCPUブロック104c、前述した制御に必要なデータ等を一時的に保存するローカル(Local)SRAM104d、パソコンなどの外部機器とUSB通信を行うUSBブロック104e、パソコンなどの外部機器とシリアル通信を行うシリアルブロック104f、JPEG圧縮・伸張を行うJPEGCODECブロック104g、画像データのサイズを補間処理により拡大/縮小するRESIZEブロック104h、画像データを液晶モニタやTVなどの外部表示機器に表示するためのビデオ信号に変換するTV信号表示ブロック104i、撮影された画像データを記録するメモリカード124の制御を行うメモリカードコントローラブロック104jを有する。
SDRAM103は、プロセッサ104で画像データに各種処理を施す際に画像データを一時的に保存する。保存される画像データは、例えばCCD101からF/E−IC102を経由して取り込んで、CCD1信号処理ブロック104aでホワイトバランス設定、ガンマ設定が行われた状態の「RAW−RGB画像データ」、CCD2信号制御ブロック104bで輝度データ・色差データ変換が行われた状態の「YUV画像データ」、JPEGCODECブロック104gでJPEG圧縮された「JPEG画像データ」などである。
メモリカードスロットル121は、着脱可能なメモリカード124を装着するためのスロットルである。内蔵メモリ120は、メモリカードスロットル121にメモリカード124が装着されていない場合でも、撮影した画像データを記憶できるようにするためのメモリである。
LCDドライバ117は、LCDモニタ10を駆動するドライブ回路であり、TV信号表示ブロック104iから出力されたビデオ信号を、LCDモニタ10に表示するための信号に変換する機能も有している。LCDモニタ10は、撮影前に被写体の状態を監視する、撮影した画像を確認する、メモリカード124や内蔵メモリ120に記録した画像データを表示する、などを行うためのモニタである。
ビデオAMP118は、TV信号表示ブロック104iから出力されたビデオ信号を75Ωインピーダンス変換するためのアンプであり、ビデオジャック119は、TVなどの外部表示機器と接続するためのジャックである。USBコネクタ122は、パソコンなどの外部機器とUSB接続を行うためのコネクタである。
シリアルドライバ回路123aは、パソコンなどの外部機器とシリアル通信を行うために、シリアルブロック104fの出力信号を電圧変換するための回路であり、RS−232Cコネクタ123bは、パソコンなどの外部機器とシリアル接続を行うためのコネクタである。
SUB−CPU109は、ROM・RAMをワンチップに内蔵したCPUであり、操作Keyユニット(SW1〜SW14)やリモコン受光部6の出力信号を撮影者の操作情報として、CPUブロック104cに出力したり、CPUブロック104cより出力されるデジタルカメラの状態を、サブLCD1、AF(オートフォーカス)LED8、ストロボLED9、ブザー113への制御信号にそれぞれ変換して出力する。
サブLCD1は、例えば撮影可能枚数など表示するための表示部であり、LCDドライバ111は、SUB−CPU109の出力信号よりサブLCD1を駆動するためのドライブ回路である。AF(オートフォーカス)LED8は、撮影時の合焦状態を表示するためのLEDであり、ストロボLED9は、ストロボ充電状態を表すためのLEDである。
操作Keyユニット(SW1〜SW14)は、撮影者が操作するKey回路であり、リモコン受光部6は、撮影者が操作したリモコン送信機の信号の受信部である。
音声記録ユニット115は、撮影者が音声信号を入力するマイク115c、入力された音声信号を増幅するマイクAMP115b、増幅された音声信号を記録する音声記録回路115aからなる。音声再生ユニット116は、記録された音声信号をスピーカから出力できる信号に変換する音声再生回路116a、変換された音声信号を増幅しスピーカ116cを駆動するためのオーディオAMP116b、音声信号を出力するスピーカ116cからなる。
次に、前記デジタルカメラのAE(自動露光)動作について説明する。
レリーズシャッタSW1が半押しされてAE動作がオンされると、プロセッサ104のCPUブロック104cはAE動作を実行する。具体的には、例えば撮影者がモードダイアルSW2を操作して顔検出動作モードが設定された場合には、まず、顔検出処理を実行して画像データ内での人物の顔部の検出を行う。
具体的には、鏡胴ユニット7のズーム(ZOOM)光学系71とフォーカス(FOUCS)光学系72を通して被写体像がCCD101の受光面に結像し、CCD101から被写体像に応じて出力される画像データ信号は、前記したようにF/E−IC(CDS102a、AGC102b、A/D102c)102で処理されてプロセッサ104のCCD1信号処理ブロック104aに入力されて信号処理された後に、SDRAM103に書き込まれる。
CPUブロック104cは、SDRAM103に格納された画像データから公知の顔検出技術を使用して、被写体としての人物の顔を検出する。そして、画像データ内に人物の顔を検出した場合には、検出した人物の顔の部分を測光エリア(AEエリア)として測光し、AE評価値(測光結果)をCPUブロック104cにより算出する。そして、CPUブロック104cは、算出したこのAE評価値に基づき適正な露光量を算出して、算出したこの露光量に応じた露出条件(CCD101の電子シャッタ速度、絞り73aの絞り値、F/E−IC102のAGC102bのゲイン等)を設定して露出制御を行う。このように、本実施形態では、CPUブロック104cが、特許請求の範囲における顔検出手段、露出制御手段、第1、第2、第3の測光手段としての機能を有している。
前記AE評価値の算出方法を具体的に説明する。
図3は、CCD101の画面(画像フレーム)を複数のエリア(図3では、A1〜A256のエリア)に分割した場合の分割例を示している。図4は、図3の複数のエリアに分割された画面に表示された被写体像としての人物像を示した図である。なお、図3に示した画面は、LCDモニタ10の表示画面の大きさに略対応している。
プロセッサ104は、CCD101から入力された画像データ(各画素データ(R、G、B))に基づいて、測光の対象となる画面の各エリアA1〜A256(図3参照)毎に輝度データY1〜Y256を算出する。以下に各エリアでの輝度データの計算式を示す。下記計算式において、Rn、Gn、Bnは、各エリア内の各画素データ(R、G、B)の平均値を示している。
エリア1: Y1=0.299R1+0.587G1+0.114B1
エリア2: Y2=0.299R2+0.587G2+0.114B2


エリアn: Yn=0.299Rn+0.587Gn+0.114Bn
ここで、顔検出動作モードである場合に、顔部分の測光処理を行う場合には顔部分を含むエリアの輝度データを各々算出し、算出したエリアの輝度データの平均値を輝度データYf(AE評価値)とする。即ち、図4に示す例では、図3に示したエリアに対応したA71〜A73、A87〜A91、A103〜A107、A119〜123、A135〜A139、A151〜A155、A167〜A171、A183〜A187の各エリアの輝度データの平均値を輝度データYf(AE評価値)とする。
また、被写体としての人物の胴体部の測光処理を行う場合には、胴体部を含むエリアの輝度データを各々算出し、算出したエリアの輝度データの平均値を輝度データYb(AE評価値)とする。即ち、図4に示す例では、A198〜A204、A214〜220、A230〜A236、A246〜A252の各エリアの輝度データの平均値を輝度データYbody(AE評価値)とする。
そして、顔部分の重み付けをn1、胴体部の重み付けをn2(但し:n1≧n2、n1+n2=1)として、
輝度データYy(AE評価値)=Yface×n1+Ybody×n2
を算出する。
また、CCD101の複数のエリアに分割された画面全体を考慮する場合には、画面全体のエリアA1〜A256の輝度データを各々算出し、算出した全エリアの輝度データの平均値を輝度データYallとする。そして、顔部分の重み付けをn1、胴体部分の重み付けをn2、画面全体の重み付けをn3(但し:n1≧n2≧n3、n1+n2+n3=1)として、
輝度データYy(AE評価値)=Yface×n1+Ybody×n2+Yall×n3
を算出する。
なお、前記した顔検出動作モード以外の通常測光処理の場合には、中央重点測光方式(画面内の中央部の明るさに重点を置き、周囲の明るさを加味して輝度データを決定する方式)、部分測光方式(画面内のエリア内のみの輝度データの平均値だけで輝度データを決定する方式)、スポット測光方式(部分測光と同じ考え方であるが、測光エリアが小さく画面内の1〜2%程度である)、分割測光方式(画面を複数のエリアに分割しエリア毎に輝度の平均値を求め、それら輝度の分布パターンから輝度データを決定する方式)のうちのいずれかの方式を使用して輝度データYy(AE評価値)を算出する。
そして、プロセッサ104のCPUブロック104cは、ROM108に予め格納されている目標輝度データYxの値と、被写体を測光した算出結果である前記輝度データYyの値が一致した場合に、適正な露出(明るさ)であると判断し、算出した前記輝度データYyが目標輝度データYxになるような露光量を算出し、算出した露光量に基づいて、露光条件(CCD101の電子シャッタ速度、鏡胴ユニット7の絞り73aの絞り値(開口値)、CCD101の感度(F/E―IC102のアンプ回路のゲイン値))を設定する。
具体的には、CPUブロック104cは、輝度データYyの値を大きくするためには「CCD101の電子シャッタ速度を遅くする」、「絞り73aの大きさを大きくする」、「CCD101の感度を高くする」のいずれか(複数でもよい)を行う。一方、輝度データYyの値を小さくするには、上記とは逆のことを行う。
なお、CCD101の画面(画像フレーム)から被写体としての人物の顔を検出する方法としては、例えば以下に示す3つ((a)、(b)、(c))の手法が公知であり、これらのうちのいずれかの方法を用いてもよい。また、これら以外の公知の人物の顔部を検出する方法を用いてもよい。
(a)テレビジョン学会誌Vol.49、No.6、pp.787−797(1995)の「顔領域抽出に有効な修正HSV表色系の提案」に示されるように、カラー画像をモザイク画像化し、肌色領域に着目して顔領域を抽出する方法。
(b)電子情報通信学会誌Vol.74−D−II、No.11、pp.1625−1627(1991)の「静止濃淡情景画像からの顔領域を抽出する手法」に示されているように、髪や目や口など正面人物像の頭部を構成する各部分に関する幾何学的な形状特徴を利用して正面人物の頭部領域を抽出する方法。
(c)画像ラボ1991−11(1991)の「テレビ電話用顔領域検出とその効果」に示されるように、動画像の場合、フレーム間の人物の微妙な動きによって発生する人物像の輪郭エッジを利用して正面人物像を抽出する方法。
次に、被写体としての人物の顔部と胴体部に対して適正露光となるような本実施形態における露出制御を、図5に示すフローチャートを参照して説明する。
撮影者によりレリーズシャッタSW1が半押しされてAE動作がオン(レリーズON)されると(ステップS1)、プロセッサ104のCPUブロック104cは、モードダイアルSW2が撮影者の操作により顔検出動作モードに設定されているか否かを判断する(ステップS2)。
ステップS2で、顔検出動作モードに設定されていると判断した場合には(ステップS2:YES)、CPUブロック104cは、SDRAM103に格納されている画像データ(YUV画像データ)から例えば前記した公知の顔検出方法等を用いて、人物の顔検出処理を実行する(ステップS3)。なお、SDRAM103に格納されている画像データは、鏡胴ユニット7のズーム(ZOOM)光学系71とフォーカス(FOUCS)光学系72を通して被写体像がCCD101の受光面に結像し、CCD101から被写体像に応じて出力される画像データに対応している。
そして、ステップS4で、画像データから人物の顔部を検出した場合には(ステップS4:YES)、CPUブロック104cにより、LCDモニタ10に表示されている画像データに対応した被写体画像に対して人物の顔部に矩形の枠を表示させて、顔部が検出された旨を撮影者に報知する(ステップS5)。例えば、図6(a)に示すような被写体画像(人物(顔部と胴体部)と背景の山)がLCDモニタ10に表示されている場合には、図6(b)に示すように、検出した人物の顔部に矩形の枠Aを表示して、顔部が検出された旨を撮影者に報知する。
そして、検出した人物の顔部分(矩形の枠A)を測光エリア(AEエリア)として測光処理を行う(ステップS6)。ステップS6の測光処理では、顔部の輝度データYface(AE評価値)が算出される。
ステップS6で人物の顔部分を測光処理した後に、この顔部分の下側に位置する胴体部分を測光エリア(AEエリア)として測光処理を行う(ステップS7)。ステップS7の測光処理では、胴体部の輝度データYbody(AE評価値)が算出される。胴体部分の測光エリア(AEエリア)は、顔部分の測光エリア(AEエリア)に連動して決定される。
即ち、胴体部分の測光エリアは、顔部分の測光エリアの大きさ、位置によって可変される。具体的には、胴体部分の測光エリアの横幅は、顔部分の測光エリアの横幅に対して両端にそれぞれ1エリア広げた幅としている。また、胴体部分の測光エリアの縦幅は、顔部分に隣接したエリアから顔部分の縦幅の2倍分としている。ただし、画面の最下段のエリアに到達してしまう場合は、最下段エリアまでとする。なお、顔検出手段としてのCPUブロック104cは、検出した人物の顔部の上下方向も同時に検出できるように構成されており、人物が横なっていても顔部の向きを判断して、人物の胴体部を検出することができる。
例えば、図7(a),(b)に示すように、画面内における被写体である人物の顔部の大きさ(測光エリア(矩形の枠A1,A2))に応じて、その下の胴体部分の測光エリア(矩形の枠B1,B2)も変化する。また、例えば、図8(a),(b)に示すように、画面(画像フレーム)内における被写体である人物の顔部(測光エリア(矩形の枠A1,A2))の位置に応じて、その下の胴体部分の測光エリア(矩形の枠B1,B2)も変化する。
そして、ステップS6での顔部の測光結果(輝度データYface)とステップS7での胴体部の測光結果(輝度データYbody)とに基づき、CPUブロック104cにより、画面(画像フレーム)に占める顔部の割合(大きさ)によって顔部の測光結果(輝度データYfaceに重点を置いて(顔部の測光結果の重み付けを大きくして)、前記したようにして輝度データYy(AE評価値)を算出し、算出した輝度データYy(AE評価値)に基づき適正な露光量を算出する(ステップS8)。
そして、CPUブロック104cにより、ステップS8で算出した露光量に基づき露出条件を設定処理し(ステップS9)、設定した露出条件に応じてモータドライバ75を駆動して絞り73aを制御すると共に、CCD101の電子シャッタ速度を制御する。
なお、前記ステップS2において顔検出動作モードでないと判断した場合(ステップS2:NO)、および前記ステップS4において顔部を検出しなかった場合(ステップS4:NO)には、CPUブロック104cにより、設定している通常の測光処理(例えば、中央重点測光方式による測光処理)を実行して(ステップS10)、その測光結果に基づき露光量を算出し(ステップS11)、算出した露光量に基づき露出条件を設定処理する(ステップS9)。
このように、本実施形態に係るデジタルカメラ(撮像装置)によれば、被写体として人物の顔部を検出した場合には、検出した人物の顔部の大きさ・位置から胴体部を検出し、検出した人物の顔部および胴体部の測光結果に基づき露出制御を行うことにより、画面(画像フレーム)内における人物の範囲や位置に拘わらず、人物の顔部と胴体部を適正露光とすることが可能となる。
〈実施形態2〉
前記実施形態1では、画面(画像フレーム)内における被写体としての人物の顔部と胴体部に対して適正露光となるようにする場合であったが、本実施形態では、画面(画像フレーム)内における被写体としての人物の顔部と胴体部、および人物の顔部と胴体部以外の領域(即ち、画面(画像フレーム)全体)を考慮した場合である。なお、本実施形態におけるデジタルカメラも、図1〜図2に示した前記デジタルカメラと同様の構成である。
以下、被写体としての人物の顔部と胴体部、および人物の顔部と胴体部以外の領域(即ち、画面(画像フレーム)全体)に対して適正露光となるような本実施形態における露出制御を、図9に示すフローチャートを参照して説明する。
本実施形態においても、ステップS1〜S7までの処理は図5に示した実施形態1と同様であり、ステップS1〜S7までの処理については省略する。
ステップS7で人物の胴体部を測光エリア(AEエリア)として測光処理を行った後において、画面(画像フレーム)全体を測光エリア(AEエリア)として測光処理を行う(ステップS7a)。この測光処理では、輝度データYall(AE評価値)が算出される。
そして、ステップS6での顔部の測光結果(輝度データYface)とステップS7での胴体部の測光結果(輝度データYbody)と画面全体の測光結果(輝度データYall)とに基づき、CPUブロック104cにより、画面(画像フレーム)に占める顔部の割合(大きさ)によって顔部の測光結果(輝度データYface)に重点を置いて(顔部の測光結果の重み付けを大きくして)、輝度データYy(AE評価値)を算出し、算出した輝度データYy(AE評価値)に基づき適正な露光量を算出する(ステップS8a)。
そして、CPUブロック104cにより、ステップS8aで算出した露光量に基づき露出条件を設定処理し(ステップS9)、設定した露出条件に応じてモータドライバ75を駆動して絞り73aを制御すると共に、CCD101の電子シャッタ速度を制御する。
なお、本実施形態においても、前記ステップS2において顔検出動作モードでないと判断した場合(ステップS2:NO)、および前記ステップS4において顔部を検出しなかった場合(ステップS4:NO)には、CPUブロック104cにより、設定している通常の測光処理(例えば、中央重点測光方式による測光処理)を実行して(ステップS10)、その測光結果に基づき露光量を算出し(ステップS11)、算出した露光量に基づき露出条件を設定処理する(ステップS9)。
このように、本実施形態に係るデジタルカメラ(撮像装置)によれば、被写体として人物の顔部を検出した場合には、検出した人物の顔部の大きさ・位置から胴体部を検出し、検出した人物の顔部および胴体部、更に画面(画像フレーム)全体の測光結果に基づき露出制御を行うことにより、画面(画像フレーム)内における人物の範囲や位置に拘わらず、人物の顔部と胴体部を適正露光とすることが可能となり、かつ背景に対してもバランスのとれた露光を行うことが可能となる。
参考例1
参考例では、顔検出動作モード時に被写体画像の中から人物の顔部を検出した場合に、検出した人物の顔部を測光エリア(AEエリア)に設定する際において、エリア範囲を小さくして人物の顔部の内側に測光エリアが位置するようにした。なお、本参考例におけるデジタルカメラも、図1〜図2に示した前記デジタルカメラと同様の構成である
以下、本参考例における露出制御を、図10に示すフローチャートを参照して説明する。
撮影者によりレリーズシャッタSW1が半押しされてAE動作がオン(レリーズON)されると(ステップS21)、プロセッサ104のCPUブロック104cは、モードダイアルSW2が撮影者の操作により顔検出動作モードに設定されているか否かを判断する(ステップS22)。
ステップS22で、顔検出動作モードに設定されていると判断した場合には(ステップS22:YES)、CPUブロック104cは、SDRAM103に格納されている画像データ(YUV画像データ)から、例えば前記した公知の顔検出方法等を用いて、人物の顔検出処理を実行する(ステップS23)。なお、SDRAM103に格納されている画像データは、鏡胴ユニット7のズーム(ZOOM)光学系71とフォーカス(FOUCS)光学系72を通して被写体像がCCD101の受光面に結像し、CCD101から被写体像に応じて出力される画像データに対応している。
そして、ステップS24で、画像データから人物の顔部を検出した場合には(ステップS24:YES)、CPUブロック104cにより、LCDモニタ10に表示されている画像データに対応した被写体画像に対して人物の顔部に矩形の第1の枠を表示させるように制御を行い、顔部が検出された旨を撮影者に報知する(ステップS25)。
即ち、例えば、図11(a)に示すような被写体画像(人物(顔部と胴体部)と背景の山)がLCDモニタ10に表示されている場合には、図11(b)に示すように、検出した人物の顔部に矩形の第1の枠C1を表示して、顔部が検出された旨を撮影者に報知する。なお、この第1の枠C1は検出した人物の顔部全体を囲んでおり、第1の枠C1の各角部付近は人物の顔部の外側に位置している。
そして、本参考例では、図11(c)に示すように、CPUブロック104cにより、この第1の枠C1に対応するエリアの内側にこのエリア範囲よりも小さい矩形の第2の枠C2を表示させるように制御を行い、この第2の枠C2に対応するエリアを測光エリアとして設定する(ステップS26)。この第2の枠C2(測光エリア)は、検出した人物の顔部の内側に位置している。
次に、ステップS27で、第2の枠C2(測光エリア)で設定された人物の顔部の位置が画面の中央部付近であるか否かをCPUブロック104cにより判断し、例えば図11(c)のように、人物の顔部が画面の中央部付近に位置していると判断した場合には(ステップS27:YES)、人物の顔部の内側に設定した第2の枠C2を測光エリア(AEエリア)として測光処理を行う(ステップS28)。ステップS28の測光処理では、顔部の輝度データYface(AE評価値)が算出される。
そして、ステップS28での顔部の測光結果(輝度データYface)に基づき、CPUブロック104cにより適正な露光量を算出する(ステップS29)。
そして、CPUブロック104cにより、ステップS29で算出した露光量に基づき露出条件を設定処理し(ステップS30)、設定した露出条件に応じてモータドライバ75を駆動して絞り73aを制御すると共に、CCD101の電子シャッタ速度を制御する。
また、前記ステップS27において、第2の枠C2(測光エリア)で設定された人物の顔部の位置が画面の中央部付近でないと判断した場合には(ステップS27:NO)、CPUブロック104cの制御により、先ず人物の顔部の内側に設定した第2の枠C2を測光エリア(AEエリア)として測光処理を行い(ステップS31)、更に、画面全体の測光処理を行う(ステップS32)。
そして、ステップS31での顔部の測光結果(輝度データYface)とステップS32での画面全体の測光結果(輝度データYall)とに基づき、CPUブロック104cにより、画面(画像フレーム)に占める顔の割合(大きさ)によって顔部の測光結果(輝度データYface)に重点を置いて(顔部の測光結果の重み付けを大きくして)、輝度データYy(AE評価値)を算出し、算出した輝度データYy(AE評価値)に基づき適正な露光量を算出する(ステップS33)。
そして、CPUブロック104cにより、ステップS33で算出した露光量に基づき露出条件を設定処理し(ステップS30)、設定した露出条件に応じてモータドライバ75を駆動して絞り73aを制御すると共に、CCD101の電子シャッタ速度を制御する。
また、前記ステップS22において顔検出動作モードでないと判断した場合(ステップS22:NO)、および前記ステップS24において顔部を検出しなかった場合には(ステップS24:NO)、CPUブロック104cにより、設定している通常の測光処理(例えば、中央重点測光方式による測光処理)を実行して(ステップS34)、その測光結果に基づき露光量を算出し(ステップS35)、算出した露光量に基づき露出条件を設定処理する(ステップS30)。
このように、本参考例に係るデジタルカメラ(撮像装置)によれば、顔検出動作モード時に被写体画像の中から人物の顔部を検出した場合に、検出した人物の顔部を測光エリア(AEエリア)に設定する際において、エリア範囲を小さくして人物の顔部の内側に測光エリアが位置するようにしたことにより、顔部の外側周囲(顔周囲の背景部分)の明るさが顔部分に比べて大きな明暗差がある場合においても、顔周囲の背景部分の明るさに影響されることなく、人物の顔部を適正露光とすることができる。
更に、顔検出動作モード時に被写体画像の中から人物の顔部を検出した場合に、検出した人物の顔部が画面の中央部付近に位置していない場合でも、人物の顔部を適正露光とすることが可能となり、かつ背景に対してもバランスのとれた露光を行うことが可能となる。
なお、本参考例において、例えば、図12に示すような被写体画像(人物(顔部と胴体部)と背景の山)がLCDモニタ10に表示されている場合に、検出した人物の顔部に矩形の第1の枠C1を表示し、CPUブロック104cにより、この第1の枠C1に対応するエリアの内側にこのエリア範囲よりも小さく、かつ第1の枠C1内の上部側を除くように設定された矩形の第2の枠C3を表示させるように制御を行い、この第2の枠C3に対応するエリアを測光エリアとして設定するようにしてもよい。この第2の枠C3は、検出した人物の顔部の上部側を除く部分に位置している。
参考例2
参考例では、顔検出動作モード時に被写体画像の中から人物の顔部を検出した場合に、検出した人物の顔部の大きさが予め設定した設定サイズよりも小さいときは、検出した人物の顔部を測光することなく予め設定している通常の測光処理を行うようにした。なお、本参考例におけるデジタルカメラも、図1〜図2に示した前記デジタルカメラと同様の構成である
以下、本参考例における露出制御を、図13に示すフローチャートを参照して説明する。
なお、ステップS21〜S24までの処理は、図10に示した参考例1と同様である。本参考例では、ステップS24で、画像データから人物の顔部を検出した場合には(ステップS24:YES)、CPUブロック104cにより、検出した顔部の大きさが予め設定した設定サイズよりも大きいか否かを判断する(ステップS24a)。
そして、ステップS24aで、検出した顔部の大きさが予め設定した設定サイズよりも大きいと判断した場合には(ステップS24a:YES)、CPUブロック104cにより、LCDモニタ10に表示されている画像データに対応した被写体画像に対して人物の顔部に矩形の第1の枠(図11(c)参照)を表示させるように制御を行い、顔部が検出された旨を撮影者に報知する(ステップS25)。
また、ステップS24aで、検出した顔部の大きさが予め設定した設定サイズよりも小さいと判断した場合には(ステップS24a:NO)、検出した顔部の数が複数であるか否かを判断する(ステップS24b)。ステップS24bで、検出した顔部の数が複数であると判断した場合には(ステップS24b:YES)、CPUブロック104cにより、例えば、図14に示すように、LCDモニタ10に表示されている画像データに対応した被写体画像に対して、検出した複数(図14では2個)の人物の顔部に矩形の枠(第1の枠)Dをそれぞれ表示させるように制御を行い、複数の顔部が検出された旨を撮影者に報知する(ステップS25)。
以下、ステップS26〜S33までの処理は、図10に示した参考例1と同様である。
また、前記ステップS22において顔検出動作モードでないと判断した場合(ステップS22:NO)、前記ステップS24において顔部を検出しなかった場合(ステップS24:NO)、および前記ステップS24bにおいて検出した顔部の数が複数でない(顔部が1つ)場合(ステップS24b:NO)には、CPUブロック104cにより、設定している通常の測光処理(例えば、中央重点測光方式による測光処理)を実行して(ステップS34)、その測光結果に基づき露光量を算出し(ステップS35)、算出した露光量に基づき露出条件を設定処理する(ステップS30)。
このように、本参考例に係るデジタルカメラ(撮像装置)によれば、顔検出動作モード時に被写体画像の中から人物の顔部を検出した場合に、検出した人物の顔部の大きさが小さく、かつ顔部が1つのときは、検出した顔部を測光することなく予め設定している通常の測光処理に基づいて露光量を算出することにより、顔部の外側周囲(顔周囲の背景部分)の明るさが顔部に比べて大きな明暗差がある場合においても、顔周囲の背景部分の明るさの影響を抑えた露出制御を行うことができる。
また、顔検出動作モード時に被写体画像の中から人物の顔部を検出した場合に、検出した人物の顔部の大きさが小さくても、検出した顔部が複数のときは、検出した複数の顔部を測光エリアとすることにより、複数の人物の顔部を適正露光とすることができる。
(a)は、本発明の実施形態1、2、及び参考例1、2に係る撮像装置の一例としてのデジタルカメラを示す正面図、(b)は、その上面図、(c)は、その背面図。 本発明の実施形態1、2、及び参考例1、2に係る撮像装置の一例としてのデジタルカメラ内部のシステム構成の概要を示すブロック図。 CCDの画面(画像フレーム)を複数のエリアに分割した状態を示す図。 CCDの複数のエリアに分割された画面(画像フレーム)に入力された被写体としての人物の画像データの一例を示す図。 本発明の実施形態1における露出制御を示すフローチャート。 (a)は、LCDモニタに表示された被写体画像(人物(顔部と胴体部)と背景の山)を示す図、(b)は、検出した人物の顔部に矩形の枠を表示した図。 (a),(b)は、画面中における被写体である人物の顔部の大きさに応じて胴体部の測光エリアが変化している状態を示した図。 (a),(b)は、画面中における被写体である人物の顔部の位置に応じて胴体部の測光エリアが変化している状態を示した図。 本発明の実施形態2における露出制御を示すフローチャート。 本発明の参考例1における露出制御を示すフローチャート。 (a)は、LCDモニタに表示された被写体画像(人物(顔部と胴体部)と背景の山)を示す図、(b)は、検出した人物の顔部に第1の枠を表示した図、(c)は、第1の枠に対応するエリアの内側にこのエリア範囲よりも小さい第2の枠を表示した図。 検出した人物の顔部に表示した第1の枠に対応するエリアの内側に、このエリア範囲よりも小さく、かつ第1の枠内の上部側を除くように設定された第2の枠を表示した図。 本発明の参考例2における露出制御を示すフローチャート。 検出した顔部の大きさが予め設定した設定サイズよりも小さく、かつ検出した顔部の数が複数の場合に、検出した複数の人物の顔部に枠をそれぞれ表示した図。
符号の説明
1 サブLCDディスプレイ
7 鏡胴ユニット
10 LCDモニタ
101 CCD(撮像手段)
103 SDRAM
104 デジタルカメラプロセッサ
104c CPUブロック(顔検出手段、露出制御手段、第1,2,3の測光手段、測光エリア設定手段、測光手段)

Claims (14)

  1. 自動露光機能を備えた撮像装置において、
    被写体を撮像し、撮像した被写体像に応じた画像データを出力する撮像手段と、
    前記撮像手段から出力された画像データから得られる画面内から人物の顔を検出する顔検出手段と、
    前記顔検出手段により検出された人物の顔の部分を測光エリアとして測光する第1の測光手段と、
    前記顔検出手段により検出された人物の顔の上下方向を判断し、画面内における該人物の顔の上下方向の下側のエリアを測光エリアとして測光する第2の測光手段と、
    前記第1の測光手段の測光結果と前記第2の測光手段の測光結果との加重平均から露光量を算出する露出制御を行う露出制御手段と、を備えた、
    ことを特徴とする撮像装置。
  2. 前記第2の測光手段により測光を行う顔の下側部に対応した測光エリアを、前記顔検出手段により検出された前記画面内における人物の顔の大きさに連動させる、
    ことを特徴とする請求項1に記載の撮像装置。
  3. 前記第2の測光手段により測光を行う顔の下方部に対応した測光エリアを、前記顔検出手段により検出された前記画面内における人物の顔の位置に連動させる、
    ことを特徴とする請求項1に記載の撮像装置。
  4. 自動露光機能を備えた撮像装置において、
    被写体を撮像し、撮像した被写体像に応じた画像データを出力する撮像手段と、
    前記撮像手段から出力された画像データから得られる画面内から人物の顔を検出する顔検出手段と、
    前記顔検出手段により検出された人物の顔の部分を測光エリアとして測光する第1の測光手段と、
    前記顔検出手段により検出された人物の顔の上下方向を判断し、画面内における該人物の顔の上下方向の下側のエリアを測光エリアとして測光する第2の測光手段と、
    前記画面内の、前記第1の測光手段により測光される測光エリアおよび前記第2の測光手段により測光される測光エリア以外を含む領域を測光エリアとする第3の測光手段と、
    前記第1の測光手段の測光結果と前記第2の測光手段の測光結果と前記第3の測光手段の測定結果との加重平均から露光量を算出する露出制御手段と、を備えた、
    ことを特徴とする撮像装置。
  5. 前記第3の測光手段により測光される測光エリアは、前記画面全体である、
    ことを特徴とする請求項に記載の撮像装置。
  6. 前記顔検出手段により検出された人物の顔の大きさ応じて、前記第1の測光手段の測光結果に対する重み付けを可変する、
    ことを特徴とする請求項又はに記載の撮像装置。
  7. 前記顔検出手段により検出された人物の顔の大きさに比例して、前記第1の測光手段の測光結果に対する重み付けを大きくする、
    ことを特徴とする請求項又はに記載の撮像装置。
  8. 自動露光機能を備えた撮像装置の露出制御方法において、
    被写体を撮像し、撮像した被写体像に応じた画像データを出力する撮像工程と、
    前記画像データから得られる画面内から人物の顔を検出する顔検出工程と、
    前記顔検出工程により検出された人物の顔の部分を測光エリアとして測光する第1の測光工程と、
    前記顔検出工程により検出された人物の顔の上下方向を判断し、画面内における該人物の顔の上下方向の下側のエリアを測光エリアとして測光する第2の測光工程と、
    前記第1の測光工程の測光結果と前記第2の測光工程の測光結果との加重平均から露光量を算出する露出制御を行う露出制御工程と、を含む、
    ことを特徴とする撮像装置の露出制御方法。
  9. 前記第2の測光工程により測光を行う顔の下側部に対応した測光エリアを、前記顔検出工程により検出された前記画面内における人物の顔の大きさに連動させる、
    ことを特徴とする請求項に記載の撮像装置の露出制御方法。
  10. 前記第2の測光工程により測光を行う顔の下側部に対応した測光エリアを、前記顔検出工程により検出された前記画面内における人物の顔の位置に連動させる、
    ことを特徴とする請求項に記載の撮像装置の露出制御方法。
  11. 自動露光機能を備えた撮像装置の露出制御方法において、
    被写体を撮像し、撮像した被写体像に応じた画像データを出力する撮像工程と、
    前記画像データから得られる画面内から人物の顔を検出する顔検出工程と、
    前記顔検出工程により検出された人物の顔の部分を測光エリアとして測光する第1の測光工程と、
    前記顔検出工程により検出された人物の顔の上下方向を判断し、画面内における該人物の顔の上下方向の下側のエリアを測光エリアとして測光する第2の測光工程と、
    前記画面内の、前記第1の測光工程により測光される測光エリアおよび前記第2の測光工程により測光される測光エリア以外を含む領域を測光エリアとする第3の測光工程と、
    前記第1の測光工程の測光結果と前記第2の測光工程の測光結果と前記第3の測光工程の測定結果との加重平均から露光量を算出する露出制御工程と、を含む、
    ことを特徴とする撮像装置の露出制御方法。
  12. 前記第3の測光工程により測光される測光エリアは、前記画面全体である、
    ことを特徴とする請求項11に記載の撮像装置の露出制御方法。
  13. 前記顔検出工程により検出された人物の顔の大きさ応じて、前記第1の測光工程の測光結果に対する重み付けを可変する、
    ことを特徴とする請求項又は11に記載の撮像装置の露出制御方法。
  14. 前記顔検出工程により検出された人物の顔の大きさに比例して、前記第1の測光工程の測光結果に対する重み付けを大きくする、
    ことを特徴とする請求項又は11に記載の撮像装置の露出制御方法。
JP2007116485A 2006-12-11 2007-04-26 撮像装置および撮像装置の露出制御方法 Expired - Fee Related JP5386793B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2007116485A JP5386793B2 (ja) 2006-12-11 2007-04-26 撮像装置および撮像装置の露出制御方法
CN2007101996819A CN101202841B (zh) 2006-12-11 2007-12-11 摄像装置以及用于摄像装置的曝光控制方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2006333035 2006-12-11
JP2006333035 2006-12-11
JP2007116485A JP5386793B2 (ja) 2006-12-11 2007-04-26 撮像装置および撮像装置の露出制御方法

Publications (2)

Publication Number Publication Date
JP2008170932A JP2008170932A (ja) 2008-07-24
JP5386793B2 true JP5386793B2 (ja) 2014-01-15

Family

ID=39517780

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007116485A Expired - Fee Related JP5386793B2 (ja) 2006-12-11 2007-04-26 撮像装置および撮像装置の露出制御方法

Country Status (2)

Country Link
JP (1) JP5386793B2 (ja)
CN (1) CN101202841B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4243402A4 (en) * 2020-11-09 2024-09-18 Canon Kk INFORMATION PROCESSING DEVICE, IMAGE CAPTURE DEVICE, PROGRAM, STORAGE MEDIUM AND METHOD

Families Citing this family (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4711987B2 (ja) 2007-03-14 2011-06-29 株式会社リコー 撮像装置および自動露出制御方法
JP2010016664A (ja) * 2008-07-04 2010-01-21 Hitachi Ltd 撮像装置
JP4831175B2 (ja) * 2009-01-27 2011-12-07 ソニー株式会社 撮像装置及び撮像方法
JP2010204304A (ja) * 2009-03-02 2010-09-16 Panasonic Corp 撮像装置、運転者監視装置および顔部測距方法
JP5500915B2 (ja) * 2009-08-31 2014-05-21 キヤノン株式会社 撮像装置及び露出制御方法
JP5451316B2 (ja) * 2009-10-28 2014-03-26 キヤノン株式会社 撮像装置及び発光制御方法
JP5978639B2 (ja) * 2012-02-06 2016-08-24 ソニー株式会社 画像処理装置、画像処理方法、プログラム、及び記録媒体
JP5647209B2 (ja) * 2012-11-07 2014-12-24 オリンパスイメージング株式会社 撮像装置及び撮像方法
CN103491314A (zh) * 2013-10-14 2014-01-01 旗瀚科技有限公司 一种图像传感器的测光方法及装置
CN104869319B (zh) * 2014-02-20 2018-09-04 华硕电脑股份有限公司 影像处理方法及影像处理装置
TWI505233B (zh) 2014-02-20 2015-10-21 Asustek Comp Inc 影像處理方法及影像處理裝置
US9674454B2 (en) 2014-07-31 2017-06-06 Xiaomi Inc. Light metering methods and devices
CN104219518B (zh) * 2014-07-31 2018-09-18 小米科技有限责任公司 测光方法及装置
CN104394326A (zh) * 2014-11-10 2015-03-04 广东欧珀移动通信有限公司 一种测光方法及终端
CN104735362B (zh) * 2015-03-11 2017-11-07 广东欧珀移动通信有限公司 拍照方法和装置
CN105516613A (zh) * 2015-12-07 2016-04-20 凌云光技术集团有限责任公司 基于人脸识别的智能曝光方法及系统
CN106131518A (zh) * 2016-06-30 2016-11-16 东莞市中控电子技术有限公司 一种图像处理的方法以及图像处理装置
CN106303250A (zh) * 2016-08-26 2017-01-04 维沃移动通信有限公司 一种图像处理方法及移动终端
CN107018323B (zh) * 2017-03-09 2019-07-12 Oppo广东移动通信有限公司 控制方法、控制装置和电子装置
CN107370940B (zh) * 2017-06-16 2019-08-02 Oppo广东移动通信有限公司 图像获取方法、装置及终端设备
CN107241557A (zh) * 2017-06-16 2017-10-10 广东欧珀移动通信有限公司 图像曝光方法、装置、摄像设备及存储介质
CN108200352B (zh) * 2017-12-27 2021-03-05 上海营湾医疗科技有限公司 一种调解图片亮度的方法、终端及存储介质
CN109068067B (zh) * 2018-08-22 2020-06-12 Oppo广东移动通信有限公司 曝光控制方法、装置和电子设备
CN110971814B (zh) * 2018-09-30 2022-03-04 北京微播视界科技有限公司 一种拍摄调整方法、装置、电子设备及存储介质
CN110971812B (zh) * 2018-09-30 2022-03-04 北京微播视界科技有限公司 一种拍摄方法、装置、电子设备及存储介质
CN111182199B (zh) * 2018-11-13 2022-02-11 深圳富泰宏精密工业有限公司 电子装置及拍照方法
CN110062155A (zh) * 2019-03-25 2019-07-26 成都品果科技有限公司 一种基于自动测光的人像拍照优化系统、方法和装置
US11687635B2 (en) 2019-09-25 2023-06-27 Google PLLC Automatic exposure and gain control for face authentication
CN110572580B (zh) * 2019-10-10 2020-11-03 珠海格力电器股份有限公司 一种适于移动终端的拍照方法及移动终端
CN113544692B (zh) 2019-10-10 2024-09-06 谷歌有限责任公司 用于面部认证的摄像头同步和图像标记
CN113163101B (zh) * 2020-01-22 2023-02-28 浙江宇视科技有限公司 图像曝光调整方法、装置、设备和介质
EP3883236A1 (en) * 2020-03-16 2021-09-22 Canon Kabushiki Kaisha Information processing apparatus, imaging apparatus, method, and storage medium
JP2022094145A (ja) * 2020-12-14 2022-06-24 キヤノン株式会社 情報処理装置、画像処理方法、およびプログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3343921B2 (ja) * 1991-08-06 2002-11-11 ミノルタ株式会社 人物適応露出制御装置
JP2000148980A (ja) * 1998-11-12 2000-05-30 Fuji Photo Film Co Ltd 画像処理方法、画像処理装置及び記録媒体
JP2002298138A (ja) * 2001-03-29 2002-10-11 Minolta Co Ltd 人物検出装置及びこの装置を備えた撮影装置
JP4794786B2 (ja) * 2001-09-28 2011-10-19 株式会社リコー 撮像装置、自動露出方法、およびその方法をコンピュータが実行するためのプログラム
JP2006270218A (ja) * 2005-03-22 2006-10-05 Nikon Corp 電子カメラおよび電子カメラシステム
JP4537255B2 (ja) * 2005-04-28 2010-09-01 富士フイルム株式会社 撮像装置および撮像方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4243402A4 (en) * 2020-11-09 2024-09-18 Canon Kk INFORMATION PROCESSING DEVICE, IMAGE CAPTURE DEVICE, PROGRAM, STORAGE MEDIUM AND METHOD

Also Published As

Publication number Publication date
CN101202841A (zh) 2008-06-18
CN101202841B (zh) 2010-07-21
JP2008170932A (ja) 2008-07-24

Similar Documents

Publication Publication Date Title
JP5386793B2 (ja) 撮像装置および撮像装置の露出制御方法
US7961228B2 (en) Imaging apparatus and method for controlling exposure by determining backlight situations and detecting a face
JP5144422B2 (ja) 撮影装置及び撮影方法
TWI524709B (zh) 影像擷取設備、影像擷取設備之控制方法及電子裝置
JP4904243B2 (ja) 撮像装置及び撮像制御方法
US9426437B2 (en) Image processor performing noise reduction processing, imaging apparatus equipped with the same, and image processing method for performing noise reduction processing
JP4824586B2 (ja) 撮像装置
JP5219268B2 (ja) 撮像装置およびフラッシュの制御方法
KR20120071192A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP5156991B2 (ja) 撮像装置、撮像方法および撮像プログラム
JP2009010616A (ja) 撮像装置および画像出力制御方法
KR20120025341A (ko) 디지털 촬영 장치 및 이의 제어 방법
JP2007325145A (ja) 画像処理装置および方法並びにプログラム
KR20120080376A (ko) 디지털 영상 촬영 장치 및 이의 제어 방법
JP5048599B2 (ja) 撮像装置
JP2014179920A (ja) 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP2008108024A (ja) 画像処理装置および撮像装置
WO2014188647A1 (ja) 画像調整装置、画像調整方法、画像調整プログラムおよび撮像装置
JP2008172395A (ja) 撮像装置、画像処理装置、方法およびプログラム
JP5392336B2 (ja) 撮像装置、撮像方法および撮像プログラム
KR20110125077A (ko) 디지털 촬영 장치, 그 제어 방법, 및 컴퓨터 판독가능 저장매체
JP5202245B2 (ja) 撮像装置およびその制御方法
JP4714561B2 (ja) 撮像装置および撮像方法
JP2006318260A (ja) 画像処理装置およびその方法
JP5799550B2 (ja) 撮像装置、撮像方法および撮像プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20091202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130416

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130923

R151 Written notification of patent or utility model registration

Ref document number: 5386793

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees