JP2010226749A - 撮像装置及びそのプログラム - Google Patents

撮像装置及びそのプログラム Download PDF

Info

Publication number
JP2010226749A
JP2010226749A JP2010114481A JP2010114481A JP2010226749A JP 2010226749 A JP2010226749 A JP 2010226749A JP 2010114481 A JP2010114481 A JP 2010114481A JP 2010114481 A JP2010114481 A JP 2010114481A JP 2010226749 A JP2010226749 A JP 2010226749A
Authority
JP
Japan
Prior art keywords
subject
predetermined
detected
area
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010114481A
Other languages
English (en)
Other versions
JP5126285B2 (ja
JP2010226749A5 (ja
Inventor
Takeshi Iwamoto
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010114481A priority Critical patent/JP5126285B2/ja
Publication of JP2010226749A publication Critical patent/JP2010226749A/ja
Publication of JP2010226749A5 publication Critical patent/JP2010226749A5/ja
Application granted granted Critical
Publication of JP5126285B2 publication Critical patent/JP5126285B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)

Abstract

【課題】 被写体の向きを考慮した撮影を行なうことができる撮像装置及びそのプログラムを実現する。
【解決手段】 撮像タイミングが到来すると(S1でY)、撮像処理を行い(S2)、顔検出部23に、該撮像された画像データに対して顔検出処理を行なわせる(S3)。そして、該検出された顔の向きの方向を長めにとった一定領域32に対して顔検出を行なうように顔検出部23を制御する(S4)。この制御により、次回の顔検出は、該制御に従った顔検出を行なうことになる。そして、該検出された顔領域から該顔の向きの方向にずらした領域を予測領域33として特定し(S5)、該特定された予測領域33を測光領域としてAE処理を行う(S6)。次いで、該撮像されたフレーム画像データを記録し(S7)、動画撮像記録が終了していない場合はステップS1に戻り上記した動作を繰り返す。
【選択図】 図2

Description

本発明は、撮像装置及びそのプログラムに関する。
撮像装置、たとえば、カメラにおいて、顔の向きを検出するという技術がある。
公開特許公報 特開2007−280374
しかしながら、上記特許文献1の技術によれば、顔の向きを検出しても、撮影する際に、顔の向きを考慮した撮影制御を行なうということはされていなかった。
そこで本発明は、被写体の向きを考慮した撮像制御を行なうことができる撮像装置及びそのプログラムを提供することを目的とする。
上記目的達成のため、被写体を撮像する撮像手段と、前記撮像手段により撮像された画像データ内にある所定の被写体の向きを検出する被写体向き検出手段と、前記被写体向き検出手段により検出された所定の被写体の向きに基づいて、撮像のための所定の制御を行う制御手段とを備えたことを特徴とする。
また、例えば、請求項2に記載されているように、前記所定の制御は、露出制御を含むようにしてもよい。
また、例えば、請求項3に記載されているように、前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、前記所定の制御は、前記被写体検出手段の制御を含むようにしてもよい。
また、例えば、請求項4に記載されているように、前記制御手段は、前記被写体向き検出手段により検出された向きの方向に基づく所定領域を重視した所定の制御を行うようにしてもよい。
また、例えば、請求項5に記載されているように、前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、前記制御手段は、前記被写体検出手段により検出された所定の被写体の領域から、前記被写体向き検出手段により検出された向きの方向にずらした領域を所定領域とするようにしてもよい。
また、例えば、請求項6に記載されているように、前記制御手段は、前記被写体向き検出手段により検出された所定の被写体の向きに応じて、前記所定領域をずらす量を変えるようにしてもよい。
また、例えば、請求項7に記載されているように、前記被写体検出手段により検出された所定の被写体の移動量を検出する移動量検出手段を更に備え、前記制御手段は、前記移動量検出手段により検出された移動量に応じて前記所定領域をずらす量を変えるようにしてもよい。
また、例えば、請求項8に記載されているように、前記制御手段は、前記被写体向き検出手段により検出された所定の被写体の向きに応じて、前記所定領域の大きさを変えるようにしてもよい。
また、例えば、請求項9に記載されているように、前記被写体検出手段により検出された所定の被写体の移動量を検出する移動量検出手段を更に備え、前記制御手段は、前記移動量検出手段により検出された移動量に応じて前記所定領域の大きさを変えるようにしてもよい。
また、例えば、請求項10に記載されているように、前記制御手段は、前記所定領域を重視して露出条件を算出し、該算出した露出条件に基づいて露出制御するようにしてもよい。
また、例えば、請求項11に記載されているように、前記制御手段は、前記所定領域を測光領域として露出条件を算出するようにしてもよい。
また、例えば、請求項12に記載されているように前記制御手段は、前記撮像手段により撮像された画像データの全領域を測光領域として露出条件を算出するとともに、前記所定領域を重みづけして露出制御を行うようにしてもよい。
また、例えば、請求項13に記載されているように、前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、前記制御手段は、前記被写体検出手段により検出された所定の被写体が前記所定領域に入った場合に、前記算出した露出条件に基づいて露出制御するようにしてもよい。
また、例えば、請求項14に記載されているように、前前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、前記制御手段は、前記所定領域を重視して、次回の前記被写体検出手段による所定の被写体の検出を制御するようにしてもよい。
また、例えば、請求項15に記載されているように、前記制御手段は、前記所定領域内にある該所定の被写体を検出させるように、前記被写体検出手段を制御するようにしてもよい。
また、例えば、請求項16に記載されているように、前記被写体検出手段は、所定の被写体の特徴データと所定値以上で一致する領域を所定の被写体として検出し、前記制御手段は、前記被写体向き検出手段によって検出された被写体の向きの方向に基づいて、次回の前記被写体検出手段における検出の際の、前記所定領域外の領域における被写体検出の所定値が該所定領域における被写体検出の所定値よりも高い値となるように制御するようにしてもよい。
また、例えば、請求項17に記載されているように、前記制御手段は、前記被写体向き検出手段により検出された所定の被写体の向きに応じて、フォーカスレンズのサーチ移動範囲又は移動方向を変えて、該検出された所定の被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御するようにしてもよい。
また、例えば、請求項18に記載されているように、前記被写体向き検出手段により検出された複数の所定の被写体の各向きに基づいて前記所定領域を特定する手段を備え、該特定された前記所定領域を重視した所定の制御を行うようにしてもよい。
また、例えば、請求項19に記載されているように、前記所定の制御は、露出制御又はフォーカス制御のうち、少なくとも1つを含むようにしてもよい。
また、例えば、請求項20に記載されているように、前記所定の被写体は、顔であり、前記被写体向き検出手段は、前記撮像手段により撮像された画像データ内にある顔の向きを検出するようにしてもよい。
上記目的達成のため請求項21記載の発明によるプログラムは、被写体を撮像する撮像手段を備えたコンピュータを、前記撮像手段により撮像された画像データ内にある所定の被写体の向きを検出する被写体向き検出手段、前記被写体向き検出手段により検出された所定の被写体の向きに基づいて、撮像のための所定の制御を行う制御手段、として機能させることを特徴とする。
本発明によれば、検出された顔の向きに基づいた撮像のための所定の制御を行うことができる。
本発明の実施の形態のデジタルカメラのブロック図である。 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 検出されたフレーム画像データ内にある顔と、該検出された顔の向きに基づく顔検出処理の対象となる一定領域、該検出された顔の向きに基づいて特定された予測領域の様子の一例を示す図と、ステップS6のAE処理後にステップS2で撮像されたフレーム画像の様子、及び、ステップS6のAE処理の測光領域の対象となった予測領域33の様子の一例を示す図である。 フォーカスレンズ2Aの移動の様子を図、及び、検出された顔の向きの様子の一例を示す図である。 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 第2の実施の形態における露出制御を説明するための図である。 第3の実施の形態のデジタルカメラ1の動作を示すフローチャートである。 検出された顔の向きに基づいて検出される注目エリア44の様子の一例を示す図である。
以下、本第1の実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮像レンズ2、レンズ駆動ブロック3、絞り4、CCD5、垂直ドライバ6、TG(timing generator)7、ユニット回路8、DMAコントローラ(以下、DMAという)9、CPU10、キー入力部11、メモリ12、DRAM13、DMA14、画像生成部15、DMA16、DMA17、表示部18、DMA19、圧縮伸張部20、DMA21、フラッシュメモリ22、顔検出部23、バス24を備えている。
撮像レンズ2は、図示しない複数のレンズ群から構成され、フォーカスレンズ2Aを少なくとも有する。そして、フォーカスレンズ2Aにはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ2Aを光軸方向に沿って駆動させるフォーカスモータ、CPU10から送られてくる制御信号にしたがって、フォーカスモータを駆動させるフォーカスモータドライバから構成されている(図示略)。
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞りとは、CCD5に入射される光の量を制御する機構のことをいう。
露出量は、この絞り値(絞りの度合い)とシャッタ速度によって定められる。
CCD5は、垂直ドライバ6によって走査駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。この垂直ドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10によって制御される。また、CCD5は電子シャッタとしての機能を有し、この電子シャッタは、垂直ドライバ6、TG7を介してCPU10を介して制御される。
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D変換器から構成されており、CCD5によって得られた撮像信号はユニット回路8を経た後、DMA9によってベイヤーデータの状態でバッファメモリ(DRAM13)に記憶される。
CPU10は、AF処理、記録処理、表示処理などを行う機能を有すると共に、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、顔検出部23によって検出された顔の向きに基づいて、顔検出部23により顔検出される領域を制限する制御部101、画像データに基づいてAE処理を行うAE処理部102を有する。
キー入力部11は、半押し操作、全押し操作可能なシャッタボタン、モード切替キー、録画ボタン、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10がデジタルカメラ1の各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
DRAM13は、CCD5によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとしても使用される。
DMA14は、バッファメモリに記憶されたベイヤーデータの画像データを読み出して画像生成部15に出力するものである。
画像生成部15は、DMA14から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を施す部分である。
DMA16は、画像生成部15で画像処理が施された輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
DMA17は、バッファメモリに記憶されているYUVデータの画像データを表示部18に出力するものである。
表示部18は、カラーLCDとその駆動回路を含み、DMA17から出力された画像データの画像を表示させる。
DMA19は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部20に出力したり、圧縮伸張部20により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部20は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA21は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ22に記録させたり、フラッシュメモリ22に記録された圧縮画像データをバッファメモリに記憶させるものである。
顔検出部23は、撮像された画像データ内にある顔を検出する顔検出処理を行うものである。この顔検出処理は、顔を検出するとともに顔の向きも検出する。この顔検出処理は周知技術なので詳しくは説明しないが、例えば、予め記憶されている一般的な人の顔をあらゆる向きから見たときの特徴データ(あらゆる向きから見たときの目、眉毛、鼻、口、耳、顔全体の輪郭等の特徴データ)と画像データとを比較照合することにより、所定値以上で顔特徴データと一致する領域を顔であると検出するとともに、該所定値以上で一致した顔特徴データの向きを該検出した顔の向きであると検出する。
なお、目、鼻、口の特徴データを有し、目、鼻、口を検出し、検出された目、鼻、口の位置関係から顔の向きを検出するようにしてもよい。
B.デジタルカメラ1の動作について
以下、本第1の実施の形態におけるデジタルカメラ1の動作を図2のフローチャートにしたがって説明する。
撮像モードのスルー画像表示中において、ユーザによってキー入力部11の録画ボタンが全押しされると(録画ボタンの押下操作に対応する操作信号がキー入力部11から送られてくると)、動画撮像記録処理が開始されたと判断し、CPU10は、撮像タイミングが到来したか否かを判断する(ステップS1)。ここでは、30fpsのフレームレートで被写体を撮像するので、1/30s(秒)間隔で、撮像タイミングが到来することになる。
ステップS1で、撮像タイミングが到来していないと判断すると、撮像タイミングが到来するまでステップS1に留まり、撮像タイミングが到来すると、CPU10は、撮像処理を行う。この撮像処理は、後述するステップS6のAE処理により設定されたシャッタ速度、絞り値、ゲイン値に基づいて行う。つまり、設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積された画像データを読み出し、ユニット回路8のAGCは該読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像データをバッファメモリに記憶させる。
なお、動画撮像記録処理が開始してから最初の撮像は、後述するステップS6でAE処理が行われていないので、動画撮像記録処理前のスルー画像表示用として直近に撮像されたフレーム画像データに基づいて行われたAE処理によって設定されたシャッタ速度、絞り値、ゲイン値等で撮像処理を行う。
次いで、CPU10は、バッファメモリに記憶されている直近にステップS2で撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS3)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。このとき、顔検出処理は、後述するステップS4のCPU10の制御部101による制御に従って顔検出処理を行う。なお、動画撮像処理が開始してから最初の顔検出は、後述するステップS4で顔検出の制御が行われていないので、フレーム画像データの全領域、若しくは、所定又は任意の領域に対して顔検出が行われる。
次いで、CPU10の制御部101は、該検出された顔の向きの方向を重視した顔検出処理を行うように顔検出部23を制御する(ステップS4)。この顔の向きの方向を重視した顔検出処理とは、顔が向いている方向に基づく所定領域のみに対して行う顔検出処理のことである。通常、顔が向いている方向に人は移動していくと考えられるからであり、顔が向いている方向を長くした所定領域に対して顔検出を行うことにより、顔検出処理の処理負担を軽減させるとともに、迅速に顔を検出することができる。つまり、この制御により迅速に検出された顔に追従することができ、追従の処理負担を軽減させることができる。
次いで、CPU10のAE処理部102は、該検出された顔の向きに基づいて予測領域を特定する(ステップS5)。この顔の向きに基づいた予測領域とは、予測領域を、該検出された顔領域から該顔の向きの方向にずらした所定領域のことをいう。通常、顔が向いている方向に人は移動していくと考えられるからである。この特定された予測領域を重視してAE処理が行われる。
図3(A)は、検出されたフレーム画像データ内にある顔と、該検出された顔の向きに基づく顔検出処理の対象となる所定領域、及び、該検出された顔の向きに基づいて特定された予測領域の様子の一例を示すものである。
図3(A)を見ると、フレーム画像データには、顔31があり、該顔31の向きは右方向なので、顔検出処理の対象となる所定領域32は、顔31が向いている方向に長くとった領域であることがわかる。この顔検出処理の対象となる領域を所定領域32にすることで、次回の顔検出、追従の処理負担を軽減させることができる。
また、図3(A)を見ると、予測領域33は、顔31がある領域から該顔31が向いている方向にずらした所定領域であることがわかる。この予測領域33の大きさは、検出された顔の大きさと同じ大きさであってもよいし、所定の大きさであってもよい。
図2のフローチャートに戻り、ステップS5の動作を経ると、CPU10のAE処理部102は、該特定された予測領域33を重視したAE処理を行う(ステップS6)。
つまり、バッファメモリに記憶されている直近にステップS2で撮像されたフレーム画像データのうち、該特定された予測領域33を測光領域とし、該測光領域の画像データの輝度信号に基づいてAE処理を行う。このAE処理により、シャッタ速度、絞り値、ゲイン値が設定される。
次いで、CPU10は、該検出された顔の向きに基づいて、該顔に対してAF処理を行う(ステップS7)。この検出された顔に基づくAF処理とは、検出された顔の向きに基づいてフォーカスレンズ2Aのサーチ移動方向を変えるという意味である。
ここで、図4(A)は、フォーカスレンズ2Aの移動の様子を示すものである。
図4(A)に示すように、フォーカスレンズ2Aは、レンズ端からレンズ端まで移動可能になっており、AF処理は、合焦レンズ位置を検出するためにフォーカスレンズをサーチ移動させ、各レンズ位置における画像データの高周波成分に基づいて合焦レンズ位置を検出し、該検出した合焦レンズ位置にフォーカスレンズ2Aを移動させる。ここで、一方のレンズ端側は近い被写体にピントが合うレンズ位置であり、他方のレンズ端側は遠い被写体にピントが合うレンズ位置である。
このとき、検出された顔の向きに応じてフォーカスレンズ2Aのサーチ移動方向を変える。
ここで、図4(B)は検出された顔の向きの様子の一例を示す図である。
図4(B)に示すように、検出された顔の向きが右手前を向いている場合は、該顔は、デジタルカメラ1に向かって近づいていくことが予想されるので、フォーカスレンズ2Aを、近い被写体にピントが合うレンズ端側へサーチ移動させて、合焦レンズ位置を検出する。
また、図4(C)に示すように、検出された顔の向きが右奥を向いている場合は、該顔は、デジタルカメラ1から遠ざかっていくことが予想されるので、フォーカスレンズ2Aを、遠い被写体にピントが合うレンズ端側へサーチ移動させて、合焦レンズを検出する。
つまり、検出された顔の向きがデジタルカメラ1に近づく向きの場合は、フォーカスレンズ2Aを現在のレンズ位置から近い被写体にピントが合うレンズ端側から先にサーチ移動させ、検出された顔の向きがデジタルカメラ1から遠ざかる向きの場合は、フォーカスレンズ2Aを現在のレンズ位置から遠い被写体にピントが合うレンズ端側から先にサーチ移動させる。
また、検出された顔の向きがデジタルカメラ1から遠ざかる向きでも、デジタルカメラ1に近づく向きでない場合(例えば顔が真横向きの場合)は、フォーカスレンズ2Aを移動させないようにしてもよいし(AF処理を行わないようにしてもよいし)、フォーカスレンズ2Aを、現在のレンズ位置から前後(近い被写体にピントが合うレンズ端側の方向と遠い被写体にピントが合うレンズ端側の方向)に狭い範囲で移動させて合焦レンズ位置を検出するようにしてもよい。デジタルカメラ1から被写体までの距離が変わらない場合は、ピントがズレていないか、ズレていたとしても微小であるからである。
このように、検出された顔の向きに応じてフォーカスレンズ2Aのサーチ移動方向を変えることにより、迅速にAF処理を行うことができる。
図2のフローチャートの説明に戻り、該検出された顔の向きに基づいて、該顔に対してAF処理を行うと、CPU10は、バッファメモリに記録されている直近にステップS2で撮像されたフレーム画像データを、圧縮伸張部20に圧縮させ、該圧縮されたフレーム画像データをDMA21を介してフラッシュメモリ22に記録させる(ステップS8)。
次いで、CPU10は、動画撮像記録処理を終了するか否かを判断する(ステップS9)。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から再び送られてきたか否かにより判断する。
ステップS9で、動画撮像記録処理を終了すると判断すると、該記録したフレーム画像データに基づいて動画ファイルを生成し(ステップS10)、ステップS9で、動画撮像記録処理を終了しないと判断するとステップS1に戻り、上記した動作を繰り返す。つまり、ステップS1で撮像タイミングが到来したと判断すると、ステップS2で、ステップS6のAE処理によって設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積されたフレーム画像データを読み出し、ユニット回路8のAGCは、該CCD5から読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、該画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像をバッファメモリに記憶させる。
図3(B)は、ステップS6のAE処理後にステップS2で撮像されたフレーム画像の様子、及び、ステップS6のAE処理の測光領域の対象となった予測領域33の様子の一例を示すものである。
図3(B)を見ると、フレーム画像データ上にある顔31は、AE処理の対象となった予測領域33上にあることがわかる。つまり、図3(A)に示すように、顔が検出された領域を測光領域とせずに、顔が向いている方向に測光領域をずらしているので、次の撮像タイミング時に顔が位置すると思われる領域を測光領域として前もってAE処理することにより、適切に撮像時に位置する顔が適正露出量となる画像データを撮像することができる。つまり、従来は、図3(A)に示すように検出された顔領域を測光領域としてAE処理を行って撮像処理を行っていたので、実際に撮像される顔とAE処理の対象となった領域が異なってしまい、実際に撮像された顔が適正露出とならないという不具合を是正することができる。
以上のように、第1の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、検出された顔の向きの方向を重視した顔検出処理を行わせるので、追従の処理負担を軽減させることができ、迅速に顔に追従することができる。また、検出された顔の向きを重視した測光領域を特定してAE処理を行うので、被写体が移動していても、顔領域が適性露出量となる画像データを撮像することができる。また、検出された顔の向きを重視したフォーカスレンズのサーチ移動を行なうので、迅速に顔を追従したAF処理を行うことができる。
[第2の実施の形態]
次に第2の実施の形態について説明する。
D.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
以下、第2の実施の形態におけるデジタルカメラ1の動作を図5のフローチャートに従って説明する。
撮像モードのスルー画像表示中において、ユーザによってキー入力部11の録画ボタンが全押しされると(録画ボタンの押下操作に対応する操作信号がキー入力部11から送られてくると)、動画撮像記録処理が開始されたと判断し、CPU10は、撮像タイミングが到来したか否かを判断する(ステップS21)。ここでは、30fpsのフレームレートで被写体を撮像するので、1/30s(秒)間隔で、撮像タイミングが到来することになる。
ステップS1で、撮像タイミングが到来していないと判断すると、撮像タイミングが到来するまでステップS21に留まり、撮像タイミングが到来すると、CPU10は、撮像処理を行う(ステップS22)。この撮像処理は、後述するステップS28、又は、ステップS29で直近に設定された露出条件(シャッタ速度、絞り値、ゲイン値)に基づいて行う。つまり、設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積された画像データを読み出し、ユニット回路8のAGCは該読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像データをバッファメモリに記憶させる。
なお、動画撮像記録処理が開始してから最初の撮像は、後述するステップS28、又は、ステップS32で露出条件が設定されていないので、動画撮像記録処理前のスルー画像表示用として直近に撮像されたフレーム画像データに基づいて行われたAE処理によって設定されたシャッタ速度、絞り値、ゲイン値等で撮像処理を行う。
次いで、CPU10は、バッファメモリに記憶されている直近にステップS22で撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS23)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。このとき、顔検出処理は、後述するステップS24のCPU10の制御部101による制御に従って顔検出処理を行う。なお、動画撮像記録処理が開始してから最初の顔検出は、後述するステップS24で顔検出の制御が行われていないので、フレーム画像データの全領域、若しくは、所定又は任意の領域に対して顔検出が行われる。
次いで、CPU10の制御部101は、該検出された顔の向きの方向を重視した顔検出処理を行うように顔検出部23を制御する(ステップS24)。この制御は、上記第1の実施の形態で説明した図2のステップS4と同様である。
次いで、CPU10は、該検出された顔の向きに基づいて、該顔に対してAF処理を行う(ステップS25)。この検出された顔に基づくAF処理とは、上記第1の実施の形態の図2のステップS7と同様に、検出された顔の向きに基づいてフォーカスレンズ2Aのサーチ移動方向を変えるという意味である。
次いで、CPU10は、バッファメモリに記録されている直近にステップS2で撮像されたフレーム画像データを、圧縮伸張部20に圧縮させ、該圧縮されたフレーム画像データをDMA21を介してフラッシュメモリ22に記録させる(ステップS26)。
次いで、CPU10は、該検出された顔が、後述するステップS31で直近に特定された予測領域33に入ったか否かを判断する(ステップS27)。ここで、特定された予測領域33に顔が入ったとは、予測領域33に該検出された顔が1/2以上入っている場合を指すとするが、予測領域33に該検出された顔が少しでも入った場合は、特定された予測領域33に顔が入ったと判断するようにしてもよいし、予測領域33に該検出された顔が全部入った場合のみ、特定された予測領域33に顔が入ったと判断するようにしてもよい。
なお、後述するステップS31の予測領域の特定が行われていない場合は、ステップS27でNに分岐する。例えば、動画撮像記録処理が開始してから最初のステップS22での撮像後は、未だ予測領域33が特定されていないのでステップS27でNに分岐する。
ステップS27で、直近に特定した予測領域33に、該検出された顔が入ったと判断すると、CPU10のAE処理部102は、後述するステップS32で直近に算出した予測領域を測光領域とした露出条件に設定して(ステップS28)、ステップS31に進む。これにより、次のステップS22の動作で、該設定された予測領域33に基づく露出条件で撮像されることになる。
一方、ステップS27で、直近に特定した予測領域33に、該検出された顔が入っていないと判断すると、CPU10は、前回のステップS29の動作が終わっているか否かを判断する(ステップS29)。
ステップS29で、前回のステップS29の動作が終わっていないと判断するとステップS31に進み、前回のステップS29の動作が終わっていると判断すると、CPU10のAE処理部102は、該検出した顔領域を測光領域として露出条件を算出して設定して(ステップS30)、ステップS31に進む。つまり、直近に撮像されたフレーム画像データの該検出された顔領域の画像データの輝度信号に基づいて露出条件(絞り値、シャッタ速度、ゲイン値)を算出して設定する。これにより、次のステップS22の動作で、該設定された顔領域に基づく露出条件で撮像されることになる。
ステップS31に進むと、CPU10は、検出された顔の向きが変わったか否かを判断する。この判断は、直近に検出された顔の向きと、その前に検出された顔の向きが所定値以上で一致するか否かにより判断し、所定値以上で一致する場合は顔の向きが変わっていないと判断する。
なお、たとえば、初めて顔の向きが検出された場合等のように、直近に行われた顔の向きの検出の前に、顔の向きが検出されていない場合は、検出された顔の向きが変わったと判断する。
ステップS31で、顔の向きが変わっていないと判断するとそのままステップS34に進み、ステップS31で、顔の向きが変わっていると判断すると、既に特定されている予測領域33を維持できない、つまり、設定した予測領域33の方向に顔が移動することはないと考えられるので、ステップS32に進む。なお、直近に行われた顔の向きの検出の前に、顔の向きが検出されていなくて顔の向きに変化があると判断された場合も、予測領域が特定されていないのでステップS32に進むことになる。
ステップS32に進むと、CPU10のAE処理部102は、ステップS23で直近に検出された顔の向きに基づいて予測領域を特定する。この顔の向きに基づいた予測領域とは、予測領域を、該検出された顔領域から該顔の向きの方向にずらした所定領域のことをいう。通常、顔が向いている方向に人は移動していくと考えられるからである。この特定された予測領域を重視して露出条件が算出される。
次いで、CPU10のAE処理部102は、該特定した予測領域33を重視して露出条件を算出して(ステップS33)、ステップS34に進む。つまり、直近に撮像されたフレーム画像データの該特定された予測領域33を測光領域とし、該測光領域の画像データの輝度信号に基づいて露出条件(絞り値、シャッタ速度、ゲイン値)を算出する。
ステップS34に進むと、CPU10は、動画撮像記録処理を終了するか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から再び送られてきたか否かにより判断する。
ステップS34で、動画撮像記録処理を終了すると判断すると、該記録したフレーム画像データに基づいて動画ファイルを生成し(ステップS35)、ステップS34で、動画撮像記録処理を終了しないと判断するとステップS1に戻り、上記した動作を繰り返す。つまり、ステップS1で撮像タイミングが到来したと判断すると、ステップS22で、ステップS28、又は、ステップS29で設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積されたフレーム画像データを読み出し、ユニット回路8のAGCは、該CCD5から読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、該画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像をバッファメモリに記憶させる。
図6は、第2の実施の形態における露出制御を説明するための図である。
図6(A)は、動画撮像記録処理開始後、初めて撮像されたフレーム画像データであるとする。
図6(A)の顔31は、顔検出された顔を示し、領域34は、検出された顔の領域、領域33は該検出された顔の向きに基づいて特定される予測領域を示している。
まず、動画撮像記録処理開始後、初めてフレーム画像データが撮像されると、ステップS27でNに分岐して、該検出した顔領域34(図6(A)に示す顔領域34)に基づく露出条件が算出され、設定される(ステップS29)。そして、ステップS31で顔の向きが変わったと判断され、該検出された顔31の向きに基づいて図6(A)に示すような予測領域33が特定され(ステップS32)、該特定した予測領域を測光領域とした露出条件が算出される(ステップS33)。
そして、ステップS34で、動画撮像記録処理を終了しないと判断すると、ステップS22で、図6(A)の顔領域に基づいて算出された露出条件で撮像される。
図6(B)は、このとき撮像されたフレーム画像データの様子の一例を示す図である。図6(B)の予測領域31は、直近に特定された予測領域33、つまり、図6(A)に示す予測領域33と同じ領域である。
図6(B)を見ると、検出された顔31は予測領域33に半分以上入っているので、ステップS27で、予測領域33に顔が入ったと判断され、既に算出されている予測領域33に基づく露出条件、つまり、図6(A)の予測領域33の画像データに基づいて算出された露出条件に設定される(ステップS28)。
該設定された予測領域31に基づく露出条件で次のフレーム画像データが撮像されることになる。
図6(C)は、このときに、撮像されたフレーム画像データの様子の一例を示す図である。
図6(C)を見ると、フレーム画像データ上にある顔31は、予測領域33上にあることがわかる。つまり、予測領域33に顔31が入ったと判断すると、予め算出しておいた予測領域33に基づく露出条件で撮像するので、適切に撮像時に位置する顔が適正露出量となる画像データを撮像することができる。
また、顔の向きに基づく予測領域33を特定し、該特定した予測領域33を常に測光領域とする上記第1の実施の形態と違い、特定した予測領域33に顔31が入ると、該特定した予測領域33に基づいて予め算出しておいた露出条件で撮像するので、迅速に適切な露出追従を行なうことができる。つまり、従来は、図6(A)に示すように検出された顔領域を測光領域としてAE処理を行って撮像処理を行っていたため、AE処理に時間がかかってしまい、次の撮影の際には、既に顔が移動しているため実際に撮像された顔が適正露出とならないという不具合を是正することができる。
また、予測領域33に被写体が入ってから予め算出してある露出条件で撮影するため、被写体の顔が横を向いているが動いていない場合であっても適切な撮像処理を行なうことができる。加えて、被写体が止まっている上体から動き出した場合であっても、被写体の顔の向きから動き出す方向を予測することができるため、該被写体の顔に対して迅速に適切な露出追従を行うことができる。
以上のように、第2の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、検出された顔の向きに基づいて予測領域33を特定し、該特定した予測領域33を測光領域として露出条件を算出しておき、該特定した予測領域33に顔が入るまでは、検出された顔領域に基づいて露出制御を行い、該特定した予測領域に顔が入ると、算出されている予測領域33に基づく露出条件で撮像するので、顔領域が適性露出量となる画像データを撮像することができ、被写体が止まっていても、動いていても、常に適切な撮像処理を行なうことができる。また、被写体が止まっている状態から動き出した場合、迅速に被写体を追従しながら適切な撮像処理を行なうことができるという効果がある。
また、検出された顔の向きを重視したフォーカスレンズのサーチ移動を行なうので、迅速に顔を追従したAF処理を行うことができる。
[変形例1]
上記第1及び第2の実施の形態は、以下のような変形例も可能である。
(1)上記第1、第2の実施の形態においては、検出された顔の向きに基づく予測領域33を特定し、該特定した予測領域33を測光領域としてAE処理や露出条件の算出を行うようにしたが、検出された顔の向きにかかわらず測光領域を画像データの全領域とし、検出された顔の向きの方向に基づく予測領域33を重点にしてAE処理や露出条件の算出を行うようにしてもよい。つまり、検出された顔の向きの方向にずらした領域の画像データの輝度成分を重みづけしてAE処理や露出条件の算出を行うようにしてもよい。
図3(A)を用いて説明すると、画像データの全領域を測光領域とするとともに、所定領域33を重みづけしてAE処理を行うことになる。また、図6(A)を用いて説明すると、画像データの全領域を測光領域とするとともに、所定領域33を重みづけして露出条件を算出することになる。
要は、検出された顔の向きに基づく所定領域を重視したAE処理や露出条件の算出を行うものであればよい。
(2)上記第1、第2の実施の形態において、検出された顔の動き量を検出するようにし、該検出された動き量に基づいて、顔検出処理の対象となる所定領域32の顔が向いている方向の長さや所定領域32の大きさを変えるようにしてもよい。
図3(A)を用いて説明すると、検出された顔31の動き量に応じて、該所定領域32の検出された顔の向きの方向の長さを変えることになる。
顔31の動き量が小さい場合に、顔検出処理の対象となる所定領域32の検出された顔の向きの方向を長め、又は所定領域32を大きめにとっても無駄な処理が増えるだけであり、逆に、顔31の動き量が大きい場合に、顔検出処理の対象となる領域32の検出された顔の向きの方向を短め、又は、所定領域32を小さめにとると、顔31が検出されない場合があるからである。これにより、迅速に顔が検出することができるとともに、顔検出処理の負担を小さくすることができる。
この顔の動き量の検出は、顔検出により検出された顔の位置に基づいて動き量を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより動き量を検出するようにしてもよい。
また、検出された顔31の向きと動き量の両方を考慮して、該所定領域32の検出された顔の向きの方向の長さ所定領域の大きさを変えるようにしてもよい。
なお、予測領域33のように、所定領域32を該検出された顔の向きの方向に、顔領域からずらすようにしてもよい。この場合、該検出された動き量に基づいて、所定領域32の該検出された顔領域から該顔の向きの方向にずらす量を変える。
(3)上記第1、第2の実施の形態において、検出された顔の動き量を検出するようにし、該検出された動き量に基づいて、特定する予測領域33の、該検出された顔領域から該顔の向きの方向にずらす量を変えるようにしてもよい。
図3(A)を用いて説明すると、検出された顔31の動き量に応じて、特定する測光領域33のずらす量を変えることになる。つまり、動き量が大きい場合にはそれに応じてずらす量を大きくし、動き量が小さい場合はそれに応じてずらす量を小さくする。
これにより、検出された顔31の動き量に基づいて、撮像タイミング時に顔31が位置すると思われる領域に予測領域33として特定することが可能となり、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができる。
この顔の動き量の検出は、顔検出により過去に検出された顔の位置に基づいて動き量を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより動き量を検出するようにしてもよい。
なお、該検出された動き量に基づいて、特定する予測領域33の大きさを変ええるようにしてもよい。これによっても、検出された顔31の動き量に基づいて、撮像タイミング時に顔31が位置すると思われる領域に予測領域33として特定することが可能となり、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができる。
(4)上記第1、第2の実施の形態において、検出された顔の向きを重視した顔検出処理を行うようにした顔検出部23の制御は、検出された顔の向きの方向を長くとった所定領域32に対して所定の被写体の特徴データと所定値以上で一致する領域を被写体として検出するように顔検出処理を行わせるようにしたが、すべての領域に対して顔検出を行わせるとともに、検出された顔の向きの方向を長くとった所定領域32以外の領域における顔検出の所定値を所定領域における所定値よりも上げるようにしてもよいし、若しくは、検出された顔の向きの方向を長くとった所定領域32における顔検出の所定値を所定領域以外の領域における所定値よりも下げるようにしてもよい。
また、所定領域において検索する所定の被写体の特徴データの数を所定領域以外の領域における数よりも多くしてもよい。
また、先に所定領域において特徴データの検索を行い、所定領域において特徴データと所定値以上で一致する領域が検出されなかった場合に、所定領域以外の領域で特徴データの検索を行なうようにしてもよい。
これにより、検出された顔の向きの方向を長くとった所定範囲の領域内にある顔が検出され易くなる。
(5)上記第1、第2の実施の形態においては、動画撮像記録処理の場合について説明したが、動画撮像モードや静止画撮像モードにおけるスルー画像表示時おいても適用するようにしてもよい。
つまり、スルー画像表示時に適用する場合は、第1の実施の形態の場合は、図2のステップS7の動作を経ると、ステップS8の動作を行わず、そのままステップS9に進み、ステップS9で動画撮像記録処理、若しくは、静止画撮像記録処理を行うか否かを判断し、行わないと判断するとステップS1に戻るようにする。そして、ステップS8で、動画撮像記録処理、静止画撮像記録処理を行うと判断すると、撮像記録処理に移行する。また、第2の実施の形態の場合は、図5のステップS25の動作を経ると、ステップS26の動作を行わずに、そのままステップS27に進み、ステップS34で、動画撮像記録処理、若しくは、静止画撮像記録処理を行うか否かを判断し、行わないと判断すると、ステップS21に戻る。
このとき、静止画撮像記録処理を行う場合は、図2のステップS5、又は、図5のステップS28又はステップS29で直近に特定された予測領域33、又は顔領域に基づいて行われた露出条件を静止画撮像用の露出条件に置換して行うようにしてもよい。
また、静止画撮像を行なう前に直近に検出された顔に対してオートフォーカスを行なうようにしてもよい。
(6)上記第1、第2の実施の形態において、検出された顔の向きに応じて、顔検出処理の対象となる所定領域32の顔が向いている方向の長さや所定領域32の大きさを変えるようにしてもよい。
また、検出された顔の向きに応じて、特定する予測領域33の、該検出された顔領域から該顔の向きの方向にずらす量を変えるようにしてもよい。
たとえば、顔が同じ速度で移動している場合であっても、顔が真横に向いている場合は、撮像される画像データ間上は該顔の移動距離が一番長くなり、顔の向きが斜め手前方向、斜め後ろ方向の場合は、真横に比べ撮像される画像データ間上の該顔の移動距離は短くなり、顔の向きが正面、真後ろを向いている場合が画像データ間上は一番移動距離が短くなるからである。
これにより、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができ、また、迅速に顔が検出することができるとともに、顔検出処理の負担を小さくすることができる。
なお、予測領域33のように、所定領域32を該検出された顔の向きの方向に、顔領域からずらすようにしてもよい。この場合、該検出された顔の向きに基づいて、所定領域32の該検出された顔領域から該顔の向きの方向にずらす量を変える。また、該検出された動き量に基づいて、特定する予測領域33の大きさを変ええるようにしてもよい。これによっても、上記効果を得ることができる。
(7)また、被写体の移動速度が所定速度より遅い場合は、上記第2の実施の形態のような露出制御を行い、被写体の移動速度が所定速度以上になると、上記第1の実施の形態のような露出制御を行うように自動で切り替えるようにしてもよい。この被写体の移動速度は、顔検出により過去に検出された顔の位置に基づいて移動速度を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより移動速度を検出するようにしてもよい。
(8)上記第1、第2の実施の形態において、顔検出部23による顔検出により顔を追従させるようにしたが、ブロックマッチング法などにより顔検出部23に検出された顔を追従させるようにしてもよい。つまり、該検出された顔領域の画像データが後に撮像されたフレーム画像データのどこにあるかをブロックマッチング法により検出することにより該検出された顔の追従を行う。
このときも、顔検出部23により検出された顔の向きを重視した顔追従を行う。つまり、該検出された顔の向きに基づいて、該検出された顔の探索範囲を変える。
たとえば、図3(A)に示すようにフレーム画像データが撮像された場合は、該検出された顔は顔31であるので、探索範囲を、フレーム画像データの全領域ではなく、領域33にする。つまり、該検出された顔31の領域の画像データが、その後に撮像されたフレーム画像データの領域33内のどこにあるかを検出することにより該検出された顔の追従を行う。これにより、迅速に顔を追従することができる。
この場合は、顔に対して追従することはできるが、追従している顔の向きがわからないので、顔検出部31は追従している顔領域に対して顔検出を行うことにより、追従している顔の向きを検出する。この場合は、追従している顔領域に対して顔検出を行うので顔検出の処理負担を軽減させることができ、迅速に顔を検出することができる。
なお、ブロックマッチング法による顔追従も、要は顔領域を検出しているので顔検出の一種といえるが、顔検出部23による顔検出と異なる点は、顔検出部23による顔検出は、予め記録されている顔の特徴データと比較照合するのに対し、ブロックマッチング法による顔検出は、撮像された顔領域の画像データとその後に撮像されたフレーム画像データとを比較照合する点である。
(9)上記第2の実施の形態においては、被写体が移動すると思われる予測領域を特定し、特定した予測領域に被写体が入った場合に、予め算出しておいた予測領域内での適切な条件で撮像制御を行うようにしたが、被写体が移動したか否かを判断し、被写体が予測していた方向に移動した場合に予め算出しておいた条件で撮像制御を行うようにしてもよい。つまり、顔の向きから移動方向の予測と移動すると思われる予測領域の特定を行い、顔が予測した方向に動いたと判断した場合に、予め算出しておいた予測領域内での適切な条件で撮像制御を行うようにする。
この場合は、被写体の移動を検出した次の撮像において特定した予測領域における適切な条件で撮像制御を行なうので、被写体の移動速度が速いために、特定した予測領域に被写体が入ったことを検出しても、次の撮像時には予測領域に被写体がいないといった問題が起きることを防ぐことができる。
(10)上記第1、第2の実施の形態においては、人の顔を検出するようにしたが、人の顔ではなく、猫や犬等の動物の顔や人の体全体(頭、胴、腕、足などの体全体)等の所定の被写体を検出するようにしてもよい。このときも、該所定の被写体の向きも検出する。
(11)上記第1、第2の実施の形態においては、顔検出の対象となる領域を所定領域32、露出制御の対象となる領域を予測領域33としたが、顔検出の対象となる領域も露出制御の対象となる領域も同じであってもよい。つまり、上述した所定領域32に対して顔検出及び露出制御を行なうようにしてもよいし、予測領域33に対して顔検出及び露出制御を行なうようにしてもよい。
(12)また、上記変形例(1)乃至(11)を矛盾しない範囲で任意に組み合わせた態様であってもよい。
[第3の実施の形態]
次に第3の実施の形態について説明する。
E.デジタルカメラ1の動作
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。なお、CPU10は、検出された各顔の向きに基づいて注目エリアを検出する注目エリア検出部を有する。
以下、第3の実施の形態におけるデジタルカメラ1の動作を図7のフローチャートに従って説明する。
ユーザのキー入力部11のモード切替キーの操作により静止画撮像モードに設定されると、CPU10は、所定のフレームレートでCCD5による被写体の撮像を開始させ、画像生成部15によって順次生成されてバッファメモリ(DRAM13)に記憶された輝度色差信号のフレーム画像データを表示部18に表示させていく、といういわゆるスルー画像表示を開始する(ステップS51)。
次いで、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する(ステップS52)。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
ステップS52で、シャッタボタンが半押しされていないと判断すると、半押しされたと判断されるまでステップS52に留まり、シャッタボタンが半押しされたと判断すると、CPU10は、バッファメモリに記憶されている直近に撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS53)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。
次いで、CPU10は、該顔検出処理により複数の顔が検出されたか否かを判断する(ステップS54)。
ステップS54で、複数の顔が検出されたと判断すると、CPU10の注目エリア検出部は、検出された各顔の向きに基づいて注目エリアの検出を行う(ステップS55)。この注目エリアとは、検出された顔の人が見ている(注目している)エリアのことをいう。
この注目エリアの検出は、検出された各顔の向きの方向の延長線が交差する領域を注目エリアとして検出する。
図8は、検出された顔の向きに基づいて検出される注目エリアの様子の一例を示す図である。
図8を見ると、顔41と顔42は、被写体43を見ているのがわかり、注目している被写体(注目被写体)は被写体43ということになる。
ここでは、顔41と顔42とが検出され、該検出された各顔の向き方向の延長線が交差する点を中心とした所定の領域が注目エリア44となる。
図8のフローチャートに戻り、注目エリアの検出を行うと、CPU10は、注目エリア検出部により注目エリア44が検出されたか否かを判断する(ステップS56)。
ステップS56で、注目エリア44が検出されたと判断すると、CPU10のAE処理部102は、該検出した注目エリア44を測光領域とし、該測光領域の画像データの輝度成分に基づいて静止画用のAE処理を行うとともに、CPU10は、該注目エリアに対してAF処理を行って(ステップS57)、ステップS59に進む。このAF処理は、フォーカスレンズ2Aを移動させて、注目エリアの画像データの高周波成分に基づく合焦レンズ位置にフォーカスレンズ2Aを移動させる。このとき、注目エリアであることを示す情報(たとえば、注目枠)をスルー画像上に表示させるようにしてもよい。
一方、ステップS54で、複数の顔が検出されていないと判断された場合、ステップS56で、注目エリア44を検出できないと判断した場合は、CPU10のAE処理部102は、該検出された顔の領域を測光領域として、該測光領域の画像データの輝度成分に基づいて静止画用のAE処理を行うとともに、CPU10のAF処理部は、該検出された顔に対してAF処理を行って(ステップS58)、ステップS59に進む。このAF処理は、フォーカスレンズ2Aを移動させて、検出された顔領域の画像データの高周波成分に基づく合焦レンズ位置にフォーカスレンズ2Aを移動させる。
なお、このとき、検出された顔が複数ある場合は、すべての顔の領域に基づいてAE処理を行うようにしてもよいし、何れか1つの顔の領域に基づいてAE処理を行うようにしてもよい。また、検出された顔が複数ある場合は、検出された顔全てにピントが合うようにAF処理を行うようにしてもよいし、何れか1つの顔に対してAF処理を行うようにしてもよい。
ステップS59に進むと、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS59で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS59に留まり、シャッタボタンが全押しされたと判断すると、CPU10は、ステップS57又はステップS58のAE処理によって設定された露出条件で静止画撮像処理を行い、画像生成部15によって生成され圧縮伸張部20によって圧縮された輝度色差信号の画像データを、DMA21を介してフラッシュメモリ22に記録する(ステップS60)。
以上のように、第3の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、複数の顔が検出された場合は、該検出された各顔の向き方向の延長線が交差するエリアを、撮像された人が注目している注目エリア44として検出し、該検出した注目エリア44に対してAE処理、AF処理を行うので、被写体が注目している被写体に適切に露出を制御することができるとともに、ピントを合わせることができる。
[変形例2]
上記第3の実施の形態は、以下のような変形例も可能である。
(1)上記第3の実施の形態においては、図7のステップS59で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS59に留まるようにしたが、ステップS59で、シャッタボタンが全押しされていないと判断するとステップS53に戻るようにしてもよい。つまり、シャッタボタンが全押しされるまで注目エリアに追従、顔に追従したコンティニュアスAF処理を行うようにしてもよい。
また、静止画撮像の場合について説明したが、動画撮像の場合にも適用するようにしてもよい。
(2)上記第3の実施の形態においては、検出された各顔の向きの方向の延長線が交差する領域を注目エリアとして検出するようにしたが、検出された各顔の一部(2つ以上)の顔の向きにおいて、向きの方向の延長線がある領域で交差する場合に、その領域を注目エリアとして検出するようにしてもよい。
(3)上記第3の実施の形態においては、検出された注目エリア、若しくは、検出された顔領域を測光領域としてAE処理を行うようにしたが、撮像された画像データの全領域を測光領域とし、少なくとも該検出された注目エリアを重みづけしてAE処理を行うようにしてもよい。
(4)上記第3の実施の形態においては、人の顔を検出するようにしたが、人の顔ではなく、猫や犬等の動物の顔や人の体全体(頭、胴、腕、足などの体全体)等の所定の被写体を検出するようにしてもよい。このときも、該所定の被写体の向きも検出する。
(5)上記第3の実施の形態においては、静止画撮像の場合について説明したが、動画撮像中においても適用してもよい。つまり、動画の撮像中に、検出された注目エリア44でのAE処理、AF処理を周期的に行うようにしてもよい。
(6)また、上記変形例(1)乃至(5)を矛盾しない範囲で任意に組み合わせた態様であってもよい。
また、上記各実施の形態においては、顔検出部23が、顔を検出するとともに、該検出された顔の向きも検出するようにしたが、顔検出部23が顔を検出し、該検出された顔の向きを検出する手段を別個に設けるようにしてもよい。
本発明の上記各実施形態及び各変形例は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記各実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体を撮像することができる機器であれば適用可能である。
1 デジタルカメラ
2 撮像レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 垂直ドライバ
7 TG
8 ユニット回路
9 DMA
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 DMA
15 画像生成部
16 DMA
17 DMA
18 表示部
19 DMA
20 圧縮伸張部
21 DMA
22 フラッシュメモリ
23 顔検出部
24 バス

Claims (21)

  1. 被写体を撮像する撮像手段と、
    前記撮像手段により撮像された画像データ内にある所定の被写体の向きを検出する被写体向き検出手段と、
    前記被写体向き検出手段により検出された所定の被写体の向きに基づいて、撮像のための所定の制御を行う制御手段と、
    を備えたことを特徴とする撮像装置。
  2. 前記所定の制御は、
    露出制御を含むことを特徴とする請求項1記載の撮像装置。
  3. 前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、
    前記所定の制御は、
    前記被写体検出手段の制御を含むことを特徴とする請求項1又は2記載の撮像装置。
  4. 前記制御手段は、
    前記被写体向き検出手段により検出された向きの方向に基づく所定領域を重視した所定の制御を行うことを特徴とする請求項1記載の撮像装置。
  5. 前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、
    前記制御手段は、
    前記被写体検出手段により検出された所定の被写体の領域から、前記被写体向き検出手段により検出された向きの方向にずらした領域を所定領域とすることを特徴とする請求項4に記載の撮像装置。
  6. 前記制御手段は、
    前記被写体向き検出手段により検出された所定の被写体の向きに応じて、前記所定領域をずらす量を変えることを特徴とする請求項5に記載の撮像装置。
  7. 前記被写体検出手段により検出された所定の被写体の移動量を検出する移動量検出手段を更に備え、
    前記制御手段は、
    前記移動量検出手段により検出された移動量に応じて前記所定領域をずらす量を変えることを特徴とする請求項5又は6に記載の撮像装置。
  8. 前記制御手段は、
    前記被写体向き検出手段により検出された所定の被写体の向きに応じて、前記所定領域の大きさを変えること特徴とする請求4〜7の何れか一項に記載の撮像装置。
  9. 前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段と、
    前記被写体検出手段により検出された所定の被写体の移動量を検出する移動量検出手段とを更に備え、
    前記制御手段は、
    前記移動量検出手段により検出された移動量に応じて前記所定領域の大きさを変えることを特徴とする請求項4〜8に記載の撮像装置。
  10. 前記制御手段は、
    前記所定領域を重視して露出条件を算出し、該算出した露出条件に基づいて露出制御することを特徴とする請求項4〜9の何れか一項に記載の撮像装置。
  11. 前記制御手段は、
    前記所定領域を測光領域として露出条件を算出することを特徴とする請求項10記載の撮像装置。
  12. 前記制御手段は、
    前記撮像手段により撮像された画像データの全領域を測光領域として露出条件を算出するとともに、前記所定領域を重みづけして露出制御を行うことを特徴とする請求項10記載の撮像装置。
  13. 前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、
    前記制御手段は、
    前記被写体検出手段により検出された所定の被写体が前記所定領域に入った場合に、前記算出した露出条件に基づいて露出制御することを特徴とする請求項10〜12の何れか一項に記載の撮像装置。
  14. 前記撮像手段により撮像された画像データ内にある所定の被写体を検出する被写体検出手段を更に備え、
    前記制御手段は、
    前記所定領域を重視して、次回の前記被写体検出手段による所定の被写体の検出を制御することを特徴とする請求項4〜13の何れか一項に記載の撮像装置。
  15. 前記制御手段は、
    前記所定領域内にある該所定の被写体を検出させるように、前記被写体検出手段を制御することを特徴とする請求項14記載の撮像装置。
  16. 前記被写体検出手段は、
    所定の被写体の特徴データと所定値以上で一致する領域を所定の被写体として検出し、
    前記制御手段は、
    前記被写体向き検出手段によって検出された被写体の向きの方向に基づいて、次回の前記被写体検出手段における検出の際の、前記所定領域外の領域における被写体検出の所定値が該所定領域における被写体検出の所定値よりも高い値となるように制御することを特徴とする請求項14又は15に記載の撮像装置。
  17. 前記制御手段は、
    前記被写体向き検出手段により検出された所定の被写体の向きに応じて、フォーカスレンズのサーチ移動範囲又は移動方向を変えて、該検出された所定の被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御することを特徴とする請求項1〜16の何れか一項に記載の撮像装置。
  18. 前記制御手段は、
    前記被写体向き検出手段により検出された複数の所定の被写体の各向きに基づいて前記所定領域を特定する手段を備え、該特定された前記所定領域を重視した所定の制御を行うことを特徴とする請求項4記載の撮像装置。
  19. 前記所定の制御は、
    露出制御又はフォーカス制御のうち、少なくとも1つを含むことを特徴とする請求項18記載の撮像装置。
  20. 前記所定の被写体は、顔であり、
    前記被写体向き検出手段は、
    前記撮像手段により撮像された画像データ内にある顔の向きを検出することを特徴とする請求項1〜19の何れか一項に記載の撮像装置。
  21. 被写体を撮像する撮像手段を備えたコンピュータを、
    前記撮像手段により撮像された画像データ内にある所定の被写体の向きを検出する被写体向き検出手段、
    前記被写体向き検出手段により検出された所定の被写体の向きに基づいて、撮像のための所定の制御を行う制御手段、
    として機能させることを特徴とするプログラム。
JP2010114481A 2010-05-18 2010-05-18 撮像装置及びそのプログラム Expired - Fee Related JP5126285B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010114481A JP5126285B2 (ja) 2010-05-18 2010-05-18 撮像装置及びそのプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010114481A JP5126285B2 (ja) 2010-05-18 2010-05-18 撮像装置及びそのプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008022156A Division JP4518157B2 (ja) 2008-01-31 2008-01-31 撮像装置及びそのプログラム

Publications (3)

Publication Number Publication Date
JP2010226749A true JP2010226749A (ja) 2010-10-07
JP2010226749A5 JP2010226749A5 (ja) 2010-11-25
JP5126285B2 JP5126285B2 (ja) 2013-01-23

Family

ID=43043363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010114481A Expired - Fee Related JP5126285B2 (ja) 2010-05-18 2010-05-18 撮像装置及びそのプログラム

Country Status (1)

Country Link
JP (1) JP5126285B2 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102293A (ja) * 2012-11-16 2014-06-05 Canon Inc 自動焦点検出装置およびその制御方法
JP2015130612A (ja) * 2014-01-08 2015-07-16 キヤノン株式会社 撮像装置及びその制御方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2007235399A (ja) * 2006-02-28 2007-09-13 Matsushita Electric Ind Co Ltd 自動撮影装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007042072A (ja) * 2005-07-05 2007-02-15 Omron Corp 追跡装置
JP2007235399A (ja) * 2006-02-28 2007-09-13 Matsushita Electric Ind Co Ltd 自動撮影装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102293A (ja) * 2012-11-16 2014-06-05 Canon Inc 自動焦点検出装置およびその制御方法
JP2015130612A (ja) * 2014-01-08 2015-07-16 キヤノン株式会社 撮像装置及びその制御方法

Also Published As

Publication number Publication date
JP5126285B2 (ja) 2013-01-23

Similar Documents

Publication Publication Date Title
JP4518157B2 (ja) 撮像装置及びそのプログラム
KR100847614B1 (ko) 촬상장치 및 컴퓨터 판독 가능한 기록매체
JP4766320B2 (ja) 撮像装置及びそのプログラム
US8724981B2 (en) Imaging apparatus, focus position detecting method, and computer program product
US8384798B2 (en) Imaging apparatus and image capturing method
JP2007215091A (ja) 撮像装置及びそのプログラム
JP5030022B2 (ja) 撮像装置及びそのプログラム
JP2007264049A (ja) 撮像方法および装置
JP4614143B2 (ja) 撮像装置及びそのプログラム
JP4853707B2 (ja) 撮像装置及びそのプログラム
JP5105616B2 (ja) 撮像装置及びプログラム
JP2013146017A (ja) 撮像装置およびプログラム
EP1860871A1 (en) Image pickup apparatus and image pickup control method
JP2003244520A (ja) 撮影装置
JP5407373B2 (ja) 撮影装置、及びプログラム
JP4998122B2 (ja) 撮像装置及びそのプログラム
JP2007318292A (ja) 動きベクトル検出装置及びそのプログラム
JP5448868B2 (ja) 撮像装置および撮像装置の制御方法
JP5182308B2 (ja) 撮像装置及びそのプログラム
JP5126285B2 (ja) 撮像装置及びそのプログラム
JP5257969B2 (ja) 合焦位置制御装置、及び合焦位置制御方法、合焦位置制御プログラム
JP6024135B2 (ja) 被写体追尾表示制御装置、被写体追尾表示制御方法およびプログラム
JP5067475B2 (ja) 撮像装置及びそのプログラム
JP2003295040A (ja) カメラ
JP4534250B2 (ja) 動画撮像装置及びそのプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111026

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111122

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121002

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121015

R150 Certificate of patent or registration of utility model

Ref document number: 5126285

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151109

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees