JP5182308B2 - Imaging apparatus and program thereof - Google Patents
Imaging apparatus and program thereof Download PDFInfo
- Publication number
- JP5182308B2 JP5182308B2 JP2010055209A JP2010055209A JP5182308B2 JP 5182308 B2 JP5182308 B2 JP 5182308B2 JP 2010055209 A JP2010055209 A JP 2010055209A JP 2010055209 A JP2010055209 A JP 2010055209A JP 5182308 B2 JP5182308 B2 JP 5182308B2
- Authority
- JP
- Japan
- Prior art keywords
- face
- detected
- area
- subject
- image data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Exposure Control For Cameras (AREA)
- Focusing (AREA)
- Automatic Focus Adjustment (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本発明は、撮像装置及びそのプログラムに関する。 The present invention relates to an imaging apparatus and a program thereof.
撮像装置、たとえば、カメラにおいて、顔の向きを検出するという技術がある。
(特許文献1)
There is a technique for detecting the orientation of a face in an imaging apparatus, for example, a camera.
(Patent Document 1)
しかしながら、上記特許文献1の技術によれば、顔の向きを検出しても、撮影する際に、顔の向きを考慮した撮影制御を行なうということはされていなかった。 However, according to the technique of the above-mentioned Patent Document 1, even if the orientation of the face is detected, imaging control considering the orientation of the face has not been performed at the time of imaging.
そこで本発明は、被写体の向きを考慮した撮像制御を行なうことができる撮像装置及びそのプログラムを提供することを目的とする。 SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus capable of performing imaging control in consideration of the direction of a subject and a program thereof.
上記目的達成のため請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention includes an image pickup means for picking up a subject, a subject detection means for detecting a subject in image data picked up by the image pickup means, and the subject detection means. An identification unit that identifies a direction in which the detected subject is facing , and a focus movement by changing a search lens movement range of the focus lens according to the direction in which the subject identified by the identification unit is facing. And control means for performing focus control so as to detect the lens position.
上記目的達成のため請求項2記載の発明によるプログラムは、被写体を撮像する撮像手段を備えたコンピュータを、前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段として機能させることを特徴とする。 To achieve the above object, a program according to a second aspect of the present invention provides a computer including an imaging unit that images a subject, a subject detection unit that detects a subject in image data captured by the imaging unit, and the subject An identification unit that identifies a direction in which the subject detected by the detection unit is facing , and a focus lens search movement range is changed according to the direction in which the subject identified by the identification unit is facing , and the subject is focused. It is characterized by functioning as a control means for controlling the focus so as to detect an in-focus lens position.
本発明によれば、検出された顔の向きに基づいた撮像のための所定の制御を行うことができる。 According to the present invention, it is possible to perform predetermined control for imaging based on the detected face orientation.
以下、本第1の実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮像レンズ2、レンズ駆動ブロック3、絞り4、CCD5、垂直ドライバ6、TG(timing generator)7、ユニット回路8、DMAコントローラ(以下、DMAという)9、CPU10、キー入力部11、メモリ12、DRAM13、DMA14、画像生成部15、DMA16、DMA17、表示部18、DMA19、圧縮伸張部20、DMA21、フラッシュメモリ22、顔検出部23、バス24を備えている。
Hereinafter, the first embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[First Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes an
撮像レンズ2は、図示しない複数のレンズ群から構成され、フォーカスレンズ2Aを少なくとも有する。そして、フォーカスレンズ2Aにはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ2Aを光軸方向に沿って駆動させるフォーカスモータ、CPU10から送られてくる制御信号にしたがって、フォーカスモータを駆動させるフォーカスモータドライバから構成されている(図示略)。
The
絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞りとは、CCD5に入射される光の量を制御する機構のことをいう。
露出量は、この絞り値(絞りの度合い)とシャッタ速度によって定められる。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the
The diaphragm is a mechanism that controls the amount of light incident on the CCD 5.
The exposure amount is determined by the aperture value (aperture level) and the shutter speed.
CCD5は、垂直ドライバ6によって走査駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。この垂直ドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10によって制御される。また、CCD5は電子シャッタとしての機能を有し、この電子シャッタは、垂直ドライバ6、TG7を介してCPU10を介して制御される。
The CCD 5 is scanned and driven by the
ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D変換器から構成されており、CCD5によって得られた撮像信号はユニット回路8を経た後、DMA9によってベイヤーデータの状態でバッファメモリ(DRAM13)に記憶される。
A TG 7 is connected to the
CPU10は、AF処理、記録処理、表示処理などを行う機能を有すると共に、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、顔検出部23によって検出された顔の向きに基づいて、顔検出部23により顔検出される領域を制限する制御部101、画像データに基づいてAE処理を行うAE処理部102を有する。
The
In particular, the
キー入力部11は、半押し操作、全押し操作可能なシャッタボタン、モード切替キー、録画ボタン、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10がデジタルカメラ1の各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
The
The
DRAM13は、CCD5によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとしても使用される。
The
DMA14は、バッファメモリに記憶されたベイヤーデータの画像データを読み出して画像生成部15に出力するものである。
画像生成部15は、DMA14から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を施す部分である。
DMA16は、画像生成部15で画像処理が施された輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
The
The
The
DMA17は、バッファメモリに記憶されているYUVデータの画像データを表示部18に出力するものである。
表示部18は、カラーLCDとその駆動回路を含み、DMA17から出力された画像データの画像を表示させる。
The
The
DMA19は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部20に出力したり、圧縮伸張部20により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部20は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA21は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ22に記録させたり、フラッシュメモリ22に記録された圧縮画像データをバッファメモリに記憶させるものである。
The
The compression /
The
顔検出部23は、撮像された画像データ内にある顔を検出する顔検出処理を行うものである。この顔検出処理は、顔を検出するとともに顔の向きも検出する。この顔検出処理は周知技術なので詳しくは説明しないが、例えば、予め記憶されている一般的な人の顔をあらゆる向きから見たときの特徴データ(あらゆる向きから見たときの目、眉毛、鼻、口、耳、顔全体の輪郭等の特徴データ)と画像データとを比較照合することにより、所定値以上で顔特徴データと一致する領域を顔であると検出するとともに、該所定値以上で一致した顔特徴データの向きを該検出した顔の向きであると検出する。
なお、目、鼻、口の特徴データを有し、目、鼻、口を検出し、検出された目、鼻、口の位置関係から顔の向きを検出するようにしてもよい。
The
Note that eye, nose, and mouth feature data may be included, the eyes, nose, and mouth may be detected, and the face orientation may be detected from the detected positional relationship between the eyes, nose, and mouth.
B.デジタルカメラ1の動作について
以下、本第1の実施の形態におけるデジタルカメラ1の動作を図2のフローチャートにしたがって説明する。
B. Operation of Digital Camera 1 Hereinafter, the operation of the digital camera 1 in the first embodiment will be described with reference to the flowchart of FIG.
撮像モードのスルー画像表示中において、ユーザによってキー入力部11の録画ボタンが全押しされると(録画ボタンの押下操作に対応する操作信号がキー入力部11から送られてくると)、動画撮像記録処理が開始されたと判断し、CPU10は、撮像タイミングが到来したか否かを判断する(ステップS1)。ここでは、30fpsのフレームレートで被写体を撮像するので、1/30s(秒)間隔で、撮像タイミングが到来することになる。
When the user presses the recording button of the
ステップS1で、撮像タイミングが到来していないと判断すると、撮像タイミングが到来するまでステップS1に留まり、撮像タイミングが到来すると、CPU10は、撮像処理を行う。この撮像処理は、後述するステップS6のAE処理により設定されたシャッタ速度、絞り値、ゲイン値に基づいて行う。つまり、設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積された画像データを読み出し、ユニット回路8のAGCは該読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像データをバッファメモリに記憶させる。
If it is determined in step S1 that the imaging timing has not arrived, the process stays in step S1 until the imaging timing arrives. When the imaging timing has arrived, the
なお、動画撮像記録処理が開始してから最初の撮像は、後述するステップS6でAE処理が行われていないので、動画撮像記録処理前のスルー画像表示用として直近に撮像されたフレーム画像データに基づいて行われたAE処理によって設定されたシャッタ速度、絞り値、ゲイン値等で撮像処理を行う。 Note that the first imaging after the moving image capturing / recording process is started is that the AE process is not performed in step S6, which will be described later. The imaging process is performed with the shutter speed, aperture value, gain value, and the like set by the AE process performed based on the AE process.
次いで、CPU10は、バッファメモリに記憶されている直近にステップS2で撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS3)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。このとき、顔検出処理は、後述するステップS4のCPU10の制御部101による制御に従って顔検出処理を行う。なお、動画撮像処理が開始してから最初の顔検出は、後述するステップS4で顔検出の制御が行われていないので、フレーム画像データの全領域、若しくは、所定又は任意の領域に対して顔検出が行われる。
Next, the
次いで、CPU10の制御部101は、該検出された顔の向きの方向を重視した顔検出処理を行うように顔検出部23を制御する(ステップS4)。この顔の向きの方向を重視した顔検出処理とは、顔が向いている方向に基づく所定領域のみに対して行う顔検出処理のことである。通常、顔が向いている方向に人は移動していくと考えられるからであり、顔が向いている方向を長くした所定領域に対して顔検出を行うことにより、顔検出処理の処理負担を軽減させるとともに、迅速に顔を検出することができる。つまり、この制御により迅速に検出された顔に追従することができ、追従の処理負担を軽減させることができる。
Next, the
次いで、CPU10のAE処理部102は、該検出された顔の向きに基づいて予測領域を特定する(ステップS5)。この顔の向きに基づいた予測領域とは、予測領域を、該検出された顔領域から該顔の向きの方向にずらした所定領域のことをいう。通常、顔が向いている方向に人は移動していくと考えられるからである。この特定された予測領域を重視してAE処理が行われる。
図3(A)は、検出されたフレーム画像データ内にある顔と、該検出された顔の向きに基づく顔検出処理の対象となる所定領域、及び、該検出された顔の向きに基づいて特定された予測領域の様子の一例を示すものである。
Next, the
FIG. 3 (A) is based on a face in the detected frame image data, a predetermined area to be subjected to face detection processing based on the detected face orientation, and the detected face orientation. An example of the state of the identified prediction area is shown.
図3(A)を見ると、フレーム画像データには、顔31があり、該顔31の向きは右方向なので、顔検出処理の対象となる所定領域32は、顔31が向いている方向に長くとった領域であることがわかる。この顔検出処理の対象となる領域を所定領域32にすることで、次回の顔検出、追従の処理負担を軽減させることができる。
また、図3(A)を見ると、予測領域33は、顔31がある領域から該顔31が向いている方向にずらした所定領域であることがわかる。この予測領域33の大きさは、検出された顔の大きさと同じ大きさであってもよいし、所定の大きさであってもよい。
As shown in FIG. 3A, the frame image data includes a
3A, it can be seen that the
図2のフローチャートに戻り、ステップS5の動作を経ると、CPU10のAE処理部102は、該特定された予測領域33を重視したAE処理を行う(ステップS6)。
つまり、バッファメモリに記憶されている直近にステップS2で撮像されたフレーム画像データのうち、該特定された予測領域33を測光領域とし、該測光領域の画像データの輝度信号に基づいてAE処理を行う。このAE処理により、シャッタ速度、絞り値、ゲイン値が設定される。
Returning to the flowchart of FIG. 2, after the operation of step S5, the
That is, among the frame image data captured in step S2 most recently stored in the buffer memory, the specified
次いで、CPU10は、該検出された顔の向きに基づいて、該顔に対してAF処理を行う(ステップS7)。この検出された顔に基づくAF処理とは、検出された顔の向きに基づいてフォーカスレンズ2Aのサーチ移動方向を変えるという意味である。
Next, the
ここで、図4(A)は、フォーカスレンズ2Aの移動の様子を示すものである。
図4(A)に示すように、フォーカスレンズ2Aは、レンズ端からレンズ端まで移動可能になっており、AF処理は、合焦レンズ位置を検出するためにフォーカスレンズをサーチ移動させ、各レンズ位置における画像データの高周波成分に基づいて合焦レンズ位置を検出し、該検出した合焦レンズ位置にフォーカスレンズ2Aを移動させる。ここで、一方のレンズ端側は近い被写体にピントが合うレンズ位置であり、他方のレンズ端側は遠い被写体にピントが合うレンズ位置である。
Here, FIG. 4A shows the movement of the
As shown in FIG. 4A, the
このとき、検出された顔の向きに応じてフォーカスレンズ2Aのサーチ移動方向を変える。
ここで、図4(B)は検出された顔の向きの様子の一例を示す図である。
図4(B)に示すように、検出された顔の向きが右手前を向いている場合は、該顔は、デジタルカメラ1に向かって近づいていくことが予想されるので、フォーカスレンズ2Aを、近い被写体にピントが合うレンズ端側へサーチ移動させて、合焦レンズ位置を検出する。
At this time, the search movement direction of the
Here, FIG. 4B is a diagram illustrating an example of the detected face orientation.
As shown in FIG. 4B, when the detected face is facing the right front, the face is expected to approach the digital camera 1, and therefore the
また、図4(C)に示すように、検出された顔の向きが右奥を向いている場合は、該顔は、デジタルカメラ1から遠ざかっていくことが予想されるので、フォーカスレンズ2Aを、遠い被写体にピントが合うレンズ端側へサーチ移動させて、合焦レンズを検出する。
Further, as shown in FIG. 4C, when the detected face is facing rightward, the face is expected to move away from the digital camera 1, so that the
つまり、検出された顔の向きがデジタルカメラ1に近づく向きの場合は、フォーカスレンズ2Aを現在のレンズ位置から近い被写体にピントが合うレンズ端側から先にサーチ移動させ、検出された顔の向きがデジタルカメラ1から遠ざかる向きの場合は、フォーカスレンズ2Aを現在のレンズ位置から遠い被写体にピントが合うレンズ端側から先にサーチ移動させる。
In other words, when the detected face orientation is closer to the digital camera 1, the
また、検出された顔の向きがデジタルカメラ1から遠ざかる向きでも、デジタルカメラ1に近づく向きでない場合(例えば顔が真横向きの場合)は、フォーカスレンズ2Aを移動させないようにしてもよいし(AF処理を行わないようにしてもよいし)、フォーカスレンズ2Aを、現在のレンズ位置から前後(近い被写体にピントが合うレンズ端側の方向と遠い被写体にピントが合うレンズ端側の方向)に狭い範囲で移動させて合焦レンズ位置を検出するようにしてもよい。デジタルカメラ1から被写体までの距離が変わらない場合は、ピントがズレていないか、ズレていたとしても微小であるからである。
このように、検出された顔の向きに応じてフォーカスレンズ2Aのサーチ移動方向を変えることにより、迅速にAF処理を行うことができる。
In addition, even when the detected face is away from the digital camera 1 but is not close to the digital camera 1 (for example, when the face is facing sideways), the
As described above, the AF process can be quickly performed by changing the search movement direction of the
図2のフローチャートの説明に戻り、該検出された顔の向きに基づいて、該顔に対してAF処理を行うと、CPU10は、バッファメモリに記録されている直近にステップS2で撮像されたフレーム画像データを、圧縮伸張部20に圧縮させ、該圧縮されたフレーム画像データをDMA21を介してフラッシュメモリ22に記録させる(ステップS8)。
Returning to the description of the flowchart of FIG. 2, when the AF processing is performed on the face based on the detected face orientation, the
次いで、CPU10は、動画撮像記録処理を終了するか否かを判断する(ステップS9)。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から再び送られてきたか否かにより判断する。
Next, the
ステップS9で、動画撮像記録処理を終了すると判断すると、該記録したフレーム画像データに基づいて動画ファイルを生成し(ステップS10)、ステップS9で、動画撮像記録処理を終了しないと判断するとステップS1に戻り、上記した動作を繰り返す。つまり、ステップS1で撮像タイミングが到来したと判断すると、ステップS2で、ステップS6のAE処理によって設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積されたフレーム画像データを読み出し、ユニット回路8のAGCは、該CCD5から読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、該画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像をバッファメモリに記憶させる。
If it is determined in step S9 that the moving image capturing / recording process is to end, a moving image file is generated based on the recorded frame image data (step S10). If it is determined in step S9 that the moving image capturing / recording process is not ended, the process proceeds to step S1. Return and repeat the above operation. That is, if it is determined in step S1 that the imaging timing has arrived, in step S2, the CCD 5 is exposed with the shutter speed and aperture value set by the AE process in step S6, and the frame image data stored in the CCD 5 is read out. The AGC of the
図3(B)は、ステップS6のAE処理後にステップS2で撮像されたフレーム画像の様子、及び、ステップS6のAE処理の測光領域の対象となった予測領域33の様子の一例を示すものである。
FIG. 3B shows an example of the state of the frame image captured in step S2 after the AE process in step S6 and the state of the
図3(B)を見ると、フレーム画像データ上にある顔31は、AE処理の対象となった予測領域33上にあることがわかる。つまり、図3(A)に示すように、顔が検出された領域を測光領域とせずに、顔が向いている方向に測光領域をずらしているので、次の撮像タイミング時に顔が位置すると思われる領域を測光領域として前もってAE処理することにより、適切に撮像時に位置する顔が適正露出量となる画像データを撮像することができる。つまり、従来は、図3(A)に示すように検出された顔領域を測光領域としてAE処理を行って撮像処理を行っていたので、実際に撮像される顔とAE処理の対象となった領域が異なってしまい、実際に撮像された顔が適正露出とならないという不具合を是正することができる。
As shown in FIG. 3B, it can be seen that the
以上のように、第1の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、検出された顔の向きの方向を重視した顔検出処理を行わせるので、追従の処理負担を軽減させることができ、迅速に顔に追従することができる。また、検出された顔の向きを重視した測光領域を特定してAE処理を行うので、被写体が移動していても、顔領域が適性露出量となる画像データを撮像することができる。また、検出された顔の向きを重視したフォーカスレンズのサーチ移動を行なうので、迅速に顔を追従したAF処理を行うことができる。 As described above, in the first embodiment, predetermined control for imaging can be appropriately performed based on the detected face orientation. For example, since the face detection process that places importance on the direction of the detected face direction is performed, the processing load for tracking can be reduced, and the face can be tracked quickly. Further, since the AE process is performed by specifying a photometric area that places importance on the detected face orientation, it is possible to capture image data in which the face area has an appropriate exposure amount even when the subject is moving. In addition, since the focus lens search movement is performed with an emphasis on the detected face orientation, AF processing can be quickly performed following the face.
[第2の実施の形態]
次に第2の実施の形態について説明する。
D.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
以下、第2の実施の形態におけるデジタルカメラ1の動作を図5のフローチャートに従って説明する。
[Second Embodiment]
Next, a second embodiment will be described.
D. Operation of Digital Camera 1 The second embodiment also implements the imaging device of the present invention by using the digital camera 1 having the same configuration as that shown in FIG.
The operation of the digital camera 1 in the second embodiment will be described below with reference to the flowchart of FIG.
撮像モードのスルー画像表示中において、ユーザによってキー入力部11の録画ボタンが全押しされると(録画ボタンの押下操作に対応する操作信号がキー入力部11から送られてくると)、動画撮像記録処理が開始されたと判断し、CPU10は、撮像タイミングが到来したか否かを判断する(ステップS21)。ここでは、30fpsのフレームレートで被写体を撮像するので、1/30s(秒)間隔で、撮像タイミングが到来することになる。
When the user presses the recording button of the
ステップS21で、撮像タイミングが到来していないと判断すると、撮像タイミングが到来するまでステップS21に留まり、撮像タイミングが到来すると、CPU10は、撮像処理を行う(ステップS22)。この撮像処理は、後述するステップS28、又は、ステップS30で直近に設定された露出条件(シャッタ速度、絞り値、ゲイン値)に基づいて行う。つまり、設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積された画像データを読み出し、ユニット回路8のAGCは該読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像データをバッファメモリに記憶させる。
If it is determined in step S21 that the imaging timing has not arrived, the process stays in step S21 until the imaging timing has arrived. When the imaging timing has arrived, the
なお、動画撮像記録処理が開始してから最初の撮像は、後述するステップS28、又は、ステップS30で露出条件が設定されていないので、動画撮像記録処理前のスルー画像表示用として直近に撮像されたフレーム画像データに基づいて行われたAE処理によって設定されたシャッタ速度、絞り値、ゲイン値等で撮像処理を行う。 Note that since the exposure condition is not set in the later-described step S28 or step S30 after the moving image capturing / recording process is started, the first image capturing is performed for the through image display before the moving image capturing / recording process. The imaging process is performed with the shutter speed, aperture value, gain value, and the like set by the AE process performed based on the frame image data.
次いで、CPU10は、バッファメモリに記憶されている直近にステップS22で撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS23)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。このとき、顔検出処理は、後述するステップS24のCPU10の制御部101による制御に従って顔検出処理を行う。なお、動画撮像記録処理が開始してから最初の顔検出は、後述するステップS24で顔検出の制御が行われていないので、フレーム画像データの全領域、若しくは、所定又は任意の領域に対して顔検出が行われる。
Next, the
次いで、CPU10の制御部101は、該検出された顔の向きの方向を重視した顔検出処理を行うように顔検出部23を制御する(ステップS24)。この制御は、上記第1の実施の形態で説明した図2のステップS4と同様である。
Next, the
次いで、CPU10は、該検出された顔の向きに基づいて、該顔に対してAF処理を行う(ステップS25)。この検出された顔に基づくAF処理とは、上記第1の実施の形態の図2のステップS7と同様に、検出された顔の向きに基づいてフォーカスレンズ2Aのサーチ移動方向を変えるという意味である。
Next, the
次いで、CPU10は、バッファメモリに記録されている直近にステップS22で撮像されたフレーム画像データを、圧縮伸張部20に圧縮させ、該圧縮されたフレーム画像データをDMA21を介してフラッシュメモリ22に記録させる(ステップS26)。
Next, the
次いで、CPU10は、該検出された顔が、後述するステップS31で直近に特定された予測領域33に入ったか否かを判断する(ステップS27)。ここで、特定された予測領域33に顔が入ったとは、予測領域33に該検出された顔が1/2以上入っている場合を指すとするが、予測領域33に該検出された顔が少しでも入った場合は、特定された予測領域33に顔が入ったと判断するようにしてもよいし、予測領域33に該検出された顔が全部入った場合のみ、特定された予測領域33に顔が入ったと判断するようにしてもよい。
Next, the
なお、後述するステップS32の予測領域の特定が行われていない場合は、ステップS27でNに分岐する。例えば、動画撮像記録処理が開始してから最初のステップS22での撮像後は、未だ予測領域33が特定されていないのでステップS27でNに分岐する。
In addition, when the prediction area | region specification of step S32 mentioned later is not performed, it branches to N at step S27. For example, after the imaging in the first step S22 after the moving image imaging / recording process is started, the
ステップS27で、直近に特定した予測領域33に、該検出された顔が入ったと判断すると、CPU10のAE処理部102は、後述するステップS33で直近に算出した予測領域を測光領域とした露出条件に設定して(ステップS28)、ステップS32に進む。これにより、次のステップS22の動作で、該設定された予測領域33に基づく露出条件で撮像されることになる。
If it is determined in step S27 that the detected face has entered the most recently specified
一方、ステップS27で、直近に特定した予測領域33に、該検出された顔が入っていないと判断すると、CPU10は、前回のステップS30の動作が終わっているか否かを判断する(ステップS29)。
ステップS29で、前回のステップS30の動作が終わっていないと判断するとステップS31に進み、前回のステップS30の動作が終わっていると判断すると、CPU10のAE処理部102は、該検出した顔領域を測光領域として露出条件を算出して設定して(ステップS30)、ステップS31に進む。つまり、直近に撮像されたフレーム画像データの該検出された顔領域の画像データの輝度信号に基づいて露出条件(絞り値、シャッタ速度、ゲイン値)を算出して設定する。これにより、次のステップS22の動作で、該設定された顔領域に基づく露出条件で撮像されることになる。
On the other hand, if it is determined in step S27 that the detected face is not included in the most recently specified
If it is determined in step S29 that the operation of the previous step S30 has not ended, the process proceeds to step S31. If it is determined that the operation of the previous step S30 has ended, the
ステップS31に進むと、CPU10は、検出された顔の向きが変わったか否かを判断する。この判断は、直近に検出された顔の向きと、その前に検出された顔の向きが所定値以上で一致するか否かにより判断し、所定値以上で一致する場合は顔の向きが変わっていないと判断する。
なお、たとえば、初めて顔の向きが検出された場合等のように、直近に行われた顔の向きの検出の前に、顔の向きが検出されていない場合は、検出された顔の向きが変わったと判断する。
In step S31, the
For example, when the face orientation is not detected before the most recent face orientation detection, such as when the face orientation is detected for the first time, the detected face orientation is Judge that it has changed.
ステップS31で、顔の向きが変わっていないと判断するとそのままステップS34に進み、ステップS31で、顔の向きが変わっていると判断すると、既に特定されている予測領域33を維持できない、つまり、設定した予測領域33の方向に顔が移動することはないと考えられるので、ステップS32に進む。なお、直近に行われた顔の向きの検出の前に、顔の向きが検出されていなくて顔の向きに変化があると判断された場合も、予測領域が特定されていないのでステップS32に進むことになる。
If it is determined in step S31 that the orientation of the face has not changed, the process proceeds to step S34 as it is. If it is determined in step S31 that the orientation of the face has changed, the already specified
ステップS32に進むと、CPU10のAE処理部102は、ステップS23で直近に検出された顔の向きに基づいて予測領域を特定する。この顔の向きに基づいた予測領域とは、予測領域を、該検出された顔領域から該顔の向きの方向にずらした所定領域のことをいう。通常、顔が向いている方向に人は移動していくと考えられるからである。この特定された予測領域を重視して露出条件が算出される。
In step S32, the
次いで、CPU10のAE処理部102は、該特定した予測領域33を重視して露出条件を算出して(ステップS33)、ステップS34に進む。つまり、直近に撮像されたフレーム画像データの該特定された予測領域33を測光領域とし、該測光領域の画像データの輝度信号に基づいて露出条件(絞り値、シャッタ速度、ゲイン値)を算出する。
Next, the
ステップS34に進むと、CPU10は、動画撮像記録処理を終了するか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から再び送られてきたか否かにより判断する。
In step S34, the
ステップS34で、動画撮像記録処理を終了すると判断すると、該記録したフレーム画像データに基づいて動画ファイルを生成し(ステップS35)、ステップS34で、動画撮像記録処理を終了しないと判断するとステップS1に戻り、上記した動作を繰り返す。つまり、ステップS21で撮像タイミングが到来したと判断すると、ステップS22で、ステップS28、又は、ステップS30で設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積されたフレーム画像データを読み出し、ユニット回路8のAGCは、該CCD5から読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、該画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像をバッファメモリに記憶させる。
If it is determined in step S34 that the moving image capturing / recording process is to end, a moving image file is generated based on the recorded frame image data (step S35). If it is determined in step S34 that the moving image capturing / recording process is not ended, the process proceeds to step S1. Return and repeat the above operation. In other words, if it is determined in step S21 that the imaging timing has arrived, in step S22, the CCD 5 is exposed with the shutter speed and aperture value set in step S28 or step S30 , and the frame image data stored in the CCD 5 is read out. The AGC of the
図6は、第2の実施の形態における露出制御を説明するための図である。
図6(A)は、動画撮像記録処理開始後、初めて撮像されたフレーム画像データであるとする。
図6(A)の顔31は、顔検出された顔を示し、領域34は、検出された顔の領域、領域33は該検出された顔の向きに基づいて特定される予測領域を示している。
FIG. 6 is a diagram for explaining exposure control in the second embodiment.
FIG. 6A is assumed to be frame image data captured for the first time after the start of the moving image recording process.
A
まず、動画撮像記録処理開始後、初めてフレーム画像データが撮像されると、ステップS27でNに分岐して、該検出した顔領域34(図6(A)に示す顔領域34)に基づく露出条件が算出され、設定される(ステップS30)。そして、ステップS31で顔の向きが変わったと判断され、該検出された顔31の向きに基づいて図6(A)に示すような予測領域33が特定され(ステップS32)、該特定した予測領域を測光領域とした露出条件が算出される(ステップS33)。
そして、ステップS34で、動画撮像記録処理を終了しないと判断すると、ステップS22で、図6(A)の顔領域に基づいて算出された露出条件で撮像される。
First, when frame image data is captured for the first time after the start of the moving image recording process, the process branches to N in step S27, and the exposure condition based on the detected face area 34 (
If it is determined in step S34 that the moving image recording process is not to be ended, an image is captured in step S22 under the exposure condition calculated based on the face area of FIG.
図6(B)は、このとき撮像されたフレーム画像データの様子の一例を示す図である。図6(B)の予測領域33は、直近に特定された予測領域33、つまり、図6(A)に示す予測領域33と同じ領域である。
図6(B)を見ると、検出された顔31は予測領域33に半分以上入っているので、ステップS27で、予測領域33に顔が入ったと判断され、既に算出されている予測領域33に基づく露出条件、つまり、図6(A)の予測領域33の画像データに基づいて算出された露出条件に設定される(ステップS28)。
該設定された予測領域31に基づく露出条件で次のフレーム画像データが撮像されることになる。
FIG. 6B is a diagram illustrating an example of the state of the frame image data captured at this time. The
As shown in FIG. 6B, since the detected
The next frame image data is captured under the exposure condition based on the
図6(C)は、このときに、撮像されたフレーム画像データの様子の一例を示す図である。
図6(C)を見ると、フレーム画像データ上にある顔31は、予測領域33上にあることがわかる。つまり、予測領域33に顔31が入ったと判断すると、予め算出しておいた予測領域33に基づく露出条件で撮像するので、適切に撮像時に位置する顔が適正露出量となる画像データを撮像することができる。
FIG. 6C is a diagram illustrating an example of the state of the frame image data captured at this time.
As can be seen from FIG. 6C, the
また、顔の向きに基づく予測領域33を特定し、該特定した予測領域33を常に測光領域とする上記第1の実施の形態と違い、特定した予測領域33に顔31が入ると、該特定した予測領域33に基づいて予め算出しておいた露出条件で撮像するので、迅速に適切な露出追従を行なうことができる。つまり、従来は、図6(A)に示すように検出された顔領域を測光領域としてAE処理を行って撮像処理を行っていたため、AE処理に時間がかかってしまい、次の撮影の際には、既に顔が移動しているため実際に撮像された顔が適正露出とならないという不具合を是正することができる。
また、予測領域33に被写体が入ってから予め算出してある露出条件で撮影するため、被写体の顔が横を向いているが動いていない場合であっても適切な撮像処理を行なうことができる。加えて、被写体が止まっている上体から動き出した場合であっても、被写体の顔の向きから動き出す方向を予測することができるため、該被写体の顔に対して迅速に適切な露出追従を行うことができる。
In addition, unlike the first embodiment in which the
Further, since shooting is performed under an exposure condition calculated in advance after the subject enters the
以上のように、第2の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、検出された顔の向きに基づいて予測領域33を特定し、該特定した予測領域33を測光領域として露出条件を算出しておき、該特定した予測領域33に顔が入るまでは、検出された顔領域に基づいて露出制御を行い、該特定した予測領域に顔が入ると、算出されている予測領域33に基づく露出条件で撮像するので、顔領域が適性露出量となる画像データを撮像することができ、被写体が止まっていても、動いていても、常に適切な撮像処理を行なうことができる。また、被写体が止まっている状態から動き出した場合、迅速に被写体を追従しながら適切な撮像処理を行なうことができるという効果がある。
また、検出された顔の向きを重視したフォーカスレンズのサーチ移動を行なうので、迅速に顔を追従したAF処理を行うことができる。
As described above, in the second embodiment, predetermined control for imaging can be appropriately performed based on the detected face orientation. For example, the
In addition, since the focus lens search movement is performed with an emphasis on the detected face orientation, AF processing can be quickly performed following the face.
[変形例1]
上記第1及び第2の実施の形態は、以下のような変形例も可能である。
[Modification 1]
The first and second embodiments can be modified as follows.
(1)上記第1、第2の実施の形態においては、検出された顔の向きに基づく予測領域33を特定し、該特定した予測領域33を測光領域としてAE処理や露出条件の算出を行うようにしたが、検出された顔の向きにかかわらず測光領域を画像データの全領域とし、検出された顔の向きの方向に基づく予測領域33を重点にしてAE処理や露出条件の算出を行うようにしてもよい。つまり、検出された顔の向きの方向にずらした領域の画像データの輝度成分を重みづけしてAE処理や露出条件の算出を行うようにしてもよい。
図3(A)を用いて説明すると、画像データの全領域を測光領域とするとともに、所定領域33を重みづけしてAE処理を行うことになる。また、図6(A)を用いて説明すると、画像データの全領域を測光領域とするとともに、所定領域33を重みづけして露出条件を算出することになる。
要は、検出された顔の向きに基づく所定領域を重視したAE処理や露出条件の算出を行うものであればよい。
(1) In the first and second embodiments, the
If it demonstrates using FIG. 3 (A), while making all the area | regions of image data into a photometry area | region, the predetermined area |
In short, what is necessary is just to perform AE processing and calculation of exposure conditions with emphasis on a predetermined area based on the detected face orientation.
(2)上記第1、第2の実施の形態において、検出された顔の動き量を検出するようにし、該検出された動き量に基づいて、顔検出処理の対象となる所定領域32の顔が向いている方向の長さや所定領域32の大きさを変えるようにしてもよい。
図3(A)を用いて説明すると、検出された顔31の動き量に応じて、該所定領域32の検出された顔の向きの方向の長さを変えることになる。
顔31の動き量が小さい場合に、顔検出処理の対象となる所定領域32の検出された顔の向きの方向を長め、又は所定領域32を大きめにとっても無駄な処理が増えるだけであり、逆に、顔31の動き量が大きい場合に、顔検出処理の対象となる領域32の検出された顔の向きの方向を短め、又は、所定領域32を小さめにとると、顔31が検出されない場合があるからである。これにより、迅速に顔が検出することができるとともに、顔検出処理の負担を小さくすることができる。
この顔の動き量の検出は、顔検出により検出された顔の位置に基づいて動き量を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより動き量を検出するようにしてもよい。
また、検出された顔31の向きと動き量の両方を考慮して、該所定領域32の検出された顔の向きの方向の長さ所定領域の大きさを変えるようにしてもよい。
なお、予測領域33のように、所定領域32を該検出された顔の向きの方向に、顔領域からずらすようにしてもよい。この場合、該検出された動き量に基づいて、所定領域32の該検出された顔領域から該顔の向きの方向にずらす量を変える。
(2) In the first and second embodiments, the detected amount of movement of the face is detected, and based on the detected amount of movement, the face of the
If it demonstrates using FIG. 3 (A), according to the detected amount of movement of the
When the amount of motion of the
The detection of the amount of movement of the face may be performed by detecting the amount of movement based on the position of the face detected by face detection, or by detecting the motion vector of the face using a block matching method or the like. The amount may be detected.
Further, in consideration of both the direction of the detected
Note that, as in the
(3)上記第1、第2の実施の形態において、検出された顔の動き量を検出するようにし、該検出された動き量に基づいて、特定する予測領域33の、該検出された顔領域から該顔の向きの方向にずらす量を変えるようにしてもよい。
図3(A)を用いて説明すると、検出された顔31の動き量に応じて、特定する測光領域33のずらす量を変えることになる。つまり、動き量が大きい場合にはそれに応じてずらす量を大きくし、動き量が小さい場合はそれに応じてずらす量を小さくする。
これにより、検出された顔31の動き量に基づいて、撮像タイミング時に顔31が位置すると思われる領域に予測領域33として特定することが可能となり、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができる。
この顔の動き量の検出は、顔検出により過去に検出された顔の位置に基づいて動き量を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより動き量を検出するようにしてもよい。
なお、該検出された動き量に基づいて、特定する予測領域33の大きさを変ええるようにしてもよい。これによっても、検出された顔31の動き量に基づいて、撮像タイミング時に顔31が位置すると思われる領域に予測領域33として特定することが可能となり、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができる。
(3) In the first and second embodiments described above, the detected amount of motion of the detected face is detected, and the detected face of the
If it demonstrates using FIG. 3 (A), according to the detected motion amount of the
Thus, based on the detected amount of movement of the
The detection of the amount of motion of the face may be performed by detecting the amount of motion based on the position of the face detected in the past by the face detection, or by detecting the motion vector of the face using a block matching method or the like. Thus, the amount of motion may be detected.
Note that the size of the
(4)上記第1、第2の実施の形態において、検出された顔の向きを重視した顔検出処理を行うようにした顔検出部23の制御は、検出された顔の向きの方向を長くとった所定領域32に対して所定の被写体の特徴データと所定値以上で一致する領域を被写体として検出するように顔検出処理を行わせるようにしたが、すべての領域に対して顔検出を行わせるとともに、検出された顔の向きの方向を長くとった所定領域32以外の領域における顔検出の所定値を所定領域における所定値よりも上げるようにしてもよいし、若しくは、検出された顔の向きの方向を長くとった所定領域32における顔検出の所定値を所定領域以外の領域における所定値よりも下げるようにしてもよい。
また、所定領域において検索する所定の被写体の特徴データの数を所定領域以外の領域における数よりも多くしてもよい。
また、先に所定領域において特徴データの検索を行い、所定領域において特徴データと所定値以上で一致する領域が検出されなかった場合に、所定領域以外の領域で特徴データの検索を行なうようにしてもよい。
これにより、検出された顔の向きの方向を長くとった所定範囲の領域内にある顔が検出され易くなる。
(4) In the first and second embodiments described above, the control of the
Further, the number of feature data of a predetermined subject to be searched in the predetermined area may be larger than the number in the area other than the predetermined area.
In addition, the feature data is searched in the predetermined area first, and if the area that matches the feature data at a predetermined value or more is not detected in the predetermined area, the feature data is searched in the area other than the predetermined area. Also good.
This makes it easier to detect a face within a predetermined range area in which the detected face direction is long.
(5)上記第1、第2の実施の形態においては、動画撮像記録処理の場合について説明したが、動画撮像モードや静止画撮像モードにおけるスルー画像表示時おいても適用するようにしてもよい。
つまり、スルー画像表示時に適用する場合は、第1の実施の形態の場合は、図2のステップS7の動作を経ると、ステップS8の動作を行わず、そのままステップS9に進み、ステップS9で動画撮像記録処理、若しくは、静止画撮像記録処理を行うか否かを判断し、行わないと判断するとステップS1に戻るようにする。そして、ステップS8で、動画撮像記録処理、静止画撮像記録処理を行うと判断すると、撮像記録処理に移行する。また、第2の実施の形態の場合は、図5のステップS25の動作を経ると、ステップS26の動作を行わずに、そのままステップS27に進み、ステップS34で、動画撮像記録処理、若しくは、静止画撮像記録処理を行うか否かを判断し、行わないと判断すると、ステップS21に戻る。
このとき、静止画撮像記録処理を行う場合は、図2のステップS6、又は、図5のステップS28又はステップS30で直近に特定された予測領域33、又は顔領域に基づいて行われた露出条件を静止画撮像用の露出条件に置換して行うようにしてもよい。
また、静止画撮像を行なう前に直近に検出された顔に対してオートフォーカスを行なうようにしてもよい。
(5) In the first and second embodiments, the case of the moving image capturing / recording process has been described. However, the present invention may be applied even when displaying a through image in the moving image capturing mode or the still image capturing mode. .
In other words, in the case of the first embodiment, when the through image display is applied, after the operation of step S7 in FIG. 2, the operation of step S8 is not performed and the process proceeds to step S9 as it is, and the moving image is displayed in step S9. It is determined whether or not to perform an imaging recording process or a still image imaging and recording process, and if it is determined not to perform the process, the process returns to step S1. If it is determined in step S8 that the moving image capturing / recording process and the still image capturing / recording process are to be performed, the process proceeds to the imaging / recording process. In the case of the second embodiment, after the operation in step S25 in FIG. 5, the operation proceeds to step S27 without performing the operation in step S26. In step S34, the moving image capturing / recording process or the stationary operation is performed. It is determined whether or not the image capturing / recording process is to be performed. If it is determined not to be, the process returns to step S21.
At this time, when the still image capturing / recording process is performed, the exposure condition performed based on the predicted
Alternatively, autofocus may be performed on the most recently detected face before taking a still image.
(6)上記第1、第2の実施の形態において、検出された顔の向きに応じて、顔検出処理の対象となる所定領域32の顔が向いている方向の長さや所定領域32の大きさを変えるようにしてもよい。
また、検出された顔の向きに応じて、特定する予測領域33の、該検出された顔領域から該顔の向きの方向にずらす量を変えるようにしてもよい。
たとえば、顔が同じ速度で移動している場合であっても、顔が真横に向いている場合は、撮像される画像データ間上は該顔の移動距離が一番長くなり、顔の向きが斜め手前方向、斜め後ろ方向の場合は、真横に比べ撮像される画像データ間上の該顔の移動距離は短くなり、顔の向きが正面、真後ろを向いている場合が画像データ間上は一番移動距離が短くなるからである。
これにより、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができ、また、迅速に顔が検出することができるとともに、顔検出処理の負担を小さくすることができる。
なお、予測領域33のように、所定領域32を該検出された顔の向きの方向に、顔領域からずらすようにしてもよい。この場合、該検出された顔の向きに基づいて、所定領域32の該検出された顔領域から該顔の向きの方向にずらす量を変える。また、該検出された顔の向きに基づいて、特定する予測領域33の大きさを変ええるようにしてもよい。これによっても、上記効果を得ることができる。
(6) In the first and second embodiments, depending on the detected face orientation, the length of the predetermined
Further, the amount of the
For example, even if the face is moving at the same speed, if the face is facing sideways, the moving distance of the face is the longest between the captured image data, and the face orientation is In the case of the diagonally forward direction and the diagonally backward direction, the movement distance of the face between the captured image data is shorter than that of the sideways image, and when the face is facing the front and directly behind, the distance between the image data is one. This is because the movement distance is shortened.
As a result, it is possible to capture image data in which the face area positioned at the time of image capture has an appropriate exposure amount, to quickly detect the face, and to reduce the burden of face detection processing. .
Note that, as in the
(7)また、被写体の移動速度が所定速度より遅い場合は、上記第2の実施の形態のような露出制御を行い、被写体の移動速度が所定速度以上になると、上記第1の実施の形態のような露出制御を行うように自動で切り替えるようにしてもよい。この被写体の移動速度は、顔検出により過去に検出された顔の位置に基づいて移動速度を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより移動速度を検出するようにしてもよい。 (7) When the moving speed of the subject is slower than the predetermined speed, exposure control as in the second embodiment is performed, and when the moving speed of the subject exceeds the predetermined speed, the first embodiment You may make it switch automatically so that exposure control like this may be performed. The moving speed of the subject may be detected based on the face position detected in the past by the face detection, or may be detected by detecting the motion vector of the face using a block matching method or the like. The speed may be detected.
(8)上記第1、第2の実施の形態において、顔検出部23による顔検出により顔を追従させるようにしたが、ブロックマッチング法などにより顔検出部23に検出された顔を追従させるようにしてもよい。つまり、該検出された顔領域の画像データが後に撮像されたフレーム画像データのどこにあるかをブロックマッチング法により検出することにより該検出された顔の追従を行う。
このときも、顔検出部23により検出された顔の向きを重視した顔追従を行う。つまり、該検出された顔の向きに基づいて、該検出された顔の探索範囲を変える。
(8) In the first and second embodiments, the face is made to follow by face detection by the
Also at this time, face tracking is performed with emphasis on the orientation of the face detected by the
たとえば、図3(A)に示すようにフレーム画像データが撮像された場合は、該検出された顔は顔31であるので、探索範囲を、フレーム画像データの全領域ではなく、領域32にする。つまり、該検出された顔31の領域の画像データが、その後に撮像されたフレーム画像データの領域32内のどこにあるかを検出することにより該検出された顔の追従を行う。これにより、迅速に顔を追従することができる。
For example, when the frame image data is captured as shown in FIG. 3A, the detected face is the
この場合は、顔に対して追従することはできるが、追従している顔の向きがわからないので、顔検出部31は追従している顔領域に対して顔検出を行うことにより、追従している顔の向きを検出する。この場合は、追従している顔領域に対して顔検出を行うので顔検出の処理負担を軽減させることができ、迅速に顔を検出することができる。
なお、ブロックマッチング法による顔追従も、要は顔領域を検出しているので顔検出の一種といえるが、顔検出部23による顔検出と異なる点は、顔検出部23による顔検出は、予め記録されている顔の特徴データと比較照合するのに対し、ブロックマッチング法による顔検出は、撮像された顔領域の画像データとその後に撮像されたフレーム画像データとを比較照合する点である。
In this case, although it is possible to follow the face, since the direction of the following face is unknown, the
The face tracking by the block matching method is also a kind of face detection because the face area is detected in principle, but the face detection by the
(9)上記第2の実施の形態においては、被写体が移動すると思われる予測領域を特定し、特定した予測領域に被写体が入った場合に、予め算出しておいた予測領域内での適切な条件で撮像制御を行うようにしたが、被写体が移動したか否かを判断し、被写体が予測していた方向に移動した場合に予め算出しておいた条件で撮像制御を行うようにしてもよい。つまり、顔の向きから移動方向の予測と移動すると思われる予測領域の特定を行い、顔が予測した方向に動いたと判断した場合に、予め算出しておいた予測領域内での適切な条件で撮像制御を行うようにする。
この場合は、被写体の移動を検出した次の撮像において特定した予測領域における適切な条件で撮像制御を行なうので、被写体の移動速度が速いために、特定した予測領域に被写体が入ったことを検出しても、次の撮像時には予測領域に被写体がいないといった問題が起きることを防ぐことができる。
(9) In the second embodiment, when a prediction region where a subject is supposed to move is specified and the subject enters the specified prediction region, an appropriate value within the prediction region calculated in advance is determined. Although the imaging control is performed under the conditions, it is determined whether or not the subject has moved, and the imaging control may be performed under the conditions calculated in advance when the subject moves in the predicted direction. Good. In other words, the prediction of the direction of movement and the prediction of the predicted area from the direction of the face are performed, and when it is determined that the face has moved in the predicted direction, the appropriate conditions within the prediction area calculated in advance are used. Perform imaging control.
In this case, since the imaging control is performed under appropriate conditions in the prediction area specified in the next imaging after detecting the movement of the subject, it is detected that the subject has entered the specified prediction area because the movement speed of the subject is fast. Even in the next imaging, it is possible to prevent the problem that the subject is not in the prediction area.
(10)上記第1、第2の実施の形態においては、人の顔を検出するようにしたが、人の顔ではなく、猫や犬等の動物の顔や人の体全体(頭、胴、腕、足などの体全体)等の所定の被写体を検出するようにしてもよい。このときも、該所定の被写体の向きも検出する。 (10) In the first and second embodiments, the human face is detected. However, instead of the human face, the face of an animal such as a cat or dog or the entire human body (head, torso) , A predetermined object such as an arm, a leg, or the like) may be detected. At this time, the direction of the predetermined subject is also detected.
(11)上記第1、第2の実施の形態においては、顔検出の対象となる領域を所定領域32、露出制御の対象となる領域を予測領域33としたが、顔検出の対象となる領域も露出制御の対象となる領域も同じであってもよい。つまり、上述した所定領域32に対して顔検出及び露出制御を行なうようにしてもよいし、予測領域33に対して顔検出及び露出制御を行なうようにしてもよい。
(11) In the first and second embodiments, the area to be face-detected is the predetermined
(12)また、上記変形例(1)乃至(11)を矛盾しない範囲で任意に組み合わせた態様であってもよい。 (12) Moreover, the aspect which arbitrarily combined the said modification (1) thru | or (11) in the range which is not inconsistent may be sufficient.
[第3の実施の形態]
次に第3の実施の形態について説明する。
E.デジタルカメラ1の動作
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。なお、CPU10は、検出された各顔の向きに基づいて注目エリアを検出する注目エリア検出部を有する。
以下、第3の実施の形態におけるデジタルカメラ1の動作を図7のフローチャートに従って説明する。
[Third Embodiment]
Next, a third embodiment will be described.
E. Operation of Digital Camera 1 The third embodiment also realizes the imaging apparatus of the present invention by using the digital camera 1 having the same configuration as that shown in FIG. Note that the
The operation of the digital camera 1 in the third embodiment will be described below with reference to the flowchart of FIG.
ユーザのキー入力部11のモード切替キーの操作により静止画撮像モードに設定されると、CPU10は、所定のフレームレートでCCD5による被写体の撮像を開始させ、画像生成部15によって順次生成されてバッファメモリ(DRAM13)に記憶された輝度色差信号のフレーム画像データを表示部18に表示させていく、といういわゆるスルー画像表示を開始する(ステップS51)。
When the still image capturing mode is set by the user operating the mode switching key of the
次いで、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する(ステップS52)。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。
Next, the
ステップS52で、シャッタボタンが半押しされていないと判断すると、半押しされたと判断されるまでステップS52に留まり、シャッタボタンが半押しされたと判断すると、CPU10は、バッファメモリに記憶されている直近に撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS53)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。
If it is determined in step S52 that the shutter button is not half-pressed, the process stays in step S52 until it is determined that the shutter button is half-pressed. If it is determined that the shutter button is half-pressed, the
次いで、CPU10は、該顔検出処理により複数の顔が検出されたか否かを判断する(ステップS54)。
ステップS54で、複数の顔が検出されたと判断すると、CPU10の注目エリア検出部は、検出された各顔の向きに基づいて注目エリアの検出を行う(ステップS55)。この注目エリアとは、検出された顔の人が見ている(注目している)エリアのことをいう。
この注目エリアの検出は、検出された各顔の向きの方向の延長線が交差する領域を注目エリアとして検出する。
Next, the
If it is determined in step S54 that a plurality of faces have been detected, the attention area detection unit of the
In the detection of the attention area, an area where the extension lines in the detected direction of each face intersect is detected as the attention area.
図8は、検出された顔の向きに基づいて検出される注目エリアの様子の一例を示す図である。
図8を見ると、顔41と顔42は、被写体43を見ているのがわかり、注目している被写体(注目被写体)は被写体43ということになる。
ここでは、顔41と顔42とが検出され、該検出された各顔の向き方向の延長線が交差する点を中心とした所定の領域が注目エリア44となる。
FIG. 8 is a diagram illustrating an example of the state of the attention area detected based on the detected face orientation.
Referring to FIG. 8, it can be seen that the
Here, the
図8のフローチャートに戻り、注目エリアの検出を行うと、CPU10は、注目エリア検出部により注目エリア44が検出されたか否かを判断する(ステップS56)。
Returning to the flowchart of FIG. 8, when the attention area is detected, the
ステップS56で、注目エリア44が検出されたと判断すると、CPU10のAE処理部102は、該検出した注目エリア44を測光領域とし、該測光領域の画像データの輝度成分に基づいて静止画用のAE処理を行うとともに、CPU10は、該注目エリアに対してAF処理を行って(ステップS57)、ステップS59に進む。このAF処理は、フォーカスレンズ2Aを移動させて、注目エリアの画像データの高周波成分に基づく合焦レンズ位置にフォーカスレンズ2Aを移動させる。このとき、注目エリアであることを示す情報(たとえば、注目枠)をスルー画像上に表示させるようにしてもよい。
If it is determined in step S56 that the
一方、ステップS54で、複数の顔が検出されていないと判断された場合、ステップS56で、注目エリア44を検出できないと判断した場合は、CPU10のAE処理部102は、該検出された顔の領域を測光領域として、該測光領域の画像データの輝度成分に基づいて静止画用のAE処理を行うとともに、CPU10のAF処理部は、該検出された顔に対してAF処理を行って(ステップS58)、ステップS59に進む。このAF処理は、フォーカスレンズ2Aを移動させて、検出された顔領域の画像データの高周波成分に基づく合焦レンズ位置にフォーカスレンズ2Aを移動させる。
On the other hand, if it is determined in step S54 that a plurality of faces are not detected, or if it is determined in step S56 that the
なお、このとき、検出された顔が複数ある場合は、すべての顔の領域に基づいてAE処理を行うようにしてもよいし、何れか1つの顔の領域に基づいてAE処理を行うようにしてもよい。また、検出された顔が複数ある場合は、検出された顔全てにピントが合うようにAF処理を行うようにしてもよいし、何れか1つの顔に対してAF処理を行うようにしてもよい。 At this time, if there are a plurality of detected faces, the AE process may be performed based on all the face areas, or the AE process may be performed based on any one of the face areas. May be. In addition, when there are a plurality of detected faces, the AF process may be performed so that all the detected faces are in focus, or the AF process may be performed on any one of the faces. Good.
ステップS59に進むと、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS59で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS59に留まり、シャッタボタンが全押しされたと判断すると、CPU10は、ステップS57又はステップS58のAE処理によって設定された露出条件で静止画撮像処理を行い、画像生成部15によって生成され圧縮伸張部20によって圧縮された輝度色差信号の画像データを、DMA21を介してフラッシュメモリ22に記録する(ステップS60)。
In step S59, the
If it is determined in step S59 that the shutter button is not fully pressed, the process stays in step S59 until it is fully pressed. If it is determined that the shutter button is fully pressed, the
以上のように、第3の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、複数の顔が検出された場合は、該検出された各顔の向き方向の延長線が交差するエリアを、撮像された人が注目している注目エリア44として検出し、該検出した注目エリア44に対してAE処理、AF処理を行うので、被写体が注目している被写体に適切に露出を制御することができるとともに、ピントを合わせることができる。
As described above, in the third embodiment, predetermined control for imaging can be appropriately performed based on the detected face orientation. For example, when a plurality of faces are detected, an area where the extension lines in the direction of the detected faces intersect is detected as the
[変形例2]
上記第3の実施の形態は、以下のような変形例も可能である。
[Modification 2]
The third embodiment can be modified as follows.
(01)上記第3の実施の形態においては、図7のステップS59で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS59に留まるようにしたが、ステップS59で、シャッタボタンが全押しされていないと判断するとステップS53に戻るようにしてもよい。つまり、シャッタボタンが全押しされるまで注目エリアに追従、顔に追従したコンティニュアスAF処理を行うようにしてもよい。
また、静止画撮像の場合について説明したが、動画撮像の場合にも適用するようにしてもよい。
(01) In the third embodiment, if it is determined in step S59 in FIG. 7 that the shutter button is not fully pressed, the process stays in step S59 until it is fully pressed. If it is determined that the button is not fully pressed, the process may return to step S53. That is, the continuous AF process may be performed in which the area of interest is tracked and the face is tracked until the shutter button is fully pressed.
Further, although the case of still image capturing has been described, the present invention may be applied to the case of moving image capturing.
(2)上記第3の実施の形態においては、検出された各顔の向きの方向の延長線が交差する領域を注目エリアとして検出するようにしたが、検出された各顔の一部(2つ以上)の顔の向きにおいて、向きの方向の延長線がある領域で交差する場合に、その領域を注目エリアとして検出するようにしてもよい。 (2) In the third embodiment, the region where the extension lines in the direction of each detected face intersect is detected as the attention area. However, a part of each detected face (2 In the direction of more than one face, when an extension line in the direction of the direction intersects in an area, the area may be detected as an attention area.
(3)上記第3の実施の形態においては、検出された注目エリア、若しくは、検出された顔領域を測光領域としてAE処理を行うようにしたが、撮像された画像データの全領域を測光領域とし、少なくとも該検出された注目エリアを重みづけしてAE処理を行うようにしてもよい。 (3) In the third embodiment, the AE process is performed using the detected area of interest or the detected face area as the photometric area, but the entire area of the captured image data is the photometric area. AE processing may be performed by weighting at least the detected attention area.
(4)上記第3の実施の形態においては、人の顔を検出するようにしたが、人の顔ではなく、猫や犬等の動物の顔や人の体全体(頭、胴、腕、足などの体全体)等の所定の被写体を検出するようにしてもよい。このときも、該所定の被写体の向きも検出する。 (4) In the third embodiment, the human face is detected. However, instead of the human face, the face of an animal such as a cat or dog or the entire human body (head, torso, arms, A predetermined subject such as a whole body such as a foot) may be detected. At this time, the direction of the predetermined subject is also detected.
(5)上記第3の実施の形態においては、静止画撮像の場合について説明したが、動画撮像中においても適用してもよい。つまり、動画の撮像中に、検出された注目エリア44でのAE処理、AF処理を周期的に行うようにしてもよい。
(5) In the third embodiment, the case of still image capturing has been described. However, the present invention may be applied during moving image capturing. That is, the AE process and the AF process in the detected
(6)また、上記変形例(1)乃至(5)を矛盾しない範囲で任意に組み合わせた態様であってもよい。 (6) Moreover, the aspect which arbitrarily combined the said modification (1) thru | or (5) in the range which is not inconsistent may be sufficient.
また、上記各実施の形態においては、顔検出部23が、顔を検出するとともに、該検出された顔の向きも検出するようにしたが、顔検出部23が顔を検出し、該検出された顔の向きを検出する手段を別個に設けるようにしてもよい。
Further, in each of the above embodiments, the
本発明の上記各実施形態及び各変形例は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記各実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
The above-described embodiments and modifications of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims. .
最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体を撮像することができる機器であれば適用可能である。 Finally, in each of the above embodiments, the case where the imaging apparatus of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above embodiment, and the main point is to image a subject. Applicable to any device that can be used.
1 デジタルカメラ
2 撮像レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 垂直ドライバ
7 TG
8 ユニット回路
9 DMA
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 DMA
15 画像生成部
16 DMA
17 DMA
18 表示部
19 DMA
20 圧縮伸張部
21 DMA
22 フラッシュメモリ
23 顔検出部
24 バス
1
6 Vertical driver 7 TG
8
10 CPU
11
14 DMA
15
17 DMA
18
20 Compression /
22
Claims (2)
前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、
前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段と、
を備えたことを特徴とする撮像装置。 Imaging means for imaging a subject;
Subject detection means for detecting a subject in the image data imaged by the imaging means;
Identification means for identifying a direction in which the subject detected by the subject detection means is facing ;
A control means for controlling focus so as to detect a focus lens position in which the subject is in focus by changing a search movement range of the focus lens according to a direction in which the subject identified by the identification means is facing ;
An imaging apparatus comprising:
前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、
前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段
として機能させることを特徴とするプログラム。 A computer having an imaging means for imaging a subject,
Subject detection means for detecting a subject in the image data imaged by the imaging means;
Identification means for identifying a direction in which the subject detected by the subject detection means is facing ;
According to the direction in which the subject identified by the identification unit is facing , the focus lens search movement range is changed to function as a control unit that performs focus control so as to detect a focus lens position in focus on the subject. A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010055209A JP5182308B2 (en) | 2010-03-12 | 2010-03-12 | Imaging apparatus and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010055209A JP5182308B2 (en) | 2010-03-12 | 2010-03-12 | Imaging apparatus and program thereof |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008022156A Division JP4518157B2 (en) | 2008-01-31 | 2008-01-31 | Imaging apparatus and program thereof |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2010183601A JP2010183601A (en) | 2010-08-19 |
JP2010183601A5 JP2010183601A5 (en) | 2010-11-25 |
JP5182308B2 true JP5182308B2 (en) | 2013-04-17 |
Family
ID=42764709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010055209A Expired - Fee Related JP5182308B2 (en) | 2010-03-12 | 2010-03-12 | Imaging apparatus and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5182308B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6123162B2 (en) * | 2012-03-16 | 2017-05-10 | 株式会社ニコン | IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM |
JP7020263B2 (en) | 2018-04-17 | 2022-02-16 | 富士通株式会社 | Body orientation estimation program, body orientation estimation device, and body orientation estimation method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005164669A (en) * | 2003-11-28 | 2005-06-23 | Konica Minolta Photo Imaging Inc | Digital camera |
JP4609076B2 (en) * | 2005-01-20 | 2011-01-12 | トヨタ自動車株式会社 | Moving object detection apparatus and moving object detection method |
JP2009031760A (en) * | 2007-07-04 | 2009-02-12 | Sanyo Electric Co Ltd | Imaging apparatus and automatic focus control method |
-
2010
- 2010-03-12 JP JP2010055209A patent/JP5182308B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2010183601A (en) | 2010-08-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4518157B2 (en) | Imaging apparatus and program thereof | |
KR100847614B1 (en) | Imaging apparatus and computer readable recording medium | |
US8730375B2 (en) | Imaging apparatus having focus control function | |
KR101342477B1 (en) | Imaging apparatus and imaging method for taking moving image | |
KR100821801B1 (en) | Image capture apparatus and auto focus control method | |
US8724981B2 (en) | Imaging apparatus, focus position detecting method, and computer program product | |
US8384798B2 (en) | Imaging apparatus and image capturing method | |
US8451366B2 (en) | Image capturing device with automatic focus function | |
JP2007206583A (en) | Imaging apparatus and its program | |
JP5030022B2 (en) | Imaging apparatus and program thereof | |
KR101728042B1 (en) | Digital photographing apparatus and control method thereof | |
JP4853707B2 (en) | Imaging apparatus and program thereof | |
JP4614143B2 (en) | Imaging apparatus and program thereof | |
JP5105616B2 (en) | Imaging apparatus and program | |
JP2013146017A (en) | Imaging device and program | |
EP1860871A1 (en) | Image pickup apparatus and image pickup control method | |
JP5407373B2 (en) | Imaging apparatus and program | |
JP4998122B2 (en) | Imaging apparatus and program thereof | |
JP2007318292A (en) | Motion vector detector and its program | |
JP5182308B2 (en) | Imaging apparatus and program thereof | |
JP5126285B2 (en) | Imaging apparatus and program thereof | |
JP5257969B2 (en) | Focus position control device, focus position control method, focus position control program | |
JP6024135B2 (en) | Subject tracking display control device, subject tracking display control method and program | |
JP2011107550A (en) | Imaging apparatus | |
JP2003295040A (en) | Camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101006 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101006 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111129 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120323 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120731 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120830 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121231 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5182308 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160125 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |