JP6225463B2 - Imaging apparatus, imaging method, and recording medium - Google Patents

Imaging apparatus, imaging method, and recording medium Download PDF

Info

Publication number
JP6225463B2
JP6225463B2 JP2013085193A JP2013085193A JP6225463B2 JP 6225463 B2 JP6225463 B2 JP 6225463B2 JP 2013085193 A JP2013085193 A JP 2013085193A JP 2013085193 A JP2013085193 A JP 2013085193A JP 6225463 B2 JP6225463 B2 JP 6225463B2
Authority
JP
Japan
Prior art keywords
exposure control
face
detected
face area
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013085193A
Other languages
Japanese (ja)
Other versions
JP2014207618A (en
Inventor
野村 健一郎
健一郎 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Imaging Co Ltd
Original Assignee
Ricoh Imaging Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Imaging Co Ltd filed Critical Ricoh Imaging Co Ltd
Priority to JP2013085193A priority Critical patent/JP6225463B2/en
Publication of JP2014207618A publication Critical patent/JP2014207618A/en
Application granted granted Critical
Publication of JP6225463B2 publication Critical patent/JP6225463B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Description

本発明は、人の顔を撮影する際に良好な露出制御をすることができる撮像装置、撮像方法および記録媒体に関する。   The present invention relates to an imaging apparatus, an imaging method, and a recording medium that can perform favorable exposure control when photographing a human face.

従来、デジタルカメラ等の撮像装置において、被写体の画像を例えば1/30秒毎の表示周期で撮像して電子ビューファインダにそのスルー画像を表示する構成が知られている。また、人の顔を撮影する際に良好な露出制御を行うことができるカメラとして特許文献1に開示されたものが知られている。このカメラでは、表示装置の表示周期に関わらず、ある一定のタイミングでそのときに存在する表示装置用の画像信号を用いて顔検出を実施し、メモリに顔情報が保存される。シャッタボタンが半押しされると、この時の最新の顔情報がメモリから読み出される。   2. Description of the Related Art Conventionally, in an imaging apparatus such as a digital camera, a configuration is known in which an image of a subject is captured at a display cycle of, for example, every 1/30 seconds and the through image is displayed on an electronic viewfinder. Further, a camera disclosed in Patent Document 1 is known as a camera that can perform good exposure control when photographing a human face. In this camera, face detection is performed using an image signal for a display device existing at a certain timing regardless of the display cycle of the display device, and the face information is stored in a memory. When the shutter button is half-pressed, the latest face information at this time is read from the memory.

一方、連写時に顔検出ができないときに顔の位置や大きさを推定するカメラとして特許文献2に開示されたものが知られている。このカメラでは、連写処理の前後で液晶モニタにスルー画像が表示され、このスルー画像において所定間隔で顔検出が繰り返し行われ、顔情報がメモリに記憶される。顔が検出されない場合に、メモリに記憶された直前の顔情報から顔の位置情報や顔の大きさが推定される。   On the other hand, a camera disclosed in Patent Document 2 is known as a camera that estimates the position and size of a face when face detection cannot be performed during continuous shooting. In this camera, a through image is displayed on the liquid crystal monitor before and after the continuous shooting process, face detection is repeatedly performed on the through image at a predetermined interval, and face information is stored in the memory. When the face is not detected, the face position information and the face size are estimated from the previous face information stored in the memory.

特開2007−074394号公報JP 2007-074394 A 特開2008−263478号公報JP 2008-263478 A

特許文献1のカメラでは、シャッタボタンが押下された時に、メモリに保存された最新の顔情報が用いられる。このようなカメラでは、直前の顔情報において本来顔が検出されるべきところ、顔検出結果が未検出だった場合、顔検出がない場合の通常の露出制御が行われ、適切な制御が行われない。また、特許文献2のカメラでは、連写時すなわち撮影時に関する露出制御において顔が未検出の際に顔情報が推定される。このように顔の位置や大きさを記憶してこれらの情報を基に顔の位置や大きさを推定する制御では、未検出結果が出た直後に演算を行う必要があり、スルー画像の表示周期と比較して時間がかかるという問題がある。   In the camera of Patent Document 1, the latest face information stored in the memory is used when the shutter button is pressed. In such a camera, the face should be detected in the previous face information, but if the face detection result is not detected, normal exposure control is performed when there is no face detection, and appropriate control is performed. Absent. Further, in the camera of Patent Document 2, face information is estimated when no face is detected in exposure control during continuous shooting, that is, during shooting. In such control that stores the position and size of the face and estimates the position and size of the face based on this information, it is necessary to perform computation immediately after the undetected result is obtained, and display the through image. There is a problem that it takes time in comparison with the period.

本発明は、スルー画像表示および撮影の際、顔検出率が低下した場合でも、簡易な構成で顔検出の有無を推定し、迅速かつ良好な露出制御ができる撮像装置、撮像方法および記録媒体を提供することを目的としている。   The present invention provides an imaging apparatus, an imaging method, and a recording medium capable of estimating the presence / absence of face detection with a simple configuration and performing quick and good exposure control even when a face detection rate decreases during through image display and shooting. It is intended to provide.

本発明に係る撮影装置は、被写体の画像を繰り返し検出し、検出した画像を表示するモニタリングを行う撮像装置であって、画像全体の輝度値を取得する第1輝度値取得手段と、繰り返し検出された画像毎に顔領域を検出する顔検出手段と、一定期間内において顔領域が検出されたことを示す顔検出結果を記憶する顔検出結果記憶手段と、顔検出結果を基に顔領域の輝度値を取得する第2輝度値取得手段と、モニタリング中に顔領域が検出された場合には、第1輝度値取得手段と第2輝度値取得手段により取得された輝度値と画像全体の輝度値の目標値を基に露出制御値を算出する露出制御値算出手段と、算出された露出制御値を常に記憶する顔検出露出制御値記憶手段と、モニタリング中に顔領域が検出されなかった場合には、一定期間内に所定数以上の画像において顔領域が検出されたときに、顔検出露出制御値記憶手段から取得した露出制御値を用いる露出制御手段と、を備えることを特徴としている。   An imaging device according to the present invention is an imaging device that repeatedly detects an image of a subject and performs monitoring for displaying the detected image, and is repeatedly detected with a first luminance value acquisition unit that acquires a luminance value of the entire image. Face detection means for detecting a face area for each image, face detection result storage means for storing a face detection result indicating that the face area has been detected within a certain period, and brightness of the face area based on the face detection result A second luminance value acquisition unit for acquiring a value, and when a face area is detected during monitoring, the luminance value acquired by the first luminance value acquisition unit and the second luminance value acquisition unit and the luminance value of the entire image Exposure control value calculation means for calculating an exposure control value based on the target value of the camera, face detection exposure control value storage means for always storing the calculated exposure control value, and when a face area is not detected during monitoring Within a certain period When the face area is detected in a predetermined number or more images, and comprising: an exposure control means using an exposure control value acquired from the face detection exposure control value storing means.

好ましくは、露出制御手段は、顔領域が検出されなかった場合には、前回の顔領域が検出された画像における顔領域の色情報と今回の画像における前回検出された顔領域と同じ領域の色情報との差が一定の範囲内であるかを判定し、一定範囲内であれば顔検出露出制御値記憶手段から取得した露出制御値を用いる。   Preferably, when the face area is not detected, the exposure control means color information of the face area in the image in which the previous face area is detected and the color of the same area as the previously detected face area in the current image. It is determined whether the difference from the information is within a certain range. If the difference is within the certain range, the exposure control value acquired from the face detection exposure control value storage means is used.

また、好ましくは、モニタリング以外の動作からモニタリングに戻った直後において、露出制御手段は、モニタリング中に顔領域が検出されなかった場合には、前回のモニタリングが終了する直前の一定期間内に所定数以上の画像において顔領域が検出されたときに、顔検出露出制御値記憶手段から取得した露出制御値を用いる。   Preferably, immediately after returning to monitoring from an operation other than monitoring, the exposure control means, if no face area is detected during monitoring, a predetermined number within a certain period immediately before the end of the previous monitoring. When a face area is detected in the above image, the exposure control value acquired from the face detection exposure control value storage means is used.

また、好ましくは、顔検出結果記憶手段は、所定の期間、顔検出結果を記憶し、顔検出露出制御値記憶手段は、所定の期間、露出制御値を記憶し、モニタリング以外の動作からモニタリングに戻った直後において、記憶された顔検出結果および露出制御値が存在する場合に、露出制御手段は、記憶された顔検出結果および露出制御値を用いる。   Preferably, the face detection result storage means stores the face detection result for a predetermined period, and the face detection exposure control value storage means stores the exposure control value for a predetermined period, and the operation is performed from operations other than monitoring. Immediately after returning, when the stored face detection result and exposure control value exist, the exposure control means uses the stored face detection result and exposure control value.

本発明に係る撮影方法は、被写体の画像を繰り返し検出し、検出した画像を表示するモニタリングを行う撮像方法であって、画像全体の輝度値を取得する第1輝度値取得方法と、繰り返し検出された画像毎に顔領域を検出する顔検出方法と、一定期間内において顔領域が検出されたことを示す顔検出結果を記憶する顔検出結果記憶方法と、顔検出結果を基に顔領域の輝度値を取得する第2輝度値取得方法と、モニタリング中に顔領域が検出された場合には、第1輝度値取得方法と第2輝度値取得方法により取得された輝度値と画像全体の輝度値の目標値を基に露出制御値を算出する露出制御値算出方法と、算出された露出制御値を常に記憶する顔検出露出制御値記憶方法と、モニタリング中に顔領域が検出されなかった場合には、一定期間内に所定数以上の画像において顔領域が検出されたときに、顔検出露出制御値記憶方法により取得された露出制御値を用いる露出制御方法と、を含む。   An imaging method according to the present invention is an imaging method for performing monitoring for repeatedly detecting an image of a subject and displaying the detected image, and a first luminance value acquisition method for acquiring a luminance value of the entire image and the detection method. A face detection method for detecting a face area for each image, a face detection result storage method for storing a face detection result indicating that the face area has been detected within a certain period, and a brightness of the face area based on the face detection result A second luminance value acquisition method for acquiring a value, and when a face area is detected during monitoring, the luminance value acquired by the first luminance value acquisition method and the second luminance value acquisition method and the luminance value of the entire image An exposure control value calculation method for calculating an exposure control value based on the target value of the face, a face detection exposure control value storage method for always storing the calculated exposure control value, and when a face area is not detected during monitoring Within a certain period When the face area is detected in a predetermined number or more images, including, an exposure control method of using the obtained exposure control value by the face detecting exposure control value storing method.

好ましくは、露出制御方法は、顔領域が検出されなかった場合には、前回の顔領域が検出された画像における顔領域の色情報と今回の画像における前回検出された顔領域と同じ領域の色情報との差が一定の範囲内であるかを判定し、一定範囲内であれば顔検出露出制御値記憶方法により取得した露出制御値を用いる。   Preferably, in the case where the face area is not detected, the exposure control method includes the color information of the face area in the image in which the previous face area is detected and the color of the same area as the previously detected face area in the current image. It is determined whether the difference from the information is within a certain range. If the difference is within the certain range, the exposure control value acquired by the face detection exposure control value storage method is used.

また好ましくは、モニタリング以外の動作からモニタリングに戻った直後には、一定期間は、前回のモニタリングが終了する直前の一定期間である。   Also preferably, immediately after returning to monitoring from an operation other than monitoring, the certain period is a certain period immediately before the end of the previous monitoring.

本発明に係る記録媒体は、被写体の画像を繰り返し検出し、検出した画像を表示するモニタリングを行う撮像装置に用いられ、自動露出制御演算処理を実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、自動露出制御演算処理は、画像全体の輝度値を取得する第1輝度値取得処理と、繰り返し検出された画像毎に顔領域を検出する顔検出処理と、一定期間内において顔領域が検出されたことを示す顔検出結果を記憶する顔検出結果記憶処理と、顔検出結果を基に顔領域の輝度値を取得する第2輝度値取得処理と、モニタリング中に顔領域が検出された場合には、第1輝度値取得処理と第2輝度値取得処理により取得された輝度値と画像全体の輝度値の目標値を基に露出制御値を算出する露出制御値算出処理と、算出された露出制御値を常に記憶する顔検出露出制御値記憶処理と、モニタリング中に顔領域が検出されなかった場合には、一定期間内に所定数以上の画像において顔領域が検出されたときに、顔検出露出制御値記憶処理により取得された露出制御値を用いる露出制御処理と、を含む。   The recording medium according to the present invention is used in an imaging apparatus that repeatedly detects an image of a subject and performs monitoring for displaying the detected image, and is a computer-readable recording that records a program for executing automatic exposure control calculation processing. The automatic exposure control calculation process includes a first brightness value acquisition process for acquiring a brightness value of the entire image, a face detection process for detecting a face area for each repeatedly detected image, and a face within a predetermined period. A face detection result storing process for storing a face detection result indicating that the area has been detected, a second brightness value acquiring process for acquiring a brightness value of the face area based on the face detection result, and a face area being detected during monitoring If so, an exposure control value calculation process for calculating an exposure control value based on the brightness value acquired by the first brightness value acquisition process and the second brightness value acquisition process and the target value of the brightness value of the entire image The face detection exposure control value storing process that always stores the calculated exposure control value, and when no face area is detected during monitoring, the face area is detected in a predetermined number or more images within a certain period of time. And an exposure control process using the exposure control value acquired by the face detection exposure control value storage process.

本発明によれば、スルー画像表示および撮影の際、顔検出率が低下した場合でも、簡易な構成で顔検出の有無を推定し、迅速かつ良好な露出制御ができる撮像装置、撮像方法および記録媒体を得る。   According to the present invention, an imaging device, an imaging method, and a recording that can estimate the presence / absence of face detection with a simple configuration and perform quick and good exposure control even when the face detection rate is reduced during through image display and shooting. Get the medium.

本発明の第1または第2の実施形態を適用したデジタルカメラの外観図である。It is an external view of a digital camera to which the first or second embodiment of the present invention is applied. 第1または第2の実施形態に係るデジタルカメラのシステム構成図である。It is a system block diagram of the digital camera which concerns on 1st or 2nd embodiment. 図2のCPU内部の処理部を示す図である。It is a figure which shows the process part inside CPU of FIG. 第1または第2の実施形態に係るデジタルカメラのモニタリング動作と静止画撮影動作を示すフローチャートである。6 is a flowchart illustrating a monitoring operation and a still image shooting operation of the digital camera according to the first or second embodiment. 第1の実施形態に係るAE演算を示すフローチャートである。It is a flowchart which shows AE calculation which concerns on 1st Embodiment. 第2の実施形態に係るAE演算を示すフローチャートである。It is a flowchart which shows AE calculation which concerns on 2nd Embodiment.

以下、第1の実施形態を図面を参照して説明する。図1(a)、(b)、(c)は、それぞれデジタルカメラすなわち撮像装置の平面図、正面図、背面図である。デジタルカメラ10の上面側には、レリーズボタン(シャッタボタン)11、電源ボタン13、撮影・再生切替ダイアル15が設けられている。撮影・再生切替ダイアル15表面には、再生モードアイコン17、静止画撮影モードアイコン19等のアイコンが表示され、各アイコンがダイアル指標21の位置に合わせられることにより、撮影モードと再生モードが選択される。   Hereinafter, a first embodiment will be described with reference to the drawings. 1A, 1B, and 1C are a plan view, a front view, and a rear view of a digital camera, that is, an imaging apparatus, respectively. On the upper surface side of the digital camera 10, a release button (shutter button) 11, a power button 13, and a shooting / playback switching dial 15 are provided. Icons such as a playback mode icon 17 and a still image shooting mode icon 19 are displayed on the surface of the shooting / playback switching dial 15, and the shooting mode and the playback mode are selected by aligning each icon with the position of the dial index 21. The

デジタルカメラ10の正面(前面)側には、ズーム/フォーカスレンズを有する鏡胴ユニット25、ストロボ発光部27、光学ファインダ29が設けられている。デジタルカメラ10の背面側には、液晶モニタ(LCD)31、光学ファインダ29の接眼レンズ部33、広角側ズーム(W)スイッチ35、望遠側ズーム(T)スイッチ37、メニュー(MENU)ボタン39、確定ボタン(OKボタン)41等が設けられている。また、図示しないが、デジタルカメラ10の側面内部には、撮影した画像データを保存するためのメモリカードが収容されるメモリカード収容部が設けられている。   On the front (front) side of the digital camera 10, a lens barrel unit 25 having a zoom / focus lens, a strobe light emitting unit 27, and an optical viewfinder 29 are provided. On the back side of the digital camera 10, a liquid crystal monitor (LCD) 31, an eyepiece 33 of the optical viewfinder 29, a wide-angle zoom (W) switch 35, a telephoto zoom (T) switch 37, a menu (MENU) button 39, A confirmation button (OK button) 41 and the like are provided. Further, although not shown, a memory card accommodating portion for accommodating a memory card for storing captured image data is provided inside the side surface of the digital camera 10.

図2はデジタルカメラのシステム構成図である。デジタルカメラには、CCD100が設けられ、アナログフロントエンド部(AFE部)200に接続されている。AFE部200は信号処理部300に接続され、信号処理部300には、SDRAM400とLCDディスプレイ410とROM420と操作部430が接続され、また、メモリカード440が着脱可能に取付られる。CCD100の前にはズーム/フォーカスレンズ510とメカシャッタ520が設けられ、これらはモータドライバ530により駆動される。   FIG. 2 is a system configuration diagram of the digital camera. The digital camera is provided with a CCD 100 and connected to an analog front end unit (AFE unit) 200. The AFE unit 200 is connected to the signal processing unit 300. The SDRAM 400, the LCD display 410, the ROM 420, and the operation unit 430 are connected to the signal processing unit 300, and the memory card 440 is detachably attached. In front of the CCD 100, a zoom / focus lens 510 and a mechanical shutter 520 are provided, and these are driven by a motor driver 530.

鏡胴ユニット25に設けられたズーム/フォーカスレンズ510を通過して光線が入射し、CCD100の受光面上に被写体像が結像する。CCD100には、CCD100を構成する複数の画素毎に色分解フィルタとしてのRGB原色フィルタが配けられる。CCD100はRGB三原色に対応した電気信号であるアナログRGB画像信号を出力する。AFE部200はCCD100から出力される画像信号をデジタルデータに変換して出力する。信号処理部300はAFE部200から出力されるデジタルデータを処理する。SDRAM400は信号処理部300から出力されるデータを一時的に保存する。LCDディスプレイ410は信号処理部300から出力される画像データを表示する。メモリカード440は信号処理部300から出力されるデータを保存する。ROM420は露出制御等の制御プログラムを記憶する。   A light beam enters through the zoom / focus lens 510 provided in the lens barrel unit 25, and a subject image is formed on the light receiving surface of the CCD 100. The CCD 100 is provided with an RGB primary color filter as a color separation filter for each of a plurality of pixels constituting the CCD 100. The CCD 100 outputs an analog RGB image signal that is an electrical signal corresponding to the three primary colors of RGB. The AFE unit 200 converts the image signal output from the CCD 100 into digital data and outputs the digital data. The signal processing unit 300 processes digital data output from the AFE unit 200. The SDRAM 400 temporarily stores data output from the signal processing unit 300. The LCD display 410 displays the image data output from the signal processing unit 300. The memory card 440 stores data output from the signal processing unit 300. The ROM 420 stores a control program such as exposure control.

モータドライバ530は信号処理部300のCPU(制御部)320からの駆動信号を入力してズーム/フォーカスレンズ510、メカシャッタ520等を駆動する。操作部430は、デジタルカメラ10(図1参照)に設けられているレリーズボタン11、電源ボタン13、撮影・再生切替ダイアル15、広角側ズームスイッチ35、望遠側ズームスイッチ37、メニューボタン39、確定ボタン41等である。操作部430を操作することにより動作指示信号が発生し、CPU320に入力される。モータドライバ530は、CPU320からの駆動信号により駆動制御される。   The motor driver 530 inputs a drive signal from a CPU (control unit) 320 of the signal processing unit 300 and drives the zoom / focus lens 510, the mechanical shutter 520, and the like. The operation unit 430 includes a release button 11, a power button 13, a photographing / playback switching dial 15, a wide-angle zoom switch 35, a telephoto zoom switch 37, a menu button 39, and a confirmation button provided on the digital camera 10 (see FIG. 1). Buttons 41 and the like. By operating the operation unit 430, an operation instruction signal is generated and input to the CPU 320. The motor driver 530 is driven and controlled by a drive signal from the CPU 320.

AFE部200は、TG(タイミング信号発生部)201とCDS(相関2重サンプリング部)203とAGC(アナログ利得制御部)205とA/D変換部207を備える。TG201はCCD100の電子シャッタを駆動するタイミング信号を出力する。CDS203はCCD100から出力される電気信号であるアナログRGB画像信号のノイズを低減する。AGC205はCDS203にてノイズが低減された画像信号の出力を調整する。A/D変換部207はAGC205で出力が調整された画像信号をデジタル信号(RAW−RGBデータ)に変換する。   The AFE unit 200 includes a TG (timing signal generation unit) 201, a CDS (correlated double sampling unit) 203, an AGC (analog gain control unit) 205, and an A / D conversion unit 207. The TG 201 outputs a timing signal for driving the electronic shutter of the CCD 100. The CDS 203 reduces noise in the analog RGB image signal that is an electrical signal output from the CCD 100. The AGC 205 adjusts the output of the image signal whose noise has been reduced by the CDS 203. The A / D conversion unit 207 converts the image signal whose output is adjusted by the AGC 205 into a digital signal (RAW-RGB data).

信号処理部300は、CCDインターフェース(CCDI/F)301とメモリコントローラ303とYUV変換部305とリサイズ処理部307と表示出力制御部309とデータ圧縮部311とメディアインターフェース(メディアI/F)313とCPU320を備える。CCDI/F301はAFE部200のTG201へ画面水平同期信号(HD)と画面垂直同期信号(VD)を出力する。これらの同期信号に同期してCDS203、AGC205、A/D変換部207は各処理を行い、CCDI/F301にはA/D変換部207により出力されるRAW−RGBデータが入力される。メモリコントローラ303はSDRAM400を制御する。   The signal processing unit 300 includes a CCD interface (CCD I / F) 301, a memory controller 303, a YUV conversion unit 305, a resize processing unit 307, a display output control unit 309, a data compression unit 311, a media interface (media I / F) 313, A CPU 320 is provided. The CCD I / F 301 outputs a screen horizontal synchronizing signal (HD) and a screen vertical synchronizing signal (VD) to the TG 201 of the AFE unit 200. The CDS 203, AGC 205, and A / D conversion unit 207 perform each process in synchronization with these synchronization signals, and RAW-RGB data output from the A / D conversion unit 207 is input to the CCD I / F 301. The memory controller 303 controls the SDRAM 400.

YUV変換部305は入力されたRAW−RGBデータをYUV形式の画像データ(YUVデータ)に変換する。YUVデータは表示や記録が可能な画像データである。リサイズ処理部307は表示や記録が行われるときの設定された画像データのサイズに合わせて画像データのサイズを変更する。表示出力制御部309は画像データの表示出力を制御し、これを基にLCDディスプレイ410やTVは画像データを表示する。データ圧縮部311は記録するデータ量を小さくするためにYUVデータをJPEG形式等の画像データに圧縮する。メディアI/F313はメモリカード440との間で画像データの書き込みまたは読み出しを行う。   The YUV converter 305 converts the input RAW-RGB data into YUV format image data (YUV data). YUV data is image data that can be displayed and recorded. The resizing processing unit 307 changes the size of the image data in accordance with the set size of the image data when display or recording is performed. The display output control unit 309 controls the display output of the image data, and based on this, the LCD display 410 and the TV display the image data. The data compression unit 311 compresses YUV data into image data such as JPEG format in order to reduce the amount of data to be recorded. The media I / F 313 writes / reads image data to / from the memory card 440.

撮影者が操作部430を操作することによって所定の動作指示信号がCPU320に入力される。CPU320は、操作部430からの操作入力情報とROM420に記憶された露出制御等の制御プログラムに基づき、デジタルカメラ全体のシステム制御を行う。SDRAM400は、RAW−RGB保存部401、YUV保存部403、JPEG保存部405、OSD(On-Screen Display)保存部407を備える。RAW−RGB保存部401はCCDI/F301に入力されたRAW−RGBデータを保存する。YUV保存部403はYUV変換部305により変換されたYUVデータを保存する。さらに、JPEG保存部405はJPEG形式等の圧縮画像データを保存する。   When the photographer operates the operation unit 430, a predetermined operation instruction signal is input to the CPU 320. The CPU 320 performs system control of the entire digital camera based on operation input information from the operation unit 430 and a control program such as exposure control stored in the ROM 420. The SDRAM 400 includes a RAW-RGB storage unit 401, a YUV storage unit 403, a JPEG storage unit 405, and an OSD (On-Screen Display) storage unit 407. A RAW-RGB storage unit 401 stores the RAW-RGB data input to the CCD I / F 301. A YUV storage unit 403 stores the YUV data converted by the YUV conversion unit 305. Further, the JPEG storage unit 405 stores compressed image data such as JPEG format.

図3は図2のCPU320内部の処理部を示す図である。CPU320には、1フレーム分の画像データであるRAW−RGBデータが一定間隔(例えば1/30秒)毎に、すなわち繰り返し入力される。全ブロックY値取得部321(第1輝度値取得手段)は、RAW−RGBデータを、16×16(=256)のブロックに等分割する。したがって例えば1画面(1フレーム)が約1000万画素を有している場合、各分割ブロックは約3.9万画素を有する。本実施形態では、R成分、G成分、B成分の各画素数の比率は、R:G:B=1:2:1であり、各分割ブロックはR画素=約0.975万画素、G画素=約1.95万画素、B画素=0.975万画素から構成される。全ブロックY値取得部321は画素毎のRAW−RGBデータに基づき、次に述べるように分割されたブロックのそれぞれについてRGB積算値を算出する。   FIG. 3 is a diagram showing a processing unit inside the CPU 320 of FIG. RAW-RGB data, which is image data for one frame, is repeatedly input to the CPU 320 at regular intervals (for example, 1/30 second), that is, repeatedly. The all-block Y value acquisition unit 321 (first luminance value acquisition unit) equally divides the RAW-RGB data into 16 × 16 (= 256) blocks. Therefore, for example, when one screen (one frame) has about 10 million pixels, each divided block has about 39 million pixels. In the present embodiment, the ratio of the number of pixels of the R component, the G component, and the B component is R: G: B = 1: 2: 1, and each divided block has R pixels = about 0.97550,000 pixels, G The pixel is composed of about 19.95 million pixels, and the B pixel = 0.975 million pixels. The all block Y value acquisition unit 321 calculates an RGB integrated value for each of the divided blocks based on the RAW-RGB data for each pixel as described below.

RGB積算値は、分割ブロックのそれぞれについて、全画素におけるR成分、G成分、B成分毎にRAW−RGBデータが加算平均されることにより算出される。上記の例では、9750個のR成分のデータが加算平均されることによりR成分に関するRGB積算値が算出される。19500個のG成分のデータが加算平均されることによりG成分に関するRGB積算値が算出される。また、9750個のB成分のデータが加算平均されることによりB成分に関するRGB積算値が算出される。   The RGB integrated value is calculated by averaging the RAW-RGB data for each of the R component, G component, and B component in all pixels for each of the divided blocks. In the above example, 9750 R component data are added and averaged to calculate an RGB integrated value for the R component. The RGB integrated values for the G component are calculated by averaging the 19500 G component data. Further, 9750 B component data are added and averaged to calculate an RGB integrated value for the B component.

次に、全ブロックY値取得部321は、ブロック毎にR成分、G成分、B成分に関するRGB積算値を用いて式(1)によりブロック毎のY値(輝度値)を生成する。
輝度値=R×0.299+G×0.587+B×0.114 ・・・(1)
ここで、R、G、Bは、それぞれR成分、G成分、B成分に関するブロック毎のRGB積算値である。このようにして、全ブロックY値取得部321は256個の各ブロックについての輝度値を演算により求める。
Next, the all-block Y-value acquisition unit 321 generates a Y value (luminance value) for each block using Equation (1) using the RGB integrated values for the R component, G component, and B component for each block.
Luminance value = R × 0.299 + G × 0.587 + B × 0.114 (1)
Here, R, G, and B are RGB integrated values for each block related to the R component, the G component, and the B component, respectively. In this way, the all-block Y value acquisition unit 321 calculates the luminance value for each of the 256 blocks by calculation.

顔検出部323(顔検出手段)は、SDRAM400に保存された画像データから公知の顔検出技術(例えば、ガボール・ウェーブレット変換+グラフマッチング)を使用して、人物の顔を検出する。顔検出部323は一定間隔(例えば1/30秒)毎に、すなわち繰り返し1フレーム分の画像データから顔領域を検出する。   The face detection unit 323 (face detection means) detects a human face from image data stored in the SDRAM 400 using a known face detection technique (for example, Gabor wavelet transform + graph matching). The face detection unit 323 detects a face area at regular intervals (for example, 1/30 seconds), that is, repeatedly from image data for one frame.

顔エリアY値取得部325(第2輝度値取得手段)は、顔領域が検出された際には、顔領域が含まれるブロックの輝度値を取得する。すなわち顔エリアY値取得部325は顔検出結果を基に顔領域の輝度値を取得する。さらに顔エリアY値取得部325は、現在のフレームに関して顔領域が検出された場合、全ブロックY値取得部321から取得した全ブロックの輝度値である全ブロックY値と顔領域が含まれるブロックの輝度値である顔エリアY値に関し、顔エリアY値に重みづけした加重平均することにより、そのフレームにおける被写体輝度データY値を算出する。   When the face area is detected, the face area Y value acquisition unit 325 (second luminance value acquisition unit) acquires the luminance value of the block including the face area. That is, the face area Y value acquisition unit 325 acquires the brightness value of the face area based on the face detection result. Furthermore, when a face area is detected for the current frame, the face area Y value acquisition unit 325 includes all block Y values that are the luminance values of all blocks acquired from the all block Y value acquisition unit 321 and a block including the face area. The subject luminance data Y value in the frame is calculated by performing weighted averaging of the face area Y value, which is the luminance value of the frame, by weighting the face area Y value.

露出制御値算出部327(露出制御値算出手段)は、ROM420に予め保存されている目標輝度データY値と、被写体を測光した結果である被写体輝度データY値が一致した場合に、露出すなわち明るさが適正であると判断する。目標輝度データY値と被写体輝度データY値が一致しない場合には、露出制御値算出部327は、被写体輝度データY値が目標輝度データY値になるような露出制御値を算出する。   The exposure control value calculation unit 327 (exposure control value calculation means) performs exposure, that is, brightness when the target luminance data Y value stored in advance in the ROM 420 matches the subject luminance data Y value obtained by measuring the subject. Is determined to be appropriate. If the target luminance data Y value and the subject luminance data Y value do not match, the exposure control value calculation unit 327 calculates an exposure control value such that the subject luminance data Y value becomes the target luminance data Y value.

シャッタ・絞り・ゲイン制御部329(露出制御手段)は、顔領域が検出された場合には、露出制御値算出部327が算出した露出制御値に基づいて、露出条件、すなわち、CCDのシャッタスピード、絞り値(開口値)、CCDの感度(ゲイン値)、メカシャッタのシャッタスピードを設定する。シャッタ・絞り・ゲイン制御部329は、顔領域が検出されなかった場合には、一定期間(例えば現在までの過去20フレーム)内に所定数(例えば5フレーム)以上の画像において顔領域が検出されたときに、前回の顔検出時の露出制御値を用いる。これに対し、全ブロックY値取得部321は、現在のフレームに関して顔領域が未検出であり、現在までの過去20フレームの顔検出回数が所定数以下の場合、全ブロックY値を加算平均することにより被写体輝度データY値を算出する。   When a face area is detected, the shutter / aperture / gain control unit 329 (exposure control unit), based on the exposure control value calculated by the exposure control value calculation unit 327, exposes the exposure condition, that is, the shutter speed of the CCD. Aperture value (aperture value), CCD sensitivity (gain value), and mechanical shutter speed are set. When the face area is not detected, the shutter / aperture / gain control unit 329 detects the face area in a predetermined number (for example, 5 frames) or more of images within a certain period (for example, the past 20 frames up to the present). The exposure control value at the previous face detection is used. On the other hand, if the face area has not been detected for the current frame and the number of face detections in the past 20 frames up to the present is less than or equal to the predetermined number, the all block Y value acquisition unit 321 averages all the block Y values. Thus, the subject luminance data Y value is calculated.

CPU320は上述した各動作をモニタリング中にフレーム毎(すなわち1/30秒毎)に行う。ここでモニタリングは、レリーズボタン11(図1参照)が半押しまたは全押しされておらず、電子ファインダとして機能する液晶モニタ31(図1参照)に撮影画像または撮影動画等のスルー画像が表示されている状態である。モニタリング時には、CCDI/F301が画素数の間引き処理を行いながら、1/30秒毎に1フレーム分の画像データが読み出される。すなわち、モニタリング中には被写体の画像が1/30秒毎に検出され、検出された画像が表示される。このように画像が液晶モニタに表示されることにより、画像を撮影するための構図の確認等が可能となる。   The CPU 320 performs the above-described operations for each frame (that is, every 1/30 seconds) during monitoring. Here, in the monitoring, the release button 11 (see FIG. 1) is not half-pressed or fully pressed, and a through image such as a photographed image or a photographed moving image is displayed on the liquid crystal monitor 31 (see FIG. 1) functioning as an electronic viewfinder. It is in a state. At the time of monitoring, image data for one frame is read every 1/30 seconds while the CCD I / F 301 performs a thinning process for the number of pixels. That is, during monitoring, the image of the subject is detected every 1/30 seconds, and the detected image is displayed. By displaying the image on the liquid crystal monitor in this way, it is possible to confirm the composition for taking the image.

図4はデジタルカメラ10のモニタリング中の静止画撮影の動作を示すフローチャートである。図1〜3を参照して説明する。本実施形態のデジタルカメラ10は、静止画撮影モード時には、以下に説明するようなモニタリング中に静止画撮影を行う。まず、ステップ601において電源ボタン13がONされ、撮影・再生切替ダイアル15により撮影モード(静止画撮影モード)が選択される。デジタルカメラ10が起動されると、CPU320はモータドライバ530に制御信号を出力し、これによりズーム/フォーカスレンズ510は所定位置に移動させられる。また、CCD100、AFE部200、信号処理部300、SDRAM400、ROM420および液晶モニタ31等が起動する。   FIG. 4 is a flowchart showing still image shooting operation during monitoring by the digital camera 10. A description will be given with reference to FIGS. In the still image shooting mode, the digital camera 10 of the present embodiment performs still image shooting during monitoring as described below. First, in step 601, the power button 13 is turned on, and a shooting mode (still image shooting mode) is selected by the shooting / playback switching dial 15. When the digital camera 10 is activated, the CPU 320 outputs a control signal to the motor driver 530, whereby the zoom / focus lens 510 is moved to a predetermined position. In addition, the CCD 100, the AFE unit 200, the signal processing unit 300, the SDRAM 400, the ROM 420, the liquid crystal monitor 31, and the like are activated.

次にステップ602〜604に示されるモニタリングが行われる。ステップ602ではAE(自動露出)演算が行われ、適正な露出制御値が決定される。この露出制御値に基づいて、露出条件が設定される。   Next, monitoring shown in steps 602 to 604 is performed. In step 602, AE (automatic exposure) calculation is performed to determine an appropriate exposure control value. An exposure condition is set based on the exposure control value.

ステップ603ではAWB(オートホワイトバランス)演算が行われ、各ブロックのRGB積算値に基づき被写体の光源の色に合わせたAWBの制御値が決定される。SDRAM400から読み出されたRAW−RGBデータは、YUVデータに変換され、SDRAM400にYUVデータが一時的に保存される。YUVデータに変換される際、画像データのホワイトバランスはAWB演算により決定された制御値に調整される。AE演算とAWB演算は、モニタリング中には連続的に行われている。ステップ604においてSDRAM400から読み出されたYUV信号は、液晶モニタ31へ伝送され、スルー画像が表示される。   In step 603, AWB (auto white balance) calculation is performed, and an AWB control value that matches the color of the light source of the subject is determined based on the RGB integrated value of each block. The RAW-RGB data read from the SDRAM 400 is converted into YUV data, and the YUV data is temporarily stored in the SDRAM 400. When converted into YUV data, the white balance of the image data is adjusted to a control value determined by AWB calculation. The AE calculation and the AWB calculation are continuously performed during monitoring. In step 604, the YUV signal read from the SDRAM 400 is transmitted to the liquid crystal monitor 31, and a through image is displayed.

次にステップ605〜610に示される静止画撮影が行われる。ステップ605においてレリーズボタン11が半押しされた場合、ステップ606においてAF(自動合焦)動作が実行され、いわゆる山登り方式に従ってフォーカスレンズが合焦位置に移動し、被写体像が合焦する。   Next, still image shooting shown in steps 605 to 610 is performed. When the release button 11 is half-pressed in step 605, an AF (automatic focus) operation is executed in step 606, the focus lens is moved to the focus position according to a so-called hill climbing method, and the subject image is focused.

ステップ607においてレリーズボタン11が全押しされた場合、ステップ608におけるAE演算では、露光時にCPU320からモータドライバ530への露出条件に基づく駆動指令によりメカシャッタ520が開閉してCCD100が露光されるとともに、CCD100からアナログRGB画像信号が出力される。そしてステップ609においてAWB演算が行われRAW−RGBデータがYUVデータに変換されSDRAM400に一時的に保存される。   When the release button 11 is fully pressed in step 607, in the AE calculation in step 608, the mechanical shutter 520 is opened and closed by the drive command based on the exposure condition from the CPU 320 to the motor driver 530 during exposure, and the CCD 100 is exposed. Output an analog RGB image signal. In step 609, AWB calculation is performed, and the RAW-RGB data is converted into YUV data and temporarily stored in the SDRAM 400.

その後、一時的に保存されたYUVデータはSDRAM400から読み出されて、記録画素数に対応するサイズに圧縮される。圧縮されたデータは、SDRAM400に一時的に保存された後、ステップ610においてメモリカード440に保存される。なお、レリーズボタン11が半押しまたは全押しされない場合やメモリカード440への保存が完了した場合は、ステップ602へ戻りモニタリングが継続される。   Thereafter, the temporarily stored YUV data is read from the SDRAM 400 and compressed to a size corresponding to the number of recording pixels. The compressed data is temporarily stored in the SDRAM 400 and then stored in the memory card 440 in step 610. When the release button 11 is not half-pressed or fully pressed or when saving to the memory card 440 is completed, the process returns to step 602 and monitoring is continued.

図5はAE演算を示すフローチャートである。このAE演算は、図4のステップ602とステップ608の処理すなわちモニタリングおよび静止画撮影に共通である。ステップ701において全ブロックY値取得部321は全ブロックY値を取得する。ステップ702において顔検出部323が顔領域を検出した場合、CPU320(顔検出結果記憶手段)は一定期間(例えば20フレーム)内において顔領域が検出されたことを示す顔検出結果を記憶する。ステップ703において顔エリアY値取得部325は顔エリアY値を取得する。ステップ704において露出制御値算出部327は全ブロックY値と顔エリアY値から露出制御値を算出する。ステップ705においてCPU320(顔検出露出制御値記憶手段)は算出された露出制御値を常に記憶する。またステップ706において、ステップ704で算出された露出制御値を基にシャッタ・絞り・ゲイン制御部329は露出条件を設定する。   FIG. 5 is a flowchart showing the AE calculation. This AE calculation is common to the processing of step 602 and step 608 in FIG. 4, that is, monitoring and still image shooting. In step 701, the all block Y value acquisition unit 321 acquires all block Y values. When the face detection unit 323 detects a face area in step 702, the CPU 320 (face detection result storage means) stores a face detection result indicating that the face area has been detected within a certain period (for example, 20 frames). In step 703, the face area Y value acquisition unit 325 acquires the face area Y value. In step 704, the exposure control value calculation unit 327 calculates an exposure control value from all block Y values and face area Y values. In step 705, the CPU 320 (face detection exposure control value storage means) always stores the calculated exposure control value. In step 706, the shutter / aperture / gain control unit 329 sets an exposure condition based on the exposure control value calculated in step 704.

一方、ステップ702において顔領域が検出されない場合、ステップ707においてCPU320は記憶された現在までの過去20フレームにおける顔検出回数がn(例えばn=5)より大きいかどうかを判断する。顔検出回数が5より大きい場合、ステップ708においてシャッタ・絞り・ゲイン制御部329はCPU320により記憶された、前回顔領域が検出されたフレームに関する露出制御値を使用して、露出条件を設定する。顔検出回数が5以下の場合、ステップ709において露出制御値算出部327は全ブロックY値を基に露出制御値を算出する。算出された露出制御値を基にシャッタ・絞り・ゲイン制御部329は露出条件を設定する。   On the other hand, if no face area is detected in step 702, in step 707, the CPU 320 determines whether or not the number of face detections in the past 20 frames stored so far is greater than n (for example, n = 5). If the number of face detections is greater than 5, the shutter / aperture / gain control unit 329 sets the exposure condition using the exposure control value for the frame in which the previous face area was detected, which is stored by the CPU 320 in step 708. When the number of face detections is 5 or less, in step 709, the exposure control value calculation unit 327 calculates an exposure control value based on all block Y values. Based on the calculated exposure control value, the shutter / aperture / gain control unit 329 sets an exposure condition.

このように本実施形態では、人の顔を撮影する際、顔検出結果が未検出の場合には現在までの過去20フレームの顔検出回数が5より大きいかどうかが判断されて、記憶された露出制御値が使用されるか、または全ブロックY値を基に露出制御値が算出される。すなわち、逆光等により現在までの過去20フレームにおける顔検出回数が、例えば1、2回の場合には、顔検出されなかったものと推定され、全ブロックY値を基に露出制御値が算出される。また顔検出回数が、例えば6、7回の場合には、顔検出されたものと推定されて、記憶された露出制御値を基に露出制御が行われる。したがって、顔が逆光または低輝度の場合であっても、スルー画像表示および撮影の際、現在のフレームにおいて顔領域を検出することができないために露出制御が不安定になることが回避され、迅速かつ良好な露出制御が可能となる。   As described above, in the present embodiment, when a human face is photographed, if the face detection result is not detected, it is determined whether the number of face detections in the past 20 frames up to the present is greater than 5, and stored. The exposure control value is used, or the exposure control value is calculated based on the total block Y value. That is, when the number of face detections in the past 20 frames up to the present due to backlighting is 1, 2, for example, it is estimated that no face was detected, and the exposure control value is calculated based on all block Y values. The When the number of face detections is 6, 7 for example, it is estimated that a face has been detected, and exposure control is performed based on the stored exposure control value. Therefore, even when the face is backlit or low-luminance, exposure control is avoided from becoming unstable because the face area cannot be detected in the current frame during through image display and shooting. And good exposure control becomes possible.

図6は第2の実施形態に係るAE演算を示すフローチャートである。なお、デジタルカメラの外観とシステム構成とモニタリング中の静止画撮影の動作は第1の実施形態と共通である。   FIG. 6 is a flowchart showing an AE calculation according to the second embodiment. The appearance of the digital camera, the system configuration, and the still image shooting operation during monitoring are the same as those in the first embodiment.

第2の実施形態における第1の実施形態との違いは、図6のAE演算においてステップ801が追加されたことである。本実施形態では顔領域が検出されなかった場合にさらに色情報に基づき顔領域の有無についての判断が行われる。ステップ702において顔領域が検出されなかった場合には、ステップ707において記憶された現在までの過去20フレームにおける顔検出回数がn(例えばn=5)以下のとき、ステップ801において、前回の顔領域が検出されたフレームにおける、顔領域が含まれるブロックのRGB積算値(色情報)と、今回のフレームにおける前回検出された顔領域と同じ領域が含まれるブロックのRGB積算値との差が一定の範囲内であるかが判定される。これらの差が一定範囲内であれば、ステップ708において、前回顔領域が検出されたフレームに関する露出制御値が使用される。一方、これらの差が一定範囲よりも大きければ、ステップ709において全ブロックY値から露出制御値が算出される。   The difference of the second embodiment from the first embodiment is that step 801 is added in the AE calculation of FIG. In this embodiment, when a face area is not detected, the presence / absence of the face area is further determined based on the color information. If no face area is detected in step 702, when the number of face detections in the past 20 frames stored in step 707 is less than or equal to n (for example, n = 5), the previous face area is determined in step 801. The difference between the RGB integrated value (color information) of the block including the face area in the frame in which the image is detected and the RGB integrated value of the block including the same area as the previously detected face area in the current frame is constant. It is determined whether it is within the range. If these differences are within a certain range, in step 708, the exposure control value for the frame in which the previous face area was detected is used. On the other hand, if these differences are larger than a certain range, an exposure control value is calculated from all block Y values in step 709.

このように本実施形態では、一度顔領域が検出された後、逆光または低輝度により顔領域が検出されないフレームが続いた場合でも、前回顔領域が検出されたフレームにおける、顔領域が含まれるブロックのRGB積算値と、今回のフレームにおける前回検出された顔領域と同じ領域が含まれるブロックのRGB積算値との差が一定の範囲内であるかがさらに判定される。したがって第1の実施形態よりも、顔の撮影に適しており、かつ、安定した露出制御が可能となる。   As described above, in the present embodiment, after a face area is detected once, a block that includes the face area in the frame in which the face area was detected last time, even if a frame in which the face area is not detected due to backlight or low luminance continues. It is further determined whether or not the difference between the RGB integrated value and the RGB integrated value of the block including the same area as the previously detected face area in the current frame is within a certain range. Therefore, it is more suitable for face photography than the first embodiment, and stable exposure control is possible.

なお、デジタルカメラがメニュー画面表示動作や再生モード、すなわちモニタリング以外の動作からモニタリングに戻った直後には、図5、6のステップ707において、前回モニタリングが終了する直前の20フレームの顔検出回数に基づいて露出制御値が決定される。これにより、モニタリングに戻った直後に顔検出部がまだ顔領域を検出できていない時でも顔検出の有無を推定し、迅速かつ良好な露出制御ができる。また、モニタリングが再開された直後の一定期間(例えば20フレーム)には記憶された露出制御値が使用されてもよい。また、本実施形態は、上記のモニタリング以外の動作からモニタリングに戻った直後においてのみ適用され、これ以外では適用されなくてもよい。また、顔検出結果および露出制御値は、所定の期間のみ記憶されてもよい。この場合、デジタルカメラがモニタリング以外の動作からモニタリングに戻った直後において、記憶された顔検出結果および露出制御値が存在するときに、記憶された顔検出結果および露出制御値が用いられる。   Note that immediately after the digital camera returns to monitoring from the menu screen display operation or playback mode, that is, from an operation other than monitoring, in step 707 of FIGS. 5 and 6, the face detection count of 20 frames immediately before the end of the previous monitoring is reached. Based on this, an exposure control value is determined. Thereby, even when the face detection unit has not yet detected the face area immediately after returning to the monitoring, the presence / absence of the face detection can be estimated, and quick and good exposure control can be performed. The stored exposure control value may be used for a certain period (for example, 20 frames) immediately after the monitoring is resumed. Moreover, this embodiment is applied only immediately after returning to monitoring from operations other than the above monitoring, and may not be applied otherwise. Further, the face detection result and the exposure control value may be stored only for a predetermined period. In this case, the stored face detection result and exposure control value are used when the stored face detection result and exposure control value exist immediately after the digital camera returns to monitoring from an operation other than monitoring.

また、ステップ705(図5、6)において、常に最新の顔検出結果から算出された露出制御値のみが記憶されてもよい。また、顔検出結果は1フレーム内に少なくとも1つの顔が検出されたことを示す。この他の実施形態として、1フレーム内の顔領域が含まれるブロックの位置が一度記憶され、このブロック周辺の所定範囲ブロック内で顔領域の検出の有無が判定され、現在までの過去20フレームの顔検出回数が判断されてもよい。また、検出された顔情報が登録され、登録された顔情報と一致する顔に関して顔領域の検出の有無が判定されてもよい。   In step 705 (FIGS. 5 and 6), only the exposure control value calculated from the latest face detection result may always be stored. The face detection result indicates that at least one face is detected in one frame. As another embodiment, the position of a block including a face area in one frame is stored once, and whether or not a face area is detected in a predetermined range block around this block is determined. The number of face detections may be determined. Further, the detected face information may be registered, and it may be determined whether or not a face area has been detected for a face that matches the registered face information.

また、YUVデータの「YUV」は、輝度データ「Y」と、色差(輝度データと青色「B」成分データの差分「U」と、輝度データと赤色「R」成分データの差分「V」)の情報で色を表現する形式である。また、ブロックの分割数は256個に限定されないが好ましくは4以上である。また、ブロックの分割は等分割であることは必要ではないが、好ましくは全ての分割ブロックが等面積かつ同形状に等分割される。また、1フレーム分の画像データであるRAW−RGBデータは、CPU320に一定間隔(例えば1/30秒)毎に入力されなくてもよい。また、顔領域は、1フレーム分の画像データから一定間隔(例えば1/30秒)毎に検出されなくてもよい。   The YUV data “YUV” is the luminance data “Y” and the color difference (the difference “U” between the luminance data and the blue “B” component data and the difference “V” between the luminance data and the red “R” component data). It is a format that expresses color with information. Further, the number of divided blocks is not limited to 256, but is preferably 4 or more. Further, it is not necessary that the blocks are equally divided, but preferably all the divided blocks are equally divided into equal areas and the same shape. Also, RAW-RGB data, which is image data for one frame, may not be input to the CPU 320 at regular intervals (for example, 1/30 seconds). Further, the face area may not be detected at regular intervals (for example, 1/30 second) from the image data for one frame.

10 デジタルカメラ
11 レリーズボタン(シャッタボタン)
13 電源ボタン
15 撮影・再生切替ダイアル
17 再生モードアイコン
19 静止画撮影モードアイコン
21 ダイアル指標
25 鏡胴ユニット
27 ストロボ発光部
29 光学ファインダ
31 液晶モニタ(LCD)
33 接眼レンズ部
35 広角側ズーム(W)スイッチ
37 望遠側ズーム(T)スイッチ
39 メニュー(MENU)ボタン
41 確定ボタン(OKボタン)
100 CCD
200 アナログフロントエンド部(AFE部)
201 TG(タイミング信号発生部)
203 CDS(相関2重サンプリング部)
205 AGC(アナログ利得制御部)
207 A/D変換部
300 信号処理部
301 CCDインターフェース(CCDI/F)
303 メモリコントローラ
305 YUV変換部
307 リサイズ処理部
309 表示出力制御部
311 データ圧縮部
313 メディアインターフェース(メディアI/F)
320 制御部(CPU)
321 全ブロックY値取得部
323 顔検出部
325 顔エリアY値取得部
327 露出制御値算出部
329 シャッタ・絞り・ゲイン制御部
400 SDRAM
401 RAW−RGB保存部
403 YUV保存部
405 JPEG保存部
407 OSD(On-Screen Display)保存部
410 LCDディスプレイ
420 ROM
430 操作部
440 メモリカード
510 ズーム/フォーカスレンズ
520 メカシャッタ
530 モータドライバ

10 Digital camera 11 Release button (shutter button)
13 Power button 15 Shooting / playback switching dial 17 Playback mode icon 19 Still image shooting mode icon 21 Dial index 25 Lens barrel unit 27 Strobe light emitting unit 29 Optical viewfinder 31 LCD monitor (LCD)
33 Eyepiece 35 35 Wide-angle zoom (W) switch 37 Telephoto zoom (T) switch 39 Menu (MENU) button 41 Confirm button (OK button)
100 CCD
200 Analog front end (AFE part)
201 TG (timing signal generator)
203 CDS (correlated double sampling unit)
205 AGC (analog gain controller)
207 A / D converter 300 Signal processor 301 CCD interface (CCD I / F)
303 Memory Controller 305 YUV Conversion Unit 307 Resize Processing Unit 309 Display Output Control Unit 311 Data Compression Unit 313 Media Interface (Media I / F)
320 Control unit (CPU)
321 All block Y value acquisition unit 323 Face detection unit 325 Face area Y value acquisition unit 327 Exposure control value calculation unit 329 Shutter / aperture / gain control unit 400 SDRAM
401 RAW-RGB storage unit 403 YUV storage unit 405 JPEG storage unit 407 OSD (On-Screen Display) storage unit 410 LCD display 420 ROM
430 Operation unit 440 Memory card 510 Zoom / focus lens 520 Mechanical shutter 530 Motor driver

Claims (6)

被写体の画像を繰り返し検出し、前記検出した画像を表示するモニタリングを行う撮像装置であって、
前記画像全体の輝度値を取得する第1輝度値取得手段と、
前記繰り返し検出された画像毎に顔領域を検出する顔検出手段と、
前記顔領域が検出されたことを示す顔検出結果を記憶する顔検出結果記憶手段と、
前記顔検出結果を基に前記顔領域の輝度値を取得する第2輝度値取得手段と、
前記モニタリング中に前記顔領域が検出された場合には、前記第1輝度値取得手段と前記第2輝度値取得手段により取得された輝度値と画像全体の輝度値の目標値を基に露出制御値を算出する露出制御値算出手段と、
前記算出された露出制御値を常に記憶する顔検出露出制御値記憶手段と、
前記モニタリング中に前記顔領域が検出されなかった場合で、かつ過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されたときに、前記顔検出露出制御値記憶手段から取得した前記露出制御値を用い、
前記モニタリング中に前記顔領域が検出されなかった場合で、かつ過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されなかったときに、前回の前記顔領域が検出された前記画像における前記顔領域の色情報と今回の前記画像における前回検出された顔領域と同じ領域の色情報との差が一定の範囲内であるかを判定し、一定の範囲内であれば前記顔検出露出制御値記憶手段から取得した前記露出制御値を用いる露出制御手段と、
を備えることを特徴とする撮像装置。
An imaging device that repeatedly detects an image of a subject and performs monitoring to display the detected image,
First luminance value acquisition means for acquiring a luminance value of the entire image;
Face detection means for detecting a face area for each of the repeatedly detected images;
Face detection result storage means for storing a face detection result indicating that the face area has been detected;
Second luminance value acquisition means for acquiring a luminance value of the face region based on the face detection result;
When the face area is detected during the monitoring, exposure control is performed based on the luminance value acquired by the first luminance value acquisition unit and the second luminance value acquisition unit and the target value of the luminance value of the entire image. Exposure control value calculating means for calculating a value;
Face detection exposure control value storage means for always storing the calculated exposure control value;
The exposure acquired from the face detection exposure control value storage means when the face area is not detected during the monitoring and when the face area is detected a predetermined number of times or more in a predetermined number of frames in the past. Use the control value
When the face area is not detected during the monitoring, and when the face area is not detected more than a predetermined number of times in the predetermined number of frames in the past, in the image in which the previous face area was detected It is determined whether the difference between the color information of the face area and the color information of the same area as the previously detected face area in the current image is within a certain range, and if within the certain range, the face detection exposure Exposure control means using the exposure control value acquired from the control value storage means;
An imaging apparatus comprising:
前記モニタリング以外の動作から前記モニタリングに戻った直後において、
前記露出制御手段は、前記モニタリング中に前記顔領域が検出されなかった場合には、前回の前記モニタリングが終了する直前の過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されたときに、前記顔検出露出制御値記憶手段から取得した前記露出制御値を用いることを特徴とする請求項1に記載の撮像装置。
Immediately after returning to the monitoring from an operation other than the monitoring,
The exposure control means, when the face area is not detected during the monitoring, when the face area is detected a predetermined number of times or more in a predetermined number of frames in the past immediately before the end of the previous monitoring. The imaging apparatus according to claim 1, wherein the exposure control value acquired from the face detection exposure control value storage unit is used.
前記顔検出結果記憶手段は、所定の期間、前記顔検出結果を記憶し、
前記顔検出露出制御値記憶手段は、前記所定の期間、前記露出制御値を記憶し、
前記モニタリング以外の動作から前記モニタリングに戻った直後において、前記記憶された顔検出結果および露出制御値が存在する場合に、
前記露出制御手段は、前記記憶された顔検出結果および露出制御値を用いることを特徴とする請求項2に記載の撮像装置。
The face detection result storage means stores the face detection result for a predetermined period,
The face detection exposure control value storage means stores the exposure control value for the predetermined period,
Immediately after returning to the monitoring from an operation other than the monitoring, when the stored face detection result and the exposure control value exist,
The imaging apparatus according to claim 2, wherein the exposure control unit uses the stored face detection result and exposure control value.
被写体の画像を繰り返し検出し、前記検出した画像を表示するモニタリングを行う撮像方法であって、
前記画像全体の輝度値を取得する第1輝度値取得方法と、
前記繰り返し検出された画像毎に顔領域を検出する顔検出方法と、
前記顔領域が検出されたことを示す顔検出結果を記憶する顔検出結果記憶方法と、
前記顔検出結果を基に前記顔領域の輝度値を取得する第2輝度値取得方法と、
前記モニタリング中に前記顔領域が検出された場合には、前記第1輝度値取得方法と前記第2輝度値取得方法により取得された輝度値と画像全体の輝度値の目標値を基に露出制御値を算出する露出制御値算出方法と、
前記算出された露出制御値を常に記憶する顔検出露出制御値記憶方法と、
前記モニタリング中に前記顔領域が検出されなかった場合で、かつ過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されたときに、前記顔検出露出制御値記憶方法により取得された前記露出制御値を用い、
記顔領域が検出されなかった場合で、かつ過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されなかったときに、前回の前記顔領域が検出された前記画像における前記顔領域の色情報と今回の前記画像における前回検出された顔領域と同じ領域の色情報との差が一定の範囲内であるかを判定し、一定範囲内であれば前記顔検出露出制御値記憶方法により取得した前記露出制御値を用いる露出制御方法と、
を含むことを特徴とする撮像方法。
An imaging method for repeatedly detecting an image of a subject and performing monitoring for displaying the detected image,
A first luminance value acquisition method for acquiring a luminance value of the entire image;
A face detection method for detecting a face area for each of the repeatedly detected images;
A face detection result storage method for storing a face detection result indicating that the face area has been detected;
A second luminance value acquisition method for acquiring a luminance value of the face region based on the face detection result;
When the face area is detected during the monitoring, exposure control is performed based on the luminance value acquired by the first luminance value acquisition method and the second luminance value acquisition method and the target value of the luminance value of the entire image. An exposure control value calculation method for calculating a value;
A face detection exposure control value storage method for always storing the calculated exposure control value;
When the face area is not detected during the monitoring, and when the face area is detected a predetermined number of times or more in a predetermined number of frames in the past, the face detection exposure control value obtained by the method is stored. Using the exposure control value,
In the former case Kikao area is not detected, and when the face area of a predetermined number of times or more is not detected in a past predetermined number of frames, the face area in the image where the face region of last time is detected The difference between the color information of the current area and the color information of the same area as the previously detected face area in the current image is within a certain range, and if within the certain range, the face detection exposure control value storage method An exposure control method using the exposure control value acquired by:
An imaging method comprising:
前記モニタリング以外の動作から前記モニタリングに戻った直後において
前記露出制御方法は、前記モニタリング中に前記顔領域が検出されなかった場合には、前回の前記モニタリングが終了する直前の過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されたときに、前記顔検出露出制御値記憶方法により取得した前記露出制御値を用いることを特徴とする請求項4に記載の撮像方法。
Oite immediately after returning to the monitoring from the operation other than the monitoring,
In the exposure control method, when the face area is not detected during the monitoring, the face area is detected a predetermined number of times or more in a predetermined number of frames in the past immediately before the end of the previous monitoring. the imaging method according to claim 4, characterized in Rukoto using the exposure control value acquired by the face detection exposure control value storing method.
被写体の画像を繰り返し検出し、前記検出した画像を表示するモニタリングを行う撮像装置に用いられ、自動露出制御演算処理を実行するためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、
前記自動露出制御演算処理は、
前記画像全体の輝度値を取得する第1輝度値取得処理と、
前記繰り返し検出された画像毎に顔領域を検出する顔検出処理と、
前記顔領域が検出されたことを示す顔検出結果を記憶する顔検出結果記憶処理と、
前記顔検出結果を基に前記顔領域の輝度値を取得する第2輝度値取得処理と、
前記モニタリング中に前記顔領域が検出された場合には、前記第1輝度値取得処理と前記第2輝度値取得処理により取得された輝度値と画像全体の輝度値の目標値を基に露出制御値を算出する露出制御値算出処理と、
前記算出された露出制御値を常に記憶する顔検出露出制御値記憶処理と、
前記モニタリング中に前記顔領域が検出されなかった場合で、かつ過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されたときに、前記顔検出露出制御値記憶処理により取得された前記露出制御値を用い、
記顔領域が検出されなかった場合で、かつ過去の所定数のフレームにおいて所定回数以上の前記顔領域が検出されなかったときに、前回の前記顔領域が検出された前記画像における前記顔領域の色情報と今回の前記画像における前回検出された顔領域と同じ領域の色情報との差が一定の範囲内であるかを判定し、一定範囲内であれば前記顔検出露出制御値記憶処理により取得した前記露出制御値を用いる露出制御処理と、
を含むことを特徴とする記録媒体。
A computer-readable recording medium in which a program for executing automatic exposure control calculation processing is used, which is used in an imaging device that repeatedly detects an image of a subject and performs monitoring to display the detected image,
The automatic exposure control calculation process is:
A first luminance value acquisition process for acquiring a luminance value of the entire image;
A face detection process for detecting a face area for each of the repeatedly detected images;
A face detection result storage process for storing a face detection result indicating that the face area has been detected;
A second luminance value acquisition process for acquiring a luminance value of the face area based on the face detection result;
When the face area is detected during the monitoring, exposure control is performed based on the brightness value acquired by the first brightness value acquisition process and the second brightness value acquisition process and the target value of the brightness value of the entire image. Exposure control value calculation processing for calculating a value;
A face detection exposure control value storage process for always storing the calculated exposure control value;
When the face area is not detected during the monitoring, and when the face area is detected a predetermined number of times or more in a predetermined number of frames in the past, the face detection exposure control value storage process obtains Using the exposure control value,
In the former case Kikao area is not detected, and when the face area of a predetermined number of times or more is not detected in a past predetermined number of frames, the face area in the image where the face region of last time is detected And whether the difference between the color information of the current area and the color information of the same area as the previously detected face area in the current image is within a certain range, and if within the certain range, the face detection exposure control value storage process Exposure control processing using the exposure control value acquired by
A recording medium comprising:
JP2013085193A 2013-04-15 2013-04-15 Imaging apparatus, imaging method, and recording medium Active JP6225463B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013085193A JP6225463B2 (en) 2013-04-15 2013-04-15 Imaging apparatus, imaging method, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013085193A JP6225463B2 (en) 2013-04-15 2013-04-15 Imaging apparatus, imaging method, and recording medium

Publications (2)

Publication Number Publication Date
JP2014207618A JP2014207618A (en) 2014-10-30
JP6225463B2 true JP6225463B2 (en) 2017-11-08

Family

ID=52120840

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013085193A Active JP6225463B2 (en) 2013-04-15 2013-04-15 Imaging apparatus, imaging method, and recording medium

Country Status (1)

Country Link
JP (1) JP6225463B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6631561B2 (en) * 2017-03-06 2020-01-15 株式会社デンソー Direction detection device and operation control device
CN106993139B (en) * 2017-04-28 2019-10-15 维沃移动通信有限公司 A kind of image pickup method and mobile terminal

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4639271B2 (en) * 2005-12-27 2011-02-23 三星電子株式会社 camera
JP4983672B2 (en) * 2008-03-19 2012-07-25 カシオ計算機株式会社 Imaging apparatus and program thereof
JP2010147817A (en) * 2008-12-18 2010-07-01 Canon Inc Imaging apparatus, method and program for controlling same

Also Published As

Publication number Publication date
JP2014207618A (en) 2014-10-30

Similar Documents

Publication Publication Date Title
US7706674B2 (en) Device and method for controlling flash
JP6512810B2 (en) Image pickup apparatus, control method and program
US7961228B2 (en) Imaging apparatus and method for controlling exposure by determining backlight situations and detecting a face
JP5169318B2 (en) Imaging apparatus and imaging method
KR101329942B1 (en) Image capturing apparatus and method for controlling the same
JP2008182485A (en) Photographing device and photographing method
US9113082B2 (en) Imaging device
JP2009010616A (en) Imaging device and image output control method
JP2009118083A (en) Digital camera
JP2009272813A (en) Imaging apparatus, and image display method
JP6758950B2 (en) Imaging device, its control method and program
JP5948997B2 (en) Imaging apparatus and imaging method
JP6225463B2 (en) Imaging apparatus, imaging method, and recording medium
US11463612B2 (en) Control apparatus, control method, and program
JP2008263478A (en) Imaging apparatus
JP5146015B2 (en) Imaging apparatus and imaging method
JP2001255451A (en) Automatic focusing device, digital camera and portable information input device
JP2005260879A (en) Digital camera
JP5169542B2 (en) Electronic camera
JP2009077266A (en) Digital camera, focus area selecting method of digital camera
JP2006020022A (en) Monitor control apparatus
JP2008085638A (en) Photographing device and method
JP5393189B2 (en) Imaging apparatus and image processing method
JP2009231966A (en) Imaging apparatus and program therefor
JP5720382B2 (en) Imaging device

Legal Events

Date Code Title Description
RD05 Notification of revocation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7425

Effective date: 20150327

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170912

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170925

R150 Certificate of patent or registration of utility model

Ref document number: 6225463

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250