JP5182308B2 - Imaging apparatus and program thereof - Google Patents

Imaging apparatus and program thereof Download PDF

Info

Publication number
JP5182308B2
JP5182308B2 JP2010055209A JP2010055209A JP5182308B2 JP 5182308 B2 JP5182308 B2 JP 5182308B2 JP 2010055209 A JP2010055209 A JP 2010055209A JP 2010055209 A JP2010055209 A JP 2010055209A JP 5182308 B2 JP5182308 B2 JP 5182308B2
Authority
JP
Japan
Prior art keywords
face
detected
area
subject
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010055209A
Other languages
Japanese (ja)
Other versions
JP2010183601A (en
JP2010183601A5 (en
Inventor
健士 岩本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2010055209A priority Critical patent/JP5182308B2/en
Publication of JP2010183601A publication Critical patent/JP2010183601A/en
Publication of JP2010183601A5 publication Critical patent/JP2010183601A5/ja
Application granted granted Critical
Publication of JP5182308B2 publication Critical patent/JP5182308B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Exposure Control For Cameras (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像装置及びそのプログラムに関する。   The present invention relates to an imaging apparatus and a program thereof.

撮像装置、たとえば、カメラにおいて、顔の向きを検出するという技術がある。
(特許文献1)
There is a technique for detecting the orientation of a face in an imaging apparatus, for example, a camera.
(Patent Document 1)

公開特許公報 特開2007−280374JP Patent Publication No. 2007-280374

しかしながら、上記特許文献1の技術によれば、顔の向きを検出しても、撮影する際に、顔の向きを考慮した撮影制御を行なうということはされていなかった。   However, according to the technique of the above-mentioned Patent Document 1, even if the orientation of the face is detected, imaging control considering the orientation of the face has not been performed at the time of imaging.

そこで本発明は、被写体の向きを考慮した撮像制御を行なうことができる撮像装置及びそのプログラムを提供することを目的とする。   SUMMARY An advantage of some aspects of the invention is that it provides an imaging apparatus capable of performing imaging control in consideration of the direction of a subject and a program thereof.

上記目的達成のため請求項1記載の発明による撮像装置は、被写体を撮像する撮像手段と、前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段と、を備えたことを特徴とする。 In order to achieve the above object, an image pickup apparatus according to a first aspect of the present invention includes an image pickup means for picking up a subject, a subject detection means for detecting a subject in image data picked up by the image pickup means, and the subject detection means. An identification unit that identifies a direction in which the detected subject is facing , and a focus movement by changing a search lens movement range of the focus lens according to the direction in which the subject identified by the identification unit is facing. And control means for performing focus control so as to detect the lens position.

上記目的達成のため請求項2記載の発明によるプログラムは、被写体を撮像する撮像手段を備えたコンピュータを、前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段として機能させることを特徴とする。 To achieve the above object, a program according to a second aspect of the present invention provides a computer including an imaging unit that images a subject, a subject detection unit that detects a subject in image data captured by the imaging unit, and the subject An identification unit that identifies a direction in which the subject detected by the detection unit is facing , and a focus lens search movement range is changed according to the direction in which the subject identified by the identification unit is facing , and the subject is focused. It is characterized by functioning as a control means for controlling the focus so as to detect an in-focus lens position.

本発明によれば、検出された顔の向きに基づいた撮像のための所定の制御を行うことができる。   According to the present invention, it is possible to perform predetermined control for imaging based on the detected face orientation.

本発明の実施の形態のデジタルカメラのブロック図である。1 is a block diagram of a digital camera according to an embodiment of the present invention. 第1の実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of 1st Embodiment. 検出されたフレーム画像データ内にある顔と、該検出された顔の向きに基づく顔検出処理の対象となる一定領域、該検出された顔の向きに基づいて特定された予測領域の様子の一例を示す図と、ステップS6のAE処理後にステップS2で撮像されたフレーム画像の様子、及び、ステップS6のAE処理の測光領域の対象となった予測領域33の様子の一例を示す図である。An example of a face in the detected frame image data, a certain area to be subjected to face detection processing based on the detected face orientation, and a prediction area specified based on the detected face orientation FIG. 6 is a diagram illustrating an example of a frame image captured in step S2 after the AE process in step S6 and an example of a prediction area 33 that is a target of the photometric area in the AE process in step S6. フォーカスレンズ2Aの移動の様子を図、及び、検出された顔の向きの様子の一例を示す図である。It is a figure which shows the mode of a movement of focus lens 2A, and a figure which shows an example of the mode of the direction of the detected face. 第2の実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of 2nd Embodiment. 第2の実施の形態における露出制御を説明するための図である。It is a figure for demonstrating the exposure control in 2nd Embodiment. 第3の実施の形態のデジタルカメラ1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the digital camera 1 of 3rd Embodiment. 検出された顔の向きに基づいて検出される注目エリア44の様子の一例を示す図である。It is a figure which shows an example of the mode of the attention area 44 detected based on the direction of the detected face.

以下、本第1の実施の形態について、本発明の撮像装置をデジタルカメラに適用した一例として図面を参照して詳細に説明する。
[第1の実施の形態]
A.デジタルカメラの構成
図1は、本発明の撮像装置を実現するデジタルカメラ1の電気的な概略構成を示すブロック図である。
デジタルカメラ1は、撮像レンズ2、レンズ駆動ブロック3、絞り4、CCD5、垂直ドライバ6、TG(timing generator)7、ユニット回路8、DMAコントローラ(以下、DMAという)9、CPU10、キー入力部11、メモリ12、DRAM13、DMA14、画像生成部15、DMA16、DMA17、表示部18、DMA19、圧縮伸張部20、DMA21、フラッシュメモリ22、顔検出部23、バス24を備えている。
Hereinafter, the first embodiment will be described in detail with reference to the drawings as an example in which the imaging apparatus of the present invention is applied to a digital camera.
[First Embodiment]
A. Configuration of Digital Camera FIG. 1 is a block diagram showing a schematic electrical configuration of a digital camera 1 that implements the imaging apparatus of the present invention.
The digital camera 1 includes an imaging lens 2, a lens driving block 3, an aperture 4, a CCD 5, a vertical driver 6, a TG (timing generator) 7, a unit circuit 8, a DMA controller (hereinafter referred to as DMA) 9, a CPU 10, and a key input unit 11. , Memory 12, DRAM 13, DMA 14, image generation unit 15, DMA 16, DMA 17, display unit 18, DMA 19, compression / decompression unit 20, DMA 21, flash memory 22, face detection unit 23, and bus 24.

撮像レンズ2は、図示しない複数のレンズ群から構成され、フォーカスレンズ2Aを少なくとも有する。そして、フォーカスレンズ2Aにはレンズ駆動ブロック3が接続されている。レンズ駆動ブロック3は、フォーカスレンズ2Aを光軸方向に沿って駆動させるフォーカスモータ、CPU10から送られてくる制御信号にしたがって、フォーカスモータを駆動させるフォーカスモータドライバから構成されている(図示略)。   The imaging lens 2 is composed of a plurality of lens groups (not shown) and has at least a focus lens 2A. A lens driving block 3 is connected to the focus lens 2A. The lens driving block 3 includes a focus motor that drives the focus lens 2A along the optical axis direction and a focus motor driver that drives the focus motor in accordance with a control signal sent from the CPU 10 (not shown).

絞り4は、図示しない駆動回路を含み、駆動回路はCPU10から送られてくる制御信号にしたがって絞り4を動作させる。
絞りとは、CCD5に入射される光の量を制御する機構のことをいう。
露出量は、この絞り値(絞りの度合い)とシャッタ速度によって定められる。
The diaphragm 4 includes a drive circuit (not shown), and the drive circuit operates the diaphragm 4 in accordance with a control signal sent from the CPU 10.
The diaphragm is a mechanism that controls the amount of light incident on the CCD 5.
The exposure amount is determined by the aperture value (aperture level) and the shutter speed.

CCD5は、垂直ドライバ6によって走査駆動され、一定周期毎に被写体像のRGB値の各色の光の強さを光電変換して撮像信号としてユニット回路8に出力する。この垂直ドライバ6、ユニット回路8の動作タイミングはTG7を介してCPU10によって制御される。また、CCD5は電子シャッタとしての機能を有し、この電子シャッタは、垂直ドライバ6、TG7を介してCPU10を介して制御される。   The CCD 5 is scanned and driven by the vertical driver 6, photoelectrically converts the intensity of light of each color of the RGB value of the subject image at a constant period, and outputs it to the unit circuit 8 as an imaging signal. The operation timing of the vertical driver 6 and the unit circuit 8 is controlled by the CPU 10 via the TG 7. The CCD 5 has a function as an electronic shutter, and the electronic shutter is controlled via the CPU 10 via the vertical driver 6 and TG 7.

ユニット回路8には、TG7が接続されており、CCD5から出力される撮像信号を相関二重サンプリングして保持するCDS(Correlated Double Sampling)回路、そのサンプリング後の撮像信号の自動利得調整を行なうAGC(Automatic Gain Control)回路、その自動利得調整後のアナログ信号をデジタル信号に変換するA/D変換器から構成されており、CCD5によって得られた撮像信号はユニット回路8を経た後、DMA9によってベイヤーデータの状態でバッファメモリ(DRAM13)に記憶される。   A TG 7 is connected to the unit circuit 8, a CDS (Correlated Double Sampling) circuit that holds the imaged signal output from the CCD 5 by correlated double sampling, and an AGC that performs automatic gain adjustment of the imaged signal after the sampling. (Automatic Gain Control) circuit and an A / D converter that converts the analog signal after the automatic gain adjustment into a digital signal. The image pickup signal obtained by the CCD 5 passes through the unit circuit 8 and is then Bayered by the DMA 9 The data is stored in the buffer memory (DRAM 13).

CPU10は、AF処理、記録処理、表示処理などを行う機能を有すると共に、デジタルカメラ1の各部を制御するワンチップマイコンである。
特に、CPU10は、顔検出部23によって検出された顔の向きに基づいて、顔検出部23により顔検出される領域を制限する制御部101、画像データに基づいてAE処理を行うAE処理部102を有する。
The CPU 10 is a one-chip microcomputer that has functions to perform AF processing, recording processing, display processing, and the like, and controls each unit of the digital camera 1.
In particular, the CPU 10 controls the control unit 101 that restricts the area of the face detected by the face detection unit 23 based on the face orientation detected by the face detection unit 23, and the AE processing unit 102 that performs AE processing based on the image data. Have

キー入力部11は、半押し操作、全押し操作可能なシャッタボタン、モード切替キー、録画ボタン、十字キー、SETキー等の複数の操作キーを含み、ユーザのキー操作に応じた操作信号をCPU10に出力する。
メモリ12には、CPU10がデジタルカメラ1の各部を制御するのに必要な制御プログラム、及び必要なデータが記録されており、CPU10は、該プログラムに従い動作する。
The key input unit 11 includes a plurality of operation keys such as a half-press operation, a fully-pressable shutter button, a mode switching key, a recording button, a cross key, and a SET key, and sends an operation signal according to the user's key operation to the CPU 10. Output to.
The memory 12 stores a control program and necessary data necessary for the CPU 10 to control each unit of the digital camera 1, and the CPU 10 operates according to the program.

DRAM13は、CCD5によって撮像された画像データを一時記憶するバッファメモリとして使用されるとともに、CPU10のワーキングメモリとしても使用される。   The DRAM 13 is used as a buffer memory for temporarily storing image data picked up by the CCD 5 and also as a working memory for the CPU 10.

DMA14は、バッファメモリに記憶されたベイヤーデータの画像データを読み出して画像生成部15に出力するものである。
画像生成部15は、DMA14から送られてきた画像データに対して、画素補間処理、γ補正処理、ホワイトバランス処理などの処理を施すとともに、輝度色差信号(YUVデータ)の生成も行なう。つまり、画像処理を施す部分である。
DMA16は、画像生成部15で画像処理が施された輝度色差信号の画像データ(YUVデータ)をバッファメモリに記憶させるものである。
The DMA 14 reads out image data of Bayer data stored in the buffer memory and outputs it to the image generation unit 15.
The image generation unit 15 performs processing such as pixel interpolation processing, γ correction processing, and white balance processing on the image data transmitted from the DMA 14, and also generates a luminance color difference signal (YUV data). That is, it is a portion that performs image processing.
The DMA 16 stores the image data (YUV data) of the luminance / color difference signal subjected to image processing by the image generation unit 15 in a buffer memory.

DMA17は、バッファメモリに記憶されているYUVデータの画像データを表示部18に出力するものである。
表示部18は、カラーLCDとその駆動回路を含み、DMA17から出力された画像データの画像を表示させる。
The DMA 17 outputs image data of YUV data stored in the buffer memory to the display unit 18.
The display unit 18 includes a color LCD and its driving circuit, and displays an image of the image data output from the DMA 17.

DMA19は、バッファメモリに記憶されているYUVデータの画像データや圧縮された画像データを圧縮伸張部20に出力したり、圧縮伸張部20により圧縮された画像データや、伸張された画像データをバッファメモリに記憶させたりするものである。
圧縮伸張部20は、画像データの圧縮・伸張(例えば、JPEGやMPEG形式の圧縮・伸張)を行なう部分である。
DMA21は、バッファッメモリに記憶されている圧縮画像データを読み出してフラッシュメモリ22に記録させたり、フラッシュメモリ22に記録された圧縮画像データをバッファメモリに記憶させるものである。
The DMA 19 outputs the YUV data image data and the compressed image data stored in the buffer memory to the compression / decompression unit 20, and buffers the image data compressed by the compression / decompression unit 20 and the decompressed image data. It is stored in memory.
The compression / decompression unit 20 is a part that performs compression / decompression of image data (for example, compression / decompression in JPEG or MPEG format).
The DMA 21 reads the compressed image data stored in the buffer memory and records it in the flash memory 22 or stores the compressed image data recorded in the flash memory 22 in the buffer memory.

顔検出部23は、撮像された画像データ内にある顔を検出する顔検出処理を行うものである。この顔検出処理は、顔を検出するとともに顔の向きも検出する。この顔検出処理は周知技術なので詳しくは説明しないが、例えば、予め記憶されている一般的な人の顔をあらゆる向きから見たときの特徴データ(あらゆる向きから見たときの目、眉毛、鼻、口、耳、顔全体の輪郭等の特徴データ)と画像データとを比較照合することにより、所定値以上で顔特徴データと一致する領域を顔であると検出するとともに、該所定値以上で一致した顔特徴データの向きを該検出した顔の向きであると検出する。
なお、目、鼻、口の特徴データを有し、目、鼻、口を検出し、検出された目、鼻、口の位置関係から顔の向きを検出するようにしてもよい。
The face detection unit 23 performs face detection processing for detecting a face in the captured image data. This face detection process detects the face and also detects the face orientation. Since this face detection process is a well-known technique, it will not be described in detail. For example, characteristic data obtained when a general human face stored in advance is viewed from any direction (eye, eyebrows, nose when viewed from any direction). , Mouth, ear, and contour data of the entire face, etc.) and image data are compared with each other to detect a region that matches the facial feature data at a predetermined value or more as a face, and at the specified value or more. The direction of the matched face feature data is detected as the detected face direction.
Note that eye, nose, and mouth feature data may be included, the eyes, nose, and mouth may be detected, and the face orientation may be detected from the detected positional relationship between the eyes, nose, and mouth.

B.デジタルカメラ1の動作について
以下、本第1の実施の形態におけるデジタルカメラ1の動作を図2のフローチャートにしたがって説明する。
B. Operation of Digital Camera 1 Hereinafter, the operation of the digital camera 1 in the first embodiment will be described with reference to the flowchart of FIG.

撮像モードのスルー画像表示中において、ユーザによってキー入力部11の録画ボタンが全押しされると(録画ボタンの押下操作に対応する操作信号がキー入力部11から送られてくると)、動画撮像記録処理が開始されたと判断し、CPU10は、撮像タイミングが到来したか否かを判断する(ステップS1)。ここでは、30fpsのフレームレートで被写体を撮像するので、1/30s(秒)間隔で、撮像タイミングが到来することになる。   When the user presses the recording button of the key input unit 11 fully while the through image is displayed in the imaging mode (when an operation signal corresponding to the pressing operation of the recording button is sent from the key input unit 11), the moving image is captured. It is determined that the recording process has started, and the CPU 10 determines whether or not the imaging timing has come (step S1). Here, since the subject is imaged at a frame rate of 30 fps, the imaging timing arrives at 1/30 s (second) intervals.

ステップS1で、撮像タイミングが到来していないと判断すると、撮像タイミングが到来するまでステップS1に留まり、撮像タイミングが到来すると、CPU10は、撮像処理を行う。この撮像処理は、後述するステップS6のAE処理により設定されたシャッタ速度、絞り値、ゲイン値に基づいて行う。つまり、設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積された画像データを読み出し、ユニット回路8のAGCは該読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像データをバッファメモリに記憶させる。   If it is determined in step S1 that the imaging timing has not arrived, the process stays in step S1 until the imaging timing arrives. When the imaging timing has arrived, the CPU 10 performs an imaging process. This imaging process is performed based on the shutter speed, aperture value, and gain value set by the AE process in step S6 described later. That is, the CCD 5 is exposed with the set shutter speed and aperture value, the image data stored in the CCD 5 is read, and the AGC of the unit circuit 8 automatically gains the read frame image data according to the set gain value. Then, the frame image data of the luminance / color difference signal after the automatic gain adjustment generated by the image generation unit 15 is stored in the buffer memory.

なお、動画撮像記録処理が開始してから最初の撮像は、後述するステップS6でAE処理が行われていないので、動画撮像記録処理前のスルー画像表示用として直近に撮像されたフレーム画像データに基づいて行われたAE処理によって設定されたシャッタ速度、絞り値、ゲイン値等で撮像処理を行う。   Note that the first imaging after the moving image capturing / recording process is started is that the AE process is not performed in step S6, which will be described later. The imaging process is performed with the shutter speed, aperture value, gain value, and the like set by the AE process performed based on the AE process.

次いで、CPU10は、バッファメモリに記憶されている直近にステップS2で撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS3)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。このとき、顔検出処理は、後述するステップS4のCPU10の制御部101による制御に従って顔検出処理を行う。なお、動画撮像処理が開始してから最初の顔検出は、後述するステップS4で顔検出の制御が行われていないので、フレーム画像データの全領域、若しくは、所定又は任意の領域に対して顔検出が行われる。   Next, the CPU 10 outputs the frame image data captured in step S2 most recently stored in the buffer memory to the face detection unit 23, and the face detection unit 23 performs face detection on the most recently captured frame image data. A detection process is performed (step S3). Information indicating the face area detected by the face detection process and information indicating the face direction are sent to the CPU 10. At this time, the face detection process is performed according to control by the control unit 101 of the CPU 10 in step S4 described later. In addition, since the face detection control is not performed in step S4 to be described later after the moving image capturing process is started, the face detection is performed on the entire area of the frame image data or a predetermined or arbitrary area. Detection is performed.

次いで、CPU10の制御部101は、該検出された顔の向きの方向を重視した顔検出処理を行うように顔検出部23を制御する(ステップS4)。この顔の向きの方向を重視した顔検出処理とは、顔が向いている方向に基づく所定領域のみに対して行う顔検出処理のことである。通常、顔が向いている方向に人は移動していくと考えられるからであり、顔が向いている方向を長くした所定領域に対して顔検出を行うことにより、顔検出処理の処理負担を軽減させるとともに、迅速に顔を検出することができる。つまり、この制御により迅速に検出された顔に追従することができ、追従の処理負担を軽減させることができる。   Next, the control unit 101 of the CPU 10 controls the face detection unit 23 so as to perform face detection processing that places importance on the detected direction of the face (step S4). The face detection process that places importance on the direction of the face is a face detection process that is performed only on a predetermined area based on the direction in which the face is facing. This is because it is considered that a person usually moves in the direction in which the face is facing.By performing face detection on a predetermined area in which the direction in which the face is facing is increased, the processing load of the face detection process is reduced. While reducing, it is possible to quickly detect the face. That is, it is possible to quickly follow the face detected by this control, and to reduce the processing load of the tracking.

次いで、CPU10のAE処理部102は、該検出された顔の向きに基づいて予測領域を特定する(ステップS5)。この顔の向きに基づいた予測領域とは、予測領域を、該検出された顔領域から該顔の向きの方向にずらした所定領域のことをいう。通常、顔が向いている方向に人は移動していくと考えられるからである。この特定された予測領域を重視してAE処理が行われる。
図3(A)は、検出されたフレーム画像データ内にある顔と、該検出された顔の向きに基づく顔検出処理の対象となる所定領域、及び、該検出された顔の向きに基づいて特定された予測領域の様子の一例を示すものである。
Next, the AE processing unit 102 of the CPU 10 specifies a prediction region based on the detected face orientation (step S5). The prediction area based on the face direction refers to a predetermined area in which the prediction area is shifted from the detected face area in the direction of the face direction. This is because it is generally considered that a person moves in the direction in which the face is facing. The AE process is performed with emphasis on the identified prediction area.
FIG. 3 (A) is based on a face in the detected frame image data, a predetermined area to be subjected to face detection processing based on the detected face orientation, and the detected face orientation. An example of the state of the identified prediction area is shown.

図3(A)を見ると、フレーム画像データには、顔31があり、該顔31の向きは右方向なので、顔検出処理の対象となる所定領域32は、顔31が向いている方向に長くとった領域であることがわかる。この顔検出処理の対象となる領域を所定領域32にすることで、次回の顔検出、追従の処理負担を軽減させることができる。
また、図3(A)を見ると、予測領域33は、顔31がある領域から該顔31が向いている方向にずらした所定領域であることがわかる。この予測領域33の大きさは、検出された顔の大きさと同じ大きさであってもよいし、所定の大きさであってもよい。
As shown in FIG. 3A, the frame image data includes a face 31 and the direction of the face 31 is the right direction. Therefore, the predetermined area 32 to be subjected to the face detection process is in the direction in which the face 31 faces. It can be seen that this is a long area. By setting the target area for this face detection processing to the predetermined area 32, the processing load for the next face detection and tracking can be reduced.
3A, it can be seen that the prediction area 33 is a predetermined area that is shifted from an area where the face 31 is located in a direction in which the face 31 faces. The size of the prediction area 33 may be the same size as the detected face size, or may be a predetermined size.

図2のフローチャートに戻り、ステップS5の動作を経ると、CPU10のAE処理部102は、該特定された予測領域33を重視したAE処理を行う(ステップS6)。
つまり、バッファメモリに記憶されている直近にステップS2で撮像されたフレーム画像データのうち、該特定された予測領域33を測光領域とし、該測光領域の画像データの輝度信号に基づいてAE処理を行う。このAE処理により、シャッタ速度、絞り値、ゲイン値が設定される。
Returning to the flowchart of FIG. 2, after the operation of step S5, the AE processing unit 102 of the CPU 10 performs an AE process in which the specified prediction region 33 is emphasized (step S6).
That is, among the frame image data captured in step S2 most recently stored in the buffer memory, the specified prediction area 33 is set as a photometry area, and AE processing is performed based on the luminance signal of the image data in the photometry area. Do. By this AE process, the shutter speed, aperture value, and gain value are set.

次いで、CPU10は、該検出された顔の向きに基づいて、該顔に対してAF処理を行う(ステップS7)。この検出された顔に基づくAF処理とは、検出された顔の向きに基づいてフォーカスレンズ2Aのサーチ移動方向を変えるという意味である。   Next, the CPU 10 performs AF processing on the face based on the detected face orientation (step S7). The AF process based on the detected face means that the search movement direction of the focus lens 2A is changed based on the detected face orientation.

ここで、図4(A)は、フォーカスレンズ2Aの移動の様子を示すものである。
図4(A)に示すように、フォーカスレンズ2Aは、レンズ端からレンズ端まで移動可能になっており、AF処理は、合焦レンズ位置を検出するためにフォーカスレンズをサーチ移動させ、各レンズ位置における画像データの高周波成分に基づいて合焦レンズ位置を検出し、該検出した合焦レンズ位置にフォーカスレンズ2Aを移動させる。ここで、一方のレンズ端側は近い被写体にピントが合うレンズ位置であり、他方のレンズ端側は遠い被写体にピントが合うレンズ位置である。
Here, FIG. 4A shows the movement of the focus lens 2A.
As shown in FIG. 4A, the focus lens 2A can be moved from the lens end to the lens end, and the AF process searches and moves the focus lens to detect the focus lens position. The focus lens position is detected based on the high-frequency component of the image data at the position, and the focus lens 2A is moved to the detected focus lens position. Here, one lens end side is a lens position that focuses on a near subject, and the other lens end side is a lens position that focuses on a far subject.

このとき、検出された顔の向きに応じてフォーカスレンズ2Aのサーチ移動方向を変える。
ここで、図4(B)は検出された顔の向きの様子の一例を示す図である。
図4(B)に示すように、検出された顔の向きが右手前を向いている場合は、該顔は、デジタルカメラ1に向かって近づいていくことが予想されるので、フォーカスレンズ2Aを、近い被写体にピントが合うレンズ端側へサーチ移動させて、合焦レンズ位置を検出する。
At this time, the search movement direction of the focus lens 2A is changed according to the detected face orientation.
Here, FIG. 4B is a diagram illustrating an example of the detected face orientation.
As shown in FIG. 4B, when the detected face is facing the right front, the face is expected to approach the digital camera 1, and therefore the focus lens 2A is moved. Then, the focus lens position is detected by moving the search to the lens end side where the near subject is in focus.

また、図4(C)に示すように、検出された顔の向きが右奥を向いている場合は、該顔は、デジタルカメラ1から遠ざかっていくことが予想されるので、フォーカスレンズ2Aを、遠い被写体にピントが合うレンズ端側へサーチ移動させて、合焦レンズを検出する。   Further, as shown in FIG. 4C, when the detected face is facing rightward, the face is expected to move away from the digital camera 1, so that the focus lens 2A is turned off. Then, the focus lens is detected by moving the search to the lens end side where the far object is in focus.

つまり、検出された顔の向きがデジタルカメラ1に近づく向きの場合は、フォーカスレンズ2Aを現在のレンズ位置から近い被写体にピントが合うレンズ端側から先にサーチ移動させ、検出された顔の向きがデジタルカメラ1から遠ざかる向きの場合は、フォーカスレンズ2Aを現在のレンズ位置から遠い被写体にピントが合うレンズ端側から先にサーチ移動させる。   In other words, when the detected face orientation is closer to the digital camera 1, the focus lens 2A is searched and moved from the lens end side where the subject close to the current lens position is in focus, and the detected face orientation is detected. Is in the direction away from the digital camera 1, the focus lens 2 </ b> A is searched for from the lens end side where the subject far from the current lens position is in focus.

また、検出された顔の向きがデジタルカメラ1から遠ざかる向きでも、デジタルカメラ1に近づく向きでない場合(例えば顔が真横向きの場合)は、フォーカスレンズ2Aを移動させないようにしてもよいし(AF処理を行わないようにしてもよいし)、フォーカスレンズ2Aを、現在のレンズ位置から前後(近い被写体にピントが合うレンズ端側の方向と遠い被写体にピントが合うレンズ端側の方向)に狭い範囲で移動させて合焦レンズ位置を検出するようにしてもよい。デジタルカメラ1から被写体までの距離が変わらない場合は、ピントがズレていないか、ズレていたとしても微小であるからである。
このように、検出された顔の向きに応じてフォーカスレンズ2Aのサーチ移動方向を変えることにより、迅速にAF処理を行うことができる。
In addition, even when the detected face is away from the digital camera 1 but is not close to the digital camera 1 (for example, when the face is facing sideways), the focus lens 2A may not be moved (AF The focus lens 2A is narrow in the front and rear direction (the direction of the lens end that focuses on the near subject and the direction of the lens end that focuses on the far subject) from the current lens position. The focus lens position may be detected by moving within the range. This is because when the distance from the digital camera 1 to the subject does not change, the focus is not shifted or even if it is shifted.
As described above, the AF process can be quickly performed by changing the search movement direction of the focus lens 2A according to the detected face orientation.

図2のフローチャートの説明に戻り、該検出された顔の向きに基づいて、該顔に対してAF処理を行うと、CPU10は、バッファメモリに記録されている直近にステップS2で撮像されたフレーム画像データを、圧縮伸張部20に圧縮させ、該圧縮されたフレーム画像データをDMA21を介してフラッシュメモリ22に記録させる(ステップS8)。   Returning to the description of the flowchart of FIG. 2, when the AF processing is performed on the face based on the detected face orientation, the CPU 10 immediately captures the frame imaged in step S <b> 2 recorded in the buffer memory. The image data is compressed by the compression / decompression unit 20, and the compressed frame image data is recorded in the flash memory 22 via the DMA 21 (step S8).

次いで、CPU10は、動画撮像記録処理を終了するか否かを判断する(ステップS9)。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から再び送られてきたか否かにより判断する。   Next, the CPU 10 determines whether or not to end the moving image capturing / recording process (step S9). This determination is made based on whether or not an operation signal corresponding to the full press operation of the shutter button has been sent from the key input unit 11 again.

ステップS9で、動画撮像記録処理を終了すると判断すると、該記録したフレーム画像データに基づいて動画ファイルを生成し(ステップS10)、ステップS9で、動画撮像記録処理を終了しないと判断するとステップS1に戻り、上記した動作を繰り返す。つまり、ステップS1で撮像タイミングが到来したと判断すると、ステップS2で、ステップS6のAE処理によって設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積されたフレーム画像データを読み出し、ユニット回路8のAGCは、該CCD5から読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、該画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像をバッファメモリに記憶させる。   If it is determined in step S9 that the moving image capturing / recording process is to end, a moving image file is generated based on the recorded frame image data (step S10). If it is determined in step S9 that the moving image capturing / recording process is not ended, the process proceeds to step S1. Return and repeat the above operation. That is, if it is determined in step S1 that the imaging timing has arrived, in step S2, the CCD 5 is exposed with the shutter speed and aperture value set by the AE process in step S6, and the frame image data stored in the CCD 5 is read out. The AGC of the circuit 8 automatically adjusts the frame image data read from the CCD 5 according to the set gain value, and the frame image of the luminance / chrominance signal after the automatic gain adjustment generated by the image generator 15 is obtained. Store in buffer memory.

図3(B)は、ステップS6のAE処理後にステップS2で撮像されたフレーム画像の様子、及び、ステップS6のAE処理の測光領域の対象となった予測領域33の様子の一例を示すものである。   FIG. 3B shows an example of the state of the frame image captured in step S2 after the AE process in step S6 and the state of the prediction area 33 that is the target of the photometric area in the AE process in step S6. is there.

図3(B)を見ると、フレーム画像データ上にある顔31は、AE処理の対象となった予測領域33上にあることがわかる。つまり、図3(A)に示すように、顔が検出された領域を測光領域とせずに、顔が向いている方向に測光領域をずらしているので、次の撮像タイミング時に顔が位置すると思われる領域を測光領域として前もってAE処理することにより、適切に撮像時に位置する顔が適正露出量となる画像データを撮像することができる。つまり、従来は、図3(A)に示すように検出された顔領域を測光領域としてAE処理を行って撮像処理を行っていたので、実際に撮像される顔とAE処理の対象となった領域が異なってしまい、実際に撮像された顔が適正露出とならないという不具合を是正することができる。   As shown in FIG. 3B, it can be seen that the face 31 on the frame image data is on the prediction region 33 that is the target of the AE process. That is, as shown in FIG. 3A, the area where the face is detected is not used as the photometry area, but the photometry area is shifted in the direction in which the face is facing. By performing the AE process in advance as a photometric area, it is possible to capture image data in which the face located at the time of imaging is appropriately exposed. That is, conventionally, as shown in FIG. 3A, the detected face area is used as a photometric area to perform the AE process and the imaging process is performed. It is possible to correct the problem that the areas are different and the actually captured face is not properly exposed.

以上のように、第1の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、検出された顔の向きの方向を重視した顔検出処理を行わせるので、追従の処理負担を軽減させることができ、迅速に顔に追従することができる。また、検出された顔の向きを重視した測光領域を特定してAE処理を行うので、被写体が移動していても、顔領域が適性露出量となる画像データを撮像することができる。また、検出された顔の向きを重視したフォーカスレンズのサーチ移動を行なうので、迅速に顔を追従したAF処理を行うことができる。   As described above, in the first embodiment, predetermined control for imaging can be appropriately performed based on the detected face orientation. For example, since the face detection process that places importance on the direction of the detected face direction is performed, the processing load for tracking can be reduced, and the face can be tracked quickly. Further, since the AE process is performed by specifying a photometric area that places importance on the detected face orientation, it is possible to capture image data in which the face area has an appropriate exposure amount even when the subject is moving. In addition, since the focus lens search movement is performed with an emphasis on the detected face orientation, AF processing can be quickly performed following the face.

[第2の実施の形態]
次に第2の実施の形態について説明する。
D.デジタルカメラ1の動作
第2の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。
以下、第2の実施の形態におけるデジタルカメラ1の動作を図5のフローチャートに従って説明する。
[Second Embodiment]
Next, a second embodiment will be described.
D. Operation of Digital Camera 1 The second embodiment also implements the imaging device of the present invention by using the digital camera 1 having the same configuration as that shown in FIG.
The operation of the digital camera 1 in the second embodiment will be described below with reference to the flowchart of FIG.

撮像モードのスルー画像表示中において、ユーザによってキー入力部11の録画ボタンが全押しされると(録画ボタンの押下操作に対応する操作信号がキー入力部11から送られてくると)、動画撮像記録処理が開始されたと判断し、CPU10は、撮像タイミングが到来したか否かを判断する(ステップS21)。ここでは、30fpsのフレームレートで被写体を撮像するので、1/30s(秒)間隔で、撮像タイミングが到来することになる。   When the user presses the recording button of the key input unit 11 fully while the through image is displayed in the imaging mode (when an operation signal corresponding to the pressing operation of the recording button is sent from the key input unit 11), the moving image is captured. The CPU 10 determines that the recording process has been started, and determines whether or not the imaging timing has come (step S21). Here, since the subject is imaged at a frame rate of 30 fps, the imaging timing arrives at 1/30 s (second) intervals.

ステップS21で、撮像タイミングが到来していないと判断すると、撮像タイミングが到来するまでステップS21に留まり、撮像タイミングが到来すると、CPU10は、撮像処理を行う(ステップS22)。この撮像処理は、後述するステップS28、又は、ステップS30で直近に設定された露出条件(シャッタ速度、絞り値、ゲイン値)に基づいて行う。つまり、設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積された画像データを読み出し、ユニット回路8のAGCは該読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像データをバッファメモリに記憶させる。 If it is determined in step S21 that the imaging timing has not arrived, the process stays in step S21 until the imaging timing has arrived. When the imaging timing has arrived, the CPU 10 performs an imaging process (step S22). This imaging process is performed based on the exposure conditions (shutter speed, aperture value, gain value) set most recently in step S28 or step S30 described later. That is, the CCD 5 is exposed with the set shutter speed and aperture value, the image data stored in the CCD 5 is read, and the AGC of the unit circuit 8 automatically gains the read frame image data according to the set gain value. Then, the frame image data of the luminance / color difference signal after the automatic gain adjustment generated by the image generation unit 15 is stored in the buffer memory.

なお、動画撮像記録処理が開始してから最初の撮像は、後述するステップS28、又は、ステップS30で露出条件が設定されていないので、動画撮像記録処理前のスルー画像表示用として直近に撮像されたフレーム画像データに基づいて行われたAE処理によって設定されたシャッタ速度、絞り値、ゲイン値等で撮像処理を行う。 Note that since the exposure condition is not set in the later-described step S28 or step S30 after the moving image capturing / recording process is started, the first image capturing is performed for the through image display before the moving image capturing / recording process. The imaging process is performed with the shutter speed, aperture value, gain value, and the like set by the AE process performed based on the frame image data.

次いで、CPU10は、バッファメモリに記憶されている直近にステップS22で撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS23)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。このとき、顔検出処理は、後述するステップS24のCPU10の制御部101による制御に従って顔検出処理を行う。なお、動画撮像記録処理が開始してから最初の顔検出は、後述するステップS24で顔検出の制御が行われていないので、フレーム画像データの全領域、若しくは、所定又は任意の領域に対して顔検出が行われる。   Next, the CPU 10 outputs the frame image data captured in step S22 most recently stored in the buffer memory to the face detection unit 23, and the face detection unit 23 performs face detection on the frame image data captured most recently. A detection process is performed (step S23). Information indicating the face area detected by the face detection process and information indicating the face direction are sent to the CPU 10. At this time, the face detection process is performed according to control by the control unit 101 of the CPU 10 in step S24 described later. Note that the first face detection after the moving image capturing / recording process is started is that face detection control is not performed in step S24, which will be described later, so that the entire area of the frame image data or a predetermined or arbitrary area is detected. Face detection is performed.

次いで、CPU10の制御部101は、該検出された顔の向きの方向を重視した顔検出処理を行うように顔検出部23を制御する(ステップS24)。この制御は、上記第1の実施の形態で説明した図2のステップS4と同様である。   Next, the control unit 101 of the CPU 10 controls the face detection unit 23 so as to perform face detection processing with an emphasis on the detected direction of the face (step S24). This control is the same as step S4 of FIG. 2 described in the first embodiment.

次いで、CPU10は、該検出された顔の向きに基づいて、該顔に対してAF処理を行う(ステップS25)。この検出された顔に基づくAF処理とは、上記第1の実施の形態の図2のステップS7と同様に、検出された顔の向きに基づいてフォーカスレンズ2Aのサーチ移動方向を変えるという意味である。   Next, the CPU 10 performs an AF process on the face based on the detected face orientation (step S25). The AF process based on the detected face means that the search movement direction of the focus lens 2A is changed based on the detected face orientation, as in step S7 of FIG. 2 of the first embodiment. is there.

次いで、CPU10は、バッファメモリに記録されている直近にステップS22で撮像されたフレーム画像データを、圧縮伸張部20に圧縮させ、該圧縮されたフレーム画像データをDMA21を介してフラッシュメモリ22に記録させる(ステップS26)。 Next, the CPU 10 causes the compression / decompression unit 20 to compress the frame image data captured in step S22 most recently recorded in the buffer memory, and records the compressed frame image data in the flash memory 22 via the DMA 21. (Step S26).

次いで、CPU10は、該検出された顔が、後述するステップS31で直近に特定された予測領域33に入ったか否かを判断する(ステップS27)。ここで、特定された予測領域33に顔が入ったとは、予測領域33に該検出された顔が1/2以上入っている場合を指すとするが、予測領域33に該検出された顔が少しでも入った場合は、特定された予測領域33に顔が入ったと判断するようにしてもよいし、予測領域33に該検出された顔が全部入った場合のみ、特定された予測領域33に顔が入ったと判断するようにしてもよい。   Next, the CPU 10 determines whether or not the detected face has entered the prediction region 33 most recently specified in step S31 described later (step S27). Here, the face entering the specified prediction area 33 indicates a case where the detected face is ½ or more in the prediction area 33, but the detected face is in the prediction area 33. If even a little enters, it may be determined that a face has entered the specified prediction area 33, or only when all of the detected faces have entered the prediction area 33. It may be determined that a face has entered.

なお、後述するステップS32の予測領域の特定が行われていない場合は、ステップS27でNに分岐する。例えば、動画撮像記録処理が開始してから最初のステップS22での撮像後は、未だ予測領域33が特定されていないのでステップS27でNに分岐する。 In addition, when the prediction area | region specification of step S32 mentioned later is not performed, it branches to N at step S27. For example, after the imaging in the first step S22 after the moving image imaging / recording process is started, the prediction area 33 has not been specified yet, and therefore the process branches to N in step S27.

ステップS27で、直近に特定した予測領域33に、該検出された顔が入ったと判断すると、CPU10のAE処理部102は、後述するステップS33で直近に算出した予測領域を測光領域とした露出条件に設定して(ステップS28)、ステップS32に進む。これにより、次のステップS22の動作で、該設定された予測領域33に基づく露出条件で撮像されることになる。 If it is determined in step S27 that the detected face has entered the most recently specified prediction area 33, the AE processing unit 102 of the CPU 10 uses the prediction area calculated most recently in step S33, which will be described later, as an exposure condition. (Step S28), the process proceeds to step S32 . As a result, in the next step S22, an image is captured under the exposure condition based on the set prediction region 33.

一方、ステップS27で、直近に特定した予測領域33に、該検出された顔が入っていないと判断すると、CPU10は、前回のステップS30の動作が終わっているか否かを判断する(ステップS29)。
ステップS29で、前回のステップS30の動作が終わっていないと判断するとステップS31に進み、前回のステップS30の動作が終わっていると判断すると、CPU10のAE処理部102は、該検出した顔領域を測光領域として露出条件を算出して設定して(ステップS30)、ステップS31に進む。つまり、直近に撮像されたフレーム画像データの該検出された顔領域の画像データの輝度信号に基づいて露出条件(絞り値、シャッタ速度、ゲイン値)を算出して設定する。これにより、次のステップS22の動作で、該設定された顔領域に基づく露出条件で撮像されることになる。
On the other hand, if it is determined in step S27 that the detected face is not included in the most recently specified prediction region 33, the CPU 10 determines whether or not the operation of the previous step S30 has ended (step S29). .
If it is determined in step S29 that the operation of the previous step S30 has not ended, the process proceeds to step S31. If it is determined that the operation of the previous step S30 has ended, the AE processing unit 102 of the CPU 10 determines the detected face area. The exposure condition is calculated and set as the photometric area (step S30), and the process proceeds to step S31. That is, the exposure conditions (aperture value, shutter speed, gain value) are calculated and set based on the luminance signal of the image data of the detected face area of the most recently captured frame image data. As a result, in the next step S22, an image is captured under the exposure condition based on the set face area.

ステップS31に進むと、CPU10は、検出された顔の向きが変わったか否かを判断する。この判断は、直近に検出された顔の向きと、その前に検出された顔の向きが所定値以上で一致するか否かにより判断し、所定値以上で一致する場合は顔の向きが変わっていないと判断する。
なお、たとえば、初めて顔の向きが検出された場合等のように、直近に行われた顔の向きの検出の前に、顔の向きが検出されていない場合は、検出された顔の向きが変わったと判断する。
In step S31, the CPU 10 determines whether or not the detected face orientation has changed. This determination is made based on whether or not the direction of the most recently detected face matches the direction of the previously detected face at a predetermined value or more, and if it matches at a predetermined value or more, the face direction changes. Judge that it is not.
For example, when the face orientation is not detected before the most recent face orientation detection, such as when the face orientation is detected for the first time, the detected face orientation is Judge that it has changed.

ステップS31で、顔の向きが変わっていないと判断するとそのままステップS34に進み、ステップS31で、顔の向きが変わっていると判断すると、既に特定されている予測領域33を維持できない、つまり、設定した予測領域33の方向に顔が移動することはないと考えられるので、ステップS32に進む。なお、直近に行われた顔の向きの検出の前に、顔の向きが検出されていなくて顔の向きに変化があると判断された場合も、予測領域が特定されていないのでステップS32に進むことになる。   If it is determined in step S31 that the orientation of the face has not changed, the process proceeds to step S34 as it is. If it is determined in step S31 that the orientation of the face has changed, the already specified prediction region 33 cannot be maintained. Since it is considered that the face does not move in the direction of the predicted region 33, the process proceeds to step S32. Note that even if it is determined that the face orientation has not been detected and the face orientation has changed before the most recent face orientation detection, the prediction region has not been identified, so that the process returns to step S32. Will go on.

ステップS32に進むと、CPU10のAE処理部102は、ステップS23で直近に検出された顔の向きに基づいて予測領域を特定する。この顔の向きに基づいた予測領域とは、予測領域を、該検出された顔領域から該顔の向きの方向にずらした所定領域のことをいう。通常、顔が向いている方向に人は移動していくと考えられるからである。この特定された予測領域を重視して露出条件が算出される。   In step S32, the AE processing unit 102 of the CPU 10 identifies the prediction region based on the face orientation most recently detected in step S23. The prediction area based on the face direction refers to a predetermined area in which the prediction area is shifted from the detected face area in the direction of the face direction. This is because it is generally considered that a person moves in the direction in which the face is facing. Exposure conditions are calculated with emphasis on the identified prediction area.

次いで、CPU10のAE処理部102は、該特定した予測領域33を重視して露出条件を算出して(ステップS33)、ステップS34に進む。つまり、直近に撮像されたフレーム画像データの該特定された予測領域33を測光領域とし、該測光領域の画像データの輝度信号に基づいて露出条件(絞り値、シャッタ速度、ゲイン値)を算出する。   Next, the AE processing unit 102 of the CPU 10 calculates the exposure condition by placing importance on the identified prediction region 33 (step S33), and proceeds to step S34. That is, the specified prediction area 33 of the most recently captured frame image data is set as a photometry area, and exposure conditions (aperture value, shutter speed, gain value) are calculated based on the luminance signal of the image data in the photometry area. .

ステップS34に進むと、CPU10は、動画撮像記録処理を終了するか否かを判断する。この判断は、シャッタボタンの全押し操作に対応する操作信号がキー入力部11から再び送られてきたか否かにより判断する。   In step S34, the CPU 10 determines whether or not to end the moving image capturing / recording process. This determination is made based on whether or not an operation signal corresponding to the full press operation of the shutter button has been sent from the key input unit 11 again.

ステップS34で、動画撮像記録処理を終了すると判断すると、該記録したフレーム画像データに基づいて動画ファイルを生成し(ステップS35)、ステップS34で、動画撮像記録処理を終了しないと判断するとステップS1に戻り、上記した動作を繰り返す。つまり、ステップS21で撮像タイミングが到来したと判断すると、ステップS22で、ステップS28、又は、ステップS30で設定されたシャッタ速度、絞り値でCCD5に露光させ、CCD5に蓄積されたフレーム画像データを読み出し、ユニット回路8のAGCは、該CCD5から読みだされたフレーム画像データを該設定されたゲイン値に従って自動利得調整し、該画像生成部15によって生成された自動利得調整後の輝度色差信号のフレーム画像をバッファメモリに記憶させる。 If it is determined in step S34 that the moving image capturing / recording process is to end, a moving image file is generated based on the recorded frame image data (step S35). If it is determined in step S34 that the moving image capturing / recording process is not ended, the process proceeds to step S1. Return and repeat the above operation. In other words, if it is determined in step S21 that the imaging timing has arrived, in step S22, the CCD 5 is exposed with the shutter speed and aperture value set in step S28 or step S30 , and the frame image data stored in the CCD 5 is read out. The AGC of the unit circuit 8 automatically adjusts the gain of the frame image data read from the CCD 5 in accordance with the set gain value, and the frame of the luminance color difference signal after the automatic gain adjustment generated by the image generator 15. Store the image in the buffer memory.

図6は、第2の実施の形態における露出制御を説明するための図である。
図6(A)は、動画撮像記録処理開始後、初めて撮像されたフレーム画像データであるとする。
図6(A)の顔31は、顔検出された顔を示し、領域34は、検出された顔の領域、領域33は該検出された顔の向きに基づいて特定される予測領域を示している。
FIG. 6 is a diagram for explaining exposure control in the second embodiment.
FIG. 6A is assumed to be frame image data captured for the first time after the start of the moving image recording process.
A face 31 in FIG. 6A indicates a face detected, an area 34 indicates a detected face area, and an area 33 indicates a prediction area specified based on the detected face orientation. Yes.

まず、動画撮像記録処理開始後、初めてフレーム画像データが撮像されると、ステップS27でNに分岐して、該検出した顔領域34(図6(A)に示す顔領域34)に基づく露出条件が算出され、設定される(ステップS30)。そして、ステップS31で顔の向きが変わったと判断され、該検出された顔31の向きに基づいて図6(A)に示すような予測領域33が特定され(ステップS32)、該特定した予測領域を測光領域とした露出条件が算出される(ステップS33)。
そして、ステップS34で、動画撮像記録処理を終了しないと判断すると、ステップS22で、図6(A)の顔領域に基づいて算出された露出条件で撮像される。
First, when frame image data is captured for the first time after the start of the moving image recording process, the process branches to N in step S27, and the exposure condition based on the detected face area 34 (face area 34 shown in FIG. 6A). Is calculated and set ( step S30 ). Then, it is determined in step S31 that the orientation of the face has changed, and based on the detected orientation of the face 31, a prediction area 33 as shown in FIG. 6A is specified (step S32). An exposure condition is calculated using the photometric area (step S33).
If it is determined in step S34 that the moving image recording process is not to be ended, an image is captured in step S22 under the exposure condition calculated based on the face area of FIG.

図6(B)は、このとき撮像されたフレーム画像データの様子の一例を示す図である。図6(B)の予測領域33は、直近に特定された予測領域33、つまり、図6(A)に示す予測領域33と同じ領域である。
図6(B)を見ると、検出された顔31は予測領域33に半分以上入っているので、ステップS27で、予測領域33に顔が入ったと判断され、既に算出されている予測領域33に基づく露出条件、つまり、図6(A)の予測領域33の画像データに基づいて算出された露出条件に設定される(ステップS28)。
該設定された予測領域31に基づく露出条件で次のフレーム画像データが撮像されることになる。
FIG. 6B is a diagram illustrating an example of the state of the frame image data captured at this time. The prediction region 33 in FIG. 6B is the prediction region 33 identified most recently, that is, the same region as the prediction region 33 shown in FIG.
As shown in FIG. 6B, since the detected face 31 is more than half in the prediction area 33, it is determined in step S27 that a face has entered the prediction area 33, and the prediction area 33 already calculated is entered. Based on the exposure condition, that is, the exposure condition calculated based on the image data of the prediction area 33 in FIG. 6A is set (step S28).
The next frame image data is captured under the exposure condition based on the set prediction area 31.

図6(C)は、このときに、撮像されたフレーム画像データの様子の一例を示す図である。
図6(C)を見ると、フレーム画像データ上にある顔31は、予測領域33上にあることがわかる。つまり、予測領域33に顔31が入ったと判断すると、予め算出しておいた予測領域33に基づく露出条件で撮像するので、適切に撮像時に位置する顔が適正露出量となる画像データを撮像することができる。
FIG. 6C is a diagram illustrating an example of the state of the frame image data captured at this time.
As can be seen from FIG. 6C, the face 31 on the frame image data is on the prediction region 33. That is, if it is determined that the face 31 has entered the prediction area 33, the image is captured under the exposure condition based on the prediction area 33 calculated in advance, and thus image data in which the face located at the time of image capture has an appropriate exposure amount is captured. be able to.

また、顔の向きに基づく予測領域33を特定し、該特定した予測領域33を常に測光領域とする上記第1の実施の形態と違い、特定した予測領域33に顔31が入ると、該特定した予測領域33に基づいて予め算出しておいた露出条件で撮像するので、迅速に適切な露出追従を行なうことができる。つまり、従来は、図6(A)に示すように検出された顔領域を測光領域としてAE処理を行って撮像処理を行っていたため、AE処理に時間がかかってしまい、次の撮影の際には、既に顔が移動しているため実際に撮像された顔が適正露出とならないという不具合を是正することができる。
また、予測領域33に被写体が入ってから予め算出してある露出条件で撮影するため、被写体の顔が横を向いているが動いていない場合であっても適切な撮像処理を行なうことができる。加えて、被写体が止まっている上体から動き出した場合であっても、被写体の顔の向きから動き出す方向を予測することができるため、該被写体の顔に対して迅速に適切な露出追従を行うことができる。
In addition, unlike the first embodiment in which the prediction area 33 based on the face direction is specified and the specified prediction area 33 is always the photometric area, when the face 31 enters the specified prediction area 33, the specification is performed. Since the image is taken under the exposure condition calculated in advance based on the predicted region 33, appropriate exposure follow-up can be performed quickly. That is, conventionally, since the AE process is performed using the detected face area as the photometry area as shown in FIG. 6A, the AE process takes time, and the next shooting is performed. Can correct the problem that the face actually captured does not have proper exposure because the face has already moved.
Further, since shooting is performed under an exposure condition calculated in advance after the subject enters the prediction area 33, appropriate imaging processing can be performed even when the subject's face is facing sideways but not moving. . In addition, even when the subject starts to move from the upper body where the subject has stopped, the direction of the subject's face can be predicted from the direction of the subject's face, so appropriate exposure tracking is quickly performed on the subject's face. be able to.

以上のように、第2の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、検出された顔の向きに基づいて予測領域33を特定し、該特定した予測領域33を測光領域として露出条件を算出しておき、該特定した予測領域33に顔が入るまでは、検出された顔領域に基づいて露出制御を行い、該特定した予測領域に顔が入ると、算出されている予測領域33に基づく露出条件で撮像するので、顔領域が適性露出量となる画像データを撮像することができ、被写体が止まっていても、動いていても、常に適切な撮像処理を行なうことができる。また、被写体が止まっている状態から動き出した場合、迅速に被写体を追従しながら適切な撮像処理を行なうことができるという効果がある。
また、検出された顔の向きを重視したフォーカスレンズのサーチ移動を行なうので、迅速に顔を追従したAF処理を行うことができる。
As described above, in the second embodiment, predetermined control for imaging can be appropriately performed based on the detected face orientation. For example, the prediction area 33 is specified based on the detected face orientation, exposure conditions are calculated using the specified prediction area 33 as a photometric area, and detection is performed until a face enters the specified prediction area 33. The exposure control is performed based on the specified face area, and when a face enters the specified prediction area, the image is captured under the exposure condition based on the calculated prediction area 33. Even if the subject is stopped or moving, appropriate imaging processing can always be performed. In addition, when the subject starts moving from a stopped state, an appropriate imaging process can be performed while following the subject quickly.
In addition, since the focus lens search movement is performed with an emphasis on the detected face orientation, AF processing can be quickly performed following the face.

[変形例1]
上記第1及び第2の実施の形態は、以下のような変形例も可能である。
[Modification 1]
The first and second embodiments can be modified as follows.

(1)上記第1、第2の実施の形態においては、検出された顔の向きに基づく予測領域33を特定し、該特定した予測領域33を測光領域としてAE処理や露出条件の算出を行うようにしたが、検出された顔の向きにかかわらず測光領域を画像データの全領域とし、検出された顔の向きの方向に基づく予測領域33を重点にしてAE処理や露出条件の算出を行うようにしてもよい。つまり、検出された顔の向きの方向にずらした領域の画像データの輝度成分を重みづけしてAE処理や露出条件の算出を行うようにしてもよい。
図3(A)を用いて説明すると、画像データの全領域を測光領域とするとともに、所定領域33を重みづけしてAE処理を行うことになる。また、図6(A)を用いて説明すると、画像データの全領域を測光領域とするとともに、所定領域33を重みづけして露出条件を算出することになる。
要は、検出された顔の向きに基づく所定領域を重視したAE処理や露出条件の算出を行うものであればよい。
(1) In the first and second embodiments, the prediction area 33 based on the detected face orientation is specified, and AE processing and calculation of exposure conditions are performed using the specified prediction area 33 as a photometric area. However, regardless of the detected face orientation, the photometry area is the entire area of the image data, and the AE processing and the exposure condition calculation are performed with emphasis on the prediction area 33 based on the detected face orientation direction. You may do it. That is, the luminance component of the image data of the area shifted in the direction of the detected face direction may be weighted to calculate the AE process and the exposure condition.
If it demonstrates using FIG. 3 (A), while making all the area | regions of image data into a photometry area | region, the predetermined area | region 33 is weighted and AE processing will be performed. 6A, the entire area of the image data is set as a photometric area, and the predetermined area 33 is weighted to calculate the exposure condition.
In short, what is necessary is just to perform AE processing and calculation of exposure conditions with emphasis on a predetermined area based on the detected face orientation.

(2)上記第1、第2の実施の形態において、検出された顔の動き量を検出するようにし、該検出された動き量に基づいて、顔検出処理の対象となる所定領域32の顔が向いている方向の長さや所定領域32の大きさを変えるようにしてもよい。
図3(A)を用いて説明すると、検出された顔31の動き量に応じて、該所定領域32の検出された顔の向きの方向の長さを変えることになる。
顔31の動き量が小さい場合に、顔検出処理の対象となる所定領域32の検出された顔の向きの方向を長め、又は所定領域32を大きめにとっても無駄な処理が増えるだけであり、逆に、顔31の動き量が大きい場合に、顔検出処理の対象となる領域32の検出された顔の向きの方向を短め、又は、所定領域32を小さめにとると、顔31が検出されない場合があるからである。これにより、迅速に顔が検出することができるとともに、顔検出処理の負担を小さくすることができる。
この顔の動き量の検出は、顔検出により検出された顔の位置に基づいて動き量を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより動き量を検出するようにしてもよい。
また、検出された顔31の向きと動き量の両方を考慮して、該所定領域32の検出された顔の向きの方向の長さ所定領域の大きさを変えるようにしてもよい。
なお、予測領域33のように、所定領域32を該検出された顔の向きの方向に、顔領域からずらすようにしてもよい。この場合、該検出された動き量に基づいて、所定領域32の該検出された顔領域から該顔の向きの方向にずらす量を変える。
(2) In the first and second embodiments, the detected amount of movement of the face is detected, and based on the detected amount of movement, the face of the predetermined region 32 that is the target of face detection processing You may make it change the length of the direction which is facing, and the magnitude | size of the predetermined area | region 32. FIG.
If it demonstrates using FIG. 3 (A), according to the detected amount of movement of the face 31, the length of the direction of the direction of the detected face of this predetermined area | region 32 will be changed.
When the amount of motion of the face 31 is small, increasing the direction of the detected face direction of the predetermined area 32 that is the target of the face detection process or increasing the predetermined area 32 only increases unnecessary processing. In addition, when the amount of movement of the face 31 is large, the face 31 is not detected when the direction of the detected face of the region 32 to be subjected to the face detection process is shortened or the predetermined region 32 is made small. Because there is. As a result, the face can be detected quickly and the burden of the face detection process can be reduced.
The detection of the amount of movement of the face may be performed by detecting the amount of movement based on the position of the face detected by face detection, or by detecting the motion vector of the face using a block matching method or the like. The amount may be detected.
Further, in consideration of both the direction of the detected face 31 and the amount of movement, the length of the predetermined area 32 in the direction of the detected face direction may be changed.
Note that, as in the prediction region 33, the predetermined region 32 may be shifted from the face region in the direction of the detected face direction. In this case, based on the detected amount of motion, the amount of shift from the detected face area of the predetermined area 32 in the direction of the face is changed.

(3)上記第1、第2の実施の形態において、検出された顔の動き量を検出するようにし、該検出された動き量に基づいて、特定する予測領域33の、該検出された顔領域から該顔の向きの方向にずらす量を変えるようにしてもよい。
図3(A)を用いて説明すると、検出された顔31の動き量に応じて、特定する測光領域33のずらす量を変えることになる。つまり、動き量が大きい場合にはそれに応じてずらす量を大きくし、動き量が小さい場合はそれに応じてずらす量を小さくする。
これにより、検出された顔31の動き量に基づいて、撮像タイミング時に顔31が位置すると思われる領域に予測領域33として特定することが可能となり、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができる。
この顔の動き量の検出は、顔検出により過去に検出された顔の位置に基づいて動き量を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより動き量を検出するようにしてもよい。
なお、該検出された動き量に基づいて、特定する予測領域33の大きさを変ええるようにしてもよい。これによっても、検出された顔31の動き量に基づいて、撮像タイミング時に顔31が位置すると思われる領域に予測領域33として特定することが可能となり、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができる。
(3) In the first and second embodiments described above, the detected amount of motion of the detected face is detected, and the detected face of the prediction region 33 to be identified based on the detected amount of motion The amount of shift from the region to the direction of the face may be changed.
If it demonstrates using FIG. 3 (A), according to the detected motion amount of the face 31, the amount to shift of the photometry area | region 33 to specify will be changed. That is, when the amount of motion is large, the amount of shift is increased accordingly, and when the amount of motion is small, the amount of shift is decreased accordingly.
Thus, based on the detected amount of movement of the face 31, it is possible to identify the area where the face 31 is supposed to be located at the time of imaging as the predicted area 33, and the face area appropriately positioned at the time of imaging is appropriately exposed. Can be captured.
The detection of the amount of motion of the face may be performed by detecting the amount of motion based on the position of the face detected in the past by the face detection, or by detecting the motion vector of the face using a block matching method or the like. Thus, the amount of motion may be detected.
Note that the size of the prediction region 33 to be specified may be changed based on the detected amount of motion. This also makes it possible to identify the area where the face 31 is supposed to be located at the time of imaging based on the detected amount of movement of the face 31 as the prediction area 33, and the face area properly positioned at the time of imaging is appropriately exposed. The amount of image data can be captured.

(4)上記第1、第2の実施の形態において、検出された顔の向きを重視した顔検出処理を行うようにした顔検出部23の制御は、検出された顔の向きの方向を長くとった所定領域32に対して所定の被写体の特徴データと所定値以上で一致する領域を被写体として検出するように顔検出処理を行わせるようにしたが、すべての領域に対して顔検出を行わせるとともに、検出された顔の向きの方向を長くとった所定領域32以外の領域における顔検出の所定値を所定領域における所定値よりも上げるようにしてもよいし、若しくは、検出された顔の向きの方向を長くとった所定領域32における顔検出の所定値を所定領域以外の領域における所定値よりも下げるようにしてもよい。
また、所定領域において検索する所定の被写体の特徴データの数を所定領域以外の領域における数よりも多くしてもよい。
また、先に所定領域において特徴データの検索を行い、所定領域において特徴データと所定値以上で一致する領域が検出されなかった場合に、所定領域以外の領域で特徴データの検索を行なうようにしてもよい。
これにより、検出された顔の向きの方向を長くとった所定範囲の領域内にある顔が検出され易くなる。
(4) In the first and second embodiments described above, the control of the face detection unit 23 that performs the face detection process that places importance on the detected face orientation lengthens the detected face orientation direction. The face detection process is performed on the predetermined area 32 so as to detect an area matching the feature data of the predetermined subject at a predetermined value or more as a subject, but face detection is performed on all areas. And the predetermined value of face detection in a region other than the predetermined region 32 where the direction of the detected face is long may be set higher than the predetermined value in the predetermined region, or the detected face The predetermined value of face detection in the predetermined area 32 having a long direction may be made lower than the predetermined value in an area other than the predetermined area.
Further, the number of feature data of a predetermined subject to be searched in the predetermined area may be larger than the number in the area other than the predetermined area.
In addition, the feature data is searched in the predetermined area first, and if the area that matches the feature data at a predetermined value or more is not detected in the predetermined area, the feature data is searched in the area other than the predetermined area. Also good.
This makes it easier to detect a face within a predetermined range area in which the detected face direction is long.

(5)上記第1、第2の実施の形態においては、動画撮像記録処理の場合について説明したが、動画撮像モードや静止画撮像モードにおけるスルー画像表示時おいても適用するようにしてもよい。
つまり、スルー画像表示時に適用する場合は、第1の実施の形態の場合は、図2のステップS7の動作を経ると、ステップS8の動作を行わず、そのままステップS9に進み、ステップS9で動画撮像記録処理、若しくは、静止画撮像記録処理を行うか否かを判断し、行わないと判断するとステップS1に戻るようにする。そして、ステップS8で、動画撮像記録処理、静止画撮像記録処理を行うと判断すると、撮像記録処理に移行する。また、第2の実施の形態の場合は、図5のステップS25の動作を経ると、ステップS26の動作を行わずに、そのままステップS27に進み、ステップS34で、動画撮像記録処理、若しくは、静止画撮像記録処理を行うか否かを判断し、行わないと判断すると、ステップS21に戻る。
このとき、静止画撮像記録処理を行う場合は、図2のステップS6、又は、図5のステップS28又はステップS30で直近に特定された予測領域33、又は顔領域に基づいて行われた露出条件を静止画撮像用の露出条件に置換して行うようにしてもよい。
また、静止画撮像を行なう前に直近に検出された顔に対してオートフォーカスを行なうようにしてもよい。
(5) In the first and second embodiments, the case of the moving image capturing / recording process has been described. However, the present invention may be applied even when displaying a through image in the moving image capturing mode or the still image capturing mode. .
In other words, in the case of the first embodiment, when the through image display is applied, after the operation of step S7 in FIG. 2, the operation of step S8 is not performed and the process proceeds to step S9 as it is, and the moving image is displayed in step S9. It is determined whether or not to perform an imaging recording process or a still image imaging and recording process, and if it is determined not to perform the process, the process returns to step S1. If it is determined in step S8 that the moving image capturing / recording process and the still image capturing / recording process are to be performed, the process proceeds to the imaging / recording process. In the case of the second embodiment, after the operation in step S25 in FIG. 5, the operation proceeds to step S27 without performing the operation in step S26. In step S34, the moving image capturing / recording process or the stationary operation is performed. It is determined whether or not the image capturing / recording process is to be performed. If it is determined not to be, the process returns to step S21.
At this time, when the still image capturing / recording process is performed, the exposure condition performed based on the predicted region 33 or the face region most recently specified in step S6 in FIG. 2 or step S28 or step S30 in FIG. May be replaced with exposure conditions for still image capturing.
Alternatively, autofocus may be performed on the most recently detected face before taking a still image.

(6)上記第1、第2の実施の形態において、検出された顔の向きに応じて、顔検出処理の対象となる所定領域32の顔が向いている方向の長さや所定領域32の大きさを変えるようにしてもよい。
また、検出された顔の向きに応じて、特定する予測領域33の、該検出された顔領域から該顔の向きの方向にずらす量を変えるようにしてもよい。
たとえば、顔が同じ速度で移動している場合であっても、顔が真横に向いている場合は、撮像される画像データ間上は該顔の移動距離が一番長くなり、顔の向きが斜め手前方向、斜め後ろ方向の場合は、真横に比べ撮像される画像データ間上の該顔の移動距離は短くなり、顔の向きが正面、真後ろを向いている場合が画像データ間上は一番移動距離が短くなるからである。
これにより、適切に撮像時に位置する顔領域が適正露出量となる画像データを撮像することができ、また、迅速に顔が検出することができるとともに、顔検出処理の負担を小さくすることができる。
なお、予測領域33のように、所定領域32を該検出された顔の向きの方向に、顔領域からずらすようにしてもよい。この場合、該検出された顔の向きに基づいて、所定領域32の該検出された顔領域から該顔の向きの方向にずらす量を変える。また、該検出された顔の向きに基づいて、特定する予測領域33の大きさを変ええるようにしてもよい。これによっても、上記効果を得ることができる。
(6) In the first and second embodiments, depending on the detected face orientation, the length of the predetermined area 32 that is the target of the face detection process and the size of the predetermined area 32 You may make it change.
Further, the amount of the prediction area 33 to be identified that is shifted from the detected face area toward the face direction may be changed according to the detected face direction.
For example, even if the face is moving at the same speed, if the face is facing sideways, the moving distance of the face is the longest between the captured image data, and the face orientation is In the case of the diagonally forward direction and the diagonally backward direction, the movement distance of the face between the captured image data is shorter than that of the sideways image, and when the face is facing the front and directly behind, the distance between the image data is one. This is because the movement distance is shortened.
As a result, it is possible to capture image data in which the face area positioned at the time of image capture has an appropriate exposure amount, to quickly detect the face, and to reduce the burden of face detection processing. .
Note that, as in the prediction region 33, the predetermined region 32 may be shifted from the face region in the direction of the detected face direction. In this case, based on the detected face direction, the amount of the predetermined area 32 to be shifted from the detected face area in the direction of the face is changed. Further, the size of the specified prediction area 33 may be changed based on the detected face orientation . Also by this, the above effects can be obtained.

(7)また、被写体の移動速度が所定速度より遅い場合は、上記第2の実施の形態のような露出制御を行い、被写体の移動速度が所定速度以上になると、上記第1の実施の形態のような露出制御を行うように自動で切り替えるようにしてもよい。この被写体の移動速度は、顔検出により過去に検出された顔の位置に基づいて移動速度を検出するようにしてもよいし、ブロックマッチング法などを用いて顔の動きベクトルを検出することにより移動速度を検出するようにしてもよい。   (7) When the moving speed of the subject is slower than the predetermined speed, exposure control as in the second embodiment is performed, and when the moving speed of the subject exceeds the predetermined speed, the first embodiment You may make it switch automatically so that exposure control like this may be performed. The moving speed of the subject may be detected based on the face position detected in the past by the face detection, or may be detected by detecting the motion vector of the face using a block matching method or the like. The speed may be detected.

(8)上記第1、第2の実施の形態において、顔検出部23による顔検出により顔を追従させるようにしたが、ブロックマッチング法などにより顔検出部23に検出された顔を追従させるようにしてもよい。つまり、該検出された顔領域の画像データが後に撮像されたフレーム画像データのどこにあるかをブロックマッチング法により検出することにより該検出された顔の追従を行う。
このときも、顔検出部23により検出された顔の向きを重視した顔追従を行う。つまり、該検出された顔の向きに基づいて、該検出された顔の探索範囲を変える。
(8) In the first and second embodiments, the face is made to follow by face detection by the face detection unit 23, but the face detection unit 23 is made to follow the face detected by the block matching method or the like. It may be. That is, the detected face area is tracked by detecting where the image data of the detected face area is in the frame image data captured later by the block matching method.
Also at this time, face tracking is performed with emphasis on the orientation of the face detected by the face detection unit 23. That is, the search range of the detected face is changed based on the detected face orientation.

たとえば、図3(A)に示すようにフレーム画像データが撮像された場合は、該検出された顔は顔31であるので、探索範囲を、フレーム画像データの全領域ではなく、領域32にする。つまり、該検出された顔31の領域の画像データが、その後に撮像されたフレーム画像データの領域32内のどこにあるかを検出することにより該検出された顔の追従を行う。これにより、迅速に顔を追従することができる。 For example, when the frame image data is captured as shown in FIG. 3A, the detected face is the face 31, so the search range is set to the region 32 instead of the entire region of the frame image data. . That is, the detected face is tracked by detecting where the image data of the detected area of the face 31 is in the area 32 of the frame image data captured thereafter. Thereby, a face can be followed quickly.

この場合は、顔に対して追従することはできるが、追従している顔の向きがわからないので、顔検出部31は追従している顔領域に対して顔検出を行うことにより、追従している顔の向きを検出する。この場合は、追従している顔領域に対して顔検出を行うので顔検出の処理負担を軽減させることができ、迅速に顔を検出することができる。
なお、ブロックマッチング法による顔追従も、要は顔領域を検出しているので顔検出の一種といえるが、顔検出部23による顔検出と異なる点は、顔検出部23による顔検出は、予め記録されている顔の特徴データと比較照合するのに対し、ブロックマッチング法による顔検出は、撮像された顔領域の画像データとその後に撮像されたフレーム画像データとを比較照合する点である。
In this case, although it is possible to follow the face, since the direction of the following face is unknown, the face detection unit 31 follows the face area by detecting the face area. The direction of the face is detected. In this case, since face detection is performed on the following face area, the processing load of face detection can be reduced, and the face can be detected quickly.
The face tracking by the block matching method is also a kind of face detection because the face area is detected in principle, but the face detection by the face detection unit 23 is different from the face detection by the face detection unit 23 in advance. The face detection by the block matching method is to compare and collate the image data of the captured face area with the frame image data captured after that, while comparing and collating with the recorded face feature data.

(9)上記第2の実施の形態においては、被写体が移動すると思われる予測領域を特定し、特定した予測領域に被写体が入った場合に、予め算出しておいた予測領域内での適切な条件で撮像制御を行うようにしたが、被写体が移動したか否かを判断し、被写体が予測していた方向に移動した場合に予め算出しておいた条件で撮像制御を行うようにしてもよい。つまり、顔の向きから移動方向の予測と移動すると思われる予測領域の特定を行い、顔が予測した方向に動いたと判断した場合に、予め算出しておいた予測領域内での適切な条件で撮像制御を行うようにする。
この場合は、被写体の移動を検出した次の撮像において特定した予測領域における適切な条件で撮像制御を行なうので、被写体の移動速度が速いために、特定した予測領域に被写体が入ったことを検出しても、次の撮像時には予測領域に被写体がいないといった問題が起きることを防ぐことができる。
(9) In the second embodiment, when a prediction region where a subject is supposed to move is specified and the subject enters the specified prediction region, an appropriate value within the prediction region calculated in advance is determined. Although the imaging control is performed under the conditions, it is determined whether or not the subject has moved, and the imaging control may be performed under the conditions calculated in advance when the subject moves in the predicted direction. Good. In other words, the prediction of the direction of movement and the prediction of the predicted area from the direction of the face are performed, and when it is determined that the face has moved in the predicted direction, the appropriate conditions within the prediction area calculated in advance are used. Perform imaging control.
In this case, since the imaging control is performed under appropriate conditions in the prediction area specified in the next imaging after detecting the movement of the subject, it is detected that the subject has entered the specified prediction area because the movement speed of the subject is fast. Even in the next imaging, it is possible to prevent the problem that the subject is not in the prediction area.

(10)上記第1、第2の実施の形態においては、人の顔を検出するようにしたが、人の顔ではなく、猫や犬等の動物の顔や人の体全体(頭、胴、腕、足などの体全体)等の所定の被写体を検出するようにしてもよい。このときも、該所定の被写体の向きも検出する。   (10) In the first and second embodiments, the human face is detected. However, instead of the human face, the face of an animal such as a cat or dog or the entire human body (head, torso) , A predetermined object such as an arm, a leg, or the like) may be detected. At this time, the direction of the predetermined subject is also detected.

(11)上記第1、第2の実施の形態においては、顔検出の対象となる領域を所定領域32、露出制御の対象となる領域を予測領域33としたが、顔検出の対象となる領域も露出制御の対象となる領域も同じであってもよい。つまり、上述した所定領域32に対して顔検出及び露出制御を行なうようにしてもよいし、予測領域33に対して顔検出及び露出制御を行なうようにしてもよい。   (11) In the first and second embodiments, the area to be face-detected is the predetermined area 32 and the area to be subject to exposure control is the prediction area 33, but the area to be face-detected In addition, the area subjected to exposure control may be the same. That is, face detection and exposure control may be performed on the predetermined area 32 described above, or face detection and exposure control may be performed on the prediction area 33.

(12)また、上記変形例(1)乃至(11)を矛盾しない範囲で任意に組み合わせた態様であってもよい。   (12) Moreover, the aspect which arbitrarily combined the said modification (1) thru | or (11) in the range which is not inconsistent may be sufficient.

[第3の実施の形態]
次に第3の実施の形態について説明する。
E.デジタルカメラ1の動作
第3の実施の形態も、図1に示したものと同様の構成を有するデジタルカメラ1を用いることにより本発明の撮像装置を実現する。なお、CPU10は、検出された各顔の向きに基づいて注目エリアを検出する注目エリア検出部を有する。
以下、第3の実施の形態におけるデジタルカメラ1の動作を図7のフローチャートに従って説明する。
[Third Embodiment]
Next, a third embodiment will be described.
E. Operation of Digital Camera 1 The third embodiment also realizes the imaging apparatus of the present invention by using the digital camera 1 having the same configuration as that shown in FIG. Note that the CPU 10 includes a target area detection unit that detects a target area based on the detected orientation of each face.
The operation of the digital camera 1 in the third embodiment will be described below with reference to the flowchart of FIG.

ユーザのキー入力部11のモード切替キーの操作により静止画撮像モードに設定されると、CPU10は、所定のフレームレートでCCD5による被写体の撮像を開始させ、画像生成部15によって順次生成されてバッファメモリ(DRAM13)に記憶された輝度色差信号のフレーム画像データを表示部18に表示させていく、といういわゆるスルー画像表示を開始する(ステップS51)。   When the still image capturing mode is set by the user operating the mode switching key of the key input unit 11, the CPU 10 starts capturing the subject by the CCD 5 at a predetermined frame rate, and is sequentially generated and buffered by the image generating unit 15. A so-called through image display is started in which the frame image data of the luminance color difference signal stored in the memory (DRAM 13) is displayed on the display unit 18 (step S51).

次いで、CPU10は、ユーザによってシャッタボタンが半押しされたか否かを判断する(ステップS52)。この判断は、シャッタボタンの半押し操作に対応する操作信号がキー入力部11から送られてきたか否かにより判断する。   Next, the CPU 10 determines whether or not the user has pressed the shutter button halfway (step S52). This determination is made based on whether or not an operation signal corresponding to a half-press operation of the shutter button is sent from the key input unit 11.

ステップS52で、シャッタボタンが半押しされていないと判断すると、半押しされたと判断されるまでステップS52に留まり、シャッタボタンが半押しされたと判断すると、CPU10は、バッファメモリに記憶されている直近に撮像されたフレーム画像データを顔検出部23に出力し、顔検出部23に該直近に撮像されたフレーム画像データに対して顔検出処理を行わせる(ステップS53)。この顔検出処理により検出された顔の領域を示す情報、及び、該顔の向きを示す情報はCPU10に送られる。   If it is determined in step S52 that the shutter button is not half-pressed, the process stays in step S52 until it is determined that the shutter button is half-pressed. If it is determined that the shutter button is half-pressed, the CPU 10 stores the latest stored in the buffer memory. Is output to the face detection unit 23, and the face detection unit 23 is caused to perform face detection processing on the most recently captured frame image data (step S53). Information indicating the face area detected by the face detection process and information indicating the face direction are sent to the CPU 10.

次いで、CPU10は、該顔検出処理により複数の顔が検出されたか否かを判断する(ステップS54)。
ステップS54で、複数の顔が検出されたと判断すると、CPU10の注目エリア検出部は、検出された各顔の向きに基づいて注目エリアの検出を行う(ステップS55)。この注目エリアとは、検出された顔の人が見ている(注目している)エリアのことをいう。
この注目エリアの検出は、検出された各顔の向きの方向の延長線が交差する領域を注目エリアとして検出する。
Next, the CPU 10 determines whether or not a plurality of faces are detected by the face detection process (step S54).
If it is determined in step S54 that a plurality of faces have been detected, the attention area detection unit of the CPU 10 detects the attention area based on the detected orientation of each face (step S55). This attention area refers to an area where a person with a detected face is looking (attention).
In the detection of the attention area, an area where the extension lines in the detected direction of each face intersect is detected as the attention area.

図8は、検出された顔の向きに基づいて検出される注目エリアの様子の一例を示す図である。
図8を見ると、顔41と顔42は、被写体43を見ているのがわかり、注目している被写体(注目被写体)は被写体43ということになる。
ここでは、顔41と顔42とが検出され、該検出された各顔の向き方向の延長線が交差する点を中心とした所定の領域が注目エリア44となる。
FIG. 8 is a diagram illustrating an example of the state of the attention area detected based on the detected face orientation.
Referring to FIG. 8, it can be seen that the face 41 and the face 42 are looking at the subject 43, and the subject of interest (the subject of interest) is the subject 43.
Here, the face 41 and the face 42 are detected, and a predetermined area centering on a point where the extension lines in the direction of the detected faces intersect is the attention area 44.

図8のフローチャートに戻り、注目エリアの検出を行うと、CPU10は、注目エリア検出部により注目エリア44が検出されたか否かを判断する(ステップS56)。   Returning to the flowchart of FIG. 8, when the attention area is detected, the CPU 10 determines whether or not the attention area 44 is detected by the attention area detection unit (step S <b> 56).

ステップS56で、注目エリア44が検出されたと判断すると、CPU10のAE処理部102は、該検出した注目エリア44を測光領域とし、該測光領域の画像データの輝度成分に基づいて静止画用のAE処理を行うとともに、CPU10は、該注目エリアに対してAF処理を行って(ステップS57)、ステップS59に進む。このAF処理は、フォーカスレンズ2Aを移動させて、注目エリアの画像データの高周波成分に基づく合焦レンズ位置にフォーカスレンズ2Aを移動させる。このとき、注目エリアであることを示す情報(たとえば、注目枠)をスルー画像上に表示させるようにしてもよい。   If it is determined in step S56 that the attention area 44 has been detected, the AE processing unit 102 of the CPU 10 sets the detected attention area 44 as a photometry area, and based on the luminance component of the image data in the photometry area, the AE for still images. In addition to performing the process, the CPU 10 performs an AF process on the area of interest (step S57) and proceeds to step S59. In this AF process, the focus lens 2A is moved, and the focus lens 2A is moved to the focus lens position based on the high-frequency component of the image data of the area of interest. At this time, information indicating the attention area (for example, attention frame) may be displayed on the through image.

一方、ステップS54で、複数の顔が検出されていないと判断された場合、ステップS56で、注目エリア44を検出できないと判断した場合は、CPU10のAE処理部102は、該検出された顔の領域を測光領域として、該測光領域の画像データの輝度成分に基づいて静止画用のAE処理を行うとともに、CPU10のAF処理部は、該検出された顔に対してAF処理を行って(ステップS58)、ステップS59に進む。このAF処理は、フォーカスレンズ2Aを移動させて、検出された顔領域の画像データの高周波成分に基づく合焦レンズ位置にフォーカスレンズ2Aを移動させる。   On the other hand, if it is determined in step S54 that a plurality of faces are not detected, or if it is determined in step S56 that the attention area 44 cannot be detected, the AE processing unit 102 of the CPU 10 determines the detected faces. Using the area as a photometry area, AE processing for still images is performed based on the luminance component of the image data in the photometry area, and the AF processing unit of the CPU 10 performs AF processing on the detected face (step S58), the process proceeds to step S59. In this AF process, the focus lens 2A is moved, and the focus lens 2A is moved to the focus lens position based on the high-frequency component of the image data of the detected face area.

なお、このとき、検出された顔が複数ある場合は、すべての顔の領域に基づいてAE処理を行うようにしてもよいし、何れか1つの顔の領域に基づいてAE処理を行うようにしてもよい。また、検出された顔が複数ある場合は、検出された顔全てにピントが合うようにAF処理を行うようにしてもよいし、何れか1つの顔に対してAF処理を行うようにしてもよい。   At this time, if there are a plurality of detected faces, the AE process may be performed based on all the face areas, or the AE process may be performed based on any one of the face areas. May be. In addition, when there are a plurality of detected faces, the AF process may be performed so that all the detected faces are in focus, or the AF process may be performed on any one of the faces. Good.

ステップS59に進むと、CPU10は、ユーザによってシャッタボタンが全押しされたか否かを判断する。
ステップS59で、シャッタボタンが全押しされていないと判断すると、全押しされるまでステップS59に留まり、シャッタボタンが全押しされたと判断すると、CPU10は、ステップS57又はステップS58のAE処理によって設定された露出条件で静止画撮像処理を行い、画像生成部15によって生成され圧縮伸張部20によって圧縮された輝度色差信号の画像データを、DMA21を介してフラッシュメモリ22に記録する(ステップS60)。
In step S59, the CPU 10 determines whether or not the shutter button has been fully pressed by the user.
If it is determined in step S59 that the shutter button is not fully pressed, the process stays in step S59 until it is fully pressed. If it is determined that the shutter button is fully pressed, the CPU 10 is set by the AE process in step S57 or step S58. The still image capturing process is performed under the exposure conditions, and the image data of the luminance color difference signal generated by the image generation unit 15 and compressed by the compression / decompression unit 20 is recorded in the flash memory 22 via the DMA 21 (step S60).

以上のように、第3の実施の形態においては、検出された顔の向きに基づいて、撮像のための所定の制御を適切に行うことができる。たとえば、複数の顔が検出された場合は、該検出された各顔の向き方向の延長線が交差するエリアを、撮像された人が注目している注目エリア44として検出し、該検出した注目エリア44に対してAE処理、AF処理を行うので、被写体が注目している被写体に適切に露出を制御することができるとともに、ピントを合わせることができる。   As described above, in the third embodiment, predetermined control for imaging can be appropriately performed based on the detected face orientation. For example, when a plurality of faces are detected, an area where the extension lines in the direction of the detected faces intersect is detected as the attention area 44 in which the imaged person is paying attention. Since the AE process and the AF process are performed on the area 44, it is possible to appropriately control the exposure and to focus on the subject that the subject is paying attention to.

[変形例2]
上記第3の実施の形態は、以下のような変形例も可能である。
[Modification 2]
The third embodiment can be modified as follows.

(01)上記第3の実施の形態においては、図7のステップS59で、シャッタボタンが全押しされていないと判断すると全押しされるまでステップS59に留まるようにしたが、ステップS59で、シャッタボタンが全押しされていないと判断するとステップS53に戻るようにしてもよい。つまり、シャッタボタンが全押しされるまで注目エリアに追従、顔に追従したコンティニュアスAF処理を行うようにしてもよい。
また、静止画撮像の場合について説明したが、動画撮像の場合にも適用するようにしてもよい。
(01) In the third embodiment, if it is determined in step S59 in FIG. 7 that the shutter button is not fully pressed, the process stays in step S59 until it is fully pressed. If it is determined that the button is not fully pressed, the process may return to step S53. That is, the continuous AF process may be performed in which the area of interest is tracked and the face is tracked until the shutter button is fully pressed.
Further, although the case of still image capturing has been described, the present invention may be applied to the case of moving image capturing.

(2)上記第3の実施の形態においては、検出された各顔の向きの方向の延長線が交差する領域を注目エリアとして検出するようにしたが、検出された各顔の一部(2つ以上)の顔の向きにおいて、向きの方向の延長線がある領域で交差する場合に、その領域を注目エリアとして検出するようにしてもよい。   (2) In the third embodiment, the region where the extension lines in the direction of each detected face intersect is detected as the attention area. However, a part of each detected face (2 In the direction of more than one face, when an extension line in the direction of the direction intersects in an area, the area may be detected as an attention area.

(3)上記第3の実施の形態においては、検出された注目エリア、若しくは、検出された顔領域を測光領域としてAE処理を行うようにしたが、撮像された画像データの全領域を測光領域とし、少なくとも該検出された注目エリアを重みづけしてAE処理を行うようにしてもよい。   (3) In the third embodiment, the AE process is performed using the detected area of interest or the detected face area as the photometric area, but the entire area of the captured image data is the photometric area. AE processing may be performed by weighting at least the detected attention area.

(4)上記第3の実施の形態においては、人の顔を検出するようにしたが、人の顔ではなく、猫や犬等の動物の顔や人の体全体(頭、胴、腕、足などの体全体)等の所定の被写体を検出するようにしてもよい。このときも、該所定の被写体の向きも検出する。   (4) In the third embodiment, the human face is detected. However, instead of the human face, the face of an animal such as a cat or dog or the entire human body (head, torso, arms, A predetermined subject such as a whole body such as a foot) may be detected. At this time, the direction of the predetermined subject is also detected.

(5)上記第3の実施の形態においては、静止画撮像の場合について説明したが、動画撮像中においても適用してもよい。つまり、動画の撮像中に、検出された注目エリア44でのAE処理、AF処理を周期的に行うようにしてもよい。   (5) In the third embodiment, the case of still image capturing has been described. However, the present invention may be applied during moving image capturing. That is, the AE process and the AF process in the detected attention area 44 may be periodically performed during moving image capturing.

(6)また、上記変形例(1)乃至(5)を矛盾しない範囲で任意に組み合わせた態様であってもよい。   (6) Moreover, the aspect which arbitrarily combined the said modification (1) thru | or (5) in the range which is not inconsistent may be sufficient.

また、上記各実施の形態においては、顔検出部23が、顔を検出するとともに、該検出された顔の向きも検出するようにしたが、顔検出部23が顔を検出し、該検出された顔の向きを検出する手段を別個に設けるようにしてもよい。   Further, in each of the above embodiments, the face detection unit 23 detects the face and also detects the orientation of the detected face. However, the face detection unit 23 detects the face and detects it. A means for detecting the orientation of the face may be provided separately.

本発明の上記各実施形態及び各変形例は、何れも最良の実施形態としての単なる例に過ぎず、本発明の原理や構造等をより良く理解することができるようにするために述べられたものであって、添付の特許請求の範囲を限定する趣旨のものでない。
したがって、本発明の上記各実施形態に対してなされ得る多種多様な変形ないし修正はすべて本発明の範囲内に含まれるものであり、添付の特許請求の範囲によって保護されるものと解さなければならない。
The above-described embodiments and modifications of the present invention are merely examples as the best embodiments, and are described in order to better understand the principle and structure of the present invention. And is not intended to limit the scope of the appended claims.
Therefore, it should be understood that all the various variations and modifications that can be made to the above-described embodiments of the present invention are included in the scope of the present invention and protected by the appended claims. .

最後に、上記各実施の形態においては、本発明の撮像装置をデジタルカメラ1に適用した場合について説明したが、上記の実施の形態に限定されるものではなく、要は、被写体を撮像することができる機器であれば適用可能である。   Finally, in each of the above embodiments, the case where the imaging apparatus of the present invention is applied to the digital camera 1 has been described. However, the present invention is not limited to the above embodiment, and the main point is to image a subject. Applicable to any device that can be used.

1 デジタルカメラ
2 撮像レンズ
3 レンズ駆動ブロック
4 絞り
5 CCD
6 垂直ドライバ
7 TG
8 ユニット回路
9 DMA
10 CPU
11 キー入力部
12 メモリ
13 DRAM
14 DMA
15 画像生成部
16 DMA
17 DMA
18 表示部
19 DMA
20 圧縮伸張部
21 DMA
22 フラッシュメモリ
23 顔検出部
24 バス
1 Digital Camera 2 Imaging Lens 3 Lens Drive Block 4 Aperture 5 CCD
6 Vertical driver 7 TG
8 Unit circuit 9 DMA
10 CPU
11 Key input section 12 Memory 13 DRAM
14 DMA
15 Image generator 16 DMA
17 DMA
18 Display 19 DMA
20 Compression / decompression unit 21 DMA
22 Flash memory 23 Face detection unit 24 Bus

Claims (2)

被写体を撮像する撮像手段と、
前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、
前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段と、
を備えたことを特徴とする撮像装置。
Imaging means for imaging a subject;
Subject detection means for detecting a subject in the image data imaged by the imaging means;
Identification means for identifying a direction in which the subject detected by the subject detection means is facing ;
A control means for controlling focus so as to detect a focus lens position in which the subject is in focus by changing a search movement range of the focus lens according to a direction in which the subject identified by the identification means is facing ;
An imaging apparatus comprising:
被写体を撮像する撮像手段を備えたコンピュータを、
前記撮像手段により撮像された画像データ内にある被写体を検出する被写体検出手段と、
前記被写体検出手段により検出された被写体が向いている方向を識別する識別手段と、
前記識別手段により識別された被写体が向いている方向に応じて、フォーカスレンズのサーチ移動範囲を変えて、被写体にピントが合う合焦レンズ位置を検出するようにフォーカス制御する制御手段
として機能させることを特徴とするプログラム。
A computer having an imaging means for imaging a subject,
Subject detection means for detecting a subject in the image data imaged by the imaging means;
Identification means for identifying a direction in which the subject detected by the subject detection means is facing ;
According to the direction in which the subject identified by the identification unit is facing , the focus lens search movement range is changed to function as a control unit that performs focus control so as to detect a focus lens position in focus on the subject. A program characterized by
JP2010055209A 2010-03-12 2010-03-12 Imaging apparatus and program thereof Expired - Fee Related JP5182308B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010055209A JP5182308B2 (en) 2010-03-12 2010-03-12 Imaging apparatus and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010055209A JP5182308B2 (en) 2010-03-12 2010-03-12 Imaging apparatus and program thereof

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008022156A Division JP4518157B2 (en) 2008-01-31 2008-01-31 Imaging apparatus and program thereof

Publications (3)

Publication Number Publication Date
JP2010183601A JP2010183601A (en) 2010-08-19
JP2010183601A5 JP2010183601A5 (en) 2010-11-25
JP5182308B2 true JP5182308B2 (en) 2013-04-17

Family

ID=42764709

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010055209A Expired - Fee Related JP5182308B2 (en) 2010-03-12 2010-03-12 Imaging apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP5182308B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6123162B2 (en) * 2012-03-16 2017-05-10 株式会社ニコン IMAGING DEVICE AND IMAGING DEVICE CONTROL PROGRAM
JP7020263B2 (en) 2018-04-17 2022-02-16 富士通株式会社 Body orientation estimation program, body orientation estimation device, and body orientation estimation method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005164669A (en) * 2003-11-28 2005-06-23 Konica Minolta Photo Imaging Inc Digital camera
JP4609076B2 (en) * 2005-01-20 2011-01-12 トヨタ自動車株式会社 Moving object detection apparatus and moving object detection method
JP2009031760A (en) * 2007-07-04 2009-02-12 Sanyo Electric Co Ltd Imaging apparatus and automatic focus control method

Also Published As

Publication number Publication date
JP2010183601A (en) 2010-08-19

Similar Documents

Publication Publication Date Title
JP4518157B2 (en) Imaging apparatus and program thereof
KR100847614B1 (en) Imaging apparatus and computer readable recording medium
US8730375B2 (en) Imaging apparatus having focus control function
KR101342477B1 (en) Imaging apparatus and imaging method for taking moving image
KR100821801B1 (en) Image capture apparatus and auto focus control method
US8724981B2 (en) Imaging apparatus, focus position detecting method, and computer program product
US8384798B2 (en) Imaging apparatus and image capturing method
US8451366B2 (en) Image capturing device with automatic focus function
JP2007206583A (en) Imaging apparatus and its program
JP5030022B2 (en) Imaging apparatus and program thereof
KR101728042B1 (en) Digital photographing apparatus and control method thereof
JP4853707B2 (en) Imaging apparatus and program thereof
JP4614143B2 (en) Imaging apparatus and program thereof
JP5105616B2 (en) Imaging apparatus and program
JP2013146017A (en) Imaging device and program
EP1860871A1 (en) Image pickup apparatus and image pickup control method
JP5407373B2 (en) Imaging apparatus and program
JP4998122B2 (en) Imaging apparatus and program thereof
JP2007318292A (en) Motion vector detector and its program
JP5182308B2 (en) Imaging apparatus and program thereof
JP5126285B2 (en) Imaging apparatus and program thereof
JP5257969B2 (en) Focus position control device, focus position control method, focus position control program
JP6024135B2 (en) Subject tracking display control device, subject tracking display control method and program
JP2011107550A (en) Imaging apparatus
JP2003295040A (en) Camera

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101006

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101006

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120124

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120323

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120830

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121231

R150 Certificate of patent or registration of utility model

Ref document number: 5182308

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160125

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees