JP2013134403A - Focus adjustment device and imaging apparatus - Google Patents

Focus adjustment device and imaging apparatus Download PDF

Info

Publication number
JP2013134403A
JP2013134403A JP2011285122A JP2011285122A JP2013134403A JP 2013134403 A JP2013134403 A JP 2013134403A JP 2011285122 A JP2011285122 A JP 2011285122A JP 2011285122 A JP2011285122 A JP 2011285122A JP 2013134403 A JP2013134403 A JP 2013134403A
Authority
JP
Japan
Prior art keywords
focus
area
subject
image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011285122A
Other languages
Japanese (ja)
Inventor
Takahiro Hirayama
貴大 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2011285122A priority Critical patent/JP2013134403A/en
Publication of JP2013134403A publication Critical patent/JP2013134403A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To acquire image data focusing on a main subject when carrying out continuous shooting at high speed.SOLUTION: The imaging apparatus includes: a subject detection section for detecting a subject; a setting section for setting regions respectively cut out from images which are continuously outputted from an imaging element as an object domain based on a result of the subject detection by the subject detection section; a compression section for carrying out compression processing for the images of the object domain which are respectively cut out from the images which are continuously outputted from the imaging element; and a control section for controlling a focus position of an imaging optical system forming a subject image on the imaging element based on the variation in the data amount of the images of the object domain having undergone compression processing.

Description

本発明は、焦点調節装置及び撮像装置に関する。   The present invention relates to a focus adjustment device and an imaging device.

デジタルカメラに搭載されるオートフォーカス(AF)制御として、位相差検出方式やコントラスト検出方式のフォーカス制御が挙げられる。このようなAF制御を搭載したデジタルカメラにおいて、高速な連続撮影を実行させることも考案されている。   Examples of autofocus (AF) control mounted on a digital camera include phase control and contrast detection focus control. In a digital camera equipped with such AF control, it has been devised to execute high-speed continuous shooting.

特開2006−201282号公報JP 2006-201282 A

高速な連続撮影では撮影間でのAF制御が難しいことから、連続撮影の開始時に調節されたフォーカスポジションを固定した撮影が行われる。しかしながら、連続撮影の開始時に主要被写体に焦点を合わせたフォーカス調節を行っていても、連続撮影の過程で主要被写体に焦点が合わなくなる場合が想定され、その結果、主要被写体に焦点が合わない画像データが取得されてしまう恐れが生じる。   Since it is difficult to perform AF control between shots in high-speed continuous shooting, shooting with a fixed focus position adjusted at the start of continuous shooting is performed. However, even if the focus adjustment is focused on the main subject at the start of continuous shooting, it is assumed that the main subject may not be in focus during the continuous shooting process, resulting in an image that is not focused on the main subject. There is a risk of data being acquired.

本発明は、高速な連続撮影を行う場合に主要被写体に焦点が合う画像データを取得することができるようにした焦点調節装置及び撮像装置を提供することを目的とする。   An object of the present invention is to provide a focus adjustment device and an imaging device that can acquire image data that focuses on a main subject when performing high-speed continuous shooting.

本発明の焦点調節装置は、被写体を検出する被写体検出部と、前記被写体検出部による被写体検出の結果に基づいて、撮像素子から連続して出力される画像のそれぞれから切り出す領域を対象領域として設定する設定部と、前記撮像素子から連続して出力される画像のそれぞれから切り出した前記対象領域の画像に対して圧縮処理を行う圧縮部と、前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像素子上へ被写体像を形成する撮像光学系のフォーカスポジションを制御する制御部と、を備えたことを特徴とする。   The focus adjustment apparatus according to the present invention sets, as a target region, a subject detection unit that detects a subject and a region that is cut out from each of the images that are continuously output from the image sensor based on the result of subject detection by the subject detection unit. A setting unit that performs compression processing on the image of the target region cut out from each of the images continuously output from the imaging device, and a data amount of the image of the target region that has been compressed And a control unit that controls a focus position of an image pickup optical system that forms a subject image on the image pickup element based on the change in the image pickup element.

また、本発明の撮像装置は、撮像光学系が形成する被写体像を連続して撮像し、画像を順次出力する撮像素子と、前記撮像素子から順次出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する焦点調節装置と、を備えたことを特徴とする。   Further, the imaging apparatus of the present invention continuously captures the subject image formed by the imaging optical system, sequentially outputs the image, and the imaging optical system based on the images sequentially output from the imaging element. And a focus adjusting device for controlling the focus position of the camera.

本発明によれば、高速な連続撮影を行う場合に主要被写体に焦点が合う画像データを取得することができる。   According to the present invention, it is possible to acquire image data that focuses on a main subject when performing high-speed continuous shooting.

本発明のデジタルカメラの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the digital camera of this invention. (a)顔領域の大きさが1つの分割領域の大きさよりも小さく且つ顔領域が1つの分割領域内に収まる場合に設定される比較対象領域を示す図、(b)顔領域の大きさが1つの分割領域の大きさよりも小さく且つ顔領域が複数の分割領域に跨る場合に設定される比較対象領域を示す図、(c)顔領域の大きさが1つの分割領域の大きさよりも大きい場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when the size of a face area is smaller than the magnitude | size of one division area, and a face area is settled in one division area, (b) The magnitude | size of a face area The figure which shows the comparison object area | region set when it is smaller than the size of one division area, and a face area straddles several division areas, (c) When the size of a face area is larger than the magnitude | size of one division area It is a figure which shows the comparison object area | region set to. (a)複数の顔領域のうち、最も大きい顔領域を選択した場合に設定される比較対象領域を示す図、(b)複数の顔領域のうち、AFエリアに重畳される顔領域を選択した場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when the largest face area is selected among several face areas, (b) The face area superimposed on AF area was selected among several face areas It is a figure which shows the comparison object area | region set in the case. (a)焦点が合うAFエリアが1つで、且つ該AFエリアが1つの分割領域内に収まる場合に設定される比較対象領域を示す図、(a)焦点が合うAFエリアが1つで、且つ該AFエリアが複数の分割領域に跨る場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when there is one AF area which focuses, and this AF area is settled in one division area, (a) There is one AF area which focuses, Also, it is a diagram showing a comparison target area that is set when the AF area extends over a plurality of divided areas. (a)焦点が合う複数のAFエリアが1つの分割領域内に収まる場合に設定される比較対象領域を示す図、(b)焦点が合う複数のAFエリアが隣接する複数の分割領域に跨る場合に設定される比較対象領域を示す図、(c)焦点が合う複数のAFエリアが離散する分割領域のそれぞれに収まる場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when the some AF area which focuses is contained in one division area, (b) The case where the some AF area which focuses is straddling the several division area which adjoins FIG. 4C is a diagram showing a comparison target area set in (c), and FIG. 4C is a diagram showing a comparison target area set when a plurality of in-focus AF areas fit in each of divided areas. 連続撮影における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in continuous imaging | photography. 連続撮影における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in continuous imaging | photography. 連続撮影における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in continuous imaging | photography.

以下、本発明の実施形態としてデジタルカメラ10を例に説明する。本発明のデジタルカメラ10は、1回の撮像処理により静止画像を取得する静止画撮影の他、撮像処理を連続して行うことにより複数の静止画像を取得する連続撮影を行うことが可能である。この連続撮影は、例えば30コマ/秒、50コマ/秒、60コマ/秒など高速な連続撮影を行うことができる。   Hereinafter, a digital camera 10 will be described as an example of an embodiment of the present invention. The digital camera 10 of the present invention can perform continuous shooting for acquiring a plurality of still images by continuously performing imaging processing in addition to still image shooting for acquiring still images by one imaging processing. . For this continuous shooting, high-speed continuous shooting such as 30 frames / second, 50 frames / second, and 60 frames / second can be performed.

図1に示すように、デジタルカメラ10は、撮像光学系15、クイックリターンミラー16、メカニカルシャッタ17、撮像素子18、アナログフロントエンド(AFE)回路19、タイミングジェネレータ(TG)20、レンズ駆動機構21、シャッタ駆動機構22、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、表示装置29、接続用I/F30、CPU40、不揮発性メモリ41、ワークメモリ42、焦点検出部43、レリーズボタン44、操作部45などを備えている。AFE回路19、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、接続用I/F30、CPU40は、バス46を介して電気的に接続される。   As shown in FIG. 1, the digital camera 10 includes an imaging optical system 15, a quick return mirror 16, a mechanical shutter 17, an image sensor 18, an analog front end (AFE) circuit 19, a timing generator (TG) 20, and a lens driving mechanism 21. , Shutter drive mechanism 22, buffer memory 25, image processing circuit 26, compression / expansion circuit 27, display control circuit 28, display device 29, connection I / F 30, CPU 40, nonvolatile memory 41, work memory 42, focus detection unit 43, a release button 44, an operation unit 45, and the like. The AFE circuit 19, the buffer memory 25, the image processing circuit 26, the compression / decompression circuit 27, the display control circuit 28, the connection I / F 30, and the CPU 40 are electrically connected via a bus 46.

撮像光学系15は、被写界光束を結像し、撮像素子18の撮像面近傍に被写界像を形成する。図1においては、撮像光学系15として単一のレンズとして記載しているが、実際には、フォーカシングレンズを備えた複数のレンズから構成される。このフォーカシングレンズは、レンズ駆動機構21を介して光軸方向に移動される。フォーカシングレンズを光軸方向に移動させることで、フォーカス制御が実行される。   The imaging optical system 15 forms an object scene light beam and forms an object scene image near the imaging surface of the image sensor 18. In FIG. 1, the imaging optical system 15 is described as a single lens, but in actuality, the imaging optical system 15 includes a plurality of lenses including a focusing lens. The focusing lens is moved in the optical axis direction via the lens driving mechanism 21. Focus control is executed by moving the focusing lens in the optical axis direction.

また、撮像光学系15は、不図示の絞りを備えている。この絞りは、CPU40により設定されるAv値に応じて、絞り径が調整される。このAv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。   The imaging optical system 15 includes a diaphragm (not shown). The diaphragm diameter is adjusted according to the Av value set by the CPU 40. This Av value may be a value input by the user or a value calculated by automatic exposure calculation.

クイックリターンミラー16は、撮像光学系15と撮像素子18との間の被写界光束の光路上に配置される。このクイックリターンミラー16は、ミラーダウン状態と、ミラーアップ状態との間で切り替えられる。クイックリターンミラー16がミラーダウン状態の場合、被写体光束はクイックリターンミラー16により焦点検出部43及び不図示の測光部へと導かれる。一方、クイックリターンミラー16がミラーアップ状態の場合、被写体光束は、クイックリターンミラー16により撮像素子18へ導かれる。   The quick return mirror 16 is disposed on the optical path of the field light beam between the imaging optical system 15 and the imaging element 18. The quick return mirror 16 is switched between a mirror-down state and a mirror-up state. When the quick return mirror 16 is in the mirror-down state, the subject light flux is guided by the quick return mirror 16 to the focus detection unit 43 and a photometry unit (not shown). On the other hand, when the quick return mirror 16 is in the mirror-up state, the subject light flux is guided to the image sensor 18 by the quick return mirror 16.

メカニカルシャッタ17は、クイックリターンミラー16と撮像素子18との間の、被写界光束の光路上に配置される。このメカニカルシャッタ17は、TG20からの駆動信号を受けたシャッタ駆動機構22により開閉される。   The mechanical shutter 17 is disposed on the optical path of the field light beam between the quick return mirror 16 and the image sensor 18. The mechanical shutter 17 is opened and closed by a shutter drive mechanism 22 that has received a drive signal from the TG 20.

撮像素子18は、CCDイメージセンサ、CMOSイメージセンサなどから構成される。この撮像素子18は、TG20から供給される駆動信号に応じて、信号の蓄積及び信号の読み出しを行う。   The image sensor 18 is composed of a CCD image sensor, a CMOS image sensor, or the like. The image sensor 18 accumulates signals and reads signals in accordance with the drive signal supplied from the TG 20.

TG20は、CPU40からの指示に応じて、撮像素子18やシャッタ駆動機構22に対して駆動信号を出力する。また、TG20は、AFE回路19やCPU40に対して同期信号を供給する。ここで、TG20は、撮像素子18へ供給する駆動信号のパターンと、メカニカルシャッタ17へ供給する駆動信号のパターンとの組み合わせにより、1フレーム当たりの露光時間を制御する。この露光時間は、CPU40により指定されたTv値に応じた値に設定される。ここで、Tv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。ここで、後述する高速連写を行う場合には、メカニカルシャッタ17を開成状態としたまま、撮像素子18の駆動制御(信号の蓄積及び信号の読み出し)を行う。この場合、露光時間は、撮像素子18に供給される駆動信号のみで制御される。つまり、高速連写を行う場合には、メカニカルシャッタ17ではなく、電子シャッタが用いられる。   The TG 20 outputs a drive signal to the image sensor 18 and the shutter drive mechanism 22 in response to an instruction from the CPU 40. Further, the TG 20 supplies a synchronization signal to the AFE circuit 19 and the CPU 40. Here, the TG 20 controls the exposure time per frame by a combination of the pattern of the drive signal supplied to the image sensor 18 and the pattern of the drive signal supplied to the mechanical shutter 17. The exposure time is set to a value corresponding to the Tv value designated by the CPU 40. Here, the Tv value may be a value input by the user or a value calculated by automatic exposure calculation. Here, when performing high-speed continuous shooting described later, drive control (signal accumulation and signal readout) of the image sensor 18 is performed while the mechanical shutter 17 is in an open state. In this case, the exposure time is controlled only by the drive signal supplied to the image sensor 18. That is, when performing high-speed continuous shooting, an electronic shutter is used instead of the mechanical shutter 17.

AFE回路19は、CDS回路、ゲイン回路、A/D変換回路などを備えている。CDS回路は、撮像素子18から出力されるアナログ信号のノイズ成分を相関二重サンプリングにより除去する。ゲイン回路は、ノイズが除去されたアナログ信号を増幅する。A/D変換し出力変換回路は、増幅されたアナログ信号をデジタル信号に変換する。   The AFE circuit 19 includes a CDS circuit, a gain circuit, an A / D conversion circuit, and the like. The CDS circuit removes the noise component of the analog signal output from the image sensor 18 by correlated double sampling. The gain circuit amplifies the analog signal from which noise has been removed. The A / D conversion and output conversion circuit converts the amplified analog signal into a digital signal.

ここで、ゲイン回路による信号の増幅時に用いられる信号増幅率(ゲイン)は、CPU40からのSv値に基づいた値である。このSv値は撮影時の感度(ISO感度)であり、このSv値は、ユーザが指定した値であってもよいし、自動露出演算にて算出された値であってもよい。   Here, the signal amplification factor (gain) used when the signal is amplified by the gain circuit is a value based on the Sv value from the CPU 40. This Sv value is a sensitivity at the time of photographing (ISO sensitivity), and this Sv value may be a value designated by the user or a value calculated by automatic exposure calculation.

焦点検出部43は、ミラーダウン状態のクイックリターンミラー16から導かれた被写界光束を瞳分割してから再統合することにより、撮像素子18に対する撮像光学系15のデフォーカス信号を生成する位相差検出方式の焦点検出部から構成される。ここで、撮像光学系15のデフォーカス信号は、撮像範囲に対して複数配置される複数のAFエリアのそれぞれで生成される。   The focus detection unit 43 generates a defocus signal of the imaging optical system 15 for the imaging element 18 by dividing the pupil of the field light beam guided from the quick return mirror 16 in the mirror-down state and then reintegrating it. Consists of a phase difference detection type focus detection unit. Here, the defocus signal of the imaging optical system 15 is generated in each of a plurality of AF areas arranged in a plurality with respect to the imaging range.

バッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる。このバッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる他、画像処理回路26から転送された他のデジタル信号が書き込まれる。ここで、バッファメモリ25は、複数フレーム分のデジタル信号を記憶することができる。   In the buffer memory 25, the digital signal output from the AFE circuit 19 is written. In the buffer memory 25, the digital signal output from the AFE circuit 19 is written, and other digital signals transferred from the image processing circuit 26 are written. Here, the buffer memory 25 can store digital signals for a plurality of frames.

画像処理回路26は、ホワイトバランス処理回路、画素補間回路、マトリクス処理回路、非線形変換(γ補正)処理回路及び輪郭強調処理回路などを備え、デジタル信号に対して、ホワイトバランス、画素補間、マトリクス、非線形変換(γ補正)及び輪郭強調などの処理を施す。この画像処理回路26は、トリミング部47を備えている。トリミング部47は、連続撮影により得られた画像データのそれぞれから、後述する比較対象領域に該当する領域をトリミング処理する。なお、トリミング処理された画像データ(対象画像データ)は、バッファメモリ25に記憶される。   The image processing circuit 26 includes a white balance processing circuit, a pixel interpolation circuit, a matrix processing circuit, a non-linear transformation (γ correction) processing circuit, an edge enhancement processing circuit, and the like, and performs white balance, pixel interpolation, matrix, Processing such as nonlinear transformation (γ correction) and edge enhancement is performed. The image processing circuit 26 includes a trimming unit 47. The trimming unit 47 trims an area corresponding to a comparison target area, which will be described later, from each of the image data obtained by continuous shooting. The trimmed image data (target image data) is stored in the buffer memory 25.

圧縮/伸長回路27は、画像処理済みの画像データや、対象画像データに対して圧縮処理を施す。圧縮処理が施された画像データは、接続用I/F30に接続を介して記憶媒体48に書き込まれる。ここで、記憶媒体48としては、不揮発性メモリからなるメモリーカード、光学ディスク、磁気ディスクなどが挙げられる。また、圧縮/伸長回路27は、記憶媒体48から読み出した圧縮処理済みの画像データに対して伸長処理を行う。表示制御回路28は、入力された画像データを表示用の所定方式の信号に変換して表示装置29に表示する。   The compression / decompression circuit 27 performs compression processing on the image data that has undergone image processing and the target image data. The compressed image data is written to the storage medium 48 via the connection I / F 30. Here, examples of the storage medium 48 include a memory card made of a nonvolatile memory, an optical disk, and a magnetic disk. Further, the compression / decompression circuit 27 performs decompression processing on the compressed image data read from the storage medium 48. The display control circuit 28 converts the input image data into a predetermined signal for display and displays it on the display device 29.

CPU40は、不揮発性メモリ41に格納されている制御プログラムに従って、ワークメモリ42を一時記憶作業領域として利用して各部の制御を行う。このCPU40は、連続撮影時に、顔検出部51、領域設定部52、データ比較部53、焦点制御部54の機能が有効となる。   The CPU 40 controls each unit using the work memory 42 as a temporary storage work area according to a control program stored in the nonvolatile memory 41. In the CPU 40, the functions of the face detection unit 51, the region setting unit 52, the data comparison unit 53, and the focus control unit 54 become effective during continuous shooting.

顔検出部51は、画像中に含まれる人物の顔を検出する。この顔を検出する処理としては、例えば画像に含まれる肌色の領域を検出し、肌色の領域に含まれる特徴量から、顔であるか否かの判定を行う処理、又は顔形状のテンプレートを複数用意しておき、テンプレートと画像との相関から顔の領域を検出する処理等が挙げられる。顔検出部51は、顔が検出されると、検出された顔を含む矩形の領域を顔領域として抽出し、顔領域の位置データを求める。ここで、顔領域の位置データは、顔領域の四隅の頂点の位置座標を示すアドレスデータである。   The face detection unit 51 detects the face of a person included in the image. As the process for detecting the face, for example, a skin color area included in the image is detected, and a process for determining whether the face is a feature from the feature amount included in the skin color area, or a plurality of face shape templates. For example, a process for detecting a face region from the correlation between the template and the image is prepared. When a face is detected, the face detection unit 51 extracts a rectangular area including the detected face as a face area, and obtains position data of the face area. Here, the position data of the face area is address data indicating the position coordinates of the four corner vertices of the face area.

領域設定部52は、後述するデータ比較部53にて実行されるデータ比較の際に用いる領域(比較対象領域)を設定する。まず、領域設定部52は、連続撮影における1回目の撮像処理により得られる画像を縦m個横n個の計m×n個の領域に分割する。この領域分割に関わるデータは例えばワークメモリ42に記憶される。以下、画像を分割することで得られる領域を分割領域と称して説明する。   The area setting unit 52 sets an area (comparison target area) used for data comparison executed by the data comparison unit 53 described later. First, the area setting unit 52 divides an image obtained by the first imaging process in continuous shooting into a total of m × n areas of m in length and n in width. Data relating to this area division is stored in the work memory 42, for example. Hereinafter, an area obtained by dividing an image will be described as a divided area.

上述した顔検出部51による顔検出処理において顔が検出された場合には、抽出された顔領域の位置データを用いて、分割された複数の領域のうちのいずれかの領域を、比較対象領域として設定する。一方、顔検出部51による顔検出処理において、顔が検出されない場合には、領域設定部52は、1回目の撮像処理にて実行されるフォーカス調節の結果に基づいて、分割された複数の領域のうちのいずれかの領域を、比較対象領域として設定する。   When a face is detected in the face detection process by the face detection unit 51 described above, any one of the plurality of divided regions is compared with the comparison target region using the position data of the extracted face region. Set as. On the other hand, in the face detection process by the face detection unit 51, when a face is not detected, the region setting unit 52 performs a plurality of divided regions based on the result of focus adjustment executed in the first imaging process. Is set as a comparison target area.

比較対象領域が設定されると、領域設定部52は、比較対象領域の位置データを求める。求めた比較対象領域の位置データは、比較対象領域の四隅の頂点の位置座標を示すアドレスデータである。なお、この比較対象領域の位置データは、画像処理回路26に出力される。画像処理回路26は、比較対象領域の位置データに基づいて、連続撮影時に得られる各画像データに対してトリミング処理を実行する。   When the comparison target area is set, the area setting unit 52 obtains position data of the comparison target area. The obtained position data of the comparison target area is address data indicating the position coordinates of the vertices at the four corners of the comparison target area. The position data of the comparison target area is output to the image processing circuit 26. The image processing circuit 26 performs a trimming process on each image data obtained at the time of continuous shooting based on the position data of the comparison target region.

データ比較部53は、上述した圧縮処理が施された対象画像データのデータ量を比較する。例えば同じ被写界を撮影した2つの画像のデータ量は近似する。しかしながら、鮮鋭度が高い画像のデータ量は、鮮鋭度の低い画像のデータ量よりも大きくなる傾向がある。ここで、画像における鮮鋭度が高いほど、ピントがあった画像となる。また、上述した比較対象領域は、主要被写体となる人物の顔領域、又は焦点が合うAFエリアが含まれる領域であることから、圧縮処理済みの対象画像データのデータ量を比較することで、画像において注目すべき領域に対して焦点が合うように、フォーカス制御を行うことができ、他の領域に焦点が合うことを防止することができる。   The data comparison unit 53 compares the data amounts of the target image data subjected to the above-described compression processing. For example, the data amounts of two images taken of the same scene are approximated. However, the data amount of an image with high sharpness tends to be larger than the data amount of an image with low sharpness. Here, the higher the sharpness in the image, the more focused the image. In addition, since the comparison target area described above is an area including the face area of a person as a main subject or an AF area in focus, comparing the data amount of target image data that has been subjected to compression processing allows the image to be compared. Focus control can be performed so that the region to be noticed is focused on, and other regions can be prevented from being focused.

焦点制御部54は、連続撮影における各フォーカス制御を実行する。この連続撮影における1回目の撮像処理のフォーカス制御は、上述した焦点検出部43における検出結果を利用したフォーカス制御である。また、連続撮影における2回目以降のフォーカス制御は、データ比較部53による比較結果に基づいたフォーカス制御である。なお、2回目以降のフォーカス制御は、比較対象領域をトリミングすることで得られる対象画像の鮮鋭度と、対象画像のデータ量との関係を利用したフィードバック制御となる。   The focus control unit 54 executes each focus control in continuous shooting. The focus control of the first imaging process in the continuous shooting is focus control using the detection result in the focus detection unit 43 described above. Further, the second and subsequent focus control in the continuous shooting is focus control based on the comparison result by the data comparison unit 53. Note that the second and subsequent focus control is feedback control using the relationship between the sharpness of the target image obtained by trimming the comparison target region and the data amount of the target image.

次に、比較対象領域の設定について説明する。   Next, setting of the comparison target area will be described.

上述したように、比較対象領域は、顔検出部51による顔の検出処理の結果に基づいて設定される。以下、1回目の撮像処理により得られた画像Pを縦4個、横6個計24個の領域A〜A24に分割した場合について説明する。顔検出部51により顔が検出されている場合には、領域設定部52は、検出された顔が単数(1つ)であるか、複数(2以上)であるかを判定する。 As described above, the comparison target region is set based on the result of the face detection process by the face detection unit 51. Hereinafter, four images P 1 obtained by the first imaging processing vertical, if divided into horizontal 6 total 24 regions A 1 to A 24 will be described. When a face is detected by the face detection unit 51, the region setting unit 52 determines whether the detected face is single (one) or plural (two or more).

例えば検出された顔が1つである場合、領域設定部52は、抽出された顔領域が1つの分割領域よりも小さいか否かを判定する。顔領域が分割領域よりも小さいと判定された場合、領域設定部52は、抽出された顔領域が複数の分割領域のいずれかの領域に収まるか、複数の分割領域に跨るかを判定する。   For example, when the number of detected faces is one, the area setting unit 52 determines whether or not the extracted face area is smaller than one divided area. When it is determined that the face area is smaller than the divided area, the area setting unit 52 determines whether the extracted face area fits in any one of the plurality of divided areas or straddles the plurality of divided areas.

図2(a)に示すように、抽出された顔領域FRが1つの分割領域よりも小さく、また顔領域FRが分割領域A17に収まる場合、領域設定部52は、分割領域A17を比較対象領域として設定する。 As shown in FIG. 2A, when the extracted face area FR 1 is smaller than one divided area and the face area FR 1 fits in the divided area A 17 , the area setting unit 52 uses the divided area A 17. Is set as the comparison target area.

図2(b)に示すように、抽出された顔領域FRが1つの分割領域よりも小さい場合であっても、顔領域FRが複数の分割領域A10、A11、A16、A17に跨るときもある。このような場合には、領域設定部52は、分割領域A10、A11、A16、A17を比較対象領域として設定する。図2(b)においては、顔領域FRが複数の分割領域A10、A11、A16、A17に跨る場合を説明しているが、顔領域が上下方向又は左右方向に隣り合う2つの分割領域に跨る場合には、顔領域が跨る2つの分割領域を比較対象領域に設定すればよい。 As shown in FIG. 2B, even when the extracted face area FR 2 is smaller than one divided area, the face area FR 2 is divided into a plurality of divided areas A 10 , A 11 , A 16 , A There are times when it straddles 17 . In such a case, the area setting unit 52 sets the divided areas A 10 , A 11 , A 16 , and A 17 as comparison target areas. FIG. 2B illustrates a case where the face area FR 2 extends over a plurality of divided areas A 10 , A 11 , A 16 , A 17 , but the face area is adjacent in the vertical direction or the horizontal direction 2. When straddling two divided areas, two divided areas straddling the face area may be set as the comparison target areas.

一方、図2(c)に示すように、顔領域FRが1つの分割領域よりも大きい場合には、顔領域FRは複数の分割領域に跨るので、このような場合、領域設定部52は、顔領域FRが跨る分割領域A10、A11、A12、A16,A17、A18、A22、A23、A24を比較対象領域として設定する。 On the other hand, as shown in FIG. 2C, when the face area FR 3 is larger than one divided area, the face area FR 3 extends over a plurality of divided areas. In such a case, the area setting unit 52 Sets the divided areas A 10 , A 11 , A 12 , A 16 , A 17 , A 18 , A 22 , A 23 , A 24 that the face area FR 3 straddles as the comparison target areas.

また、顔検出部51により検出された顔が複数となる場合、領域設定部52は、まず、検出された複数の顔に基づく顔領域のうち、1つの分割領域よりも大きい顔領域があるか否かを判定する。図3(a)は、3つの顔領域FR、FR、FRが抽出された場合を示す。顔領域FR、FR、FRのうち、顔領域FRが最も大きい顔領域となる場合には、領域設定部52は顔領域FRを選択する。そして、領域設定部52は、選択された顔領域FRが跨る分割領域A16,A17、A22、A23を、比較対象領域として設定する。 When there are a plurality of faces detected by the face detection unit 51, the area setting unit 52 first determines whether there is a face area larger than one divided area among the face areas based on the detected faces. Determine whether or not. FIG. 3A shows a case where three face regions FR 4 , FR 5 , FR 6 are extracted. When the face area FR 6 is the largest face area among the face areas FR 4 , FR 5 , and FR 6 , the area setting unit 52 selects the face area FR 6 . Then, the area setting unit 52 sets the divided areas A 16 , A 17 , A 22 , A 23 that the selected face area FR 6 spans as comparison target areas.

一方、図3(b)に示すように、検出された3つの顔領域FR、FR、FRのいずれも、1つの分割領域よりも小さい場合がある。このような場合には、領域設定部52は、顔領域の位置とAFエリアの位置とに基づいて、AFエリアのいずれかに重畳する顔領域があるか否かを判定する。AFエリアのいずれかに重畳する顔領域があれば、領域分割部52は、その顔領域を選択し、選択された顔領域が収まる分割領域、或いは顔領域が跨る分割領域を比較対象領域として設定する。図3(b)においては、顔領域FRがAFエリアに重畳しているので、領域設定部52は、顔領域FRを選択する。そして、領域設定部52は、顔領域FRが収まる分割領域Aを比較対象領域として設定する。なお、検出された顔領域のいずれもがAFエリアに重畳されない場合には、検出された顔領域のうち、最も大きい顔領域が位置する分割領域を比較対象領域としてもよいし、焦点が合うAFエリアが含まれる分割領域を比較対象領域としてもよい。 On the other hand, as shown in FIG. 3B, any of the detected three face regions FR 7 , FR 8 , FR 9 may be smaller than one divided region. In such a case, the area setting unit 52 determines whether there is a face area to be superimposed on any of the AF areas based on the position of the face area and the position of the AF area. If there is a face area to be superimposed on any of the AF areas, the area dividing unit 52 selects the face area, and sets a divided area in which the selected face area fits or a divided area that spans the face area as a comparison target area. To do. In FIG. 3B, since the face area FR 8 is superimposed on the AF area, the area setting unit 52 selects the face area FR 8 . Then, the area setting unit 52 sets the divided regions A 9 the face area FR 8 falls as a comparison target area. If none of the detected face areas is superimposed on the AF area, the divided area where the largest face area is located among the detected face areas may be set as the comparison target area, or the focused AF is performed. A divided region including an area may be set as a comparison target region.

次に、顔検出部51による顔検出処理において顔が検出されない場合について説明する。顔検出部51による顔検出処理において顔が検出されない場合、領域設定部52は、連続撮影が開始されたときに実行されるフォーカス調節の結果に基づいて、複数の分割領域のうちのいずれかの領域を、比較対象領域として設定する。上述した1回目の撮像処理においては、焦点検出部43により求められるAFエリア毎のデフォーカス信号を用いたフォーカス制御が実行される。領域設定部52は、これらAFエリアのうち、焦点が合うAFエリアを用いて、比較対象領域を設定する。   Next, a case where no face is detected in the face detection process by the face detection unit 51 will be described. When a face is not detected in the face detection process by the face detection unit 51, the region setting unit 52 selects one of a plurality of divided regions based on the result of focus adjustment executed when continuous shooting is started. The area is set as a comparison target area. In the first imaging process described above, focus control using a defocus signal for each AF area obtained by the focus detection unit 43 is executed. The area setting unit 52 sets a comparison target area using an AF area in focus among these AF areas.

図4(a)に示すように、複数のAFエリアのうち、焦点が合うAFエリアとして1つのAFエリアBが該当する場合、領域設定部52は、焦点が合うAFエリアBが1つの分割領域に収まるか、複数の分割領域に跨るかを判定する。この場合、AFエリアBは分割領域A10に収まるので、領域設定部52は、分割領域A10を比較対象領域として設定する。 As shown in FIG. 4 (a), among the plurality of AF areas, if one of the AF area B 1 as the AF area in focus falls, the area setting unit 52, an AF area B 1 which in focus is one It is determined whether it falls within a divided area or straddles a plurality of divided areas. In this case, since the AF area B 1 represents fit in divided areas A 10, region setting unit 52 sets the divided regions A 10 as comparison regions.

例えば複数のAFエリアは、必ずしも分割領域内に収まらずに、隣り合う分割領域に跨る場合もある。図4(b)に示すように、分割領域A、A10、A15、A16に跨るAFエリアBが焦点の合うAFエリアとなる場合、領域設定部52は、分割領域A、A10、A15、A16を比較対象領域として設定する。 For example, a plurality of AF areas may not necessarily fall within the divided areas and may extend over adjacent divided areas. As shown in FIG. 4B, when the AF area B 2 extending over the divided areas A 9 , A 10 , A 15 , A 16 is an in-focus AF area, the area setting unit 52 includes the divided areas A 9 , A 10 , A 15 , and A 16 are set as comparison target areas.

一方、焦点が合うAFエリアが複数ある場合には、領域設定部52は、焦点の合うAFエリアのそれぞれが1つの分割領域に収まるか否かを判定する。図5(a)は、焦点の合うAFエリアが複数、1つの分割領域に収まる場合であり、焦点の合うAFエリアは塗りつぶして示している。この場合、領域設定部52は、焦点が合うAFエリアが収まる分割領域A10を比較対象領域として設定する。 On the other hand, when there are a plurality of in-focus AF areas, the area setting unit 52 determines whether or not each of the in-focus AF areas fits in one divided area. FIG. 5A shows a case in which a plurality of in-focus AF areas fall within one divided area, and the in-focus AF area is shown in a solid color. In this case, the area setting unit 52 sets the divided area A 10 that is the AF area in focus falls as a comparison target area.

一方、焦点の合うAFエリアが複数あり、それぞれのAFエリアが複数の分割領域に収まる場合には、領域設定部52は、焦点の合うAFエリアが含まれる分割領域を全て比較対象領域として設定する。図5(b)の場合、塗りつぶしで示すAFエリアが焦点の合うAFエリアである。この場合、領域設定部52は、焦点が合うAFエリアが位置する分割領域A、A10、A15、A16を比較対象領域として設定する。 On the other hand, when there are a plurality of in-focus AF areas and each AF area fits in a plurality of divided areas, the area setting unit 52 sets all the divided areas including the in-focus AF areas as comparison target areas. . In the case of FIG. 5B, the AF area indicated by filling is an in-focus AF area. In this case, the area setting unit 52 sets the divided areas A 9 , A 10 , A 15 , and A 16 where the focused AF area is located as the comparison target area.

なお、図5(c)に示すように、焦点が合うAFエリアが近接して位置せず、離散して位置している場合もある。このような場合には、領域設定部52は、焦点が合うAFエリアが含まれる分割領域A及び分割領域A10、A11を比較対象領域として設定する。 As shown in FIG. 5C, the focused AF areas may not be located close to each other but may be located discretely. In such a case, the area setting unit 52 sets the divided area A 8 and the divided areas A 10 and A 11 including the focused AF area as the comparison target areas.

図6〜図8は、連続撮影を行う場合の処理の流れを示すフローチャートである。   6 to 8 are flowcharts showing the flow of processing when continuous shooting is performed.

ステップS101は、レリーズボタンが半押し操作されたか否かを判定する処理である。レリーズボタン44には、その半押し操作及び全押し操作を検知する検知スイッチが設けられている。レリーズボタン44が半押し操作されると、半押し操作を検知する検知スイッチがオンとなり、その信号(以下、半押し信号)がCPU40に出力される。半押し信号が入力されたことを受けて、CPU40は、ステップS101の判定処理をYesとする。この場合、ステップS102に進む。   Step S101 is processing for determining whether or not the release button has been pressed halfway. The release button 44 is provided with a detection switch for detecting the half-pressing operation and the full-pressing operation. When the release button 44 is half-pressed, a detection switch that detects the half-press operation is turned on, and a signal (hereinafter, half-press signal) is output to the CPU 40. In response to the input of the half-press signal, the CPU 40 determines Yes in step S101. In this case, the process proceeds to step S102.

一方、半押し信号が入力されない場合には、CPU40は、ステップS101の判定処理をNoとする。この場合には、ステップS101の判定処理がYesとなるまで、このステップS101の判定処理が実行される。   On the other hand, when the half-press signal is not input, the CPU 40 determines No in step S101. In this case, the determination process of step S101 is executed until the determination process of step S101 becomes Yes.

ステップS102は、AE処理及びAF処理を実行する処理である。CPU40は、不図示の測光装置から出力される信号に基づいてAE処理を実行する。CPU40がAE処理を実行することで、Tv値、Av値及びSv値の組み合わせが決定される。また、CPU40は、焦点検出部が出力するデフォーカス信号に基づいてAF処理を実行する。このAF処理において、CPU40は、焦点検出部から入力されるデフォーカス信号のうち、設定されたフォーカスエリアのデフォーカス信号を選択した後、選択したデフォーカス信号からフォーカシングレンズの駆動量を求める。   Step S102 is processing for executing AE processing and AF processing. The CPU 40 executes AE processing based on a signal output from a photometry device (not shown). When the CPU 40 executes the AE process, a combination of the Tv value, the Av value, and the Sv value is determined. In addition, the CPU 40 performs AF processing based on the defocus signal output from the focus detection unit. In this AF process, the CPU 40 selects a defocus signal for the set focus area from among the defocus signals input from the focus detection unit, and then obtains the driving amount of the focusing lens from the selected defocus signal.

ステップS103は、レリーズボタンの半押し操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が半押し操作されると、半押し信号がCPU40に入力される。また、レリーズボタン44の半押し操作が解除されると、CPU40への半押し信号の出力が停止される。すなわち、このステップS103においては、CPU40は、半押し信号の出力が停止されたか否かによって、レリーズボタン44の半押し操作が解除されたか否かを判定する。   Step S103 is processing for determining whether or not the half-press operation of the release button has been released. As described above, when the release button 44 is half-pressed, a half-press signal is input to the CPU 40. Further, when the half-press operation of the release button 44 is released, the output of the half-press signal to the CPU 40 is stopped. That is, in this step S103, the CPU 40 determines whether or not the half-press operation of the release button 44 has been released depending on whether or not the output of the half-press signal has been stopped.

例えば半押し信号の出力が継続されている場合には、CPU40は、レリーズボタン44の半押し操作が解除されていないと判定する。この場合、ステップS103の判定処理がNoとなり、ステップS104に進む。一方、半押し信号の出力が停止された場合には、CPU40は、レリーズボタン44の半押し操作が解除されたと判定する。この場合、ステップS103の判定処理がYesとなり、ステップS101に戻る。   For example, when the output of the half-press signal is continued, the CPU 40 determines that the half-press operation of the release button 44 has not been released. In this case, the determination process in step S103 is No, and the process proceeds to step S104. On the other hand, when the output of the half-press signal is stopped, the CPU 40 determines that the half-press operation of the release button 44 has been released. In this case, the determination process in step S103 is Yes, and the process returns to step S101.

ステップS104は、レリーズボタンの全押し操作されたか否かを判定する処理である。レリーズボタン44が全押し操作されると、全押し操作を検知する検知スイッチがオンとなり、その信号(全押し信号)がCPU40に出力される。全押し信号が入力されたことを受けて、CPU40は、ステップS104の判定処理をYesとする。この場合、ステップS105に進む。一方、全押し信号が入力されない場合には、CPU40は、ステップS104の判定処理をNoとする。この場合、ステップS103戻る。   Step S104 is processing for determining whether or not the release button has been fully pressed. When the release button 44 is fully pressed, a detection switch for detecting the full press operation is turned on, and a signal (full press signal) is output to the CPU 40. In response to the input of the full-press signal, the CPU 40 determines Yes in step S104. In this case, the process proceeds to step S105. On the other hand, when the full-press signal is not input, the CPU 40 determines No in step S104. In this case, the process returns to step S103.

ステップS105は、撮像処理(1回目)である。CPU40は、ステップS102で決定されたTv値、Av値及びSv値を、レンズ駆動機構21、TG20、AFE回路19に対して指定する。同時に、CPU40は、クイックリターンミラー16をミラーアップ状態に切り替える。そして、CPU40は、TG20に撮像開始の信号を出力する。これにより、撮像処理が実行される。   Step S105 is an imaging process (first time). The CPU 40 designates the Tv value, Av value, and Sv value determined in step S102 to the lens driving mechanism 21, the TG 20, and the AFE circuit 19. At the same time, the CPU 40 switches the quick return mirror 16 to the mirror-up state. Then, the CPU 40 outputs an imaging start signal to the TG 20. Thereby, an imaging process is performed.

この撮像処理を行うことで、撮像素子18から画像信号が出力される。この画像信号はAFE回路19を介してバッファメモリ25に記憶される。そして、画像処理回路26により読み出される。画像処理回路26は、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。なお、画像処理回路26によって、各種画像処理が施された画像データは、再度バッファメモリ25に記憶される。   By performing this imaging process, an image signal is output from the imaging element 18. This image signal is stored in the buffer memory 25 via the AFE circuit 19. Then, it is read by the image processing circuit 26. The image processing circuit 26 performs image processing such as white balance adjustment, color interpolation, gradation conversion, and color conversion. The image data that has been subjected to various types of image processing by the image processing circuit 26 is stored in the buffer memory 25 again.

ステップS106は、顔検出処理である。CPU40は、バッファメモリ25に記憶された画像処理済みの画像データを読み出し、顔検出処理を実行する。この顔検出処理で顔が検出された場合、CPU40は、検出された顔を含む矩形の領域を顔領域として抽出した後、顔領域の位置データを求める。   Step S106 is face detection processing. The CPU 40 reads the image processed image data stored in the buffer memory 25 and executes face detection processing. When a face is detected by this face detection process, the CPU 40 extracts a rectangular area including the detected face as a face area and then obtains position data of the face area.

ステップS107は、顔が検出されたか否かを判定する処理である。ステップS106の顔検出処理で、顔が検出されている場合には、CPU40は、ステップS107の判定処理をYesとする。この場合、ステップS108に進む。一方、ステップS106の判定処理で、顔が検出されない場合には、CPU40は、ステップS107の判定処理をNoとする。この場合、ステップS109に進む。   Step S107 is processing to determine whether or not a face has been detected. If a face is detected in the face detection process in step S106, the CPU 40 sets the determination process in step S107 to Yes. In this case, the process proceeds to step S108. On the other hand, when the face is not detected in the determination process of step S106, the CPU 40 sets the determination process of step S107 to No. In this case, the process proceeds to step S109.

ステップS108は、顔領域の位置データに基づいて比較対象領域を設定する処理である。例えば1つの顔が検出されている場合、CPU40は、顔領域の大きさと分割領域の大きさとを比較する。例えば顔領域の大きさが1つの分割領域の大きさよりも小さいときには、CPU40は、顔領域が1つの分割領域に収まるか、複数の分割領域に跨るかを判定する。顔領域が1つの分割領域に収まる場合には、CPU40は、顔領域が収まる分割領域を比較対象領域として設定する。一方、顔領域が複数の分割領域に跨る場合には、CPU40は、顔領域が跨る分割領域を比較対象領域として設定する。顔領域の大きさが1つの分割領域の大きさよりも大きい場合には、CPU40は、顔領域が跨る複数の分割領域を比較対象領域として設定する。   Step S108 is a process of setting a comparison target area based on the position data of the face area. For example, when one face is detected, the CPU 40 compares the size of the face area with the size of the divided area. For example, when the size of the face area is smaller than the size of one divided area, the CPU 40 determines whether the face area fits in one divided area or straddles a plurality of divided areas. When the face area fits in one divided area, the CPU 40 sets the divided area in which the face area fits as a comparison target area. On the other hand, when the face region extends over a plurality of divided regions, the CPU 40 sets the divided region over which the face region extends as a comparison target region. When the size of the face area is larger than the size of one divided area, the CPU 40 sets a plurality of divided areas across the face area as comparison target areas.

また、複数の顔が検出される場合には、CPU40は、検出される複数の顔領域のうち、1つの分割領域の大きさよりも大きい顔領域があるか否かを判定する。1つの分割領域の大きさよりも大きい顔領域がある場合には、CPU40は、該顔領域が跨る分割領域を比較対象領域として設定する。   When a plurality of faces are detected, the CPU 40 determines whether or not there is a face area larger than the size of one divided area among the plurality of detected face areas. When there is a face area larger than the size of one divided area, the CPU 40 sets a divided area that the face area spans as a comparison target area.

一方、検出される顔領域のいずれもが、1つの分割領域の大きさよりも小さい場合には、CPU40は、AFエリアに重畳される顔領域が位置する分割領域を比較対象領域として設定する。ここで、AFエリアに重畳される顔領域が位置する分割領域とは、AFエリアに重畳される顔領域が収まる分割領域、又は、AFエリアに重畳される顔領域が跨る分割領域である。   On the other hand, if any of the detected face areas is smaller than the size of one divided area, the CPU 40 sets the divided area where the face area superimposed on the AF area is located as the comparison target area. Here, the divided area where the face area superimposed on the AF area is located is a divided area where the face area superimposed on the AF area fits, or a divided area straddling the face area superimposed on the AF area.

ステップS109は、AFエリアに基づいて比較対象領域を設定する処理である。   Step S109 is processing for setting a comparison target area based on the AF area.

上述したように、ステップS109の処理は、ステップS106にて顔検出されない場合に実行される。CPU40は、AFエリアのうち、焦点が合うAFエリアを特定する。そして、CPU40は、特定したAFエリアが位置する分割領域、或いは、AFエリアが跨る分割領域を比較対象領域として設定する。   As described above, the process of step S109 is executed when no face is detected in step S106. The CPU 40 identifies an AF area in focus among the AF areas. Then, the CPU 40 sets a divided area where the identified AF area is located or a divided area where the AF area is straddled as a comparison target area.

ステップS110は、画像データを保存する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データをバッファメモリ25上に複製(コピー)する。そして、複製した画像データに対して圧縮処理を施す。なお、圧縮処理を施した画像データはバッファメモリ25に記憶される。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データを接続用I/F30を介して、記憶媒体48に記憶する。このステップS110により、1回目の撮影における画像データが記憶媒体48に記憶される。   Step S110 is processing for saving image data. The compression / decompression circuit 27 duplicates (copies) the image processed image data stored in the buffer memory 25 onto the buffer memory 25. Then, compression processing is performed on the copied image data. The compressed image data is stored in the buffer memory 25. The CPU 40 stores the compressed image data stored in the buffer memory 25 in the storage medium 48 via the connection I / F 30. By this step S110, the image data in the first shooting is stored in the storage medium 48.

ステップS111は、トリミング処理である。画像処理回路26は、バッファメモリ25に記憶された画像処理済みの画像データを読み出す。そして、画像処理回路26は、比較対象領域に基づいた、トリミング処理を実行する。なお、トリミング処理が行われることで、対象画像データが生成される。このステップS111により、1回目の撮影における対象画像データが生成され、バッファメモリ25に記憶される。   Step S111 is a trimming process. The image processing circuit 26 reads the image processed image data stored in the buffer memory 25. Then, the image processing circuit 26 performs a trimming process based on the comparison target area. Note that the target image data is generated by performing the trimming process. By this step S111, target image data in the first shooting is generated and stored in the buffer memory 25.

ステップS112は、圧縮処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データを読み出す。そして、この対象画像データに対して圧縮処理を実行する。CPU40は、圧縮処理が施された対象画像データのデータ量を、撮影コマ数と対応付けて、ワークメモリに記憶する。これにより、1回目の撮影における対象画像データを圧縮処理したときのデータ量が取得される。ここで、圧縮処理された対象画像データは、バッファメモリ25に記憶してもよいし、記憶せずに削除してもよい。   Step S112 is a compression process. The compression / decompression circuit 27 reads the target image data stored in the buffer memory 25. Then, compression processing is executed on the target image data. The CPU 40 stores the data amount of the target image data subjected to the compression process in the work memory in association with the number of shot frames. Thereby, the data amount when the target image data in the first shooting is compressed is acquired. Here, the compressed target image data may be stored in the buffer memory 25 or may be deleted without being stored.

ステップS113は、レリーズボタンの操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が操作されると、レリーズボタン44の操作に基づく信号(半押し信号、全押し信号)がCPU40に入力される。このステップS113においては、レリーズボタン44の操作に基づく信号の出力が停止されたか否かによって、レリーズボタン44の操作が解除されたか否かを判定する。例えば、レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS113の判定はNoとなり、ステップS114に進む。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS113の判定はYesとなる。この場合には、連続撮影に係る処理が終了する。   Step S113 is processing for determining whether or not the operation of the release button has been released. As described above, when the release button 44 is operated, a signal (half-press signal, full-press signal) based on the operation of the release button 44 is input to the CPU 40. In this step S113, it is determined whether or not the operation of the release button 44 is released depending on whether or not the output of the signal based on the operation of the release button 44 is stopped. For example, if the output of the signal based on the operation of the release button 44 is continued, the CPU 40 determines that the operation of the release button 44 has not been released. In this case, the determination in step S113 is No, and the process proceeds to step S114. On the other hand, when the output of the signal based on the operation of the release button 44 is stopped, the CPU 40 determines that the operation of the release button 44 has been released. In this case, the determination in step S113 is Yes. In this case, the process related to continuous shooting ends.

ステップS114は、撮像処理(2回目)である。この撮像処理においては、撮像光学系を構成するフォーカシングレンズの位置は、1回目の撮像処理と同位置、つまり、フォーカシングレンズの位置を固定したまま、2回目の撮像処理を実行する。2回目の撮像処理が実行されることで、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。そして、画像処理回路26により読み出される。画像処理回路26は、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。なお、画像処理回路26によって、各種画像処理が施された画像データは、再度バッファメモリ25に記憶される。   Step S114 is an imaging process (second time). In this imaging process, the position of the focusing lens constituting the imaging optical system is the same as that of the first imaging process, that is, the second imaging process is executed while the position of the focusing lens is fixed. By executing the second imaging process, the image signal output from the imaging device 18 is stored in the buffer memory 25 via the AFE circuit 19. Then, it is read by the image processing circuit 26. The image processing circuit 26 performs image processing such as white balance adjustment, color interpolation, gradation conversion, and color conversion. The image data that has been subjected to various types of image processing by the image processing circuit 26 is stored in the buffer memory 25 again.

ステップS115は、画像データを保存する処理である。このステップS115の処理は、ステップS110と同一の処理である。このステップS115の処理により、2回目の撮影における画像データが、記憶媒体48に記憶される。   Step S115 is processing to store image data. The process of step S115 is the same process as step S110. The image data in the second shooting is stored in the storage medium 48 by the processing in step S115.

ステップS116は、トリミング処理である。このステップS116の処理は、ステップS111と同一の処理である。このステップS116の処理により2回目の撮影における対象画像データが生成される。   Step S116 is a trimming process. The process of step S116 is the same process as step S111. The target image data in the second shooting is generated by the processing in step S116.

ステップS117は、圧縮処理である。このステップS117の処理は、ステップS112と同一の処理である。このステップS117の処理により、2回目の撮影における対象画像データを圧縮処理したときのデータ量が取得される。   Step S117 is a compression process. The process of step S117 is the same process as step S112. By the processing in step S117, the data amount when the target image data in the second shooting is compressed is acquired.

ステップS118は、データ量の変化量を算出する処理である。CPU40は、ステップS117にて記憶された2回目の撮像処理に基づく対象画像データのデータ量Dから、ステップS112にて記憶された1回目の撮像処理に基づく対象画像データのデータ量Dを減算することで、比較対象領域におけるデータ量の変化量ΔD12を算出する。ここで、1回目の撮像処理は、被写体に焦点を合わせていることから、1回目の撮像処理に基づく対象画像データが基準の対象画像データとなる。 Step S118 is processing for calculating the amount of change in the data amount. CPU40 from the data amount D 2 of the target image data based on the stored second imaging processing at step S117, the data amount D 1 of the target image data based on the first imaging processing stored at step S112 By subtracting, the change amount ΔD 12 of the data amount in the comparison target region is calculated. Here, since the first imaging process focuses on the subject, the target image data based on the first imaging process becomes the reference target image data.

ステップS119は、データ量の変化量が所定範囲外となるか否かを判定する処理である。CPU40は、ステップS118により求めたデータ量の変化量ΔD12が所定範囲外となる場合、ステップS119の判定処理をYesとし、ステップS120に進む。 Step S119 is processing for determining whether or not the amount of change in the data amount is outside the predetermined range. When the change amount ΔD 12 of the data amount obtained in step S118 is out of the predetermined range, the CPU 40 sets the determination process in step S119 to Yes, and proceeds to step S120.

一方、ステップS118により求めたデータ量の変化量ΔD12が所定範囲内となる場合、ステップS119の判定処理をNoとする。この場合、ステップS123に進む。ここで、ステップS119に用いられる所定範囲は、予め実験、統計などにより求められる範囲であることが望ましい。 On the other hand, if the data amount of change in the amount [Delta] D 12 determined in step S118 it is within a predetermined range, and No the determination process in step S119. In this case, the process proceeds to step S123. Here, the predetermined range used in step S119 is preferably a range obtained in advance by experiments, statistics, and the like.

つまり、ステップS119の判定処理がNoとなる場合には、データ量の変化量ΔD12が例えば誤差の範囲に含まれると推測できる。このため、フォーカシングレンズは、2回目の撮像処理におけるフォーカシングレンズの位置に固定される。 That is, when the determination processing is No, in step S119, can be presumed that the change amount [Delta] D 12 of data amount is included for example in the range of error. For this reason, the focusing lens is fixed at the position of the focusing lens in the second imaging process.

S120は、データ量が低下したか否かを判定する処理である。ステップS118において、データ量の変化量ΔD12が算出されている。このデータ量ΔD12が負の値となる場合には、CPU40は、データ量が低下したと判定する。この場合、ステップS120の判定処理がYesとなり、ステップS121に進む。 S120 is processing for determining whether or not the data amount has decreased. In step S118, the change amount [Delta] D 12 of data quantity is calculated. If this amount of data [Delta] D 12 is a negative value, CPU 40 determines that the data amount is reduced. In this case, the determination process in step S120 is Yes, and the process proceeds to step S121.

一方、データ量ΔD12が正の値となる場合には、CPU40は、データ量が増加したと判定する。この場合、ステップS120の判定処理がNoとなり、ステップS123に進む。上述したように、画像データのデータ量は、ピントが合わない画像データに比べて、焦点が合う画像データのデータ量は大きくなる。つまり、データ量ΔD12が正の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データよりも主要被写体に焦点が合う画像データであると推定できる。この場合、フォーカシングレンズは、2回目の撮像処理におけるフォーカシングレンズの位置に固定される。 On the other hand, when the data amount [Delta] D 12 becomes a positive value, CPU 40 determines that the data amount is increased. In this case, the determination process in step S120 is No, and the process proceeds to step S123. As described above, the amount of image data that is in focus is larger than the amount of image data that is out of focus. That is, when the data amount ΔD 12 is a positive value, the image data obtained by the second imaging process is focused on the main subject more than the image data obtained by the first imaging process. It can be estimated that. In this case, the focusing lens is fixed at the position of the focusing lens in the second imaging process.

ステップS121は、フォーカシングレンズの移動量を算出する処理である。CPU40は、ステップS119により求めたデータ量の変化量ΔD12を用いて、フォーカシングレンズの移動量を算出する。このフォーカシングレンズの算出においては、例えば焦点距離など、撮像光学系15に固有の特性が考慮される。 Step S121 is processing for calculating the amount of movement of the focusing lens. CPU40 uses the data amount of the variation [Delta] D 12 obtained in step S119, calculates the movement amount of the focusing lens. In the calculation of the focusing lens, characteristics unique to the imaging optical system 15 such as a focal length are taken into consideration.

ステップS122は、フォーカシングレンズを移動させる処理である。CPU40は、ステップS121にて求めた移動量に基づいて、レンズ駆動機構21を介してフォーカシングレンズを移動させる。このとき、フォーカシングレンズの移動方向は、予め至近端方向又は無限端方向のいずれかに設定される。CPU40は、設定された移動方向にフォーカシングレンズを移動させる。   Step S122 is processing to move the focusing lens. The CPU 40 moves the focusing lens via the lens driving mechanism 21 based on the movement amount obtained in step S121. At this time, the moving direction of the focusing lens is set in advance in either the closest end direction or the infinite end direction. The CPU 40 moves the focusing lens in the set moving direction.

ステップS123は、レリーズボタンの操作が解除されたか否かを判定する処理である。なお、このステップS123の処理は、ステップS113と同一の処理である。例えば、レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS123の判定はNoとなり、ステップS124に進む。つまり、2回目の撮像処理が終了し、3回目以降の撮像処理が実行される。   Step S123 is processing for determining whether or not the operation of the release button has been released. Note that the process of step S123 is the same process as step S113. For example, if the output of the signal based on the operation of the release button 44 is continued, the CPU 40 determines that the operation of the release button 44 has not been released. In this case, the determination in step S123 is No, and the process proceeds to step S124. That is, the second imaging process is completed, and the third and subsequent imaging processes are executed.

一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS123の判定はYesとなる。この場合には、連続撮影に係る処理が終了する。   On the other hand, when the output of the signal based on the operation of the release button 44 is stopped, the CPU 40 determines that the operation of the release button 44 has been released. In this case, the determination in step S123 is Yes. In this case, the process related to continuous shooting ends.

ステップS124は、撮像処理(3回目)である。この撮像処理により、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。そして、画像処理回路26により読み出される。画像処理回路26は、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。なお、画像処理回路26によって、各種画像処理が施された画像データは、再度バッファメモリ25に記憶される。   Step S124 is an imaging process (third time). By this imaging process, the image signal output from the image sensor 18 is stored in the buffer memory 25 via the AFE circuit 19. Then, it is read by the image processing circuit 26. The image processing circuit 26 performs image processing such as white balance adjustment, color interpolation, gradation conversion, and color conversion. The image data that has been subjected to various types of image processing by the image processing circuit 26 is stored in the buffer memory 25 again.

ステップS125は、画像データを保存する処理である。このステップS125の処理は、S115と同一の処理である。これにより、3回目の撮像処理で得られた画像データが、記憶媒体48に記憶される。   Step S125 is processing to store image data. The process of step S125 is the same process as S115. As a result, the image data obtained by the third imaging process is stored in the storage medium 48.

ステップS126は、トリミング処理である。このステップS126の処理は、ステップS116と同一の処理である。このステップS126の処理により、3回目の撮像処理における対象画像データが生成される。   Step S126 is a trimming process. The process of step S126 is the same process as step S116. By the processing in step S126, target image data in the third imaging process is generated.

ステップS127は、圧縮処理である。このステップS127の処理は、ステップS112と同一の処理である。このステップS127の処理により、3回目の撮影における対象画像データを圧縮処理したときのデータ量が取得される。   Step S127 is a compression process. The process of step S127 is the same process as step S112. By the processing in step S127, the data amount when the target image data in the third shooting is compressed is acquired.

ステップS128は、データ量の変化量を算出する処理である。CPU40は、圧縮処理が施されたときの対象画像データのデータ量を用いて、データ量の変化量を算出する。CPU40は、3回目の撮像処理により得られた圧縮処理済みの対象画像データのデータ量D3から、1回目の撮像処理により得られた圧縮処理済みの対象画像データのデータ量Dを減算し、変化量ΔD13を求める。また、CPU40は、3回目の撮像処理により得られた圧縮処理済みの対象画像データのデータ量Dから2回目の撮像処理により得られた圧縮処理済みの対象画像データのデータ量Dを減算し、変化量ΔD23を求める。 Step S128 is processing for calculating the amount of change in the data amount. The CPU 40 calculates the amount of change in the data amount using the data amount of the target image data when the compression process is performed. CPU40 from the data amount D3 of the compression processed target image data obtained by the imaging processing of the third, subtracting the data amount D 1 of the compression processed target image data obtained by the first imaging process, A change amount ΔD 13 is obtained. Further, CPU 40 is third subtracting the data amount D 2 compression processed target image data obtained from the data amount D 3 compression processed target image data by the second imaging processing obtained by the imaging processing of the Then, the change amount ΔD 23 is obtained.

ステップS129は、データ量の変化量が所定範囲を超過しているか否かを判定する所定である。CPU40は、ステップS128により求めたデータ量の変化量ΔD13が所定範囲外となる場合、ステップS119の判定処理をYesとし、ステップS130に進む。 Step S129 is a predetermined step for determining whether or not the amount of change in the data amount exceeds a predetermined range. When the change amount ΔD 13 of the data amount obtained in step S128 is out of the predetermined range, the CPU 40 determines Yes in step S119 and proceeds to step S130.

一方、ステップS128により求めたデータ量の変化量ΔD13が所定範囲内となる場合、ステップS129の判定処理をNoとする。この場合、ステップS135に進む。つまり、ステップS129の判定処理がNoとなる場合には、データ量の変化量ΔD13が例えば誤差の範囲に含まれると推測できる。このため、フォーカシングレンズは、3回目の撮像処理におけるフォーカシングレンズの位置に固定される。 On the other hand, if the change amount ΔD 13 of the data amount obtained in step S128 is within the predetermined range, the determination process in step S129 is No. In this case, the process proceeds to step S135. That is, when the determination processing in step S129 is No, can be assumed that the change amount [Delta] D 13 of data amount is included for example in the range of error. For this reason, the focusing lens is fixed at the position of the focusing lens in the third imaging process.

ステップS130は、データ量の変化量が低下したか否かを判定する処理である。CPU40は、ステップS128により求めたデータ量の変化量ΔD13、変化量ΔD12を用いて、データ量の変化量ΔD13がデータ量の変化量ΔD12に対して小さくなるか否かを判断する。例えば、データ量の変化量ΔD13がデータ量の変化量ΔD12以下となる場合には、CPU40は、ステップS130の判定をYesとする。この場合、ステップS131に進む。一方、データ量の変化量ΔD13がデータ量の変化量ΔD23を超過する場合には、CPU40は、ステップS130の判定をNoとする。この場合、ステップS133に進む。 Step S130 is processing to determine whether or not the amount of change in data amount has decreased. The CPU 40 determines whether or not the data amount change amount ΔD 13 is smaller than the data amount change amount ΔD 12 using the data amount change amount ΔD 13 and the change amount ΔD 12 obtained in step S128. . For example, when the change amount ΔD 13 of the data amount is equal to or less than the change amount ΔD 12 of the data amount, the CPU 40 determines Yes in step S130. In this case, the process proceeds to step S131. On the other hand, when the data amount change amount ΔD 13 exceeds the data amount change amount ΔD 23 , the CPU 40 determines No in step S 130. In this case, the process proceeds to step S133.

上述したようにステップS130の判定結果がYesとなる場合、ステップS131に進む。   As described above, when the determination result of step S130 is Yes, the process proceeds to step S131.

ステップS131は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データ量の変化量ΔD23を用いてフォーカシングレンズの移動量を算出する。 Step S131 is processing for calculating the amount of movement of the focusing lens. The CPU 40 calculates the moving amount of the focusing lens using the data amount change amount ΔD 23 .

ステップS132は、フォーカシングレンズを同一方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、ステップS122におけるフォーカシングレンズの移動方向と同一方向にフォーカシングレンズを移動させる。ここで、フォーカシングレンズの移動量は、ステップS131にて求めた移動量である。この処理が実行されると、ステップS135に進む。   Step S132 is a process of moving the focusing lens in the same direction. The CPU 40 moves the focusing lens in the same direction as the moving direction of the focusing lens in step S122 via the lens driving mechanism 21. Here, the moving amount of the focusing lens is the moving amount obtained in step S131. When this process is executed, the process proceeds to step S135.

一方、ステップS130の判定結果がNoなる場合、ステップS133に進む。   On the other hand, when the determination result of step S130 is No, the process proceeds to step S133.

ステップS133は、フォーカシングレンズの移動量を算出する処理である。このステップS133の処理は、ステップS131と同一の処理である。   Step S133 is processing for calculating the amount of movement of the focusing lens. The process of step S133 is the same process as step S131.

ステップS134は、フォーカシングレンズを逆方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、ステップS122におけるフォーカシングレンズの移動方向とは逆方向にフォーカシングレンズを移動させる。ここで、フォーカシングレンズの移動量は、ステップS131にて求めた移動量である。この処理が実行されると、ステップS135に進む。   Step S134 is a process of moving the focusing lens in the reverse direction. The CPU 40 moves the focusing lens through the lens driving mechanism 21 in the direction opposite to the moving direction of the focusing lens in step S122. Here, the moving amount of the focusing lens is the moving amount obtained in step S131. When this process is executed, the process proceeds to step S135.

ステップS135は、レリーズボタンの操作が解除されたか否かを判定する処理である。このステップS135の処理は、ステップS113、ステップS123と同一の処理である。つまり、CPU40がレリーズボタン44の操作が解除されたと判定した場合には、ステップS135の判定処理がYesとなる。この場合、連続撮影に係る一連の処理が終了する。連続撮影に係る一連の処理の終了に基づいて、クイックリターンミラー16がミラーアップ状態から、ミラーダウン状態に切り替えられる。
一方、CPU40がレリーズボタン44の操作が解除されていないと判定した場合には、ステップS135の判定処理がNoとなる。この場合、ステップS124の処理に戻り、4回目の撮像処理が実行される。そして、ステップS124〜ステップS134の処理が実行される。以下、ステップS135の処理がYesとなるまで、ステップS124からステップS134の処理が繰り返し実行される。つまり、4回目以降の撮影が実行される。
Step S135 is processing to determine whether or not the operation of the release button has been released. The process of step S135 is the same process as steps S113 and S123. That is, if the CPU 40 determines that the operation of the release button 44 has been released, the determination process in step S135 is Yes. In this case, a series of processes related to continuous shooting ends. The quick return mirror 16 is switched from the mirror-up state to the mirror-down state based on the end of a series of processes related to continuous shooting.
On the other hand, if the CPU 40 determines that the operation of the release button 44 has not been released, the determination process in step S135 is No. In this case, returning to the process of step S124, the fourth imaging process is executed. And the process of step S124-step S134 is performed. Thereafter, the processing from step S124 to step S134 is repeatedly executed until the processing of step S135 becomes Yes. That is, the fourth and subsequent shootings are executed.

上述したように、本実施形態のフォーカス制御は、比較対象領域に該当する対象画像データに対する圧縮処理を行うことで得られる圧縮処理済みの対象画像データのデータ量の変化に基づいて実行される。ここで、比較対象領域は、撮影時の主要被写体、或いは、焦点が合う領域を基準とした領域であることから、連続撮影を開始したときに焦点を合わせた領域に対して適切なフォーカス制御を行うことができる。つまり、画像データ全体を圧縮処理したときのデータ量の変化量を比較する場合には、主要被写体に対して焦点が合う画像データではなく、他の被写体に対して焦点が合う画像データも得られる恐れがあるが、本発明の構成とすることで、主要被写体に対して焦点が合う画像データのみを取得することが可能となる。   As described above, the focus control of the present embodiment is executed based on a change in the data amount of the target image data that has been subjected to compression processing that is obtained by performing compression processing on the target image data corresponding to the comparison target region. Here, since the comparison target area is an area based on the main subject at the time of shooting or the focused area, appropriate focus control is performed on the focused area when continuous shooting is started. It can be carried out. That is, when comparing the amount of change in the amount of data when the entire image data is compressed, not the image data focused on the main subject but also the image data focused on other subjects can be obtained. There is a fear, but with the configuration of the present invention, it is possible to acquire only image data that is focused on the main subject.

本実施形態では、連続撮影が開始されたときの1回目の撮像処理により得られた画像データに対して顔検出処理や、比較対象領域を設定する処理を行っているが、これに限定する必要はなく、連続撮影が実行される前に撮像素子から出力される画像(スルー画像)を用いて顔検出処理や比較対象領域を設定する処理を予め行うことも可能である。   In the present embodiment, face detection processing and processing for setting a comparison target region are performed on the image data obtained by the first imaging processing when continuous shooting is started, but it is necessary to limit to this. Rather, it is also possible to perform in advance a face detection process and a process for setting a comparison target region using an image (through image) output from the image sensor before continuous shooting is performed.

本実施形態では、顔検出処理により複数の顔を検出した場合、最も大きい顔やAFエリアに重畳される顔が含まれる分割領域を比較対象領域に設定しているが、これに限定される必要はなく、ユーザによる操作部45を用いた入力操作に基づいて、主要被写体を予め指定しておき、指定された顔が含まれる分割領域を比較対象領域に設定することも可能である。なお、顔検出処理により顔が検出されない場合、ユーザが予め焦点検出に用いるAFエリアを指定していれば、ユーザが指定したAFエリアが含まれる分割領域を比較対象領域に設定すればよい。   In this embodiment, when a plurality of faces are detected by the face detection process, the divided area including the largest face or the face to be superimposed on the AF area is set as the comparison target area. However, the present invention is not limited to this. Instead, it is also possible to designate a main subject in advance based on an input operation using the operation unit 45 by the user, and set a divided region including the designated face as a comparison target region. If no face is detected by the face detection process, if the user has previously designated an AF area to be used for focus detection, a divided area including the AF area designated by the user may be set as a comparison target area.

本実施形態では、撮像処理の直後に、撮像処理により得られる画像データ保存する処理を行っている(ステップS110、ステップS115、ステップS125)が、これに限定する必要はなく、レリーズボタン44の操作が解除されたことを受けて、連続撮影における各撮像処理により得られた画像データを保存する処理を行ってもよい。   In the present embodiment, immediately after the imaging process, a process for saving image data obtained by the imaging process is performed (step S110, step S115, and step S125). However, the present invention is not limited to this, and the release button 44 is operated. In response to the release of, the image data obtained by each imaging process in the continuous shooting may be stored.

本実施形態では、各撮像処理により得られた画像データを用いているが、これに限定される必要はなく、デジタルカメラにおいては、得られた画像データを縮小した画像データを用いて顔検出処理を行っている場合もあるので、本実施形態のフォーカス制御を縮小した画像データを用いて行うことも可能である。   In this embodiment, image data obtained by each imaging process is used. However, the present invention is not limited to this, and in a digital camera, face detection processing is performed using image data obtained by reducing the obtained image data. Therefore, the focus control of this embodiment can be performed using reduced image data.

本実施形態では、予め画像を複数の分割領域に分割し、画像に含まれる被写体の顔領域、又は焦点の合うAFエリアが含まれる分割領域を比較対象領域としているが、予め画像を複数の領域に分割する必要はなく、例えば顔検出処理により顔が検出された場合には、検出された顔の領域が含まれる矩形の領域を比較対象領域とし、顔検出処理により顔が検出されない場合には、焦点の合うAFエリアが含まれる所定の大きさの領域を比較対象領域とすることができる。   In this embodiment, the image is divided into a plurality of divided areas in advance, and the face area of the subject included in the image or the divided area including the focused AF area is used as the comparison target area. For example, when a face is detected by the face detection process, a rectangular area including the detected face area is set as a comparison target area, and a face is not detected by the face detection process. A region having a predetermined size including the focused AF area can be set as a comparison target region.

本実施形態では、人物の顔を例に挙げているが、これに限定される必要はなく、人物の他に、動物、自動車、船などの輸送機器や、建物などを被写体としてもよい。   In this embodiment, the face of a person is taken as an example. However, the present invention is not limited to this. In addition to a person, a transport device such as an animal, a car, or a ship, a building, or the like may be used as a subject.

本発明では、デジタルカメラにおけるフォーカス制御を、位相差検出方式のフォーカス制御としているが、これに限定される必要はなく、コントラスト検出方式のフォーカス制御としてもよい。また、連続撮影における1回目の撮像処理の際に、ユーザによる操作に基づくフォーカス制御を行うことも可能である。   In the present invention, the focus control in the digital camera is the phase difference detection type focus control. However, the present invention is not limited to this and may be the contrast detection type focus control. In addition, it is possible to perform focus control based on an operation by a user during the first imaging process in continuous shooting.

本発明のデジタルカメラとして、一眼フレックスカメラを説明しているが、コンパクトカメラ、カメラ機能を備えた携帯電話機、コンピュータに搭載、又は接続されたカメラなどにも、本発明を用いることができる。   Although a single-lens flex camera has been described as the digital camera of the present invention, the present invention can also be used for a compact camera, a mobile phone having a camera function, a camera mounted on or connected to a computer, and the like.

10…デジタルカメラ、18…撮像素子、27…圧縮/伸長回路、36…画像処理回路、40…CPU、41…不揮発性メモリ、42…ワークメモリ、47…トリミング部、51…顔検出部、52…領域設定部、53…データ比較部、54…焦点制御部   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 18 ... Image pick-up element, 27 ... Compression / decompression circuit, 36 ... Image processing circuit, 40 ... CPU, 41 ... Non-volatile memory, 42 ... Work memory, 47 ... Trimming part, 51 ... Face detection part, 52 ... Area setting unit, 53 ... Data comparison unit, 54 ... Focus control unit

Claims (10)

被写体を検出する被写体検出部と、
前記被写体検出部による被写体検出の結果に基づいて、撮像素子から連続して出力される画像のそれぞれから切り出す領域を対象領域として設定する設定部と、
前記撮像素子から連続して出力される画像のそれぞれから切り出した前記対象領域の画像に対して圧縮処理を行う圧縮部と、
前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像素子上へ被写体像を形成する撮像光学系のフォーカスポジションを制御する制御部と、
を備えたことを特徴とする焦点調節装置。
A subject detection unit for detecting a subject;
A setting unit that sets a region to be cut out from each of the images continuously output from the image sensor based on the result of subject detection by the subject detection unit;
A compression unit that performs compression processing on the image of the target area cut out from each of the images continuously output from the imaging device;
A control unit that controls a focus position of an imaging optical system that forms a subject image on the imaging device based on a change in the data amount of the compressed image of the target area;
A focus adjustment device comprising:
請求項1に記載の焦点調節装置において、
前記設定部は、前記被写体検出部により複数の被写体が検出されたときに、前記複数の被写体のうち、最も大きい被写体の領域を前記対象領域として設定することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
The focus adjustment apparatus, wherein the setting unit sets a region of the largest subject among the plurality of subjects as the target region when the subject detection unit detects a plurality of subjects.
請求項1に記載の焦点調節装置において、
画像取得時の撮像範囲に配置される複数の焦点検出エリアを用いて、前記撮像光学系の焦点状態を検出する焦点検出部を備え、
前記設定部は、前記焦点検出部により複数の被写体が検出されたときに、前記複数の被写体のうち、前記焦点検出エリアに重畳される被写体が含まれる領域を前記対象領域として設定することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
A focus detection unit that detects a focus state of the imaging optical system using a plurality of focus detection areas arranged in an imaging range at the time of image acquisition,
The setting unit sets, as the target region, an area including a subject to be superimposed on the focus detection area among the plurality of subjects when the focus detection unit detects a plurality of subjects. Focus adjustment device.
請求項1に記載の焦点調節装置において、
画像取得時の撮像範囲に配置される複数の焦点検出エリアを用いて、前記撮像光学系の焦点状態を検出する焦点検出部を備え、
前記設定部は、前記被写体検出部により被写体が検出されないときに、前記複数の焦点検出エリアのうち、焦点が合う焦点検出エリアが含まれる領域を前記対象領域として設定することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
A focus detection unit that detects a focus state of the imaging optical system using a plurality of focus detection areas arranged in an imaging range at the time of image acquisition,
The setting unit is configured to set, as the target region, a region including a focus detection area in focus among the plurality of focus detection areas when no subject is detected by the subject detection unit. apparatus.
請求項1に記載の焦点調節装置において、
前記設定部は、前記撮像素子から連続して出力される画像を複数の領域に分割し、
前記設定部は、前記被写体検出の結果に基づいて、前記複数の領域のいずれかの領域を前記対象領域として設定することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
The setting unit divides an image continuously output from the image sensor into a plurality of regions,
The focus adjustment apparatus, wherein the setting unit sets any one of the plurality of regions as the target region based on a result of the subject detection.
請求項1に記載の焦点調節装置において、
前記被写体検出部は、画像に含まれる人物の顔を被写体として検出することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
The focus detection apparatus, wherein the subject detection unit detects a human face included in an image as a subject.
請求項1に記載の焦点調節装置において、
前記制御部は、ユーザからの指示に従って前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
The focus adjustment apparatus, wherein the control unit performs initial adjustment of the focus position in accordance with an instruction from a user.
請求項7に記載の焦点検出装置において、
前記制御部は、位相差検出方式により前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。
The focus detection apparatus according to claim 7,
The focus adjustment apparatus, wherein the control unit performs initial adjustment of the focus position by a phase difference detection method.
請求項1に記載の焦点検出装置において、
前記制御部は、前記データ量の変化量が基準範囲を超過したときに、前記フォーカスボジションを変位させることを特徴とする焦点調節装置。
The focus detection apparatus according to claim 1,
The focus adjustment apparatus, wherein the control unit displaces the focus position when a change amount of the data amount exceeds a reference range.
撮像光学系が形成する被写体像を連続して撮像し、画像を順次出力する撮像素子と、
前記撮像素子から順次出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、請求項1から請求項9のいずれか1項に記載の焦点調節装置と、
を備えたことを特徴とする撮像装置。
An image sensor that continuously captures the subject image formed by the imaging optical system and sequentially outputs the images;
The focus adjustment apparatus according to any one of claims 1 to 9, wherein a focus position of the imaging optical system is controlled based on images sequentially output from the imaging element.
An imaging apparatus comprising:
JP2011285122A 2011-12-27 2011-12-27 Focus adjustment device and imaging apparatus Pending JP2013134403A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011285122A JP2013134403A (en) 2011-12-27 2011-12-27 Focus adjustment device and imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011285122A JP2013134403A (en) 2011-12-27 2011-12-27 Focus adjustment device and imaging apparatus

Publications (1)

Publication Number Publication Date
JP2013134403A true JP2013134403A (en) 2013-07-08

Family

ID=48911116

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011285122A Pending JP2013134403A (en) 2011-12-27 2011-12-27 Focus adjustment device and imaging apparatus

Country Status (1)

Country Link
JP (1) JP2013134403A (en)

Similar Documents

Publication Publication Date Title
JP2015004922A (en) Focus adjustment device and imaging device
US8508652B2 (en) Autofocus method
US10264173B2 (en) Image capturing apparatus and control method thereof, and storage medium
TWI360349B (en) Digital imaging apparatus with camera shake compen
US9635280B2 (en) Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
JP6749791B2 (en) Imaging device and automatic focusing method
JP2007139893A (en) Focusing detection device
JP5635211B2 (en) Imaging device
JP2007086596A (en) Camera
JP2008160208A (en) Optical apparatus
JP5393300B2 (en) Imaging device
US8743209B2 (en) Image pickup apparatus and method for controlling the same
JP2003307669A (en) Camera
JP2011013645A5 (en)
JP2009175442A (en) Imaging apparatus
JP5359150B2 (en) Imaging device
JP5396940B2 (en) Imaging apparatus and image processing apparatus
JP2019144502A (en) Focus detection device and focus detection method
JP2008287050A (en) Automatic focusing device and imaging apparatus
WO2019146164A1 (en) Imaging device, imaging method, and program
JP2010014883A (en) Camera
US10484592B2 (en) Focus adjustment device, focus adjustment method, and non-transitory storage medium for storing focus adjustment programs for performing focus adjustment in response to image signals of an image pickup device including focus detection pixels
JP2013134403A (en) Focus adjustment device and imaging apparatus
JP5315019B2 (en) Autofocus device, autofocus method, and imaging device
JP5144469B2 (en) Imaging apparatus and control method thereof