JP2015004922A - Focus adjustment device and imaging device - Google Patents

Focus adjustment device and imaging device Download PDF

Info

Publication number
JP2015004922A
JP2015004922A JP2013131566A JP2013131566A JP2015004922A JP 2015004922 A JP2015004922 A JP 2015004922A JP 2013131566 A JP2013131566 A JP 2013131566A JP 2013131566 A JP2013131566 A JP 2013131566A JP 2015004922 A JP2015004922 A JP 2015004922A
Authority
JP
Japan
Prior art keywords
area
image
image data
focus
subject
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013131566A
Other languages
Japanese (ja)
Inventor
貴大 平山
Takahiro Hirayama
貴大 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2013131566A priority Critical patent/JP2015004922A/en
Publication of JP2015004922A publication Critical patent/JP2015004922A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To surely focus on a subject even when a main subject is a subject other than a person.SOLUTION: A focus adjustment device according to the present invention comprises: an imaging optical system that takes in subject light; a generation part that generates a first image having a subject included; a setting part that performs a template matching second images consecutively acquired on the basis of the subject light to be taken in by the imaging optical system, using the first image and thereby sets an area to be cut out from the second images, respectively as a target area; a compression part that performs a compression process to each of images of the target areas cut out from the second images; and a control part that controls a focus position in the imaging optical system on the basis of a change in a volume of data on the image of the target area subjected to the compression process.

Description

本発明は、焦点調節装置及び撮像装置に関する。   The present invention relates to a focus adjustment device and an imaging device.

位相差検出方式やコントラスト検出方式のオートフォーカス(AF)制御を備えたデジタルカメラを用いて高速な連続撮影を行う場合、各撮影間において上記のAF制御を実行することが困難であることから、フォーカスを固定にすることが一般的である(特許文献1参照)。そこで、高速な連続撮影における個々の撮影で得られる画像データ自体のデータ量の変化に基づいて、高速な連続撮影におけるフォーカス制御を行うことが考案されている。   When performing high-speed continuous shooting using a digital camera equipped with phase difference detection method or contrast detection method autofocus (AF) control, it is difficult to perform the above AF control between each shooting. In general, the focus is fixed (see Patent Document 1). Therefore, it has been devised to perform focus control in high-speed continuous shooting based on a change in the data amount of image data itself obtained by individual shooting in high-speed continuous shooting.

特開2006−201282号公報JP 2006-201282 A

例えば画像データのデータ量の変化を、高速な連続撮影におけるフォーカス制御に用いる場合、得られる画像データのデータ量が一定であれば、主要被写体に焦点が合っていなくても、主要被写体に焦点が合っていると判定されてしまう。そこで、撮影時に使用される焦点検出位置や主要被写体を含む所定範囲を切り出した画像データのデータ量の変化を用いることが考案されている。しかしながら、人物以外の物体を主要被写体とする場合、主要被写体となる物体が、必ずしも主要被写体と認識されるとは限らないことから、主要被写体が人物以外の物体となる場合には、その物体に対して確実に焦点が合わせることが難しいという問題がある。   For example, when the change in the amount of image data is used for focus control in high-speed continuous shooting, if the amount of image data obtained is constant, the main subject is in focus even if the main subject is not in focus. It is determined that it is correct. Therefore, it has been devised to use a change in the amount of image data obtained by cutting out a predetermined range including a focus detection position and a main subject used at the time of photographing. However, when an object other than a person is used as the main subject, the object that is the main subject is not necessarily recognized as the main subject. Therefore, when the main subject is an object other than a person, the object However, there is a problem that it is difficult to focus on.

本発明は、主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせることができるようにした焦点調節装置及び撮像装置を提供することを目的とする。   It is an object of the present invention to provide a focus adjustment device and an imaging device that can reliably focus on an object other than a person, even if the main subject is an object other than a person.

本発明の焦点調節装置は、被写体光を取り込む撮像光学系と、被写体が含まれる第1の画像を生成する生成部と、前記撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、前記第2の画像から切り出した前記対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像光学系におけるフォーカスポジションを制御する制御部と、を備えたことを特徴とする。   The focus adjustment apparatus of the present invention is continuously acquired based on an imaging optical system that captures subject light, a generation unit that generates a first image including the subject, and subject light captured by the imaging optical system. By performing template matching using the first image on the second image, a setting unit that sets a region to be cut out from each of the second images as a target region, and cut out from the second image A compression unit that performs compression processing on each of the images in the target area; and a control unit that controls a focus position in the imaging optical system based on a change in the data amount of the compressed image of the target area. , Provided.

また、本発明の撮像装置は、取り込まれる被写体光に基づく画像を連続して出力することが可能な撮像素子と、前記撮像素子から出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、上記に記載の焦点調節装置と、を備えたことを特徴とする。   In addition, the imaging apparatus of the present invention is capable of continuously outputting an image based on captured subject light, and the focus position of the imaging optical system based on the image output from the imaging element. The focus adjusting device described above is controlled.

本発明によれば、主要被写体が人物以外の物体となる場合であっても、その物体に対して確実に焦点が合わせることができる。   According to the present invention, even when the main subject is an object other than a person, the object can be reliably focused.

本発明のデジタルカメラの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of the digital camera of this invention. (a)顔領域の大きさが1つの分割領域の大きさよりも小さく且つ顔領域が1つの分割領域内に収まる場合に設定される比較対象領域を示す図、(b)顔領域の大きさが1つの分割領域の大きさよりも小さく且つ顔領域が複数の分割領域に跨る場合に設定される比較対象領域を示す図、(c)顔領域の大きさが1つの分割領域の大きさよりも大きい場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when the size of a face area is smaller than the magnitude | size of one division area, and a face area is settled in one division area, (b) The magnitude | size of a face area The figure which shows the comparison object area | region set when it is smaller than the size of one division area, and a face area straddles several division areas, (c) When the size of a face area is larger than the magnitude | size of one division area It is a figure which shows the comparison object area | region set to. (a)複数の顔領域のうち、最も大きい顔領域を選択した場合に設定される比較対象領域を示す図、(b)複数の顔領域のうち、AFエリアに重畳される顔領域を選択した場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when the largest face area is selected among several face areas, (b) The face area superimposed on AF area was selected among several face areas It is a figure which shows the comparison object area | region set in the case. 走行するレース車両を撮像した画像と、コントラスト情報から特定される主要被写体の領域を示す図である。It is a figure which shows the area | region of the main subject specified from the image which imaged the race vehicle to drive, and contrast information. (a)焦点が合うAFエリアが1つで、且つ該AFエリアが1つの分割領域内に収まる場合に設定される比較対象領域を示す図、(a)焦点が合うAFエリアが1つで、且つ該AFエリアが複数の分割領域に跨る場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when there is one AF area which focuses, and this AF area is settled in one division area, (a) There is one AF area which focuses, Also, it is a diagram showing a comparison target area that is set when the AF area extends over a plurality of divided areas. (a)焦点が合う複数のAFエリアが1つの分割領域内に収まる場合に設定される比較対象領域を示す図、(b)焦点が合う複数のAFエリアが隣接する複数の分割領域に跨る場合に設定される比較対象領域を示す図、(c)焦点が合う複数のAFエリアが離散する分割領域のそれぞれに収まる場合に設定される比較対象領域を示す図である。(A) The figure which shows the comparison object area | region set when the some AF area which focuses is contained in one division area, (b) The case where the some AF area which focuses is straddling the several division area which adjoins FIG. 4C is a diagram showing a comparison target area set in (c), and FIG. 4C is a diagram showing a comparison target area set when a plurality of in-focus AF areas fit in each of divided areas. 高速連写における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in high-speed continuous shooting. 高速連写における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in high-speed continuous shooting. 高速連写における一連の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a series of processes in high-speed continuous shooting.

以下、本発明の実施形態としてデジタルカメラ10を例に説明する。本発明のデジタルカメラ10は、1回の撮像処理により静止画像を取得する撮影の他、複数回の撮像処理を連続して行って複数の静止画像を取得する連続撮影を行うことが可能である。この連続撮影は、例えば30コマ/秒、50コマ/秒、60コマ/秒など高速な連続撮影を行うことができる。以下、高速な連続撮影を高速連写と称して説明する。   Hereinafter, a digital camera 10 will be described as an example of an embodiment of the present invention. The digital camera 10 of the present invention can perform continuous shooting in which a plurality of still images are acquired by continuously performing a plurality of imaging processes in addition to shooting that acquires a still image by a single imaging process. . This continuous shooting can be performed at a high speed, such as 30 frames / second, 50 frames / second, and 60 frames / second. Hereinafter, high-speed continuous shooting will be referred to as high-speed continuous shooting.

図1に示すように、デジタルカメラ10は、撮像光学系15、クイックリターンミラー16、メカニカルシャッタ17、撮像素子18、アナログフロントエンド(AFE)回路19、タイミングジェネレータ(TG)20、レンズ駆動機構21、シャッタ駆動機構22、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、表示装置29、接続用I/F30、CPU40、不揮発性メモリ41、ワークメモリ42、焦点検出部43、レリーズボタン44、操作部45などを備えている。AFE回路19、バッファメモリ25、画像処理回路26、圧縮/伸長回路27、表示制御回路28、接続用I/F30、CPU40は、バス46を介して電気的に接続される。   As shown in FIG. 1, the digital camera 10 includes an imaging optical system 15, a quick return mirror 16, a mechanical shutter 17, an image sensor 18, an analog front end (AFE) circuit 19, a timing generator (TG) 20, and a lens driving mechanism 21. , Shutter drive mechanism 22, buffer memory 25, image processing circuit 26, compression / expansion circuit 27, display control circuit 28, display device 29, connection I / F 30, CPU 40, nonvolatile memory 41, work memory 42, focus detection unit 43, a release button 44, an operation unit 45, and the like. The AFE circuit 19, the buffer memory 25, the image processing circuit 26, the compression / decompression circuit 27, the display control circuit 28, the connection I / F 30, and the CPU 40 are electrically connected via a bus 46.

撮像光学系15は、被写界光束を結像し、撮像素子18の撮像面近傍に被写界像を形成する。図1においては、撮像光学系15を単一のレンズにて記載しているが、実際には、フォーカシングレンズを備えた複数のレンズから構成される。このフォーカシングレンズは、レンズ駆動機構21を介して光軸方向に移動される。フォーカシングレンズを光軸方向に移動させることで、フォーカス制御が実行される。   The imaging optical system 15 forms an object scene light beam and forms an object scene image near the imaging surface of the image sensor 18. In FIG. 1, the imaging optical system 15 is described as a single lens, but actually, the imaging optical system 15 includes a plurality of lenses including a focusing lens. The focusing lens is moved in the optical axis direction via the lens driving mechanism 21. Focus control is executed by moving the focusing lens in the optical axis direction.

また、撮像光学系15は、不図示の絞りを備えている。この絞りは、CPU40により設定されるAv値に応じて、絞り径が調整される。このAv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。   The imaging optical system 15 includes a diaphragm (not shown). The diaphragm diameter is adjusted according to the Av value set by the CPU 40. This Av value may be a value input by the user or a value calculated by automatic exposure calculation.

クイックリターンミラー16は、撮像光学系15と撮像素子18との間の被写界光束の光路上に配置される。このクイックリターンミラー16は、ミラーダウン状態と、ミラーアップ状態との間で切り替えられる。クイックリターンミラー16がミラーダウン状態の場合、被写体光束はクイックリターンミラー16により焦点検出部43及び不図示の測光部へと導かれる。一方、クイックリターンミラー16がミラーアップ状態の場合、被写体光束は、クイックリターンミラー16により撮像素子18へ導かれる。   The quick return mirror 16 is disposed on the optical path of the field light beam between the imaging optical system 15 and the imaging element 18. The quick return mirror 16 is switched between a mirror-down state and a mirror-up state. When the quick return mirror 16 is in the mirror-down state, the subject light flux is guided by the quick return mirror 16 to the focus detection unit 43 and a photometry unit (not shown). On the other hand, when the quick return mirror 16 is in the mirror-up state, the subject light flux is guided to the image sensor 18 by the quick return mirror 16.

メカニカルシャッタ17は、クイックリターンミラー16と撮像素子18との間の、被写界光束の光路上に配置される。このメカニカルシャッタ17は、TG20からの駆動信号を受けたシャッタ駆動機構22により開閉される。   The mechanical shutter 17 is disposed on the optical path of the field light beam between the quick return mirror 16 and the image sensor 18. The mechanical shutter 17 is opened and closed by a shutter drive mechanism 22 that has received a drive signal from the TG 20.

撮像素子18は、CCDイメージセンサ、CMOSイメージセンサなどから構成される。この撮像素子18は、TG20から供給される駆動信号に応じて、信号の蓄積及び信号の読み出しを行う。   The image sensor 18 is composed of a CCD image sensor, a CMOS image sensor, or the like. The image sensor 18 accumulates signals and reads signals in accordance with the drive signal supplied from the TG 20.

TG20は、CPU40からの指示に応じて、撮像素子18やシャッタ駆動機構22に対して駆動信号を出力する。また、TG20は、AFE回路19やCPU40に対して同期信号を供給する。ここで、TG20は、撮像素子18へ供給する駆動信号のパターンと、メカニカルシャッタ17へ供給する駆動信号のパターンとの組み合わせにより、1フレーム当たりの露光時間を制御する。この露光時間は、CPU40により指定されたTv値に応じた値に設定される。ここで、Tv値は、ユーザが入力した値であってもよいし、自動露出演算により算出された値であってもよい。ここで、高速連写を実行する場合には、メカニカルシャッタ17を開状態としたまま、撮像素子18の駆動制御(信号の蓄積及び信号の読み出し)を行う。この場合、露光時間は、撮像素子18に供給される駆動信号のみで制御される。つまり、高速連写を行う場合、メカニカルシャッタ17ではなく、電子シャッタとなる。   The TG 20 outputs a drive signal to the image sensor 18 and the shutter drive mechanism 22 in response to an instruction from the CPU 40. Further, the TG 20 supplies a synchronization signal to the AFE circuit 19 and the CPU 40. Here, the TG 20 controls the exposure time per frame by a combination of the pattern of the drive signal supplied to the image sensor 18 and the pattern of the drive signal supplied to the mechanical shutter 17. The exposure time is set to a value corresponding to the Tv value designated by the CPU 40. Here, the Tv value may be a value input by the user or a value calculated by automatic exposure calculation. Here, when high-speed continuous shooting is performed, drive control (signal accumulation and signal readout) of the image sensor 18 is performed while the mechanical shutter 17 is kept open. In this case, the exposure time is controlled only by the drive signal supplied to the image sensor 18. That is, when high-speed continuous shooting is performed, the electronic shutter is used instead of the mechanical shutter 17.

AFE回路19は、CDS回路、ゲイン回路、A/D変換回路などを備えている。CDS回路は、撮像素子18から出力されるアナログ信号のノイズ成分を相関二重サンプリングにより除去する。ゲイン回路は、ノイズが除去されたアナログ信号を増幅する。A/D変換回路は、増幅されたアナログ信号をデジタル信号に変換する。   The AFE circuit 19 includes a CDS circuit, a gain circuit, an A / D conversion circuit, and the like. The CDS circuit removes the noise component of the analog signal output from the image sensor 18 by correlated double sampling. The gain circuit amplifies the analog signal from which noise has been removed. The A / D conversion circuit converts the amplified analog signal into a digital signal.

ここで、ゲイン回路による信号の増幅時に用いられる信号増幅率(ゲイン)は、CPU40からのSv値に基づいた値である。このSv値は撮影時の感度(ISO感度)であり、このSv値は、ユーザが指定した値であってもよいし、自動露出演算にて算出された値であってもよい。   Here, the signal amplification factor (gain) used when the signal is amplified by the gain circuit is a value based on the Sv value from the CPU 40. This Sv value is a sensitivity at the time of photographing (ISO sensitivity), and this Sv value may be a value designated by the user or a value calculated by automatic exposure calculation.

焦点検出部43は、ミラーダウン状態のクイックリターンミラー16から導かれた被写界光束を瞳分割してから再統合することにより、撮像素子18に対する撮像光学系15のデフォーカス信号を生成する位相差検出方式の焦点検出部から構成される。ここで、撮像光学系15のデフォーカス信号は、撮像範囲に対して複数配置される複数のAFエリアのそれぞれで生成される。   The focus detection unit 43 generates a defocus signal of the imaging optical system 15 for the imaging element 18 by dividing the pupil of the field light beam guided from the quick return mirror 16 in the mirror-down state and then reintegrating it. Consists of a phase difference detection type focus detection unit. Here, the defocus signal of the imaging optical system 15 is generated in each of a plurality of AF areas arranged in a plurality with respect to the imaging range.

バッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる。このバッファメモリ25は、AFE回路19から出力されたデジタル信号が書き込まれる他、画像処理回路26から転送された他のデジタル信号が書き込まれる。ここで、バッファメモリ25は、複数フレーム分のデジタル信号を記憶することができる。   In the buffer memory 25, the digital signal output from the AFE circuit 19 is written. In the buffer memory 25, the digital signal output from the AFE circuit 19 is written, and other digital signals transferred from the image processing circuit 26 are written. Here, the buffer memory 25 can store digital signals for a plurality of frames.

画像処理回路26は、ホワイトバランス処理回路、画素補間回路、マトリクス処理回路、非線形変換(γ補正)処理回路及び輪郭強調処理回路などを備え、バッファメモリ25から読み出されたデジタル信号に対して、ホワイトバランス、画素補間、マトリクス、非線形変換(γ補正)及び輪郭強調などの処理を施す。   The image processing circuit 26 includes a white balance processing circuit, a pixel interpolation circuit, a matrix processing circuit, a non-linear transformation (γ correction) processing circuit, an edge enhancement processing circuit, and the like. For the digital signal read from the buffer memory 25, Processing such as white balance, pixel interpolation, matrix, non-linear transformation (γ correction) and contour enhancement is performed.

画像処理回路26は、テンプレート生成部47、トリミング部48を備えている。テンプレート生成部47は、AF処理時に取り込まれる画像データから得られるコントラスト情報を用いて、主要被写体が含まれる領域を特定する。この特定の後、テンプレート生成部47は、特定された領域からなる画像をテンプレート画像として生成する。なお、テンプレート画像を生成する際に、AF処理時に取り込まれる画像データのコントラスト情報を用いているが、コントラスト情報に加えて、画像データにおける色情報を用いて、被写体が含まれる領域を特定することも可能である。   The image processing circuit 26 includes a template generation unit 47 and a trimming unit 48. The template generation unit 47 specifies an area including the main subject using contrast information obtained from image data captured during AF processing. After this specification, the template generation unit 47 generates an image composed of the specified area as a template image. Note that, when generating the template image, the contrast information of the image data captured at the time of AF processing is used. However, in addition to the contrast information, the color information in the image data is used to specify the region including the subject. Is also possible.

トリミング部48は、高速連写により得られた画像データのそれぞれから、後述する比較対象領域に該当する領域をトリミング処理する。なお、トリミング処理により生成される画像データ(対象画像データ)は、バッファメモリ25に記憶される。   The trimming unit 48 trims an area corresponding to a comparison target area described later from each of the image data obtained by the high-speed continuous shooting. Note that image data (target image data) generated by the trimming process is stored in the buffer memory 25.

圧縮/伸長回路27は、画像処理済みの画像データや、対象画像データに対して圧縮処理を施す。圧縮処理が施された画像データは、接続用I/F30を介して記憶媒体50に書き込まれる。ここで、記憶媒体50としては、不揮発性メモリからなるメモリーカード、光学ディスク、磁気ディスクなどが挙げられる。また、圧縮/伸長回路27は、記憶媒体50から読み出した圧縮処理済みの画像データに対して伸長処理を行う。表示制御回路28は、入力された画像データを表示用の所定方式の信号に変換して表示装置29に表示する。   The compression / decompression circuit 27 performs compression processing on the image data that has undergone image processing and the target image data. The compressed image data is written into the storage medium 50 via the connection I / F 30. Here, examples of the storage medium 50 include a memory card including a nonvolatile memory, an optical disk, and a magnetic disk. Further, the compression / decompression circuit 27 performs decompression processing on the compressed image data read from the storage medium 50. The display control circuit 28 converts the input image data into a predetermined signal for display and displays it on the display device 29.

CPU40は、不揮発性メモリ41に格納されている制御プログラムに従って、ワークメモリ42を一時記憶作業領域として利用して各部の制御を行う。このCPU40は、高速連写時に、顔検出部51、領域設定部52、データ比較部53、焦点制御部54の機能が有効となる。   The CPU 40 controls each unit using the work memory 42 as a temporary storage work area according to a control program stored in the nonvolatile memory 41. In the CPU 40, the functions of the face detection unit 51, the region setting unit 52, the data comparison unit 53, and the focus control unit 54 become effective during high-speed continuous shooting.

顔検出部51は、画像中に含まれる人物の顔を検出する。この顔を検出する処理としては、例えば画像に含まれる肌色の領域を検出し、肌色の領域に含まれる特徴量から、顔であるか否かの判定を行う処理、又は顔形状のテンプレートを複数用意しておき、テンプレートと画像との相関から顔の領域を検出する処理等が挙げられる。顔検出部51は、顔が検出されると、検出された顔を含む矩形の領域の位置情報を求める。ここで、顔領域の位置情報は、顔領域の四隅の頂点の位置座標を示すアドレスデータである。   The face detection unit 51 detects the face of a person included in the image. As the process for detecting the face, for example, a skin color area included in the image is detected, and a process for determining whether the face is a feature from the feature amount included in the skin color area, or a plurality of face shape templates. For example, a process for detecting a face region from the correlation between the template and the image is prepared. When a face is detected, the face detection unit 51 obtains position information of a rectangular area including the detected face. Here, the position information of the face area is address data indicating the position coordinates of the four corner vertices of the face area.

領域設定部52は、データ比較部53にて実行されるデータ量の比較の際に用いる領域(比較対象領域)を設定する。領域設定部52は、1回目の撮像処理により得られる画像を縦m個横n個の計m×n個の領域に分割する。この領域分割に関わるデータは例えばワークメモリ42に記憶される。以下、画像を分割することで得られる領域を分割領域と称して説明する。顔検出部51による顔検出処理において顔が検出された場合には、画像に設定される複数の分割領域のうち、検出された顔の領域が含まれる分割領域を、比較対象領域として設定する。一方、顔検出部51による顔検出処理において顔が検出されない場合、領域設定部52は、テンプレート画像が生成されているか否かにより、以下の処理を実行する。例えばテンプレート画像が生成されている場合、領域設定部52は、テンプレート画像と、高速連写により取得された画像とを用いてテンプレートマッチングを行う。そして、領域設定部52は、テンプレートマッチングによりテンプレート画像に一致する領域が含まれる矩形の領域を比較対象領域として設定する。一方、テンプレート画像が生成されていない場合、領域設定部52は、1回目の撮像処理におけるフォーカス制御にて使用されるAFエリアを含む分割領域を比較対象領域として設定する。そして、領域設定部52は、上述したいずれかの方法で比較対象領域を設定した後、比較対象領域の位置情報を求める。なお、比較対象領域の位置情報は、画像処理回路26に出力される。画像処理回路26のトリミング部48は、比較対象領域の位置情報に基づいて、高速連写により得られる各画像データに対してトリミング処理を実行する。このトリミング処理により、対象画像データが生成される。   The region setting unit 52 sets a region (comparison target region) to be used when comparing the data amount executed by the data comparison unit 53. The area setting unit 52 divides the image obtained by the first imaging process into a total of m × n areas of vertical m and horizontal n. Data relating to this area division is stored in the work memory 42, for example. Hereinafter, an area obtained by dividing an image will be described as a divided area. When a face is detected in the face detection processing by the face detection unit 51, a divided area including the detected face area is set as a comparison target area among a plurality of divided areas set in the image. On the other hand, when a face is not detected in the face detection process by the face detection unit 51, the region setting unit 52 executes the following process depending on whether a template image is generated. For example, when a template image is generated, the region setting unit 52 performs template matching using the template image and an image acquired by high-speed continuous shooting. Then, the region setting unit 52 sets a rectangular region including a region that matches the template image by template matching as a comparison target region. On the other hand, when the template image is not generated, the area setting unit 52 sets a divided area including the AF area used in the focus control in the first imaging process as the comparison target area. Then, after setting the comparison target region by any of the methods described above, the region setting unit 52 obtains position information of the comparison target region. The position information of the comparison target region is output to the image processing circuit 26. The trimming unit 48 of the image processing circuit 26 performs a trimming process on each image data obtained by the high-speed continuous shooting based on the position information of the comparison target region. By this trimming process, target image data is generated.

データ比較部53は、圧縮処理が施された対象画像データのデータ量を比較する。一般に、同じ被写界を連続して2回撮影した場合、個々の撮影においてピントが合っていれば、それぞれの撮影にて得られる2つの画像データのデータ量は近似する。しかしながら、1回目の撮影においてピントが合い、2回目の撮影においてピントが合っていない場合には、1回目の撮影で得られる画像は鮮鋭度が高い画像となり、2回目の撮影で得られる画像は鮮鋭度が低い画像となる。ここで、鮮鋭度の高い画像のデータ量は、鮮鋭度の低い画像のデータ量よりも大きくなる傾向がある。また、比較対象領域は、人物の顔領域や人物以外の被写体の領域、又は焦点が合うAFエリアが含まれる領域である。したがって、圧縮処理済みの対象画像データのデータ量を比較することで、画像において注目すべき領域に対して焦点が合い、他の領域に焦点が合わないように、フォーカス制御を行うことができる。   The data comparison unit 53 compares the data amounts of the target image data subjected to the compression process. In general, when the same scene is photographed twice in succession, if the individual photographing is in focus, the data amounts of the two image data obtained by the respective photographings are approximated. However, when the first shot is in focus and the second shot is not in focus, the image obtained by the first shot is an image with high sharpness, and the image obtained by the second shot is The image is low in sharpness. Here, the data amount of an image with high sharpness tends to be larger than the data amount of an image with low sharpness. The comparison target area is an area including a face area of a person, an area of a subject other than a person, or an in-focus AF area. Therefore, by comparing the data amounts of the target image data that has been subjected to compression processing, it is possible to perform focus control so that a region to be noticed is focused and other regions are not focused.

焦点制御部54は、撮影時におけるフォーカス制御を実行する。例えば高速連写における1回目の撮像処理のフォーカス制御は、焦点検出部43における検出結果を利用したフォーカス制御である。また、高速連写における2回目以降のフォーカス制御は、データ比較部53による比較結果に基づいたフォーカス制御である。なお、2回目以降のフォーカス制御は、比較対象領域をトリミングすることで得られる対象画像データにおける鮮鋭度と対象画像データのデータ量との関係を利用したフィードバック制御となる。   The focus control unit 54 performs focus control during shooting. For example, focus control in the first imaging process in high-speed continuous shooting is focus control using the detection result in the focus detection unit 43. Further, the second and subsequent focus control in high-speed continuous shooting is focus control based on the comparison result by the data comparison unit 53. Note that the second and subsequent focus control is feedback control using the relationship between the sharpness in the target image data obtained by trimming the comparison target region and the data amount of the target image data.

次に、比較対象領域の設定について説明する。まず、領域設定部52は、1回目の撮像処理により得られた画像をm×n個の分割領域に分割する。図2は、1回目の撮像処理により得られた画像Pを縦4個、横6個計24個の領域A〜A24に分割した場合である。 Next, setting of the comparison target area will be described. First, the area setting unit 52 divides an image obtained by the first imaging process into m × n divided areas. FIG. 2 shows a case where the image P obtained by the first imaging process is divided into 24 areas A 1 to A 24 in total of 4 vertically and 6 horizontally.

そして、以下の手順で比較対象領域を設定する。まず、顔検出部51により顔が検出されている場合、領域設定部52は、検出された顔が単数(1つ)であるか、複数(2以上)であるかを判定する。例えば画像Pから1つの顔が検出される場合、領域設定部52は、検出された顔の領域(顔領域)が1つの分割領域よりも小さいか否かを判定する。顔領域が分割領域よりも小さいと判定した場合、領域設定部52は、検出された顔領域が複数の分割領域のいずれかの領域に収まるか、複数の分割領域に跨るかを判定する。   Then, the comparison target area is set according to the following procedure. First, when a face is detected by the face detection unit 51, the region setting unit 52 determines whether the detected face is single (one) or plural (two or more). For example, when one face is detected from the image P, the area setting unit 52 determines whether or not the detected face area (face area) is smaller than one divided area. When it is determined that the face area is smaller than the divided area, the area setting unit 52 determines whether the detected face area falls within any of the plurality of divided areas or straddles the plurality of divided areas.

図2(a)に示すように、検出された顔領域FRが1つの分割領域よりも小さく、また顔領域FRが分割領域A17に収まる場合、領域設定部52は、分割領域A17を比較対象領域として設定する。 As shown in FIG. 2A, when the detected face area FR 1 is smaller than one divided area and the face area FR 1 fits in the divided area A 17 , the area setting unit 52 sets the divided area A 17. Is set as the comparison target area.

図2(b)に示すように、検出された顔領域FRが1つの分割領域よりも小さい場合であっても、顔領域FRが複数の分割領域A10、A11、A16、A17に跨るときもある。このような場合には、領域設定部52は、分割領域A10、A11、A16、A17を比較対象領域として設定する。図2(b)においては、顔領域FRが複数の分割領域A10、A11、A16、A17に跨る場合を説明しているが、顔領域が上下方向又は左右方向に隣り合う2つの分割領域に跨る場合には、顔領域が跨る2つの分割領域を比較対象領域に設定する。 As shown in FIG. 2B, even if the detected face area FR 2 is smaller than one divided area, the face area FR 2 is divided into a plurality of divided areas A 10 , A 11 , A 16 , A There are times when it straddles 17 . In such a case, the area setting unit 52 sets the divided areas A 10 , A 11 , A 16 , and A 17 as comparison target areas. FIG. 2B illustrates a case where the face area FR 2 extends over a plurality of divided areas A 10 , A 11 , A 16 , A 17 , but the face area is adjacent in the vertical direction or the horizontal direction 2. When straddling two divided regions, two divided regions straddling the face region are set as comparison target regions.

図2(c)に示すように、顔領域FRが1つの分割領域よりも大きい場合には、顔領域FRは複数の分割領域に跨るので、このような場合、領域設定部52は、顔領域FRが跨る分割領域A10、A11、A12、A16,A17、A18、A22、A23、A24を比較対象領域として設定する。なお、検出される顔領域が他の分割領域に跨る場合も同様にして、比較対象領域が設定される。 As shown in FIG. 2C, when the face area FR 3 is larger than one divided area, the face area FR 3 straddles a plurality of divided areas. In such a case, the area setting unit 52 The divided areas A 10 , A 11 , A 12 , A 16 , A 17 , A 18 , A 22 , A 23 , and A 24 that the face area FR 3 straddles are set as comparison target areas. Note that the comparison target area is set in the same manner when the detected face area extends over other divided areas.

次に、顔検出部51により検出された顔が複数となる場合、領域設定部52は、まず、検出された複数の顔に基づく顔領域のうち、1つの分割領域よりも大きい顔領域があるか否かを判定する。図3(a)は、3つの顔領域FR、FR、FRが検出された場合を示す。顔領域FR、FR、FRのうち、顔領域FRが最も大きい顔領域となる場合には、領域設定部52は顔領域FRを選択する。そして、領域設定部52は、選択された顔領域FRが跨る分割領域A16,A17、A22、A23を、比較対象領域として設定する。 Next, when there are a plurality of faces detected by the face detection unit 51, the area setting unit 52 first has a face area larger than one divided area among the face areas based on the detected plurality of faces. It is determined whether or not. FIG. 3A shows a case where three face regions FR 4 , FR 5 , FR 6 are detected. When the face area FR 6 is the largest face area among the face areas FR 4 , FR 5 , and FR 6 , the area setting unit 52 selects the face area FR 6 . Then, the area setting unit 52 sets the divided areas A 16 , A 17 , A 22 , A 23 that the selected face area FR 6 spans as comparison target areas.

図3(b)に示すように、検出された3つの顔領域FR、FR、FRのいずれもが1つの分割領域よりも小さい場合がある。このような場合には、領域設定部52は、顔領域の位置とAFエリアの位置とに基づいて、AFエリアのいずれかに重畳する顔領域があるか否かを判定する。AFエリアのいずれかに重畳する顔領域があれば、領域分割部52は、その顔領域を選択し、選択された顔領域が収まる分割領域、或いは顔領域が跨る分割領域を比較対象領域として設定する。図3(b)においては、顔領域FRがAFエリアに重畳しているので、領域設定部52は、顔領域FRを選択する。そして、領域設定部52は、顔領域FRが収まる分割領域Aを比較対象領域として設定する。なお、検出された顔領域のいずれもがAFエリアに重畳されない場合には、検出された顔領域のうち、最も大きい顔領域が位置する分割領域を比較対象領域としてもよいし、焦点が合うAFエリアが含まれる分割領域を比較対象領域としてもよい。 As shown in FIG. 3B, all of the detected three face regions FR 7 , FR 8 , FR 9 may be smaller than one divided region. In such a case, the area setting unit 52 determines whether there is a face area to be superimposed on any of the AF areas based on the position of the face area and the position of the AF area. If there is a face area to be superimposed on any of the AF areas, the area dividing unit 52 selects the face area, and sets a divided area in which the selected face area fits or a divided area that spans the face area as a comparison target area. To do. In FIG. 3B, since the face area FR 8 is superimposed on the AF area, the area setting unit 52 selects the face area FR 8 . Then, the area setting unit 52 sets the divided regions A 9 the face area FR 8 falls as a comparison target area. If none of the detected face areas is superimposed on the AF area, the divided area where the largest face area is located among the detected face areas may be set as the comparison target area, or the focused AF is performed. A divided region including an area may be set as a comparison target region.

一方、顔検出部51により顔が検出されていない場合で、且つテンプレート画像が生成されている場合には、以下の方法で比較対象領域を設定する。高速連写を実行するときのAF処理は、レリーズボタン44の半押し操作に応答して実行される。そこで、テンプレート生成部47は、AF処理時に得られる画像データからコントラスト情報を取得した後、取得したコントラスト情報を用いて、テンプレート画像を生成する。図4に示すように、例えば走行するレース車両を高速連写する場合を考える。この場合、ドライバーが被るヘルメットにピントを併せて撮影を行うのが一般的である。したがって、ヘルメット付近のコントラストは他の領域に比べて高い。そこで、テンプレート生成部47は、コントラストが高いヘルメットが含まれる矩形の領域60を用いたテンプレート画像データを生成する。   On the other hand, when a face is not detected by the face detection unit 51 and a template image is generated, a comparison target region is set by the following method. The AF process when executing high-speed continuous shooting is executed in response to a half-press operation of the release button 44. Therefore, the template generation unit 47 acquires the contrast information from the image data obtained during the AF process, and then generates a template image using the acquired contrast information. As shown in FIG. 4, for example, consider a case where high-speed continuous shooting is performed on a running race vehicle. In this case, it is common to shoot with the focus on the helmet worn by the driver. Therefore, the contrast near the helmet is higher than in other areas. Therefore, the template generation unit 47 generates template image data using a rectangular region 60 including a helmet with high contrast.

したがって、領域設定部52は、高速連写における各撮像処理により得られた画像データに対して、テンプレート画像データを用いたテンプレートマッチングを行い、テンプレート画像データに対応する領域を比較対象領域として設定する。   Therefore, the region setting unit 52 performs template matching using the template image data on the image data obtained by each imaging process in the high-speed continuous shooting, and sets a region corresponding to the template image data as a comparison target region. .

さらに、顔検出部51により顔が検出されていない場合で、且つテンプレート画像が生成されていない場合もある。この場合、領域設定部52は、高速連写が開始されたときに実行されるフォーカス制御の結果に基づいて、複数の分割領域のうちのいずれかの領域を、比較対象領域として設定する。上述した1回目の撮像処理においては、焦点検出部43により求められるAFエリア毎のデフォーカス信号を用いたフォーカス制御が実行される。領域設定部52は、これらAFエリアのうち、焦点が合うAFエリアを用いて、比較対象領域を設定する。   Furthermore, there is a case where no face is detected by the face detection unit 51 and a template image is not generated. In this case, the region setting unit 52 sets one of the plurality of divided regions as a comparison target region based on the result of focus control executed when high-speed continuous shooting is started. In the first imaging process described above, focus control using a defocus signal for each AF area obtained by the focus detection unit 43 is executed. The area setting unit 52 sets a comparison target area using an AF area in focus among these AF areas.

図5(a)に示すように、AFエリアBが焦点の合うAFエリアとなる場合、このAFエリアBは分割領域A10に収まっている。したがって、領域設定部52は、AFエリアBが収まる分割領域A10を比較対象領域として設定する。 As shown in FIG. 5 (a), if the AF area B 1 is a AF area in focus, the AF area B 1 represents is within a divided region A 10. Therefore, the area setting unit 52 sets the divided regions A 10 to AF area B 1 is fit for comparison region.

図5(b)に示すように、分割領域A、A10、A15、A16に跨るAFエリアBが焦点の合うAFエリアとなる場合、領域設定部52は、分割領域A、A10、A15、A16を比較対象領域として設定する。 As shown in FIG. 5B, when the AF area B 2 extending over the divided areas A 9 , A 10 , A 15 , A 16 is an in-focus AF area, the area setting unit 52 includes the divided areas A 9 , A 10 , A 15 , and A 16 are set as comparison target areas.

例えば、撮影時においては、複数のAFエリアが焦点の合うAFエリアとなる場合がある。このような場合、領域設定部52は、焦点の合うAFエリアのそれぞれが1つの分割領域に収まるか否かを判定する。図6(a)は、焦点の合うAFエリアが複数、1つの分割領域に収まる場合であり、焦点の合うAFエリアは塗りつぶして示している。この場合、領域設定部52は、焦点が合うAFエリアが収まる分割領域A10を比較対象領域として設定する。 For example, during shooting, a plurality of AF areas may be in-focus AF areas. In such a case, the area setting unit 52 determines whether or not each of the focused AF areas fits in one divided area. FIG. 6A shows a case where a plurality of in-focus AF areas fit within a single divided area, and the in-focus AF area is shown in a solid color. In this case, the area setting unit 52 sets the divided area A 10 that is the AF area in focus falls as a comparison target area.

一方、焦点の合うAFエリアが複数あり、それぞれのAFエリアが複数の分割領域に収まる場合には、領域設定部52は、焦点の合うAFエリアが含まれる分割領域を全て比較対象領域として設定する。図6(b)の場合、塗りつぶしで示すAFエリアが焦点の合うAFエリアである。この場合、領域設定部52は、焦点が合うAFエリアが位置する分割領域A、A10、A15、A16を比較対象領域として設定する。 On the other hand, when there are a plurality of in-focus AF areas and each AF area fits in a plurality of divided areas, the area setting unit 52 sets all the divided areas including the in-focus AF areas as comparison target areas. . In the case of FIG. 6B, the AF area indicated by filling is an in-focus AF area. In this case, the area setting unit 52 sets the divided areas A 9 , A 10 , A 15 , and A 16 where the focused AF area is located as the comparison target area.

なお、図6(c)に示すように、焦点が合うAFエリアが近接して位置せず、離散して位置している場合もある。このような場合には、領域設定部52は、焦点が合うAFエリアが含まれる分割領域A及び分割領域A10、A11を比較対象領域として設定する。 As shown in FIG. 6C, the focused AF areas may not be located close to each other but may be located discretely. In such a case, the area setting unit 52 sets the divided area A 8 and the divided areas A 10 and A 11 including the focused AF area as the comparison target areas.

以下、高速連写を行う際の処理の流れを図7〜図9のフローチャートに基づいて説明する。   Hereinafter, the flow of processing when performing high-speed continuous shooting will be described with reference to the flowcharts of FIGS.

ステップS101は、レリーズボタンが半押し操作されたか否かを判定する処理である。詳細は省略するが、レリーズボタン44には、その半押し操作及び全押し操作を検知する検知スイッチが設けられている。レリーズボタン44が半押し操作されると、半押し操作を検知する検知スイッチがオンとなり、その信号(以下、半押し信号)がCPU40に出力される。この半押し信号が入力されたことを受けて、CPU40は、ステップS101の判定処理の結果をYesとする。この場合、ステップS102に進む。   Step S101 is processing for determining whether or not the release button has been pressed halfway. Although details are omitted, the release button 44 is provided with a detection switch for detecting the half-pressing operation and the full-pressing operation. When the release button 44 is half-pressed, a detection switch that detects the half-press operation is turned on, and a signal (hereinafter, half-press signal) is output to the CPU 40. In response to the input of the half-press signal, the CPU 40 sets the result of the determination process in step S101 to Yes. In this case, the process proceeds to step S102.

一方、レリーズボタン44が半押し操作されないときには半押し信号がCPU40に入力されない。この場合、CPU40は、ステップS101の判定処理の結果をNoとする。つまり、ステップS101の判定処理の結果がYesとなるまで、このステップS101の判定処理が繰り返し実行される。   On the other hand, when the release button 44 is not half-pressed, the half-press signal is not input to the CPU 40. In this case, the CPU 40 sets the result of the determination process in step S101 to No. That is, the determination process of step S101 is repeatedly executed until the determination result of step S101 is Yes.

ステップS102は、AE処理及びAF処理を実行する処理である。CPU40は、不図示の測光装置から出力される信号に基づいてAE処理を実行する。CPU40がAE処理を実行することで、Tv値、Av値及びSv値の組み合わせが決定される。また、CPU40は、焦点検出部43が出力するデフォーカス信号に基づいてAF処理を実行する。   Step S102 is processing for executing AE processing and AF processing. The CPU 40 executes AE processing based on a signal output from a photometry device (not shown). When the CPU 40 executes the AE process, a combination of the Tv value, the Av value, and the Sv value is determined. In addition, the CPU 40 executes AF processing based on the defocus signal output from the focus detection unit 43.

ステップS103は、テンプレート画像データを生成する処理である。CPU40は、AF処理時に得られた画像データのコントラスト情報を用いて、コントラストが高い領域を主要被写体となる領域として特定する。そして、画像処理回路26は、特定した主要被写体となる領域に基づく画像データをテンプレート画像データとして生成する。   Step S103 is processing for generating template image data. The CPU 40 uses the contrast information of the image data obtained at the time of the AF processing, and specifies a region with high contrast as a region to be a main subject. Then, the image processing circuit 26 generates image data based on the identified region as the main subject as template image data.

ステップS104は、レリーズボタンの半押し操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が半押し操作されると、半押し信号がCPU40に入力される。また、レリーズボタン44の半押し操作が解除されると、CPU40への半押し信号の出力が停止される。すなわち、このステップS104においては、CPU40は、レリーズボタン44の半押し信号の出力が停止されたか否かによって、レリーズボタン44の半押し操作が解除されたか否かを判定する。   Step S104 is processing for determining whether or not the half-press operation of the release button has been released. As described above, when the release button 44 is half-pressed, a half-press signal is input to the CPU 40. Further, when the half-press operation of the release button 44 is released, the output of the half-press signal to the CPU 40 is stopped. That is, in this step S104, the CPU 40 determines whether or not the half-press operation of the release button 44 has been released depending on whether or not the output of the half-press signal of the release button 44 has been stopped.

例えば半押し信号の出力が継続されている場合には、CPU40は、レリーズボタン44の半押し操作が解除されていないと判定する。この場合、ステップS104の判定処理の結果がNoとなり、ステップS105に進む。一方、半押し信号の出力が停止された場合には、CPU40は、レリーズボタン44の半押し操作が解除されたと判定する。この場合、ステップS104の判定処理の結果がYesとなり、ステップS101に戻る。   For example, when the output of the half-press signal is continued, the CPU 40 determines that the half-press operation of the release button 44 has not been released. In this case, the result of the determination process in step S104 is No, and the process proceeds to step S105. On the other hand, when the output of the half-press signal is stopped, the CPU 40 determines that the half-press operation of the release button 44 has been released. In this case, the result of the determination process in step S104 is Yes, and the process returns to step S101.

ステップS105は、レリーズボタンの全押し操作されたか否かを判定する処理である。レリーズボタン44が全押し操作されると、全押し操作を検知する検知スイッチがオンとなり、その信号(全押し信号)がCPU40に出力される。全押し信号が入力されたことを受けて、CPU40は、ステップS104の判定処理の結果をYesとする。この場合、ステップS106に進む。一方、全押し信号が入力されない場合には、CPU40は、ステップS105の判定処理の結果をNoとする。この場合、ステップS104に戻る。   Step S105 is processing for determining whether or not the release button has been fully pressed. When the release button 44 is fully pressed, a detection switch for detecting the full press operation is turned on, and a signal (full press signal) is output to the CPU 40. In response to the input of the full press signal, the CPU 40 sets the result of the determination process in step S104 to Yes. In this case, the process proceeds to step S106. On the other hand, when the full press signal is not input, the CPU 40 sets the result of the determination process in step S105 to No. In this case, the process returns to step S104.

ステップS106は、撮像処理(1回目)である。CPU40は、ステップS102で決定されたTv値、Av値及びSv値を、レンズ駆動機構21、TG20、AFE回路19に対して指定する。同時に、CPU40は、クイックリターンミラー16をミラーアップ状態に切り替える。そして、CPU40は、TG20に撮像開始の信号を出力する。これにより、撮像処理が実行される。   Step S106 is an imaging process (first time). The CPU 40 designates the Tv value, Av value, and Sv value determined in step S102 to the lens driving mechanism 21, the TG 20, and the AFE circuit 19. At the same time, the CPU 40 switches the quick return mirror 16 to the mirror-up state. Then, the CPU 40 outputs an imaging start signal to the TG 20. Thereby, an imaging process is performed.

この撮像処理を行うことで、撮像素子18から画像信号が出力される。この画像信号はAFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶された画像信号を読み出す。画像処理回路26は、読み出した画像信号に対してホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データPが生成される。圧縮/伸長回路27は、画像処理済みの画像データをバッファメモリ25上に複製(コピー)する。そして、複製した画像データPに対して圧縮処理を施す。そして、圧縮処理された画像データPをバッファメモリ25に記憶する。 By performing this imaging process, an image signal is output from the imaging element 18. This image signal is stored in the buffer memory 25 via the AFE circuit 19. The image processing circuit 26 reads the image signal stored in the buffer memory 25. The image processing circuit 26 performs image processing such as white balance adjustment, color interpolation, gradation conversion, and color conversion on the read image signal. Thus, the image data P 1 is generated. The compression / decompression circuit 27 duplicates (copies) image-processed image data on the buffer memory 25. Then, performs compression process on the image data P 1 duplicating. Then, the compressed image data P 1 is stored in the buffer memory 25.

ステップS107は、画像データP及び画像データPのデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データPを読み出し、記憶媒体50に記憶する。同時に、CPU40は、圧縮処理された画像データPのデータ量をワークメモリ42に書き込む。 Step S107 is a process of storing data amount of the image data P 1 and the image data P 1. The CPU 40 reads the compressed image data P 1 stored in the buffer memory 25 and stores it in the storage medium 50. At the same time, the CPU 40 writes the data amount of the compressed image data P 1 in the work memory 42.

ステップS108は、顔検出処理である。CPU40は、バッファメモリ25から画像処理が施された画像データPを読み出し、顔検出処理を実行する。この顔検出処理で顔が検出されると、CPU40は、検出された顔を含む矩形の領域を顔領域として抽出する。 Step S108 is face detection processing. CPU40 reads out the image data P 1 to which image processing has been applied from the buffer memory 25, executes the face detection process. When a face is detected by this face detection process, the CPU 40 extracts a rectangular area including the detected face as a face area.

ステップS109は、顔が検出されたか否かを判定する処理である。ステップS108の顔検出処理で顔が検出されている場合には、CPU40は、ステップS109の判定処理の結果をYesとする。この場合、ステップS110に進む。一方、ステップS108の顔検出処理で顔が検出されない場合には、CPU40は、ステップS109の判定処理の結果をNoとする。この場合、ステップS111に進む。   Step S109 is processing for determining whether or not a face has been detected. If a face is detected in the face detection process in step S108, the CPU 40 sets the result of the determination process in step S109 to Yes. In this case, the process proceeds to step S110. On the other hand, when a face is not detected in the face detection process in step S108, the CPU 40 sets the result of the determination process in step S109 to No. In this case, the process proceeds to step S111.

ステップS110は、顔領域を比較対象領域に設定する処理である。まず、CPU40は、画像処理済みの画像データPに基づく画像を複数の分割領域に分割する。例えば画像データPから1つの顔が検出されている場合、CPU40は、顔領域の大きさと分割領域の大きさとを比較する。顔領域の大きさが1つの分割領域の大きさ以下となる場合には、CPU40は、顔領域が1つの分割領域に収まるか、複数の分割領域に跨るかを判定する。顔領域が1つの分割領域に収まる場合には、CPU40は、顔領域が収まる分割領域を比較対象領域として設定する。一方、顔領域が複数の分割領域に跨る場合、CPU40は、顔領域が跨る分割領域を比較対象領域として設定する。顔領域の大きさが1つの分割領域の大きさを超過する場合には、CPU40は、顔領域が跨る複数の分割領域を比較対象領域として設定する。 Step S110 is processing for setting a face area as a comparison target area. First, CPU 40 divides the image based on the image data P 1 of the image processed into a plurality of divided regions. For example, when one of the face from the image data P 1 has been detected, CPU 40 compares the magnitude of the size and divided areas of the face area. When the size of the face area is equal to or smaller than the size of one divided area, the CPU 40 determines whether the face area fits in one divided area or straddles a plurality of divided areas. When the face area fits in one divided area, the CPU 40 sets the divided area in which the face area fits as a comparison target area. On the other hand, when the face region extends over a plurality of divided regions, the CPU 40 sets the divided region over which the face region extends as a comparison target region. When the size of the face area exceeds the size of one divided area, the CPU 40 sets a plurality of divided areas across the face area as comparison target areas.

次に、複数の顔が検出される場合には、CPU40は、検出される複数の顔領域のうち、1つの分割領域の大きさを超過する顔領域があるか否かを判定する。1つの分割領域の大きさを超過する顔領域がある場合には、CPU40は、該顔領域が跨る分割領域を比較対象領域として設定する。一方、検出される複数の顔領域のいずれもが、1つの分割領域の大きさよりも小さい場合には、CPU40は、AFエリアに重畳される顔領域が位置する分割領域を比較対象領域として設定する。ここで、AFエリアに重畳される顔領域が位置する分割領域とは、AFエリアに重畳される顔領域が収まる分割領域、又はAFエリアに重畳される顔領域が跨る分割領域である。CPU40は、比較対象領域を設定した後、比較対象領域に設定された分割領域の位置情報を取得し、ワークメモリ42に書き込む。   Next, when a plurality of faces are detected, the CPU 40 determines whether there is a face area that exceeds the size of one divided area among the plurality of detected face areas. When there is a face area that exceeds the size of one divided area, the CPU 40 sets a divided area that the face area spans as a comparison target area. On the other hand, when all of the detected plurality of face areas are smaller than the size of one divided area, the CPU 40 sets the divided area where the face area superimposed on the AF area is located as the comparison target area. . Here, the divided area where the face area superimposed on the AF area is located is a divided area where the face area superimposed on the AF area fits, or a divided area straddling the face area superimposed on the AF area. After setting the comparison target area, the CPU 40 acquires the position information of the divided area set as the comparison target area and writes it in the work memory 42.

ステップS109における判定処理が実行され、該判定処理の結果がNoとなる場合、言い換えれば画像データPから人物の顔が検出されない場合、ステップS111に進む。 Determination processing in step S109 is executed, if the result of the determination processing becomes No, when the face of a person from the image data P 1 is not detected in other words, the process proceeds to step S111.

ステップS111は、テンプレート画像データを生成しているか否かを判定する処理である。上述したステップS103の処理において、テンプレート画像データを生成している場合、CPU40は、ステップS111の判定処理の結果をYesとする。この場合、ステップS112に進む。一方、ステップS103の処理において、テンプレート画像データを生成していない場合、CPU40は、ステップS111の判定処理の結果をNoとする。この場合、ステップS113に進む。   Step S111 is processing for determining whether template image data is generated. When template image data is generated in the process of step S103 described above, the CPU 40 sets the result of the determination process of step S111 to Yes. In this case, the process proceeds to step S112. On the other hand, when the template image data is not generated in the process of step S103, the CPU 40 sets the result of the determination process of step S111 to No. In this case, the process proceeds to step S113.

ステップS112は、テンプレートマッチングを用いて比較対象領域を設定する処理である。CPU40は、テンプレート画像データと、1回目の撮像処理により得られた画像データPとを用いたテンプレートマッチング処理を実行する。そして、CPU40は、画像データPに基づく画像のうち、テンプレート画像データに基づく画像に一致する矩形の領域を比較対象領域として設定する。CPU40は、設定した比較対象領域の位置情報を取得し、ワークメモリ42に書き込む。 Step S112 is processing for setting a comparison target region using template matching. CPU40 executes the template image data, the template matching processing using the image data P 1 obtained by the first imaging process. Then, CPU 40, of the image based on the image data P 1, sets a rectangular area that matches the image based on the template image data as a comparison target area. The CPU 40 acquires the position information of the set comparison target area and writes it in the work memory 42.

ステップS111の判定処理の結果がNoとなる場合、言い換えればテンプレート画像データを生成していない場合、ステップS113に進む。   If the result of the determination process in step S111 is No, in other words, if template image data has not been generated, the process proceeds to step S113.

ステップS113は、AFエリアに基づいて比較対象領域を設定する処理である。CPU40は、AFエリアのうち、焦点が合うAFエリアを特定する。そして、CPU40は、特定したAFエリアが位置する分割領域、或いは、AFエリアが跨る分割領域を比較対象領域として設定する。CPU40は、比較対象領域に設定した後、比較対象領域に設定された分割領域の位置情報を取得し、ワークメモリ42に書き込む。   Step S113 is processing for setting a comparison target area based on the AF area. The CPU 40 identifies an AF area in focus among the AF areas. Then, the CPU 40 sets a divided area where the identified AF area is located or a divided area where the AF area is straddled as a comparison target area. After setting the comparison target area, the CPU 40 acquires the position information of the divided area set in the comparison target area and writes it in the work memory 42.

上述したステップS110、ステップS112或いはステップS113のいずれかの処理を行うことで、比較対象領域が設定される。この比較対象領域の設定の後、ステップS114に進む。   The comparison target area is set by performing any one of the processes in step S110, step S112, and step S113 described above. After setting the comparison target area, the process proceeds to step S114.

ステップS114は、比較対象領域の位置情報を用いた画像データPに対するトリミング処理である。画像処理回路26は、バッファメモリ25に記憶された画像処理済みの画像データPを読み出す。そして、画像処理回路26は、設定した比較対象領域の位置情報を用いて、画像データPに対するトリミング処理を行う。このトリミング処理を行うことで、比較対象領域に基づく対象画像データP’が生成される。生成された対象画像データP’は、バッファメモリ25に記憶される。 Step S114 is a trimming process on the image data P 1 using the position information of the comparison regions. The image processing circuit 26 reads the image processed image data P 1 stored in the buffer memory 25. Then, the image processing circuit 26 uses the position information of the comparison regions set, trimming processing on the image data P 1. By performing this trimming process, target image data P 1 ′ based on the comparison target region is generated. The generated target image data P 1 ′ is stored in the buffer memory 25.

ステップS115は、トリミング処理された対象画像データP’及び対象画像データP’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP’のデータ量をワークメモリ42に記憶する。 Step S115 is a process of storing the data amounts of the target image data P 1 ′ and the target image data P 1 ′ subjected to the trimming process. The compression / decompression circuit 27 reads the target image data P 1 ′ stored in the buffer memory 25. Then, the compression / decompression circuit 27 performs a compression process on the read target image data P 1 ′. The target image data P 1 ′ subjected to this compression processing is stored in the buffer memory 25. At the same time, the CPU 40 stores the data amount of the target image data P 1 ′ subjected to the compression process in the work memory 42.

ステップS116は、レリーズボタンの操作が解除されたか否かを判定する処理である。上述したように、レリーズボタン44が操作されると、レリーズボタン44の操作に基づく信号(半押し信号、全押し信号)がCPU40に入力される。このステップS116においては、レリーズボタン44の操作に基づく信号の出力が停止されたか否かによって、レリーズボタン44の操作が解除されたか否かを判定する。   Step S116 is processing for determining whether or not the operation of the release button has been released. As described above, when the release button 44 is operated, a signal (half-press signal, full-press signal) based on the operation of the release button 44 is input to the CPU 40. In this step S116, it is determined whether or not the operation of the release button 44 has been released depending on whether or not the output of the signal based on the operation of the release button 44 has been stopped.

例えば、レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS116の判定処理の結果はNoとなり、ステップS117に進む。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS116の判定処理の結果はYesとなる。この場合には、高速連写に係る処理が終了する。   For example, if the output of the signal based on the operation of the release button 44 is continued, the CPU 40 determines that the operation of the release button 44 has not been released. In this case, the result of the determination process in step S116 is No, and the process proceeds to step S117. On the other hand, when the output of the signal based on the operation of the release button 44 is stopped, the CPU 40 determines that the operation of the release button 44 has been released. In this case, the result of the determination process in step S116 is Yes. In this case, the processing related to high-speed continuous shooting ends.

ステップS117は、撮像処理(2回目)である。この2回目の撮像処理は、撮像光学系15を構成するフォーカシングレンズの位置を固定した撮像処理である。2回目の撮像処理が実行されると、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶された画像信号を読み出し、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データPが生成される。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データPをバッファメモリ25上に複製(コピー)する。そして、複製した画像データPに対して圧縮処理を施す。そして、圧縮処理された画像データPをバッファメモリ25に記憶する。 Step S117 is an imaging process (second time). This second imaging process is an imaging process in which the position of the focusing lens constituting the imaging optical system 15 is fixed. When the second imaging process is executed, the image signal output from the imaging device 18 is stored in the buffer memory 25 via the AFE circuit 19. The image processing circuit 26 reads the image signal stored in the buffer memory 25 and performs image processing such as white balance adjustment, color interpolation, gradation conversion, and color conversion. Thus, the image data P 2 is generated. The compression / decompression circuit 27 duplicates (copies) the image processed image data P 2 stored in the buffer memory 25 onto the buffer memory 25. Then, it performs compression process on the image data P 2 duplicating. Then, the compressed image data P 2 is stored in the buffer memory 25.

ステップS118は、画像データP及び画像データPのデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データPを読み出し、記憶媒体50に記憶する。また、同時に、CPU40は、圧縮処理された画像データPのデータ量をワークメモリ42に書き込む。 Step S118 is a process of storing data amount of the image data P 2 and the image data P 2. The CPU 40 reads the compressed image data P 2 stored in the buffer memory 25 and stores it in the storage medium 50. At the same time, the CPU 40 writes the data amount of the compressed image data P 2 in the work memory 42.

ステップS119は、テンプレートマッチングを用いた比較対象領域の設定が行われているか否かを判定する処理である。テンプレートマッチングを用いて比較対象領域を設定している場合、CPU40は、ステップS119の判定処理の結果をYesとする。この場合、ステップS120に進む。一方、テンプレートマッチングを用いて比較対象領域を設定していない、言い換えれば、検出された顔やAFエリアに基づいて比較対象領域を設定している場合、CPU40は、ステップS119の判定処理の結果をNoとする。この場合、ステップS121に進む。   Step S119 is a process of determining whether or not a comparison target area is set using template matching. When the comparison target area is set using template matching, the CPU 40 sets the result of the determination process in step S119 to Yes. In this case, the process proceeds to step S120. On the other hand, when the comparison target area is not set using template matching, in other words, when the comparison target area is set based on the detected face or AF area, the CPU 40 determines the result of the determination process in step S119. No. In this case, the process proceeds to step S121.

ステップS120は、画像データPに対象画像データP’と一致する箇所があるか否かを判定する処理である。画像処理回路26は、対象画像データP’及び画像データPをそれぞれ読み出す。これら画像データを読み出した後、画像処理回路26は、これら画像データを用いたテンプレートマッチングを行う。テンプレートマッチングにより、画像データPに対象画像データP’と一致する箇所がある場合、画像処理回路26は、ステップS120の判定処理の結果をYesとする。この場合、ステップS121に進む。一方、画像データPに、対象画像データP’が一致する箇所がない場合、画像処理回路26は、ステップS120の判定処理の結果をNoとする。この場合、ステップS124に進む。 Step S120 is a process of determining whether or not there is a location in the image data P 2 that matches the target image data P 1 ′. The image processing circuit 26 reads out target image data P 1 ′ and image data P 2 . After reading out these image data, the image processing circuit 26 performs template matching using these image data. If there is a location that matches the target image data P 1 ′ in the image data P 2 by template matching, the image processing circuit 26 sets the result of the determination process in step S 120 to Yes. In this case, the process proceeds to step S121. On the other hand, when the image data P 2 does not have a portion where the target image data P 1 ′ matches, the image processing circuit 26 sets the result of the determination process in step S120 to No. In this case, the process proceeds to step S124.

ステップS121は、画像データPに対するトリミング処理である。顔の領域が含まれる分割領域を比較対象領域として設定している場合や、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定している場合には、画像処理回路26は、比較対象領域として設定された分割領域の位置情報に基づいて、画像データPに対するトリミング処理を実行する。この場合、比較対象領域の位置は固定となる。 Step S121 is a trimming process on image data P 2. When the divided area including the face area is set as the comparison target area, or when the divided area including the focused AF area is set as the comparison target area, the image processing circuit 26 compares the comparison area. based on the position information of the divided area set as a target area, it executes the trimming process on the image data P 2. In this case, the position of the comparison target area is fixed.

一方、テンプレートマッチングを行って画像データPに対象画像データP’と一致する箇所があれば、その一致する箇所が比較対象領域となる。したがって、画像処理回路26は、テンプレートマッチングにより取得された比較対象領域の位置情報に基づいて、画像データPに対するトリミング処理を実行する。このトリミング処理を行うことで、対象画像データP’が生成される。この生成された対象画像データP’は、バッファメモリ25に記憶される。この場合、テンプレート画像に含まれる被写体の位置が変化(被写体が移動)している場合もあるので、この場合には、比較対象領域は必ずしも固定されない。 On the other hand, if template matching is performed and the image data P 2 has a portion that matches the target image data P 1 ′, the matching portion becomes the comparison target region. Accordingly, the image processing circuit 26 based on the position information of the comparison regions obtained by template matching, executes the trimming process on the image data P 2. By performing this trimming process, target image data P 2 ′ is generated. The generated target image data P 2 ′ is stored in the buffer memory 25. In this case, since the position of the subject included in the template image may have changed (the subject has moved), in this case, the comparison target region is not necessarily fixed.

ステップS122は、対象画像データP’及び対象画像データP’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP’のデータ量をワークメモリ42に記憶する。 Step S122 is a process of storing the data amounts of the target image data P 2 ′ and the target image data P 2 ′. The compression / decompression circuit 27 reads the target image data P 2 ′ stored in the buffer memory 25. Then, the compression / decompression circuit 27 performs a compression process on the read target image data P 2 ′. The target image data P 2 ′ subjected to this compression processing is stored in the buffer memory 25. At the same time, the CPU 40 stores the data amount of the compressed target image data P 2 ′ in the work memory 42.

ステップS123は、対象画像データP’及び対象画像データP’間のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した対象画像データP’及び対象画像データP’のデータ量をそれぞれ読み出し、これら対象画像データのデータ量から、データ量の変化量Δ12を求める。詳細には、CPU40は、対象画像データP’のデータ量から対象画像データP’のデータ量を減算し、データ量の変化量Δ12を求める。 Step S123 is a process of calculating a change amount of the data amount between the target image data P 1 ′ and the target image data P 2 ′. CPU40 reads the data of the target image data P 1 stored in the work memory 42 'and the target image data P 2', respectively, from the data amount of the target image data, obtains the data amount of the variation delta 12. Specifically, CPU 40 subtracts the data amount of the 'target image data P 1 from the data of' target image data P 2, obtains the data amount of the variation delta 12.

上述したステップS120における判定処理がNoとなる場合、つまり、テンプレートマッチングを行っても画像データPにおいて対象画像データP’と一致する箇所がない場合、ステップS124に進む。 If the determination process in Step S120 described above is No, that is, if there is no portion that matches the target image data P 1 ′ in the image data P 2 even after performing template matching, the process proceeds to Step S124.

ステップS124は、画像データP及び画像データP間のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した画像データP及び画像データPのデータ量をそれぞれ読み出し、これら画像データのデータ量から、データ量の変化量Δ12を求める。 Step S124 is a process of calculating the data amount of variation between the image data P 1 and the image data P 2. CPU40 reads data amount of the image data P 1 and the image data P 2 stored in the work memory 42, respectively, from the data amount of the image data, obtains the data amount of the variation delta 12.

ステップS125は、データ量の変化量が基準範囲を超過しているか否かを判定する処理である。ステップS123又はステップS124により求めたデータ量の変化量Δ12が基準範囲を越えている場合、CPU40は、ステップS125の判定処理の結果をYesとし、ステップS126に進む。一方、ステップS123又はステップS124により求めたデータ量の変化量Δ12が基準範囲以下となる場合、CPU40は、ステップS125の判定処理の結果をNoとし、ステップS129に進む。 Step S125 is processing for determining whether or not the amount of change in the data amount exceeds the reference range. If step S123 or the data amount of change amount delta 12 determined in step S124 exceeds the reference range, CPU 40 is the result of the determination process of step S125 and Yes, the process proceeds to step S126. On the other hand, if the data amount of change amount delta 12 determined in step S123 or step S124 is equal to or less than the reference range, CPU 40 is the result of the determination processing in step S125 and No, the process proceeds to step S129.

つまり、ステップS125の判定処理の結果がNoとなる場合には、データ量の変化量は、誤差の範囲に含まれると推測できる。したがって、フォーカシングレンズの位置は、2回目の撮像処理におけるフォーカシングレンズの位置に固定される。なお、この基準範囲は、予め実験、統計などにより求められる範囲であることが望ましい。   That is, when the result of the determination process in step S125 is No, it can be estimated that the change amount of the data amount is included in the error range. Therefore, the position of the focusing lens is fixed to the position of the focusing lens in the second imaging process. The reference range is preferably a range obtained in advance by experiments, statistics, and the like.

ステップS126は、データ量の変化量が低下しているか否かを判定する処理である。ステップS123及びステップS124にて求めたデータ量の変化量Δ12が負の値となる場合、CPU40は、データ量の変化量が低下したと判定する。この場合、CPU40は、ステップS126の判定処理の結果をYesとする。この場合、ステップS127に進む。一方、データ量の変化量Δ12が正の値となる場合、CPU40は、データ量の変化量が増加したと判定する。この場合、CPU40は、ステップS126の判定処理の結果をNoとし、ステップS129に進む。 Step S126 is processing for determining whether or not the amount of change in the data amount has decreased. If step S123 and data amount of change amount delta 12 obtained in step S124 is a negative value, it is determined that the CPU40, the amount of change in the data amount has been reduced. In this case, the CPU 40 sets the result of the determination process in step S126 to Yes. In this case, the process proceeds to step S127. On the other hand, if the amount of change delta 12 data amount is a positive value, it is determined that the CPU40, the amount of change in the data amount is increased. In this case, the CPU 40 sets the result of the determination process in step S126 to No, and proceeds to step S129.

ステップS127は、フォーカシングレンズの移動量を算出する処理である。CPU40は、ステップS123又はステップS124により求めたデータ量の変化量を用いて、フォーカシングレンズの移動量を算出する。このフォーカシングレンズの移動量の算出においては、例えば焦点距離など、撮像光学系15に固有の特性が考慮される。   Step S127 is processing for calculating the amount of movement of the focusing lens. The CPU 40 calculates the moving amount of the focusing lens using the data amount change obtained in step S123 or step S124. In calculating the amount of movement of the focusing lens, characteristics unique to the imaging optical system 15 such as the focal length are taken into consideration.

ステップS128は、フォーカシングレンズを移動させる処理である。CPU40は、ステップS127にて求めた移動量に基づいて、レンズ駆動機構21を介してフォーカシングレンズを移動させる。このとき、フォーカシングレンズの移動方向は、予め至近端方向又は無限端方向のいずれかに設定される。   Step S128 is processing to move the focusing lens. The CPU 40 moves the focusing lens via the lens driving mechanism 21 based on the movement amount obtained in step S127. At this time, the moving direction of the focusing lens is set in advance in either the closest end direction or the infinite end direction.

例えば、撮影により得られる画像データのデータ量は、焦点が合わない画像データに比べて、焦点が合う画像データのデータ量は大きくなる。つまり、データ量の変化量が負の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データに比べて主要被写体に焦点が合っていない画像データであると推定できる。一方、データ量の変化量が正の値となる場合には、2回目の撮像処理で得られた画像データは、1回目の撮像処理により得られた画像データよりも主要被写体に焦点が合う画像データであると推定できる。したがって、データ量の変化量が負の値となる場合には、上述したように、主要被写体に焦点を合わせるようにフォーカシングレンズを移動させる制御を行う。   For example, the data amount of image data obtained by shooting is larger than that of image data that is not focused. That is, when the change amount of the data amount is a negative value, the image data obtained by the second imaging process is focused on the main subject compared to the image data obtained by the first imaging process. It can be estimated that the image data is not. On the other hand, when the change amount of the data amount is a positive value, the image data obtained by the second imaging process is focused on the main subject more than the image data obtained by the first imaging process. It can be estimated to be data. Therefore, when the amount of change in the data amount becomes a negative value, as described above, control is performed to move the focusing lens so as to focus on the main subject.

ステップS129は、レリーズボタンの操作が解除されたか否かを判定する処理である。レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS129の判定処理の結果はNoとなり、ステップS130に進む。つまり、3回目以降の撮像処理が実行される。   Step S129 is processing to determine whether or not the operation of the release button has been released. If the output of the signal based on the operation of the release button 44 is continued, the CPU 40 determines that the operation of the release button 44 has not been released. In this case, the result of the determination process in step S129 is No, and the process proceeds to step S130. That is, the third and subsequent imaging processes are executed.

一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS129の判定はYesとなる。この場合には、高速連写に係る処理が終了する。   On the other hand, when the output of the signal based on the operation of the release button 44 is stopped, the CPU 40 determines that the operation of the release button 44 has been released. In this case, the determination in step S129 is Yes. In this case, the processing related to high-speed continuous shooting ends.

以下、3回目以降の撮像処理について説明する。なお、3回目以降の撮像処理が実行された後の処理の流れは同一の処理が実行されることから、図9においては、符号n(n≧3)を用いて説明している。   Hereinafter, the third and subsequent imaging processes will be described. Since the same process is executed after the third and subsequent imaging processes are performed, in FIG. 9, the description is made using the symbol n (n ≧ 3).

ステップS130は、3回目の撮像処理である。この撮像処理により、撮像素子18から出力される画像信号は、AFE回路19を介してバッファメモリ25に記憶される。画像処理回路26は、バッファメモリ25に記憶される画像信号を読み出し、ホワイトバランス調整、色補間、階調変換、色変換などの画像処理を施す。これにより、画像データPが生成される。圧縮/伸長回路27は、バッファメモリ25に記憶された画像処理済みの画像データPをバッファメモリ25上に複製(コピー)する。そして、複製した画像データPに対して圧縮処理を施す。そして、圧縮処理された画像データPをバッファメモリ25に記憶する。 Step S130 is the third imaging process. By this imaging process, the image signal output from the image sensor 18 is stored in the buffer memory 25 via the AFE circuit 19. The image processing circuit 26 reads an image signal stored in the buffer memory 25 and performs image processing such as white balance adjustment, color interpolation, gradation conversion, and color conversion. Thus, the image data P 3 is generated. The compression / decompression circuit 27 copies (copies) the image processed image data P 3 stored in the buffer memory 25 onto the buffer memory 25. Then, it performs compression process on the image data P 3 duplicating. Then, the compressed image data P 3 is stored in the buffer memory 25.

ステップS131は、画像データP及び画像データPのデータ量を記憶する処理である。CPU40は、バッファメモリ25に記憶された圧縮処理済みの画像データPを読み出し、記憶媒体50に記憶する。また、同時に、CPU40は、圧縮処理された画像データPのデータ量をワークメモリ42に書き込む。 Step S131 is a process of storing data amount of the image data P 3 and the image data P 3. The CPU 40 reads the compressed image data P 3 stored in the buffer memory 25 and stores it in the storage medium 50. At the same time, the CPU 40 writes the data amount of the compressed image data P 3 in the work memory 42.

ステップS132は、テンプレートマッチングを用いた比較対象領域の設定が行われているか否かを判定する処理である。テンプレートマッチングを用いて比較対処領域を設定している場合、CPU40は、ステップS132の判定処理の結果をYesとする。この場合、ステップS133に進む。一方、テンプレートマッチングを用いて比較対象領域を設定していない、言い換えれば、検出された顔やAFエリアに基づいて比較対象領域を設定している場合、CPU40は、ステップS132の判定処理の結果をNoとする。この場合、ステップS134に進む。   Step S132 is a process of determining whether or not a comparison target area is set using template matching. When the comparison handling area is set using template matching, the CPU 40 sets the result of the determination process in step S132 to Yes. In this case, the process proceeds to step S133. On the other hand, when the comparison target area is not set using template matching, in other words, when the comparison target area is set based on the detected face or AF area, the CPU 40 determines the result of the determination process in step S132. No. In this case, the process proceeds to step S134.

ステップS133は、画像データPに対象画像データP’と一致する箇所があるか否かを判定する処理である。画像処理回路26は、対象画像データP’及び画像データPをそれぞれ読み出す。これら画像データを読み出した後、画像処理回路26は、これら画像データを用いたテンプレートマッチングを行う。テンプレートマッチングにより、画像データPに対象画像データP’と一致する箇所がある場合、画像処理回路26は、ステップS133の判定処理の結果をYesとする。この場合、ステップS134に進む。一方、画像データPに、画像データP’と一致する箇所がない場合、画像処理回路26は、ステップS133の判定処理の結果をNoとする。この場合、ステップS137に進む。 Step S133 is a process of determining whether or not there is a location in the image data P 3 that matches the target image data P 1 ′. The image processing circuit 26 reads the target image data P 1 ′ and the image data P 3 . After reading out these image data, the image processing circuit 26 performs template matching using these image data. If there is a location that matches the target image data P 1 ′ in the image data P 3 by template matching, the image processing circuit 26 sets the result of the determination process in step S 133 to Yes. In this case, the process proceeds to step S134. On the other hand, when the image data P 3 does not have a portion that matches the image data P 1 ′, the image processing circuit 26 sets the result of the determination process in step S133 to No. In this case, the process proceeds to step S137.

ステップS134は、画像データPに対するトリミング処理である。顔の領域が含まれる分割領域を比較対象領域として設定している場合や、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定している場合には、画像処理回路26は、比較対象領域として設定された分割領域の位置情報に基づいて、画像データPに対するトリミング処理を実行する。この場合、比較対象領域の位置は固定となる。 Step S134 is a trimming process on image data P 3. When the divided area including the face area is set as the comparison target area, or when the divided area including the focused AF area is set as the comparison target area, the image processing circuit 26 compares the comparison area. based on the position information of the divided area set as a target area, it executes the trimming process on the image data P 3. In this case, the position of the comparison target area is fixed.

一方、テンプレートマッチングを行って画像データPに対象画像データP’と一致する箇所があれば、その一致する箇所が比較対象領域となる。したがって、画像処理回路26は、テンプレートマッチングにより取得された比較対象領域の位置情報に基づいて、画像データPに対するトリミング処理を実行する。このトリミング処理を行うことで、対象画像データP’が生成される。この生成された対象画像データP’は、バッファメモリ25に記憶される。この場合、テンプレート画像に含まれる被写体の位置が変化(被写体が移動)している場合もあるので、この場合には、比較対象領域は必ずしも固定されない。 On the other hand, if template matching is performed and the image data P 3 has a location that matches the target image data P 1 ′, the matching location becomes the comparison target region. Accordingly, the image processing circuit 26 based on the position information of the comparison regions obtained by template matching, executes the trimming process on the image data P 3. By performing this trimming process, target image data P 3 ′ is generated. The generated target image data P 3 ′ is stored in the buffer memory 25. In this case, since the position of the subject included in the template image may have changed (the subject has moved), in this case, the comparison target region is not necessarily fixed.

ステップS135は、トリミング処理された対象画像データP’及び対象画像データP’のデータ量を記憶する処理である。圧縮/伸長回路27は、バッファメモリ25に記憶された対象画像データP’を読み出す。そして、圧縮/伸長回路27は、読み出した対象画像データP’に対する圧縮処理を実行する。この圧縮処理が施された対象画像データP’はバッファメモリ25に記憶される。同時に、CPU40は、圧縮処理された対象画像データP’のデータ量をワークメモリ42に記憶する。 Step S135 is a process of storing the data amounts of the target image data P 3 ′ and the target image data P 3 ′ subjected to the trimming process. The compression / decompression circuit 27 reads the target image data P 3 ′ stored in the buffer memory 25. Then, the compression / decompression circuit 27 performs a compression process on the read target image data P 3 ′. The target image data P 3 ′ subjected to this compression processing is stored in the buffer memory 25. At the same time, the CPU 40 stores the data amount of the target image data P 3 ′ subjected to the compression process in the work memory 42.

ステップS136は、対象画像データP’、対象画像データP’及び対象画像データP’のデータ量の変化量を算出する処理である。CPU40は、ワークメモリ42に記憶した対象画像データP’、対象画像データP’及び対象画像データP’のデータ量をそれぞれ読み出す。そして、CPU40は、データ量の変化量Δ13、Δ23を求める。詳細には、CPU40は、対象画像データP’のデータ量から対象画像データP’のデータ量を減算することでデータ量の変化量Δ13を求め、対象画像データP’のデータ量から対象画像データP’のデータ量を減算することでデータ量の変化量Δ23を求める。 Step S136 is a process of calculating the amount of change in the data amount of the target image data P 1 ′, the target image data P 2 ′, and the target image data P 3 ′. The CPU 40 reads out the data amounts of the target image data P 1 ′, target image data P 2 ′, and target image data P 3 ′ stored in the work memory 42, respectively. Then, the CPU 40 obtains data amount changes Δ 13 and Δ 23 . Specifically, CPU 40 obtains a change amount delta 13 data amount by subtracting the data amount of the 'target image data P 1 from the data of' target image data P 3, the data amount of the target image data P 3 ' subtracting the data amount of the target image data P 2 'from obtaining the change amount delta 23 data amount.

一方、上述したステップS133における判定処理がNoとなる場合、つまり、テンプレートマッチングを行っても画像データPにおいて対象画像データP’と一致することがない場合、ステップS137に進む。 On the other hand, if the determination processing in step S133 described above is No, ie, if they fit a target image data P 1 'in the image data P 3 even if the template matching, the process proceeds to step S137.

ステップS137は、画像データP、画像データP及び画像データPのデータ量の変化量を算出する処理である。CPU40は、ワークメモリに記憶した画像データP、画像データP及び画像データPのデータ量をそれぞれ読み出し、これら画像データのデータ量から、データ量の変化量を求める。詳細には、CPU40は、画像データPのデータ量から画像データPのデータ量を減算することでデータ量の変化量Δ13を求め、画像データPのデータ量から画像データPのデータ量を減算することでデータ量の変化量Δ23を求める。 Step S137 is a process of calculating the amount of change in the data amount of the image data P 1 , the image data P 2, and the image data P 3 . The CPU 40 reads the data amounts of the image data P 1 , the image data P 2, and the image data P 3 stored in the work memory, and obtains the change amount of the data amount from the data amounts of these image data. Specifically, CPU 40 obtains a change amount delta 13 data amount by subtracting the data amount of the image data P 1 from the data amount of the image data P 3, the data amount of the image data P 3 of the image data P 2 obtaining a variation delta 23 data amount by subtracting the amount of data.

ステップS138は、データ量の変化量が基準範囲を超過しているか否かを判定する処理である。CPU40は、ステップS136又はステップS137において求めたデータ量の変化量のうち、データ量の変化量Δ23が基準範囲を超過しているか否かを判定する。例えばデータ量の変化量Δ23が基準範囲を超過している場合、CPU40は、ステップS138の判定処理の結果をYesとし、ステップS139に進む。一方、データ量の変化量Δ23が基準範囲以下であれば、CPU40は、ステップS138の判定処理の結果をNoとし、ステップS145に進む。この場合、フォーカシングレンズの位置が固定されたままとなる。 Step S138 is processing for determining whether or not the amount of change in the data amount exceeds the reference range. CPU40, among the calculated data amount of change amount in step S136 or step S137, determines whether the change amount delta 23 of the data amount exceeds a reference range. For example, if the data amount of the change amount delta 23 exceeds the reference range, CPU 40 is the result of the determination process of step S138 and Yes, the process proceeds to step S139. On the other hand, if the change amount delta 23 amount of data reference range or less, CPU 40 is the result of the determination processing in step S138 and No, the process proceeds to step S145. In this case, the position of the focusing lens remains fixed.

ステップS139は、データ量の変化量が低下したか否かを判定する処理である。CPU40は、求めたデータ量の変化量Δ13が、データ量の変化量Δ23に対して小さくなるか否かを判定する。例えばデータ量の変化量Δ13がデータ量の変化量Δ23以下となる場合、CPU40は、ステップS139の判定処理の結果をYesとする。この場合、ステップS140に進む。一方、データ量の変化量Δ13がデータ量の変化量Δ23を超過する場合、CPU40は、ステップS139の判定処理の結果をNoとする。この場合、ステップS143に進む。 Step S139 is processing for determining whether or not the amount of change in data amount has decreased. CPU40 are variations of delta 13 of the obtained data amount, determines whether or not reduced with respect to the data amount of variation delta 23. For example, when the change amount delta 13 data amount is less variation delta 23 amount of data, CPU 40 is a Yes result in decision process in step S139. In this case, the process proceeds to step S140. On the other hand, when the data amount change amount Δ 13 exceeds the data amount change amount Δ 23 , the CPU 40 sets the result of the determination processing in step S 139 to No. In this case, the process proceeds to step S143.

ステップS140は、前回の撮像処理においてレンズ固定であるか否かを判定する処理である。例えば2回目の撮像処理において、フォーカシングレンズの位置を固定した場合、ステップS140の判定処理の結果をYesとする。この場合、ステップS145に進む。一方、2回目の撮像処理において、フォーカシングレンズの位置を移動させた場合には、ステップS140の判定処理の結果をNoとする。この場合、ステップS141に進む。   Step S140 is a process for determining whether or not the lens is fixed in the previous imaging process. For example, in the second imaging process, when the position of the focusing lens is fixed, the result of the determination process in step S140 is Yes. In this case, the process proceeds to step S145. On the other hand, when the position of the focusing lens is moved in the second imaging process, the result of the determination process in step S140 is No. In this case, the process proceeds to step S141.

ステップS141は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データの変化量Δ23を用いてフォーカシングレンズの移動量を算出する。 Step S141 is processing for calculating the amount of movement of the focusing lens. CPU40 calculates the movement amount of the focusing lens by using the amount of change delta 23 data.

ステップS142はフォーカシングレンズを同一方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、フォーカシングレンズをステップS128におけるフォーカシングレンズの移動方向と同一方向に移動させる。なお、このときのフォーカシングレンズの移動量はステップS141にて求めた移動量である。   Step S142 is a process of moving the focusing lens in the same direction. The CPU 40 moves the focusing lens through the lens driving mechanism 21 in the same direction as the moving direction of the focusing lens in step S128. Note that the amount of movement of the focusing lens at this time is the amount of movement obtained in step S141.

ステップS139において、データ量の変化量が低下していないと判定された場合、ステップS143に進む。   If it is determined in step S139 that the change amount of the data amount has not decreased, the process proceeds to step S143.

ステップS143は、フォーカシングレンズの移動量を算出する処理である。CPU40は、データの変化量Δ23を用いてフォーカシングレンズの移動量を算出する。 Step S143 is processing for calculating the amount of movement of the focusing lens. CPU40 calculates the movement amount of the focusing lens by using the amount of change delta 23 data.

ステップS144は、フォーカシングレンズを逆方向に移動させる処理である。CPU40は、レンズ駆動機構21を介して、フォーカシングレンズをステップS128におけるフォーカシングレンズの移動方向と逆方向に移動させる。なお、このときのフォーカシングレンズの移動量はステップS141にて求めた移動量である。   Step S144 is a process of moving the focusing lens in the reverse direction. The CPU 40 moves the focusing lens through the lens driving mechanism 21 in the direction opposite to the moving direction of the focusing lens in step S128. Note that the amount of movement of the focusing lens at this time is the amount of movement obtained in step S141.

ステップS145は、レリーズボタンの操作が解除されたか否かを判定する処理である。レリーズボタン44の操作に基づく信号の出力が継続されていれば、CPU40は、レリーズボタン44の操作が解除されていないと判定する。この場合、ステップS145の判定処理の結果はNoとなり、ステップS130に進む。つまり、4回目以降の撮像処理が実行される。一方、レリーズボタン44の操作に基づく信号の出力が停止された場合、CPU40は、レリーズボタン44の操作が解除されたと判定する。この場合、ステップS145の判定はYesとなる。この場合には、高速連写に係る処理が終了する。   Step S145 is processing for determining whether or not the operation of the release button has been released. If the output of the signal based on the operation of the release button 44 is continued, the CPU 40 determines that the operation of the release button 44 has not been released. In this case, the result of the determination process in step S145 is No, and the process proceeds to step S130. That is, the fourth and subsequent imaging processes are executed. On the other hand, when the output of the signal based on the operation of the release button 44 is stopped, the CPU 40 determines that the operation of the release button 44 has been released. In this case, the determination in step S145 is Yes. In this case, the processing related to high-speed continuous shooting ends.

以降、ステップS130からステップS145の処理がレリーズボタンの操作が解除されるまで繰り返し実行される。   Thereafter, the processing from step S130 to step S145 is repeatedly executed until the release button is released.

このように、本実施形態においては、対象画像データに対する圧縮処理を行ったときのデータ量の変化に基づいて、各撮像処理におけるフォーカス制御が実行される。ここで、人物の顔を検出している場合には、検出された顔の領域が含まれる分割領域が比較対象領域として設定される。同様にして、焦点が合うAFエリアがあれば、焦点が合うAFエリアが含まれる分割領域を比較対象領域として設定される。したがって、このような場合には、人の顔など、予め焦点を合わせた領域に対して、従来のフォーカス制御を用いなくとも、適切にフォーカス制御を行うことが可能となる。   Thus, in the present embodiment, focus control in each imaging process is executed based on the change in the data amount when the compression process is performed on the target image data. Here, when a human face is detected, a divided area including the detected face area is set as a comparison target area. Similarly, if there is an in-focus AF area, a divided area including the in-focus AF area is set as a comparison target area. Therefore, in such a case, it is possible to appropriately perform focus control on a previously focused region such as a human face without using conventional focus control.

また、人物の顔以外の物体を主要被写体とした高速連写を行う場合には、上述した被写体検出処理を行っても、主要被写体となる物体を検出することができないこともある。例えば高速連写を行う前に、焦点を合わせた領域を主要被写体の領域として設定した場合、被写体検出にて主要被写体が検出されない場合、単なる領域に対するデータ量の変化量の比較を行うことになる。したがって、ユーザの意図する領域に焦点を合わせた画像を得ることができなくなる。しかしながら、本実施形態では、AF処理を行ったときに得られる画像データからコントラストの高い領域を主要被写体が含まれる領域として設定することで、ユーザの意図する領域内の特徴量を得ることができる。したがって、高速連写時には、ユーザの意図する領域を用いたテンプレートマッチングを行うことで、得られる画像において、ユーザの意図する領域の位置を特定することができ、その特定された領域に基づく画像データのデータ量の変化量を用いることで、主要被写体が人物でない場合や、主要被写体の位置が変化した場合であっても、主要被写体と思われる領域に対して、焦点を合わせたフォーカス制御を適切に行うことが可能である。   In addition, when performing high-speed continuous shooting using an object other than a human face as a main subject, the object that is the main subject may not be detected even if the subject detection process described above is performed. For example, if the focused area is set as the main subject area before performing high-speed continuous shooting, and if the main subject is not detected in the subject detection, the amount of change in the data amount relative to the area is simply compared. . Therefore, it becomes impossible to obtain an image focused on the area intended by the user. However, in the present embodiment, by setting an area with high contrast as an area including the main subject from image data obtained when AF processing is performed, it is possible to obtain a feature amount in the area intended by the user. . Therefore, during high-speed continuous shooting, by performing template matching using the area intended by the user, the position of the area intended by the user can be identified in the obtained image, and image data based on the identified area By using the amount of change in the amount of data, even if the main subject is not a person or when the position of the main subject changes, focus control that focuses on the area that seems to be the main subject is appropriate. Can be done.

本実施形態では、AF処理の際に得られる画像データのコントラスト情報から主要被写体の領域を特定し、特定した領域に基づいたテンプレート画像を生成しているが、予めユーザの入力操作が行われた領域に基づいてテンプレート画像を生成することも可能である。また、予めテンプレート画像を複数記憶させておき、複数のテンプレート画像のいずれかを用いることも可能である。   In this embodiment, the area of the main subject is specified from the contrast information of the image data obtained at the time of AF processing, and a template image based on the specified area is generated. However, a user input operation has been performed in advance. It is also possible to generate a template image based on the region. It is also possible to store a plurality of template images in advance and use any of the plurality of template images.

本実施形態では、検出された顔が含まれる分割領域を比較対象領域として設定した場合、比較対象領域の位置は固定となる。しかしながら、比較対象領域として設定される分割領域に基づいて生成される対象画像データを用いたテンプレートマッチングを新たに取得される画像データに対して実行することで、検出された顔が含まれる分割領域を特定してもよい。つまり、上述した動作を行うことで、高速連写中に、検出される顔の位置が変化する場合にも対応することが可能となる。この場合、顔の位置が複数の分割領域に跨って位置する場合もある。したがって、トリミング処理を行う領域は、顔が跨って位置する分割領域ではなく、テンプレートマッチングを行う際に用いる比較対象領域の大きさと同一の大きさの領域とすればよい。   In the present embodiment, when a divided region including the detected face is set as a comparison target region, the position of the comparison target region is fixed. However, by performing template matching using target image data generated based on the divided region set as the comparison target region on newly acquired image data, the divided region including the detected face May be specified. That is, by performing the above-described operation, it is possible to cope with a case where the detected face position changes during high-speed continuous shooting. In this case, the face position may be located across a plurality of divided areas. Therefore, the area to be subjected to the trimming process may be an area having the same size as the comparison target area used when performing template matching, not a divided area where the face is located.

本実施形態では、各撮像処理により得られた画像データを用いているが、これに限定される必要はなく、デジタルカメラにおいては、得られた画像データを縮小した画像データを用いて顔検出処理を行っている場合もあるので、本実施形態のフォーカス制御を、縮小した画像データを用いて行うことも可能である。   In this embodiment, image data obtained by each imaging process is used. However, the present invention is not limited to this, and in a digital camera, face detection processing is performed using image data obtained by reducing the obtained image data. Therefore, the focus control of the present embodiment can be performed using reduced image data.

本発明では、デジタルカメラにおけるフォーカス制御を、位相差検出方式のフォーカス制御としているが、これに限定される必要はなく、コントラスト検出方式のフォーカス制御としてもよい。   In the present invention, the focus control in the digital camera is the phase difference detection type focus control. However, the present invention is not limited to this and may be the contrast detection type focus control.

本発明のデジタルカメラとして、クイックリターンミラーを有するデジタルカメラを例にあげて説明しているが、これに限定する必要はなく、クイックリターンミラーを搭載していない、コンパクトカメラ、カメラ機能を備えた携帯電話機の他、コンピュータに搭載又は接続されたカメラなどであってもよい。   As a digital camera of the present invention, a digital camera having a quick return mirror is described as an example. However, the present invention is not limited to this, and a compact camera not equipped with a quick return mirror has a camera function. In addition to a mobile phone, a camera mounted on or connected to a computer may be used.

10…デジタルカメラ、18…撮像素子、26…画像処理回路、27…圧縮/伸長回路、40…CPU、41…不揮発性メモリ、42…ワークメモリ、47…テンプレート生成部、48…トリミング部、51…顔検出部、52…領域設定部、53…データ比較部、54…焦点制御部   DESCRIPTION OF SYMBOLS 10 ... Digital camera, 18 ... Image sensor, 26 ... Image processing circuit, 27 ... Compression / decompression circuit, 40 ... CPU, 41 ... Non-volatile memory, 42 ... Work memory, 47 ... Template generation part, 48 ... Trimming part, 51 ... Face detection unit, 52 ... Area setting unit, 53 ... Data comparison unit, 54 ... Focus control unit

Claims (9)

被写体光を取り込む撮像光学系と、
被写体が含まれる第1の画像を生成する生成部と、
前記撮像光学系により取り込まれる被写体光に基づいて連続して取得される第2の画像に対して前記第1の画像を用いたテンプレートマッチングを行うことで、前記第2の画像のそれぞれから切り出す領域を対象領域として設定する設定部と、
前記第2の画像から切り出した前記対象領域の画像のそれぞれに対して圧縮処理を行う圧縮部と、
前記圧縮処理された前記対象領域の画像のデータ量の変化に基づいて、前記撮像光学系におけるフォーカスポジションを制御する制御部と、
を備えたことを特徴とする焦点調節装置。
An imaging optical system that captures subject light;
A generating unit that generates a first image including a subject;
Regions cut out from each of the second images by performing template matching using the first image on the second images continuously acquired based on the subject light captured by the imaging optical system A setting unit for setting as a target area;
A compression unit that performs compression processing on each of the images of the target area cut out from the second image;
A control unit that controls a focus position in the imaging optical system based on a change in the data amount of the compressed image of the target area;
A focus adjustment device comprising:
請求項1に記載の焦点調節装置において、
前記生成部は、前記第2の画像を取得する前に取り込まれる第3の画像の少なくともコントラスト情報を用いて、前記第3の画像に含まれる前記被写体の画像を前記第1の画像として生成することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 1,
The generation unit generates an image of the subject included in the third image as the first image by using at least contrast information of the third image captured before acquiring the second image. A focusing device characterized by that.
請求項1又は請求項2に記載の焦点調節装置において、
前記被写体を検出する被写体検出部を、さらに備え、
前記設定部は、前記第2の画像を取得したときに前記被写体検出部により前記被写体を検出できない場合に、前記第1の画像を用いたテンプレートマッチングを行うことで、前記対象領域を設定することを特徴とする焦点調節装置。
The focus adjustment device according to claim 1 or 2,
A subject detection unit for detecting the subject;
The setting unit sets the target region by performing template matching using the first image when the subject detection unit cannot detect the subject when the second image is acquired. Focus adjustment device characterized by.
請求項3に記載の焦点調節装置において、
前記設定部は、前記被写体検出部により前記被写体を検出した場合に、前記検出した被写体の領域を前記対象領域として設定することを特徴とする焦点調節装置。
The focus adjustment apparatus according to claim 3.
The focus adjustment apparatus, wherein the setting unit sets an area of the detected subject as the target region when the subject is detected by the subject detection unit.
請求項1から請求項4のいずれか1項に記載の焦点調節装置において、
画像を取得する範囲に対応して設けられる複数の焦点検出エリアを用いて、前記撮像光学系の焦点状態を検出する焦点検出部を備え、
前記設定部は、前記生成部により前記第1の画像が生成されていない場合に、前記複数の焦点検出エリアのうち、焦点が合う焦点検出エリアが含まれる領域を前記対象領域として設定することを特徴とする焦点調節装置。
In the focus adjustment apparatus according to any one of claims 1 to 4,
Using a plurality of focus detection areas provided corresponding to a range for acquiring an image, and including a focus detection unit that detects a focus state of the imaging optical system;
The setting unit sets, as the target region, a region including a focus detection area that is in focus among the plurality of focus detection areas, when the first image is not generated by the generation unit. Focus adjustment device characterized.
請求項1から請求項5のいずれか1項に記載の焦点調節装置において、
前記制御部は、ユーザからの指示に従って前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。
The focus adjustment apparatus according to any one of claims 1 to 5,
The focus adjustment apparatus, wherein the control unit performs initial adjustment of the focus position in accordance with an instruction from a user.
請求項1から請求項5のいずれか1項に記載の焦点調節装置において、
前記制御部は、位相差検出方式により前記フォーカスポジションの初期調節を行うことを特徴とする焦点調節装置。
The focus adjustment apparatus according to any one of claims 1 to 5,
The focus adjustment apparatus, wherein the control unit performs initial adjustment of the focus position by a phase difference detection method.
請求項1から請求項7のいずれか1項に記載の焦点調節装置において、
前記制御部は、前記データ量の変化量が基準範囲を超過したときに、前記フォーカスボジションを変位させることを特徴とする焦点調節装置。
The focus adjustment apparatus according to any one of claims 1 to 7,
The focus adjustment apparatus, wherein the control unit displaces the focus position when a change amount of the data amount exceeds a reference range.
取り込まれる被写体光に基づく画像を連続して出力することが可能な撮像素子と、
前記撮像素子から出力される画像に基づいて、前記撮像光学系のフォーカスポジションを制御する、請求項1から請求項8のいずれか1項に記載の焦点調節装置と、
を備えたことを特徴とする撮像装置。
An image sensor capable of continuously outputting images based on captured subject light; and
The focus adjustment apparatus according to any one of claims 1 to 8, wherein a focus position of the imaging optical system is controlled based on an image output from the imaging element.
An imaging apparatus comprising:
JP2013131566A 2013-06-24 2013-06-24 Focus adjustment device and imaging device Pending JP2015004922A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013131566A JP2015004922A (en) 2013-06-24 2013-06-24 Focus adjustment device and imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013131566A JP2015004922A (en) 2013-06-24 2013-06-24 Focus adjustment device and imaging device

Publications (1)

Publication Number Publication Date
JP2015004922A true JP2015004922A (en) 2015-01-08

Family

ID=52300845

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013131566A Pending JP2015004922A (en) 2013-06-24 2013-06-24 Focus adjustment device and imaging device

Country Status (1)

Country Link
JP (1) JP2015004922A (en)

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving

Cited By (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11487288B2 (en) 2017-03-23 2022-11-01 Tesla, Inc. Data synthesis for autonomous control systems
US12020476B2 (en) 2017-03-23 2024-06-25 Tesla, Inc. Data synthesis for autonomous control systems
US11681649B2 (en) 2017-07-24 2023-06-20 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11403069B2 (en) 2017-07-24 2022-08-02 Tesla, Inc. Accelerated mathematical engine
US12086097B2 (en) 2017-07-24 2024-09-10 Tesla, Inc. Vector computational unit
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11797304B2 (en) 2018-02-01 2023-10-24 Tesla, Inc. Instruction set architecture for a vector computational unit
US11734562B2 (en) 2018-06-20 2023-08-22 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11841434B2 (en) 2018-07-20 2023-12-12 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US12079723B2 (en) 2018-07-26 2024-09-03 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11983630B2 (en) 2018-09-03 2024-05-14 Tesla, Inc. Neural networks for embedded devices
US11893774B2 (en) 2018-10-11 2024-02-06 Tesla, Inc. Systems and methods for training machine models with augmented data
US11665108B2 (en) 2018-10-25 2023-05-30 Tesla, Inc. QoS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11908171B2 (en) 2018-12-04 2024-02-20 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11748620B2 (en) 2019-02-01 2023-09-05 Tesla, Inc. Generating ground truth for machine learning from time series elements
US12014553B2 (en) 2019-02-01 2024-06-18 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US11790664B2 (en) 2019-02-19 2023-10-17 Tesla, Inc. Estimating object properties using visual image data

Similar Documents

Publication Publication Date Title
JP2015004922A (en) Focus adjustment device and imaging device
US8508652B2 (en) Autofocus method
JP4665718B2 (en) Imaging device
US9635280B2 (en) Image pickup apparatus, method of controlling image pickup apparatus, and non-transitory computer-readable storage medium
US10264173B2 (en) Image capturing apparatus and control method thereof, and storage medium
JP2007139893A (en) Focusing detection device
JP6749791B2 (en) Imaging device and automatic focusing method
JP2014081420A (en) Tracking device and method thereof
WO2013001940A1 (en) Tracking device, and tracking method
JP7022686B2 (en) camera
JP2017098631A (en) Image combination processing device
US20100026819A1 (en) Method and apparatus for compensating for motion of an autofocus area, and autofocusing method and apparatus using the same
JP5338197B2 (en) Focus detection apparatus and imaging apparatus
US10200612B2 (en) Image stabilization apparatus and control method thereof, and storage medium
JP2009175442A (en) Imaging apparatus
US10992867B2 (en) Image capturing apparatus and control method thereof and storage medium
JP2008176113A (en) Focus detecting device and camera
JP2019203929A (en) Electronic apparatus, control unit of electronic apparatus, control program, and control method
JP5359150B2 (en) Imaging device
JP2010014883A (en) Camera
JP2007110498A (en) Compound eye photographing apparatus
JP6645690B2 (en) Automatic focus adjustment device, imaging device, and automatic focus adjustment method
US12126908B2 (en) Image capturing apparatus obtaining a plurality of images to be used for generation of a combined image and method for controlling the same, and non-transitory computer-readable storage medium
JP2013134403A (en) Focus adjustment device and imaging apparatus
JP5245644B2 (en) Exposure calculator