JP2010122410A - Imaging apparatus and imaging method - Google Patents

Imaging apparatus and imaging method Download PDF

Info

Publication number
JP2010122410A
JP2010122410A JP2008295152A JP2008295152A JP2010122410A JP 2010122410 A JP2010122410 A JP 2010122410A JP 2008295152 A JP2008295152 A JP 2008295152A JP 2008295152 A JP2008295152 A JP 2008295152A JP 2010122410 A JP2010122410 A JP 2010122410A
Authority
JP
Japan
Prior art keywords
focus
area
optical system
evaluation value
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008295152A
Other languages
Japanese (ja)
Inventor
Kei Ito
圭 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2008295152A priority Critical patent/JP2010122410A/en
Publication of JP2010122410A publication Critical patent/JP2010122410A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To obtain an imaging apparatus and an imaging method that eliminate deviation between a set AF area and an actual AF area when performing climbing AF while performing exposure by a rolling shutter. <P>SOLUTION: The imaging apparatus includes: a focus optical system 7-2; an imaging means 101 acquiring image data corresponding to a subject image; an AF evaluated value acquiring means acquiring an AF evaluated value from the data corresponding to at least one AF area in the image data when acquiring the image data while moving the focus optical system during exposure by the imaging means; and a focusing position detection means detecting a focusing position by using the AF evaluated value obtained by the AF evaluated value acquiring means while moving the focus optical system 7-2 within a focus driving range, and further includes: a correction means for correcting correspondence relation between the position of the focus optical system 7-2 and the AF evaluated value. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、例えば、デジタルカメラ、カメラ付き携帯電話機やPDAのような撮像機能を備えた携帯情報機器などの撮像装置および撮像方法に関するもので、特にCMOS撮像素子を搭載した撮像装置に好適なものである。   The present invention relates to an imaging apparatus and an imaging method such as a digital camera, a mobile phone with a camera, and a portable information device having an imaging function such as a PDA, and particularly suitable for an imaging apparatus equipped with a CMOS image sensor. It is.

デジタルスチルカメラのような電子的な撮像装置に限らず、撮像装置は、被写体に対して自動的に焦点を合わせるオートフォーカス(以下、「AF」と称する)装置を搭載しているのが一般的である。AF装置におけるAF制御方法として、例えば特許文献1等に記載されているような、山登りAF制御が広く用いられている。この山登りAF制御は、撮像素子が出力する映像信号から近接画素の輝度差の積分値を求め、この輝度差の積分値を、合焦の度合いを示すAF評価値とする。合焦状態にあるときは被写体の輪郭部分がはっきりしており、近接画素間の輝度差が大きくなるので、AF評価値が大きくなる。非合焦状態のときは、被写体の輪郭部分がぼやけるため、画素間の輝度差は小さくなり、AF評価値が小さくなる。AF動作の実行時には、撮像レンズの少なくとも一部として構成される合焦用のレンズを移動させながらこのようなAF評価値を逐次取得してゆき、AF評価値が最も大きくなったところ、すなわちAF評価値のピーク位置を合焦点として検出し、この合焦点に合焦用のレンズを位置させ停止させる。   In addition to an electronic imaging device such as a digital still camera, an imaging device generally includes an autofocus (hereinafter referred to as “AF”) device that automatically focuses on a subject. It is. As an AF control method in the AF apparatus, for example, hill-climbing AF control as described in Patent Document 1 is widely used. In this hill-climbing AF control, an integrated value of the luminance difference between adjacent pixels is obtained from the video signal output from the image sensor, and this integrated value of the luminance difference is used as an AF evaluation value indicating the degree of focusing. When the subject is in focus, the outline of the subject is clear and the luminance difference between adjacent pixels increases, so the AF evaluation value increases. In the out-of-focus state, the contour portion of the subject is blurred, so the luminance difference between the pixels is small and the AF evaluation value is small. When the AF operation is executed, such an AF evaluation value is sequentially acquired while moving a focusing lens that is configured as at least a part of the imaging lens, and the AF evaluation value is maximized, that is, AF The peak position of the evaluation value is detected as a focal point, and the focusing lens is positioned at this focal point and stopped.

近年デジタルスチルカメラのコンパクト化に対応するために撮像素子の小型化が進み、従来広く使用されていたCCD(Charge Coupled Device)撮像素子に代わりCMOS(Complementary Metal Oxide Semiconductor)撮像素子を用いたものも多くなってきた。CMOS撮像素子はCCD撮像素子に比べ、大きさが若干大きくなる反面、撮像の高速化、省電力化、高集積化が可能であるという利点を持つ。   In recent years, in order to cope with the downsizing of digital still cameras, the downsizing of the image sensor has progressed, and there are also those using a CMOS (Complementary Metal Oxide Semiconductor) image sensor instead of the CCD (Charge Coupled Device) image sensor that has been widely used conventionally. It has increased. A CMOS image sensor is slightly larger in size than a CCD image sensor, but has an advantage that imaging speed can be increased, power can be saved, and high integration can be achieved.

CMOS撮像素子を用いる場合、静止画撮影時にはCCD撮像素子と同様にメカニカルシャッタを用いた露光を行うが、撮像画像をリアルタイムでモニタするような場合には電子的なシャッタのみを用いるローリングシャッタによって露光を行う。   When using a CMOS image sensor, exposure is performed using a mechanical shutter in the same way as a CCD image sensor when taking a still image. However, when a captured image is monitored in real time, exposure is performed using a rolling shutter that uses only an electronic shutter. I do.

図16は、ローリングシャッタで画像を取り込む場合の取り込みタイミングチャートである。ローリングシャッタは、露光時間の制御を行うことに加え、露光しながら画像信号を出力するため、一つの画像における上面と下面とでは露光している時間(タイミング)が異なる。したがって、例えば、図19(a)に示すように、横に移動する四角い物体を撮像しながらこれをモニタすると、ディスプレイ上に表示される画像は、図19(b)に示すように平行四辺形の形に歪む。ちなみに、CCD撮像素子の場合は、全画素につき同時に露光し、露光によって画素ごとに蓄積した電荷に対応した信号を順次転送するため、CMOS撮像素子を用いる場合のような画像の歪みは生じない。   FIG. 16 is a capture timing chart when an image is captured by the rolling shutter. In addition to controlling the exposure time, the rolling shutter outputs an image signal while performing exposure, so that the exposure time (timing) differs between the upper surface and the lower surface of one image. Therefore, for example, as shown in FIG. 19A, when a square object moving horizontally is imaged and monitored, the image displayed on the display is a parallelogram as shown in FIG. 19B. Distorted into a shape. Incidentally, in the case of a CCD image sensor, since all pixels are exposed simultaneously, and signals corresponding to the charges accumulated for each pixel are sequentially transferred by exposure, image distortion as in the case of using a CMOS image sensor does not occur.

そのため、ローリングシャッタによって露光を行いながら山登りAFを行う場合は、フォーカス位置を補正しなければならない。例えば、フォーカスレンズをパルスモータで駆動するものとし、また、1画像の露光中に上記パルスモータを4パルス分駆動するものとした場合、図16に示すように1画像においてフォーカスエリアが時間軸上において最大で上記の4パルス分ずれた状態で露光されてしまう。そのため、AFに用いるエリアが複数ある場合はそのフォーカス位置を補正しなければならない。また、1画像の下部は常にフォーカスレンズ駆動のためのパルスを4パルス出力した後の画像が出力されてしまうため、1画像の上部に比べ、フォーカス駆動量が4パルス分少なくなってしまう。よって、フォーカス駆動量を考えると、1画像の下部については、上部に比べ4パルス分さらに駆動した状態で露光を行う必要がある(図22参照)。   Therefore, when performing hill-climbing AF while performing exposure with a rolling shutter, the focus position must be corrected. For example, when the focus lens is driven by a pulse motor and the pulse motor is driven by 4 pulses during exposure of one image, the focus area is on the time axis in one image as shown in FIG. In this case, the exposure is performed in a state shifted by the above four pulses at the maximum. Therefore, when there are a plurality of areas used for AF, the focus position must be corrected. Further, since the lower part of one image always outputs an image after outputting four pulses for driving the focus lens, the focus driving amount is reduced by four pulses compared to the upper part of one image. Therefore, considering the focus drive amount, it is necessary to perform exposure in a state where the lower part of one image is further driven by four pulses compared to the upper part (see FIG. 22).

上記AFエリア位置のずれによる評価値のずれの問題を、図20、図21を参照しながらさらに説明する。ここでは、平面の被写体に対してAFを実行する場合を考える。図20に示すように、AFエリアが画面の上、中、下の3箇所に設定されている場合において、フォーカスレンズの駆動中にローリングシャッタを用いた露光でAF評価値を取得するものとし、その結果を図21に示す。図21で丸付きの数字1,2,3で示す曲線はそれぞれ図20に示す上、中、下のAFエリアにおけるAF評価値を示す。平面の被写体であっても、図21に示すように、AF評価値を示す曲線のピークが時間軸上において大きくずれる。また、ローリングシャッタの特性上、AFエリアが画面上の下の位置になるにしたがって上記AF評価値のピーク位置のずれ量が時間軸上において大きくなる。このピーク位置のずれの間に出力されるパルスでフォーカス光学系が駆動されるので、上記ピーク位置のずれは、合焦位置のずれとなる。したがって、これを補正する必要がある。   The problem of deviation of the evaluation value due to the deviation of the AF area position will be further described with reference to FIGS. Here, consider a case where AF is performed on a planar subject. As shown in FIG. 20, when the AF area is set at the top, middle, and bottom of the screen, the AF evaluation value is acquired by exposure using the rolling shutter while the focus lens is driven. The result is shown in FIG. Curves indicated by circled numbers 1, 2, and 3 in FIG. 21 indicate AF evaluation values in the upper, middle, and lower AF areas shown in FIG. 20, respectively. Even in the case of a flat subject, as shown in FIG. 21, the peak of the curve indicating the AF evaluation value is greatly shifted on the time axis. Further, due to the characteristics of the rolling shutter, the shift amount of the peak position of the AF evaluation value increases on the time axis as the AF area becomes a lower position on the screen. Since the focus optical system is driven by a pulse output during this peak position shift, the peak position shift becomes a focus position shift. Therefore, it is necessary to correct this.

本発明に関連のある公知の技術として特許文献2に記載されている撮像システムがある。これは、レンズ交換可能なカメラにおいて、交換レンズからカメラへのフォーカスレンズ位置情報の伝達が遅延することを考慮して、フォーカスレンズの各位置の履歴情報と、上記各位置をフォーカスレンズが通過した時点の時間情報とを関連付けた時系列のレンズ位置履歴情報を交換レンズ内のメモリに記録し、フォーカスレンズの合焦位置を、上記時系列のレンズ位置履歴情報を参照して特定することで、AFの精度向上を図ったものである。しかし、特許文献2記載の発明は、CMOS撮像素子を用いたローリングシャッタによる一撮像画面内の部分的な画像信号の遅延によるフォーカス位置のずれに関しては考慮されていない。したがって、フォーカスレンズの位置が本来の合焦位置からずれた位置に制御され、満足なAFの精度を得ることができない場合があった。よって、一撮像画面内の部分的な画像信号の遅延を補正するような技術の開発が望まれている。   As a known technique related to the present invention, there is an imaging system described in Patent Document 2. This is because, in a camera with interchangeable lenses, the focus lens passes through each position and the history information of each position of the focus lens in consideration of the delay in transmission of focus lens position information from the interchangeable lens to the camera. By recording the time-series lens position history information associated with the time information at the time point in the memory in the interchangeable lens, and by specifying the in-focus position of the focus lens with reference to the time-series lens position history information, This is intended to improve AF accuracy. However, the invention described in Patent Document 2 does not consider the shift of the focus position due to the partial delay of the image signal in one imaging screen by the rolling shutter using the CMOS imaging element. Therefore, the position of the focus lens is controlled to a position deviated from the original in-focus position, and satisfactory AF accuracy may not be obtained. Therefore, it is desired to develop a technique that corrects a partial delay of an image signal in one imaging screen.

また、特許文献3には、AF評価値を検出する領域の位置や大きさを被写体に応じて変更することができるモードを備えることにより、AF精度の向上を図った撮像装置が記載されている。しかし、特許文献3記載の発明も、AFエリアを可変にすることによって画面内でのフォーカス位置がずれ、フォーカスレンズの位置が本来の合焦位置からずれた位置になってしまう場合の処理がなされておらず、満足なAFの精度を得ることができない場合があった。   Further, Patent Document 3 describes an imaging apparatus that improves AF accuracy by providing a mode in which the position and size of an AF detection value detection area can be changed according to the subject. . However, the invention described in Patent Document 3 is also processed when the AF area is made variable so that the focus position in the screen shifts and the focus lens position shifts from the original focus position. In some cases, satisfactory AF accuracy could not be obtained.

特公昭39−5265号公報号公報Japanese Examined Patent Publication No. 39-5265 特開2008−175886号公報JP 2008-175886 A 特開2008−052022号公報JP 2008-052022 A

本発明は、以上説明した従来技術の問題点を解決するべく、ローリングシャッタで露光しながら山登りAFを行う際に、ローリングシャッタの露光時間に応じてAF合焦位置をシフトし、設定されているAFエリアと現実のAFエリアのずれをなくすことができる撮像装置および撮像方法を提供することを目的とする。   In the present invention, when performing hill-climbing AF while exposing with a rolling shutter, the AF in-focus position is shifted and set according to the exposure time of the rolling shutter in order to solve the above-described problems of the prior art. It is an object of the present invention to provide an imaging apparatus and an imaging method that can eliminate a shift between an AF area and an actual AF area.

本発明はまた、フォーカス駆動範囲を所定の駆動ステップ分広げ、フォーカス駆動範囲の限界位置におけるAF精度の低下を防止することができる撮像装置および撮像方法を提供することを目的とする。   It is another object of the present invention to provide an imaging apparatus and an imaging method capable of expanding a focus driving range by a predetermined driving step and preventing a decrease in AF accuracy at a limit position of the focus driving range.

本発明は、フォーカス光学系と、被写体像に対応する画像データを取得する撮像手段と、前記撮像手段による露光中に前記フォーカス光学系を移動させながら前記画像データを取得する際に前記画像データ内の少なくとも一つのAFエリアに対応するデータからAF評価値を取得するAF評価値取得手段と、フォーカス駆動範囲内で前記フォーカス光学系を移動させる間に前記AF評価値取得手段により取得された前記AF評価値を用いて合焦位置を検出する合焦位置検出手段と、を備え、前記フォーカス光学系の位置と前記AF評価値との対応関係を補正する補正手段をさらに備えていることを最も主要な特徴とする。   The present invention provides a focus optical system, an imaging unit that acquires image data corresponding to a subject image, and the image data when acquiring the image data while moving the focus optical system during exposure by the imaging unit. AF evaluation value acquisition means for acquiring an AF evaluation value from data corresponding to at least one AF area, and the AF evaluation value acquired by the AF evaluation value acquisition means while moving the focus optical system within a focus drive range A focus position detecting means for detecting a focus position using the evaluation value, and further comprising a correction means for correcting the correspondence between the position of the focus optical system and the AF evaluation value. Features.

前記補正手段は、前記AFエリアごとに、前記撮像手段による露光時間に応じた補正量に基づき前記フォーカス光学系の位置と前記AF評価値との対応関係を補正するように構成するとよい。
前記補正手段は、前記画像データが表示される画面上において前記AFエリアが位置する領域に基づいて前記補正量を変更するように構成するとよい。
前記補正手段は、前記画像データが表示される画面上において前記AFエリアが下側の領域に位置するほど前記補正量を大きくするように構成するとよい。
前記合焦位置検出手段は、前記フォーカス駆動範囲を所定の駆動ステップ分広げ、この広げたフォーカス駆動範囲内で前記合焦位置を検出するように構成するとよい。
The correction unit may be configured to correct the correspondence relationship between the position of the focus optical system and the AF evaluation value based on a correction amount corresponding to an exposure time by the imaging unit for each AF area.
The correction unit may be configured to change the correction amount based on an area where the AF area is located on a screen on which the image data is displayed.
The correction means may be configured to increase the correction amount as the AF area is located in a lower area on the screen on which the image data is displayed.
The focus position detecting means may be configured to expand the focus drive range by a predetermined drive step and detect the focus position within the widened focus drive range.

本発明によれば、フォーカス駆動範囲内で前記フォーカス光学系を移動させる間にAF評価値取得手段により取得されたAF評価値を用いて合焦位置を検出する合焦位置検出手段を備えた撮像装置において、フォーカス光学系の位置とAF評価値との対応関係を補正する補正手段を備えていることにより、1画像内におけるフォーカスエリアの違いによる合焦位置のずれを補正して、AFの精度を高めることができる。   According to the present invention, the imaging device includes the focus position detection unit that detects the focus position using the AF evaluation value acquired by the AF evaluation value acquisition unit while moving the focus optical system within the focus drive range. The apparatus includes a correction unit that corrects the correspondence between the position of the focus optical system and the AF evaluation value, thereby correcting the shift of the in-focus position due to the difference in the focus area in one image, thereby improving the AF accuracy. Can be increased.

以下、図面を参照しながら本発明にかかる撮像装置および撮像方法の実施例について説明する。
図2、図3、図4は、本発明に係る撮像装置の例であるデジタルスチルカメラの例を示す外観図である。図1は、図2乃至図4に示すようなデジタルスチルカメラ内部のシステム構成例の概要を示すブロック図である。
Hereinafter, embodiments of an imaging apparatus and an imaging method according to the present invention will be described with reference to the drawings.
2, 3 and 4 are external views showing an example of a digital still camera which is an example of an imaging apparatus according to the present invention. FIG. 1 is a block diagram showing an outline of a system configuration example inside a digital still camera as shown in FIGS.

図2乃至図4において、カメラの上面には、レリーズスイッチSW1、モードダイアルSW2、サブ液晶ディスプレイ(以下、液晶ディスプレイを「LCD」という)1が配置されている。カメラの正面には、撮影レンズを含む鏡筒ユニット7、光学ファインダ4の対物側、ストロボ発光部3、測距ユニット5、リモコン受光部6、メモリカード装填室および電池装填室の蓋2が配置されている。カメラの背面には、電源スイッチ13、LCDモニタ10、AF用LED8、ストロボLED9、光学ファインダ4の接眼部、広角方向ズームスイッチSW3、望遠方向ズームスイッチSW4、セルフタイマの設定および解除スイッチSW5、メニュースイッチSW6、上移動およびストロボセットスイッチSW7、右移動スイッチSW8、ディスプレイスイッチSW9、下移動およびマクロスイッチSW10、左移動および画像確認スイッチSW11、OKスイッチSW12、クイックアクセススイッチSW13が配置されている。   2 to 4, a release switch SW1, a mode dial SW2, and a sub liquid crystal display (hereinafter referred to as “LCD”) 1 are arranged on the upper surface of the camera. In front of the camera, a lens barrel unit 7 including a photographing lens, an objective side of the optical viewfinder 4, a strobe light emitting unit 3, a distance measuring unit 5, a remote control light receiving unit 6, a memory card loading chamber and a battery loading chamber lid 2 are arranged. Has been. On the back of the camera, a power switch 13, LCD monitor 10, AF LED 8, strobe LED 9, eyepiece of optical viewfinder 4, wide-angle direction zoom switch SW3, telephoto direction zoom switch SW4, self-timer setting and release switch SW5, Menu switch SW6, upward movement and strobe set switch SW7, right movement switch SW8, display switch SW9, downward movement and macro switch SW10, left movement and image confirmation switch SW11, OK switch SW12, and quick access switch SW13 are arranged.

デジタルスチルカメラ内部のシステム構成は以下のとおりである。図1において、デジタルスチルカメラの各部はデジタルスチルカメラプロセッサ104(以下、単に「プロセッサ104」という)によって制御されるように構成されている。プロセッサ104は、CMOS1信号処理ブロック104−1、CMOS2信号処理ブロック104−2、CPUブロック104−3、ローカルSRAM104−4,USBブロック104−5、シリアルブロック104−6、JPEG・CODECブロック104−7、RESIZEブロック104−8、TV信号表示ブロック104−9、メモリカードコントローラブロック104−10を有してなり、これらは相互にバスラインで接続されている。プロセッサ104の外部には、RAW−RGB画像データ、YUV画像データ、JPEG画像データを保存するSDRAM103が配置されていて、プロセッサ104とバスラインによってつながっている。プロセッサ104の外部にはまた、RAM107、内蔵メモリ120、制御プログラムが格納されたROM108が配置されていて、プロセッサ104とバスラインによってつながっている。   The system configuration inside the digital still camera is as follows. In FIG. 1, each part of the digital still camera is configured to be controlled by a digital still camera processor 104 (hereinafter simply referred to as “processor 104”). The processor 104 includes a CMOS1 signal processing block 104-1, a CMOS2 signal processing block 104-2, a CPU block 104-3, a local SRAM 104-4, a USB block 104-5, a serial block 104-6, and a JPEG / CODEC block 104-7. , A RESIZE block 104-8, a TV signal display block 104-9, and a memory card controller block 104-10, which are connected to each other via a bus line. An SDRAM 103 that stores RAW-RGB image data, YUV image data, and JPEG image data is disposed outside the processor 104 and is connected to the processor 104 by a bus line. A RAM 107, a built-in memory 120, and a ROM 108 storing a control program are also arranged outside the processor 104, and are connected to the processor 104 by a bus line.

前記鏡筒ユニット7は、ズームレンズ7−1aを有するズーム光学系7−1、フォーカスレンズ7−2aを有するフォーカス光学系7−2、絞り7−3aを有する絞りユニット7−3、メカニズムシャッタ7−4aを有するメカシャッタユニット7−4、を有する。ズーム光学系7−1、フォーカス光学系7−2、絞りユニット7−3、メカシャッタユニット7−4は、それぞれズームモータ7−1b、フォーカスモータ7−2b、絞りモータ7−3b、メカシャッタモータ7−4bによって駆動されるようになっており、これら各モータは、プロセッサ104のCPUブロック104−3によって制御されるモータドライバ7−5によって動作が制御されるように構成されている。   The lens barrel unit 7 includes a zoom optical system 7-1 having a zoom lens 7-1a, a focus optical system 7-2 having a focus lens 7-2a, an aperture unit 7-3 having an aperture 7-3a, and a mechanism shutter 7. -4a, mechanical shutter unit 7-4. The zoom optical system 7-1, the focus optical system 7-2, the aperture unit 7-3, and the mechanical shutter unit 7-4 are respectively a zoom motor 7-1b, a focus motor 7-2b, an aperture motor 7-3b, and a mechanical shutter motor. These motors are configured to be controlled by a motor driver 7-5 controlled by a CPU block 104-3 of the processor 104.

鏡筒ユニット7は、撮像素子であるCMOS101に被写体像を結ぶ撮影レンズを有している。CMOS101は画素を2次元的に配置してなるエリアセンサを構成していて、上記被写体像を画像信号に変換してF/E−IC102に入力する。F/E−IC102は周知のとおりCDS102−1、ADC102−2、A/D変換部102−3を有し、上記画像信号にそれぞれ所定の処理を施し、デジタル信号に変換してプロセッサ104のCMOS1信号処理ブロック104−1に入力する。これらの信号処理動作は、プロセッサ104のCMOS1信号処理ブロック104−1から出力される垂直駆動信号VDと水平駆動信号HDにより、TG102−4を介して制御される。   The lens barrel unit 7 has a photographing lens that connects a subject image to the CMOS 101 that is an image sensor. The CMOS 101 constitutes an area sensor in which pixels are two-dimensionally arranged. The subject image is converted into an image signal and input to the F / E-IC 102. As is well known, the F / E-IC 102 includes a CDS 102-1, an ADC 102-2, and an A / D conversion unit 102-3. The image signal is subjected to predetermined processing, converted into a digital signal, and converted into a CMOS 1 of the processor 104. The signal is input to the signal processing block 104-1. These signal processing operations are controlled via the TG 102-4 by the vertical drive signal VD and the horizontal drive signal HD output from the CMOS1 signal processing block 104-1 of the processor 104.

プロセッサ104の前記CPUブロック104−3は、音声記録回路115−1による音声記録動作を制御するようになっている。音声記録回路115−1は、マイクロホン115−3で変換された音声信号のマイクロホンアンプ115−2による増幅信号を、指令に応じて記録する。上記CPUブロック104−3は、音声再生回路116−1の動作も制御する。音声再生回路116−1は、指令により、適宜のメモリに記録されている音声信号を再生してオーディオアンプ116−2に入力し、スピーカー116−3から音声を出力するように構成されている。上記CPUブロック104−3はまた、ストロボ回路114の動作を制御することによってストロボ発光部3から照明光を発光させるようになっている。また、CPUブロック104−3は測距ユニット5の動作も制御するようになっている。   The CPU block 104-3 of the processor 104 controls the sound recording operation by the sound recording circuit 115-1. The audio recording circuit 115-1 records the amplified signal of the audio signal converted by the microphone 115-3 by the microphone amplifier 115-2 according to the command. The CPU block 104-3 also controls the operation of the audio reproduction circuit 116-1. The audio reproduction circuit 116-1 is configured to reproduce an audio signal recorded in an appropriate memory according to a command, input the audio signal to the audio amplifier 116-2, and output the audio from the speaker 116-3. The CPU block 104-3 also emits illumination light from the strobe light emitting unit 3 by controlling the operation of the strobe circuit 114. The CPU block 104-3 controls the operation of the distance measuring unit 5.

CPUブロック104−3は、プロセッサ104の外部に配置されたサブCPU109とつながっていて、サブCPU109はLCDドライバ111を介してサブLCD1による表示を制御するようになっている。サブCPU109はさらに、AFLED8、ストロボLED9、リモコン受光部6、前記スイッチSW1〜SW13からなる操作キーユニット、ブザー113とつながっている。   The CPU block 104-3 is connected to a sub CPU 109 arranged outside the processor 104, and the sub CPU 109 controls display on the sub LCD 1 via the LCD driver 111. The sub CPU 109 is further connected to an AF LED 8, a strobe LED 9, a remote control light receiving unit 6, an operation key unit including the switches SW1 to SW13, and a buzzer 113.

前記USBブロック104−5はUSBコネクタ122につながっており、前記シリアルブロック104−6はシリアルドライバ回路123−1を介してRS−232Cコネクタにつながっている。前記TV表示ブロック104−9は、LCDドライバ117を介してLCDモニタ10につながっており、また、ビデオアンプ118を介してビデオジャック119につながっている。前記メモリカードコントローラブロック104−10はメモリカードスロット121の、カード接点との接点につながっている。   The USB block 104-5 is connected to a USB connector 122, and the serial block 104-6 is connected to an RS-232C connector via a serial driver circuit 123-1. The TV display block 104-9 is connected to the LCD monitor 10 via the LCD driver 117, and is connected to the video jack 119 via the video amplifier 118. The memory card controller block 104-10 is connected to the contact of the memory card slot 121 with the card contact.

次に、上記のように構成されたデジタルスチルカメラの動作を説明するが、その前に、従来のデジタルスチルカメラの動作を概略的に説明しておく。図1に示すモードダイアルSW2を記録モードに設定することで、カメラが記録モードで起動する。モードダイアルSW2の設定は、図2における操作部に含まれるモードスイッチの状態が記録モードONになったことをCPUが検知し、CPUがモータドライバ7−5を制御して、鏡胴ユニット7を撮影可能な位置に移動させることによって行われる。さらにCMOS101、F/E−IC102、LCDディスプレイ10等の各部に電源を投入して動作を開始させる。各部の電源が投入されると、ファインダモードの動作が開始される。   Next, the operation of the digital still camera configured as described above will be described. Before that, the operation of the conventional digital still camera will be schematically described. By setting the mode dial SW2 shown in FIG. 1 to the recording mode, the camera is activated in the recording mode. The mode dial SW2 is set by the CPU detecting that the mode switch included in the operation unit in FIG. 2 is in the recording mode ON, and the CPU controls the motor driver 7-5 to control the lens barrel unit 7. This is done by moving it to a position where it can be photographed. Further, power is turned on to the respective parts such as the CMOS 101, the F / E-IC 102, the LCD display 10 and the like to start the operation. When the power of each part is turned on, the operation in the finder mode is started.

ファインダモードでは、レンズを通して撮像素子(CMOS101)に入射した光が電気信号に変換され、アナログのR,G,B信号としてCDS回路102−1、A/D変換器102−3に送られる。A/D変換器102−3でデジタル信号に変換されたそれぞれの信号は、デジタル信号処理IC(SDRAM103)内のYUV変換部でYUV信号に変換され、メモリコントローラによってフレームメモリに書き込まれる。このYUV信号はメモリコントローラに読み出され、TV信号表示ブロック104−9を介してTVやLCDモニタ10へ送られ、画像が表示される。この処理が1/30秒間隔で行われ、1/30秒ごとに更新されるファインダモードの表示となる。   In the finder mode, light incident on the image sensor (CMOS 101) through the lens is converted into an electrical signal and sent to the CDS circuit 102-1 and the A / D converter 102-3 as analog R, G, and B signals. Each signal converted into a digital signal by the A / D converter 102-3 is converted into a YUV signal by the YUV conversion unit in the digital signal processing IC (SDRAM 103), and written into the frame memory by the memory controller. This YUV signal is read out to the memory controller and sent to the TV or LCD monitor 10 via the TV signal display block 104-9 to display an image. This process is performed at 1/30 second intervals, and a finder mode display updated every 1/30 seconds is obtained.

レリーズシャッターボタンSW1が押下されると、信号処理ICのCMOS I/Fブロック内に取り込まれたデジタルRGB信号より、画面の合焦度合いを示すAF評価値、露光状態を示すAE評価値が算出される。AF評価値データは、特徴データとしてマイコンに読み出されて、AFの処理に利用される。この積分値は合焦状態にあるとき、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AFによる合焦検出動作時は、それぞれのフォーカスレンズ位置におけるAF評価値を取得して、その極大になる点(ピーク位置)を検出する。また極大になる点が複数あることも考慮にいれ、複数あった場合はピーク位置の評価値の大きさや、その周辺の評価値との下降、上昇度合いを判断し、信頼性のある点を合焦位置候補としてAFを実行する。このようなAFによる合焦検出は、プロセッサ104内でCPUブロック104−3を中心に実行される。また、CPUブロック104−3からの指令によりモータドライバ7−5が駆動され、モータドライバ7−5でフォーカス光学系7−2が駆動されることによって合焦が行われる。AF制御については、下記の実施例において詳細を説明する。   When the release shutter button SW1 is pressed, an AF evaluation value indicating the degree of focus on the screen and an AE evaluation value indicating the exposure state are calculated from the digital RGB signal captured in the CMOS I / F block of the signal processing IC. The The AF evaluation value data is read by the microcomputer as feature data and used for AF processing. When the integral value is in a focused state, the edge portion of the subject is clear, so that the high frequency component is the highest. By utilizing this, during the focus detection operation by AF, the AF evaluation value at each focus lens position is acquired, and the point (peak position) at which the maximum is obtained is detected. Considering the fact that there are multiple points that are maximal, if there are multiple points, determine the magnitude of the evaluation value of the peak position, the degree of decrease and increase of the evaluation values around it, and combine the points with reliability. AF is executed as a focal position candidate. Such focus detection by AF is executed in the processor 104 centering on the CPU block 104-3. Further, the motor driver 7-5 is driven by a command from the CPU block 104-3, and focusing is performed by driving the focus optical system 7-2 by the motor driver 7-5. Details of the AF control will be described in the following embodiments.

またAF評価値は、画面内のデジタルRGB信号のどの範囲からも算出することができる。AFエリアに関しては、AFモードによって複数エリア、もしくは単エリアで行うようにしている。モードに関してはモードダイアルSW2でシングルAFモード、マルチAFモードで切り替えられるようにしている。例えば、シングルAFモードが選択されている場合には、図9に示すように、ファインダ内の中央付近(この実施例では水平方向40%×垂直方向に30%とする)の1エリアをAFエリアとする。またマルチAFモードが選択されている場合は、図10に示すように、水平方向20%×垂直方向20%の5エリアをAFエリアとする。   The AF evaluation value can be calculated from any range of the digital RGB signals in the screen. The AF area is performed in a plurality of areas or a single area depending on the AF mode. The mode can be switched between the single AF mode and the multi AF mode by the mode dial SW2. For example, when the single AF mode is selected, as shown in FIG. 9, one area near the center in the finder (in this embodiment, 40% in the horizontal direction and 30% in the vertical direction) is an AF area. And When the multi-AF mode is selected, as shown in FIG. 10, five areas of 20% in the horizontal direction × 20% in the vertical direction are set as the AF areas.

次にAE評価値は、デジタルRGB信号を図15に示すように幾つかのエリア(このデジタルカメラではAFエリアと同じにする)に分割し、そのエリア内の輝度データを用いる。各AEエリアにおいて、各エリア内の画素のうち所定の閾値を超えるものを対象画素とし、その輝度値を加算し、対象画素数で乗算することによってAE評価値が求められる。各エリアの輝度分布により、適正露光量を算出し、次に取込まれるフレームに対し露光量を補正する。   Next, as the AE evaluation value, the digital RGB signal is divided into several areas (the same as the AF area in this digital camera) as shown in FIG. 15, and the luminance data in the area is used. In each AE area, pixels exceeding a predetermined threshold among the pixels in each area are set as target pixels, and their luminance values are added and multiplied by the number of target pixels to obtain an AE evaluation value. An appropriate exposure amount is calculated from the luminance distribution of each area, and the exposure amount is corrected for the next frame to be captured.

第1の実施例にかかるデジタルカメラの動作を説明する。AF制御に関する全体のフローを図5に示す。動作ステップを、「5−1」「5−2」・・・のように表す。カメラは、電源をONするとまず図11に示すようなファインダモードの状態になる。この状態で次にAFエリアの設定処理を行う(5−1)。AFエリアはAFモードによって決定される。すなわち、モードダイアルSW2の状態を確認し、AFモードがシングルAFモードであるか、もしくは、マルチAFモードであるかを確認する。マルチAFモードであった場合は、マルチエリアに設定し、上記ファインダモードを図10のようなマルチAFモードにする。シングルAFモードであった場合には、シングルエリアに設定し、ファインダモードを図9に示すようなシングルAFモードにする。   The operation of the digital camera according to the first embodiment will be described. FIG. 5 shows an overall flow regarding the AF control. The operation steps are expressed as “5-1”, “5-2”,. When the power is turned on, the camera first enters a finder mode state as shown in FIG. Next, AF area setting processing is performed in this state (5-1). The AF area is determined by the AF mode. That is, the state of the mode dial SW2 is confirmed, and it is confirmed whether the AF mode is the single AF mode or the multi AF mode. In the case of the multi AF mode, the multi area is set and the finder mode is set to the multi AF mode as shown in FIG. In the case of the single AF mode, the single area is set and the finder mode is set to the single AF mode as shown in FIG.

次に、レリーズSW1が押下されたかどうかを確認する(5−2)。レリーズSW1が押下された場合は、以下の処理を行う。まず、フォーカスレンズのようなフォーカス光学系を駆動してフォーカス動作開始位置へ移動させる(5−3)。この実施例では、至近位置をフォーカス動作開始位置とする。至近位置に関しては光学系によって異なるが、一般的には30cm前後が好ましい。次に、レンズ駆動処理(5−4)により、フォーカス光学系をある一定の間隔ないしはステップで無限遠位置まで駆動していく(5−6)。この実施例ではフォーカスモータ7−2bとしてパルスモータを使用していて、合焦距離が30cmから無限遠までを1露光画面(例えば1/30秒)につき4パルス単位で駆動するようになっている。このフォーカス光学系の駆動と並行してAF評価値取得処理により、AFエリアに対するAF評価値を取得する(5−5)。以上の動作をフォーカス位置が無限遠になるまで行う。   Next, it is confirmed whether or not the release SW1 has been pressed (5-2). When release SW1 is pressed, the following processing is performed. First, a focus optical system such as a focus lens is driven to move to a focus operation start position (5-3). In this embodiment, the closest position is set as the focus operation start position. The closest position varies depending on the optical system, but generally around 30 cm is preferable. Next, by the lens driving process (5-4), the focus optical system is driven to an infinite position at a certain interval or step (5-6). In this embodiment, a pulse motor is used as the focus motor 7-2b, and an in-focus distance of 30 cm to infinity is driven in units of 4 pulses per exposure screen (for example, 1/30 second). . In parallel with the driving of the focus optical system, an AF evaluation value for the AF area is acquired by AF evaluation value acquisition processing (5-5). The above operation is performed until the focus position reaches infinity.

次にエリア選択処理(5−7)を行う。この部分が本発明の特徴となる部分である。このエリア選択処理(5−7)は、図6に示す手順に従って行われる。図6において、まず、取得された各AFエリアに対するAF評価値から、合焦点判定処理(6−1)を行う。ここではAF評価値の信頼性評価を行うとともに、評価値の中でのピーク位置を判定する。信頼性評価では、例えば、所定値以上の評価値を持つピーク位置や、周辺の評価値との下降、上昇度合いが所定値以上のピーク位置を、信頼性のあるピーク位置とする。次に、この判定の結果、信頼性のあるピーク位置があるか否かを判定する(6−2)。信頼性のあるピーク位置があった場合は、そのエリアに関して補正シフト処理を行う(6−3)。補正シフト処理を行う際は、まず合焦したエリアがどの領域かを判断する。   Next, area selection processing (5-7) is performed. This part is a characteristic part of the present invention. This area selection processing (5-7) is performed according to the procedure shown in FIG. In FIG. 6, first, focus determination processing (6-1) is performed from the acquired AF evaluation value for each AF area. Here, the reliability of the AF evaluation value is evaluated, and the peak position in the evaluation value is determined. In the reliability evaluation, for example, a peak position having an evaluation value equal to or greater than a predetermined value, or a peak position whose descending or rising degree with respect to surrounding evaluation values is equal to or greater than a predetermined value is set as a reliable peak position. Next, as a result of this determination, it is determined whether there is a reliable peak position (6-2). If there is a reliable peak position, correction shift processing is performed for that area (6-3). When performing the correction shift process, it is first determined which area is the focused area.

上記領域判断は、図12に示すように領域を上中下の3つに分け、AFエリアが上記3つの領域のどの領域に含まれているかで決められる。表1は上記領域の選択に関しての対応表である。エリア番号は図10に合わせて1から5まで、シフトエリアは図12のとおり領域1,2,3の3つである。この実施例では、シングルAFモードの場合、領域2と判断するようにしている。マルチAFモードの場合、図10からも明らかなように、エリア番号「1」は領域1、エリア番号「2」「3」「4」は領域2、エリア番号「5」は領域3と判断する。
表1

Figure 2010122410
The area determination is determined by dividing the area into upper, middle, and lower three areas as shown in FIG. 12 and which of the three areas the AF area is included in. Table 1 is a correspondence table regarding the selection of the area. The area numbers are from 1 to 5 in accordance with FIG. 10, and the shift areas are three areas 1, 2, and 3 as shown in FIG. In this embodiment, the region 2 is determined in the single AF mode. In the multi AF mode, as is clear from FIG. 10, the area number “1” is determined as the area 1, the area numbers “2”, “3”, and “4” are determined as the area 2, and the area number “5” is determined as the area 3. .
Table 1
Figure 2010122410

露光量(Tv)に対してのシフト量対応は表2のとおりである。図17のタイミングチャートを参照すると、Tv5(33ms)での場合を考えると、一つの画面の上半分の露光時は、フォーカス光学系が先の4パルスで駆動されている間に行われているが、下半分の露光時は、後の4パルスで駆動されている間に行われる。上面と下面はそれぞれ4パルス分フォーカス光学系を駆動しながら露光するため、実際に出力されるAF評価値は、その4パルスの平均位置にシフトしてその位置で求める。すなわち、上半分の露光時は2番目のパルスの前後、下半分の露光時は6番目のパルスの前後にシフトし、それらの位置での評価値を求めることになる。本発明では、このシフト量に関しては垂直駆動信号VDを基準に算出している。表2に示すように、露光量がTv5であった場合は、エリア1でのシフト量は「2」、エリア2でのシフト量は「4」、エリア3でのシフト量は「6」に設定されている。また、Tv6、7といったように電子シャッタ中に駆動している場合に関しては、すでに駆動しているパルス分シフト量を増やす必要があるため、Tv5の場合に比べしシフト量はその電子シャッタ中の駆動パルス分を加味している。
表2

Figure 2010122410
Table 2 shows the correspondence of the shift amount to the exposure amount (Tv). Referring to the timing chart of FIG. 17, considering the case of Tv5 (33 ms), the exposure of the upper half of one screen is performed while the focus optical system is driven by the previous four pulses. However, the lower half of the exposure is performed while being driven with the subsequent four pulses. Since the upper and lower surfaces are exposed while driving the focusing optical system for 4 pulses, the AF evaluation value that is actually output is obtained by shifting to the average position of the 4 pulses. That is, the upper half of the exposure is shifted before and after the second pulse, and the lower half of the exposure is shifted before and after the sixth pulse, and the evaluation values at these positions are obtained. In the present invention, the shift amount is calculated based on the vertical drive signal VD. As shown in Table 2, when the exposure amount is Tv5, the shift amount in area 1 is “2”, the shift amount in area 2 is “4”, and the shift amount in area 3 is “6”. Is set. Further, in the case of driving in the electronic shutter such as Tv6 and 7, since it is necessary to increase the shift amount by the already driven pulse, the shift amount is larger in the electronic shutter than in the case of Tv5. The drive pulse is taken into account.
Table 2
Figure 2010122410

各合焦エリアにつき上記補正シフト処理により補正を行い、この補正を行った状態で、次に、ピーク位置があるエリアの判定処理(6−5)を行う。エリア判定に関しては、合焦した全エリアを対象にして、より近距離にピークを示すものを合焦位置とする。信頼性のあるピーク位置があるか否かの判定ステップ、すなわち合焦エリア有無の判定ステップ(6−2)でピークのある合焦エリアが見つからない場合は、NGと判定し(6−4)、図14に示すように、シングルAFモードのAF枠を表示する。   Correction is performed by the above-described correction shift process for each in-focus area, and in the state where this correction has been performed, next, determination processing (6-5) for an area having a peak position is performed. Regarding the area determination, all in-focus areas are targeted, and those that show a peak at a closer distance are set as in-focus positions. In the determination step of whether or not there is a reliable peak position, that is, in the determination step of presence or absence of the in-focus area (6-2), if no in-focus area with a peak is found, it is determined as NG (6-4) As shown in FIG. 14, the AF frame in the single AF mode is displayed.

図5に戻り、エリア選択処理(5−7)が終わると、次にエリア表示処理を行う(5−8)。エリア表示処理では、エリア選択処理(5−7)にて選択されたエリアに相当するエリア部分を表示する。図13は人物を被写体にしたときのAFエリア表示の例を示す。最後に、合焦位置移動処理ステップ(5−9)において、上記エリア選択処理(5−7)で選択されたエリアに対応するフォーカス位置(合焦位置)へフォーカス光学系を移動させる。エリア選択処理(5−7)にてNGと判定されている場合(図6において合焦エリアが見つからない場合)は、NG距離に相当するフォーカス位置へフォーカス光学系を移動させる。NG距離は、一般的に過焦点距離を用いる場合があるが、本発明を適用したデジタルカメラの例ではNG距離を2.5mとし、2.5m離れた被写体に合焦するようにフォーカス光学系を移動させるようになっている。
以上のAF動作は、ROM108に格納されている制御プログラムにしたがって、デジタルスチルカメラプロセッサ104が演算し、各部へ動作指令を出すことによって実行される。
Returning to FIG. 5, when the area selection process (5-7) is completed, an area display process is performed (5-8). In the area display process, an area portion corresponding to the area selected in the area selection process (5-7) is displayed. FIG. 13 shows an example of AF area display when a person is a subject. Finally, in the focus position movement process step (5-9), the focus optical system is moved to the focus position (focus position) corresponding to the area selected in the area selection process (5-7). When it is determined as NG in the area selection process (5-7) (when the in-focus area is not found in FIG. 6), the focus optical system is moved to the focus position corresponding to the NG distance. In general, the NG distance may use a hyperfocal distance, but in the example of the digital camera to which the present invention is applied, the NG distance is set to 2.5 m, and the focus optical system is set so as to focus on an object 2.5 m away Is supposed to move.
The AF operation described above is executed by the digital still camera processor 104 operating according to a control program stored in the ROM 108 and issuing an operation command to each unit.

以上の処理により、フォーカス光学系の位置と取得されたAF評価値との対応関係をシフトさせ、CMOS撮像素子を用いたローリングシャッタにより生じるフォーカス光学系の位置と取得されるAF評価値の対応関係のずれを正すことができ、精度良く合焦位置を求めることができる。そして、求めた合焦位置で本撮影・記録を行うことができる。   By the above processing, the correspondence between the position of the focus optical system and the acquired AF evaluation value is shifted, and the correspondence between the position of the focus optical system generated by the rolling shutter using the CMOS image sensor and the acquired AF evaluation value. The in-focus position can be obtained with high accuracy. Then, the actual photographing / recording can be performed at the obtained in-focus position.

次に、第2の実施例にかかるデジタルカメラについてその動作を説明する。図7は、第2の実施例におけるAFに関する全体のフローを示している。まず、カメラの電源をONすると、図13に示すようなファインダモードの状態になる。続いてAFエリアの設定処理を行う(7−1)。AFエリアはAFモードによって決定される。モードダイアルSW2の状態を確認し、AFモードがシングルAFモードであるか、もしくは、マルチAFモードであるかどうかを確認する。マルチAFモードであった場合は、マルチエリアに設定し、ファインダモードを例えば図10に示すような複数のAFエリアを表示するモードにする。シングルAFモードであった場合には、シングルエリアに設定し、ファインダモードを例えば図19のような画面のほぼ中央に一つのAFエリアを表示するモードに設定する。   Next, the operation of the digital camera according to the second embodiment will be described. FIG. 7 shows an overall flow relating to AF in the second embodiment. First, when the camera is turned on, a finder mode as shown in FIG. 13 is set. Subsequently, AF area setting processing is performed (7-1). The AF area is determined by the AF mode. The state of the mode dial SW2 is confirmed, and it is confirmed whether the AF mode is the single AF mode or the multi AF mode. In the case of the multi AF mode, the multi area is set, and the finder mode is set to a mode for displaying a plurality of AF areas as shown in FIG. 10, for example. In the case of the single AF mode, the single area is set, and the finder mode is set to a mode in which one AF area is displayed at substantially the center of the screen as shown in FIG.

次に、レリーズSW1が押下されたかどうかを確認する(7−2)。レリーズSW1が押下された場合に、以下の処理を行う。まず、AF時のフォーカス駆動範囲を決定するAF駆動範囲決定処理を行う(7−3)。この処理の具体例を図8に示す。図8において、まず、焦点距離が広角(Wide)の範囲であるかどうかを確認する(8−1)。広角の範囲であった場合は、1露光中のフォーカスステップパルスを4パルスとし(8−2)、そうでなかった場合は焦点距離が望遠(Tele)側にあるものと判断し、1露光中のフォーカスステップパルスを8パルスと設定する(8−3)。次に、上記のように設定されたフォーカスステップパルスから、フォーカス駆動量に加える余裕量の設定を行う(8−4)。   Next, it is confirmed whether or not the release SW1 has been pressed (7-2). When release SW1 is pressed, the following processing is performed. First, an AF drive range determination process for determining a focus drive range during AF is performed (7-3). A specific example of this processing is shown in FIG. In FIG. 8, first, it is confirmed whether or not the focal length is in a wide angle (Wide) range (8-1). If it is in the wide-angle range, the focus step pulse during one exposure is set to four pulses (8-2). Otherwise, it is determined that the focal length is on the telephoto side (Tele), and one exposure is being performed. The focus step pulse is set to 8 pulses (8-3). Next, the margin amount to be added to the focus drive amount is set from the focus step pulse set as described above (8-4).

このような余裕量の設定が必要な理由は以下のとおりである。ローリングシャッタで露光すると、図18に示すように、画面の上面に対して下面は次の露光(露光2)に対するフォーカス駆動が始まった後に出力されるため、事実上露光開始が1露光中に出力されるフォーカスステップ分遅れる。これによって生じる不具合を示しているのが図22である。通常、無限遠に合焦していればそれ以上フォーカス光学系を駆動する必要はないため、無限遠位置でフォーカス光学系の駆動は終了する(図22(a)参照)。しかし、無限遠直近でフォーカス光学系を駆動しながら画面の上部を露光していて無限遠位置に達すると、画面の下部はフォーカス光学系を駆動しない状態で露光することになる。そのため、上部の画面についてはフォーカス光学系を駆動しながら露光し画像信号を転送しているのに対し、下部の画面についてはフォーカス光学系の駆動が終了している状態で露光し画像信号を転送していることになる。その結果、図22(b)に示すように、例えば被写体が人物であった場合、最も重要視される人物の顔の付近において、フォーカス光学系が駆動されている状態と駆動されていない状態が混在することになり、AFの精度を低下させる恐れがある。   The reason why such a margin is required is as follows. When exposure is performed with the rolling shutter, as shown in FIG. 18, since the lower surface with respect to the upper surface of the screen is output after the focus drive for the next exposure (exposure 2) starts, the start of exposure is actually output during one exposure. Delayed by the focus step. FIG. 22 shows a problem caused by this. Normally, if the focus optical system is focused on infinity, it is not necessary to drive the focus optical system any more, so that the drive of the focus optical system ends at the infinity position (see FIG. 22A). However, when the upper part of the screen is exposed while driving the focus optical system near infinity and reaches the infinity position, the lower part of the screen is exposed without driving the focus optical system. For this reason, the upper screen is exposed and the image signal is transferred while driving the focus optical system, while the lower screen is exposed and the image signal is transferred with the focus optical system being driven. Will be. As a result, as shown in FIG. 22B, for example, when the subject is a person, the focus optical system is driven and not driven in the vicinity of the most important person's face. It will be mixed, and there is a risk of reducing the accuracy of AF.

かかる不具合を避けるために、前述のとおり所定のフォーカス駆動量に加える余裕量を設定し、仮にフォーカス光学系が無限遠位置に達したとしても駆動され続けるようにしている。同じことがフォーカス光学系の駆動開始位置においても起こるので、駆動開始位置側にもフォーカス駆動量に加える余裕量を設定する。表3はパルス駆動の余裕量の対応表である。近側に対して、遠側(無限遠)にはそれぞれ1フォーカスステップ分のパルス数を加算して設定している。駆動ステップは例えば、2パルス、4パルス、8パルスというように適宜設定することができ、設定したパルス数と同じパルス数を、フォーカス駆動量に加える余裕量として設定している。
表3

Figure 2010122410
In order to avoid such inconvenience, as described above, a margin amount to be added to the predetermined focus drive amount is set so that the drive continues even if the focus optical system reaches the infinity position. Since the same occurs at the drive start position of the focus optical system, a margin amount to be added to the focus drive amount is also set on the drive start position side. Table 3 is a correspondence table of pulse drive margins. The number of pulses for one focus step is added to the far side (infinity) for the near side and set. The drive step can be set as appropriate, for example, 2 pulses, 4 pulses, 8 pulses, and the same number of pulses as the set number of pulses is set as a margin amount to be added to the focus drive amount.
Table 3
Figure 2010122410

また、露光量(Tv)に対してのシフト量対応は表4のとおりである。1露光中におけるフォーカス光学系の駆動ステップが4パルスの場合と8パルスの場合において、それぞれ画面の上下方向に設定した領域1、領域2、領域3につき表4に示すようにシフト量を設定している。
表4

Figure 2010122410
The correspondence of the shift amount with respect to the exposure amount (Tv) is shown in Table 4. When the drive step of the focus optical system during one exposure is 4 pulses and 8 pulses, the shift amount is set as shown in Table 4 for each of the regions 1, 2 and 3 set in the vertical direction of the screen. ing.
Table 4
Figure 2010122410

次に、図7に戻りフォーカス光学系をフォーカス駆動開始位置へと移動させる(7−4)。ここでは、至近位置をフォーカス動作開始位置とする。至近位置に関しては光学系によって異なる場合があるが、一般的には30cm前後が好ましい。次に、レンズ駆動処理(7−5)により、フォーカス光学系をある一定の間隔で無限遠位置まで駆動していく。ここではフォーカスモータ7−2bがパルスモータを利用しているため、30cmから無限遠までを1露光につきWideでは4パルス、Teleでは8パルスずつ駆動させることになる。その際にフォーカス光学系を駆動しながらAF評価値取得処理(7−6)により、AFエリアに対するAF評価値を取得する。以上の動作ステップ7−5から7−7までをフォーカス位置が無限遠になるまで繰り返し行う。   Next, returning to FIG. 7, the focus optical system is moved to the focus drive start position (7-4). Here, the closest position is set as the focus operation start position. Although the close position may vary depending on the optical system, generally around 30 cm is preferable. Next, the focus optical system is driven to an infinite position at a certain interval by lens drive processing (7-5). Here, since the focus motor 7-2b uses a pulse motor, it is driven from 30 cm to infinity for each exposure with 4 pulses for Wide and 8 pulses for Tele. At this time, an AF evaluation value for the AF area is acquired by AF evaluation value acquisition processing (7-6) while driving the focus optical system. The above operation steps 7-5 to 7-7 are repeated until the focus position reaches infinity.

次にエリア選択処理(7−8)を行う。このエリア選択処理(7−8)は、前述の図6に示す動作と同じである。すなわち、図6において、まず、取得された各AFエリアに対するAF評価値から、合焦点判定処理(6−1)を行う。ここではAF評価値の信頼性評価を行うとともに、評価値の中でのピーク位置を判定する。次に、この判定の結果、信頼性のあるピーク位置があるか否かを判定する(6−2)。信頼性評価では、例えば、所定値以上の評価値を持つピーク位置や、周辺の評価値との下降、上昇度合いが所定値以上のピーク位置を、信頼性のあるピーク位置とする。信頼性のあるピーク位置があった場合は、そのエリアに関して補正シフト処理を行う(6−3)。補正シフト処理を行う際は、まず合焦したエリアがどの領域かを判断する。   Next, area selection processing (7-8) is performed. This area selection processing (7-8) is the same as the operation shown in FIG. That is, in FIG. 6, first, focus determination processing (6-1) is performed from the AF evaluation values for the acquired AF areas. Here, the reliability of the AF evaluation value is evaluated, and the peak position in the evaluation value is determined. Next, as a result of this determination, it is determined whether there is a reliable peak position (6-2). In the reliability evaluation, for example, a peak position having an evaluation value equal to or greater than a predetermined value, or a peak position whose descending or rising degree with respect to surrounding evaluation values is equal to or greater than a predetermined value is set as a reliable peak position. If there is a reliable peak position, correction shift processing is performed for that area (6-3). When performing the correction shift process, it is first determined which area is the focused area.

上記領域判断は、図12に示すように領域を上下方向に3つに分け、AFエリアが上記3つの領域のどの領域に含まれているかで決められる。前記表1は上記領域の選択に関しての対応表である。エリア番号は1から5まで、シフトエリアは図12のとおり領域1,2,3の3つの領域がある。シングルAFモードの場合に関しては、ここでは領域2と判断するようにしている。マルチAFモードの場合、図10からも明らかなように、エリア番号「1」は領域1、エリア番号「2」「3」「4」は領域2、エリア番号「5」は領域3と判断する。   The area determination is determined by dividing the area into three in the vertical direction as shown in FIG. 12 and which of the three areas the AF area is included in. Table 1 is a correspondence table regarding the selection of the area. The area number is from 1 to 5, and the shift area has three areas 1, 2 and 3 as shown in FIG. In the case of the single AF mode, the region 2 is determined here. In the multi AF mode, as is clear from FIG. 10, the area number “1” is determined as the area 1, the area numbers “2”, “3”, and “4” are determined as the area 2, and the area number “5” is determined as the area 3. .

各合焦エリアにつき上記補正シフト処理により補正を行い、この補正を行った状態で、次に、ピーク位置があるエリアの判定処理(6−5)を行う。エリア判定に関しては、合焦した全エリアを対象にして、より近距離にピークを示すものを合焦位置とする。信頼性のあるピーク位置があるか否かを判定するステップ(6−2)でピークのある合焦エリアが見つからない場合は、NGと判定し(6−4)、図14に示すように、シングルAFモードのAF枠を表示する。   Correction is performed by the above-described correction shift process for each in-focus area, and in the state where this correction has been performed, next, determination processing (6-5) for an area having a peak position is performed. Regarding the area determination, all in-focus areas are targeted, and those that show a peak at a closer distance are set as in-focus positions. In step (6-2) for determining whether or not there is a reliable peak position, if an in-focus area with a peak is not found, it is determined as NG (6-4), and as shown in FIG. The AF frame in single AF mode is displayed.

図7に戻り、エリア選択処理(7−8)が終わると、次にエリア表示処理を行う(7−9)。エリア表示処理では、エリア選択処理(7−8)にて選択されたエリアに相当するエリア部分を表示するようにしている。図13は人物を被写体にしたときのAFエリア表示状態を示す。信頼性のあるピーク位置があるか否か、すなわち合焦エリア有無の判定ステップ(6−2)でピークのある合焦エリアが見つからない場合は、NGと判定し(6−4)、図14に示すように、シングルAFモードのAF枠を表示する。   Returning to FIG. 7, when the area selection process (7-8) is completed, an area display process is performed (7-9). In the area display process, an area portion corresponding to the area selected in the area selection process (7-8) is displayed. FIG. 13 shows an AF area display state when a person is a subject. Whether or not there is a reliable peak position, that is, when a focused area with a peak is not found in the focused area presence / absence determination step (6-2), it is determined as NG (6-4), and FIG. As shown, the AF frame in the single AF mode is displayed.

最後に、合焦位置移動処理ステップ(5−9)において、上記エリア選択処理(5−7)で選択されたエリアに対応するフォーカス位置(合焦位置)へフォーカス光学系を移動させる。エリア選択処理(5−7)にてNGと判定されている場合(図6において合焦エリアが見つからない場合)は、NG距離に相当するフォーカス位置へフォーカス光学系を移動させる。NG距離は、一般的に過焦点距離を用いる場合があるが、本発明を適用したデジタルカメラの例ではNG距離を2.5mとし、2.5m離れた被写体に合焦するようにフォーカス光学系を移動させるようになっている。
以上のAF動作は、ROM108に格納されている制御プログラムにしたがって、デジタルスチルカメラプロセッサ104が演算し、各部へ動作指令を出すことによって実行される。
Finally, in the focus position movement process step (5-9), the focus optical system is moved to the focus position (focus position) corresponding to the area selected in the area selection process (5-7). When it is determined as NG in the area selection process (5-7) (when the in-focus area is not found in FIG. 6), the focus optical system is moved to the focus position corresponding to the NG distance. In general, the NG distance may use a hyperfocal distance, but in the example of the digital camera to which the present invention is applied, the NG distance is set to 2.5 m, and the focus optical system is set so as to focus on an object 2.5 m away Is supposed to move.
The AF operation described above is executed by the digital still camera processor 104 operating according to a control program stored in the ROM 108 and issuing an operation command to each unit.

以上の処理により、フォーカス駆動範囲を所定の駆動ステップ分広げ、その広げたフォーカス駆動範囲内でAF評価値を取得すると、露光時の環境が変わらないため、精度の良いAF評価値を求めることができる。そして、その求めたAF評価値とフォーカス光学系の位置との対応関係を補正して、合焦位置を検出することにより、合焦位置の検出精度を上げることができる。   With the above processing, when the focus drive range is expanded by a predetermined drive step and the AF evaluation value is acquired within the expanded focus drive range, the environment during exposure does not change, and thus a highly accurate AF evaluation value can be obtained. it can. Then, by correcting the correspondence between the obtained AF evaluation value and the position of the focus optical system and detecting the focus position, the detection accuracy of the focus position can be increased.

実施例1、実施例2ではマルチAFモード時に5つのエリアを設定しているが、これに限られるものではなく、より広い範囲にエリアを拡張し、あるいはエリア数を増やしてよい。その場合、図12に示すような3つの領域ではなく、より細分化した領域で補正をする必要がある。   In the first and second embodiments, five areas are set in the multi AF mode. However, the present invention is not limited to this, and the area may be expanded to a wider range or the number of areas may be increased. In that case, it is necessary to perform correction in a subdivided area instead of the three areas as shown in FIG.

実施例2では、ステップパルス数の設定を、焦点距離を基準にして判断しているが、AFの駆動範囲、例えば通常の撮影領域(例えば30cm〜∞)とマクロ撮影領域(例えば1cm〜30cm)で切り替えられるようにすると、より精度の高いAFを実現することができる。   In the second embodiment, the setting of the number of step pulses is determined based on the focal length. However, the AF driving range, for example, a normal imaging region (for example, 30 cm to ∞) and a macro imaging region (for example, 1 cm to 30 cm) are used. If it is possible to switch at this point, more accurate AF can be realized.

本発明にかかる撮像装置の実施例であるデジタルスチルカメラのシステム構成例を示すブロック図である。1 is a block diagram illustrating a system configuration example of a digital still camera that is an embodiment of an imaging apparatus according to the present invention. 上記デジタルスチルカメラの外観を示す正面図である。It is a front view which shows the external appearance of the said digital still camera. 上記デジタルスチルカメラの平面図である。It is a top view of the said digital still camera. 上記デジタルスチルカメラの背面図である。It is a rear view of the digital still camera. 本発明にかかる撮像装置の第1実施例の動作を示すフローチャートである。3 is a flowchart showing the operation of the first embodiment of the imaging apparatus according to the present invention. 上記第1実施例の動作中のエリア選択処理を示すフローチャートである。It is a flowchart which shows the area selection process in operation | movement of the said 1st Example. 本発明にかかる撮像装置の第2実施例の動作を示すフローチャートである。It is a flowchart which shows operation | movement of 2nd Example of the imaging device concerning this invention. 上記第2実施例の動作中のAF駆動範囲決定処理を示すフローチャートである。It is a flowchart which shows the AF drive range determination process in operation | movement of the said 2nd Example. 本発明の実施例においてシングルAFモードが選択されている場合に設定されるAFエリアの例を示す視野図である。FIG. 10 is a field diagram showing an example of an AF area set when a single AF mode is selected in an embodiment of the present invention. 本発明の実施例においてマルチAFモードが選択されている場合に設定されるAFエリアの例を示す視野図である。FIG. 10 is a view showing an example of an AF area set when a multi AF mode is selected in an embodiment of the present invention. 本発明の実施例におけるファインダモード時の表示例を示す視野図である。It is a visual field figure which shows the example of a display at the time of the finder mode in the Example of this invention. 本発明における合焦エリアの区分例を示す視野図である。It is a visual field figure which shows the example of a division of the focusing area in this invention. 本発明において人物を被写体にしたときのAFエリア表示例を示す視野図である。FIG. 6 is a view of a field of view showing an AF area display example when a person is a subject in the present invention. 本発明におけるシングルAFモード時のAF枠の例を示す視野図である。It is a visual field figure which shows the example of the AF frame at the time of the single AF mode in this invention. AE評価値を取得するためのデジタルRGB信号を適宜数の測光エリアに分割した例を示す図である。It is a figure which shows the example which divided | segmented the digital RGB signal for acquiring AE evaluation value into an appropriate number of photometry areas. ローリングシャッタで画像を取り込む場合の取り込みタイミングチャートである。It is an acquisition timing chart in the case of acquiring an image with a rolling shutter. 上記の画像取込みにおいて一つの画面の上半分の露光時と下半分の露光時でフォーカスタイミングが異なることを示すタイミングチャートである。5 is a timing chart showing that the focus timing differs between the upper half exposure and the lower half exposure of one screen in the above image capture. 同じく画面の上面に対して下面は次の露光に対するフォーカス駆動が始まった後に出力されることを示すタイミングチャートである。Similarly, the lower surface with respect to the upper surface of the screen is a timing chart showing that the focus drive for the next exposure is output after starting. ローリングシャッタの問題点を示すもので、(a)は動く被写体の例を示す視野図、(b)は上記被写体が歪んで表示される例を示す視野図である。The problems of the rolling shutter are shown, in which (a) is a field diagram showing an example of a moving subject, and (b) is a field diagram showing an example in which the subject is displayed distorted. ローリングシャッタの問題点を説明するための図であって、上下方向3箇所にフォーカスエリアが設定されている例を示す視野図である。It is a figure for demonstrating the problem of a rolling shutter, Comprising: It is a visual field figure which shows the example in which the focus area is set in three places up and down. 上記3箇所のフォーカスエリアにおいてAF評価値を示す曲線のピークが時間軸上においてずれる様子を示すグラフである。It is a graph which shows a mode that the peak of the curve which shows AF evaluation value shifts | deviates on a time axis in the said three focus areas. ローリングシャッタの問題点を示すもので、(a)は画面の上面に対して下面は次の露光に対するフォーカス駆動が始まった後に出力されることを示すタイミングチャート、(b)はそれによって生じるフォーカス位置のずれを説明するための視野図である。This shows a problem with the rolling shutter. (A) is a timing chart showing that the upper surface of the screen and the lower surface are output after the focus drive for the next exposure is started, and (b) is the focus position generated thereby. It is a visual field diagram for demonstrating the shift | offset | difference of.

符号の説明Explanation of symbols

7−2 フォーカス光学系
101 撮像手段としてのCMOS
7-2 Focus optical system 101 CMOS as imaging means

Claims (10)

フォーカス光学系と、
被写体像に対応する画像データを取得する撮像手段と、
前記撮像手段による露光中に前記フォーカス光学系を移動させながら前記画像データを取得する際に前記画像データ内の少なくとも一つのAFエリアに対応するデータからAF評価値を取得するAF評価値取得手段と、
フォーカス駆動範囲内で前記フォーカス光学系を移動させる間に前記AF評価値取得手段により取得された前記AF評価値を用いて合焦位置を検出する合焦位置検出手段と、を備え、
前記フォーカス光学系の位置と前記AF評価値との対応関係を補正する補正手段をさらに備えていることを特徴とする撮像装置。
Focus optics,
Imaging means for acquiring image data corresponding to the subject image;
AF evaluation value acquisition means for acquiring an AF evaluation value from data corresponding to at least one AF area in the image data when acquiring the image data while moving the focus optical system during exposure by the imaging means; ,
A focus position detection unit that detects a focus position using the AF evaluation value acquired by the AF evaluation value acquisition unit while moving the focus optical system within a focus drive range, and
An imaging apparatus, further comprising a correction unit that corrects a correspondence relationship between the position of the focus optical system and the AF evaluation value.
前記補正手段は、前記AFエリアごとに、前記撮像手段による露光時間に応じた補正量に基づき前記フォーカス光学系の位置と前記AF評価値との対応関係を補正することを特徴とする請求項1記載の撮像装置。   The correction means corrects the correspondence between the position of the focus optical system and the AF evaluation value based on a correction amount according to an exposure time by the imaging means for each AF area. The imaging device described. 前記補正手段は、前記画像データが表示される画面上において前記AFエリアが位置する領域に基づいて前記補正量を変更することを特徴とする請求項2記載の撮像装置。   The imaging apparatus according to claim 2, wherein the correction unit changes the correction amount based on an area where the AF area is located on a screen on which the image data is displayed. 前記補正手段は、前記画像データが表示される画面上において前記AFエリアが下側の領域に位置するほど前記補正量を大きくすることを特徴とする請求項3記載の撮像装置。   The imaging apparatus according to claim 3, wherein the correction unit increases the correction amount as the AF area is located in a lower area on a screen on which the image data is displayed. 前記合焦位置検出手段は、前記フォーカス駆動範囲を所定の駆動ステップ分広げ、この広げたフォーカス駆動範囲内で前記合焦位置を検出することを特徴とする請求項1から4のいずれかに記載の撮像装置。   5. The focus position detection unit according to claim 1, wherein the focus position detection unit expands the focus drive range by a predetermined drive step and detects the focus position within the expanded focus drive range. Imaging device. 撮像手段によって被写体像に対応する画像データを取得し、
前記撮像手段による露光中にフォーカス光学系を移動させながら前記画像データを取得する際に前記画像データ内の少なくとも一つのAFエリアに対応するデータからAF評価値を取得し、
フォーカス駆動範囲内でフォーカス光学系を移動させる間に前記AF評価値を用いて合焦位置を検出する撮像方法であって、
前記フォーカス光学系の位置と前記AF評価値との対応関係を補正することを特徴とする撮像方法。
Obtain image data corresponding to the subject image by the imaging means,
When acquiring the image data while moving a focus optical system during exposure by the imaging unit, an AF evaluation value is acquired from data corresponding to at least one AF area in the image data;
An imaging method for detecting an in-focus position using the AF evaluation value while moving a focus optical system within a focus drive range,
An imaging method, wherein a correspondence relationship between the position of the focus optical system and the AF evaluation value is corrected.
フォーカス光学系の位置とAF評価値との対応関係の補正は、AFエリアごとに、前記撮像手段による露光時間に応じた補正量に基づいて行うことを特徴とする請求項6記載の撮像方法。   7. The imaging method according to claim 6, wherein the correction of the correspondence relationship between the position of the focus optical system and the AF evaluation value is performed for each AF area based on a correction amount according to an exposure time by the imaging unit. フォーカス光学系の位置とAF評価値との対応関係の補正量は、画像データが表示される画面上においてAFエリアが位置する領域に基づいて変更することを特徴とする請求項7記載の撮像方法。   8. The imaging method according to claim 7, wherein the correction amount of the correspondence relationship between the position of the focus optical system and the AF evaluation value is changed based on an area where the AF area is located on a screen on which image data is displayed. . フォーカス光学系の位置とAF評価値との対応関係の補正量は、画像データが表示される画面上においてAFエリアが下側の領域に位置するほど大きくすることを特徴とする請求項8記載の撮像方法。   9. The correction amount of the correspondence relationship between the position of the focus optical system and the AF evaluation value is increased as the AF area is positioned in a lower area on the screen on which image data is displayed. Imaging method. フォーカス駆動範囲を所定の駆動ステップ分広げ、この広げたフォーカス駆動範囲内で合焦位置を検出することを特徴とする請求項6から9のいずれかに記載の撮像方法。   The imaging method according to claim 6, wherein the focus drive range is expanded by a predetermined drive step, and the in-focus position is detected within the expanded focus drive range.
JP2008295152A 2008-11-19 2008-11-19 Imaging apparatus and imaging method Pending JP2010122410A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008295152A JP2010122410A (en) 2008-11-19 2008-11-19 Imaging apparatus and imaging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008295152A JP2010122410A (en) 2008-11-19 2008-11-19 Imaging apparatus and imaging method

Publications (1)

Publication Number Publication Date
JP2010122410A true JP2010122410A (en) 2010-06-03

Family

ID=42323817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008295152A Pending JP2010122410A (en) 2008-11-19 2008-11-19 Imaging apparatus and imaging method

Country Status (1)

Country Link
JP (1) JP2010122410A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8928799B2 (en) 2011-10-13 2015-01-06 Ricoh Company, Ltd. Imaging device and imaging method to perform autofocus operation to a subject
JP2015169907A (en) * 2014-03-10 2015-09-28 キヤノン株式会社 Imaging apparatus, method for controlling the same, program, and storage medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8928799B2 (en) 2011-10-13 2015-01-06 Ricoh Company, Ltd. Imaging device and imaging method to perform autofocus operation to a subject
JP2015169907A (en) * 2014-03-10 2015-09-28 キヤノン株式会社 Imaging apparatus, method for controlling the same, program, and storage medium

Similar Documents

Publication Publication Date Title
JP5054583B2 (en) Imaging device
JP5564996B2 (en) Imaging apparatus and imaging method
JP4979507B2 (en) Imaging apparatus and imaging method
JP5272551B2 (en) Imaging apparatus and method
JP2008136035A (en) Imaging apparatus
JP2012186670A (en) Imaging device, imaging method, and imaging program
KR101462323B1 (en) Imaging device and imaging method
JP2014002197A (en) Imaging device and imaging method
JP2013113903A (en) Imaging apparatus and imaging method
JP6539075B2 (en) Imaging device, control method therefor, program, storage medium
JP5857610B2 (en) Imaging apparatus and imaging method
JP4855155B2 (en) Imaging apparatus and imaging method using the same
JP2012093409A (en) Image-pickup device and image-pickup method
US9826141B2 (en) Imaging apparatus
JP6136310B2 (en) Imaging device
JP2010122410A (en) Imaging apparatus and imaging method
JP2007094023A (en) Focus adjustment method of focus lens and imaging apparatus
JP2003241066A (en) Camera
JP5418553B2 (en) Imaging apparatus and imaging method using the same
JP2013195611A (en) Imaging apparatus and display processing method
JP4794162B2 (en) Focus detection apparatus and focus detection method
JP4688485B2 (en) Imaging device with auxiliary light function
JP5091091B2 (en) Imaging apparatus, autofocus control method thereof, and control program
JP4376593B2 (en) Focus detection apparatus and focus detection method
JP2018151415A (en) Imaging device, method of controlling imaging device, and program