JP2010122410A - Imaging apparatus and imaging method - Google Patents
Imaging apparatus and imaging method Download PDFInfo
- Publication number
- JP2010122410A JP2010122410A JP2008295152A JP2008295152A JP2010122410A JP 2010122410 A JP2010122410 A JP 2010122410A JP 2008295152 A JP2008295152 A JP 2008295152A JP 2008295152 A JP2008295152 A JP 2008295152A JP 2010122410 A JP2010122410 A JP 2010122410A
- Authority
- JP
- Japan
- Prior art keywords
- focus
- area
- optical system
- evaluation value
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、例えば、デジタルカメラ、カメラ付き携帯電話機やPDAのような撮像機能を備えた携帯情報機器などの撮像装置および撮像方法に関するもので、特にCMOS撮像素子を搭載した撮像装置に好適なものである。 The present invention relates to an imaging apparatus and an imaging method such as a digital camera, a mobile phone with a camera, and a portable information device having an imaging function such as a PDA, and particularly suitable for an imaging apparatus equipped with a CMOS image sensor. It is.
デジタルスチルカメラのような電子的な撮像装置に限らず、撮像装置は、被写体に対して自動的に焦点を合わせるオートフォーカス(以下、「AF」と称する)装置を搭載しているのが一般的である。AF装置におけるAF制御方法として、例えば特許文献1等に記載されているような、山登りAF制御が広く用いられている。この山登りAF制御は、撮像素子が出力する映像信号から近接画素の輝度差の積分値を求め、この輝度差の積分値を、合焦の度合いを示すAF評価値とする。合焦状態にあるときは被写体の輪郭部分がはっきりしており、近接画素間の輝度差が大きくなるので、AF評価値が大きくなる。非合焦状態のときは、被写体の輪郭部分がぼやけるため、画素間の輝度差は小さくなり、AF評価値が小さくなる。AF動作の実行時には、撮像レンズの少なくとも一部として構成される合焦用のレンズを移動させながらこのようなAF評価値を逐次取得してゆき、AF評価値が最も大きくなったところ、すなわちAF評価値のピーク位置を合焦点として検出し、この合焦点に合焦用のレンズを位置させ停止させる。
In addition to an electronic imaging device such as a digital still camera, an imaging device generally includes an autofocus (hereinafter referred to as “AF”) device that automatically focuses on a subject. It is. As an AF control method in the AF apparatus, for example, hill-climbing AF control as described in
近年デジタルスチルカメラのコンパクト化に対応するために撮像素子の小型化が進み、従来広く使用されていたCCD(Charge Coupled Device)撮像素子に代わりCMOS(Complementary Metal Oxide Semiconductor)撮像素子を用いたものも多くなってきた。CMOS撮像素子はCCD撮像素子に比べ、大きさが若干大きくなる反面、撮像の高速化、省電力化、高集積化が可能であるという利点を持つ。 In recent years, in order to cope with the downsizing of digital still cameras, the downsizing of the image sensor has progressed, and there are also those using a CMOS (Complementary Metal Oxide Semiconductor) image sensor instead of the CCD (Charge Coupled Device) image sensor that has been widely used conventionally. It has increased. A CMOS image sensor is slightly larger in size than a CCD image sensor, but has an advantage that imaging speed can be increased, power can be saved, and high integration can be achieved.
CMOS撮像素子を用いる場合、静止画撮影時にはCCD撮像素子と同様にメカニカルシャッタを用いた露光を行うが、撮像画像をリアルタイムでモニタするような場合には電子的なシャッタのみを用いるローリングシャッタによって露光を行う。 When using a CMOS image sensor, exposure is performed using a mechanical shutter in the same way as a CCD image sensor when taking a still image. However, when a captured image is monitored in real time, exposure is performed using a rolling shutter that uses only an electronic shutter. I do.
図16は、ローリングシャッタで画像を取り込む場合の取り込みタイミングチャートである。ローリングシャッタは、露光時間の制御を行うことに加え、露光しながら画像信号を出力するため、一つの画像における上面と下面とでは露光している時間(タイミング)が異なる。したがって、例えば、図19(a)に示すように、横に移動する四角い物体を撮像しながらこれをモニタすると、ディスプレイ上に表示される画像は、図19(b)に示すように平行四辺形の形に歪む。ちなみに、CCD撮像素子の場合は、全画素につき同時に露光し、露光によって画素ごとに蓄積した電荷に対応した信号を順次転送するため、CMOS撮像素子を用いる場合のような画像の歪みは生じない。 FIG. 16 is a capture timing chart when an image is captured by the rolling shutter. In addition to controlling the exposure time, the rolling shutter outputs an image signal while performing exposure, so that the exposure time (timing) differs between the upper surface and the lower surface of one image. Therefore, for example, as shown in FIG. 19A, when a square object moving horizontally is imaged and monitored, the image displayed on the display is a parallelogram as shown in FIG. 19B. Distorted into a shape. Incidentally, in the case of a CCD image sensor, since all pixels are exposed simultaneously, and signals corresponding to the charges accumulated for each pixel are sequentially transferred by exposure, image distortion as in the case of using a CMOS image sensor does not occur.
そのため、ローリングシャッタによって露光を行いながら山登りAFを行う場合は、フォーカス位置を補正しなければならない。例えば、フォーカスレンズをパルスモータで駆動するものとし、また、1画像の露光中に上記パルスモータを4パルス分駆動するものとした場合、図16に示すように1画像においてフォーカスエリアが時間軸上において最大で上記の4パルス分ずれた状態で露光されてしまう。そのため、AFに用いるエリアが複数ある場合はそのフォーカス位置を補正しなければならない。また、1画像の下部は常にフォーカスレンズ駆動のためのパルスを4パルス出力した後の画像が出力されてしまうため、1画像の上部に比べ、フォーカス駆動量が4パルス分少なくなってしまう。よって、フォーカス駆動量を考えると、1画像の下部については、上部に比べ4パルス分さらに駆動した状態で露光を行う必要がある(図22参照)。 Therefore, when performing hill-climbing AF while performing exposure with a rolling shutter, the focus position must be corrected. For example, when the focus lens is driven by a pulse motor and the pulse motor is driven by 4 pulses during exposure of one image, the focus area is on the time axis in one image as shown in FIG. In this case, the exposure is performed in a state shifted by the above four pulses at the maximum. Therefore, when there are a plurality of areas used for AF, the focus position must be corrected. Further, since the lower part of one image always outputs an image after outputting four pulses for driving the focus lens, the focus driving amount is reduced by four pulses compared to the upper part of one image. Therefore, considering the focus drive amount, it is necessary to perform exposure in a state where the lower part of one image is further driven by four pulses compared to the upper part (see FIG. 22).
上記AFエリア位置のずれによる評価値のずれの問題を、図20、図21を参照しながらさらに説明する。ここでは、平面の被写体に対してAFを実行する場合を考える。図20に示すように、AFエリアが画面の上、中、下の3箇所に設定されている場合において、フォーカスレンズの駆動中にローリングシャッタを用いた露光でAF評価値を取得するものとし、その結果を図21に示す。図21で丸付きの数字1,2,3で示す曲線はそれぞれ図20に示す上、中、下のAFエリアにおけるAF評価値を示す。平面の被写体であっても、図21に示すように、AF評価値を示す曲線のピークが時間軸上において大きくずれる。また、ローリングシャッタの特性上、AFエリアが画面上の下の位置になるにしたがって上記AF評価値のピーク位置のずれ量が時間軸上において大きくなる。このピーク位置のずれの間に出力されるパルスでフォーカス光学系が駆動されるので、上記ピーク位置のずれは、合焦位置のずれとなる。したがって、これを補正する必要がある。
The problem of deviation of the evaluation value due to the deviation of the AF area position will be further described with reference to FIGS. Here, consider a case where AF is performed on a planar subject. As shown in FIG. 20, when the AF area is set at the top, middle, and bottom of the screen, the AF evaluation value is acquired by exposure using the rolling shutter while the focus lens is driven. The result is shown in FIG. Curves indicated by circled
本発明に関連のある公知の技術として特許文献2に記載されている撮像システムがある。これは、レンズ交換可能なカメラにおいて、交換レンズからカメラへのフォーカスレンズ位置情報の伝達が遅延することを考慮して、フォーカスレンズの各位置の履歴情報と、上記各位置をフォーカスレンズが通過した時点の時間情報とを関連付けた時系列のレンズ位置履歴情報を交換レンズ内のメモリに記録し、フォーカスレンズの合焦位置を、上記時系列のレンズ位置履歴情報を参照して特定することで、AFの精度向上を図ったものである。しかし、特許文献2記載の発明は、CMOS撮像素子を用いたローリングシャッタによる一撮像画面内の部分的な画像信号の遅延によるフォーカス位置のずれに関しては考慮されていない。したがって、フォーカスレンズの位置が本来の合焦位置からずれた位置に制御され、満足なAFの精度を得ることができない場合があった。よって、一撮像画面内の部分的な画像信号の遅延を補正するような技術の開発が望まれている。
As a known technique related to the present invention, there is an imaging system described in
また、特許文献3には、AF評価値を検出する領域の位置や大きさを被写体に応じて変更することができるモードを備えることにより、AF精度の向上を図った撮像装置が記載されている。しかし、特許文献3記載の発明も、AFエリアを可変にすることによって画面内でのフォーカス位置がずれ、フォーカスレンズの位置が本来の合焦位置からずれた位置になってしまう場合の処理がなされておらず、満足なAFの精度を得ることができない場合があった。
Further,
本発明は、以上説明した従来技術の問題点を解決するべく、ローリングシャッタで露光しながら山登りAFを行う際に、ローリングシャッタの露光時間に応じてAF合焦位置をシフトし、設定されているAFエリアと現実のAFエリアのずれをなくすことができる撮像装置および撮像方法を提供することを目的とする。 In the present invention, when performing hill-climbing AF while exposing with a rolling shutter, the AF in-focus position is shifted and set according to the exposure time of the rolling shutter in order to solve the above-described problems of the prior art. It is an object of the present invention to provide an imaging apparatus and an imaging method that can eliminate a shift between an AF area and an actual AF area.
本発明はまた、フォーカス駆動範囲を所定の駆動ステップ分広げ、フォーカス駆動範囲の限界位置におけるAF精度の低下を防止することができる撮像装置および撮像方法を提供することを目的とする。 It is another object of the present invention to provide an imaging apparatus and an imaging method capable of expanding a focus driving range by a predetermined driving step and preventing a decrease in AF accuracy at a limit position of the focus driving range.
本発明は、フォーカス光学系と、被写体像に対応する画像データを取得する撮像手段と、前記撮像手段による露光中に前記フォーカス光学系を移動させながら前記画像データを取得する際に前記画像データ内の少なくとも一つのAFエリアに対応するデータからAF評価値を取得するAF評価値取得手段と、フォーカス駆動範囲内で前記フォーカス光学系を移動させる間に前記AF評価値取得手段により取得された前記AF評価値を用いて合焦位置を検出する合焦位置検出手段と、を備え、前記フォーカス光学系の位置と前記AF評価値との対応関係を補正する補正手段をさらに備えていることを最も主要な特徴とする。 The present invention provides a focus optical system, an imaging unit that acquires image data corresponding to a subject image, and the image data when acquiring the image data while moving the focus optical system during exposure by the imaging unit. AF evaluation value acquisition means for acquiring an AF evaluation value from data corresponding to at least one AF area, and the AF evaluation value acquired by the AF evaluation value acquisition means while moving the focus optical system within a focus drive range A focus position detecting means for detecting a focus position using the evaluation value, and further comprising a correction means for correcting the correspondence between the position of the focus optical system and the AF evaluation value. Features.
前記補正手段は、前記AFエリアごとに、前記撮像手段による露光時間に応じた補正量に基づき前記フォーカス光学系の位置と前記AF評価値との対応関係を補正するように構成するとよい。
前記補正手段は、前記画像データが表示される画面上において前記AFエリアが位置する領域に基づいて前記補正量を変更するように構成するとよい。
前記補正手段は、前記画像データが表示される画面上において前記AFエリアが下側の領域に位置するほど前記補正量を大きくするように構成するとよい。
前記合焦位置検出手段は、前記フォーカス駆動範囲を所定の駆動ステップ分広げ、この広げたフォーカス駆動範囲内で前記合焦位置を検出するように構成するとよい。
The correction unit may be configured to correct the correspondence relationship between the position of the focus optical system and the AF evaluation value based on a correction amount corresponding to an exposure time by the imaging unit for each AF area.
The correction unit may be configured to change the correction amount based on an area where the AF area is located on a screen on which the image data is displayed.
The correction means may be configured to increase the correction amount as the AF area is located in a lower area on the screen on which the image data is displayed.
The focus position detecting means may be configured to expand the focus drive range by a predetermined drive step and detect the focus position within the widened focus drive range.
本発明によれば、フォーカス駆動範囲内で前記フォーカス光学系を移動させる間にAF評価値取得手段により取得されたAF評価値を用いて合焦位置を検出する合焦位置検出手段を備えた撮像装置において、フォーカス光学系の位置とAF評価値との対応関係を補正する補正手段を備えていることにより、1画像内におけるフォーカスエリアの違いによる合焦位置のずれを補正して、AFの精度を高めることができる。 According to the present invention, the imaging device includes the focus position detection unit that detects the focus position using the AF evaluation value acquired by the AF evaluation value acquisition unit while moving the focus optical system within the focus drive range. The apparatus includes a correction unit that corrects the correspondence between the position of the focus optical system and the AF evaluation value, thereby correcting the shift of the in-focus position due to the difference in the focus area in one image, thereby improving the AF accuracy. Can be increased.
以下、図面を参照しながら本発明にかかる撮像装置および撮像方法の実施例について説明する。
図2、図3、図4は、本発明に係る撮像装置の例であるデジタルスチルカメラの例を示す外観図である。図1は、図2乃至図4に示すようなデジタルスチルカメラ内部のシステム構成例の概要を示すブロック図である。
Hereinafter, embodiments of an imaging apparatus and an imaging method according to the present invention will be described with reference to the drawings.
2, 3 and 4 are external views showing an example of a digital still camera which is an example of an imaging apparatus according to the present invention. FIG. 1 is a block diagram showing an outline of a system configuration example inside a digital still camera as shown in FIGS.
図2乃至図4において、カメラの上面には、レリーズスイッチSW1、モードダイアルSW2、サブ液晶ディスプレイ(以下、液晶ディスプレイを「LCD」という)1が配置されている。カメラの正面には、撮影レンズを含む鏡筒ユニット7、光学ファインダ4の対物側、ストロボ発光部3、測距ユニット5、リモコン受光部6、メモリカード装填室および電池装填室の蓋2が配置されている。カメラの背面には、電源スイッチ13、LCDモニタ10、AF用LED8、ストロボLED9、光学ファインダ4の接眼部、広角方向ズームスイッチSW3、望遠方向ズームスイッチSW4、セルフタイマの設定および解除スイッチSW5、メニュースイッチSW6、上移動およびストロボセットスイッチSW7、右移動スイッチSW8、ディスプレイスイッチSW9、下移動およびマクロスイッチSW10、左移動および画像確認スイッチSW11、OKスイッチSW12、クイックアクセススイッチSW13が配置されている。
2 to 4, a release switch SW1, a mode dial SW2, and a sub liquid crystal display (hereinafter referred to as “LCD”) 1 are arranged on the upper surface of the camera. In front of the camera, a
デジタルスチルカメラ内部のシステム構成は以下のとおりである。図1において、デジタルスチルカメラの各部はデジタルスチルカメラプロセッサ104(以下、単に「プロセッサ104」という)によって制御されるように構成されている。プロセッサ104は、CMOS1信号処理ブロック104−1、CMOS2信号処理ブロック104−2、CPUブロック104−3、ローカルSRAM104−4,USBブロック104−5、シリアルブロック104−6、JPEG・CODECブロック104−7、RESIZEブロック104−8、TV信号表示ブロック104−9、メモリカードコントローラブロック104−10を有してなり、これらは相互にバスラインで接続されている。プロセッサ104の外部には、RAW−RGB画像データ、YUV画像データ、JPEG画像データを保存するSDRAM103が配置されていて、プロセッサ104とバスラインによってつながっている。プロセッサ104の外部にはまた、RAM107、内蔵メモリ120、制御プログラムが格納されたROM108が配置されていて、プロセッサ104とバスラインによってつながっている。
The system configuration inside the digital still camera is as follows. In FIG. 1, each part of the digital still camera is configured to be controlled by a digital still camera processor 104 (hereinafter simply referred to as “processor 104”). The processor 104 includes a CMOS1 signal processing block 104-1, a CMOS2 signal processing block 104-2, a CPU block 104-3, a local SRAM 104-4, a USB block 104-5, a serial block 104-6, and a JPEG / CODEC block 104-7. , A RESIZE block 104-8, a TV signal display block 104-9, and a memory card controller block 104-10, which are connected to each other via a bus line. An
前記鏡筒ユニット7は、ズームレンズ7−1aを有するズーム光学系7−1、フォーカスレンズ7−2aを有するフォーカス光学系7−2、絞り7−3aを有する絞りユニット7−3、メカニズムシャッタ7−4aを有するメカシャッタユニット7−4、を有する。ズーム光学系7−1、フォーカス光学系7−2、絞りユニット7−3、メカシャッタユニット7−4は、それぞれズームモータ7−1b、フォーカスモータ7−2b、絞りモータ7−3b、メカシャッタモータ7−4bによって駆動されるようになっており、これら各モータは、プロセッサ104のCPUブロック104−3によって制御されるモータドライバ7−5によって動作が制御されるように構成されている。
The
鏡筒ユニット7は、撮像素子であるCMOS101に被写体像を結ぶ撮影レンズを有している。CMOS101は画素を2次元的に配置してなるエリアセンサを構成していて、上記被写体像を画像信号に変換してF/E−IC102に入力する。F/E−IC102は周知のとおりCDS102−1、ADC102−2、A/D変換部102−3を有し、上記画像信号にそれぞれ所定の処理を施し、デジタル信号に変換してプロセッサ104のCMOS1信号処理ブロック104−1に入力する。これらの信号処理動作は、プロセッサ104のCMOS1信号処理ブロック104−1から出力される垂直駆動信号VDと水平駆動信号HDにより、TG102−4を介して制御される。
The
プロセッサ104の前記CPUブロック104−3は、音声記録回路115−1による音声記録動作を制御するようになっている。音声記録回路115−1は、マイクロホン115−3で変換された音声信号のマイクロホンアンプ115−2による増幅信号を、指令に応じて記録する。上記CPUブロック104−3は、音声再生回路116−1の動作も制御する。音声再生回路116−1は、指令により、適宜のメモリに記録されている音声信号を再生してオーディオアンプ116−2に入力し、スピーカー116−3から音声を出力するように構成されている。上記CPUブロック104−3はまた、ストロボ回路114の動作を制御することによってストロボ発光部3から照明光を発光させるようになっている。また、CPUブロック104−3は測距ユニット5の動作も制御するようになっている。
The CPU block 104-3 of the processor 104 controls the sound recording operation by the sound recording circuit 115-1. The audio recording circuit 115-1 records the amplified signal of the audio signal converted by the microphone 115-3 by the microphone amplifier 115-2 according to the command. The CPU block 104-3 also controls the operation of the audio reproduction circuit 116-1. The audio reproduction circuit 116-1 is configured to reproduce an audio signal recorded in an appropriate memory according to a command, input the audio signal to the audio amplifier 116-2, and output the audio from the speaker 116-3. The CPU block 104-3 also emits illumination light from the strobe
CPUブロック104−3は、プロセッサ104の外部に配置されたサブCPU109とつながっていて、サブCPU109はLCDドライバ111を介してサブLCD1による表示を制御するようになっている。サブCPU109はさらに、AFLED8、ストロボLED9、リモコン受光部6、前記スイッチSW1〜SW13からなる操作キーユニット、ブザー113とつながっている。
The CPU block 104-3 is connected to a
前記USBブロック104−5はUSBコネクタ122につながっており、前記シリアルブロック104−6はシリアルドライバ回路123−1を介してRS−232Cコネクタにつながっている。前記TV表示ブロック104−9は、LCDドライバ117を介してLCDモニタ10につながっており、また、ビデオアンプ118を介してビデオジャック119につながっている。前記メモリカードコントローラブロック104−10はメモリカードスロット121の、カード接点との接点につながっている。
The USB block 104-5 is connected to a USB connector 122, and the serial block 104-6 is connected to an RS-232C connector via a serial driver circuit 123-1. The TV display block 104-9 is connected to the
次に、上記のように構成されたデジタルスチルカメラの動作を説明するが、その前に、従来のデジタルスチルカメラの動作を概略的に説明しておく。図1に示すモードダイアルSW2を記録モードに設定することで、カメラが記録モードで起動する。モードダイアルSW2の設定は、図2における操作部に含まれるモードスイッチの状態が記録モードONになったことをCPUが検知し、CPUがモータドライバ7−5を制御して、鏡胴ユニット7を撮影可能な位置に移動させることによって行われる。さらにCMOS101、F/E−IC102、LCDディスプレイ10等の各部に電源を投入して動作を開始させる。各部の電源が投入されると、ファインダモードの動作が開始される。
Next, the operation of the digital still camera configured as described above will be described. Before that, the operation of the conventional digital still camera will be schematically described. By setting the mode dial SW2 shown in FIG. 1 to the recording mode, the camera is activated in the recording mode. The mode dial SW2 is set by the CPU detecting that the mode switch included in the operation unit in FIG. 2 is in the recording mode ON, and the CPU controls the motor driver 7-5 to control the
ファインダモードでは、レンズを通して撮像素子(CMOS101)に入射した光が電気信号に変換され、アナログのR,G,B信号としてCDS回路102−1、A/D変換器102−3に送られる。A/D変換器102−3でデジタル信号に変換されたそれぞれの信号は、デジタル信号処理IC(SDRAM103)内のYUV変換部でYUV信号に変換され、メモリコントローラによってフレームメモリに書き込まれる。このYUV信号はメモリコントローラに読み出され、TV信号表示ブロック104−9を介してTVやLCDモニタ10へ送られ、画像が表示される。この処理が1/30秒間隔で行われ、1/30秒ごとに更新されるファインダモードの表示となる。 In the finder mode, light incident on the image sensor (CMOS 101) through the lens is converted into an electrical signal and sent to the CDS circuit 102-1 and the A / D converter 102-3 as analog R, G, and B signals. Each signal converted into a digital signal by the A / D converter 102-3 is converted into a YUV signal by the YUV conversion unit in the digital signal processing IC (SDRAM 103), and written into the frame memory by the memory controller. This YUV signal is read out to the memory controller and sent to the TV or LCD monitor 10 via the TV signal display block 104-9 to display an image. This process is performed at 1/30 second intervals, and a finder mode display updated every 1/30 seconds is obtained.
レリーズシャッターボタンSW1が押下されると、信号処理ICのCMOS I/Fブロック内に取り込まれたデジタルRGB信号より、画面の合焦度合いを示すAF評価値、露光状態を示すAE評価値が算出される。AF評価値データは、特徴データとしてマイコンに読み出されて、AFの処理に利用される。この積分値は合焦状態にあるとき、被写体のエッジ部分がはっきりとしているため、高周波成分が一番高くなる。これを利用して、AFによる合焦検出動作時は、それぞれのフォーカスレンズ位置におけるAF評価値を取得して、その極大になる点(ピーク位置)を検出する。また極大になる点が複数あることも考慮にいれ、複数あった場合はピーク位置の評価値の大きさや、その周辺の評価値との下降、上昇度合いを判断し、信頼性のある点を合焦位置候補としてAFを実行する。このようなAFによる合焦検出は、プロセッサ104内でCPUブロック104−3を中心に実行される。また、CPUブロック104−3からの指令によりモータドライバ7−5が駆動され、モータドライバ7−5でフォーカス光学系7−2が駆動されることによって合焦が行われる。AF制御については、下記の実施例において詳細を説明する。 When the release shutter button SW1 is pressed, an AF evaluation value indicating the degree of focus on the screen and an AE evaluation value indicating the exposure state are calculated from the digital RGB signal captured in the CMOS I / F block of the signal processing IC. The The AF evaluation value data is read by the microcomputer as feature data and used for AF processing. When the integral value is in a focused state, the edge portion of the subject is clear, so that the high frequency component is the highest. By utilizing this, during the focus detection operation by AF, the AF evaluation value at each focus lens position is acquired, and the point (peak position) at which the maximum is obtained is detected. Considering the fact that there are multiple points that are maximal, if there are multiple points, determine the magnitude of the evaluation value of the peak position, the degree of decrease and increase of the evaluation values around it, and combine the points with reliability. AF is executed as a focal position candidate. Such focus detection by AF is executed in the processor 104 centering on the CPU block 104-3. Further, the motor driver 7-5 is driven by a command from the CPU block 104-3, and focusing is performed by driving the focus optical system 7-2 by the motor driver 7-5. Details of the AF control will be described in the following embodiments.
またAF評価値は、画面内のデジタルRGB信号のどの範囲からも算出することができる。AFエリアに関しては、AFモードによって複数エリア、もしくは単エリアで行うようにしている。モードに関してはモードダイアルSW2でシングルAFモード、マルチAFモードで切り替えられるようにしている。例えば、シングルAFモードが選択されている場合には、図9に示すように、ファインダ内の中央付近(この実施例では水平方向40%×垂直方向に30%とする)の1エリアをAFエリアとする。またマルチAFモードが選択されている場合は、図10に示すように、水平方向20%×垂直方向20%の5エリアをAFエリアとする。 The AF evaluation value can be calculated from any range of the digital RGB signals in the screen. The AF area is performed in a plurality of areas or a single area depending on the AF mode. The mode can be switched between the single AF mode and the multi AF mode by the mode dial SW2. For example, when the single AF mode is selected, as shown in FIG. 9, one area near the center in the finder (in this embodiment, 40% in the horizontal direction and 30% in the vertical direction) is an AF area. And When the multi-AF mode is selected, as shown in FIG. 10, five areas of 20% in the horizontal direction × 20% in the vertical direction are set as the AF areas.
次にAE評価値は、デジタルRGB信号を図15に示すように幾つかのエリア(このデジタルカメラではAFエリアと同じにする)に分割し、そのエリア内の輝度データを用いる。各AEエリアにおいて、各エリア内の画素のうち所定の閾値を超えるものを対象画素とし、その輝度値を加算し、対象画素数で乗算することによってAE評価値が求められる。各エリアの輝度分布により、適正露光量を算出し、次に取込まれるフレームに対し露光量を補正する。 Next, as the AE evaluation value, the digital RGB signal is divided into several areas (the same as the AF area in this digital camera) as shown in FIG. 15, and the luminance data in the area is used. In each AE area, pixels exceeding a predetermined threshold among the pixels in each area are set as target pixels, and their luminance values are added and multiplied by the number of target pixels to obtain an AE evaluation value. An appropriate exposure amount is calculated from the luminance distribution of each area, and the exposure amount is corrected for the next frame to be captured.
第1の実施例にかかるデジタルカメラの動作を説明する。AF制御に関する全体のフローを図5に示す。動作ステップを、「5−1」「5−2」・・・のように表す。カメラは、電源をONするとまず図11に示すようなファインダモードの状態になる。この状態で次にAFエリアの設定処理を行う(5−1)。AFエリアはAFモードによって決定される。すなわち、モードダイアルSW2の状態を確認し、AFモードがシングルAFモードであるか、もしくは、マルチAFモードであるかを確認する。マルチAFモードであった場合は、マルチエリアに設定し、上記ファインダモードを図10のようなマルチAFモードにする。シングルAFモードであった場合には、シングルエリアに設定し、ファインダモードを図9に示すようなシングルAFモードにする。 The operation of the digital camera according to the first embodiment will be described. FIG. 5 shows an overall flow regarding the AF control. The operation steps are expressed as “5-1”, “5-2”,. When the power is turned on, the camera first enters a finder mode state as shown in FIG. Next, AF area setting processing is performed in this state (5-1). The AF area is determined by the AF mode. That is, the state of the mode dial SW2 is confirmed, and it is confirmed whether the AF mode is the single AF mode or the multi AF mode. In the case of the multi AF mode, the multi area is set and the finder mode is set to the multi AF mode as shown in FIG. In the case of the single AF mode, the single area is set and the finder mode is set to the single AF mode as shown in FIG.
次に、レリーズSW1が押下されたかどうかを確認する(5−2)。レリーズSW1が押下された場合は、以下の処理を行う。まず、フォーカスレンズのようなフォーカス光学系を駆動してフォーカス動作開始位置へ移動させる(5−3)。この実施例では、至近位置をフォーカス動作開始位置とする。至近位置に関しては光学系によって異なるが、一般的には30cm前後が好ましい。次に、レンズ駆動処理(5−4)により、フォーカス光学系をある一定の間隔ないしはステップで無限遠位置まで駆動していく(5−6)。この実施例ではフォーカスモータ7−2bとしてパルスモータを使用していて、合焦距離が30cmから無限遠までを1露光画面(例えば1/30秒)につき4パルス単位で駆動するようになっている。このフォーカス光学系の駆動と並行してAF評価値取得処理により、AFエリアに対するAF評価値を取得する(5−5)。以上の動作をフォーカス位置が無限遠になるまで行う。 Next, it is confirmed whether or not the release SW1 has been pressed (5-2). When release SW1 is pressed, the following processing is performed. First, a focus optical system such as a focus lens is driven to move to a focus operation start position (5-3). In this embodiment, the closest position is set as the focus operation start position. The closest position varies depending on the optical system, but generally around 30 cm is preferable. Next, by the lens driving process (5-4), the focus optical system is driven to an infinite position at a certain interval or step (5-6). In this embodiment, a pulse motor is used as the focus motor 7-2b, and an in-focus distance of 30 cm to infinity is driven in units of 4 pulses per exposure screen (for example, 1/30 second). . In parallel with the driving of the focus optical system, an AF evaluation value for the AF area is acquired by AF evaluation value acquisition processing (5-5). The above operation is performed until the focus position reaches infinity.
次にエリア選択処理(5−7)を行う。この部分が本発明の特徴となる部分である。このエリア選択処理(5−7)は、図6に示す手順に従って行われる。図6において、まず、取得された各AFエリアに対するAF評価値から、合焦点判定処理(6−1)を行う。ここではAF評価値の信頼性評価を行うとともに、評価値の中でのピーク位置を判定する。信頼性評価では、例えば、所定値以上の評価値を持つピーク位置や、周辺の評価値との下降、上昇度合いが所定値以上のピーク位置を、信頼性のあるピーク位置とする。次に、この判定の結果、信頼性のあるピーク位置があるか否かを判定する(6−2)。信頼性のあるピーク位置があった場合は、そのエリアに関して補正シフト処理を行う(6−3)。補正シフト処理を行う際は、まず合焦したエリアがどの領域かを判断する。 Next, area selection processing (5-7) is performed. This part is a characteristic part of the present invention. This area selection processing (5-7) is performed according to the procedure shown in FIG. In FIG. 6, first, focus determination processing (6-1) is performed from the acquired AF evaluation value for each AF area. Here, the reliability of the AF evaluation value is evaluated, and the peak position in the evaluation value is determined. In the reliability evaluation, for example, a peak position having an evaluation value equal to or greater than a predetermined value, or a peak position whose descending or rising degree with respect to surrounding evaluation values is equal to or greater than a predetermined value is set as a reliable peak position. Next, as a result of this determination, it is determined whether there is a reliable peak position (6-2). If there is a reliable peak position, correction shift processing is performed for that area (6-3). When performing the correction shift process, it is first determined which area is the focused area.
上記領域判断は、図12に示すように領域を上中下の3つに分け、AFエリアが上記3つの領域のどの領域に含まれているかで決められる。表1は上記領域の選択に関しての対応表である。エリア番号は図10に合わせて1から5まで、シフトエリアは図12のとおり領域1,2,3の3つである。この実施例では、シングルAFモードの場合、領域2と判断するようにしている。マルチAFモードの場合、図10からも明らかなように、エリア番号「1」は領域1、エリア番号「2」「3」「4」は領域2、エリア番号「5」は領域3と判断する。
表1
The area determination is determined by dividing the area into upper, middle, and lower three areas as shown in FIG. 12 and which of the three areas the AF area is included in. Table 1 is a correspondence table regarding the selection of the area. The area numbers are from 1 to 5 in accordance with FIG. 10, and the shift areas are three
Table 1
露光量(Tv)に対してのシフト量対応は表2のとおりである。図17のタイミングチャートを参照すると、Tv5(33ms)での場合を考えると、一つの画面の上半分の露光時は、フォーカス光学系が先の4パルスで駆動されている間に行われているが、下半分の露光時は、後の4パルスで駆動されている間に行われる。上面と下面はそれぞれ4パルス分フォーカス光学系を駆動しながら露光するため、実際に出力されるAF評価値は、その4パルスの平均位置にシフトしてその位置で求める。すなわち、上半分の露光時は2番目のパルスの前後、下半分の露光時は6番目のパルスの前後にシフトし、それらの位置での評価値を求めることになる。本発明では、このシフト量に関しては垂直駆動信号VDを基準に算出している。表2に示すように、露光量がTv5であった場合は、エリア1でのシフト量は「2」、エリア2でのシフト量は「4」、エリア3でのシフト量は「6」に設定されている。また、Tv6、7といったように電子シャッタ中に駆動している場合に関しては、すでに駆動しているパルス分シフト量を増やす必要があるため、Tv5の場合に比べしシフト量はその電子シャッタ中の駆動パルス分を加味している。
表2
Table 2 shows the correspondence of the shift amount to the exposure amount (Tv). Referring to the timing chart of FIG. 17, considering the case of Tv5 (33 ms), the exposure of the upper half of one screen is performed while the focus optical system is driven by the previous four pulses. However, the lower half of the exposure is performed while being driven with the subsequent four pulses. Since the upper and lower surfaces are exposed while driving the focusing optical system for 4 pulses, the AF evaluation value that is actually output is obtained by shifting to the average position of the 4 pulses. That is, the upper half of the exposure is shifted before and after the second pulse, and the lower half of the exposure is shifted before and after the sixth pulse, and the evaluation values at these positions are obtained. In the present invention, the shift amount is calculated based on the vertical drive signal VD. As shown in Table 2, when the exposure amount is Tv5, the shift amount in
Table 2
各合焦エリアにつき上記補正シフト処理により補正を行い、この補正を行った状態で、次に、ピーク位置があるエリアの判定処理(6−5)を行う。エリア判定に関しては、合焦した全エリアを対象にして、より近距離にピークを示すものを合焦位置とする。信頼性のあるピーク位置があるか否かの判定ステップ、すなわち合焦エリア有無の判定ステップ(6−2)でピークのある合焦エリアが見つからない場合は、NGと判定し(6−4)、図14に示すように、シングルAFモードのAF枠を表示する。 Correction is performed by the above-described correction shift process for each in-focus area, and in the state where this correction has been performed, next, determination processing (6-5) for an area having a peak position is performed. Regarding the area determination, all in-focus areas are targeted, and those that show a peak at a closer distance are set as in-focus positions. In the determination step of whether or not there is a reliable peak position, that is, in the determination step of presence or absence of the in-focus area (6-2), if no in-focus area with a peak is found, it is determined as NG (6-4) As shown in FIG. 14, the AF frame in the single AF mode is displayed.
図5に戻り、エリア選択処理(5−7)が終わると、次にエリア表示処理を行う(5−8)。エリア表示処理では、エリア選択処理(5−7)にて選択されたエリアに相当するエリア部分を表示する。図13は人物を被写体にしたときのAFエリア表示の例を示す。最後に、合焦位置移動処理ステップ(5−9)において、上記エリア選択処理(5−7)で選択されたエリアに対応するフォーカス位置(合焦位置)へフォーカス光学系を移動させる。エリア選択処理(5−7)にてNGと判定されている場合(図6において合焦エリアが見つからない場合)は、NG距離に相当するフォーカス位置へフォーカス光学系を移動させる。NG距離は、一般的に過焦点距離を用いる場合があるが、本発明を適用したデジタルカメラの例ではNG距離を2.5mとし、2.5m離れた被写体に合焦するようにフォーカス光学系を移動させるようになっている。
以上のAF動作は、ROM108に格納されている制御プログラムにしたがって、デジタルスチルカメラプロセッサ104が演算し、各部へ動作指令を出すことによって実行される。
Returning to FIG. 5, when the area selection process (5-7) is completed, an area display process is performed (5-8). In the area display process, an area portion corresponding to the area selected in the area selection process (5-7) is displayed. FIG. 13 shows an example of AF area display when a person is a subject. Finally, in the focus position movement process step (5-9), the focus optical system is moved to the focus position (focus position) corresponding to the area selected in the area selection process (5-7). When it is determined as NG in the area selection process (5-7) (when the in-focus area is not found in FIG. 6), the focus optical system is moved to the focus position corresponding to the NG distance. In general, the NG distance may use a hyperfocal distance, but in the example of the digital camera to which the present invention is applied, the NG distance is set to 2.5 m, and the focus optical system is set so as to focus on an object 2.5 m away Is supposed to move.
The AF operation described above is executed by the digital still camera processor 104 operating according to a control program stored in the
以上の処理により、フォーカス光学系の位置と取得されたAF評価値との対応関係をシフトさせ、CMOS撮像素子を用いたローリングシャッタにより生じるフォーカス光学系の位置と取得されるAF評価値の対応関係のずれを正すことができ、精度良く合焦位置を求めることができる。そして、求めた合焦位置で本撮影・記録を行うことができる。 By the above processing, the correspondence between the position of the focus optical system and the acquired AF evaluation value is shifted, and the correspondence between the position of the focus optical system generated by the rolling shutter using the CMOS image sensor and the acquired AF evaluation value. The in-focus position can be obtained with high accuracy. Then, the actual photographing / recording can be performed at the obtained in-focus position.
次に、第2の実施例にかかるデジタルカメラについてその動作を説明する。図7は、第2の実施例におけるAFに関する全体のフローを示している。まず、カメラの電源をONすると、図13に示すようなファインダモードの状態になる。続いてAFエリアの設定処理を行う(7−1)。AFエリアはAFモードによって決定される。モードダイアルSW2の状態を確認し、AFモードがシングルAFモードであるか、もしくは、マルチAFモードであるかどうかを確認する。マルチAFモードであった場合は、マルチエリアに設定し、ファインダモードを例えば図10に示すような複数のAFエリアを表示するモードにする。シングルAFモードであった場合には、シングルエリアに設定し、ファインダモードを例えば図19のような画面のほぼ中央に一つのAFエリアを表示するモードに設定する。 Next, the operation of the digital camera according to the second embodiment will be described. FIG. 7 shows an overall flow relating to AF in the second embodiment. First, when the camera is turned on, a finder mode as shown in FIG. 13 is set. Subsequently, AF area setting processing is performed (7-1). The AF area is determined by the AF mode. The state of the mode dial SW2 is confirmed, and it is confirmed whether the AF mode is the single AF mode or the multi AF mode. In the case of the multi AF mode, the multi area is set, and the finder mode is set to a mode for displaying a plurality of AF areas as shown in FIG. 10, for example. In the case of the single AF mode, the single area is set, and the finder mode is set to a mode in which one AF area is displayed at substantially the center of the screen as shown in FIG.
次に、レリーズSW1が押下されたかどうかを確認する(7−2)。レリーズSW1が押下された場合に、以下の処理を行う。まず、AF時のフォーカス駆動範囲を決定するAF駆動範囲決定処理を行う(7−3)。この処理の具体例を図8に示す。図8において、まず、焦点距離が広角(Wide)の範囲であるかどうかを確認する(8−1)。広角の範囲であった場合は、1露光中のフォーカスステップパルスを4パルスとし(8−2)、そうでなかった場合は焦点距離が望遠(Tele)側にあるものと判断し、1露光中のフォーカスステップパルスを8パルスと設定する(8−3)。次に、上記のように設定されたフォーカスステップパルスから、フォーカス駆動量に加える余裕量の設定を行う(8−4)。 Next, it is confirmed whether or not the release SW1 has been pressed (7-2). When release SW1 is pressed, the following processing is performed. First, an AF drive range determination process for determining a focus drive range during AF is performed (7-3). A specific example of this processing is shown in FIG. In FIG. 8, first, it is confirmed whether or not the focal length is in a wide angle (Wide) range (8-1). If it is in the wide-angle range, the focus step pulse during one exposure is set to four pulses (8-2). Otherwise, it is determined that the focal length is on the telephoto side (Tele), and one exposure is being performed. The focus step pulse is set to 8 pulses (8-3). Next, the margin amount to be added to the focus drive amount is set from the focus step pulse set as described above (8-4).
このような余裕量の設定が必要な理由は以下のとおりである。ローリングシャッタで露光すると、図18に示すように、画面の上面に対して下面は次の露光(露光2)に対するフォーカス駆動が始まった後に出力されるため、事実上露光開始が1露光中に出力されるフォーカスステップ分遅れる。これによって生じる不具合を示しているのが図22である。通常、無限遠に合焦していればそれ以上フォーカス光学系を駆動する必要はないため、無限遠位置でフォーカス光学系の駆動は終了する(図22(a)参照)。しかし、無限遠直近でフォーカス光学系を駆動しながら画面の上部を露光していて無限遠位置に達すると、画面の下部はフォーカス光学系を駆動しない状態で露光することになる。そのため、上部の画面についてはフォーカス光学系を駆動しながら露光し画像信号を転送しているのに対し、下部の画面についてはフォーカス光学系の駆動が終了している状態で露光し画像信号を転送していることになる。その結果、図22(b)に示すように、例えば被写体が人物であった場合、最も重要視される人物の顔の付近において、フォーカス光学系が駆動されている状態と駆動されていない状態が混在することになり、AFの精度を低下させる恐れがある。 The reason why such a margin is required is as follows. When exposure is performed with the rolling shutter, as shown in FIG. 18, since the lower surface with respect to the upper surface of the screen is output after the focus drive for the next exposure (exposure 2) starts, the start of exposure is actually output during one exposure. Delayed by the focus step. FIG. 22 shows a problem caused by this. Normally, if the focus optical system is focused on infinity, it is not necessary to drive the focus optical system any more, so that the drive of the focus optical system ends at the infinity position (see FIG. 22A). However, when the upper part of the screen is exposed while driving the focus optical system near infinity and reaches the infinity position, the lower part of the screen is exposed without driving the focus optical system. For this reason, the upper screen is exposed and the image signal is transferred while driving the focus optical system, while the lower screen is exposed and the image signal is transferred with the focus optical system being driven. Will be. As a result, as shown in FIG. 22B, for example, when the subject is a person, the focus optical system is driven and not driven in the vicinity of the most important person's face. It will be mixed, and there is a risk of reducing the accuracy of AF.
かかる不具合を避けるために、前述のとおり所定のフォーカス駆動量に加える余裕量を設定し、仮にフォーカス光学系が無限遠位置に達したとしても駆動され続けるようにしている。同じことがフォーカス光学系の駆動開始位置においても起こるので、駆動開始位置側にもフォーカス駆動量に加える余裕量を設定する。表3はパルス駆動の余裕量の対応表である。近側に対して、遠側(無限遠)にはそれぞれ1フォーカスステップ分のパルス数を加算して設定している。駆動ステップは例えば、2パルス、4パルス、8パルスというように適宜設定することができ、設定したパルス数と同じパルス数を、フォーカス駆動量に加える余裕量として設定している。
表3
In order to avoid such inconvenience, as described above, a margin amount to be added to the predetermined focus drive amount is set so that the drive continues even if the focus optical system reaches the infinity position. Since the same occurs at the drive start position of the focus optical system, a margin amount to be added to the focus drive amount is also set on the drive start position side. Table 3 is a correspondence table of pulse drive margins. The number of pulses for one focus step is added to the far side (infinity) for the near side and set. The drive step can be set as appropriate, for example, 2 pulses, 4 pulses, 8 pulses, and the same number of pulses as the set number of pulses is set as a margin amount to be added to the focus drive amount.
Table 3
また、露光量(Tv)に対してのシフト量対応は表4のとおりである。1露光中におけるフォーカス光学系の駆動ステップが4パルスの場合と8パルスの場合において、それぞれ画面の上下方向に設定した領域1、領域2、領域3につき表4に示すようにシフト量を設定している。
表4
The correspondence of the shift amount with respect to the exposure amount (Tv) is shown in Table 4. When the drive step of the focus optical system during one exposure is 4 pulses and 8 pulses, the shift amount is set as shown in Table 4 for each of the
Table 4
次に、図7に戻りフォーカス光学系をフォーカス駆動開始位置へと移動させる(7−4)。ここでは、至近位置をフォーカス動作開始位置とする。至近位置に関しては光学系によって異なる場合があるが、一般的には30cm前後が好ましい。次に、レンズ駆動処理(7−5)により、フォーカス光学系をある一定の間隔で無限遠位置まで駆動していく。ここではフォーカスモータ7−2bがパルスモータを利用しているため、30cmから無限遠までを1露光につきWideでは4パルス、Teleでは8パルスずつ駆動させることになる。その際にフォーカス光学系を駆動しながらAF評価値取得処理(7−6)により、AFエリアに対するAF評価値を取得する。以上の動作ステップ7−5から7−7までをフォーカス位置が無限遠になるまで繰り返し行う。 Next, returning to FIG. 7, the focus optical system is moved to the focus drive start position (7-4). Here, the closest position is set as the focus operation start position. Although the close position may vary depending on the optical system, generally around 30 cm is preferable. Next, the focus optical system is driven to an infinite position at a certain interval by lens drive processing (7-5). Here, since the focus motor 7-2b uses a pulse motor, it is driven from 30 cm to infinity for each exposure with 4 pulses for Wide and 8 pulses for Tele. At this time, an AF evaluation value for the AF area is acquired by AF evaluation value acquisition processing (7-6) while driving the focus optical system. The above operation steps 7-5 to 7-7 are repeated until the focus position reaches infinity.
次にエリア選択処理(7−8)を行う。このエリア選択処理(7−8)は、前述の図6に示す動作と同じである。すなわち、図6において、まず、取得された各AFエリアに対するAF評価値から、合焦点判定処理(6−1)を行う。ここではAF評価値の信頼性評価を行うとともに、評価値の中でのピーク位置を判定する。次に、この判定の結果、信頼性のあるピーク位置があるか否かを判定する(6−2)。信頼性評価では、例えば、所定値以上の評価値を持つピーク位置や、周辺の評価値との下降、上昇度合いが所定値以上のピーク位置を、信頼性のあるピーク位置とする。信頼性のあるピーク位置があった場合は、そのエリアに関して補正シフト処理を行う(6−3)。補正シフト処理を行う際は、まず合焦したエリアがどの領域かを判断する。 Next, area selection processing (7-8) is performed. This area selection processing (7-8) is the same as the operation shown in FIG. That is, in FIG. 6, first, focus determination processing (6-1) is performed from the AF evaluation values for the acquired AF areas. Here, the reliability of the AF evaluation value is evaluated, and the peak position in the evaluation value is determined. Next, as a result of this determination, it is determined whether there is a reliable peak position (6-2). In the reliability evaluation, for example, a peak position having an evaluation value equal to or greater than a predetermined value, or a peak position whose descending or rising degree with respect to surrounding evaluation values is equal to or greater than a predetermined value is set as a reliable peak position. If there is a reliable peak position, correction shift processing is performed for that area (6-3). When performing the correction shift process, it is first determined which area is the focused area.
上記領域判断は、図12に示すように領域を上下方向に3つに分け、AFエリアが上記3つの領域のどの領域に含まれているかで決められる。前記表1は上記領域の選択に関しての対応表である。エリア番号は1から5まで、シフトエリアは図12のとおり領域1,2,3の3つの領域がある。シングルAFモードの場合に関しては、ここでは領域2と判断するようにしている。マルチAFモードの場合、図10からも明らかなように、エリア番号「1」は領域1、エリア番号「2」「3」「4」は領域2、エリア番号「5」は領域3と判断する。
The area determination is determined by dividing the area into three in the vertical direction as shown in FIG. 12 and which of the three areas the AF area is included in. Table 1 is a correspondence table regarding the selection of the area. The area number is from 1 to 5, and the shift area has three
各合焦エリアにつき上記補正シフト処理により補正を行い、この補正を行った状態で、次に、ピーク位置があるエリアの判定処理(6−5)を行う。エリア判定に関しては、合焦した全エリアを対象にして、より近距離にピークを示すものを合焦位置とする。信頼性のあるピーク位置があるか否かを判定するステップ(6−2)でピークのある合焦エリアが見つからない場合は、NGと判定し(6−4)、図14に示すように、シングルAFモードのAF枠を表示する。 Correction is performed by the above-described correction shift process for each in-focus area, and in the state where this correction has been performed, next, determination processing (6-5) for an area having a peak position is performed. Regarding the area determination, all in-focus areas are targeted, and those that show a peak at a closer distance are set as in-focus positions. In step (6-2) for determining whether or not there is a reliable peak position, if an in-focus area with a peak is not found, it is determined as NG (6-4), and as shown in FIG. The AF frame in single AF mode is displayed.
図7に戻り、エリア選択処理(7−8)が終わると、次にエリア表示処理を行う(7−9)。エリア表示処理では、エリア選択処理(7−8)にて選択されたエリアに相当するエリア部分を表示するようにしている。図13は人物を被写体にしたときのAFエリア表示状態を示す。信頼性のあるピーク位置があるか否か、すなわち合焦エリア有無の判定ステップ(6−2)でピークのある合焦エリアが見つからない場合は、NGと判定し(6−4)、図14に示すように、シングルAFモードのAF枠を表示する。 Returning to FIG. 7, when the area selection process (7-8) is completed, an area display process is performed (7-9). In the area display process, an area portion corresponding to the area selected in the area selection process (7-8) is displayed. FIG. 13 shows an AF area display state when a person is a subject. Whether or not there is a reliable peak position, that is, when a focused area with a peak is not found in the focused area presence / absence determination step (6-2), it is determined as NG (6-4), and FIG. As shown, the AF frame in the single AF mode is displayed.
最後に、合焦位置移動処理ステップ(5−9)において、上記エリア選択処理(5−7)で選択されたエリアに対応するフォーカス位置(合焦位置)へフォーカス光学系を移動させる。エリア選択処理(5−7)にてNGと判定されている場合(図6において合焦エリアが見つからない場合)は、NG距離に相当するフォーカス位置へフォーカス光学系を移動させる。NG距離は、一般的に過焦点距離を用いる場合があるが、本発明を適用したデジタルカメラの例ではNG距離を2.5mとし、2.5m離れた被写体に合焦するようにフォーカス光学系を移動させるようになっている。
以上のAF動作は、ROM108に格納されている制御プログラムにしたがって、デジタルスチルカメラプロセッサ104が演算し、各部へ動作指令を出すことによって実行される。
Finally, in the focus position movement process step (5-9), the focus optical system is moved to the focus position (focus position) corresponding to the area selected in the area selection process (5-7). When it is determined as NG in the area selection process (5-7) (when the in-focus area is not found in FIG. 6), the focus optical system is moved to the focus position corresponding to the NG distance. In general, the NG distance may use a hyperfocal distance, but in the example of the digital camera to which the present invention is applied, the NG distance is set to 2.5 m, and the focus optical system is set so as to focus on an object 2.5 m away Is supposed to move.
The AF operation described above is executed by the digital still camera processor 104 operating according to a control program stored in the
以上の処理により、フォーカス駆動範囲を所定の駆動ステップ分広げ、その広げたフォーカス駆動範囲内でAF評価値を取得すると、露光時の環境が変わらないため、精度の良いAF評価値を求めることができる。そして、その求めたAF評価値とフォーカス光学系の位置との対応関係を補正して、合焦位置を検出することにより、合焦位置の検出精度を上げることができる。 With the above processing, when the focus drive range is expanded by a predetermined drive step and the AF evaluation value is acquired within the expanded focus drive range, the environment during exposure does not change, and thus a highly accurate AF evaluation value can be obtained. it can. Then, by correcting the correspondence between the obtained AF evaluation value and the position of the focus optical system and detecting the focus position, the detection accuracy of the focus position can be increased.
実施例1、実施例2ではマルチAFモード時に5つのエリアを設定しているが、これに限られるものではなく、より広い範囲にエリアを拡張し、あるいはエリア数を増やしてよい。その場合、図12に示すような3つの領域ではなく、より細分化した領域で補正をする必要がある。 In the first and second embodiments, five areas are set in the multi AF mode. However, the present invention is not limited to this, and the area may be expanded to a wider range or the number of areas may be increased. In that case, it is necessary to perform correction in a subdivided area instead of the three areas as shown in FIG.
実施例2では、ステップパルス数の設定を、焦点距離を基準にして判断しているが、AFの駆動範囲、例えば通常の撮影領域(例えば30cm〜∞)とマクロ撮影領域(例えば1cm〜30cm)で切り替えられるようにすると、より精度の高いAFを実現することができる。 In the second embodiment, the setting of the number of step pulses is determined based on the focal length. However, the AF driving range, for example, a normal imaging region (for example, 30 cm to ∞) and a macro imaging region (for example, 1 cm to 30 cm) are used. If it is possible to switch at this point, more accurate AF can be realized.
7−2 フォーカス光学系
101 撮像手段としてのCMOS
7-2 Focus
Claims (10)
被写体像に対応する画像データを取得する撮像手段と、
前記撮像手段による露光中に前記フォーカス光学系を移動させながら前記画像データを取得する際に前記画像データ内の少なくとも一つのAFエリアに対応するデータからAF評価値を取得するAF評価値取得手段と、
フォーカス駆動範囲内で前記フォーカス光学系を移動させる間に前記AF評価値取得手段により取得された前記AF評価値を用いて合焦位置を検出する合焦位置検出手段と、を備え、
前記フォーカス光学系の位置と前記AF評価値との対応関係を補正する補正手段をさらに備えていることを特徴とする撮像装置。 Focus optics,
Imaging means for acquiring image data corresponding to the subject image;
AF evaluation value acquisition means for acquiring an AF evaluation value from data corresponding to at least one AF area in the image data when acquiring the image data while moving the focus optical system during exposure by the imaging means; ,
A focus position detection unit that detects a focus position using the AF evaluation value acquired by the AF evaluation value acquisition unit while moving the focus optical system within a focus drive range, and
An imaging apparatus, further comprising a correction unit that corrects a correspondence relationship between the position of the focus optical system and the AF evaluation value.
前記撮像手段による露光中にフォーカス光学系を移動させながら前記画像データを取得する際に前記画像データ内の少なくとも一つのAFエリアに対応するデータからAF評価値を取得し、
フォーカス駆動範囲内でフォーカス光学系を移動させる間に前記AF評価値を用いて合焦位置を検出する撮像方法であって、
前記フォーカス光学系の位置と前記AF評価値との対応関係を補正することを特徴とする撮像方法。 Obtain image data corresponding to the subject image by the imaging means,
When acquiring the image data while moving a focus optical system during exposure by the imaging unit, an AF evaluation value is acquired from data corresponding to at least one AF area in the image data;
An imaging method for detecting an in-focus position using the AF evaluation value while moving a focus optical system within a focus drive range,
An imaging method, wherein a correspondence relationship between the position of the focus optical system and the AF evaluation value is corrected.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008295152A JP2010122410A (en) | 2008-11-19 | 2008-11-19 | Imaging apparatus and imaging method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008295152A JP2010122410A (en) | 2008-11-19 | 2008-11-19 | Imaging apparatus and imaging method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010122410A true JP2010122410A (en) | 2010-06-03 |
Family
ID=42323817
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008295152A Pending JP2010122410A (en) | 2008-11-19 | 2008-11-19 | Imaging apparatus and imaging method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010122410A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8928799B2 (en) | 2011-10-13 | 2015-01-06 | Ricoh Company, Ltd. | Imaging device and imaging method to perform autofocus operation to a subject |
JP2015169907A (en) * | 2014-03-10 | 2015-09-28 | キヤノン株式会社 | Imaging apparatus, method for controlling the same, program, and storage medium |
-
2008
- 2008-11-19 JP JP2008295152A patent/JP2010122410A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8928799B2 (en) | 2011-10-13 | 2015-01-06 | Ricoh Company, Ltd. | Imaging device and imaging method to perform autofocus operation to a subject |
JP2015169907A (en) * | 2014-03-10 | 2015-09-28 | キヤノン株式会社 | Imaging apparatus, method for controlling the same, program, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5054583B2 (en) | Imaging device | |
JP5564996B2 (en) | Imaging apparatus and imaging method | |
JP4979507B2 (en) | Imaging apparatus and imaging method | |
JP5272551B2 (en) | Imaging apparatus and method | |
JP2008136035A (en) | Imaging apparatus | |
JP2012186670A (en) | Imaging device, imaging method, and imaging program | |
KR101462323B1 (en) | Imaging device and imaging method | |
JP2014002197A (en) | Imaging device and imaging method | |
JP2013113903A (en) | Imaging apparatus and imaging method | |
JP6539075B2 (en) | Imaging device, control method therefor, program, storage medium | |
JP5857610B2 (en) | Imaging apparatus and imaging method | |
JP4855155B2 (en) | Imaging apparatus and imaging method using the same | |
JP2012093409A (en) | Image-pickup device and image-pickup method | |
US9826141B2 (en) | Imaging apparatus | |
JP6136310B2 (en) | Imaging device | |
JP2010122410A (en) | Imaging apparatus and imaging method | |
JP2007094023A (en) | Focus adjustment method of focus lens and imaging apparatus | |
JP2003241066A (en) | Camera | |
JP5418553B2 (en) | Imaging apparatus and imaging method using the same | |
JP2013195611A (en) | Imaging apparatus and display processing method | |
JP4794162B2 (en) | Focus detection apparatus and focus detection method | |
JP4688485B2 (en) | Imaging device with auxiliary light function | |
JP5091091B2 (en) | Imaging apparatus, autofocus control method thereof, and control program | |
JP4376593B2 (en) | Focus detection apparatus and focus detection method | |
JP2018151415A (en) | Imaging device, method of controlling imaging device, and program |