JP5207797B2 - Imaging apparatus and control method thereof - Google Patents

Imaging apparatus and control method thereof Download PDF

Info

Publication number
JP5207797B2
JP5207797B2 JP2008088815A JP2008088815A JP5207797B2 JP 5207797 B2 JP5207797 B2 JP 5207797B2 JP 2008088815 A JP2008088815 A JP 2008088815A JP 2008088815 A JP2008088815 A JP 2008088815A JP 5207797 B2 JP5207797 B2 JP 5207797B2
Authority
JP
Japan
Prior art keywords
focus detection
focus
imaging
detection
pixels
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2008088815A
Other languages
Japanese (ja)
Other versions
JP2009244429A (en
Inventor
和男 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008088815A priority Critical patent/JP5207797B2/en
Publication of JP2009244429A publication Critical patent/JP2009244429A/en
Application granted granted Critical
Publication of JP5207797B2 publication Critical patent/JP5207797B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Studio Devices (AREA)
  • Focusing (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮像装置に関する。   The present invention relates to an imaging apparatus.

デジタルカメラのライブビューのピント合わせとしては、コントラスト検出方式を使用したオートフォーカス(以下、「コントラストAF」又は「TV−AF」と略す)が主流である。一方、デジタル一眼レフカメラには連写性能や動体追従性能が求められるため、合焦速度の速い位相差検出方式を使用したAF(以下、「位相差AF」と略す)が適しており、ライブビュー時のピント合わせにTV−AFを使用すると合焦速度が遅くなる。   As a focus for live view of a digital camera, autofocus using a contrast detection method (hereinafter, abbreviated as “contrast AF” or “TV-AF”) is the mainstream. On the other hand, since digital single-lens reflex cameras require continuous shooting performance and moving object tracking performance, AF using a phase difference detection method with a fast focusing speed (hereinafter referred to as “phase difference AF”) is suitable. When TV-AF is used for focusing at the time of view, the focusing speed becomes slow.

そこで、特許文献1は、ライブビュー時に位相差AFとTV−AFの2つのAF方式を利用可能にしたハイブリッドAFを提案している。特許文献1は、撮影光路を複数の光路に分割するためハーフミラーで構成された主ミラーと、分割後の光路の一方を合焦位置判断素子に他方を撮像素子に導くための光路に分割するハーフミラーで構成されたサブミラーとを備えている。主ミラーとサブミラーは撮影待機時に撮影光路内に移動して焦点検出素子と撮像素子による合焦位置検出を行い、撮影時に撮影光路外に移動して撮像素子による合焦位置検出を行う。   Therefore, Patent Document 1 proposes a hybrid AF that can use two AF methods of phase difference AF and TV-AF during live view. Patent Document 1 divides a photographing optical path into a plurality of optical paths, a main mirror constituted by a half mirror, and one of the divided optical paths into an in-focus position determination element and an optical path for guiding the other into an imaging element. And a sub mirror composed of a half mirror. The main mirror and the sub-mirror move in the photographing optical path when waiting for photographing and detect the in-focus position by the focus detection element and the image sensor, and move out of the photographing optical path during photographing and detect the in-focus position by the image sensor.

その他の特許文献としては特許文献2がある。
特開2006−251065号公報 特開2005−283750号公報
There exists patent document 2 as another patent document.
JP 2006-251065 A JP 2005-283750 A

しかし、特許文献1は、撮像領域内で位相差AF可能な場所が像検出センサの配置場所に限られてしまうし、撮影する際には主ミラーとサブミラーの移動により、レリーズタイムラグが生じるおそれがある。   However, in Patent Document 1, the place where the phase difference AF can be performed within the imaging region is limited to the place where the image detection sensor is arranged, and there is a possibility that a release time lag may occur due to the movement of the main mirror and the sub mirror when shooting. is there.

本発明は、ライブビュー時に撮像領域内の何処ででもAFが可能で合焦精度と合焦速度に優れた撮像装置を提供することを例示的な目的とする。   An object of the present invention is to provide an imaging apparatus that can perform AF anywhere in an imaging region during live view and has excellent focusing accuracy and focusing speed.

本発明の一側面としての撮像装置は、フォーカスレンズを含む撮影レンズの射出瞳の全域を通る光を各々が受光して信号を生成する複数の撮影用画素と、各々が前記撮影レンズの前記射出瞳の一部の領域を通る光を受光する複数の焦点検出用画素と、を有する撮像素子と、前記焦点検出用画素の出力から得られた一対の像信号に基づいて焦点ずれ量を検出する第1の検出手段と、前記撮像信号に基づいてコントラスト検出方式の焦点検出を行う第2の検出手段と、焦点検出の対象である焦点検出領域を前記撮像素子の撮像領域に設定する設定部と、を有し、前記第1の検出手段は、記設定部が設定した前記焦点検出領域に対応する前記焦点検出用画素の出力を用いて焦点ずれ量を算出するとともに、前記焦点検出領域外を含む領域の前記焦点検出用画素の出力信号をメモリに記録し検出された焦点ずれ量に基づく第1の合焦位置を基準として、前記第2の検出手段は、前記焦点検出領域に対応する前記撮影用画素からの撮像信号に基づいてコントラスト検出方式の焦点検出を行い、第2の合焦位置を検出することを特徴とする。 An image pickup apparatus as one aspect of the present invention includes a plurality of imaging pixels, each of the light through the entire area of the exit pupil shadow lens off Okasurenzu including shooting to generate image signals Ta and receives, each said an imaging element that having a, a plurality of focus detection pixels that receive light through a portion of a region of the exit pupil of the taking lens, based on the pair of image signals obtained from the output of the focus detection pixels A first detection unit that detects a defocus amount, a second detection unit that performs focus detection using a contrast detection method based on the imaging signal, and an imaging element that captures a focus detection area that is a focus detection target. anda setting tough to set in a region, the first detection means, defocus using the output of the focus detection pixels corresponding to the focus detection area before Ki設 tough has set It calculates the amount of area including the focus detecting area outside The output signal of the serial focus detection pixels recorded in the memory, as the first focus position based on the based on the detected defocus amount, the second detection means, for the photographing corresponding to the focus detection area A second focus position is detected by performing focus detection by a contrast detection method based on an imaging signal from a pixel .

本発明によれば、ライブビュー時に撮像領域内の何処ででもAFが可能で合焦精度と合焦速度に優れた撮像装置を提供することができる。   According to the present invention, it is possible to provide an imaging apparatus that can perform AF anywhere in the imaging area during live view and has excellent focusing accuracy and focusing speed.

図1及び2は本実施例のデジタル一眼レフカメラの断面図である。   1 and 2 are sectional views of the digital single-lens reflex camera of this embodiment.

1はカメラ本体、2は後述の撮影レンズ3をカメラ本体1に着脱可能とするためのマウントであり、各種信号を通信したり、駆動電源を供給したりするためのインターフェース部を有する。3は交換可能な撮影レンズであり、内部にフォーカスレンズ群やズームレンズ群、不図示の絞り装置を有している。図1及び図2は各レンズ群を便宜上1枚のレンズで図示しており、例えば、フォーカスレンズ群をフォーカスレンズ3aとして示している。しかし、実際には多数のレンズにより複雑なレンズ群の組み合わせで構成されている。なお、図1及び図2はフォーカスレンズ3aを撮影レンズ3の前側のレンズに限定する趣旨ではない。   Reference numeral 1 denotes a camera body. Reference numeral 2 denotes a mount for making a photographic lens 3 to be described later attachable to and detachable from the camera body 1, and has an interface unit for communicating various signals and supplying drive power. Reference numeral 3 denotes an interchangeable photographic lens, which has a focus lens group, a zoom lens group, and a diaphragm device (not shown) inside. 1 and 2 show each lens group as a single lens for convenience. For example, the focus lens group is shown as a focus lens 3a. However, in actuality, it is composed of a complex combination of lens groups with a large number of lenses. 1 and 2 are not intended to limit the focus lens 3a to the front lens of the photographing lens 3. FIG.

4はハーフミラーで構成された主ミラーであり、カメラの動作状態に応じて回動可能となっている。主ミラー4は、被写体をファインダーで観察する時は撮影光路へ斜設され、撮影レンズ3からの光束を折り曲げて後述のファインダー光学系へ導く(図1)。主ミラー4は、撮影時やライブビュー時は撮影光路から退避して、撮影レンズ3からの光束を後述の撮像素子6へ導く(図2)。5は撮影レンズ3からの光束を後述の撮像素子6に入射制御するためのシャッターで、通常は閉じた状態(図1)で、撮影時やライブビュー時に開いた状態(図2)となる。   Reference numeral 4 denotes a main mirror composed of a half mirror, which can be rotated according to the operating state of the camera. The main mirror 4 is obliquely arranged in the photographing optical path when observing the subject with the finder, and bends the light beam from the photographing lens 3 and guides it to a finder optical system described later (FIG. 1). The main mirror 4 is retracted from the photographing optical path during photographing or live view, and guides the light flux from the photographing lens 3 to the image sensor 6 described later (FIG. 2). Reference numeral 5 denotes a shutter for controlling incidence of a light beam from the photographing lens 3 to an image sensor 6 to be described later. The shutter 5 is normally closed (FIG. 1) and opened during photographing or live view (FIG. 2).

6はCMOSイメージセンサとその周辺回路で構成された撮像素子である。撮像素子6は、全画素独立出力が可能なように構成されている。また一部の画素が焦点検出用画素となっており、撮像面で位相差検出方式の焦点検出(位相差AF)が可能となっている。より具体的には、撮像素子6は、被写体の像を形成する撮影レンズ3の射出瞳(後述するEP)の全域を通る光を各々が受光して被写体の像を生成する複数の撮影用画素を有する。また、撮像素子6は、各々が撮影レンズ3の射出瞳EPの一部の領域(後述するEPHA及びEPHB)を通る光を受光する複数の焦点検出用画素を更に有する。複数の焦点検出用画素は全体として撮影レンズ3の射出瞳の全域を通る光を受光することができる。 Reference numeral 6 denotes an image sensor composed of a CMOS image sensor and its peripheral circuits. The image sensor 6 is configured so that all pixels can be independently output. Some pixels are focus detection pixels, and phase difference detection type focus detection (phase difference AF) is possible on the imaging surface. More specifically, the image sensor 6 receives a plurality of shooting pixels each of which receives light passing through the entire exit pupil (EP to be described later) of the shooting lens 3 that forms a subject image and generates a subject image. Have The imaging device 6 further includes a plurality of focus detection pixels that each receive light passing through a partial region (EP HA and EP HB described later) of the exit pupil EP of the photographing lens 3. The plurality of focus detection pixels as a whole can receive light passing through the entire exit pupil of the photographing lens 3.

7は主ミラー4とともに回動するサブミラーであり、主ミラー4が撮影光路へ斜設されている時に主ミラー4を透過した光束をAFセンサ8に向かって折り曲げて後述のAFセンサ8へ導く(図1)。サブミラー7は、撮影時やライブビュー時は主ミラー4と共に回動して撮影光路から退避する(図2)。サブミラー7はハーフミラーではなく撮像素子6を遮光する。8はAFセンサであり、2次結像レンズや複数のCCD又はCMOSからなるエリアセンサ等から構成されており、位相差AFが可能となっている。   Reference numeral 7 denotes a sub-mirror that rotates together with the main mirror 4. When the main mirror 4 is obliquely arranged on the photographing optical path, a light beam transmitted through the main mirror 4 is bent toward the AF sensor 8 and guided to the AF sensor 8 (described later). FIG. 1). The sub-mirror 7 rotates together with the main mirror 4 at the time of shooting or live view and retracts from the shooting optical path (FIG. 2). The sub mirror 7 is not a half mirror but shields the image sensor 6. Reference numeral 8 denotes an AF sensor, which includes a secondary imaging lens, an area sensor composed of a plurality of CCDs or CMOSs, and the like, and can perform phase difference AF.

9は撮影レンズ3の一次結像面に配置されたピント板であり、入射面にはフレネルレンズ(集光レンズ)が設けられ、射出面には被写体像(ファインダー像)が結像している。10はファインダー光路変更用のペンタプリズムであり、ピント板9の射出面に結像した被写体像を正立正像に補正する。11、12は接眼レンズである。ここで、ピント板9、ペンタプリズム10、接眼レンズ11、12により構成されている光学系をファインダー光学系と称する。   Reference numeral 9 denotes a focusing plate disposed on the primary image forming surface of the photographing lens 3, a Fresnel lens (condenser lens) is provided on the incident surface, and a subject image (finder image) is formed on the exit surface. . Reference numeral 10 denotes a finder optical path changing pentaprism that corrects a subject image formed on the exit surface of the focusing plate 9 into an erect image. Reference numerals 11 and 12 are eyepiece lenses. Here, an optical system including the focus plate 9, the pentaprism 10, and the eyepieces 11 and 12 is referred to as a finder optical system.

13は自動露光(AE)センサであり、多分割された撮像領域内の各領域に対応したフォトダイオードから構成されており、ピント板9の射出面に結像した被写体像の輝度を測定する。14は撮影した画像や各種の撮影情報を表示する液晶モニタ(表示部)である。液晶モニタ14は、ライブビューモード時に撮像素子6が撮像した被写体の像(被写体像)を表示すると共に後述するAF枠設定部としてのマルチコントローラー33が設定可能なAF枠とマルチコントローラー33が設定したAF枠を表示する。   Reference numeral 13 denotes an automatic exposure (AE) sensor, which is composed of photodiodes corresponding to respective areas in the multi-divided imaging area, and measures the luminance of the subject image formed on the exit surface of the focusing screen 9. A liquid crystal monitor (display unit) 14 displays captured images and various types of shooting information. The liquid crystal monitor 14 displays an object image (subject image) captured by the image sensor 6 in the live view mode, and is set by the AF controller and the AF controller 33 that can be set by the AF controller setting unit described later. The AF frame is displayed.

図3はデジタル一眼レフカメラの制御系のブロック図である。   FIG. 3 is a block diagram of a control system of the digital single-lens reflex camera.

20はカメラ部の制御とカメラ全体の制御を行うマイクロコンピュータ(中央処理装置;以下、「MPU」と称す)である。MPU(制御部)20は、後述する枠設定部であるマルチコントローラー33が設定したAF枠の焦点検出用画素の出力信号を演算することによってAF枠に対して位相差AFを行って焦点検出枠の焦点ずれ量を算出する。また、MPU20は、焦点ずれ量とフォーカスレンズ3aの現在位置から求まる撮影レンズ3の合焦位置(後述するPs)を基準としてコントラスト検出方式の焦点検出(コントラストAF又はTV−AF)をマルチコントローラー33が設定したAF枠に対して行う。フォーカスレンズ3aの現在位置は後述する位置検出部35が検出する。   Reference numeral 20 denotes a microcomputer (central processing unit; hereinafter referred to as “MPU”) that controls the camera unit and the entire camera. The MPU (control unit) 20 performs phase difference AF on the AF frame by calculating an output signal of the focus detection pixel of the AF frame set by the multi-controller 33 which is a frame setting unit to be described later, thereby performing the focus detection frame. The amount of defocus is calculated. Further, the MPU 20 performs contrast detection focus detection (contrast AF or TV-AF) with the multi-controller 33 on the basis of the focal position of the photographing lens 3 (Ps to be described later) obtained from the defocus amount and the current position of the focus lens 3a. Is performed on the set AF frame. The current position of the focus lens 3a is detected by a position detector 35 described later.

21は画像データの各種制御を行うメモリコントローラ、22は各種制御を行うための設定、調整データ等を格納しているEEPROMである。23は撮影レンズ3内にあるレンズ制御回路であり、マウント2を介してMPU20と接続されており、後述の各情報に基づいてフォーカスレンズ3aの焦点調節(合焦駆動)や絞り駆動を行う。   Reference numeral 21 denotes a memory controller that performs various controls of image data. Reference numeral 22 denotes an EEPROM that stores settings and adjustment data for performing various controls. A lens control circuit 23 in the photographing lens 3 is connected to the MPU 20 via the mount 2 and performs focus adjustment (focus drive) and aperture drive of the focus lens 3a based on each information described later.

24は焦点検出回路であり、AFセンサ8のエリアセンサの蓄積制御と読み出し制御とを行って、各焦点検出点の画素情報をMPU20に出力する。MPU20は各焦点検出点の画素情報を周知の位相差AFを行い、検出した焦点検出情報をレンズ制御回路23へ送出してフォーカスレンズ3aの焦点調節を行う。この焦点検出から焦点調節までの一連の動作をAF動作と称する。   Reference numeral 24 denotes a focus detection circuit that performs accumulation control and readout control of the area sensor of the AF sensor 8 and outputs pixel information of each focus detection point to the MPU 20. The MPU 20 performs known phase difference AF on the pixel information of each focus detection point, and sends the detected focus detection information to the lens control circuit 23 to adjust the focus of the focus lens 3a. A series of operations from focus detection to focus adjustment is referred to as AF operation.

25は測光回路であり、AEセンサ13の各領域からの輝度信号をMPU20に出力する。MPU20は、輝度信号をA/D変換して被写体の測光情報とし、この測光情報を用いて撮影露出を演算し設定する。この測光情報を得てから撮影露出の設定までの一連の動作をAE動作と称する。26はモータ駆動回路であり、主ミラー4を駆動する不図示のモータやシャッター5のチャージを行う不図示のモータを制御する。27はシャッター駆動回路であり、シャッター5を開閉するための不図示のコイルへの電力供給制御を行う。28は電源29の電圧を各回路に必要な電圧に変換するDC/DCコンバータである。   A photometric circuit 25 outputs a luminance signal from each area of the AE sensor 13 to the MPU 20. The MPU 20 performs A / D conversion of the luminance signal to obtain photometric information of the subject, and uses this photometric information to calculate and set the photographic exposure. A series of operations from obtaining this photometric information to setting the photographic exposure is called an AE operation. A motor driving circuit 26 controls a motor (not shown) that drives the main mirror 4 and a motor (not shown) that charges the shutter 5. Reference numeral 27 denotes a shutter drive circuit that controls power supply to a coil (not shown) for opening and closing the shutter 5. A DC / DC converter 28 converts the voltage of the power source 29 into a voltage necessary for each circuit.

30はレリーズボタンであり、SW1とSW2の信号をMPU20へ出力する。SW1は、第1ストローク(半押し)操作でONし、測光(AE)、AF動作を開始させるためのスイッチである。SW2は、レリーズボタンの第2ストローク(全押し)操作でONし、露光動作を開始させるためのスイッチである。31はモードボタンであり、操作したまま後述の電子ダイヤル32を操作すると、そのカウントに応じて撮影モードが変更され、操作を止めると決定される。32は電子ダイヤルであり、ダイヤルの回転クリックに応じたON信号がMPU20内の不図示のアップダウンカウンタに出力され、その数がカウントされる。このカウントに応じて各種の数値やデータ等の選択が行われる。   A release button 30 outputs SW1 and SW2 signals to the MPU 20. SW1 is a switch that is turned on by a first stroke (half-press) operation to start photometry (AE) and AF operations. SW2 is a switch for turning on by a second stroke (full press) operation of the release button to start an exposure operation. Reference numeral 31 denotes a mode button. When an electronic dial 32 described later is operated while being operated, the shooting mode is changed according to the count, and it is determined that the operation is stopped. Reference numeral 32 denotes an electronic dial. An ON signal corresponding to a dial rotation click is output to an up / down counter (not shown) in the MPU 20 and the number thereof is counted. Various numerical values and data are selected according to this count.

33はマルチコントローラーであり、後述するライブビュー時に液晶モニタ14に表示されるAF枠(焦点検出枠)や各種モードを選択、決定するために用いられる入力装置である。マルチコントローラー33は、上下左右、斜め右上、斜め右下、斜め左上、斜め左下の8方向の入力と、押し操作による入力を行うことができる。マルチコントローラー33は、ライブビューモードを設定するモード設定部として機能する。また、マルチコントローラー33は、焦点検出の対象であるAF枠を撮像素子6の撮像領域の任意の位置に設定する枠設定部としても機能する。34は電源ボタンであり、操作するとカメラの電源がON/OFFされる。   Reference numeral 33 denotes a multi-controller, which is an input device used to select and determine an AF frame (focus detection frame) displayed on the liquid crystal monitor 14 and various modes during a live view described later. The multi-controller 33 can perform input in eight directions of up / down / left / right, diagonal upper right, diagonal lower right, diagonal upper left, diagonal lower left, and input by a push operation. The multi-controller 33 functions as a mode setting unit that sets a live view mode. The multi-controller 33 also functions as a frame setting unit that sets an AF frame that is a focus detection target at an arbitrary position in the imaging region of the imaging device 6. A power button 34 turns on / off the camera when operated.

35はフォーカスレンズ3aの現在位置を検出する位置検出部である。36はフォーカスレンズ3aを光軸方向に駆動するレンズドライバである。レンズドライ36によるフォーカスレンズ3aの駆動はレンズ制御回路23によって制御される。   A position detector 35 detects the current position of the focus lens 3a. A lens driver 36 drives the focus lens 3a in the optical axis direction. The driving of the focus lens 3 a by the lens dry 36 is controlled by the lens control circuit 23.

40は撮像素子6から出力される画像信号をサンプルホールド及び自動ゲイン調整するCDS(相関2重サンプリング)/AGC(自動ゲイン調整)回路である。41はCDS/AGC回路40のアナログ出力をデジタル信号に変換するA/D変換器である。42はTG(タイミング発生)回路であり、撮像素子6に駆動信号を、CDS/AGC回路40にサンプルホールド信号を、A/D変換器41にサンプルクロック信号を供給する。ここでメモリコントローラ21は、撮像素子6から出力される画像信号をCDS/AGC回路40、A/D変換器41を経て受けて、TV−AFにより被写体像の焦点検出を行うことが可能である。   Reference numeral 40 denotes a CDS (correlated double sampling) / AGC (automatic gain adjustment) circuit that samples and holds an image signal output from the image sensor 6 and performs automatic gain adjustment. Reference numeral 41 denotes an A / D converter that converts the analog output of the CDS / AGC circuit 40 into a digital signal. Reference numeral 42 denotes a TG (timing generation) circuit, which supplies a drive signal to the image sensor 6, a sample hold signal to the CDS / AGC circuit 40, and a sample clock signal to the A / D converter 41. Here, the memory controller 21 can receive the image signal output from the image sensor 6 through the CDS / AGC circuit 40 and the A / D converter 41 and detect the focus of the subject image by the TV-AF. .

43はA/D変換器41でデジタル変換された画像等を一時的に記録するためのSDRAM(メモリ)である。SDRAM43は、撮像素子6の撮像領域の全域の焦点検出用画素の出力信号を記録することができる。あるいは、SDRAM43は、撮像素子6の撮像領域の全域に対して位相差AFを行って焦点ずれ量を算出して記録する。   Reference numeral 43 denotes an SDRAM (memory) for temporarily recording an image or the like digitally converted by the A / D converter 41. The SDRAM 43 can record the output signal of the focus detection pixels in the entire imaging area of the imaging device 6. Alternatively, the SDRAM 43 performs phase difference AF on the entire imaging region of the imaging device 6 to calculate and record the defocus amount.

44は画像をY/C(輝度信号/色差信号)分離、ホワイトバランス補正、γ補正等を行う画像処理回路である。45は画像をJPEG等の形式に従って圧縮したり、圧縮された画像の伸張を行う画像圧縮/伸張回路である。ここでメモリコントローラ21は、撮像素子6から出力される画像信号を画像処理回路44で画像処理することにより、被写体の測光情報を得ることが可能である。46はSDRAM43や後述するメディア48に記録された画像を液晶モニタ14に表示するために、画像をアナログ信号に変換するD/A変換器である。47は画像を記録保存するためのメディア48とのI/F(インターフェース)である。   An image processing circuit 44 performs Y / C (luminance signal / color difference signal) separation, white balance correction, γ correction, and the like on the image. An image compression / decompression circuit 45 compresses an image according to a format such as JPEG or decompresses the compressed image. Here, the memory controller 21 can obtain photometric information of the subject by performing image processing on the image signal output from the image sensor 6 by the image processing circuit 44. A D / A converter 46 converts an image into an analog signal in order to display an image recorded on the SDRAM 43 or a medium 48 described later on the liquid crystal monitor 14. Reference numeral 47 denotes an I / F (interface) with the medium 48 for recording and storing images.

続いて、撮像素子6による撮像面位相差AFについて説明する。本実施形態においては、画素ピッチが8μm、有効画素数が縦3000行×横4500列=1350万画素、撮像画面サイズが横36mm×縦24mmの撮像素子を一例として説明を行なう。またこの撮像素子6は、受光画素上にベイヤー配列の原色カラーモザイクフィルタがオンチップで形成された、2次元単板カラーセンサとなっている。   Next, imaging surface phase difference AF by the imaging element 6 will be described. In the present embodiment, an image sensor having a pixel pitch of 8 μm, an effective pixel number of 3000 rows × 4500 columns = 13.5 million pixels, and an image pickup screen size of 36 mm × 24 mm is described as an example. The image sensor 6 is a two-dimensional single-plate color sensor in which a Bayer array primary color mosaic filter is formed on-chip on a light receiving pixel.

図4〜図6は、撮像用画素と焦点検出用画素の構造を説明する図である。本実施形態は、2行×2列の4画素のうち、対角2画素にG(緑色)の分光感度を有する画素を配置し、他の2画素にR(赤色)とB(青色)の分光感度を有する画素を各1個配置した、ベイヤー配列を採用している。そして、このベイヤー配列の間に、後述する構造の焦点検出用画素が所定の規則にて分散配置される。   4 to 6 are diagrams illustrating the structures of the imaging pixels and the focus detection pixels. In the present embodiment, among 4 pixels of 2 rows × 2 columns, pixels having G (green) spectral sensitivity are arranged in 2 diagonal pixels, and R (red) and B (blue) are arranged in the other 2 pixels. A Bayer arrangement in which one pixel having spectral sensitivity is arranged is employed. In addition, focus detection pixels having a structure described later are distributed and arranged in a predetermined rule between the Bayer arrays.

図4に撮像用画素の配置と構造を示す。図4(a)は、2行×2列の撮像用画素の平面図である。周知のように、ベイヤー配列では対角方向にG画素が、他の2画素にRとBの画素が配置される。そして2行×2列の構造が繰り返し配置される。図4(a)におけるA−A断面図を図4(b)に示す。MLは各画素の最前面に配置されたオンチップマイクロレンズ、CFはR(赤色)のカラーフィルタ、CFはG(緑色)のカラーフィルタである。PD(Photo Diode)はCMOSイメージセンサの光電変換素子を模式的に示したものである。CL(Contact Layer)は、CMOSイメージセンサ内の各種信号を伝達する信号線を形成するための配線層である。TL(Taking Lens)は撮影レンズ3の撮影光学系を模式的に示したものである。 FIG. 4 shows the arrangement and structure of the imaging pixels. FIG. 4A is a plan view of 2 × 2 imaging pixels. As is well known, in the Bayer array, G pixels are arranged diagonally, and R and B pixels are arranged in the other two pixels. A structure of 2 rows × 2 columns is repeatedly arranged. FIG. 4B is a cross-sectional view taken along the line AA in FIG. ML denotes an on-chip microlens arranged in front of each pixel, CF R is a color filter, CF G of R (red), a G (green) color filter. PD (Photo Diode) schematically shows a photoelectric conversion element of a CMOS image sensor. CL (Contact Layer) is a wiring layer for forming signal lines for transmitting various signals in the CMOS image sensor. TL (Taking Lens) schematically shows a photographing optical system of the photographing lens 3.

ここで、撮像用画素のオンチップマイクロレンズMLと光電変換素子PDは、撮影光学系TLを通過した光束を可能な限り有効に取り込むように構成されている。換言すると、撮影光学系TLの射出瞳EP(Exit Pupil)と光電変換素子PDは、マイクロレンズMLにより共役関係にあり、かつ光電変換素子の有効面積は大面積に設計される。また、図4(b)ではR画素の入射光束について説明したが、G画素及びB(青色)画素も同一の構造となっている。従って、撮像用のRGB各画素に対応した射出瞳EPは大径となり、被写体からの光束(光量子)を効率よく取り込んで画像信号のS/Nを向上させている。   Here, the on-chip microlens ML and the photoelectric conversion element PD of the imaging pixel are configured to capture the light beam that has passed through the photographing optical system TL as effectively as possible. In other words, the exit pupil EP (Exit Pupil) of the photographing optical system TL and the photoelectric conversion element PD are in a conjugate relationship by the microlens ML, and the effective area of the photoelectric conversion element is designed to be large. In FIG. 4B, the incident light beam of the R pixel has been described, but the G pixel and the B (blue) pixel have the same structure. Therefore, the exit pupil EP corresponding to each RGB pixel for imaging has a large diameter, and the S / N of the image signal is improved by efficiently taking in the light flux (photon) from the subject.

図5は、撮影光学系の水平方向(左右方向又は横方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す。ここで水平方向とは、撮影光学系の光軸と撮像領域の長辺とが地面に平行となるように撮像装置を構えたとき、この光軸に直交し、かつ水平方向に伸びる直線に沿った方向をいう。図5(a)は、焦点検出用画素を含む2行×2列の画素の平面図である。記録又は観賞のための画像信号を得る場合、G画素で輝度情報の主成分を取得する。そして人間の画像認識特性は輝度情報に敏感であるため、G画素が欠損すると画質劣化が認知されやすい。一方でR画素又はB画素は、色情報(色差情報)を取得する画素であるが、人間の視覚特性は色情報には鈍感であるため、色情報を取得する画素は多少の欠損が生じても画質劣化は認識され難い。そこで本実施形態は、2行×2列の画素のうち、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素に置き換えている。この焦点検出用画素を図5(a)においてSHA及びSHBと示す。 FIG. 5 shows the arrangement and structure of focus detection pixels for performing pupil division in the horizontal direction (left-right direction or horizontal direction) of the photographing optical system. Here, the horizontal direction is along a straight line that is orthogonal to the optical axis and extends in the horizontal direction when the imaging apparatus is held so that the optical axis of the imaging optical system and the long side of the imaging region are parallel to the ground. Refers to the direction. FIG. 5A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. When obtaining an image signal for recording or viewing, the main component of luminance information is acquired by G pixels. Since human image recognition characteristics are sensitive to luminance information, image quality degradation is easily recognized when G pixels are lost. On the other hand, the R pixel or the B pixel is a pixel that acquires color information (color difference information). However, since human visual characteristics are insensitive to color information, the pixel that acquires color information has some defects. However, image quality degradation is difficult to recognize. Therefore, in the present embodiment, among the pixels of 2 rows × 2 columns, the G pixel is left as an imaging pixel, and the R pixel and the B pixel are replaced with focus detection pixels. The focus detection pixels are denoted as S HA and S HB in FIG.

図5(a)におけるA−A断面図を図5(b)に示す。マイクロレンズMLと光電変換素子PDは図4(b)に示した撮像用画素と同一構造である。本実施形態においては、焦点検出用画素の信号は画像生成には用いないため、色分離用カラーフィルタの代わりに透明膜CF(白色)が配置される。また撮像素子6で瞳分割を行なうため、配線層CLの開口部はマイクロレンズMLの中心線に対して一方向に偏倚している。具体的には、画素SHA及び開口部OPHAは右側に偏倚して撮影光学系TLの左側の射出瞳EPHAを通過した光束を受光する。画素SHBの開口部OPHBは左側に偏倚して撮影光学系TLの右側の射出瞳EPHBを通過した光束を受光する。画素SHAを水平方向に規則的に配列し、これらの画素群で取得した被写体像をA像とする。また画素SHBも水平方向に規則的に配列し、これらの画素群で取得した被写体像をB像とする。すると、A像とB像の相対位置を検出することで被写体像のピントずれ量(デフォーカス量)が検出できる。なお、画素SHA及びSHBでは、撮像領域の横方向に輝度分布を有した被写体、例えば縦線に対しては焦点検出可能だが、縦方向に輝度分布を有する横線は焦点検出不能である。そこで本実施形態では、後者についても焦点状態を検出できるよう、撮影光学系の垂直方向(縦方向)にも瞳分割を行なう画素も備えるよう構成されている。 FIG. 5B is a cross-sectional view taken along the line AA in FIG. The microlens ML and the photoelectric conversion element PD have the same structure as the imaging pixel shown in FIG. In this embodiment, since the signal of the focus detection pixel is not used for image generation, a transparent film CF W (white) is disposed instead of the color separation color filter. Further, since pupil division is performed by the image sensor 6, the opening of the wiring layer CL is deviated in one direction with respect to the center line of the microlens ML. Specifically, the pixel S HA and the opening OP HA are biased to the right and receive the light flux that has passed through the left exit pupil EP HA of the imaging optical system TL. Opening OP HB of the pixel S HB, and receives the light beam that has passed through the right exit pupil EP HB of the photographing optical system TL deviate to the left. Pixels SHA are regularly arranged in the horizontal direction, and a subject image acquired by these pixel groups is defined as an A image. The pixels SHB are also regularly arranged in the horizontal direction, and the subject image acquired by these pixel groups is defined as a B image. Then, by detecting the relative position between the A image and the B image, the amount of defocus (defocus amount) of the subject image can be detected. In the pixels S HA and S HB , focus detection is possible for an object having a luminance distribution in the horizontal direction of the imaging region, for example, a vertical line, but focus detection is not possible for a horizontal line having a luminance distribution in the vertical direction. Therefore, in this embodiment, the latter is also provided with pixels that perform pupil division in the vertical direction (longitudinal direction) of the photographing optical system so that the focus state can be detected.

図6は、撮影光学系の垂直方向(上下方向又は縦方向)に瞳分割を行なうための焦点検出用画素の配置と構造を示す。ここで垂直方向とは、撮影光学系の光軸と撮像領域の長辺とが地面に平行となるように撮像装置を構えたとき、この光軸に直交し、鉛直方向に伸びる直線に沿った方向をいう。図6(a)は、焦点検出用画素を含む2行×2列の画素の平面図であり、図5(a)と同様に、G画素は撮像用画素として残し、R画素とB画素を焦点検出用画素としている。この焦点検出用画素を図6(a)においてSVC及びSVDと示す。 FIG. 6 shows the arrangement and structure of focus detection pixels for performing pupil division in the vertical direction (vertical direction or vertical direction) of the photographing optical system. Here, the vertical direction is along a straight line that is perpendicular to the optical axis and extends in the vertical direction when the imaging device is set so that the optical axis of the imaging optical system and the long side of the imaging region are parallel to the ground. The direction. FIG. 6A is a plan view of pixels of 2 rows × 2 columns including focus detection pixels. As in FIG. 5A, G pixels are left as imaging pixels, and R pixels and B pixels are used. Focus detection pixels are used. The focus detection pixels are denoted as S VC and S VD in FIG.

図6(a)のA−A断面図を図6(b)に示す。図5(b)の画素が横方向に瞳分離する構造であるのに対して、図6(b)の画素は瞳分離方向が縦方向になっているが、その他の画素の構造は同様である。画素SVCの開口部OPVCは下側に偏倚して撮影光学系TLの上側の射出瞳EPVCを通過した光束を受光する。同様に、画素SVDの開口部OPVDは上側に偏倚して撮影光学系TLの下側の射出瞳EPVDを通過した光束を受光する。画素SVCを垂直方向に規則的に配列し、これらの画素群で取得した被写体像をC像とする。また画素SVDも垂直方向に規則的に配列し、これらの画素群で取得した被写体像をD像とする。するとC像とD像の相対位置を検出することで、垂直方向に輝度分布を有する被写体像のピントずれ量(デフォーカス量)を検出することができる。 FIG. 6B is a sectional view taken along the line AA in FIG. While the pixel in FIG. 5B has a structure in which the pupil is separated in the horizontal direction, the pixel in FIG. 6B has a vertical pupil separation direction, but the other pixels have the same structure. is there. Pixel openings OP VC of S VC and receives the light beam that has passed through the upper exit pupil EP VC of the photographing optical system TL deviate downward. Similarly, the opening OP VD of the pixel S VD is biased upward and receives the light beam that has passed through the lower exit pupil EP VD of the imaging optical system TL. The pixels SVC are regularly arranged in the vertical direction, and a subject image acquired by these pixel groups is defined as a C image. The pixels SVD are also regularly arranged in the vertical direction, and the subject image acquired by these pixel groups is taken as a D image. Then, by detecting the relative positions of the C image and the D image, it is possible to detect the focus shift amount (defocus amount) of the subject image having the luminance distribution in the vertical direction.

図7〜図9は、図4〜図6に示した撮像用画素及び焦点検出用画素の配置規則を説明する図である。図7は撮像用画素の間に焦点検出用画素を離散的に配置する場合の最小単位の配置規則を説明するための図である。   7 to 9 are diagrams for explaining the arrangement rules of the imaging pixels and the focus detection pixels shown in FIGS. 4 to 6. FIG. 7 is a diagram for explaining a minimum unit arrangement rule in a case where focus detection pixels are discretely arranged between imaging pixels.

図7において、10行×10列=100画素の正方形領域を1つのブロックと定義する。左上のブロックBLK(1,1)において、一番左下のR画素とB画素を、水平方向に瞳分割を行なう1組の焦点検出用画素SHA及びSHBで置き換える。その右隣りのブロックBLK(1,2)においては、同じく一番左下のR画素とB画素を、垂直方向に瞳分割を行なう1組の焦点検出用画素SVC及びSVDで置き換える。また最初のブロックBLK(1,1)の下に隣接したブロックBLK(2,1)の画素配列は、ブロックBLK(1、2)と同一とする。そしてその右隣りのブロックBLK(2,2)の画素配列は、先頭のブロックBLK(1,1)と同一とする。この配置規則を一般化すると、ブロックBLK(i,j)において、i+jが偶数であれば水平瞳分割用の焦点検出用画素を配置し、i+jが奇数であれば垂直瞳分割用の焦点検出用画素を配置することになる。そして図7の2×2=4ブロック、即ち、20行×20列=400画素の領域をブロックの上位の配列単位としてクラスタと定義する。 In FIG. 7, a square region of 10 rows × 10 columns = 100 pixels is defined as one block. In the upper left block BLK H (1, 1), the lower left R pixel and B pixel are replaced with a set of focus detection pixels S HA and S HB that perform pupil division in the horizontal direction. In the block BLK V (1,2) on the right side, the lower left R pixel and B pixel are similarly replaced with a set of focus detection pixels S VC and S VD that perform pupil division in the vertical direction. The pixel arrangement of the block BLK V (2,1) adjacent below the first block BLK H (1,1) is the same as that of the block BLK V (1,2). The pixel arrangement of the block BLK H (2, 2) on the right side is the same as that of the leading block BLK H (1, 1). When this arrangement rule is generalized, in block BLK (i, j), if i + j is an even number, a focus detection pixel for horizontal pupil division is arranged, and if i + j is an odd number, focus detection pixels for vertical pupil division are used. Pixels are arranged. Then, a 2 × 2 = 4 block in FIG. 7, that is, an area of 20 rows × 20 columns = 400 pixels is defined as a cluster as an upper array unit of the block.

図8はクラスタを単位とした配置規則を説明するための図である。図8において、20行×20列=400画素で構成された一番左上のクラスタをCST(u,w)=CST(1,1)とする。クラスタCST(1,1)においては、各ブロックの一番左下のR画素とB画素を焦点検出用画素SHA及びSHB又はSVC及びSVDで置き換える。その右隣りのクラスタCST(1,2)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して上方向に2画素分シフトした位置に配置する。また最初のクラスタCST(1,1)の下に隣接したクラスタCST(2,1)においては、ブロック内における焦点検出用画素の配置を、クラスタCST(1,1)に対して右方向に2画素分シフトした位置に配置する。以上の規則を適用すると図8に示す配置が得られる。 FIG. 8 is a diagram for explaining an arrangement rule in units of clusters. In FIG. 8, the upper left cluster composed of 20 rows × 20 columns = 400 pixels is assumed to be CST (u, w) = CST (1,1). In the cluster CST (1, 1), the lower left R pixel and B pixel of each block are replaced with focus detection pixels S HA and S HB or S VC and S VD . In the cluster CST (1, 2) on the right side, the focus detection pixels in the block are arranged at positions shifted upward by two pixels with respect to the cluster CST (1, 1). Further, in the cluster CST (2, 1) adjacent below the first cluster CST (1, 1), the arrangement of the focus detection pixels in the block is 2 in the right direction with respect to the cluster CST (1, 1). It is arranged at a position shifted by pixels. When the above rules are applied, the arrangement shown in FIG. 8 is obtained.

この配置規則を一般化すると以下のようになる。なお焦点検出用画素の座標は、図5又は図6で示したG画素を含む4画素を一つの単位(ペア)とし、そのうちの左上の画素の座標で規定する。また各ブロック内の座標は左上を(1、1)とし、下方向と右方向を正とする。クラスタCST(u,w)において、各ブロック内の焦点検出用画素ペアの水平座標は2×u−1となり、垂直座標は11−2×wとなる。そして、図8の5×5=25クラスタ、即ち100行×100列=1万画素の領域を、クラスタの上位の配列単位として、フィールドと定義する。   This arrangement rule is generalized as follows. The coordinates of the focus detection pixels are defined by the coordinates of the upper left pixel of the four pixels including the G pixel shown in FIG. 5 or 6 as one unit (pair). The coordinates in each block are (1, 1) in the upper left, and positive in the lower and right directions. In the cluster CST (u, w), the horizontal coordinate of the focus detection pixel pair in each block is 2 × u−1, and the vertical coordinate is 11-2 × w. Then, 5 × 5 = 25 clusters in FIG. 8, that is, an area of 100 rows × 100 columns = 10,000 pixels is defined as a field as an upper array unit of the clusters.

図9はフィールドを単位とした配置規則を説明するための図である。図9において、100行×100列=1万画素で構成された一番左上のフィールドをFLD(q,r)=FLD(1,1)とする。そして本実施形態では、すべてのフィールドFLD(q,r)は先頭フィールドFLD(1,1)と同様の配列となっている。そこでフィールドFLD(q,r)を水平方向に45個、垂直方向に30個配列すると、3000行×4500列=1350万画素の撮像領域は1350個のフィールドFLD(q,r)で構成される。そして撮像領域全面に亘って焦点検出用画素を均一に分布させることができる。   FIG. 9 is a diagram for explaining an arrangement rule in units of fields. In FIG. 9, the upper left field composed of 100 rows × 100 columns = 10,000 pixels is assumed to be FLD (q, r) = FLD (1,1). In this embodiment, all the fields FLD (q, r) have the same arrangement as that of the first field FLD (1,1). Therefore, when 45 fields FLD (q, r) are arranged in the horizontal direction and 30 fields are arranged in the vertical direction, the imaging area of 3000 rows × 4500 columns = 13.5 million pixels is composed of 1350 fields FLD (q, r). . The focus detection pixels can be uniformly distributed over the entire imaging region.

次に図10〜図13を用いて、焦点検出時の画素のグループと信号加算方法について説明する。   Next, a group of pixels and a signal addition method at the time of focus detection will be described with reference to FIGS.

図10は撮影光学系によって形成された被写体像の横ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。横ずれ方向の焦点検出とは、図5で説明した、撮影光学系の射出瞳を横方向(水平方向又は左右方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことを指す。   FIG. 10 is a diagram for explaining a pixel grouping method in the case of performing focus detection in the lateral shift direction of the subject image formed by the photographing optical system. The focus detection in the lateral shift direction performs phase difference focus detection using the focus detection pixels for dividing the exit pupil of the photographing optical system in the horizontal direction (horizontal direction or left-right direction) described in FIG. Refers to that.

図10に示す画素配列は図8で説明したものであるが、焦点検出の際には、横方向に1ブロック、縦方向に10ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして横方向に配列されたセクションSCT(k)を複数連結して1つの焦点検出領域を構成する。本実施形態では一例として1つの焦点検出領域は、セクションSCT(1)からセクションSCT(10)までの10個のセクションを連結して構成している。即ち、100行×100列=1万画素の領域が1つの焦点検出領域となる。これは1フィールドと同一領域であり、図9で説明したように撮像領域で1350個の固定焦点検出領域となるように設定している。もちろん設定方法は様々で、被写体に応じて撮像領域の任意位置のセクションSCT(k)を複数連結することで撮像領域の任意位置に可変焦点検出領域を設定することも可能である。 The pixel arrangement shown in FIG. 10 is the same as that described with reference to FIG. 8, but when focus detection is performed, a total of 10 blocks of 1 block in the horizontal direction and 10 blocks in the vertical direction are grouped and defined as a section. To do. A plurality of sections SCT H (k) arranged in the horizontal direction are connected to form one focus detection region. One focus detection area as an example in the present embodiment is configured by connecting ten sections from section SCT H (1) to the section SCT H (10). That is, an area of 100 rows × 100 columns = 10,000 pixels is one focus detection area. This is the same area as one field, and is set so that there are 1350 fixed focus detection areas in the imaging area as described in FIG. Of course, there are various setting methods, and it is possible to set the variable focus detection region at an arbitrary position in the imaging region by connecting a plurality of sections SCT H (k) at an arbitrary position in the imaging region according to the subject.

ここで1つのセクションには、横方向における一方の瞳分割を行なう画素SHAが5個、他方の瞳分割を行なう画素SHBも5個含まれている。そこで、本実施形態においては、5個のSHAの出力を加算して1画素の信号とし、位相差演算用の一方の画像信号(A像と称する)の1AF画素を得る。同様に、5個のSHBの出力を加算して1画素の信号とし、位相差演算用の他方の画像信号(B像と称する)の1AF画素を得る。 Here, one section includes five pixels S HA that performs one pupil division in the horizontal direction and five pixels S HB that perform the other pupil division. Therefore, in the present embodiment, the outputs of the five SHAs are added to form a signal of one pixel, and one AF signal of one image signal (referred to as A image) for phase difference calculation is obtained. Similarly, the outputs of the five SHBs are added to form a signal of one pixel, and 1AF pixel of the other image signal (referred to as B image) for phase difference calculation is obtained.

図11は一つのセクションにおける被写体像の捕捉能力を説明するための図である。図11は図10の左端のセクションSCT(1)を切り出したものである。そして下端に示された水平線PRJは、焦点検出用画素SHA及びSHBの瞳分割方向に延伸した第1の射影軸(Projection Line)、右端に示された垂直線PRJは、瞳分割方向と直交する方向に延伸した第2の射影軸である。ここで1つのセクション内の画素SHAはすべて加算され、SHBも加算される。そこで1つのセクションを1つのAF画素と見なした場合、1つのAF画素に含まれる受光部を瞳分割方向の射影軸PRJに射影すると、画素SHAとSHBが交互に緻密に並ぶことがわかる。このときの、瞳分割方向の射影軸PRJにおける画素SHAの配列ピッチをP1とすると、P1=PH=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。 FIG. 11 is a diagram for explaining the subject image capturing capability in one section. FIG. 11 is a cut-out section SCT H (1) at the left end of FIG. The horizontal line PRJ H shown at the lower end is a first projection line extending in the pupil division direction of the focus detection pixels S HA and S HB , and the vertical line PRJ V shown at the right end is a pupil division. It is the 2nd projection axis | shaft extended | stretched in the direction orthogonal to a direction. Here, all the pixels S HA in one section are added, and S HB is also added. Therefore, when one section is regarded as one AF pixel, pixels S HA and S HB are alternately arranged densely when a light receiving portion included in one AF pixel is projected onto a projection axis PRJ H in the pupil division direction. I understand. If the arrangement pitch of the pixels S HA on the projection axis PRJ H in the pupil division direction at this time is P1, P1 = PH H = 2 (unit is pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels S HB on the projection axis PRJ H is P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in the spatial frequency notation.

一方、1つのAF画素に含まれる受光部を瞳分割方向と直交方向の射影軸PRJに射影すると、画素SHAとSHBはまばらに並ぶことがわかる。このときの、射影軸PRJにおける画素SHAの配列ピッチをP2とすると、P2=PH=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJにおける画素SHBの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。 On the other hand, when projecting the light receiving portions included in one AF pixel projection axis PRJ V in the pupil division direction and the perpendicular direction, the pixel S HA and S HB is seen that aligned sparsely. When the arrangement pitch of the pixels S HA on the projection axis PRJ V at this time is P2, P2 = PH V = 20 (unit is pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the arrangement pitch of the pixels S HB on the projection axis PRJ V is also P2 = 20 (unit is pixel), and F2 = 0.05 (unit is pixel / pixel) in the spatial frequency notation.

即ち、本実施形態におけるAF画素は、グループ化前の分散特性については、瞳分割方向とこれに直交する方向の配置上のピッチが等しい。しかしながら、グループ化する際のグループ形状を長方形とすることで、瞳分割方向のサンプリング誤差を低減している。具体的には、1セクションの瞳分割方向の最大寸法L1は10画素、瞳分割と直交する方向の最大寸法L2は100画素としている。即ち、セクション寸法をL1<L2とすることで、瞳分割方向のサンプリング周波数F1を高周波(密)に、これと直交する方向のサンプリング周波数F2を低周波(疎)としている。   In other words, the AF pixels in the present embodiment have the same pitch in arrangement in the pupil division direction and the direction orthogonal thereto with respect to the dispersion characteristics before grouping. However, the sampling error in the pupil division direction is reduced by making the group shape at the time of grouping rectangular. Specifically, the maximum dimension L1 in the pupil division direction of one section is 10 pixels, and the maximum dimension L2 in the direction orthogonal to the pupil division is 100 pixels. That is, by setting the section size to L1 <L2, the sampling frequency F1 in the pupil division direction is set to a high frequency (dense), and the sampling frequency F2 in a direction orthogonal to the sampling frequency F1 is set to a low frequency (sparse).

図12は撮影光学系によって形成された被写体像の縦ずれ方向の焦点検出を行なう場合の画素グループ化方法を説明する図である。縦ずれ方向の焦点検出とは、図6で説明した、撮影光学系の射出瞳を縦方向(垂直方向又は上下方向)に分割するための焦点検出用画素を用いて、位相差式焦点検出を行なうことをいう。即ち、図10を90度回転したものに相当する。   FIG. 12 is a diagram for explaining a pixel grouping method in the case where focus detection in the direction of vertical shift of a subject image formed by a photographing optical system is performed. The focus detection in the longitudinal shift direction is the phase difference focus detection using the focus detection pixels for dividing the exit pupil of the photographing optical system in the vertical direction (vertical direction or vertical direction) described in FIG. To do. That is, it corresponds to the one obtained by rotating FIG. 10 by 90 degrees.

図12に示す画素配列も図8で説明したものであるが、焦点検出の際には、横方向に10ブロック、縦方向に1ブロックの合計10ブロックを1つのグループとし、これをセクションと定義する。そして縦方向に配列されたセクションSCT(k)を複数連結して1つの焦点検出領域を構成する。本実施形態では一例として1つの焦点検出領域は、セクションSCT(1)からセクションSCT(10)までの10個のセクションを連結して構成している。即ち、100行×100列=1万画素の領域が1つの焦点検出領域となる。これは1フィールドと同一領域であり、図9で説明したように撮像領域で1350個の固定焦点検出領域となるように設定している。もちろん設定方法は様々で、被写体に応じて撮像領域の任意位置のセクションSCT(k)を複数連結することで撮像領域の任意位置に可変焦点検出領域を設定することも可能である。 The pixel arrangement shown in FIG. 12 is the same as that described with reference to FIG. 8, but for focus detection, a total of 10 blocks, 10 blocks in the horizontal direction and 1 block in the vertical direction, are defined as a group. To do. A plurality of sections SCT V (k) arranged in the vertical direction are connected to form one focus detection region. One focus detection area as an example in the present embodiment is configured by connecting ten sections from section SCT V (1) to the section SCT V (10). That is, an area of 100 rows × 100 columns = 10,000 pixels is one focus detection area. This is the same area as one field, and is set so that there are 1350 fixed focus detection areas in the imaging area as described in FIG. Of course, there are various setting methods, and it is possible to set the variable focus detection region at an arbitrary position in the imaging region by connecting a plurality of sections SCT V (k) at an arbitrary position in the imaging region according to the subject.

ここで1つのセクションには、縦方向における一方の瞳分割を行なう画素SVCが5個、他方の瞳分割を行なう画素SVDも5個含まれている。そこで本実施形態においては、5個のSVCの出力を加算して1画素の信号とし、位相差演算用の一方の画像信号(C像と称する)の1AF画素を得る。同様に、5個のSVDの出力を加算して1画素の信号とし、位相差演算用の他方の画像信号(D像と称する)の1AF画素を得る。 Here, one section includes five pixels SVC that perform one pupil division in the vertical direction and five pixels SVD that perform the other pupil division. Therefore, in the present embodiment, the outputs of the five SVCs are added to form a signal of one pixel, and one AF signal of one image signal (referred to as a C image) for phase difference calculation is obtained. Similarly, the outputs of the five SVDs are added to form a signal of one pixel, and 1AF pixel of the other image signal (referred to as D image) for phase difference calculation is obtained.

図13は一つのセクションにおける被写体像の捕捉能力を説明するための図であり、図11を90度回転したものと等価である。図13は図12の上端のセクションSCT(1)を切り出したものである。そして右端に示された垂直線PRJは、焦点検出用画素SVC及びSVDの瞳分割方向に延伸した第3の射影軸、下端に示された水平線PRJは、瞳分割方向と直交する方向に延伸した第4の射影軸である。図12においても、1つのセクション内の画素SVCはすべて加算され、SVDも加算される。そこで1セクションを1AF画素と見なした場合、1AF画素に含まれる受光部を瞳分割方向の射影軸PRJに射影すると、画素SVC及びSVDが交互に緻密に並ぶことがわかる。このときの瞳分割方向の射影軸PRJにおける画素SVCの配列ピッチをP1とすると、P1=PV=2(単位は画素)となる。ピッチの代わりに空間周波数F1で表わすと、F1=0.5(単位は画素/画素)となる。同様に射影軸PRJにおける画素SVDの配列ピッチもP1=2(単位は画素)、空間周波数表記ではF1=0.5(単位は画素/画素)となる。 FIG. 13 is a diagram for explaining the capturing ability of the subject image in one section, and is equivalent to the one obtained by rotating FIG. 11 by 90 degrees. FIG. 13 is a cut-out section SCT V (1) at the upper end of FIG. The vertical line PRJ V shown at the right end is a third projection axis extending in the pupil division direction of the focus detection pixels S VC and S VD , and the horizontal line PRJ H shown at the lower end is orthogonal to the pupil division direction. It is the 4th projection axis extended in the direction. Also in FIG. 12, all the pixels S VC in one section are added, and S VD is also added. Therefore, when one section is regarded as one AF pixel, it can be seen that pixels S VC and S VD are arranged densely alternately when the light receiving portion included in the one AF pixel is projected onto the projection axis PRJ V in the pupil division direction. When the arrangement pitch of the pixels S VC on the projection axis PRJ V in the pupil division direction at this time is P1, P1 = PV V = 2 (the unit is a pixel). When expressed by the spatial frequency F1 instead of the pitch, F1 = 0.5 (unit is pixel / pixel). Similarly, the arrangement pitch of the pixels S VD on the projection axis PRJ V is P1 = 2 (unit is pixel), and F1 = 0.5 (unit is pixel / pixel) in the spatial frequency notation.

一方、1つのAF画素に含まれる受光部を瞳分割方向と直交方向の射影軸PRJに射影すると、画素SVCとSVDはまばらに並ぶことがわかる。このときの射影軸PRJにおける画素SVCの配列ピッチをP2とすると、P2=PV=20(単位は画素)となる。ピッチの代わりに空間周波数F2で表わすと、F2=0.05(単位は画素/画素)となる。同様に射影軸PRJにおける画素SVDの配列ピッチも、P2=20(単位は画素)、空間周波数表記ではF2=0.05(単位は画素/画素)となる。 On the other hand, when projecting the light receiving portions included in one AF pixel projection axis PRJ H pupil division direction and the orthogonal direction, the pixels S VC and S VD is seen that aligned sparsely. If the arrangement pitch of the pixels S VC on the projection axis PRJ H at this time is P2, then P2 = PV H = 20 (the unit is a pixel). When expressed by the spatial frequency F2 instead of the pitch, F2 = 0.05 (unit: pixel / pixel). Similarly, the arrangement pitch of the pixels S VD on the projection axis PRJ V is also P2 = 20 (unit is pixel), and F2 = 0.05 (unit is pixel / pixel) in the spatial frequency notation.

以上のように、図13におけるAF画素のサンプリング特性は、瞳分割方向を基準に考えると、図11と同様の特性、即ち、F1>F2となっている。これは、図13のセクションにおいても、瞳分割方向のセクション寸法L1とこれと直交する方向の寸法L2がL1<L2を満足するからである。これにより、空間周波数の高い被写体に対しても瞳分割方向の輝度情報を正確に検出することができるとともに、被写体輝度が低くても複数画素の加算によって焦点検出信号のS/N比を向上させることができる。   As described above, the sampling characteristics of the AF pixels in FIG. 13 are the same as those in FIG. 11, that is, F1> F2 when the pupil division direction is taken as a reference. This is because the section dimension L1 in the pupil division direction and the dimension L2 in the direction perpendicular to this also satisfy L1 <L2 in the section of FIG. Thus, luminance information in the pupil division direction can be accurately detected even for a subject with a high spatial frequency, and the S / N ratio of the focus detection signal is improved by adding a plurality of pixels even when the subject luminance is low. be able to.

図14は本実施形態における撮像素子の瞳分割機能を概念的に説明する図である。OBJは被写体、IMGは被写体像である。撮像用画素は図4で説明したように、撮影光学系TLの射出瞳全域EPを通過した光束を受光する。一方、焦点検出用画素は図5及び図6で説明したように、瞳分割機能を有している。具体的には、図5の画素SHAは撮像面からレンズ後端を見て左側の瞳を通過した光束LHA、即ち、図14の瞳EPHAを通過した光束を受光する。同様に画素SHB、SVC及びSVDはそれぞれ瞳EPHB、EPVC及びEPVDを通過した光束LHB、LHC、LHDをそれぞれ受光する。そして焦点検出用画素は、図9で説明したように撮像素子6の全領域に亘って分布しているため、撮像領域全域で焦点検出も可能となっている。 FIG. 14 is a diagram conceptually illustrating the pupil division function of the image sensor in the present embodiment. OBJ is a subject, and IMG is a subject image. As described with reference to FIG. 4, the imaging pixel receives the light beam that has passed through the entire exit pupil EP of the imaging optical system TL. On the other hand, the focus detection pixel has a pupil division function as described with reference to FIGS. Specifically, the pixel S HA in FIG. 5 receives the light beam L HA that has passed through the left pupil when viewed from the imaging surface, that is, the light beam that has passed through the pupil EP HA in FIG. Similarly, the pixels S HB , S VC, and S VD respectively receive the light beams L HB , L HC , and L HD that have passed through the pupils EP HB , EP VC, and EP VD , respectively. Since the focus detection pixels are distributed over the entire area of the image sensor 6 as described with reference to FIG. 9, focus detection is also possible over the entire imaging area.

図15は、ライブビュー時のAF動作を説明する図で、ライブビュー時に液晶モニタ14に画像が表示されている状態を示している。撮像面に形成された被写体像には、中央に人物、左下に近景の柵、右上に遠景の山が写っており、それらが画面に表示されている。また画面中央にはAF枠が表示されている。本実施形態では一例として、AF枠は横方向に6フィールド、縦方向に6フィールドの大きさに設定されている。更にAF枠はマルチコントローラー33の入力信号に従って、撮像領域内の任意位置に移動可能となっている。本実施形態では一例として、AF枠の移動は1フィールド単位となっている。もちろん移動量は様々で、1セクション単位や1画素単位でも構わない。   FIG. 15 is a diagram for explaining an AF operation during live view, and shows a state in which an image is displayed on the liquid crystal monitor 14 during live view. In the subject image formed on the imaging surface, a person is shown in the center, a foreground fence in the lower left, and a distant mountain in the upper right, which are displayed on the screen. An AF frame is displayed at the center of the screen. In this embodiment, as an example, the AF frame is set to have a size of 6 fields in the horizontal direction and 6 fields in the vertical direction. Further, the AF frame can be moved to an arbitrary position in the imaging region in accordance with an input signal of the multi-controller 33. In the present embodiment, as an example, the movement of the AF frame is in units of one field. Of course, the amount of movement varies, and it may be one section unit or one pixel unit.

初めに撮像面位相差AFについて説明する。焦点検出用画素は横ずれ検出用の画素ペアSHA及びSHBと、縦ずれ検出用の画素ペアSVC及びSVDが、図9に示したように撮像領域全域に亘って均等な密度で配置されている。そして横ずれ検出の際には、位相差演算のためのAF画素信号を図10及び図11で示したようにグループ化処理する。また、縦ずれ検出の際には、位相差演算のためのAF画素信号を図12及び図13で示したようにグループ化処理する。よって撮像領域の任意位置において、横ずれ検出及び縦ずれ検出のための焦点検出領域を設定可能である。上記の通り、本実施形態では一例として、焦点検出領域はフィールドと同一領域に設定している。 First, the imaging surface phase difference AF will be described. As shown in FIG. 9, the focus detection pixels are arranged with equal density over the entire imaging region, as shown in FIG. 9, the pixel pairs S HA and S HB for detecting lateral deviation and the pixel pairs S VC and S VD for detecting vertical deviation. Has been. At the time of lateral shift detection, AF pixel signals for phase difference calculation are grouped as shown in FIGS. In addition, when detecting vertical shift, AF pixel signals for phase difference calculation are grouped as shown in FIGS. Therefore, it is possible to set a focus detection area for detecting lateral deviation and vertical deviation at an arbitrary position in the imaging area. As described above, in the present embodiment, as an example, the focus detection area is set to the same area as the field.

図15においては画面中央に人物の顔が存在している。そこで公知の顔認識技術によって顔の存在が検出されると、顔領域と検知された部分にAF枠が表示され、AF枠内の焦点検出が行なわれる。まず横ずれ検知のために焦点検出領域を複数連結したAF枠領域AFAR(1)〜(6)と、縦ずれ検知のために焦点検出領域を複数連結したAF枠領域AFAR(1)〜(6)が設定される。 In FIG. 15, a human face exists in the center of the screen. Therefore, when the presence of a face is detected by a known face recognition technique, an AF frame is displayed in a portion detected as a face area, and focus detection in the AF frame is performed. First, AF frame areas AFAR H (1) to (6) in which a plurality of focus detection areas are connected to detect lateral deviation, and AF frame areas AFAR V (1) to (6) in which a plurality of focus detection areas are connected to detect vertical deviation. 6) is set.

横ずれ検知のためのAF枠領域AFAR(1)は、AF枠内の上から1行目の焦点検出領域のフィールドFLD(13,21)からフィールドFLD(13,26)までの6フィールド分を連結している。AF枠領域AFAR(2)は、AF枠内の上から2行目の焦点検出領域のフィールドFLD(14,21)からフィールドFLD(14,26)までを連結している。AF枠領域AFAR(3)は、AF枠内の上から3行目の焦点検出領域のフィールドFLD(15,21)からフィールドFLD(15,26)までを連結している。AF枠領域AFAR(4)は、AF枠内の上から4行目の焦点検出領域のフィールドFLD(16,21)からフィールドFLD(16,26)までを連結している。AF枠領域AFAR(5)は、AF枠内の上から5行目の焦点検出領域のフィールドFLD(17,21)からフィールドFLD(17,26)までを連結している。AF枠領域AFAR(6)は、AF枠内の上から5行目の焦点検出領域のフィールドFLD(18,21)からフィールドFLD(18,26)までを連結している。 The AF frame area AFAR H (1) for lateral shift detection includes six fields from the field FLD (13, 21) to the field FLD (13, 26) in the focus detection area in the first row from the top in the AF frame. It is connected. The AF frame area AFAR H (2) connects the field FLD (14, 21) to the field FLD (14, 26) in the focus detection area in the second row from the top in the AF frame. The AF frame area AFAR H (3) connects the field FLD (15, 21) to the field FLD (15, 26) in the focus detection area in the third row from the top in the AF frame. The AF frame area AFAR H (4) connects the field FLD (16, 21) to the field FLD (16, 26) in the focus detection area in the fourth row from the top in the AF frame. The AF frame area AFAR H (5) connects the field FLD (17, 21) to the field FLD (17, 26) of the focus detection area in the fifth row from the top in the AF frame. The AF frame area AFAR H (6) connects the field FLD (18, 21) to the field FLD (18, 26) of the focus detection area in the fifth row from the top in the AF frame.

縦ずれ検知のためのAF枠領域AFAR(1)は、AF枠内の左から1列目の焦点検出領域のフィールドFLD(13,21)からフィールドFLD(18,21)までの6フィールド分を連結している。AF枠領域AFAR(2)は、AF枠内の左から2列目の焦点検出領域のフィールドFLD(13,22)からフィールドFLD(18,22)までを連結している。AF枠領域AFAR(3)は、AF枠内の左から1列目の焦点検出領域のフィールドFLD(13,23)からフィールドFLD(18,23)までを連結している。AF枠領域AFAR(4)は、AF枠内の左から1列目の焦点検出領域のフィールドFLD(13,24)からフィールドFLD(18,24)までを連結している。AF枠領域AFAR(5)は、AF枠内の左から5列目の焦点検出領域のフィールドFLD(13,25)からフィールドFLD(18,25)までを連結している。AF枠領域AFAR(6)は、AF枠内の左から6列目の焦点検出領域のフィールドFLD(13,26)からフィールドFLD(18,26)までを連結している。 The AF frame area AFAR V (1) for detecting vertical deviation is equivalent to six fields from the field FLD (13, 21) to the field FLD (18, 21) in the focus detection area in the first column from the left in the AF frame. Are connected. The AF frame area AFAR V (2) connects the field FLD (13, 22) to the field FLD (18, 22) in the focus detection area in the second column from the left in the AF frame. The AF frame area AFAR V (3) connects the field FLD (13, 23) to the field FLD (18, 23) of the focus detection area in the first column from the left in the AF frame. The AF frame area AFAR V (4) connects the field FLD (13, 24) to the field FLD (18, 24) of the focus detection area in the first column from the left in the AF frame. The AF frame area AFAR V (5) connects the field FLD (13, 25) to the field FLD (18, 25) of the focus detection area in the fifth column from the left in the AF frame. The AF frame area AFAR V (6) connects the field FLD (13, 26) to the field FLD (18, 26) of the focus detection area in the sixth column from the left in the AF frame.

図15は、横ずれ検知及び縦ずれ検知のためのAF枠領域をAFAR(3)とAFAR(5)として1領域ずつ示しており、他のそれぞれ5領域は図示を割愛している。AF枠領域AFAR(3)の各セクション内に含まれる5個の焦点検出用画素SHAを加算し、60セクション(=1焦点検出領域10セクション×AF枠の幅6フィールド)に亘って連結した位相差検出用のA像信号がAFSIG(A3)である。同様に、各セクションの5個の焦点検出用画素SHBを加算し、これを60セクションに亘って連結した位相差検出用のB像信号がAFSIGh(B3)である。A像信号AFSIG(A3)とB像信号AFSIG(B3)の相対的な横ずれ量を公知の相関演算によって演算することで、被写体の焦点ずれ量(デフォーカス量)を求める。同様にAF枠領域AFAR(1)〜(6)それぞれで被写体の焦点ずれ量を求める。 FIG. 15 shows AF frame regions for detecting lateral shift and vertical shift as AFAR H (3) and AFAR V (5) one by one, and the other five regions are not shown. 5 focus detection pixels S HA included in each section of the AF frame area AFAR H (3) are added and connected over 60 sections (= 1 focus detection area 10 sections × AF frame width 6 fields). The detected A image signal for phase difference detection is AFSIG H (A3). Similarly, adding the five focus detection pixels S HB of each section, B image signal for phase difference detection which is connected over this 60 section is AFSIGh (B3). By calculating the relative lateral shift amount between the A image signal AFSIG H (A3) and the B image signal AFSIG H (B3) by a known correlation calculation, the defocus amount (defocus amount) of the subject is obtained. Similarly, the defocus amount of the subject is obtained in each of the AF frame areas AFAR H (1) to (6).

AF枠領域AFAR(5)についても同様である。即ち、各セクション内に含まれる5個の焦点検出用画素SHCを加算し、60セクション(=1焦点検出領域10セクション×AF枠の高さ6フィールド)に亘って連結した位相差検出用のC像信号がAFSIG(C5)である。また、各セクションの5個の焦点検出用画素SHDを加算し、これを60セクションに亘って連結した位相差検出用のD像信号がAFSIG(D5)である。そしてC像信号AFSIG(C5)とD像信号AFSIG(D5)の相対的な横ずれ量を公知の相関演算によって演算することで、被写体の焦点ずれ量(デフォーカス量)を求める。同様に、AF枠領域AFAR(1)〜(6)それぞれで被写体の焦点ずれ量を求める。 The same applies to the AF frame area AFAR V (5). That is, five focus detection pixels SHC included in each section are added, and connected for 60 sections (= 1 focus detection region 10 sections × AF frame height 6 fields). The C image signal is AFSIG V (C5). Further, by adding the five focus detection pixels S HD of each section, D image signal for phase difference detection which is connected over this 60 section is AFSIG V (D5). Then, by calculating the relative lateral shift amount between the C image signal AFSIG V (C5) and the D image signal AFSIG V (D5) by a known correlation calculation, the defocus amount (defocus amount) of the subject is obtained. Similarly, the defocus amount of the subject is obtained in each of the AF frame areas AFAR V (1) to (6).

そして横ずれ及び縦ずれのAF枠領域で検出した計12の焦点ずれ量を比較し、信頼性の高い値を採用することで、AF枠内の焦点ずれ量を求めることができる。ここで信頼性とは、2像の一致度を指し、2像の一致度が良い場合は一般的に焦点検出結果の信頼性が高い。そこで複数の焦点検出領域の焦点検出結果がある場合は、信頼性の高い情報を優先的に使用する。また信頼性ではなく、計12の焦点ずれ量の平均値としたり、それらの中の最至近値とする等の方法でAF枠内の焦点ずれ量を決めても構わない。   Then, by comparing the defocus amounts of the total 12 detected in the lateral and vertical misalignment AF frame areas and adopting a highly reliable value, the defocus amount in the AF frame can be obtained. Here, the reliability refers to the degree of coincidence between the two images. When the degree of coincidence between the two images is good, the reliability of the focus detection result is generally high. Therefore, when there are focus detection results of a plurality of focus detection areas, highly reliable information is preferentially used. Further, instead of reliability, the defocus amount in the AF frame may be determined by a method such as an average value of a total of 12 defocus amounts or the closest value among them.

上記説明においては、AF枠領域の全セクション(60セクション)を連結した像信号からAF枠領域の焦点ずれ量を求めている。しかし、AF枠領域を構成する6焦点検出領域の焦点ずれ量をそれぞれ求めて、それらの中の信頼性の高い値や最至近値としたり、平均値としたりするなどの方法でAF枠領域内の焦点ずれ量を求めることもできる。またAF枠領域を設定せずにAF枠内の36焦点検出領域の焦点ずれ量をそれぞれ求めて、それらの中の信頼性の高い値や最至近値としたり、平均値としたりするなどの方法でAF枠内の焦点ずれ量を求めることもできる。   In the above description, the defocus amount of the AF frame region is obtained from the image signal obtained by connecting all sections (60 sections) of the AF frame region. However, the amount of defocus of each of the six focus detection areas constituting the AF frame area is obtained, and the values within the AF frame area are determined by a method such as a highly reliable value, the closest value, or an average value. The amount of defocus can be obtained. Further, a method of obtaining the defocus amount of each of the 36 focus detection areas in the AF frame without setting the AF frame area, and obtaining a highly reliable value, the closest value, or an average value among them. Thus, the defocus amount in the AF frame can be obtained.

一方、画面左下の柵部分にAF枠を移動した時は、同様に横ずれ検知及び縦ずれ検知のためにAF枠領域を再設定して被写体の焦点ずれ量を求めることができる。しかし、縦線成分が主体、即ち、横方向に輝度分布を有しているため、横ずれ検知に適した被写体と判断することができる。このため、横ずれ検知のためのAF枠領域AFAR(n)だけを設定して、AF枠領域AFAR(3)と同様に、A像信号とB像信号から横ずれ量を演算して、被写体の焦点ずれ量を求めることもできる。 On the other hand, when the AF frame is moved to the lower left portion of the screen, similarly, the AF frame area can be reset to detect the lateral shift and the vertical shift, and the defocus amount of the subject can be obtained. However, since the vertical line component is the main component, that is, it has a luminance distribution in the horizontal direction, it can be determined that the subject is suitable for detecting lateral deviation. Therefore, only the AF frame area AFAR H (n) for lateral shift detection is set, and the lateral shift amount is calculated from the A image signal and the B image signal in the same manner as the AF frame area AFAR H (3), and the subject. The amount of defocus can be obtained.

ここではAF枠領域を設定した前提で焦点ずれ量を求める説明を行った。しかし、AF枠領域を設定しなくても、それぞれの焦点検出領域においてA像信号とB像信号から横ずれ量を演算して、複数の焦点検出領域の焦点検出結果から信頼性の高い情報を基にして、被写体の焦点ずれ量を求めることも可能である。即ち、顔認識により主被写体と判断された画面中央の人物の顔部分の焦点ずれ量を求めると同時に、撮像領域内にある他の被写体(ここでは画面左下の柵)の焦点ずれ量も求めることが可能である。   Here, the description has been given of obtaining the defocus amount on the assumption that the AF frame region is set. However, even if the AF frame area is not set, the lateral shift amount is calculated from the A image signal and the B image signal in each focus detection area, and highly reliable information is obtained from the focus detection results of the plurality of focus detection areas. Thus, the defocus amount of the subject can be obtained. That is, the amount of defocus of the face portion of the person at the center of the screen, which is determined as the main subject by face recognition, is calculated at the same time as the amount of defocus of another subject (here, the bottom left fence) in the imaging area. Is possible.

また画面右上の山部分にAF枠を移動した時も、上記同様に横ずれ検知及び縦ずれ検知のためにAF枠領域を設定して被写体の焦点ずれ量を求めることができる。しかし、横線成分が主体、即ち、縦方向に輝度分布を有しているため、縦ずれ検知に適した被写体と判断することができる。このため、縦ずれ検知のためのAF枠領域AFAR(n)だけを設定して、AF枠領域AFAR(5)と同様に、C像信号とD像信号から横ずれ量を演算して、被写体の焦点ずれ量を求めることもできる。 Also, when the AF frame is moved to the top right corner of the screen, the AF defocus amount can be obtained by setting the AF frame region for detecting lateral shift and vertical shift as described above. However, since the horizontal line component is the main component, that is, it has a luminance distribution in the vertical direction, it can be determined that the subject is suitable for detecting vertical shift. For this reason, only the AF frame area AFAR V (n) for detecting the vertical deviation is set, and the lateral deviation amount is calculated from the C image signal and the D image signal in the same manner as the AF frame area AFAR V (5). The amount of defocus of the subject can also be obtained.

ここではAF枠領域を設定した前提で焦点ずれ量を求める説明を行なった。しかし、AF枠領域を設定しなくても、それぞれの焦点検出領域においてC像信号とD像信号から横ずれ量を演算して、複数の焦点検出領域の焦点検出結果から信頼性の高い情報を基にして、被写体の焦点ずれ量を求めることも可能である。即ち、顔認識により主被写体と判断された画面中央の人物の顔部分の焦点ずれ量を求めると同時に、撮像領域内にある他の被写体(ここでは画面右上の山)の焦点ずれ量も求めることが可能である。   Here, the description has been given of obtaining the defocus amount on the assumption that the AF frame region is set. However, even if the AF frame area is not set, the lateral shift amount is calculated from the C image signal and the D image signal in each focus detection area, and highly reliable information is obtained from the focus detection results of the plurality of focus detection areas. Thus, the defocus amount of the subject can be obtained. That is, the amount of defocus of the face portion of the person at the center of the screen, which is determined to be the main subject by face recognition, and the amount of defocus of another subject (here, the mountain at the upper right of the screen) in the imaging area is obtained. Is possible.

以上のように本実施形態においては、横ずれ及び縦ずれ検出のための焦点検出領域が撮像素子6の全領域に設定されているため、被写体の投影位置や輝度分布の方向性が様々であっても、撮像領域全域で撮像面位相差AFによる焦点検出が可能である。   As described above, in the present embodiment, since the focus detection area for detecting the lateral shift and the vertical shift is set in the entire area of the image sensor 6, the projection position of the subject and the directionality of the luminance distribution vary. In addition, focus detection by imaging surface phase difference AF can be performed in the entire imaging region.

次に、TV−AFについて説明する。本来ならば撮像面位相差AFだけでAFを行なうのが理想である。しかし実際には、撮像素子6の製造誤差によるマイクロレンズMLの偏芯や、撮影レンズ3のF値や像高による瞳ケラレなどの問題により、合焦精度がTV−AFよりも劣ってしまう場合がある。そこで本実施形態では、いかなる場合においても合焦精度を高く保つために、AF枠内の画像に対して撮像面位相差AFで求めた焦点ずれ量を基にしたTV−AFも行なっている。   Next, TV-AF will be described. Originally, it is ideal to perform AF only with imaging plane phase difference AF. However, in reality, the focusing accuracy is inferior to that of TV-AF due to problems such as eccentricity of the microlens ML due to manufacturing errors of the image sensor 6 and pupil vignetting due to the F value and image height of the photographing lens 3. There is. Therefore, in this embodiment, in order to keep the focusing accuracy high in any case, TV-AF based on the amount of defocus obtained by the imaging plane phase difference AF is performed on the image in the AF frame.

図16はAF枠内の画像に対する、撮影レンズ3内のフォーカスレンズ3aの位置とコントラスト値の関係を示す図である。撮像面位相差AFで求めた被写体の焦点ずれ量とフォーカスレンズ3aの現在位置から、フォーカスレンズ3aの合焦位置Pを求める。そして本実施形態では一例として、その合焦位置Pと、前後Fδ位置(P−Fδ、P+Fδ)の3箇所へフォーカスレンズ3aを駆動し、それぞれの位置から得た3枚の画像からTV−AFによる合焦位置Pを求めることができる。ここでFは撮影レンズ3の絞り値、δは許容錯乱円を示している。 FIG. 16 is a diagram showing the relationship between the position of the focus lens 3a in the photographing lens 3 and the contrast value with respect to the image in the AF frame. From the current position of the defocus amount and the focus lens 3a of the object obtained by the image pickup surface phase difference AF, it obtains the focus position P S of the focus lens 3a. And as an example in the present embodiment, and the focus position P S, the front-rear F [delta] position (P S -Fδ, P S + Fδ) to the three drives the focus lens 3a, 3 images obtained from the respective positions allowing for the determination of the position P C focus by TV-AF from. Here, F represents the aperture value of the taking lens 3, and δ represents an allowable circle of confusion.

TV−AFでは、コントラストのピークが何処にあるか分からないため、フォーカスレンズ3aを無限位置から至近位置まで駆動し、その間に複数の画像を取得してピーク検出をする必要があり、フォーカスレンズ3aの駆動量が多く、合焦時間がかかる。しかし本実施形態では、フォーカスレンズ3aは合焦位置Pとその前後への駆動でピーク検出が可能なため、駆動量が少なく合焦時間を短縮できる。 In TV-AF, since it is not known where the contrast peak is, it is necessary to drive the focus lens 3a from the infinite position to the closest position, acquire a plurality of images during that time, and perform peak detection. The drive amount is large and it takes time to focus. However, in the present embodiment, the focus lens 3a is because it can peak detected driving in the focus position P S and its front and rear, can be shortened less focus time driving amount.

以上のように本実施形態においては、AF枠内の画像に対して撮像面位相差AF結果に基づいたTV−AFを行うため、撮像領域内の何処ででもAFが可能で、合焦精度が高く合焦時間が短いAFが可能となっている。   As described above, in the present embodiment, since TV-AF based on the imaging surface phase difference AF result is performed on the image in the AF frame, AF can be performed anywhere in the imaging region, and the focusing accuracy is high. AF with high focusing time and short focusing time is possible.

続いて本実施形態のデジタル一眼レフカメラの動作を、図17〜図23の制御フローを用いて説明する。図17はデジタル一眼レフカメラの基本動作を示すメインフローである。   Next, the operation of the digital single-lens reflex camera of the present embodiment will be described using the control flows of FIGS. FIG. 17 is a main flow showing the basic operation of the digital single-lens reflex camera.

S101では、ユーザーが電源ボタン34を操作してカメラの電源をONする。電源がONされるとMPU20はカメラ内の各アクチュエータや撮像素子6の動作確認を行う。そしてメモリ内容や実行プログラムの初期化状態を検出すると共に、撮影準備動作を実行する。S102では、各種ボタンを操作してカメラの各種設定を行う。例えば、モードボタン31を操作して撮影モード選択したり、電子ダイヤル32を操作してシャッタースピードや絞りの設定を行ったりする。   In S101, the user operates the power button 34 to turn on the camera. When the power is turned on, the MPU 20 checks the operation of each actuator and the image sensor 6 in the camera. Then, the memory contents and the initialization state of the execution program are detected, and the shooting preparation operation is executed. In S102, various buttons are operated to perform various camera settings. For example, the mode button 31 is operated to select a shooting mode, or the electronic dial 32 is operated to set the shutter speed and the aperture.

S103では、マルチコントローラー33によりライブビューモードが設定されているか否かの判定を行い、ライブビューモードに設定されていればライブビューモードルーチンのS111へ進み、設定されていなければ通常モードルーチンのS104へ進む。   In S103, it is determined whether or not the live view mode is set by the multi-controller 33. If the live view mode is set, the process proceeds to S111 of the live view mode routine. If not set, S104 of the normal mode routine is set. Proceed to

まず通常モード(ユーザーがファインダーを覗いて撮影する一眼レフカメラの通常使用モード)の動作ルーチンを説明する。S104では、レリーズボタン30が半押しされてSW1がONされたか否かの判定を行い、ONされていればS105へ進み、ONされていなければONされるまで待機する。S105では、AFセンサ8を用いた所定のAF動作を行なう。S106では、AEセンサ13を用いた所定のAE動作を行なう。S107では、ファインダー内に合焦した焦点検出点が何処かを不図示の表示装置で表示する。S108では、レリーズボタン30が全押しされてSW2がONされたか否かの判定を行い、ONされていればS109へ進み、ONされていなければONされるまで待機する。S109では、通常撮影ルーチンを実行する。   First, an operation routine in a normal mode (a normal use mode of a single-lens reflex camera in which a user takes a picture through a viewfinder) will be described. In S104, it is determined whether or not the release button 30 is half-pressed and SW1 is turned on. If it is turned on, the process proceeds to S105, and if it is not turned on, the process waits until it is turned on. In S105, a predetermined AF operation using the AF sensor 8 is performed. In S106, a predetermined AE operation using the AE sensor 13 is performed. In step S107, the focus detection point in the finder is displayed on a display device (not shown). In S108, it is determined whether or not the release button 30 is fully pressed and the SW2 is turned on. If it is turned on, the process proceeds to S109, and if it is not turned on, the process waits until it is turned on. In S109, a normal photographing routine is executed.

図18は通常撮影ルーチンのフローである。S131では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、主ミラー4とサブミラー7を撮影光路から退避(ミラーアップ)させる(図2)。S132では、AE結果により演算された撮影露出に従って、レンズ制御回路23により撮影レンズ3内の不図示の絞りを駆動する。S133では、シャッター駆動回路27によりシャッター5を開閉する。S134では、メモリコントローラ21により撮像素子6で受光された画像を読み込んでSDRAM43に一時記録する。S135では、メモリコントローラ21で読み出した画像信号の欠損画素補間を行なう。何故ならば、焦点検出用画素の出力は撮像のためのRGBカラー情報を有しておらず、画像を得る上では欠陥画素に相当するため、周囲の撮像用画素の情報から補間により画像信号を生成する。S136では、画像処理回路44で画像のホワイトバランス補正、γ補正、エッジ強調等の画像処理を行ない、画像圧縮/伸張回路45で画像をJPEG等の形式に従って圧縮する。S137では、画像処理した撮影画像をメディア48に記録する。S138では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、撮影光路から退避している主ミラー4とサブミラー7を、撮影光束をファインダーへと反射し導く観察位置へ駆動(ミラーダウン)する(図1)。S139では、モータ駆動回路26により不図示のチャージ用モータを通電制御し、シャッター5をチャージする。そして図17のメインルーチン内のS110にリターンする。S110では、ユーザーが電源ボタン34を操作して、カメラの電源がOFFされたか否かを判断し、OFFされていなければS102へ進み次の撮影に備え、OFFされていれば一連のカメラ動作を終了する。   FIG. 18 is a flowchart of a normal photographing routine. In S131, a motor for driving a mirror (not shown) is controlled by the motor drive circuit 26, and the main mirror 4 and the sub mirror 7 are retracted (mirror up) from the imaging optical path (FIG. 2). In S132, the lens control circuit 23 drives a diaphragm (not shown) in the photographic lens 3 according to the photographic exposure calculated from the AE result. In S133, the shutter 5 is opened and closed by the shutter drive circuit 27. In S <b> 134, an image received by the image sensor 6 is read by the memory controller 21 and temporarily recorded in the SDRAM 43. In S135, defective pixel interpolation of the image signal read out by the memory controller 21 is performed. This is because the output of the focus detection pixel does not have RGB color information for imaging and corresponds to a defective pixel in obtaining an image. Therefore, an image signal is interpolated from information on surrounding imaging pixels. Generate. In S136, the image processing circuit 44 performs image processing such as white balance correction, γ correction, and edge enhancement, and the image compression / decompression circuit 45 compresses the image according to a format such as JPEG. In S <b> 137, the photographed image that has undergone image processing is recorded on the medium 48. In S138, a motor for driving a mirror (not shown) is controlled by the motor drive circuit 26, and the main mirror 4 and the sub mirror 7 retracted from the photographing optical path are driven to an observation position that reflects and guides the photographing light flux to the viewfinder (mirror down). (FIG. 1). In S139, the motor drive circuit 26 controls energization of a charging motor (not shown) to charge the shutter 5. Then, the process returns to S110 in the main routine of FIG. In S110, the user operates the power button 34 to determine whether or not the camera is turned off. If not, the process proceeds to S102 to prepare for the next shooting, and if it is turned off, a series of camera operations are performed. finish.

続いてライブビューモード(ユーザーがライブビューを使用して撮影するモード)の動作ルーチンを説明する。S111では、ライブビュー表示ルーチンを実行する。   Next, an operation routine in the live view mode (a mode in which the user takes a picture using the live view) will be described. In S111, a live view display routine is executed.

図19はライブビュー表示ルーチンのフローである。S141では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、主ミラー4とサブミラー7を撮影光路から退避(ミラーアップ)させる。S142では、シャッター駆動回路27によりシャッター5を開放状態にする(図2の状態となる)。S143では、メモリコントローラ21により撮像素子6で受光された動画像の読み込みを開始する。S144では、読み出した動画像を液晶モニタ14に表示する。ユーザーはこのライブビュー画像を目視して撮影時の構図決定を行なう。そして図17のメインルーチン内のS112にリターンする。   FIG. 19 is a flow of a live view display routine. In S141, a motor for driving a mirror (not shown) is controlled by the motor drive circuit 26, and the main mirror 4 and the sub mirror 7 are retracted (mirror up) from the photographing optical path. In S142, the shutter 5 is opened by the shutter drive circuit 27 (the state shown in FIG. 2 is obtained). In S143, reading of the moving image received by the image sensor 6 by the memory controller 21 is started. In S144, the read moving image is displayed on the liquid crystal monitor 14. The user visually determines this live view image and determines the composition at the time of shooting. Then, the process returns to S112 in the main routine of FIG.

図17のS112では、撮像領域内に顔が存在するか認識処理を行う。S113では、ライブビュー画像に重ねてAF枠を灰色で表示する。ここでS112において、撮像領域内に顔が存在していると認識された場合には、認識された顔領域にAF枠の表示を行なう。撮像領域内に顔が存在していないと認識された場合には、画面中央にAF枠の表示を行なう。本実施形態では図15の通り、画面中央の人物の顔が顔認識によって検知され、顔領域にAF枠が表示さる。S114では、AF枠領域設定を行なう。AF枠領域設定は前述の通り、横ずれ検知のためにAF枠領域AFAR(1)〜(6)と、縦ずれ検知のためにAF枠領域AFAR(1)〜(6)が設定される。S115では、ユーザーによりマルチコントローラー33が操作されて、AF枠が移動されたか否かの判定を行い、移動されていればS114へ進み、移動されていなければS116へ進む。ここでのAF枠移動は例えば、顔認識がされずAF枠が画面中央に表示されたのに対して、ユーザーが画面中央以外の被写体にピントを合わせたい場合などが考えられる。S116では、レリーズボタン30が半押しされてSW1がONされたか否かの判定を行い、ONされていればS117へ進み、ONされていなければ構図が変更された可能性を考慮してS112へ進む。S118では、撮像面位相差AFルーチンを実行する。 In S112 of FIG. 17, a recognition process is performed to determine whether a face exists in the imaging region. In S113, the AF frame is displayed in gray on the live view image. If it is recognized in S112 that a face is present in the imaging area, an AF frame is displayed in the recognized face area. When it is recognized that no face exists in the imaging area, an AF frame is displayed at the center of the screen. In this embodiment, as shown in FIG. 15, the face of the person at the center of the screen is detected by face recognition, and an AF frame is displayed in the face area. In S114, AF frame area setting is performed. As described above, the AF frame area is set to AF frame areas AFAR H (1) to (6) for detecting lateral shift and AF frame areas AFAR V (1) to (6) for detecting vertical shift. . In S115, the multi-controller 33 is operated by the user to determine whether or not the AF frame has been moved. If it has been moved, the process proceeds to S114, and if not, the process proceeds to S116. For example, the AF frame is moved when the face is not recognized and the AF frame is displayed at the center of the screen, but the user wants to focus on a subject other than the center of the screen. In S116, it is determined whether or not the release button 30 is half-pressed and SW1 is turned on. If it is turned on, the process proceeds to S117. If not, the process proceeds to S112 in consideration of the possibility that the composition has been changed. move on. In S118, an imaging surface phase difference AF routine is executed.

図20は撮像面位相差AFルーチンのフローである。S151では、メモリコントローラ21により撮像素子6から各焦点検出領域に含まれる各焦点検出用画素を読み出す。S152では、メモリコントローラ21により図10又は図12で説明したセクション構造に基づき、各セクション内の焦点検出用画素を加算し、その加算結果により各セクションのAF画素信号を得る。S153では、AF画素信号がAF枠領域設定されている焦点検出領域の信号か否かの判定を行い、AF枠領域設定されていればS155へ進み、されていなければS154へ進む。S154では、AF枠領域設定されていない各焦点検出領域におけるAF画素信号をSDRAM43に一時記録する。そして図17のメインルーチン内のS118にリターンする。S155では、MPU20によりAF画素信号から相関演算用の2像の信号を生成する。本実施形態においては、図15に示したAFSIGh(A3)とAFSIGh(B3)、又はAFSIGv(C5)とAFSIGv(D5)等の60セクションを連結した対の信号を生成する。S156では、MPU20により得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を演算する。S157では、MPU20により相関演算結果の信頼性を判定する。S158では、MPU20により信頼性の高い検出結果から焦点ずれ量を演算する。ここでAF枠内は1つの焦点ずれ量が決定記憶される。そして図17のメインルーチン内のS118にリターンする。   FIG. 20 is a flowchart of the imaging surface phase difference AF routine. In S151, each focus detection pixel included in each focus detection area is read from the image sensor 6 by the memory controller 21. In S152, the memory controller 21 adds the focus detection pixels in each section based on the section structure described in FIG. 10 or FIG. 12, and obtains an AF pixel signal of each section based on the addition result. In S153, it is determined whether or not the AF pixel signal is a signal in the focus detection area in which the AF frame area is set. If the AF frame area is set, the process proceeds to S155, and if not, the process proceeds to S154. In S154, the AF pixel signal in each focus detection area where the AF frame area is not set is temporarily recorded in the SDRAM 43. Then, the process returns to S118 in the main routine of FIG. In S155, the MPU 20 generates two image signals for correlation calculation from the AF pixel signal. In the present embodiment, a pair of signals in which 60 sections such as AFSIGh (A3) and AFSIGh (B3) or AFSIGv (C5) and AFSIGv (D5) shown in FIG. 15 are connected is generated. In S156, the correlation calculation of the two images obtained by the MPU 20 is performed, and the relative displacement amount between the two images is calculated. In S157, the MPU 20 determines the reliability of the correlation calculation result. In S158, the MPU 20 calculates a defocus amount from a highly reliable detection result. Here, one defocus amount is determined and stored in the AF frame. Then, the process returns to S118 in the main routine of FIG.

撮像面位相差AFルーチンにおいては、AF枠領域設定されていない焦点検出領域については、それらの焦点検出領域における焦点ずれ量を演算していない。これは相関演算がMPU20で行なう処理の中では比較的時間が掛かるためで、この時点で焦点ずれ量そのものが不必要なAF枠外の焦点検出領域については、相関演算を行なわないことで僅かでもMPU20の処理時間を短くするためである。但し、それらの焦点検出領域における焦点ずれ量が必要になった時に直ぐに演算できるように、AF画素信号の状態で一時記録している。もちろんMPU20の処理能力に余裕があったり、後述するコントラストAFルーチン時に同時処理するなどして各焦点検出領域における各焦点ずれ量を演算して一時記録しておいても構わない。   In the imaging surface phase difference AF routine, the defocus amount in the focus detection areas is not calculated for the focus detection areas where the AF frame area is not set. This is because it takes a relatively long time for the correlation calculation to be performed by the MPU 20, and at this point, the MPU 20 does not perform correlation calculation for the focus detection area outside the AF frame where the defocus amount itself is unnecessary. This is to shorten the processing time. However, it is temporarily recorded in the state of the AF pixel signal so that it can be calculated immediately when the amount of defocus in those focus detection areas becomes necessary. Of course, the MPU 20 may have a sufficient processing capacity, or may be temporarily recorded by calculating each defocus amount in each focus detection region by performing simultaneous processing in the contrast AF routine described later.

図17のS118では、コントラストAFルーチンを実行する。図21はコントラストAFルーチンのフローである。S161では、MPU20により撮像面位相差AFルーチンで求められたAF枠内の焦点ずれ量と、位置検出部35が検出した撮影レンズ3内のフォーカスレンズ3aの現在位置から、フォーカスレンズの合焦位置Pを求める。S162では、レンズ制御回路23とレンズドライバ36によりフォーカスレンズをP−Fδの位置まで駆動する。S163では、メモリコントローラ21により撮像素子6で受光された画像を読み込んでSDRAM43に一時記録する。S164では、レンズ制御回路23とレンズドライバ36によりフォーカスレンズをPの位置まで駆動する。S165では、メモリコントローラ21により撮像素子6で受光された画像を読み込んでSDRAM43に一時記録する。S166では、レンズ制御回路23とレンズドライバ36によりフォーカスレンズをP+Fδの位置まで駆動する。S167では、メモリコントローラ21により撮像素子6で受光された画像を読み込んでSDRAM43に一時記録する。S168では、メモリコントローラ21によりSDRAM43に一時記録された3枚の画像からコントラストのピーク検出により合焦位置Pを求める。S169では、レンズ制御回路23とレンズドライバ36によりフォーカスレンズをPの位置まで駆動する。そして図17のメインルーチン内のS119にリターンする。 In S118 of FIG. 17, a contrast AF routine is executed. FIG. 21 is a flowchart of the contrast AF routine. In S161, the focus lens focus position is calculated from the defocus amount in the AF frame obtained by the imaging plane phase difference AF routine by the MPU 20 and the current position of the focus lens 3a in the photographing lens 3 detected by the position detector 35. determine the P S. In S162, the lens control circuit 23 and the lens driver 36 drive the focus lens to the position P S -Fδ. In S 163, the image received by the image sensor 6 is read by the memory controller 21 and temporarily recorded in the SDRAM 43. In S164, the lens control circuit 23 and the lens driver 36 to drive the focus lens to the position of P S. In S 165, the image received by the image sensor 6 is read by the memory controller 21 and temporarily recorded in the SDRAM 43. In S166, the focus lens is driven to the position of P S + Fδ by the lens control circuit 23 and the lens driver 36. In S 167, the image received by the image sensor 6 is read by the memory controller 21 and temporarily recorded in the SDRAM 43. In S168, it obtains the position P C-focus from three images recorded temporarily in SDRAM43 by the memory controller 21 by peak detection of the contrast. In S169, the lens control circuit 23 and the lens driver 36 to drive the focus lens to the position of the P C. Then, the process returns to S119 in the main routine of FIG.

図17のS119では、AF枠の色を灰色から緑色に変更してAF枠内が合焦したことをユーザーに知らせる。   In S119 of FIG. 17, the color of the AF frame is changed from gray to green to notify the user that the AF frame is in focus.

S120では、撮影レンズ3の合焦後にAF枠が移動した場合の処理であるAF枠移動処理ルーチンを実行する。図22はAF枠移動処理ルーチンのフローである。S171では、ユーザーによりマルチコントローラー33が操作されたか否かの判定を行い、操作されていればS172へ進み、操作されていなければ図17のメインルーチン内のS121にリターンする。S172では、AF枠の色を緑色から灰色に変更し、合焦表示を消去する。S173では、マルチコントローラー33の操作方向や操作時間に従って、AF枠を移動させる。S174では、AF枠が移動した場所において、AF枠領域の再設定を行なう。S175では、再設定されたAF枠領域の撮像面位相差AFルーチンを行なう。   In S120, an AF frame movement process routine that is a process when the AF frame moves after the photographing lens 3 is focused is executed. FIG. 22 is a flowchart of an AF frame movement processing routine. In S171, it is determined whether or not the multi-controller 33 has been operated by the user. If it has been operated, the process proceeds to S172, and if it has not been operated, the process returns to S121 in the main routine of FIG. In S172, the color of the AF frame is changed from green to gray, and the in-focus display is erased. In S173, the AF frame is moved according to the operation direction and operation time of the multi-controller 33. In S174, the AF frame area is reset at the location where the AF frame has moved. In S175, an imaging plane phase difference AF routine for the reset AF frame area is performed.

図23はAF枠領域の撮像面位相差AFルーチンのフローである。S181では、再設定されたAF枠領域を構成する各焦点検出領域におけるAF画素信号をSDRAM43から読み出す。このデータは図20の撮像面位相差AFルーチンのS154においてSDRAM43に一時記録された、各焦点検出領域におけるAF画素信号である。S182では、MPU20により相関演算用の2像の信号を生成する。図15に示したAFSIGh(A3)とAFSIGh(B3)、又はAFSIGv(C5)とAFSIGv(D5)等の60セクションを連結した対の信号を生成する。S183では、MPU20により得られた2像の相関演算を行ない、2像の相対的な位置ずれ量を演算する。S184では、MPU20により相関演算結果の信頼性を判定する。S185では、MPU20により信頼性の高い検出結果から焦点ずれ量を演算する。ここで再設定されたAF枠内の1つの焦点ずれ量が決定記憶される。そして図22のAF枠移動処理ルーチン内のS176にリターンする。   FIG. 23 is a flowchart of the imaging surface phase difference AF routine for the AF frame region. In S181, the AF pixel signal in each focus detection area constituting the reset AF frame area is read from the SDRAM 43. This data is an AF pixel signal in each focus detection area temporarily recorded in the SDRAM 43 in S154 of the imaging surface phase difference AF routine of FIG. In S182, the MPU 20 generates two image signals for correlation calculation. A pair of signals obtained by connecting 60 sections such as AFSIGh (A3) and AFSIGh (B3) or AFSIGv (C5) and AFSIGv (D5) shown in FIG. 15 is generated. In S183, the correlation calculation of the two images obtained by the MPU 20 is performed, and the relative displacement amount between the two images is calculated. In S184, the MPU 20 determines the reliability of the correlation calculation result. In S185, the MPU 20 calculates a defocus amount from a highly reliable detection result. One defocus amount within the AF frame reset here is determined and stored. Then, the process returns to S176 in the AF frame movement processing routine of FIG.

AF枠領域撮像面位相差AFルーチンにおいては、再設定されたAF枠領域を構成する焦点検出領域におけるAF画素信号を読み出して焦点ずれ量を演算している。しかし、例えば、撮像面位相差AFルーチンで各焦点検出領域の焦点ずれ量を演算・記録してもよい。これにより、AF枠移動時はAF枠領域を構成する6焦点検出領域の各焦点ずれ量を読み出して、それらの中の信頼性の高い値や最至近値としたり、平均値としたりするなどの方法でAF枠領域内の焦点ずれ量を求めることができる。また、AF枠領域を設定せずに、AF枠内の36焦点検出領域の各焦点ずれ量を読み出して、それらの中の信頼性の高い値や最至近値としたり、平均値としたりするなどの方法で移動されたAF枠内の焦点ずれ量を求めても構わない。   In the AF frame area imaging plane phase difference AF routine, the AF pixel signal in the focus detection area constituting the reset AF frame area is read and the defocus amount is calculated. However, for example, the defocus amount of each focus detection area may be calculated and recorded by the imaging surface phase difference AF routine. As a result, when the AF frame is moved, the defocus amounts of the six focus detection areas constituting the AF frame area are read out, and the highly reliable value, the closest value, the average value, etc. are obtained. The amount of defocus in the AF frame area can be obtained by this method. Also, without setting the AF frame area, the respective defocus amounts of the 36 focus detection areas in the AF frame are read, and the highly reliable value, the closest value, the average value, etc., among them are set. The amount of defocus in the AF frame moved by this method may be obtained.

S176では、コントラストAFルーチンを実行する。このルーチンはS118のコントラストAFルーチンと同一のため説明は割愛する。S177では、AF枠の色を灰色から緑色に変更してAF枠内が合焦したことをユーザーに知らせる。そして図17のメインルーチン内のS121にリターンする。   In S176, a contrast AF routine is executed. Since this routine is the same as the contrast AF routine in S118, its description is omitted. In S177, the color of the AF frame is changed from gray to green to notify the user that the AF frame is in focus. Then, the process returns to S121 in the main routine of FIG.

AF枠移動処理ルーチンにおいては、ユーザーによるAF枠の移動が停止した後でAF枠領域設定を行い、撮像面位相差AF及びTV−AFによりフォーカスレンズを合焦させている。この場合は、例えば一旦合焦動作させた被写体に対して比較的合焦位置が近い被写体は、液晶モニタ14の表示上はほぼ合焦しているように見えるため、AF枠を移動して再合焦動作を行なっても、ライビュー表示の見え方に変化はない。   In the AF frame movement processing routine, AF frame area setting is performed after the user stops moving the AF frame, and the focus lens is focused by the imaging plane phase difference AF and TV-AF. In this case, for example, a subject whose focus position is relatively close to the subject once in-focus operation appears to be almost in focus on the display of the liquid crystal monitor 14, so the AF frame is moved and re-entered. Even if the in-focus operation is performed, the appearance of the live display does not change.

ところが、合焦位置が大きく異なる被写体は液晶モニタ14の表示上はボケて見える。このため、その状態でAF枠の位置を合わせて再合焦動作により被写体が合焦した状態で表示されると、AF枠の位置がズレたり、合焦位置が変わることにより液晶モニタ14の表示の雰囲気が急に変化することがある。そこで、AF枠移動に追従してレンズドライバ36がフォーカスレンズ3aを合焦させたり、AF枠移動中のAF枠内の焦点ずれ量を演算し、その焦点ずれ量に応じて(焦点ずれ量が所定値よりも大きい場合等)フォーカスレンズ3aを合焦させたりする。これにより、AF枠移動し易くしたり、ライブビュー表示が見易くしたりすることができる。   However, subjects with greatly different in-focus positions appear blurred on the display of the liquid crystal monitor 14. For this reason, if the subject is displayed in a state where the AF frame is aligned in that state and the subject is in focus by the refocusing operation, the position of the AF frame is shifted or the focus position is changed, so that the display on the liquid crystal monitor 14 is changed. The atmosphere may change suddenly. Therefore, following the movement of the AF frame, the lens driver 36 focuses the focus lens 3a, calculates the amount of defocus in the AF frame during movement of the AF frame, and according to the amount of defocus (the amount of defocus is For example, when the focus lens 3a is larger than a predetermined value, the focus lens 3a is focused. As a result, the AF frame can be easily moved and the live view display can be easily viewed.

図17のS121では、レリーズボタン30が全押しされてSW2がONされたか否かの判定を行い、ONされていればS122へ進み、ONされていなければ更にAF枠が移動された可能性を考慮してS120へ進む。   In S121 of FIG. 17, it is determined whether or not the release button 30 is fully pressed and SW2 is turned on. If it is turned on, the process proceeds to S122, and if it is not turned on, there is a possibility that the AF frame has been moved further. Considering this, the process proceeds to S120.

S122では、ライブビュー撮影ルーチンを実行する。図24はライブビュー撮影ルーチンのフローである。S191では、メモリコントローラ21により撮像素子6から画像信号を読み込み、合焦している主被写体及びその周りの測光情報を得る、所謂、撮像面AE動作を行なう。S192では、撮像面AE結果により演算された撮影露出に従って、レンズ制御回路23により撮影レンズ3内の不図示の絞りを駆動する。S193では、メモリコントローラ21により撮像素子6に受光されている画像をリセットして撮像素子6の受光状態を初期状態、即ち何も撮像されていない状態に戻す。S194では、再びメモリコントローラ21により撮像素子6の受光を行い、画像を読み込んでSDRAM43に一時記録する。S195では、メモリコントローラ21で読み出した画像信号の欠損画素補間を行なう。S196では、画像処理回路44で画像のホワイトバランス補正、γ補正、エッジ強調等の画像処理を行ない、画像圧縮/伸張回路45で画像をJPEG等の形式に従って圧縮する。S197では、画像処理した撮影画像をメディア48に記録する。S198では、シャッター駆動回路27によりシャッター5を閉じる。S199では、モータ駆動回路26により不図示のミラー駆動用モータを制御し、主ミラー4とサブミラー7をミラーダウンする(図1の状態となる)。S200では、モータ駆動回路26により不図示のチャージ用モータを通電制御し、シャッター5をチャージする。そして図17のメインルーチン内のS110にリターンする。   In S122, a live view shooting routine is executed. FIG. 24 is a flowchart of the live view shooting routine. In S191, a so-called imaging surface AE operation is performed in which the memory controller 21 reads an image signal from the imaging device 6 and obtains the focused main subject and photometric information around it. In S192, the lens control circuit 23 drives a diaphragm (not shown) in the photographic lens 3 according to the photographic exposure calculated from the imaging surface AE result. In S193, the image received by the image pickup device 6 by the memory controller 21 is reset to return the light receiving state of the image pickup device 6 to the initial state, that is, the state where nothing is picked up. In S 194, the memory controller 21 receives light again from the image sensor 6, reads an image, and temporarily records it in the SDRAM 43. In S195, defective pixel interpolation of the image signal read by the memory controller 21 is performed. In S196, the image processing circuit 44 performs image processing such as white balance correction, γ correction, and edge enhancement, and the image compression / decompression circuit 45 compresses the image according to a format such as JPEG. In S 197, the captured image that has undergone image processing is recorded on the medium 48. In S198, the shutter 5 is closed by the shutter drive circuit 27. In S199, the motor drive circuit 26 controls a mirror drive motor (not shown) to mirror down the main mirror 4 and the sub mirror 7 (the state shown in FIG. 1 is obtained). In S200, the motor drive circuit 26 controls energization of a charging motor (not shown) to charge the shutter 5. Then, the process returns to S110 in the main routine of FIG.

以上説明したように、本実施形態によれば、AF枠内の画像に対して撮像面位相差AF結果に基づいたTV−AFを行なっているため、ライブビュー時に撮像領域内の何処ででもAFが可能で、合焦精度が高く、合焦時間が速いAFを行なうことが実現できる。また撮像素子6の撮像領域の全域に横ずれ検出用画素と縦ずれ検出用画素を市松状に実質上等間隔かつ等密度で配置することより、横方向に輝度分布を有する被写体と、縦方向に輝度分布を有する被写体の、いずれに対しても撮像面位相差AFが可能である。このため、AF枠が顔認識やユーザーにより撮像領域内の任意位置に移動されても、何処でも撮像面位相差AF結果が得られる。しかも焦点検出用画素は離散的に配置されているため、撮像用画素の欠損が少なく撮影画像の劣化も回避できる。   As described above, according to the present embodiment, since TV-AF is performed on the image in the AF frame based on the imaging surface phase difference AF result, AF is performed anywhere in the imaging area during live view. It is possible to realize AF with high focusing accuracy and fast focusing time. Further, by arranging the horizontal deviation detection pixels and the vertical deviation detection pixels in a checkered pattern at substantially equal intervals and equal density in the entire imaging region of the image pickup device 6, an object having a luminance distribution in the horizontal direction and a vertical direction are arranged. The imaging plane phase difference AF is possible for any subject having a luminance distribution. For this reason, even if the AF frame is moved to an arbitrary position in the imaging region by face recognition or the user, an imaging surface phase difference AF result can be obtained anywhere. In addition, since the focus detection pixels are discretely arranged, there is little loss of the imaging pixels, and deterioration of the captured image can be avoided.

本発明は、デジタル一眼レフカメラだけでなく、デジタルコンパクトカメラ、デジタルビデオカメラ、各種検査デジタルカメラ、監視デジタルカメラ、内視鏡デジタルカメラ、ロボット用デジタルカメラ等に適用可能である。また本実施形態に記載された構成要素の配置や数値等は例示的なものであり、本発明の範囲をそれらのみに限定する趣旨のものではない。   The present invention is applicable not only to digital single-lens reflex cameras but also to digital compact cameras, digital video cameras, various inspection digital cameras, surveillance digital cameras, endoscope digital cameras, digital cameras for robots, and the like. Moreover, arrangement | positioning, a numerical value, etc. of the component described in this embodiment are exemplary, and are not the meaning which limits the scope of the present invention only to them.

マルチビュー及び撮影時の実施例のデジタルカメラの断面図である。It is sectional drawing of the digital camera of the Example at the time of multi view and imaging | photography. ファインダー観察時の実施例のデジタルカメラの断面図である。It is sectional drawing of the digital camera of the Example at the time of finder observation. 図1に示すデジタルカメラの制御系のブロック図である。It is a block diagram of the control system of the digital camera shown in FIG. 図1に示す撮像素子に使用される撮像用画素と焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for an imaging used for the image sensor shown in FIG. 1, and the pixel for a focus detection. 図1に示す撮像素子に使用される撮像用画素と焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for an imaging used for the image sensor shown in FIG. 1, and the pixel for a focus detection. 図1に示す撮像素子に使用される撮像用画素と焦点検出用画素の構造を説明する図である。It is a figure explaining the structure of the pixel for an imaging used for the image sensor shown in FIG. 1, and the pixel for a focus detection. 図1に示す撮像素子の最小単位の画素配列説明図である。FIG. 2 is a pixel array explanatory diagram of a minimum unit of the image sensor shown in FIG. 1. 図1に示す撮像素子の上位単位の画素配列説明図である。FIG. 2 is an explanatory diagram of a pixel arrangement in the upper unit of the image sensor shown in FIG. 1. 図1に示す撮像素子の全領域における画素配列説明図である。FIG. 2 is an explanatory diagram of a pixel arrangement in the entire area of the image sensor shown in FIG. 1. 横ずれ焦点検出時の画素グループ化方法説明図である。It is a pixel grouping method explanatory view at the time of lateral shift focus detection. 横ずれ焦点検出時の画像サンプリング特性説明図である。It is an image sampling characteristic explanatory view at the time of lateral shift focus detection. 縦ずれ焦点検出時の画素グループ化方法説明図である。It is explanatory drawing of the pixel grouping method at the time of longitudinal shift focus detection. 縦ずれ焦点検出時の画像サンプリング特性説明図である。It is image sampling characteristic explanatory drawing at the time of a longitudinal shift focus detection. 図1に示す撮像素子の瞳分割状況を説明する概念図である。It is a conceptual diagram explaining the pupil division | segmentation condition of the image pick-up element shown in FIG. ライブビュー時のAF動作説明図である。It is AF operation explanatory drawing at the time of live view. AF枠内の画像に対するフォーカスレンズ位置とコントラスト値の関係図である。FIG. 5 is a relationship diagram between a focus lens position and a contrast value for an image in an AF frame. 図1に示すデジタルカメラの動作を示すフローチャートである。2 is a flowchart showing an operation of the digital camera shown in FIG. 図17に示す通常撮影ルーチンS109の詳細を説明するフローチャートである。18 is a flowchart for explaining details of a normal photographing routine S109 shown in FIG. 図17に示すライブビュー表示ルーチンS111の詳細を説明するフローチャートである。It is a flowchart explaining the detail of live view display routine S111 shown in FIG. 図17に示す撮像面位相差AFルーチンS117の詳細を説明するフローチャートである。18 is a flowchart illustrating details of an imaging surface phase difference AF routine S117 shown in FIG. 図17に示すコントラストAFルーチンS118の詳細を説明するフローチャートである。It is a flowchart explaining the detail of contrast AF routine S118 shown in FIG. 図17に示すAF枠移動処理ルーチンS120の詳細を説明するフローチャートである。It is a flowchart explaining the detail of AF frame movement process routine S120 shown in FIG. 図22に示すAF枠領域撮像面位相差AFルーチンS175の詳細を説明するフローチャートである。FIG. 23 is a flowchart for describing details of an AF frame area imaging surface phase difference AF routine S175 shown in FIG. 22; FIG. 図17に示すライブビュー撮影ルーチンS122の詳細を説明するフローチャートである。It is a flowchart explaining the detail of live view imaging | photography routine S122 shown in FIG.

符号の説明Explanation of symbols

3 撮影レンズ
6 撮像素子
14 液晶モニタ(表示部)
20 MPU(制御部)
33 マルチコントローラー(モード設定部、枠設定部)
43 SDRAM
3 Shooting Lens 6 Image Sensor 14 Liquid Crystal Monitor (Display Unit)
20 MPU (control unit)
33 Multi-controller (mode setting section, frame setting section)
43 SDRAM

Claims (7)

ォーカスレンズを含む撮影レンズの射出瞳の全域を通る光を各々が受光して信号を生成する複数の撮影用画素と、各々が前記撮影レンズの前記射出瞳の一部の領域を通る光を受光する複数の焦点検出用画素と、を有する撮像素子と、
前記焦点検出用画素の出力から得られた一対の像信号に基づいて焦点ずれ量を検出する第1の検出手段と、
前記撮像信号に基づいてコントラスト検出方式の焦点検出を行う第2の検出手段と、
焦点検出の対象である焦点検出領域を前記撮像素子の撮像領域に設定する設定部と、を有し、
前記第1の検出手段は、記設定部が設定した前記焦点検出領域に対応する前記焦点検出用画素の出力を用いて焦点ずれ量を算出するとともに、前記焦点検出領域外を含む領域の前記焦点検出用画素の出力信号をメモリに記録し
検出された焦点ずれ量に基づく第1の合焦位置を基準として、前記第2の検出手段は、前記焦点検出領域に対応する前記撮影用画素からの撮像信号に基づいてコントラスト検出方式の焦点検出を行い、第2の合焦位置を検出することを特徴とする撮像装置。
A plurality of imaging pixels, each of the light to generate an image signal Ta and receives through the entire area of the exit pupil of including shooting lens off Okasurenzu, each part of the exit pupil of the photographing lens region an imaging element that having a, a plurality of focus detection pixels that receive light passing through,
First detection means for detecting a defocus amount based on a pair of image signals obtained from the output of the focus detection pixels;
Second detection means for performing focus detection by a contrast detection method based on the imaging signal;
The focus detection area is a focus detection target anda setting tough to set in the imaging region of the imaging element,
The first detection means, before with Ki設 tough calculates the defocus amount using an output of the focus detection pixels corresponding to the focus detection area set, the area including the focus detecting area outside The output signal of the focus detection pixel is recorded in a memory ,
Based on the first in-focus position based on the detected defocus amount, the second detection means performs focus detection using a contrast detection method based on an imaging signal from the imaging pixel corresponding to the focus detection area. And an image pickup apparatus that detects the second in-focus position .
前記設定部は、第1の方向に対して焦点ずれ量を検出するための第1の焦点検出領域と、前記第1の方向と異なる第2の方向に対して焦点ずれ量を検出するための第2の焦点検出領域を設定することを特徴とする請求項1に記載の撮像装置。The setting unit detects a defocus amount with respect to a first focus detection area for detecting a defocus amount with respect to a first direction and a second direction different from the first direction. The imaging apparatus according to claim 1, wherein a second focus detection area is set. 前記第1の検出手段は、前記第1の焦点検出領域と前記第2の焦点検出領域のそれぞれについて焦点ずれ量を算出することを特徴とする請求項2に記載の撮像装置。The imaging apparatus according to claim 2, wherein the first detection unit calculates a defocus amount for each of the first focus detection region and the second focus detection region. 前記撮像装置は前記焦点検出用画素と異なる焦点検出センサを更に有し、The imaging apparatus further includes a focus detection sensor different from the focus detection pixels,
ライブビューモードが設定されている場合、前記第1の検出手段は、前記設定部が設定した前記焦点検出領域に対応する前記焦点検出用画素の出力を用いて焦点ずれ量を算出するとともに、前記焦点検出領域外を含む領域の前記焦点検出用画素の出力信号をメモリに記録し、When the live view mode is set, the first detection unit calculates an amount of defocus using an output of the focus detection pixel corresponding to the focus detection region set by the setting unit, and The output signal of the focus detection pixel in the area including the outside of the focus detection area is recorded in a memory,
ライブビューモードが設定されていない場合、前記第1の検出手段は、前記焦点検出センサの出力を用いて焦点ずれ量を算出することを特徴とする請求項1乃至3のいずれか一項に記載の撮像装置。4. The apparatus according to claim 1, wherein when a live view mode is not set, the first detection unit calculates a defocus amount using an output of the focus detection sensor. 5. Imaging device.
前記第1の検出手段、前記焦点検出領域に応じた前記焦点検出用画素から算出された複数の焦点ずれ量の中で信頼性が最も高い値、最至近値、又は、前記複数の焦点ずれ量の平均値を選択することを特徴とする請求項1乃至のいずれか一項に記載の撮像装置。 The first detection means, the highest value is reliable in the previous SL focus more defocus amounts calculated from the focus detection pixels according to the detection region, closest value, or, the plurality of focus the imaging apparatus according to claim 1 to 4 Neu deviation or claim and selects an average value of the deviation amount. 前記撮像装置は前記フォーカスレンズを駆動するドライバを更に有し、
記ドライバが前記フォーカスレンズを前記第2の合焦位置に移動した後で前記焦点検出領域が移動した場合、前記第1の検出手段は、移動した前記焦点検出領域に対応する前記焦点検出用画素の出力信号を前記メモリから読み出して焦点ずれ量を算出し、当該焦点ずれ量に基づく新たな第1の合焦位置を基準として、前記第2の検出手段は、移動した前記焦点検出領域に対応する前記撮影用画素からの撮像信号に基づいてコントラスト検出方式の焦点検出を行い、新たな第2の合焦位置を検出することを特徴とする請求項1乃至5のいずれか一項に記載の撮像装置。
The imaging apparatus further includes a driver that drives the focus lens;
If the previous SL driver moves the focus detection area after moving the focus lens to the second focus position, the first detecting means, for the focus detection corresponding to the focus detection area moves A pixel output signal is read from the memory to calculate a defocus amount, and the second detection unit uses the new first in-focus position based on the defocus amount as a reference to the moved focus detection region. perform focus detection of a contrast detection method based on the imaging signals from the imaging pixels corresponding, according to any one of claims 1 to 5, characterized in that detecting a focus new second engagement position Imaging device.
フォーカスレンズを含む撮影レンズの射出瞳の全域を通る光を各々が受光して撮像信号を生成する複数の撮影用画素と、各々が前記撮影レンズの前記射出瞳の一部の領域を通る光を受光する複数の焦点検出用画素と、を有する撮像素子と、A plurality of imaging pixels that each receive light passing through the entire exit pupil of the imaging lens including the focus lens to generate an imaging signal, and light that passes through a partial region of the exit pupil of the imaging lens. An imaging device having a plurality of focus detection pixels for receiving light;
焦点検出の対象である焦点検出領域を前記撮像素子の撮像領域中に設定する設定部と、を有する撮像装置の制御方法であって、A setting unit that sets a focus detection area that is a target of focus detection in an imaging area of the imaging device, and a control method for an imaging apparatus,
前記焦点検出用画素の出力から得られた一対の像信号に基づいて焦点ずれ量を検出する第1の検出ステップと、A first detection step of detecting a defocus amount based on a pair of image signals obtained from the output of the focus detection pixels;
前記撮像信号に基づいてコントラスト検出方式の焦点検出を行う第2の検出ステップと、を有し、A second detection step of performing focus detection of a contrast detection method based on the imaging signal,
前記第1の検出ステップにおいて、前記設定部が設定した前記焦点検出領域に対応する前記焦点検出用画素の出力を用いて焦点ずれ量を算出するとともに、前記焦点検出領域外を含む領域の前記焦点検出用画素の出力信号をメモリに記録し、In the first detection step, the focus shift amount is calculated using the output of the focus detection pixel corresponding to the focus detection region set by the setting unit, and the focus of the region including outside the focus detection region is calculated. Record the output signal of the detection pixel in the memory,
検出された焦点ずれ量に基づく第1の合焦位置を基準として、前記第2の検出ステップにおいて、前記焦点検出領域に対応する前記撮影用画素からの撮像信号に基づいてコントラスト検出方式の焦点検出を行い、第2の合焦位置を検出することを特徴とする撮像装置の制御方法。Using the first in-focus position based on the detected defocus amount as a reference, in the second detection step, focus detection by a contrast detection method is performed based on an imaging signal from the imaging pixel corresponding to the focus detection area. And a second focus position is detected, and a method for controlling the imaging apparatus.
JP2008088815A 2008-03-28 2008-03-28 Imaging apparatus and control method thereof Active JP5207797B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008088815A JP5207797B2 (en) 2008-03-28 2008-03-28 Imaging apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008088815A JP5207797B2 (en) 2008-03-28 2008-03-28 Imaging apparatus and control method thereof

Publications (2)

Publication Number Publication Date
JP2009244429A JP2009244429A (en) 2009-10-22
JP5207797B2 true JP5207797B2 (en) 2013-06-12

Family

ID=41306413

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008088815A Active JP5207797B2 (en) 2008-03-28 2008-03-28 Imaging apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5207797B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5932210B2 (en) * 2010-04-30 2016-06-08 キヤノン株式会社 Imaging apparatus and focus adjustment method
JP2012003087A (en) 2010-06-17 2012-01-05 Olympus Corp Imaging apparatus
JP2014032214A (en) * 2010-11-30 2014-02-20 Fujifilm Corp Imaging apparatus and focus position detection method
JP2012128343A (en) * 2010-12-17 2012-07-05 Nikon Corp Camera
JP5891582B2 (en) * 2011-01-18 2016-03-23 株式会社ニコン Focus detection device, camera body and camera
KR101777351B1 (en) 2011-05-16 2017-09-11 삼성전자주식회사 Image pickup device, digital photographing apparatus using the device, auto-focusing method, and computer-readable storage medium for performing the method
JP6069817B2 (en) * 2011-06-29 2017-02-01 株式会社ニコン Focus adjustment device and imaging device provided with the same
JP6016567B2 (en) * 2012-10-05 2016-10-26 キヤノン株式会社 Correlation calculation device, imaging device, correlation calculation method, program, and storage medium
US9565996B2 (en) * 2013-01-18 2017-02-14 Ricoh Company, Ltd. Plenoptic otoscope
US10327627B2 (en) 2013-01-18 2019-06-25 Ricoh Company, Ltd. Use of plenoptic otoscope data for aiding medical diagnosis
JP6372983B2 (en) * 2013-09-02 2018-08-15 キヤノン株式会社 FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP6257231B2 (en) * 2013-09-09 2018-01-10 オリンパス株式会社 IMAGING DEVICE AND CONTROL METHOD OF IMAGING DEVICE
JP6335482B2 (en) 2013-11-13 2018-05-30 キヤノン株式会社 Imaging apparatus, control method therefor, and program
US10098529B2 (en) 2015-10-28 2018-10-16 Ricoh Company, Ltd. Optical design of a light field otoscope
WO2018003479A1 (en) * 2016-06-27 2018-01-04 ソニー株式会社 Control device and method, program, and endoscope system
JP6332372B2 (en) * 2016-09-14 2018-05-30 株式会社ニコン Focus adjustment device and imaging device provided with the same
US10296780B2 (en) 2017-03-07 2019-05-21 Ricoh Company, Ltd. Automatic eardrum registration from light field data
JP6642531B2 (en) * 2017-08-03 2020-02-05 株式会社ニコン Imaging device

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4142205B2 (en) * 1999-05-19 2008-09-03 オリンパス株式会社 Electronic still camera
JP2001008085A (en) * 1999-06-24 2001-01-12 Toshiba Corp Image pickup device
JP2002131623A (en) * 2000-10-24 2002-05-09 Canon Inc Imaging apparatus and system
JP2003250080A (en) * 2002-02-22 2003-09-05 Canon Inc Imaging apparatus and imaging system
JP4564831B2 (en) * 2004-11-26 2010-10-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP2006284694A (en) * 2005-03-31 2006-10-19 Nikon Corp Focus detector, electronic camera and interchangeable lens
JP4972960B2 (en) * 2006-03-01 2012-07-11 株式会社ニコン Focus adjustment device and imaging device
JP2007279601A (en) * 2006-04-11 2007-10-25 Nikon Corp Camera
JP4821506B2 (en) * 2006-08-28 2011-11-24 株式会社ニコン Focus adjustment device and camera
JP4567712B2 (en) * 2007-07-30 2010-10-20 オリンパス株式会社 Imaging device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10078198B2 (en) 2014-08-08 2018-09-18 Samsung Electronics Co., Ltd. Photographing apparatus for automatically determining a focus area and a control method thereof

Also Published As

Publication number Publication date
JP2009244429A (en) 2009-10-22

Similar Documents

Publication Publication Date Title
JP5207797B2 (en) Imaging apparatus and control method thereof
JP5543098B2 (en) Imaging device
JP5552214B2 (en) Focus detection device
US8730374B2 (en) Focus detection apparatus
JP5028154B2 (en) Imaging apparatus and control method thereof
CN103814322B (en) Focus control and camera device
JP6584149B2 (en) Imaging device
JP5932210B2 (en) Imaging apparatus and focus adjustment method
US9247122B2 (en) Focus adjustment apparatus and control method therefor
JP4995002B2 (en) Imaging device, focusing device, imaging method, and focusing method
JP2011135191A (en) Imaging apparatus and image processor
JP5361356B2 (en) Focus detection apparatus and control method thereof
JP2010060771A (en) Imaging device
JP2017192028A (en) Imaging apparatus and control method of the same, program, and memory medium
JP5982040B2 (en) Imaging apparatus and control method thereof
JP5240591B2 (en) Imaging device, focusing device, imaging method, and focusing method
JP6845912B2 (en) Imaging device and its control method
JP5295413B2 (en) Imaging device
JP2016071275A (en) Image-capturing device and focus control program
JP2011130256A (en) Imaging apparatus
JP2019074634A (en) Imaging apparatus
JP2018026604A (en) Imaging device and imaging device system
JP5845313B2 (en) Information processing apparatus and control method thereof
JP7022534B2 (en) Image processing device and image processing method
JP2019191608A5 (en)

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110328

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130219

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5207797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160301

Year of fee payment: 3