JP6611559B2 - IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM - Google Patents

IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Download PDF

Info

Publication number
JP6611559B2
JP6611559B2 JP2015206691A JP2015206691A JP6611559B2 JP 6611559 B2 JP6611559 B2 JP 6611559B2 JP 2015206691 A JP2015206691 A JP 2015206691A JP 2015206691 A JP2015206691 A JP 2015206691A JP 6611559 B2 JP6611559 B2 JP 6611559B2
Authority
JP
Japan
Prior art keywords
focus
image
focus detection
unit
defocus amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2015206691A
Other languages
Japanese (ja)
Other versions
JP2017079407A (en
Inventor
知宇 座間
俊幸 渡辺
京 仲本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015206691A priority Critical patent/JP6611559B2/en
Publication of JP2017079407A publication Critical patent/JP2017079407A/en
Application granted granted Critical
Publication of JP6611559B2 publication Critical patent/JP6611559B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、撮像装置に関する。更に詳しくは、撮像装置における焦点調節に関する。   The present invention relates to an imaging apparatus. More specifically, the present invention relates to focus adjustment in an imaging apparatus.

ユーザーが任意で、焦点位置を調整するための技術が知られている。例えば特許文献1では、撮影レンズを駆動して焦点位置を異ならせた複数の画像を取得し、ユーザーが複数の画像のうち、好みの焦点状態となるような焦点位置で撮影された画像を選択する。特許文献1のカメラでは、ユーザーによって選択された画像に対応した焦点調節のための調整値をEEPROMが記憶する。記憶した調整値を次回以降の焦点調節に反映し、調整値を反映する前のピントとは異なるピント状態を維持することができるため、ユーザーが毎度自ら調整を行う手間を省くことができる。   A technique for adjusting a focal position arbitrarily by a user is known. For example, in Patent Document 1, a plurality of images with different focal positions are obtained by driving a photographing lens, and a user selects an image photographed at a focal position in a desired focal state from among the plurality of images. To do. In the camera of Patent Document 1, the EEPROM stores adjustment values for focus adjustment corresponding to the image selected by the user. Since the stored adjustment value is reflected in the focus adjustment after the next time and a focus state different from the focus before the adjustment value is reflected can be maintained, it is possible to save the user from making adjustments each time.

特開2011−48341号公報JP 2011-48341 A

前述のように、特許文献1では、焦点位置の調整のために、焦点位置を異ならせた連続撮影を行う必要がある。連続撮影では、取得できる最初と最後の画像では時間差が発生してしまう。時間差が生じてしまうと、例えば被写体が動いてしまった場合に、取得する複数の画像で被写体の位置が一致しない。このような場合、被写体が静止被写体である場合と比較して、複数の画像間の焦点位置の違いがわかりにくい。   As described above, in Patent Document 1, it is necessary to perform continuous shooting with different focal positions in order to adjust the focal position. In continuous shooting, a time difference occurs between the first and last images that can be acquired. When the time difference occurs, for example, when the subject moves, the positions of the subjects do not match in the plurality of images to be acquired. In such a case, compared with the case where the subject is a stationary subject, it is difficult to understand the difference in the focal position between the plurality of images.

そこで、複数の画像間の焦点状態の違いを比較しやすい撮像装置を提供することを目的とする。また、このような撮像装置における制御方法、そのプログラム及び記憶媒体を提供することを目的とする。   An object of the present invention is to provide an imaging apparatus that can easily compare differences in focus state between a plurality of images. It is another object of the present invention to provide a control method, a program, and a storage medium for such an imaging apparatus.

本発明は、光学系の異なる瞳領域を通過した光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を、複数有する撮像素子と、デフォーカス量を検出する焦点検出手段と、前記デフォーカス量に基づいてフォーカスレンズを駆動し、焦点位置を調節する焦点調節手段と、前記複数の光電変換部から取得した、焦点位置の異なる信号を用いて、複数のリフォーカス画像を生成する生成手段と、前記生成手段が生成したリフォーカス画像に対応した、焦点位置を調整するための調整値を記憶する記憶手段と、を有し、前記焦点調節手段は、前記記憶手段が記憶した前記調整値に基づいて焦点位置を調節するよう構成したことを特徴とする。 The present invention includes an imaging device having a plurality of pixel units each having a plurality of photoelectric conversion units that respectively receive and photoelectrically convert light beams that have passed through different pupil regions of an optical system, a focus detection unit that detects a defocus amount, Generation of generating a plurality of refocused images using a focus adjustment unit that drives a focus lens based on a defocus amount and adjusts a focal position, and signals having different focal positions acquired from the plurality of photoelectric conversion units. And a storage unit that stores an adjustment value for adjusting the focal position corresponding to the refocus image generated by the generation unit, and the focus adjustment unit stores the adjustment stored in the storage unit. The focus position is adjusted based on the value.

本発明によれば、従来技術と比較して、複数の画像間の焦点状態の違いを比較しやすい。   According to the present invention, it is easy to compare the difference in focus state between a plurality of images as compared with the prior art.

デジタルカメラ(撮像装置)のブロック図。The block diagram of a digital camera (imaging device). 画素部の配列を示す図。The figure which shows the arrangement | sequence of a pixel part. 第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量との関係図。FIG. 6 is a relationship diagram between a defocus amount and an image shift amount of a first focus detection signal and a second focus detection signal. 本実施例における焦点検出領域の説明図。Explanatory drawing of the focus detection area | region in a present Example. 本実施例における第1焦点検出の処理を示すフローチャート。The flowchart which shows the process of the 1st focus detection in a present Example. 本実施例における第1焦点検出信号と第2焦点検出信号の瞳ずれによるシェーディングの説明図。Explanatory drawing of the shading by the pupil shift | offset | difference of the 1st focus detection signal and 2nd focus detection signal in a present Example. 本実施例におけるフィルター周波数帯域の一例を示す図。The figure which shows an example of the filter frequency band in a present Example. 本実施例における第1焦点検出信号と第2焦点検出信号の一例を示す図。The figure which shows an example of the 1st focus detection signal and 2nd focus detection signal in a present Example. フォーカスレンズが、ピントが合う位置にある場合の第1フィルター処理後の第1焦点検出信号と第2焦点検出信号の一例を示す図。The figure which shows an example of the 1st focus detection signal after a 1st filter process in case a focus lens exists in a focus position, and a 2nd focus detection signal. 本実施例における実施例1における第1検出デフォーカス量と第2検出デフォーカス量の一例を示す図。FIG. 6 is a diagram illustrating an example of a first detection defocus amount and a second detection defocus amount according to the first embodiment. 本実施例におけるベストピント調整値の説明図。Explanatory drawing of the best focus adjustment value in a present Example. 本実施例におけるリフォーカス画像生成処理の説明図。Explanatory drawing of the refocus image generation process in a present Example. 本実施例におけるリフォーカス可能範囲の説明図。Explanatory drawing of the refocus possible range in a present Example. 実施例1の焦点位置調整値設定を示すフローチャート。6 is a flowchart illustrating focus position adjustment value setting according to the first embodiment. 実施例2の焦点位置調整値設定を示すフローチャート。9 is a flowchart illustrating focus position adjustment value setting according to the second embodiment. 実施例3のEEPROMのデータ構造を示す図。FIG. 10 is a diagram illustrating a data structure of an EEPROM according to the third embodiment. 第2焦点検出の処理を示すフローチャート。The flowchart which shows the process of a 2nd focus detection. 実施例3の焦点位置調整値設定を示すフローチャート。10 is a flowchart illustrating focus position adjustment value setting according to the third embodiment. 実施例3の焦点位置調整値設定(記録画像を複数生成する場合)を示すフローチャート。10 is a flowchart illustrating focus position adjustment value setting (when a plurality of recorded images are generated) according to a third embodiment.

以下、添付図面を参照して、本発明を適用した実施例を説明する。なお、以下の実施例は本発明を適用した形態の一例であり、本発明の趣旨を逸脱しない範囲内で適宜変更することが可能である。   Embodiments to which the present invention is applied will be described below with reference to the accompanying drawings. In addition, the following examples are examples of the form to which the present invention is applied, and can be appropriately changed without departing from the gist of the present invention.

[実施例1]
図1は、本実施例のデジタルカメラ(撮像装置)のブロック図である。本実施例のデジタルカメラは交換レンズ式一眼レフカメラであり、レンズユニット100はカメラ本体120に対して着脱可能である。レンズユニット100は図中央の点線で示されるマウントMを介して、カメラ本体120と接続される。
[Example 1]
FIG. 1 is a block diagram of the digital camera (imaging device) of this embodiment. The digital camera of this embodiment is an interchangeable lens type single-lens reflex camera, and the lens unit 100 can be attached to and detached from the camera body 120. The lens unit 100 is connected to the camera body 120 via a mount M indicated by a dotted line in the center of the drawing.

[レンズユニットの構成]
レンズユニット100は、第1のレンズ群101、第2のレンズ群102、第3のレンズ群103、及び駆動/制御系を有する。このようにレンズユニット100は、フォーカスレンズ103を含むと共に、被写体の像を形成するレンズユニットを有する。
[Configuration of lens unit]
The lens unit 100 includes a first lens group 101, a second lens group 102, a third lens group 103, and a drive / control system. As described above, the lens unit 100 includes the focus lens 103 and includes a lens unit that forms an image of a subject.

第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに進退可能に保持される。   The first lens group 101 is disposed at the tip of the lens unit 100 and is held so as to be able to advance and retreat in the optical axis direction OA.

第2レンズ群102は、光軸方向に進退し、第1レンズ群101の進退動作との連動により、変倍作用(ズーム機能)を実現することができる。   The second lens group 102 moves back and forth in the optical axis direction, and can achieve a zooming action (zoom function) in conjunction with the forward and backward movement of the first lens group 101.

第3レンズ群(以下、フォーカスレンズ)103は、光軸方向の進退により焦点調節を行う。   A third lens group (hereinafter referred to as a focus lens) 103 performs focus adjustment by moving back and forth in the optical axis direction.

[レンズユニットの駆動/制御系]
駆動/制御系は、フォーカスアクチュエータ110、フォーカス駆動回路111、レンズMPU112、レンズメモリ113、ズームアクチュエータ114、ズーム駆動回路115を有する。
[Lens unit drive / control system]
The drive / control system includes a focus actuator 110, a focus drive circuit 111, a lens MPU 112, a lens memory 113, a zoom actuator 114, and a zoom drive circuit 115.

フォーカスアクチュエータ110は、フォーカスレンズ103を光軸方向OAに進退駆動して焦点調節を行う。フォーカスアクチュエータ110は、フォーカスレンズ103の現在位置を検出する位置検出部としての機能が備わっている。   The focus actuator 110 performs focus adjustment by driving the focus lens 103 back and forth in the optical axis direction OA. The focus actuator 110 has a function as a position detection unit that detects the current position of the focus lens 103.

フォーカス駆動回路111は、焦点検出結果に基づいてフォーカスアクチュエータ110を駆動制御し、フォーカスレンズ103を光軸方向OAに進退駆動して焦点調節を行う。   The focus drive circuit 111 drives and controls the focus actuator 110 based on the focus detection result, and performs focus adjustment by driving the focus lens 103 back and forth in the optical axis direction OA.

ズームアクチュエータ114は、不図示のカム筒を回動することで、第1レンズ群101ないし第2レンズ群102を光軸方向に進退駆動し、変倍操作を行う。   The zoom actuator 114 rotates a cam cylinder (not shown) to drive the first lens group 101 and the second lens group 102 forward and backward in the optical axis direction, thereby performing a zooming operation.

レンズMPU112は、レンズユニットに関わる全ての演算、制御を行い、フォーカス駆動回路111、レンズメモリ113を制御する。また、レンズMPU112は、現在のレンズ位置を検出し、カメラMPU124からの要求に対してレンズ位置情報を通知する。レンズメモリ113には自動焦点調節に必要な光学情報を記憶する。   The lens MPU 112 performs all calculations and control related to the lens unit, and controls the focus driving circuit 111 and the lens memory 113. Further, the lens MPU 112 detects the current lens position, and notifies the lens position information in response to a request from the camera MPU 124. The lens memory 113 stores optical information necessary for automatic focus adjustment.

[カメラ本体120の構成]
カメラ本体120は、光学的ローパスフィルタ121、撮像素子122、駆動/制御系を有する。
[Configuration of Camera Body 120]
The camera body 120 includes an optical low-pass filter 121, an image sensor 122, and a drive / control system.

光学的ローパスフィルタ121と撮像素子122は、レンズユニット100からの光束によって被写体像を形成する撮像光学系として機能する。光学的ローパスフィルタ121は、画像の偽色やモアレを軽減する。   The optical low-pass filter 121 and the imaging element 122 function as an imaging optical system that forms a subject image with the light flux from the lens unit 100. The optical low-pass filter 121 reduces the false color and moire of the image.

撮像素子122はCMOSセンサとその周辺回路で構成され、横方向m画素、縦方向n画素の受光ピクセル上に1つの光電変換素子が配置される。撮像素子122は、全画素独立出力が可能なように構成されている。また、一部または全部の画素が焦点検出用画素となっており、撮像面における位相差検出方式の焦点検出(撮像面位相差AF)が可能になっている。   The image sensor 122 is composed of a CMOS sensor and its peripheral circuits, and one photoelectric conversion element is arranged on the light receiving pixels of m pixels in the horizontal direction and n pixels in the vertical direction. The image sensor 122 is configured to be able to output all pixels independently. In addition, some or all of the pixels are focus detection pixels, and focus detection (imaging surface phase difference AF) using a phase difference detection method on the imaging surface is possible.

[カメラ本体の駆動/制御系]
駆動/制御系は、撮像素子駆動回路123、カメラMPU124、画像処理回路125、撮像面位相差焦点検出部126、表示部127、操作スイッチ(SW)群128、メモリ129を有する。
[Camera body drive / control system]
The drive / control system includes an image sensor driving circuit 123, a camera MPU 124, an image processing circuit 125, an imaging surface phase difference focus detection unit 126, a display unit 127, an operation switch (SW) group 128, and a memory 129.

撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、取得した記録画像信号及び焦点検出信号をA/D変換してカメラMPU124に送信する。   The image sensor drive circuit 123 controls the operation of the image sensor 122, A / D converts the acquired recorded image signal and focus detection signal, and transmits them to the camera MPU 124.

画像処理回路125は、撮像素子122が取得した画像のγ変換、カラー補間、JPEG圧縮などを行う。   The image processing circuit 125 performs γ conversion, color interpolation, JPEG compression, and the like of the image acquired by the image sensor 122.

また、画像処理回路125(生成手段)は、撮像素子122によって取得した記録画像信号から、任意に焦点位置を変更したリフォーカス画像を生成することができる。リフォーカス画像は、現在の結像面とは異なる仮想の結像面における画像に対応する画像である。リフォーカス画像の生成についての詳細は後述する。   Further, the image processing circuit 125 (generation unit) can generate a refocus image in which the focal position is arbitrarily changed from the recorded image signal acquired by the image sensor 122. The refocus image is an image corresponding to an image on a virtual imaging plane different from the current imaging plane. Details of the generation of the refocus image will be described later.

カメラMPU(制御部、プロセッサ)124は、カメラ本体120に係る全ての演算、制御を行う。カメラMPU124は、撮像素子駆動回路123、画像処理回路125、撮像面位相差焦点検出部126、表示部127、操作SW128、メモリ129を制御する。   The camera MPU (control unit, processor) 124 performs all calculations and controls related to the camera body 120. The camera MPU 124 controls the image sensor driving circuit 123, the image processing circuit 125, the imaging surface phase difference focus detection unit 126, the display unit 127, the operation SW 128, and the memory 129.

カメラMPU124はマウントMの信号線を介してレンズMPU112と接続され、レンズMPU112に対してレンズ位置の取得や所定の駆動量でのレンズ駆動要求を発行したり、レンズユニット100に固有の光学情報を取得したりする。このため、カメラMPU124は、像倍率変化が大きいレンズが装着された場合に、レンズMPU112からその情報を取得することができる。カメラMPU124には、焦点検出時に用いる調整値を含む諸パラメータを記憶するEEPROM124a、変数を記憶するRAM124b、カメラ動作を制御するプログラムを格納するROM124cが内蔵されている。   The camera MPU 124 is connected to the lens MPU 112 via the signal line of the mount M, and obtains a lens position, issues a lens driving request with a predetermined driving amount, and sends optical information specific to the lens unit 100 to the lens MPU 112. Or get it. Therefore, the camera MPU 124 can acquire the information from the lens MPU 112 when a lens with a large image magnification change is attached. The camera MPU 124 includes an EEPROM 124a that stores various parameters including adjustment values used at the time of focus detection, a RAM 124b that stores variables, and a ROM 124c that stores programs for controlling camera operations.

撮像面位相差焦点検出部126は、撮像素子122の画素部が有する複数の光電変換部で取得した像信号により撮像面位相差方式での第1焦点検出処理を行う。撮像面位相差AFについての詳細は後述する。   The imaging surface phase difference focus detection unit 126 performs a first focus detection process by an imaging surface phase difference method based on image signals acquired by a plurality of photoelectric conversion units included in the pixel unit of the imaging element 122. Details of the imaging plane phase difference AF will be described later.

表示部127はLCDなどから構成され、カメラの撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の焦点状態の表示画像などを表示する。   The display unit 127 includes an LCD or the like, and displays information related to the shooting mode of the camera, a preview image before shooting and a confirmation image after shooting, a display image of the focus state at the time of focus detection, and the like.

操作SW群128は、電源スイッチ、レリーズ(撮像トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチ等で構成される。メモリ129は、着脱可能なフラッシュメモリで、撮影済み画像を記録する。   The operation SW group 128 includes a power switch, a release (imaging trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory 129 is a detachable flash memory and records captured images.

デフォーカス検出ユニット134は、AFに用いるための信号の取得のために、受光した光を光電変換し電気信号を取得するラインセンサを有し、不図示の焦点検出光学系によって導かれた被写体像を光電変換し、電位変化として出力させる。ミラー駆動ユニット133は、撮影開始時にメインミラー131およびサブミラー132からなるクイックリターンミラーを退避させ、撮影完了時には復帰させる。なお、本実施例のように、撮像面における位相差検出方式の焦点検出(撮像面位相差AF)を行う撮像素子を有する場合には、デフォーカス検出ユニット134を省略することもできる。   The defocus detection unit 134 includes a line sensor that photoelectrically converts received light to acquire an electric signal for acquiring a signal to be used for AF, and an object image guided by a focus detection optical system (not shown). Is photoelectrically converted and output as a potential change. The mirror drive unit 133 retracts the quick return mirror composed of the main mirror 131 and the sub mirror 132 at the start of shooting and returns it when the shooting is completed. It should be noted that the defocus detection unit 134 may be omitted when the image sensor that performs the focus detection (imaging surface phase difference AF) of the phase difference detection method on the imaging surface is provided as in the present embodiment.

[撮像面位相差AFの構成]
撮像素子122は、被写体の像を形成するレンズユニットの射出瞳の全域を通る光を各々が受光して被写体の像を生成する画素部を複数有する。各画素部は、各々がレンズユニットの射出瞳の一部の領域を通る光を受光する複数の光電変換部を有する。なお、実施例1では各画素部は第1の光電変換部と第2の光電変換部を有する例を示すが、各画素部の有する光電変換部は2つより多くても良い。
[Configuration of imaging surface phase difference AF]
The image sensor 122 includes a plurality of pixel units that each receive light passing through the entire exit pupil of a lens unit that forms an image of a subject to generate an image of the subject. Each pixel unit includes a plurality of photoelectric conversion units that receive light passing through a partial region of the exit pupil of the lens unit. In the first embodiment, each pixel unit includes a first photoelectric conversion unit and a second photoelectric conversion unit. However, each pixel unit may include more than two photoelectric conversion units.

図2は、本実施形の2次元CMOSセンサー(撮像素子)の画素部の配列を4列×4行の範囲で、光電変換部の配列を8列×4行の範囲で示したものである。   FIG. 2 shows an array of pixel portions of the two-dimensional CMOS sensor (imaging device) of this embodiment in a range of 4 columns × 4 rows, and an array of photoelectric conversion portions in a range of 8 columns × 4 rows. .

画素群200は2行×2列の画素部からなり、R(赤)の分光感度を有する画素部200Rが左上に、G(緑)の分光感度を有する画素部200Gが右上と左下に、B(青)の分光感度を有する画素部200Bが右下に配置されている。さらに、各画素部は2列×1行に配列された第1の光電変換部201と第2の光電変換部202により構成されている。   The pixel group 200 is composed of 2 × 2 pixel units. A pixel unit 200R having a spectral sensitivity of R (red) is on the upper left, a pixel unit 200G having a spectral sensitivity of G (green) is on the upper right and lower left, and B A pixel portion 200B having a spectral sensitivity of (blue) is arranged at the lower right. Further, each pixel unit includes a first photoelectric conversion unit 201 and a second photoelectric conversion unit 202 arranged in 2 columns × 1 row.

図2に示した4列×4行の画素(8列×4行の焦点検出画素)を面上に多数配置し、撮像画像及び焦点検出信号の取得が可能である。   A large number of 4 columns × 4 rows of pixels (8 columns × 4 rows of focus detection pixels) shown in FIG. 2 are arranged on the surface, and a captured image and focus detection signals can be acquired.

本実施形は、瞳領域が水平方向に2つに瞳分割されている場合について説明するが、垂直方向に瞳分割を行っても良い。   In this embodiment, a case where the pupil region is divided into two pupils in the horizontal direction will be described, but pupil division may be performed in the vertical direction.

本実施形では、撮像素子122の各画素の第1の光電変換部201の受光信号を集めて第1焦点検出信号を生成し、各画素の第2の光電変換部202の受光信号を集めて第2焦点検出信号を生成して焦点検出を行う。また、撮像素子122の各画素部に、第1の光電変換部201と第2の光電変換部202の信号を加算することで、記録画像信号を生成する。   In the present embodiment, the light reception signals of the first photoelectric conversion unit 201 of each pixel of the image sensor 122 are collected to generate a first focus detection signal, and the light reception signals of the second photoelectric conversion unit 202 of each pixel are collected. A second focus detection signal is generated to perform focus detection. Further, a recording image signal is generated by adding the signals of the first photoelectric conversion unit 201 and the second photoelectric conversion unit 202 to each pixel unit of the image sensor 122.

なお、前述した例では第1の光電変換部と第2の光電変換部を備えて構成された画素部が複数配列されているが、本発明はこれに限られるものではない。記録画像信号を取得するための画素部と、焦点検出信号を取得するための画素部とを個別の画素部とすることもできる。この場合、例えば、記録画像信号を取得するための画素部の配列の一部に、焦点検出信号を取得するための画素部を部分的に配置する構成としても良い。   In the above-described example, a plurality of pixel units each including the first photoelectric conversion unit and the second photoelectric conversion unit are arranged, but the present invention is not limited to this. The pixel unit for acquiring the recording image signal and the pixel unit for acquiring the focus detection signal may be separate pixel units. In this case, for example, the pixel unit for acquiring the focus detection signal may be partially arranged in a part of the array of the pixel unit for acquiring the recording image signal.

以下に、本実施形の撮像素子122により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と、像ずれ量との関係について説明する。図3は、第1焦点検出信号と第2焦点検出信号のデフォーカス量と第1焦点検出信号と第2焦点検出信号間の像ずれ量の関係図である。撮像面320に本実施形の撮像素子122が配置され、結像光学系の射出瞳が、第1瞳部分領域311と第2瞳部分領域312に2分割される。   The relationship between the defocus amounts of the first focus detection signal and the second focus detection signal acquired by the image sensor 122 of the present embodiment and the image shift amount will be described below. FIG. 3 is a relationship diagram of the defocus amounts of the first focus detection signal and the second focus detection signal and the image shift amount between the first focus detection signal and the second focus detection signal. The imaging element 122 of the present embodiment is arranged on the imaging surface 320, and the exit pupil of the imaging optical system is divided into two parts, a first pupil partial region 311 and a second pupil partial region 312.

デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を正符号(d>0)として定義する。被写体の結像位置が撮像面、すなわち合焦するときの焦点状態ではd=0である。図3で、被写体301は焦点状態(d=0)の例を示しており、被写体302は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)を合わせて、デフォーカス状態(|d|>0)とする。   The defocus amount d is a distance | d | from the imaging position of the subject to the imaging surface, a negative sign (d <0) indicates a front pin state in which the imaging position of the subject is closer to the subject than the imaging surface, Is defined as a positive sign (d> 0). In the focus state when the imaging position of the subject is the imaging surface, that is, in focus, d = 0. In FIG. 3, the subject 301 shows an example of a focus state (d = 0), and the subject 302 shows an example of a front pin state (d <0). The front pin state (d <0) and the rear pin state (d> 0) are combined to form a defocus state (| d |> 0).

前ピン状態(d<0)では、被写体302からの光束のうち、第1瞳部分領域311(第2瞳部分領域312)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面320でボケた像となる。ボケた像は、撮像素子122に配列された各画素を構成する第1の光電変換部201(第2の光電変換部202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面320上の重心位置G1(G2)に、被写体302が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。同様に、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ量p(=光束の重心位置の差G1−G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加していく。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。   In the front pin state (d <0), the light flux that has passed through the first pupil partial region 311 (second pupil partial region 312) out of the light flux from the subject 302 is once condensed and then the gravity center position G1 of the light flux. The image spreads in the width Γ1 (Γ2) with (G2) as the center, and the image is blurred on the imaging surface 320. The blurred image is received by the first photoelectric conversion unit 201 (second photoelectric conversion unit 202) constituting each pixel arranged in the image sensor 122, and the first focus detection signal (second focus detection signal) is received. Generated. Therefore, the first focus detection signal (second focus detection signal) is recorded as a subject image in which the subject 302 is blurred by the width Γ1 (Γ2) at the gravity center position G1 (G2) on the imaging surface 320. The blur width Γ1 (Γ2) of the subject image generally increases in proportion to the amount of defocus amount d | d |. Similarly, the magnitude | p | of the object image displacement amount p (= difference G1-G2 in the center of gravity of the light beam) between the first focus detection signal and the second focus detection signal is also the size of the defocus amount d. As | d | increases, it generally increases in proportion. Even in the rear pin state (d> 0), the image shift direction of the subject image between the first focus detection signal and the second focus detection signal is opposite to that in the front pin state, but the same.

このように、第1焦点検出信号と第2焦点検出信号、もしくは、第1焦点検出信号と第2焦点検出信号を加算した記録画像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する。   As described above, the first focus detection signal and the second focus detection signal, or the defocus amount of the recording image signal obtained by adding the first focus detection signal and the second focus detection signal increases. The amount of image shift between the first focus detection signal and the second focus detection signal increases.

本実施形では、第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量の関係性を用いて、撮像面における位相差方式を用いた第1焦点検出(後述)を行う。   In the present embodiment, first focus detection (described later) using a phase difference method on the imaging surface is performed using the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal.

[焦点検出領域]
まず、第1焦点検出信号と第2焦点検出信号を取得する撮像素子122上の領域である焦点検出領域について説明する。図4は、撮像素子122の有効画素領域400における焦点検出領域と、焦点検出時に表示部127に表示される焦点検出領域を示す指標を重ねて示したものである。本実施形では、焦点検出領域を行方向に3つ、列方向に3つの、計9個有する。行方向にn番目、列方向にm番目の焦点検出領域をA(n、m)と表し、この領域内の第1の光電変換部201と第2の光電変換部202の信号を用いて、後述する第1焦点検出を行う。また、同様に行方向にn番目、列方向にm番目の焦点検出領域の指標をI(n、m)と表す。
[Focus detection area]
First, a focus detection area that is an area on the image sensor 122 that acquires the first focus detection signal and the second focus detection signal will be described. FIG. 4 shows the focus detection area in the effective pixel area 400 of the image sensor 122 and the index indicating the focus detection area displayed on the display unit 127 during focus detection. In this embodiment, there are nine focus detection areas, three in the row direction and three in the column direction. The nth focus detection region in the row direction and the mth focus detection region in the column direction is represented as A (n, m), and using the signals of the first photoelectric conversion unit 201 and the second photoelectric conversion unit 202 in this region, First focus detection described later is performed. Similarly, the index of the nth focus detection region in the row direction and the mth focus detection region in the column direction is represented as I (n, m).

なお、本実施形では、行方向に3つ、列方向に3つの焦点検出領域を設定した例を示している。しかしながら、焦点検出領域の数、位置、サイズを適宜設定してもよい。例えば、上述した撮像素子122のように有効画素領域400のどの画素からも第1焦点検出信号及び第2焦点検出信号が得られる撮像素子において、撮影者の指定した領域を中心に、所定の範囲を焦点検出領域として設定してもよい。   In this embodiment, an example is shown in which three focus detection areas are set in the row direction and three in the column direction. However, the number, position, and size of the focus detection area may be set as appropriate. For example, in the imaging device that can obtain the first focus detection signal and the second focus detection signal from any pixel in the effective pixel region 400 like the imaging device 122 described above, a predetermined range centering on the region designated by the photographer. May be set as the focus detection area.

[第1焦点検出]
以下、本実施例1における撮像面位相差方式の第1焦点検出について説明する。撮像面位相差方式の第1焦点検出では、第1焦点検出信号と第2焦点検出信号を相対的にシフトさせて信号の一致度を表す相関量(以下、第1評価値)を計算し、相関(信号の一致度)が良くなるシフト量から像ずれ量を検出する。記録画像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号間の像ずれ量の大きさが増加する関係性から、像ずれ量を第1検出デフォーカス量に変換して焦点検出を行う。
[First focus detection]
Hereinafter, the first focus detection of the imaging surface phase difference method in the first embodiment will be described. In the first focus detection of the imaging surface phase difference method, the first focus detection signal and the second focus detection signal are relatively shifted to calculate a correlation amount (hereinafter referred to as a first evaluation value) representing the degree of coincidence of the signals, The image shift amount is detected from the shift amount that improves the correlation (signal coincidence). As the magnitude of the defocus amount of the recorded image signal increases, the image deviation amount is first detected from the relationship that the magnitude of the image deviation amount between the first focus detection signal and the second focus detection signal increases. The focus is detected by converting to a defocus amount.

図5に、実施例1における第1焦点検出の処理の流れの図を示す。なお、図5の処理は、実施例1における焦点検出信号生成手段、第1焦点検出手段である撮像素子122、撮像面位相差焦点検出部126と、カメラMPU124によって実行される。   FIG. 5 shows a flowchart of the first focus detection process in the first embodiment. The processing in FIG. 5 is executed by the focus detection signal generation unit, the imaging element 122 as the first focus detection unit, the imaging plane phase difference focus detection unit 126, and the camera MPU 124 in the first embodiment.

S510で、撮像素子122の有効画素領域400に焦点検出領域を設定する。焦点検出信号生成手段により、焦点検出領域内の第1の光電変換部201の受光信号から第1焦点検出信号(A像信号)を生成し、焦点検出領域内の第2の光電変換部202の受光信号から第2焦点検出信号(B像信号)を生成する。   In S510, a focus detection area is set in the effective pixel area 400 of the image sensor 122. A focus detection signal generation unit generates a first focus detection signal (A image signal) from the light reception signal of the first photoelectric conversion unit 201 in the focus detection region, and the second photoelectric conversion unit 202 in the focus detection region. A second focus detection signal (B image signal) is generated from the received light signal.

S520で、第1焦点検出信号(A像信号)と第2焦点検出信号(B像信号)に対して、それぞれ、信号データ量を抑制するために列方向に3画素加算処理を行い、さらに、RGB信号を輝度Y信号にするためにベイヤー(RGB)加算処理を行う。これら2つの加算処理を合わせて第1画素加算処理とする。   In S520, for each of the first focus detection signal (A image signal) and the second focus detection signal (B image signal), a three-pixel addition process is performed in the column direction in order to reduce the amount of signal data. A Bayer (RGB) addition process is performed to convert the RGB signal into a luminance Y signal. These two addition processes are combined into a first pixel addition process.

S530では、第1画素加算処理した第1焦点検出信号と第2焦点検出信号に、それぞれ、シェーディング補正処理(光学補正処理)を行う。以下、第1焦点検出信号と第2焦点検出信号の瞳ずれによるシェーディングについて説明する。図6に、撮像素子122の周辺像高における第1の光電変換部201の第1瞳部分領域601、第2の光電変換部202の第2瞳部分領域602、および結像光学系の射出瞳600の関係を示す。   In S530, a shading correction process (optical correction process) is performed on each of the first focus detection signal and the second focus detection signal subjected to the first pixel addition process. Hereinafter, shading due to pupil shift between the first focus detection signal and the second focus detection signal will be described. FIG. 6 shows the first pupil partial region 601 of the first photoelectric conversion unit 201, the second pupil partial region 602 of the second photoelectric conversion unit 202, and the exit pupil of the imaging optical system at the peripheral image height of the image sensor 122. 600 relationships are shown.

図6(a)は、結像光学系の射出瞳距離Dlと撮像素子122の設定瞳距離Dsが同じ場合である。この場合は、第1瞳部分領域601と第2瞳部分領域602により、結像光学系の射出瞳600が、概ね、均等に瞳分割される。   FIG. 6A shows a case where the exit pupil distance Dl of the imaging optical system and the set pupil distance Ds of the image sensor 122 are the same. In this case, the exit pupil 600 of the imaging optical system is substantially equally divided by the first pupil partial region 601 and the second pupil partial region 602.

これに対して、図6(b)に示した結像光学系の射出瞳距離Dlが撮像素子122の設定瞳距離Dsより短い場合、撮像素子122の周辺像高では、結像光学系の射出瞳と撮像素子122の入射瞳の瞳ずれを生じる。そのため、結像光学系の射出瞳600が、不均一に瞳分割されてしまう。同様に、図9(c)に示した結像光学系の射出瞳距離Dlが撮像素子の設定瞳距離Dsより長い場合、撮像素子122の周辺像高では、結像光学系の射出瞳と撮像素子122の入射瞳の瞳ずれを生じ、結像光学系の射出瞳600が、不均一に瞳分割されてしまう。周辺像高で瞳分割が不均一になるのに伴い、第1焦点検出信号と第2焦点検出信号の強度も不均一になり、第1焦点検出信号と第2焦点検出信号のいずれか一方の強度が大きくなり、他方の強度が小さくなるシェーディングが生じる。   On the other hand, when the exit pupil distance Dl of the imaging optical system shown in FIG. 6B is shorter than the set pupil distance Ds of the image sensor 122, the exit of the imaging optical system is performed at the peripheral image height of the image sensor 122. A pupil shift occurs between the pupil and the entrance pupil of the image sensor 122. For this reason, the exit pupil 600 of the imaging optical system is non-uniformly divided into pupils. Similarly, when the exit pupil distance Dl of the imaging optical system shown in FIG. 9C is longer than the set pupil distance Ds of the imaging device, the imaging pupil and the exit pupil of the imaging optical system are imaged at the peripheral image height of the imaging device 122. A pupil shift of the entrance pupil of the element 122 occurs, and the exit pupil 600 of the imaging optical system is non-uniformly pupil-divided. As pupil division becomes nonuniform at the peripheral image height, the intensity of the first focus detection signal and the second focus detection signal also becomes nonuniform, and one of the first focus detection signal and the second focus detection signal Shading occurs with increasing strength and decreasing the other strength.

そこで、S530では、まず、焦点検出領域の像高と、レンズユニット(結像光学系)のF値と、射出瞳距離に応じて、第1焦点検出信号の第1シェーディング補正係数と、第2焦点検出信号の第2シェーディング補正係数をそれぞれ生成する。そして、第1シェーディング補正係数を第1焦点検出信号に乗算し、第2シェーディング補正係数を第2焦点検出信号に乗算して、第1焦点検出信号と第2焦点検出信号のシェーディング補正処理(光学補正処理)を行う。   Therefore, in S530, first, according to the image height of the focus detection area, the F value of the lens unit (imaging optical system), and the exit pupil distance, the first shading correction coefficient of the first focus detection signal, the second A second shading correction coefficient for the focus detection signal is generated. Then, the first focus detection signal is multiplied by the first focus detection signal, the second shading correction coefficient is multiplied by the second focus detection signal, and shading correction processing (optical) of the first focus detection signal and the second focus detection signal is performed. Correction process).

撮像面位相差方式の第1焦点検出では、第1焦点検出信号と第2焦点検出信号の相関(信号の一致度)を基に、第1検出デフォーカス量の検出を行う。瞳ずれによるシェーディングが生じると第1焦点検出信号と第2焦点検出信号の相関が低下する場合がある。よって、撮像面位相差方式の第1焦点検出では、第1焦点検出信号と第2焦点検出信号の相関を改善し、焦点検出性能を良好とするために、シェーディング補正処理を行うことが望ましい。   In the first focus detection of the imaging surface phase difference method, the first detection defocus amount is detected based on the correlation (the degree of coincidence of signals) between the first focus detection signal and the second focus detection signal. When shading due to pupil shift occurs, the correlation between the first focus detection signal and the second focus detection signal may decrease. Therefore, in the first focus detection of the imaging plane phase difference method, it is desirable to perform shading correction processing in order to improve the correlation between the first focus detection signal and the second focus detection signal and to improve the focus detection performance.

S540では、シェーディング補正処理した第1焦点検出信号と第2焦点検出信号に、第1フィルター処理を行う。実施例1の第1フィルター処理の通過帯域例を、図7の実線701で示す。実施例1では、撮像面位相差方式の第1焦点検出により、大デフォーカス状態での焦点検出を行うため、第1フィルター処理の通過帯域は低周波帯域を含むように構成される。必要に応じて、大デフォーカス状態から小デフォーカス状態まで焦点調節を行う際に、デフォーカス状態に応じて、第1焦点検出時の第1フィルター処理の通過帯域を、図7の1点鎖線のように、より高周波帯域に調整しても良い。   In S540, the first filter processing is performed on the first focus detection signal and the second focus detection signal subjected to the shading correction processing. An example of a pass band of the first filter process of the first embodiment is indicated by a solid line 701 in FIG. In Embodiment 1, since the focus detection in the large defocus state is performed by the first focus detection of the imaging surface phase difference method, the pass band of the first filter processing is configured to include the low frequency band. When the focus adjustment is performed from the large defocus state to the small defocus state as necessary, the pass band of the first filter processing at the time of the first focus detection according to the defocus state is indicated by a one-dot chain line in FIG. In this way, the frequency may be adjusted to a higher frequency band.

次に、S550では、第1フィルター処理後の第1焦点検出信号と第2焦点検出信号を相対的に瞳分割方向にシフトさせる第1シフト処理を行い、信号の一致度を表す相関量(第1評価値)を算出する。   Next, in S550, a first shift process is performed in which the first focus detection signal and the second focus detection signal after the first filter process are relatively shifted in the pupil division direction, and a correlation amount (a first amount indicating the degree of coincidence of the signals) 1 evaluation value) is calculated.

第1フィルター処理後のk番目の第1焦点検出信号をA(k)、第2焦点検出信号をB(k)、焦点検出領域に対応する番号kの範囲をWとする。さらに、第1シフト処理によるシフト量をs1、シフト量s1のシフト範囲をΓ1とすると、相関量(第1評価値)CORは、式(1)により算出される。   The k-th first focus detection signal after the first filter processing is A (k), the second focus detection signal is B (k), and the range of the number k corresponding to the focus detection area is W. Further, assuming that the shift amount by the first shift process is s1 and the shift range of the shift amount s1 is Γ1, the correlation amount (first evaluation value) COR is calculated by Expression (1).

Figure 0006611559
Figure 0006611559

シフト量s1の第1シフト処理により、k番目の第1焦点検出信号A(k)とk−s1番目の第2焦点検出信号B(k−s1)を対応させ減算し、シフト減算信号を生成する。生成されたシフト減算信号の絶対値を計算し、焦点検出領域に対応する範囲W内で番号kの和を取り、相関量(第1評価値)COR(s1)を算出する。必要に応じて、各行毎に算出された相関量(第1評価値)を、各シフト量毎に、複数行に渡って加算しても良い。   By the first shift process of the shift amount s1, the k-th first focus detection signal A (k) and the k-s1st second focus detection signal B (k-s1) are subtracted in correspondence to generate a shift subtraction signal. To do. The absolute value of the generated shift subtraction signal is calculated, the number k is summed within the range W corresponding to the focus detection area, and the correlation amount (first evaluation value) COR (s1) is calculated. If necessary, the correlation amount (first evaluation value) calculated for each row may be added over a plurality of rows for each shift amount.

S560では、相関量(第1評価値)から、サブピクセル演算により、相関量が最小値となる実数値のシフト量を算出して像ずれ量p1とする。そして、算出した像ずれ量p1に、焦点検出領域の像高と、レンズユニット(結像光学系)のF値、射出瞳距離に応じた第1変換係数K1をかけて、第1検出デフォーカス量(Def1)を検出する。   In S560, a real-valued shift amount at which the correlation amount is the minimum value is calculated from the correlation amount (first evaluation value) by subpixel calculation, and is set as the image shift amount p1. Then, the first detection defocus is obtained by multiplying the calculated image shift amount p1 by the image height of the focus detection region, the F value of the lens unit (imaging optical system), and the first conversion coefficient K1 corresponding to the exit pupil distance. The amount (Def1) is detected.

ここで、第1変換係数K1について説明する。図6(b)および(c)のように、周辺像高で瞳分割が不均一になるのに伴い、第1焦点検出信号と第2焦点検出信号の強度も不均一になり、第1焦点検出信号と第2焦点検出信号のいずれか一方の強度が大きくなり、他方の強度が小さくなる。また、撮像素子の設定瞳距離Dsより射出瞳距離Dlが長い(あるいは短い)場合、撮像素子の周辺像高では、結像光学系の射出瞳と撮像素子の入射瞳の瞳ずれを生じ、結像光学系の射出瞳600が、不均一に瞳分割されてしまうため。このことから、前述と同様に第1焦点検出信号と第2焦点検出信号のいずれか一方の強度が大きくなり、他方の強度が小さくなる。なお、F値によっても射出瞳600の大きさが変化するため、F値によっても結像光学系の射出瞳600の、瞳分割が不均一になる。瞳分割が不均一になることにより、第1焦点検出信号と第2焦点検出信号の重心距離が変化するため、デフォーカスの変換係数である第1変換係数K1が変化する。よって、第1変換係数K1は、射出瞳距離Dl、像高、F値によって変化する係数である。この第1変換係数K1は、その時々の射出瞳距離Dl、像高、F値から計算されてもよいし、射出瞳距離Dl、像高、F値を用いたテーブルによって求められる係数としてもよい。   Here, the first conversion coefficient K1 will be described. As shown in FIGS. 6B and 6C, as the pupil division becomes nonuniform at the peripheral image height, the intensities of the first focus detection signal and the second focus detection signal also become nonuniform. The intensity of one of the detection signal and the second focus detection signal is increased, and the intensity of the other is decreased. Further, when the exit pupil distance Dl is longer (or shorter) than the set pupil distance Ds of the image sensor, a pupil shift occurs between the exit pupil of the imaging optical system and the entrance pupil of the image sensor at the peripheral image height of the image sensor. This is because the exit pupil 600 of the image optical system is non-uniformly divided into pupils. From this, as described above, the intensity of one of the first focus detection signal and the second focus detection signal is increased, and the intensity of the other is decreased. In addition, since the size of the exit pupil 600 also changes depending on the F value, the pupil division of the exit pupil 600 of the imaging optical system becomes non-uniform also depending on the F value. When the pupil division becomes non-uniform, the center-of-gravity distance between the first focus detection signal and the second focus detection signal changes, so the first conversion coefficient K1 that is a defocus conversion coefficient changes. Therefore, the first conversion coefficient K1 is a coefficient that varies depending on the exit pupil distance Dl, the image height, and the F value. The first conversion coefficient K1 may be calculated from the exit pupil distance D1, image height, and F value at that time, or may be a coefficient obtained from a table using the exit pupil distance D1, image height, and F value. .

本実施形の撮像素子122では、第1の光電変換部及び第2の光電変換部が受光する光束と、画素部全体として受光する光束が異なり、結像光学系の各収差(球面収差、非点収差、コマ収差など)の焦点検出画素への影響と記録画像信号への影響とが異なる。結像光学系の絞り値が小さく、開口が大きい(被写体が暗い)と差異がより大きくなる。そのため、結像光学系の絞り値が小さく、開口が大きい時に、撮像面位相差方式の第1焦点検出により算出される検出デフォーカス量と、例えば、記録画像信号のMTFピーク位置等に基づくデフォーカス量との間に差が生じる場合がある。特に、結像光学系の絞り値が所定絞り値以下の場合に、撮像面位相差方式の第1焦点検出の焦点検出精度が低下する場合がある。   In the imaging device 122 of this embodiment, the light beam received by the first photoelectric conversion unit and the second photoelectric conversion unit is different from the light beam received by the entire pixel unit, and each aberration (spherical aberration, non-spherical aberration) of the imaging optical system is different. The influence on the focus detection pixel and the influence on the recorded image signal are different. The difference becomes larger when the aperture value of the imaging optical system is small and the aperture is large (the subject is dark). Therefore, when the aperture value of the imaging optical system is small and the aperture is large, the detection defocus amount calculated by the first focus detection of the imaging plane phase difference method and the defocusing based on, for example, the MTF peak position of the recorded image signal, etc. There may be a difference between the focus amount. In particular, when the aperture value of the imaging optical system is equal to or smaller than a predetermined aperture value, the focus detection accuracy of the first focus detection of the imaging surface phase difference method may be lowered.

図8は、フォーカスレンズ103が、ピントが合う位置にある場合の、実施例1の撮像素子107の周辺像高における第1焦点検出信号(破線)と第2焦点検出信号(実線)の例を示す。ここではフォーカスレンズ103はピントが合う位置にあるが、結像光学系の各収差の影響により、第1焦点検出信号と第2焦点検出信号の信号形状が異なる例を示している。図9は、同じくフォーカスレンズ103が、ピントが合う位置にある場合の、シェーディング補正処理および第1フィルター処理後の周辺像高における第1焦点検出信号(破線)と第2焦点検出信号(実線)を示す。フォーカスレンズ103が、ピントが合う位置にあるが、第1焦点検出信号と第2焦点検出信号間の像ずれ量p1が0ではない。これにより、撮像面位相差方式の第1焦点検出により算出されるデフォーカス量と、MTFピーク位置等に基づくデフォーカス量との間には差が生じる。   FIG. 8 illustrates an example of the first focus detection signal (broken line) and the second focus detection signal (solid line) at the peripheral image height of the image sensor 107 according to the first embodiment when the focus lens 103 is in focus. Show. Here, although the focus lens 103 is in a focused position, an example is shown in which the signal shapes of the first focus detection signal and the second focus detection signal are different due to the influence of each aberration of the imaging optical system. FIG. 9 shows the first focus detection signal (broken line) and the second focus detection signal (solid line) at the peripheral image height after the shading correction process and the first filter process when the focus lens 103 is also in focus. Indicates. Although the focus lens 103 is in focus, the image shift amount p1 between the first focus detection signal and the second focus detection signal is not zero. As a result, there is a difference between the defocus amount calculated by the first focus detection of the imaging surface phase difference method and the defocus amount based on the MTF peak position or the like.

図10は、実施例1における撮像面位相差方式の第1焦点検出により得られた第1検出デフォーカス量(破線)の例を示す。横軸は、前述したような差がない理想的な状況において、デフォーカス量0[mm]とした設定デフォーカス量である。縦軸は撮像面位相差方式の焦点検出により実際に得られる検出デフォーカス量である。なお、図8に示した第1焦点検出信号と第2焦点検出信号は、図10の設定デフォーカス量0[mm]における第1焦点検出信号と第2焦点検出信号である。検出デフォーカス量と設定デフォーカス量に誤差がなければ、2点鎖点で示すような直線が描かれる。設定デフォーカス量0[mm]である場合、第1検出デフォーカス量が後ピン側に約50umオフセットしていることから、合焦するデフォーカス量と第1焦点検出により算出される検出デフォーカス量との間に約50umの差異が生じていることが分かる。   FIG. 10 illustrates an example of the first detected defocus amount (broken line) obtained by the first focus detection of the imaging surface phase difference method in the first embodiment. The horizontal axis represents the set defocus amount with the defocus amount of 0 [mm] in an ideal situation where there is no difference as described above. The vertical axis represents the detection defocus amount actually obtained by focus detection using the imaging surface phase difference method. The first focus detection signal and the second focus detection signal shown in FIG. 8 are the first focus detection signal and the second focus detection signal at the set defocus amount 0 [mm] in FIG. If there is no error between the detected defocus amount and the set defocus amount, a straight line as shown by a two-dot chain point is drawn. When the set defocus amount is 0 [mm], since the first detection defocus amount is offset by about 50 μm to the rear pin side, the defocus amount to be focused and the detection defocus calculated by the first focus detection It can be seen that there is a difference of about 50 um between the quantity.

このため、本実施例では、結像光学系の状態に合わせたデフォーカス量の補正(以下、ベストピント補正と称する)(S1412)を行う。詳細は後述する。   For this reason, in this embodiment, a defocus amount correction (hereinafter referred to as “best focus correction”) (S1412) according to the state of the imaging optical system is performed. Details will be described later.

[リフォーカス画像の生成処理]
本実施例においては、記録画像に含まれる第1の光電変換部201と第2の光電変換部202の信号を用いて、リフォーカス画像を生成する。リフォーカス画像とは、前述の通り、現在の結像面とは異なる仮想の結像面における画像に対応する画像である。すなわち、リフォーカス画像とは、フォーカスレンズ103が異なる位置にあったと仮定した場合に、取得することができる画像に対応する画像である。このような画像を生成することを、以下、リフォーカスと称する。
[Refocus image generation processing]
In the present embodiment, a refocus image is generated using signals from the first photoelectric conversion unit 201 and the second photoelectric conversion unit 202 included in the recorded image. As described above, the refocus image is an image corresponding to an image on a virtual imaging plane different from the current imaging plane. That is, the refocus image is an image corresponding to an image that can be acquired when it is assumed that the focus lens 103 is at a different position. The generation of such an image is hereinafter referred to as refocusing.

リフォーカスを行うためには、仮想の結像面での画素配置に従って、第1の光電変換部201から取得した信号と第2の光電変換部から取得した信号を、画像処理回路125(生成手段)が相対的にシフトして加算する。以下、リフォーカス画像を生成するための処理について詳しく説明する。   In order to perform refocusing, the signal acquired from the first photoelectric conversion unit 201 and the signal acquired from the second photoelectric conversion unit in accordance with the pixel arrangement on the virtual imaging plane are converted into the image processing circuit 125 (generation unit). ) Are relatively shifted and added. Hereinafter, a process for generating a refocus image will be described in detail.

図12ではiを整数として、撮像面1210に配置された撮像素子122の、列方向i番目の画素部が有する第1の光電変換部201が取得する信号をAi、同じ画素部が有する第2の光電変換部202が取得する信号をBiとして模式的に表す。   In FIG. 12, i is an integer, Ai is a signal acquired by the first photoelectric conversion unit 201 included in the i-th pixel unit in the column direction of the image sensor 122 arranged on the imaging surface 1210, and the second pixel is included in the same pixel unit. A signal acquired by the photoelectric conversion unit 202 is schematically represented as Bi.

信号Aiと信号Biは、光強度分布情報だけでなく、入射角度情報も有する。よって、信号Aiを角度θaに沿って仮想結像面1220まで平行移動させ、信号Biを角度θbに沿って仮想結像面1220まで平行移動させ、それぞれ対応する信号と加算する。これにより、仮想結像面1220でのリフォーカス画像を生成するためのリフォーカス信号を生成することができる。信号Aiを角度θaに沿って仮想結像面1220まで平行移動させることは、列方向に+0.5画素シフトすることに対応する。また、信号Biを角度θbに沿って仮想結像面1220まで平行移動させることは、列方向に−0.5画素シフトすることに対応する。従って、信号Aiと信号Biを相対的に+1画素シフトさせ、AiとBi+1を対応させて加算することで、仮想結像面1220でのリフォーカス信号を生成できる。同様に、信号Aiと信号Biを整数画素分シフトさせて加算することで、整数シフト量に応じた、各仮想結像面でのシフト加算信号(リフォーカス信号)を生成できる。以上のようなリフォーカス信号を複数用いることで、リフォーカス画像を生成することができる。   The signal Ai and the signal Bi have not only light intensity distribution information but also incident angle information. Therefore, the signal Ai is translated along the angle θa to the virtual imaging plane 1220, and the signal Bi is translated along the angle θb to the virtual imaging plane 1220, and added to the corresponding signals. As a result, a refocus signal for generating a refocus image on the virtual imaging plane 1220 can be generated. Translating the signal Ai along the angle θa to the virtual imaging plane 1220 corresponds to shifting +0.5 pixels in the column direction. Further, translating the signal Bi along the angle θb to the virtual imaging plane 1220 corresponds to shifting −0.5 pixels in the column direction. Therefore, the refocusing signal on the virtual imaging plane 1220 can be generated by relatively shifting the signal Ai and the signal Bi by +1 pixel and adding Ai and Bi + 1 corresponding to each other. Similarly, by shifting the signal Ai and the signal Bi by an integer pixel and adding them, a shift addition signal (refocus signal) on each virtual imaging plane can be generated according to the integer shift amount. A refocus image can be generated by using a plurality of refocus signals as described above.

[リフォーカス可能な範囲]
ただし、リフォーカス可能範囲には限界がある。実施例1におけるリフォーカス可能範囲の説明図を図13に示す。許容錯乱円をδとし、結像光学系の絞り値をFとすると、絞り値Fでの被写界深度は±Fδである。これに対して、N×N(2×1)分割されて狭くなった瞳部分領域1311(または1312)の水平方向の実効絞り値F01(またはF02)は、F01=NFと暗くなる。第1焦点検出信号(または第2焦点検出信号)毎の実効的な被写界深度は±NFδとN倍深くなり、合焦範囲がN倍に広がる。実効的な被写界深度±NFδの範囲内では、第1焦点検出信号(または第2焦点検出信号)毎に合焦した被写体像が取得されている。よって、図12に示した主光線角度θa(またはθb)に沿って第1焦点検出信号(または第2焦点検出信号)を平行移動するリフォーカス処理により、撮影後に、焦点位置を再調整(リフォーカス)することができる。よって、撮影後にリフォーカスできる撮像面からのデフォーカス量dは限定されており、デフォーカス量dのリフォーカス可能範囲は、概ね、式(2)の範囲である。
[Refocusable range]
However, there is a limit to the refocusable range. FIG. 13 is an explanatory diagram of the refocusable range in the first embodiment. If the allowable circle of confusion is δ and the aperture value of the imaging optical system is F, the depth of field at the aperture value F is ± Fδ. On the other hand, the effective aperture value F 01 (or F 02 ) in the horizontal direction of the pupil partial region 1311 (or 1312) narrowed by dividing N H × N V (2 × 1) is F 01 = N H It becomes dark with F. The effective depth of field for each first focus detection signal (or second focus detection signal) becomes NH Fδ and N H times deeper, and the focus range is extended N H times. Within the range of effective depth of field ± N H Fδ, a focused subject image is acquired for each first focus detection signal (or second focus detection signal). Therefore, the focus position is readjusted (re-adjusted) after photographing by the refocus process of translating the first focus detection signal (or second focus detection signal) along the chief ray angle θa (or θb) shown in FIG. Focus). Therefore, the defocus amount d from the imaging surface that can be refocused after shooting is limited, and the refocusable range of the defocus amount d is approximately the range of Expression (2).

Figure 0006611559
Figure 0006611559

許容錯乱円δは、δ=2ΔX(画素周期ΔXのナイキスト周波数1/(2ΔX)の逆数)などで規定される。   The permissible circle of confusion δ is defined by δ = 2ΔX (the reciprocal of the Nyquist frequency 1 / (2ΔX) of the pixel period ΔX).

リフォーカスの原理については、特開2014−64214の[リフォーカス画像の生成処理]の項目が詳しい。   Regarding the principle of refocusing, the item “Refocusing Image Generation Processing” in Japanese Patent Application Laid-Open No. 2014-64214 is detailed.

[焦点位置調整値設定]
本実施形のデジタルカメラ120は、ユーザーが焦点状態を好みの状態に調整した場合に、その状態に対応した調整値をEEPROM124a(記憶手段)が記憶する。そして、以後の撮影時に伴う焦点調節時には、この調整値が反映されるようにAF動作を制御することが可能である。
[Focus position adjustment value setting]
In the digital camera 120 of this embodiment, when the user adjusts the focus state to a desired state, the EEPROM 124a (storage means) stores an adjustment value corresponding to the state. Then, the AF operation can be controlled so that this adjustment value is reflected at the time of focus adjustment associated with subsequent shooting.

図14を参照して、カメラMPU124が実行する焦点位置を調整する調整値を設定の動作について説明する。図14において、Sはステップの略である。   With reference to FIG. 14, an operation for setting an adjustment value for adjusting the focal position executed by the camera MPU 124 will be described. In FIG. 14, S is an abbreviation for a step.

図14は、カメラMPU124が実行する、デジタルカメラ120の焦点位置調整値の設定の動作のフローチャートであり、ROM124cに格納されている。   FIG. 14 is a flowchart of the operation of setting the focus position adjustment value of the digital camera 120, which is executed by the camera MPU 124, and is stored in the ROM 124c.

[焦点検出(第1焦点検出)]
カメラMPU124は、ユーザーがSW128を操作することにより、AF操作を行ったかどうかを判定する(S1410)。AF操作が行われないまま、所定時間が経過するか、SW128の操作によって焦点位置調整値設定を中止する操作を行われた場合は、カメラMPU124は焦点位置調整値設定を終了する(S1490)。一方でAF操作が行われると、カメラMPU124は、撮像素子駆動回路123から第1焦点検出信号と第2焦点検出信号を読み出す。撮像面位相差焦点検出部126(焦点検出手段)は、読み出した2つの信号を用いて相関演算を行うことにより、相対変位量を計算する。更に撮像面位相差焦点検出部126は、第1変換係数K1を掛けることでデフォーカス量へ変換する第1焦点検出(前述)を行う(S1411)。
[Focus detection (first focus detection)]
The camera MPU 124 determines whether an AF operation has been performed by the user operating the SW 128 (S1410). If the predetermined time has elapsed without performing the AF operation, or if the operation for stopping the focus position adjustment value setting is performed by the operation of the SW 128, the camera MPU 124 ends the focus position adjustment value setting (S1490). On the other hand, when the AF operation is performed, the camera MPU 124 reads the first focus detection signal and the second focus detection signal from the image sensor driving circuit 123. The imaging plane phase difference focus detection unit 126 (focus detection means) calculates a relative displacement amount by performing a correlation operation using the two read signals. Further, the imaging plane phase difference focus detection unit 126 performs first focus detection (described above) that is converted into a defocus amount by multiplying by the first conversion coefficient K1 (S1411).

[ベストピント補正]
次いで、第1焦点検出により算出されたデフォーカス量に対し、前述のベストピント補正(結像光学系の状態に合わせたデフォーカス量の補正)を行う(S1412)。以下、ベストピント補正について説明する。なお、ベストピント補正によってより正確なデフォーカス量を得ることができるものの、カメラMPU124の処理負荷の軽減を優先し、ベストピント補正を省略しても良い。
[Best focus correction]
Next, the above-described best focus correction (correction of the defocus amount in accordance with the state of the imaging optical system) is performed on the defocus amount calculated by the first focus detection (S1412). Hereinafter, the best focus correction will be described. Although a more accurate defocus amount can be obtained by the best focus correction, priority may be given to reducing the processing load of the camera MPU 124, and the best focus correction may be omitted.

図11は、EEPROM124aに格納されている、ベストピント補正値の例を示している。図11は、図4の焦点検出領域A(2、2)に対応したベストピント補正値を示している。同様に、他の8個の焦点検出領域についてもベストピント補正値を記憶する。但し、結像光学系の光軸に対して対称な焦点検出領域については、設計上のベストピント補正値は等しくなる。従って、9つの焦点検出領域に対して、4つのベストピント補正値のテーブルを記憶していればよい。   FIG. 11 shows an example of the best focus correction value stored in the EEPROM 124a. FIG. 11 shows the best focus correction value corresponding to the focus detection area A (2, 2) in FIG. Similarly, the best focus correction values are stored for the other eight focus detection areas. However, the design best focus correction value is the same for a focus detection region that is symmetrical with respect to the optical axis of the imaging optical system. Accordingly, it is only necessary to store four best focus correction value tables for nine focus detection areas.

図11において、結像光学系のズーム位置とフォーカス位置を8つのゾーンに分割し、その分割ゾーンごとにベストピント補正値BP111〜BP188を備える構成とする。従って、結像光学系の第2レンズ群102、第1レンズ群101の位置に応じて精度の高いベストピント補正値を得られる構成となっている。   In FIG. 11, the zoom position and the focus position of the imaging optical system are divided into eight zones, and the best focus correction values BP111 to BP188 are provided for each of the divided zones. Accordingly, the best focus correction value with high accuracy can be obtained according to the positions of the second lens group 102 and the first lens group 101 of the imaging optical system.

なお、実施例1では、ベストピント補正値を図11のように焦点検出領域ごとにテーブルデータを記憶するようにしたが、ベストピント補正値の記憶方法については、これに限らない。例えば、撮像素子と結像光学系の光軸の交点を原点とし撮像装置の水平方向、垂直方向をX軸、Y軸とした座標を設定し、焦点検出領域の中心座標における補正値をXとYの関数で求めてもよい。この場合、ベストピント補正値として記憶するべき情報量を削減することができる。   In the first embodiment, the best focus correction value is stored in the table data for each focus detection area as shown in FIG. 11, but the method for storing the best focus correction value is not limited to this. For example, coordinates are set with the intersection of the optical axis of the imaging device and the imaging optical system as the origin and the horizontal and vertical directions of the imaging device as the X axis and the Y axis, and the correction value at the center coordinate of the focus detection area is set as X You may obtain | require with the function of Y. In this case, the amount of information to be stored as the best focus correction value can be reduced.

[合焦駆動〜撮影(S1413〜S1415)]
カメラMPU124は、フォーカスアクチュエータ110(焦点調節手段)が、ベストピント補正によって補正されたデフォーカス量に基づいて、フォーカスレンズ103を駆動して合焦のための駆動を行うよう制御する(S1413)。
[Focus driving to photographing (S1413 to S1415)]
The camera MPU 124 controls the focus actuator 110 (focus adjustment unit) to drive the focus lens 103 to perform focusing based on the defocus amount corrected by the best focus correction (S1413).

合焦駆動によりAF動作が完了すると、カメラMPU124は、被写体へのAF動作が完了した旨をユーザーに通知する。その後、ユーザーがよってレリーズ操作を行ったかどうかを判定する(S1414)。レリーズ操作が行われないまま所定時間が経過した場合、S1410へ戻る。一方で、レリーズ操作が行われた場合、カメラMPU124は撮影を行う(S1415)。   When the AF operation is completed by focusing driving, the camera MPU 124 notifies the user that the AF operation on the subject is completed. Thereafter, it is determined whether or not the user has performed a release operation (S1414). If the predetermined time has elapsed without performing the release operation, the process returns to S1410. On the other hand, when the release operation is performed, the camera MPU 124 performs photographing (S1415).

[焦点位置調整値の選択・設定(S1416〜S1427)]
カメラMPU124は、撮影された記録画像を表示部127に表示し、ユーザーに対し、該画像をもとに焦点位置調整値設定を行うかを、YESかNOで選択させる(S1416)。ユーザーがNOを選択した場合、S1410へ戻る。一方で、ユーザーがYESを選択した場合、カメラMPU124は、画像処理回路125(生成手段)によってリフォーカス(前述)を行い、フォーカスブラケット画像を複数枚(実施例1では一例として5枚)作成する(S1417)。なお、フォーカスブラケット画像とは、焦点位置を異ならせた画像である。具体的には、信号のシフト量が0の画像を1枚、リフォーカス可能範囲内における、最無限遠側を1枚、最至近側を1枚と、各々の中間のデフォーカス量の画像をそれぞれ1枚ずつ作成する。
[Selection / Setting of Focus Position Adjustment Value (S1416 to S1427)]
The camera MPU 124 displays the photographed recorded image on the display unit 127, and causes the user to select whether to set the focus position adjustment value based on the image, YES or NO (S1416). If the user selects NO, the process returns to S1410. On the other hand, when the user selects YES, the camera MPU 124 performs refocusing (described above) by the image processing circuit 125 (generation unit), and creates a plurality of focus bracket images (in the first embodiment, five as an example). (S1417). The focus bracket image is an image with different focal positions. Specifically, one image with a signal shift amount of 0, one image at the most infinite distance and one image at the closest distance within the refocusable range, and an image with an intermediate defocus amount. Create one each.

カメラMPU124は、再度リフォーカス画像を作成できるかを判定する(S1418)。具体的には、次回リフォーカスによるフォーカスブラケットを作成する際の、信号のシフト量が0でないかを判断する。再度リフォーカス画像を作成可能な場合は、ユーザーに最大で2枚まで画像を選択する旨を通知する(S1419)。再度リフォーカス画像を作成出来ない場合は、ユーザーに1枚の画像を選択する旨を通知する(S1420)。   The camera MPU 124 determines whether a refocus image can be created again (S1418). Specifically, it is determined whether or not the signal shift amount is zero when the focus bracket is created by the next refocus. If a refocus image can be created again, the user is notified that up to two images are to be selected (S1419). If the refocus image cannot be created again, the user is notified that one image is to be selected (S1420).

カメラMPU124は、ユーザーによってフォーカスブラケット画像の選択操作が行われたかを判定する(S1421)。操作が行われないまま所定時間が経過するか、設定を中止する操作が行われた場合は、S1410に戻る。ユーザーによって複数の画像が選択された場合(S1422)、カメラMPU124は、選択された2枚の画像のデフォーカス範囲内で、画像処理回路125(生成手段)が再度フォーカスブラケット画像を5枚作成するよう制御する。そしてS1418に戻る(S1423)。例えば信号のシフト量が0の画像と、無限遠側の中間のデフォーカス量の画像が選択された場合、信号のシフト量が0の画像のデフォーカス量と、無限遠側の中間のデフォーカス量の画像のデフォーカス量の間で5枚のリフォーカス画像を作成する。選択された画像が1枚であった場合、カメラMPU124は、画像処理回路125によって、選択された画像から、画素のシフト量を取得する(S1424)。   The camera MPU 124 determines whether the user has performed a focus bracket image selection operation (S1421). If a predetermined time has elapsed without any operation being performed, or if an operation for canceling the setting has been performed, the process returns to S1410. When a plurality of images are selected by the user (S1422), the camera MPU 124 creates five focus bracket images again by the image processing circuit 125 (generation unit) within the defocus range of the two selected images. Control as follows. Then, the process returns to S1418 (S1423). For example, when an image with a signal shift amount of 0 and an image with an intermediate defocus amount at infinity are selected, an image with a signal shift amount of 0 and an intermediate defocus at infinity Five refocus images are created between the defocus amounts of the images. When there is one selected image, the camera MPU 124 acquires the pixel shift amount from the selected image by the image processing circuit 125 (S1424).

カメラMPU124は、取得した画素シフト量から、選択された画像を取得するためのデフォーカス量を算出する(S1425)。   The camera MPU 124 calculates a defocus amount for acquiring the selected image from the acquired pixel shift amount (S1425).

カメラMPU124は、S1425で算出した、選択された画像のデフォーカス量を、焦点位置の調整値(焦点位置調整値、単に調整値とも称する。)に変換し(S1426)、EEPROM124a(記憶手段)に記憶する(S1427)。焦点位置調整値は、レンズユニットごとに記憶することができる。   The camera MPU 124 converts the defocus amount of the selected image calculated in S1425 into a focus position adjustment value (a focus position adjustment value, also simply referred to as an adjustment value) (S1426), and stores it in the EEPROM 124a (storage means). Store (S1427). The focus position adjustment value can be stored for each lens unit.

本実施例では、EEPROM124a(記憶手段)に焦点位置の調整値が記憶されている場合には、カメラMPU124(調整手段)が焦点位置調整値を用いて撮像面位相差AFにより算出したデフォーカス量を調整する。補正するタイミングは、S1411の第1焦点検出の後、S1413のフォーカスレンズの駆動の前であればいつであっても良い。また、EEPROM124a(記憶手段)は、使用するレンズユニットごとに焦点位置調整値を記憶する。さらに、EEPROM124a(記憶手段)には、レンズのズーム位置ごとに焦点位置調整値が記憶されており、カメラMPU124(調整手段)は、レンズユニットのズーム位置ごとに、デフォーカス量を調整する。   In this embodiment, when the focus position adjustment value is stored in the EEPROM 124a (storage means), the defocus amount calculated by the imaging plane phase difference AF using the focus position adjustment value by the camera MPU 124 (adjustment means). Adjust. The correction timing may be any time after the first focus detection in S1411 and before the driving of the focus lens in S1413. The EEPROM 124a (storage means) stores a focus position adjustment value for each lens unit to be used. Further, the focus position adjustment value is stored for each zoom position of the lens in the EEPROM 124a (storage means), and the camera MPU 124 (adjustment means) adjusts the defocus amount for each zoom position of the lens unit.

[実施例1の効果]
従来の手法では、S1416〜S1417にかけて、フォーカスブラケット画像を作成する為に、実際に焦点位置を動かしながら連続撮影をする必要があり、連続撮影の最初に取得できる画像と最後に取得できる画像とでは時間差が生じる。時間差が生じてしまうと、例えば被写体が動いてしまった場合に、取得する複数の画像で被写体の位置が一致しない。このような場合、調整値を正確に選択することが難しくなる。
[Effect of Example 1]
In the conventional method, in order to create a focus bracket image from S1416 to S1417, it is necessary to continuously shoot while actually moving the focus position. A time difference occurs. When the time difference occurs, for example, when the subject moves, the positions of the subjects do not match in the plurality of images to be acquired. In such a case, it becomes difficult to select the adjustment value accurately.

一方、実施例1によれば、フォーカスブラケット画像を、連続撮影ではなく、リフォーカスにより作成する。一回の撮影による記録画像をもとに、リフォーカスによって複数のリフォーカス画像を生成することが可能であるため、複数の画像間での時間差が生じない。このことから、調整値をより正確に選択することができる。 また、従来の手法では、連続撮影中の撮影ごとにカメラが細かく動いてしまう場合があった。これに対し実施例1では、複数の画像を取得するための撮影回数を減らすことができるため、カメラが動きにくい。   On the other hand, according to the first embodiment, the focus bracket image is created not by continuous shooting but by refocusing. Since it is possible to generate a plurality of refocused images by refocusing based on a recorded image obtained by one shooting, there is no time difference between the plurality of images. From this, the adjustment value can be selected more accurately. In the conventional method, the camera sometimes moves finely for each shooting during continuous shooting. On the other hand, in Example 1, since the number of times of photographing for acquiring a plurality of images can be reduced, the camera is difficult to move.

また、従来の手法では、調整したい焦点位置が、実際に取得したフォーカスブラケット画像の焦点位置同士の間の位置であった場合、再度撮影を行わなければならない。一方、実施例1では、再度撮影を行うことなく、一度取得した画像をもとに、異なる範囲で再度リフォーカスを行うことができるため、ユーザーの手間や撮影にかかる時間を省くことができる。   Further, in the conventional method, when the focal position to be adjusted is a position between the focal positions of the actually acquired focus bracket images, it is necessary to perform imaging again. On the other hand, in the first embodiment, since refocusing can be performed again in a different range based on an image acquired once without performing imaging again, it is possible to save time and effort for the user.

また、実施例1によれば、複数の画像を作成するために必要な撮影回数を減らすことができる。これにより、撮影にかかる時間を短縮することができる。   Further, according to the first embodiment, it is possible to reduce the number of times of photographing necessary for creating a plurality of images. As a result, the time required for shooting can be shortened.

実施例1では、単にリフォーカス画像の生成を行うだけではなく、調整値を記憶し用いることで更なる効果を得ることができる。単にリフォーカス画像を生成するだけでは、次回以降の撮影でも、ユーザーは毎回自らピント状態調節するか、複数のピント状態の画像を取得し、そのうちユーザーにとって好ましいピント状態を反映した画像を毎回選択する必要がある。これに対し、単にリフォーカス画像の生成を行うだけではなく、調整値を記憶し用いることで、次回以降の撮影においてユーザーの好みのピント状態を反映することができる。これにより、単にリフォーカス画像を生成する場合と比較して、ユーザーの手間や時間を省くことができる。   In the first embodiment, it is possible not only to generate a refocus image but also to obtain a further effect by storing and using the adjustment value. By simply generating a refocus image, the user adjusts the focus state each time, or obtains multiple focus state images, and selects an image that reflects the focus state preferable for the user each time. There is a need. On the other hand, it is possible not only to generate a refocus image but also to store the adjustment value and use it to reflect the user's favorite focus state in the next and subsequent shootings. Thereby, compared with the case where a refocus image is simply generated, it is possible to save time and effort of the user.

以上のように、実施例1によれば、ユーザーの手間や時間を省くとともに、ユーザーにとって、カメラの使い勝手の向上が期待できる。   As described above, according to the first embodiment, it is possible to save the time and effort of the user and improve the usability of the camera for the user.

[実施例2]
次に、図15を用いて、実施例2について実施例1との相違点を中心に説明する。
[Example 2]
Next, with reference to FIG. 15, the second embodiment will be described focusing on differences from the first embodiment.

実施例1では、焦点位置調整値設定(図14のフロー)において、リフォーカスに用いる画像の撮影は1回であるとして説明した。実施例2では、リフォーカスに用いる画像を、ピント位置を異ならせて複数撮影する。   In the first embodiment, it has been described that the image used for refocusing is taken once in the focus position adjustment value setting (flow in FIG. 14). In the second embodiment, a plurality of images used for refocus are photographed with different focus positions.

[焦点位置調整設定]
実施例2の焦点位置調整設定は、実施例1と比較して、実施例1の焦点位置調整設定(図14)のS1415とS1416との間に、S1515及びS1516が増えた点が異なる。
[Focus position adjustment setting]
The focus position adjustment setting of the second embodiment is different from the first embodiment in that S1515 and S1516 are increased between S1415 and S1416 of the focus position adjustment setting (FIG. 14) of the first embodiment.

カメラMPU124は、現在のピント位置から、焦点位置を至近側へ所定量動かし、撮影を行う(S1516)。なお、ここでいう所定量とは、固定値でもよいし、第1変換係数K1の逆数を用いたレンズ駆動量Mを求めてもよい。第1変換係数K1の逆数を用いることによって、理想的なデフォーカス量でシフトさせたリフォーカス画像を生成したい場合(たとえば等間隔撮影するブラケット撮影画像の様に表示させたい場合)に最適なレンズ駆動量Mが算出できる。   The camera MPU 124 moves the focal position by a predetermined amount from the current focus position to the close side, and performs photographing (S1516). The predetermined amount here may be a fixed value, or the lens driving amount M using the reciprocal of the first conversion coefficient K1 may be obtained. Optimal lens for generating a refocused image shifted by an ideal defocus amount by using the reciprocal of the first conversion coefficient K1 (for example, displaying like a bracketed image captured at equal intervals). The driving amount M can be calculated.

カメラMPU124は、現在のピント位置から、焦点位置を∞遠側へ所定量動かし、撮影を行う(S1517)。なお、ここでいう所定量も、固定値でもよいし、前述したレンズ駆動量Mでもよい。   The camera MPU 124 moves the focus position by a predetermined amount from the current focus position to the ∞ distance side and performs shooting (S1517). The predetermined amount here may be a fixed value or the lens driving amount M described above.

本実施例においては、ピントが合う焦点位置と、その至近側と無限側の3回の撮影としたが、これに限定されるものではない。   In this embodiment, the focus position is in focus, and shooting is performed three times on the close side and the infinite side. However, the present invention is not limited to this.

カメラMPU124は、撮影された複数の画像を表示部127に表示し、ユーザーに対し、いずれの画像から焦点位置調整値設定を行うかを選択させる(S1518)。操作が行われないまま所定時間が経過するか、ユーザーがNOを選択した場合、S1510へ戻る。一方で、ユーザーがいずれかの画像を選択した場合、カメラMPU124は、画像処理回路125によって、選択された画像からフォーカスブラケット画像を5枚作成する(S1519)。具体的には、信号のシフト量が0の画像を1枚、リフォーカス可能範囲内における、最無限遠側を1枚、最至近側を1枚と、各々の中間のデフォーカス量の画像をそれぞれ1枚ずつ作成する。   The camera MPU 124 displays a plurality of captured images on the display unit 127, and allows the user to select from which image the focus position adjustment value is set (S1518). If the predetermined time elapses without operation or the user selects NO, the process returns to S1510. On the other hand, when the user selects any image, the camera MPU 124 creates five focus bracket images from the selected image by the image processing circuit 125 (S1519). Specifically, one image with a signal shift amount of 0, one image at the most infinite distance and one image at the closest distance within the refocusable range, and an image with an intermediate defocus amount. Create one each.

ここではリフォーカス可能範囲に従ってリフォーカス画像のシフト量を決定するが、第1変換係数K1の逆数を用いて画素のシフト量を決定してもよい。第1変換係数K1を用いることにより、理想的なデフォーカス量(たとえばフォーカスブラケット撮影のように一定のデフォーカス量)でシフトさせた画像を表示させることが可能である。   Here, the shift amount of the refocus image is determined according to the refocusable range, but the pixel shift amount may be determined using the reciprocal of the first conversion coefficient K1. By using the first conversion coefficient K1, it is possible to display an image shifted by an ideal defocus amount (for example, a constant defocus amount as in focus bracket photography).

[実施例2の効果]
本実施例では、リフォーカスするための画像を取得するために、焦点位置を異ならせて撮影を複数回行うため、ユーザーは好適のピント位置を大まかに選択した後に、リフォーカスによるフォーカスブラケット画像を選択することができる。本実施例によれば、撮影を1回しか行わない場合にくらべ、より広いピント範囲についてフォーカスブラケット画像を取得することができる。このことから、1回の撮影結果のピント位置と所望のピント位置とがリフォーカス可能な範囲を超えてずれていた場合に、再度撮影を行う為の手間が削減することができるので、カメラの使い勝手がより良くなる。
[Effect of Example 2]
In this embodiment, in order to acquire an image for refocusing, shooting is performed a plurality of times with different focus positions. Therefore, after the user roughly selects a suitable focus position, a focus bracket image by refocusing is displayed. You can choose. According to the present embodiment, it is possible to acquire a focus bracket image for a wider focus range than when shooting is performed only once. From this, when the focus position of a single shooting result and the desired focus position deviate beyond the refocusable range, it is possible to reduce the trouble of performing the shooting again. Usability is improved.

[実施例3]
次に、実施例3に係る実施例について説明する。実施例1及び実施例2では、撮像面位相差AFを採用して焦点検出(第1の焦点検出)を行う例を説明した。一方、実施例3では、AF用の光電変換素子であるデフォーカス検出ユニット134を用いて焦点検出(後述の第2焦点検出)を行う。実施例3については、実施例1及び実施例2との相違点を中心に説明する。
[Example 3]
Next, an example according to Example 3 will be described. In the first and second embodiments, the example in which the focus detection (first focus detection) is performed using the imaging surface phase difference AF has been described. On the other hand, in Example 3, focus detection (second focus detection described later) is performed using a defocus detection unit 134 that is a photoelectric conversion element for AF. The third embodiment will be described with a focus on differences from the first and second embodiments.

[位相差AFの構成]
デフォーカス検出ユニット134を用いて焦点検出した場合には、焦点調節に必要となるデフォーカス量は、デフォーカス量検出ユニット134からの出力によって計算される。具体的には、レンズユニット100の2つの互いに異なる瞳領域を通過した光束から形成される2つの像の相対変位量から計算される。これら2像の光束は、ハーフミラーとなっているメインミラー131を通過し、その後ろにあるサブミラー132によって反射され、不図示の焦点検出光学系によってデフォーカス量検出ユニット134に導かれる。
[Configuration of phase difference AF]
When focus detection is performed using the defocus detection unit 134, the defocus amount necessary for focus adjustment is calculated based on the output from the defocus amount detection unit 134. Specifically, it is calculated from the relative displacement amounts of two images formed from light beams that have passed through two different pupil regions of the lens unit 100. The light beams of these two images pass through the main mirror 131 that is a half mirror, are reflected by the sub mirror 132 behind the main mirror 131, and are guided to the defocus amount detection unit 134 by a focus detection optical system (not shown).

デフォーカス量検出ユニット134(AF用素子)はラインセンサを有する光電変換素子になっており、この素子上に形成された被写体像を電位変化として出力する。カメラMPU124はこれら2像の信号を読み出し、これに相関演算を施すことにより相対変位量を計算し、固有の係数を掛けることでデフォーカス量(Def2)へ変換する(以下これを第2焦点検出と称する。詳しくは後述する)。   The defocus amount detection unit 134 (AF element) is a photoelectric conversion element having a line sensor, and outputs a subject image formed on the element as a potential change. The camera MPU 124 reads the signals of these two images, calculates a relative displacement amount by performing a correlation calculation on the signals, and multiplies the specific coefficient to convert it into a defocus amount (Def2) (hereinafter referred to as a second focus detection). The details will be described later).

デフォーカス量はこのようにして求められるが、あらゆる被写体に対してデフォーカス量が常に検出できるとは限らない。具体的には、被写体像信号のコントラストが小さければ、ラインセンサのS/N比も低くなり、コントラストが高い場合よりも検出結果の精度が低下する。また、逆光下などで焦点検出光学系にゴーストが発生すると、2像の一致度が低下するために相関演算によって正確な像ずれ量が計算できなくなる。よって、被写体像信号のコントラストや2像の一致度に所定の閾値を設け、閾値以下になったら焦点検出不能とする。また、焦点検出系の公差により、設計上デフォーカス量が0位置に被写体があったとしても、全てのカメラでピントが0となるとは限らない。   Although the defocus amount can be obtained in this way, the defocus amount cannot always be detected for every subject. Specifically, if the contrast of the subject image signal is small, the S / N ratio of the line sensor is also low, and the accuracy of the detection result is lower than when the contrast is high. In addition, when a ghost occurs in the focus detection optical system under backlighting or the like, the degree of coincidence between the two images is lowered, so that an accurate image shift amount cannot be calculated by correlation calculation. Therefore, a predetermined threshold is provided for the contrast of the subject image signal and the degree of coincidence of the two images, and the focus detection is disabled when the threshold is below the threshold. Also, due to the tolerance of the focus detection system, even if there is a subject at a defocus amount of 0 by design, the focus is not always 0 for all cameras.

そこで、工場の校正工程においては、予め撮像素子122にピントが合っている状態において、デフォーカス量が0になるようにEEPROM124aのパラメータを書き込み、調整する。具体的には、先ず、カメラのフランジバック(レンズユニットから撮像素子122までの距離)を測定して設計値とのずれ量を求める。次に、既知の距離にある基準となる被写体に、予めピントを合わせてある基準レンズをフランジバックのずれ量だけ補正する。次いで、基準となる被写体のデフォーカス量を測定する。続いて、測定したデフォーカス量が0になるようにEEPROM124aへ調整値を書き込む。そして、撮影時には、カメラMPU124が、デフォーカス量検出ユニット134の出力から計算されるデフォーカス量にEEPROM124aに書き込まれた調整値を加えたものをデフォーカス量とする。   Therefore, in the calibration process of the factory, the parameters of the EEPROM 124a are written and adjusted so that the defocus amount becomes 0 when the image pickup device 122 is in focus. Specifically, first, the amount of deviation from the design value is obtained by measuring the flange back of the camera (the distance from the lens unit to the image sensor 122). Next, a reference lens that has been previously focused on a reference subject at a known distance is corrected by the amount of deviation of the flange back. Next, the defocus amount of the reference subject is measured. Subsequently, the adjustment value is written in the EEPROM 124a so that the measured defocus amount becomes zero. At the time of shooting, the camera MPU 124 sets the defocus amount calculated by adding the adjustment value written in the EEPROM 124 a to the defocus amount calculated from the output of the defocus amount detection unit 134.

このことにより、カメラの個体差を吸収した自動焦点検出が可能である。   This enables automatic focus detection that absorbs individual differences between cameras.

この補正値は、フォーカスエリアごとに個々に調整されてEEPROM124aに書き込まれる。   This correction value is individually adjusted for each focus area and written to the EEPROM 124a.

こうして変換されたデフォーカス量に、ベストピント補正(前述)がさらに加えられる。先述した通り、ベストピント補正は、撮影時の被写体光束の焦点と焦点検出光学系による被写体光束の焦点とのずれ量に対する補正である。このずれ量は、撮像素子122とデフォーカス量検出ユニット134との分光感度のずれや、レンズユニット100の球面収差に起因する。すなわち、レンズユニット個々に、デフォーカス量検出を行うフォーカスエリア、レンズユニット100の距離環位置、ズーム位置ごとに異なる値となる。   The best focus correction (described above) is further added to the defocus amount thus converted. As described above, the best focus correction is a correction for a deviation amount between the focus of the subject light beam at the time of photographing and the focus of the subject light beam by the focus detection optical system. This shift amount is caused by a shift in spectral sensitivity between the image sensor 122 and the defocus amount detection unit 134 and spherical aberration of the lens unit 100. That is, the lens unit has different values for each focus area for detecting the defocus amount, the distance ring position of the lens unit 100, and the zoom position.

このベストピント調整値は、装着されたレンズ100のレンズMPU112に記憶されている。よって、レンズMPU112は、距離環位置検出ユニット10、ズーム位置検出ユニット114から、現在の距離環位置、ズーム位置を読み取り、それに対応するベストピント調整値をカメラMPU124へ通信によって送信する。カメラMPU124は、このベストピント調整値をデフォーカス量に対し加えたものを、新たなデフォーカス量とすることにより、レンズユニットごとの最適な焦点調節が可能である。なお、本実施例でのデフォーカス量は、プラスであれば、距離環を至近方向へ動かさなければならないピントずれであると定義する。   This best focus adjustment value is stored in the lens MPU 112 of the attached lens 100. Therefore, the lens MPU 112 reads the current distance ring position and zoom position from the distance ring position detection unit 10 and the zoom position detection unit 114, and transmits the corresponding best focus adjustment value to the camera MPU 124 by communication. The camera MPU 124 can perform optimum focus adjustment for each lens unit by adding the best focus adjustment value to the defocus amount as a new defocus amount. If the defocus amount in this embodiment is positive, it is defined as a focus shift that requires the distance ring to move in the closest direction.

[第2焦点検出]
次に、図16を用いて、実施例3の第2焦点検出の一連の処理を図17のフローチャートにしたがって説明する。
[Second focus detection]
Next, a series of second focus detection processes according to the third embodiment will be described with reference to the flowchart of FIG. 17 using FIG.

図17より焦点検出を開始し、まずS1710にて、縦方向および横方向のそれぞれついて蓄積を開始する。そして、S1720またはS1730にて、それぞれの蓄積完了を待つ。蓄積が完了した場合には、S1721またはS1731へ進み、像信号の読み出し、演算、焦点検出結果の信頼性判定を行い、縦横二方向のデフォーカス量のずれの修正(後述)を行う。   The focus detection is started from FIG. 17, and accumulation is started for each of the vertical direction and the horizontal direction in S1710. Then, in S1720 or S1730, each storage completion is awaited. When the accumulation is completed, the process proceeds to S1721 or S1731, and image signal reading, calculation, and reliability determination of the focus detection result are performed, and correction of the defocus amount deviation in the vertical and horizontal directions (described later) is performed.

次のS1740では、カメラMPU124が、縦方向および横方向の焦点検出が完了したかどうかを判定する。焦点検出が完了していない場合はS1720へ戻る。縦横両方向とも焦点検出が完了すると、S1750へ進み、縦横両方向のデフォーカス量検出が成功したか否かを判定する。デフォーカス量検出が縦横方向ともに成功した場合には、S1760へ進む。成功しなかった場合にはS1770へ進む。   In the next S1740, the camera MPU 124 determines whether vertical and horizontal focus detection has been completed. If focus detection has not been completed, the process returns to S1720. When focus detection is completed in both the vertical and horizontal directions, the process proceeds to S1750, and it is determined whether or not the defocus amount detection in both the vertical and horizontal directions is successful. If the defocus amount detection is successful in both the vertical and horizontal directions, the process proceeds to S1760. If unsuccessful, the process advances to step S1770.

S1740へ進むと、図16に示すように、過去100回分の検出結果を上限として、現在装着されているレンズユニット、フォーカスエリア位置、距離環位置、ズーム位置に対応付ける。そして、縦方向および横方向のデフォーカス量を焦点検出履歴としてEEPROM124aに記憶させる。同時に、EEPROM124aに記憶されている焦点検出履歴から、現在装着されているレンズユニット、フォーカスエリア位置、距離環位置、ズーム位置に対応する、縦方向と横方向のデフォーカス量の差の平均値を求める。また、100回分を超えた検出結果が得られた場合には、最も古い検出結果に最新の検出結果を上書する。よって、この差の平均値は測距の度に更新される可能性がある。   In S1740, as shown in FIG. 16, the detection result for the past 100 times is used as an upper limit, and the lens unit, the focus area position, the distance ring position, and the zoom position that are currently mounted are associated with each other. Then, the vertical and horizontal defocus amounts are stored in the EEPROM 124a as a focus detection history. At the same time, from the focus detection history stored in the EEPROM 124a, the average value of the difference between the defocus amounts in the vertical direction and the horizontal direction corresponding to the currently mounted lens unit, focus area position, distance ring position, and zoom position is calculated. Ask. When the detection result exceeding 100 times is obtained, the latest detection result is overwritten on the oldest detection result. Therefore, there is a possibility that the average value of the difference is updated at every distance measurement.

上記100回分の焦点検出履歴が得られたとき、この差の平均値が上記S1721またはS1731のいずれかにおいて縦横二方向のデフォーカス量のずれの修正値となる。すなわち、最新のデフォーカス量検出において、過去のデフォーカス量の縦横二方向の差の平均を取った結果、ピント位置がより後ろ側を示す方向のデフォーカス量にこの差の平均値が修正値として加えられる。もう一方向のデフォーカス量には修正は行わない。具体的には、縦方向から横方向のデフォーカス量の差の平均値を取る。そして、平均値がプラスであれば、先述したデフォーカス量の定義により、横方向のデフォーカス量が平均的に後ろ側にあることになるので、この差の平均値を足すことで、前側にある縦方向のデフォーカス量と平均値としては差がなくなる。   When the focus detection history for 100 times is obtained, the average value of the differences becomes a correction value for the defocus amount deviation in the vertical and horizontal directions in either S1721 or S1731. That is, in the latest defocus amount detection, as a result of taking the average of the difference in the vertical and horizontal directions of the past defocus amount, the average value of this difference is corrected to the defocus amount in the direction in which the focus position indicates the rear side. Added as. The defocus amount in the other direction is not corrected. Specifically, the average value of the difference in defocus amount from the vertical direction to the horizontal direction is taken. If the average value is positive, the defocus amount in the horizontal direction is on the rear side on the average according to the definition of the defocus amount described above, so the average value of this difference is added to the front side. There is no difference between the defocus amount in the vertical direction and the average value.

逆に差の平均値を取り、平均値がマイナスであれば、縦方向のデフォーカス量が平均的に後ろ側にあることになるので、この差の平均値を引くことで、前側にある横方向のデフォーカス量と平均値としては差がなくなる。   Conversely, if the average value of the differences is taken and the average value is negative, the defocus amount in the vertical direction is on the rear side on average, so by subtracting the average value of this difference, There is no difference between the direction defocus amount and the average value.

これら一連の処理を経て、次のS1770にて、縦横両方向のデフォーカス量の検出が成功した場合は(S1750のYES)、最終的により至近となる方向、より大きな値を示す方向のデフォーカス量を最新の検出結果として選択する。これは、修正済の縦横両方向のデフォーカス量でも多少の差がでることがあるので、至近となるデフォーカス量を選択するのである。選択されたデフォーカス量は、焦点位置調整値設定による補正の対象となる。   After a series of these processes, if the detection of the defocus amount in both the vertical and horizontal directions is successful in the next S1770 (YES in S1750), the defocus amount in the direction that is finally closer and in the direction that indicates a larger value. Is selected as the latest detection result. This is because a slight difference may occur even in the corrected defocus amounts in both the vertical and horizontal directions, so the closest defocus amount is selected. The selected defocus amount is subject to correction by setting the focus position adjustment value.

また、一方向のみのデフォーカス量検出が成功したとしてS1750からS1710へ進んだ場合は、そのデフォーカス量を最新の測距結果として選択する。   If the defocus amount detection in only one direction is successful and the process proceeds from S1750 to S1710, the defocus amount is selected as the latest distance measurement result.

また、縦横両方向のデフォーカス量の検出が失敗した場合もS1750からS1770へ進み、ここでは最新の検出結果は失敗とする。   Also, when the detection of the defocus amount in both the vertical and horizontal directions fails, the process proceeds from S1750 to S1770, and here, the latest detection result is determined to be a failure.

[焦点位置調整値設定]
実施例3のデジタルカメラ120は、前述の通り、撮像素子122を用いた撮像面位相差AFではなく、デフォーカス検出ユニット134を用いて焦点検出を行っている点で実施例1とは異なる。
[Focus position adjustment value setting]
As described above, the digital camera 120 according to the third embodiment is different from the first embodiment in that focus detection is performed using the defocus detection unit 134 instead of the imaging surface phase difference AF using the imaging element 122.

図18は、実施例1の焦点位置調整値設定(図14)に対応する。S1811では、図14のS1411における第一焦点検出に代わり、第二焦点検出(前述)を行う。   FIG. 18 corresponds to the focus position adjustment value setting (FIG. 14) of the first embodiment. In S1811, the second focus detection (described above) is performed instead of the first focus detection in S1411 of FIG.

また、図19は、実施例2の焦点位置調整値設定(図15)に対応する。S1911では、図14のS1511における第一焦点検出に代わり、第二焦点検出(前述)を行う。   FIG. 19 corresponds to the focus position adjustment value setting (FIG. 15) of the second embodiment. In S1911, the second focus detection (described above) is performed instead of the first focus detection in S1511 of FIG.

[実施例3の効果]
実施例3においては、実施例1又は実施例2の撮像素子を用いた撮像面位相差AFの代わりに、デフォーカス検出ユニット134を用いて焦点検出を行うことから、実施例1又は実施例2と同様の効果を得ることができる。
[Effect of Example 3]
In the third embodiment, focus detection is performed using the defocus detection unit 134 instead of the imaging surface phase difference AF using the imaging device of the first or second embodiment. Therefore, the first or second embodiment is used. The same effect can be obtained.

[その他の実施例]
リフォーカス画像から複数の画像を生成する場合について説明した。しかし、ユーザーの操作に応じて、リアルタイムで、焦点位置を変更したリフォーカス画像を生成するようにしても良い。この場合には、複数の画像を一度に生成してユーザーに提示するのではなく、ユーザーの直感的な操作により焦点位置を指定し、調整値を設定することが可能である。このように構成すると、例えば実施例1のS1416〜S1423を、ユーザーによる焦点位置の操作に置き換えることができる。すなわち、ユーザーがカメラを操作する時間を短縮するとともに、カメラを操作する手間を軽減することができる。また、ユーザーがリアルタイムで焦点位置を確認することができることから、よりユーザーの好み通りに焦点位置を調整することができる。これにより、よりユーザーの好みに沿った画像を取得するための調整値を得ることができる。
[Other Examples]
The case where a plurality of images are generated from the refocus image has been described. However, a refocus image in which the focal position is changed may be generated in real time according to a user operation. In this case, instead of generating a plurality of images at a time and presenting them to the user, it is possible to specify the focus position and set the adjustment value by the user's intuitive operation. With this configuration, for example, S1416 to S1423 in the first embodiment can be replaced with the operation of the focal position by the user. That is, it is possible to reduce the time for the user to operate the camera and reduce the trouble of operating the camera. In addition, since the user can confirm the focal position in real time, the focal position can be adjusted according to the user's preference. Thereby, it is possible to obtain an adjustment value for acquiring an image more in line with the user's preference.

また、撮影後に焦点位置を変更するための構成としては、必ずしも実施例1及び実施例2で示した構成でなくても良い。例えば、先行技術(一例として、特開2013−201752)に開示されている構成を用いても良い。   In addition, the configuration for changing the focal position after shooting is not necessarily the configuration shown in the first and second embodiments. For example, the configuration disclosed in the prior art (for example, JP2013-201752A) may be used.

また、前述の実施例では、調整値はデフォーカス量の調整値であるとして説明したが、レンズ駆動量の調整値であっても良い。例えば、焦点検出によって検出されたデフォーカス量から導き出されるレンズ駆動量に対し、更に何パルス分レンズを駆動するかというレンズの駆動量を、調整値として記憶することができる。この場合、レンズユニットそのものや、焦点検出を行う像高や、被写体の焦点位置に依存するレンズ駆動の敏感度等を考慮し、調整値を記憶する。また、ズーム位置によって適切な調整値は異なることから、更にズーム位置ごとに調整値を記憶することで、レンズ駆動量の調整をより精度良く行うことができる。   In the above-described embodiment, the adjustment value is described as the defocus amount adjustment value, but may be the lens drive amount adjustment value. For example, it is possible to store, as an adjustment value, a lens driving amount that indicates how many pulses the lens is driven with respect to a lens driving amount derived from a defocus amount detected by focus detection. In this case, the adjustment value is stored in consideration of the lens unit itself, the image height for focus detection, the sensitivity of lens driving depending on the focus position of the subject, and the like. Since the appropriate adjustment value varies depending on the zoom position, the lens drive amount can be adjusted more accurately by storing the adjustment value for each zoom position.

上記実施例では、交換レンズ式一眼レフカメラについて説明したが、本発明は、ビデカメラ等の撮像装置、その他の焦点調節装置を有する光学機器にも適用可能である。   In the above-described embodiments, the interchangeable lens single-lens reflex camera has been described. However, the present invention is also applicable to an optical apparatus having an imaging device such as a bidet camera and other focus adjustment devices.

また、本発明は上述の実施例の1以上の機能を実現するプログラムをネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読み取り実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。   Further, the present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in the computer of the system or apparatus read and execute the program Can also be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

103 第3レンズ群(フォーカスレンズ)
110 フォーカスアクチュエータ
122 撮像素子
124 カメラMPU
124a EEPROM
125 画像処理回路
126 撮像面位相差焦点検出部
134 デフォーカス量検出ユニット(AF用素子)
103 Third lens group (focus lens)
110 Focus actuator 122 Image sensor 124 Camera MPU
124a EEPROM
125 Image Processing Circuit 126 Imaging Surface Phase Difference Focus Detection Unit 134 Defocus Amount Detection Unit (AF Element)

Claims (13)

光学系の異なる瞳領域を通過した光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を、複数有する撮像素子と、
デフォーカス量を検出する焦点検出手段と、
前記デフォーカス量に基づいてフォーカスレンズを駆動し、焦点位置を調節する焦点調節手段と、
前記複数の光電変換部から取得した、焦点位置の異なる信号を用いて、複数のリフォーカス画像を生成する生成手段と、
前記生成手段が生成したリフォーカス画像に対応した、焦点位置を調整するための調整値を記憶する記憶手段と、を有し、
前記焦点調節手段は、前記記憶手段が記憶した前記調整値に基づいて焦点位置を調節することを特徴とする撮像装置。
An image sensor having a plurality of pixel units each having a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different pupil regions of the optical system;
Focus detection means for detecting a defocus amount;
Focus adjusting means for driving the focus lens based on the defocus amount and adjusting the focus position;
Generation means for generating a plurality of refocus images using signals obtained from the plurality of photoelectric conversion units and having different focal positions ;
Storage means for storing an adjustment value for adjusting the focal position corresponding to the refocus image generated by the generation means;
The imaging apparatus, wherein the focus adjustment unit adjusts a focus position based on the adjustment value stored in the storage unit.
前記調整値はデフォーカス量の調整値であり、
前記焦点調節手段は、前記焦点検出手段が検出した前記デフォーカス量と前記調整値とに基づき、焦点調節を行うことを特徴とする請求項1に記載の撮像装置。
The adjustment value is a defocus amount adjustment value,
The imaging apparatus according to claim 1, wherein the focus adjustment unit performs focus adjustment based on the defocus amount and the adjustment value detected by the focus detection unit.
前記調整値は、前記焦点検出手段が検出した前記デフォーカス量と、前記記憶手段が前記調整値を記憶した前記リフォーカス画像に対応するデフォーカス量と、に基づく値である請求項2に記載の撮像装置。   The adjustment value is a value based on the defocus amount detected by the focus detection unit and a defocus amount corresponding to the refocus image in which the storage unit stores the adjustment value. Imaging device. 前記調整値はフォーカスレンズの駆動量の調整値であり、
前記焦点調節手段は調整値を反映したレンズ駆動量だけフォーカスレンズを駆動することを特徴とする請求項1に記載の撮像装置。
The adjustment value is an adjustment value of the driving amount of the focus lens,
The imaging apparatus according to claim 1, wherein the focus adjustment unit drives the focus lens by a lens drive amount reflecting the adjustment value.
前記リフォーカス画像は、現在の結像面とは異なる仮想の結像面における画像に対応する画像であり、
前記複数の光電変換部は、第1の光電変換部及び第2の光電変換部であり、
前記生成手段は、前記第1の光電変換部から取得した信号と、前記第1の光電変換部を有する画素部とは異なる画素部の第2の光電変換部から取得した信号とを加算した信号に対応する信号を複数用いて前記リフォーカス画像を生成することを特徴とする、請求項1乃至請求項4のいずれか1項に記載の撮像装置。
The refocus image is an image corresponding to an image on a virtual imaging plane different from the current imaging plane;
The plurality of photoelectric conversion units are a first photoelectric conversion unit and a second photoelectric conversion unit,
The generation means is a signal obtained by adding a signal acquired from the first photoelectric conversion unit and a signal acquired from a second photoelectric conversion unit of a pixel unit different from the pixel unit having the first photoelectric conversion unit. 5. The imaging apparatus according to claim 1, wherein the refocus image is generated using a plurality of signals corresponding to.
前記生成手段は焦点位置の異なる複数のリフォーカス画像を生成し、
前記焦点調節手段は、前記複数のリフォーカス画像のうちユーザーが選択した画像に対応する調整値に基づいて焦点位置を調節することを特徴とする請求項1乃至請求項5のいずれか1項に記載の撮像装置。
The generating means generates a plurality of refocus images having different focal positions;
The focus adjustment unit adjusts a focus position based on an adjustment value corresponding to an image selected by a user among the plurality of refocus images. The imaging device described.
前記生成手段が生成したリフォーカス画像を表示する表示手段を有し、
前記焦点調節手段は、前記表示手段が表示するリフォーカス画像のうち、ユーザーが選択したリフォーカス画像に対応する調整値に基づいて焦点位置を調節することを特徴とする請求項1乃至請求項6のいずれか1項に記載の撮像装置。
Display means for displaying the refocus image generated by the generation means;
7. The focus adjustment unit adjusts a focal position based on an adjustment value corresponding to a refocus image selected by a user among refocus images displayed by the display unit. The imaging device according to any one of the above.
前記生成手段が生成した複数のリフォーカス画像のうち、ユーザーが複数のリフォーカス画像が選択した場合には、複数のリフォーカス画像の焦点位置の範囲内で前記生成手段が、再度、複数のリフォーカス画像を生成することを特徴とする請求項1乃至請求項7のいずれか1項に記載の撮像装置。 Among the plurality of refocusing image said generating means has generated, if the user has multiple refocus images have been selected, said generating means in the range of focus positions of the refocused image, again, a plurality of Li The imaging apparatus according to claim 1, wherein a focus image is generated. 前記焦点検出手段は、前記第1の光電変換部及び第2の光電変換部から取得した信号を用いて、デフォーカス量を検出することを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the focus detection unit detects a defocus amount using signals acquired from the first photoelectric conversion unit and the second photoelectric conversion unit. ラインセンサを有するAF用素子を有し、
前記焦点検出手段は、前記AF用素子から取得した信号を用いてデフォーカス量を検出することを特徴とする請求項1乃至請求項9のいずれか1項に記載の撮像装置。
An AF element having a line sensor;
The image pickup apparatus according to claim 1, wherein the focus detection unit detects a defocus amount using a signal acquired from the AF element.
光学系の異なる瞳領域を通過した光束をそれぞれ受光し光電変換する複数の光電変換部を有する画素部を、複数有する撮像装置の制御方法において、
デフォーカス量を検出する焦点検出ステップと、
前記デフォーカス量に基づいてフォーカスレンズを駆動し、焦点位置を調節する焦点調節ステップと、
前記複数の光電変換部から取得した、焦点位置の異なる信号を用いて、複数のリフォーカス画像を生成する生成ステップと、
前記生成ステップにおいて生成したリフォーカス画像に対応した、焦点位置を調整するための調整値を記憶する記憶ステップと、
前記調整値を用いて前記デフォーカス量を調整する調整ステップと、を有し、
前記焦点調節ステップでは、前記記憶ステップで記憶した前記調整値に基づいて焦点位置を調節することを特徴とする撮像装置の制御方法。
In a control method for an imaging apparatus having a plurality of pixel units each having a plurality of photoelectric conversion units that receive and photoelectrically convert light beams that have passed through different pupil regions of the optical system,
A focus detection step for detecting a defocus amount;
A focus adjustment step of driving a focus lens based on the defocus amount and adjusting a focus position;
A generation step of generating a plurality of refocus images using signals obtained from the plurality of photoelectric conversion units and having different focal positions ;
A storage step for storing an adjustment value for adjusting the focal position corresponding to the refocus image generated in the generation step;
Adjusting the defocus amount using the adjustment value, and
In the focus adjustment step, the focus position is adjusted based on the adjustment value stored in the storage step.
請求項11に記載の制御方法における各ステップをコンピュータによって実行させるためのプログラム。   A program for causing a computer to execute each step in the control method according to claim 11. 請求項12に記載のプログラムをコンピュータで読み取ることができるように記憶する記憶媒体。   A storage medium for storing the program according to claim 12 so as to be read by a computer.
JP2015206691A 2015-10-20 2015-10-20 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM Expired - Fee Related JP6611559B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015206691A JP6611559B2 (en) 2015-10-20 2015-10-20 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015206691A JP6611559B2 (en) 2015-10-20 2015-10-20 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Publications (2)

Publication Number Publication Date
JP2017079407A JP2017079407A (en) 2017-04-27
JP6611559B2 true JP6611559B2 (en) 2019-11-27

Family

ID=58666276

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015206691A Expired - Fee Related JP6611559B2 (en) 2015-10-20 2015-10-20 IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM

Country Status (1)

Country Link
JP (1) JP6611559B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6705415B2 (en) * 2017-04-13 2020-06-03 株式会社三洋物産 Amusement machine
JP2022028085A (en) * 2018-11-29 2022-02-15 ソニーグループ株式会社 Image processing device and method

Also Published As

Publication number Publication date
JP2017079407A (en) 2017-04-27

Similar Documents

Publication Publication Date Title
JP6405243B2 (en) Focus detection apparatus and control method thereof
US8670658B2 (en) Image capture apparatus and method of controlling the same
JP5676988B2 (en) Focus adjustment device
US9106825B2 (en) Image capture apparatus, image capture method and storage medium
JP5947601B2 (en) FOCUS DETECTION DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE
JP6506560B2 (en) Focus control device and method therefor, program, storage medium
JP2013218297A (en) Focus adjustment device and focus adjustment method
JP2012234152A (en) Imaging apparatus and control method thereof
JP2015203783A (en) Image capturing device, control device, control method, program, and storage medium
JP4348118B2 (en) Solid-state imaging device and imaging device
JP2006091915A (en) Imaging apparatus
JP6300670B2 (en) Focus adjustment apparatus, focus adjustment method and program, and imaging apparatus
JP2016018012A (en) Imaging device and control method of the same
US9888165B2 (en) Image capturing apparatus, control method therefor and storage medium
US20170359500A1 (en) Control apparatus, image capturing apparatus, control method, and non-transitory computer-readable storage medium
JP6611559B2 (en) IMAGING DEVICE, ITS CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2017032646A (en) Image-capturing device and method for controlling the same
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP7019337B2 (en) Image stabilization device, lens device and their control method
JP2015145970A (en) Imaging device, control method of the same, program abd recording medium
JP2015210285A (en) Imaging device, manufacturing method of the same, program thereof and recording medium
JP6305016B2 (en) FOCUS CONTROL DEVICE, FOCUS CONTROL DEVICE CONTROL METHOD, AND IMAGING DEVICE
JP5590850B2 (en) Imaging device and focus control method of imaging device
JP2015225311A (en) Image capturing device, control method therefor, program, and storage medium
WO2015182021A1 (en) Image pickup control apparatus, image pickup apparatus, and image pickup control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181018

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190716

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191001

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191029

R151 Written notification of patent or utility model registration

Ref document number: 6611559

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees