JP7395326B2 - Lens device, imaging device, communication method, and program - Google Patents
Lens device, imaging device, communication method, and program Download PDFInfo
- Publication number
- JP7395326B2 JP7395326B2 JP2019204495A JP2019204495A JP7395326B2 JP 7395326 B2 JP7395326 B2 JP 7395326B2 JP 2019204495 A JP2019204495 A JP 2019204495A JP 2019204495 A JP2019204495 A JP 2019204495A JP 7395326 B2 JP7395326 B2 JP 7395326B2
- Authority
- JP
- Japan
- Prior art keywords
- aperture
- aperture information
- information
- lens
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003384 imaging method Methods 0.000 title claims description 123
- 238000004891 communication Methods 0.000 title claims description 42
- 238000000034 method Methods 0.000 title claims description 32
- 238000002834 transmittance Methods 0.000 claims description 113
- 230000003287 optical effect Effects 0.000 claims description 97
- 238000001514 detection method Methods 0.000 claims description 96
- 230000035945 sensitivity Effects 0.000 claims description 56
- 238000006243 chemical reaction Methods 0.000 claims description 47
- 238000004364 calculation method Methods 0.000 claims description 23
- 230000008859 change Effects 0.000 claims description 10
- 210000001747 pupil Anatomy 0.000 description 53
- 238000010586 diagram Methods 0.000 description 30
- 238000012545 processing Methods 0.000 description 20
- 230000006870 function Effects 0.000 description 15
- 230000004907 flux Effects 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 230000005484 gravity Effects 0.000 description 10
- 230000002093 peripheral effect Effects 0.000 description 9
- 230000006399 behavior Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000012887 quadratic function Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000012886 linear function Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Focusing (AREA)
- Structure And Mechanism Of Cameras (AREA)
- Automatic Focus Adjustment (AREA)
Description
本発明は、位相差方式の焦点検出を行うレンズ装置および撮像装置に関する。 The present invention relates to a lens device and an imaging device that perform focus detection using a phase difference method.
従来、撮像素子から出力される画素信号に基づいて位相差方式の焦点検出を行う撮像装置が知られている。また、透過率分布を有する光学素子を備えたレンズ装置が提案されている。このような光学素子は、ボケ像のエッジを滑らかにするために設けられ、通常の撮像光学系では得られないボケ描写を実現し、写真の表現領域を広げることができる。 2. Description of the Related Art Conventionally, imaging apparatuses are known that perform focus detection using a phase difference method based on pixel signals output from an imaging element. Further, a lens device including an optical element having a transmittance distribution has been proposed. Such an optical element is provided to smooth the edges of a blurred image, and can realize a blur depiction that cannot be obtained with a normal imaging optical system, thereby expanding the range of photographic expression.
特許文献1には、光学素子の透過率分布と、光束の入射角範囲と、撮像素子の受光感度分布とに基づいて、位相差とデフォーカス量との比に関するパラメータ(変換係数)を算出する撮像装置が開示されている。これらの情報を用いることで、透過率分布を有する光学素子を備えた撮像装置において、デフォーカス量の算出に用いられる変換係数(デフォーカス換算係数)を算出することができる。 Patent Document 1 discloses that a parameter (conversion coefficient) regarding the ratio between the phase difference and the defocus amount is calculated based on the transmittance distribution of the optical element, the incident angle range of the luminous flux, and the light receiving sensitivity distribution of the image sensor. An imaging device is disclosed. By using this information, it is possible to calculate a conversion coefficient (defocus conversion coefficient) used to calculate the amount of defocus in an imaging device equipped with an optical element having a transmittance distribution.
しかしながら、光学素子の透過率分布と、光束の入射角範囲と、撮像素子の受光感度分布とを撮像装置に記憶し、焦点検出のたびにこれらの情報に基づいてデフォーカス換算係数を算出するには、記憶容量および演算時間を増やす必要がある。 However, it is difficult to store the transmittance distribution of the optical element, the incident angle range of the luminous flux, and the light receiving sensitivity distribution of the image sensor in the imaging device, and calculate the defocus conversion coefficient based on this information each time focus detection is performed. requires increased storage capacity and computational time.
そこで本発明は、記憶容量および演算時間を増やすことなく、デフォーカス換算係数を算出可能なレンズ装置、撮像装置、通信方法、および、プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a lens device, an imaging device, a communication method, and a program that can calculate a defocus conversion coefficient without increasing storage capacity or calculation time.
本発明の一側面としてのレンズ装置は、撮像装置に着脱可能なレンズ装置であって、光軸に関して回転対称な透過率分布層を有する撮像光学系と、前記撮像光学系による撮像素子の受光可能領域を規定する開口情報を記憶する記憶手段と、前記開口情報を前記撮像装置に送信する通信手段とを有し、前記開口情報は、前記撮像装置が焦点検出を行う際にデフォーカス換算係数を算出するために用いられ、前記透過率分布層による基線長の変化に対応する基線長に関する第1開口情報を含む。 A lens device according to one aspect of the present invention is a lens device that can be attached to and detached from an imaging device, and includes an imaging optical system having a transmittance distribution layer that is rotationally symmetrical with respect to an optical axis, and the imaging optical system capable of receiving light from an imaging element. The aperture information includes a storage means for storing aperture information that defines an area , and a communication means for transmitting the aperture information to the imaging device, and the aperture information is configured to calculate a defocus conversion coefficient when the imaging device performs focus detection. It is used for calculation and includes first aperture information regarding a baseline length corresponding to a change in the baseline length due to the transmittance distribution layer.
本発明の他の側面としての撮像装置は、レンズ装置が着脱可能な撮像装置であって、撮像素子と、前記レンズ装置から、光軸に関して回転対称な透過率分布層を有する撮像光学系による撮像素子の受光可能領域を規定する開口情報を受信する通信手段と、前記開口情報に基づいてデフォーカス換算係数を算出する算出手段とを有し、前記開口情報は、前記透過率分布層による基線長の変化に対応する基線長に関する第1開口情報を含む。 Another aspect of the present invention is an imaging device having a detachable lens device, which captures images from an imaging element and the lens device using an imaging optical system having a transmittance distribution layer that is rotationally symmetrical with respect to an optical axis. It has a communication means for receiving aperture information that defines a light-receiving area of the element , and a calculation means for calculating a defocus conversion coefficient based on the aperture information, and the aperture information includes a base line length by the transmittance distribution layer. The first aperture information includes first aperture information regarding the baseline length corresponding to the change in the base line length.
本発明の他の側面としての通信方法は、光軸に関して回転対称な透過率分布層を有する撮像光学系を備えたレンズ装置と撮像装置との通信方法であって、前記レンズ装置の記憶手段から前記撮像光学系による撮像素子の受光可能領域を規定する開口情報を取得するステップと、前記開口情報を前記撮像装置に送信するステップとを有し、前記開口情報は、前記撮像装置が焦点検出を行う際にデフォーカス換算係数を算出するために用いられ、前記透過率分布層による基線長の変化に対応する基線長に関する第1開口情報を含む。 A communication method according to another aspect of the present invention is a communication method between an imaging device and a lens device including an imaging optical system having a transmittance distribution layer that is rotationally symmetrical with respect to an optical axis, the method comprising: The method includes a step of acquiring aperture information that defines a light-receiving area of an image sensor by the imaging optical system, and a step of transmitting the aperture information to the imaging device. It is used to calculate a defocus conversion coefficient when carrying out the process, and includes first aperture information regarding the base line length corresponding to the change in the base line length due to the transmittance distribution layer.
本発明の他の側面としてのプログラムは、前記通信方法をコンピュータに実行させる。 A program according to another aspect of the present invention causes a computer to execute the communication method.
本発明の他の目的及び特徴は、以下の実施例において説明される。 Other objects and features of the invention are illustrated in the following examples.
本発明によれば、記憶容量および演算時間を増やすことなく、デフォーカス換算係数を算出可能なレンズ装置、撮像装置、通信方法、および、プログラムを提供することができる。 According to the present invention, it is possible to provide a lens device, an imaging device, a communication method, and a program that can calculate a defocus conversion coefficient without increasing storage capacity and calculation time.
以下、本発明の実施例について、図面を参照しながら詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
(撮像装置の構成)
まず、図1を参照して、本発明の実施例1における撮像装置の構成について説明する。図1は、本実施例における撮像装置(レンズ交換可能な一眼レフタイプのデジタルカメラ)10のブロック図である。撮像装置10は、レンズユニット(交換レンズ、レンズ装置)100とカメラ本体(撮像装置本体)120とを有するカメラシステム(撮像システム)である。レンズユニット100は、図1中の点線で示されるマウントMを介して、カメラ本体120と着脱可能に取り付けられる。ただし本実施例は、これに限定されるものではなく、レンズユニット(撮像光学系)とカメラ本体とが一体的に構成された撮像装置(デジタルカメラ)にも適用可能である。また本実施例は、デジタルカメラに限定されるものではなく、ビデオカメラなど他の撮像装置にも適用可能である。
(Configuration of imaging device)
First, with reference to FIG. 1, the configuration of an imaging apparatus in Example 1 of the present invention will be described. FIG. 1 is a block diagram of an imaging device (single-lens reflex digital camera with interchangeable lenses) 10 in this embodiment. The imaging device 10 is a camera system (imaging system) that includes a lens unit (interchangeable lens, lens device) 100 and a camera body (imaging device main body) 120. The lens unit 100 is detachably attached to the camera body 120 via a mount M shown by a dotted line in FIG. However, this embodiment is not limited to this, and can also be applied to an imaging device (digital camera) in which a lens unit (imaging optical system) and a camera body are integrally configured. Further, the present embodiment is not limited to digital cameras, but can also be applied to other imaging devices such as video cameras.
レンズユニット100は、光学系としての第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)104、および、透過率分布層105と、駆動/制御系とを有する。このようにレンズユニット100は、フォーカスレンズ104を含み、被写体像(光学像)を形成する撮影レンズ(撮像光学系)である。 The lens unit 100 includes a first lens group 101 as an optical system, an aperture 102, a second lens group 103, a focus lens group (hereinafter simply referred to as "focus lens") 104, a transmittance distribution layer 105, and a driving/distributing layer 105. It has a control system. In this way, the lens unit 100 is a photographic lens (imaging optical system) that includes the focus lens 104 and forms a subject image (optical image).
第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに進退可能に保持される。絞り102は、その開口径を調節することで撮影時の光量調節を行い、また静止画撮影時においては露光秒時調節用シャッタとして機能する。絞り102および第2レンズ群103は、一体的に光軸方向OAに移動可能であり、第1レンズ群101の進退動作との連動によりズーム機能を実現する。フォーカスレンズ104は、光軸方向OAに移動可能であり、その位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向OAにおける位置を制御することにより、レンズユニット100の合焦距離を調節する焦点調節(フォーカス制御)が可能である。透過率分布層105は、光軸を中心とした回転対称な透過率分布を有する光学素子である。本実施例において、透過率分布層105は、光軸中心の透過率が一番高く、光軸中心から離れるにしたがって透過率が低い構成であるとして説明する。 The first lens group 101 is disposed at the tip of the lens unit 100 and is held movable in the optical axis direction OA. The diaphragm 102 adjusts the amount of light during photographing by adjusting its aperture diameter, and also functions as a shutter for adjusting the exposure time during still image photographing. The diaphragm 102 and the second lens group 103 are movable together in the optical axis direction OA, and achieve a zoom function in conjunction with the forward and backward movements of the first lens group 101. The focus lens 104 is movable in the optical axis direction OA, and the subject distance (focusing distance) on which the lens unit 100 focuses changes depending on its position. By controlling the position of the focus lens 104 in the optical axis direction OA, focus adjustment (focus control) that adjusts the focusing distance of the lens unit 100 is possible. The transmittance distribution layer 105 is an optical element having a rotationally symmetric transmittance distribution about the optical axis. In this embodiment, the transmittance distribution layer 105 will be described as having a structure in which the transmittance is highest at the center of the optical axis, and the transmittance decreases as the distance from the center of the optical axis increases.
駆動/制御系は、ズームアクチュエータ111、絞りアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞り駆動回路115、フォーカス駆動回路116、レンズMPU117、および、レンズメモリ118を有する。ズーム駆動回路114は、ズームアクチュエータ111を用いて第1レンズ群101や第3レンズ群103を光軸方向OAに駆動し、レンズユニット100の光学系の画角を制御する(ズーム操作を行う)。絞り駆動回路115は、絞りアクチュエータ112を用いて絞り102を駆動し、絞り102の開口径や開閉動作を制御する。フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向OAに駆動し、レンズユニット100の光学系の合焦距離を制御する(フォーカス制御を行う)。また、フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104の現在位置(レンズ位置)を検出する位置検出部としての機能を有する。 The drive/control system includes a zoom actuator 111, an aperture actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture drive circuit 115, a focus drive circuit 116, a lens MPU 117, and a lens memory 118. The zoom drive circuit 114 uses the zoom actuator 111 to drive the first lens group 101 and the third lens group 103 in the optical axis direction OA, and controls the angle of view of the optical system of the lens unit 100 (performs a zoom operation). . The diaphragm drive circuit 115 drives the diaphragm 102 using the diaphragm actuator 112, and controls the aperture diameter and opening/closing operation of the diaphragm 102. The focus drive circuit 116 drives the focus lens 104 in the optical axis direction OA using the focus actuator 113 to control the focusing distance of the optical system of the lens unit 100 (performs focus control). Further, the focus drive circuit 116 has a function as a position detection unit that detects the current position (lens position) of the focus lens 104 using the focus actuator 113.
レンズMPU(プロセッサ)117は、レンズユニット100に係る全ての演算、制御を行い、ズーム駆動回路114、絞り駆動回路115、および、フォーカス駆動回路116を制御する。またレンズMPU117は、マウントMを通じてカメラMPU125と接続され、コマンドやデータを通信する通信手段である。例えば、レンズMPU117は、フォーカスレンズ104の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。レンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、撮像光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、および、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。またレンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動回路114、絞り駆動回路115、および、フォーカス駆動回路116を制御する。レンズメモリ(記憶手段)118は、自動焦点調節(AF制御)に必要な光学情報を記憶している。カメラMPU125は、例えば内蔵の不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することにより、レンズユニット100の動作を制御する。 A lens MPU (processor) 117 performs all calculations and controls related to the lens unit 100, and controls a zoom drive circuit 114, an aperture drive circuit 115, and a focus drive circuit 116. Further, the lens MPU 117 is connected to the camera MPU 125 through the mount M, and is a communication means for communicating commands and data. For example, the lens MPU 117 detects the position of the focus lens 104 and notifies lens position information in response to a request from the camera MPU 125. The lens position information includes the position of the focus lens 104 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the imaging optical system is not moving, and the lens frame that limits the luminous flux of the exit pupil. It includes information such as the position and diameter in the optical axis direction OA. Further, the lens MPU 117 controls the zoom drive circuit 114, the aperture drive circuit 115, and the focus drive circuit 116 in response to a request from the camera MPU 125. A lens memory (storage means) 118 stores optical information necessary for automatic focus adjustment (AF control). The camera MPU 125 controls the operation of the lens unit 100 by, for example, executing a program stored in a built-in nonvolatile memory or the lens memory 118.
カメラ本体120は、光学的ローパスフィルタ121、撮像素子122、および、駆動/制御系を有する。光学的ローパスフィルタ121および撮像素子122は、レンズユニット100を介して形成された被写体像(光学像)を光電変換し、画像データを出力する撮像部(撮像手段)として機能する。本実施例において、撮像素子122は、撮像光学系を介して形成された被写体像を光電変換し、画像データとして、撮像信号および焦点検出信号をそれぞれ出力する。また本実施例において、第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ104、および、光学的ローパスフィルタ121は、撮像光学系を構成する。 The camera body 120 has an optical low-pass filter 121, an image sensor 122, and a drive/control system. The optical low-pass filter 121 and the imaging device 122 function as an imaging unit (imaging means) that photoelectrically converts a subject image (optical image) formed through the lens unit 100 and outputs image data. In this embodiment, the image sensor 122 photoelectrically converts a subject image formed through an imaging optical system, and outputs an imaging signal and a focus detection signal as image data. Further, in this embodiment, the first lens group 101, the diaphragm 102, the second lens group 103, the focus lens 104, and the optical low-pass filter 121 constitute an imaging optical system.
光学的ローパスフィルタ121は、撮影画像の偽色やモアレを軽減する。撮像素子122は、CMOSイメージセンサおよびその周辺回路で構成され、横方向m画素、縦方向n画素(m、nは2以上の整数)が配置されている。本実施例の撮像素子122は焦点検出素子の役割も果たし、瞳分割機能を有し、画像データ(画像信号)を用いた位相差検出方式の焦点検出(位相差AF)が可能な瞳分割画素を有する。画像処理回路124は、撮像素子122から出力される画像データに基づいて、位相差AF用のデータと、表示、記録、およびコントラストAF(TVAF)用の画像データとを生成する。 The optical low-pass filter 121 reduces false colors and moiré in captured images. The image sensor 122 is composed of a CMOS image sensor and its peripheral circuit, and has m pixels in the horizontal direction and n pixels in the vertical direction (m and n are integers of 2 or more). The image sensor 122 of this embodiment also serves as a focus detection element, has a pupil division function, and is a pupil division pixel capable of phase difference detection method focus detection (phase difference AF) using image data (image signal). has. The image processing circuit 124 generates data for phase difference AF and image data for display, recording, and contrast AF (TVAF) based on the image data output from the image sensor 122.
駆動/制御系は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群(操作SW)127、メモリ128、位相差AF部(撮像面位相差焦点検出部)129、及びTVAF部(TVAF焦点検出部)130を有する。撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、撮像素子122から出力された画像信号(画像データ)をA/D変換し、カメラMPU125に送信する。画像処理回路124は、撮像素子122から出力された画像信号に対して、γ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。また画像処理回路124は、位相差AF用の信号を生成する。 The drive/control system includes an image sensor drive circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group (operation SW) 127, a memory 128, and a phase difference AF section (imaging plane phase difference focus detection section) 129. , and a TVAF section (TVAF focus detection section) 130. The image sensor drive circuit 123 controls the operation of the image sensor 122, performs A/D conversion on an image signal (image data) output from the image sensor 122, and transmits the converted image signal to the camera MPU 125. The image processing circuit 124 performs general image processing performed in a digital camera, such as γ conversion, white balance adjustment processing, color interpolation processing, and compression encoding processing, on the image signal output from the image sensor 122. The image processing circuit 124 also generates a signal for phase difference AF.
カメラMPU(プロセッサ、制御装置)125は、カメラ本体120に係る全ての演算および制御を行う。すなわちカメラMPU125は、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、位相差AF部129、および、TVAF部130を制御する。またカメラMPU125は、マウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する通信手段である。カメラMPU125は、レンズMPU117に対して、レンズ位置の取得や所定の駆動量でのレンズ駆動要求を発行し、また、レンズMPU117からレンズユニット100に固有の光学情報の取得要求などを発行する。 A camera MPU (processor, control unit) 125 performs all calculations and controls related to the camera body 120. That is, the camera MPU 125 controls the image sensor drive circuit 123, the image processing circuit 124, the display 126, the operation switch group 127, the memory 128, the phase difference AF section 129, and the TVAF section 130. Further, the camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M, and is a communication means for communicating commands and data with the lens MPU 117. The camera MPU 125 issues a request to the lens MPU 117 to acquire the lens position and drive the lens with a predetermined drive amount, and also issues a request from the lens MPU 117 to acquire optical information specific to the lens unit 100 .
カメラMPU125には、カメラ本体120の動作を制御するプログラムを格納したROM125a、変数を記憶するRAM(カメラメモリ)125b、および、各種のパラメータを記憶するEEPROM125cが内蔵されている。またカメラMPU125は、ROM125aに格納されているプログラムに基づいて、焦点検出処理を実行する。焦点検出処理においては、撮像光学系の互いに異なる瞳領域(瞳部分領域)を通過した光束により形成される光学像を光電変換した対の像信号を用いて、公知の相関演算処理が実行される。 The camera MPU 125 includes a ROM 125a that stores a program for controlling the operation of the camera body 120, a RAM (camera memory) 125b that stores variables, and an EEPROM 125c that stores various parameters. Further, the camera MPU 125 executes focus detection processing based on a program stored in the ROM 125a. In the focus detection process, a known correlation calculation process is performed using a pair of image signals obtained by photoelectrically converting an optical image formed by a light flux that has passed through different pupil areas (pupil partial areas) of the imaging optical system. .
表示器126は液晶ディスプレイ(LCD)などから構成され、撮像装置10の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチなどで構成される。メモリ(記憶手段)128は、着脱可能なフラッシュメモリであり、撮影済み画像を記録する。 The display 126 is composed of a liquid crystal display (LCD) or the like, and displays information regarding the photographing mode of the imaging device 10, a preview image before photographing, a confirmation image after photographing, a focus state display image at the time of focus detection, and the like. The operation switch group 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory (storage means) 128 is a removable flash memory and records captured images.
位相差AF部129は、撮像素子122および画像処理回路124から得られる焦点検出用画像データの像信号に基づいて、位相差検出方式による焦点検出処理を行う。より具体的には、画像処理回路124は、撮像光学系の一対の瞳領域を通過する光束で形成される一対の像データを焦点検出用データとして生成し、位相差AF部129は、一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施例の位相差AF部129は、専用のAFセンサを用いず、撮像素子122の出力に基づく位相差AF(撮像面位相差AF)を行う。本実施例において、位相差AF部129は、取得手段129aおよび算出手段129bを有する。取得手段129aは、カメラMPU125から、レンズユニット100から受信した開口情報を取得する。算出手段129bは、開口情報に基づいてデフォーカス換算係数を算出する。なお、位相差AF部129の少なくとも一部の手段(取得手段129aまたは算出手段129bの一部)を、カメラMPU125に設けてもよい。 The phase difference AF unit 129 performs focus detection processing using a phase difference detection method based on an image signal of focus detection image data obtained from the image sensor 122 and the image processing circuit 124. More specifically, the image processing circuit 124 generates a pair of image data formed by a light beam passing through a pair of pupil regions of the imaging optical system as focus detection data, and the phase difference AF unit 129 generates a pair of image data as focus detection data. The amount of defocus is detected based on the amount of deviation of image data. In this way, the phase difference AF unit 129 of this embodiment performs phase difference AF (imaging surface phase difference AF) based on the output of the image sensor 122 without using a dedicated AF sensor. In this embodiment, the phase difference AF section 129 includes an acquisition means 129a and a calculation means 129b. The acquisition unit 129a acquires the aperture information received from the lens unit 100 from the camera MPU 125. The calculation means 129b calculates a defocus conversion coefficient based on the aperture information. Note that at least a part of the phase difference AF section 129 (a part of the acquisition means 129a or the calculation means 129b) may be provided in the camera MPU 125.
TVAF部130は、画像処理回路124により生成されるTVAF用評価値(画像データのコントラスト情報)に基づいて、コントラスト検出方式の焦点検出処理を行う。コントラスト検出方式の焦点検出処理の際には、フォーカスレンズ104を移動して評価値(焦点評価値)がピークとなるフォーカスレンズ位置が合焦位置として検出される。 The TVAF unit 130 performs focus detection processing using a contrast detection method based on the TVAF evaluation value (contrast information of image data) generated by the image processing circuit 124. During focus detection processing using the contrast detection method, the focus lens 104 is moved and the focus lens position where the evaluation value (focus evaluation value) reaches its peak is detected as the in-focus position.
このように、本実施例の撮像装置10は、撮像面位相差AFとTVAFとを組み合わせて実行可能であり、状況に応じて、これらを選択的に使用し、または、組み合わせて使用することができる。位相差AF部129およびTVAF部130は、各々の焦点検出結果を用いてフォーカスレンズ104の位置を制御するフォーカス制御手段として機能する。 In this way, the imaging device 10 of the present embodiment can perform the imaging plane phase difference AF and TVAF in combination, and depending on the situation, these can be used selectively or in combination. can. The phase difference AF unit 129 and the TVAF unit 130 function as a focus control unit that controls the position of the focus lens 104 using the respective focus detection results.
(撮像素子)
次に、図2および図3を参照して、本実施例における撮像素子122の画素配列について説明する。図2は、撮像素子122の画素(撮像画素および焦点検出画素)の配列の概略図である。図2において、本実施例の撮像素子(2次元CMOSセンサ子)122の画素(撮像画素)配列を4列×4行の範囲で、焦点検出画素配列を8列×4行の範囲で示す。本実施例において、図2に示される2列×2行の画素群200は、R(赤)の分光感度を有する画素200Rが左上に、G(緑)の分光感度を有する画素200Gが右上と左下に、B(青)の分光感度を有する画素200Bが右下に配置されている。さらに、各画素は2列×1行に配列された第1焦点検出画素(第1画素)201と第2焦点検出画素(第2画素)202により構成されている。
(Image sensor)
Next, the pixel arrangement of the image sensor 122 in this embodiment will be described with reference to FIGS. 2 and 3. FIG. 2 is a schematic diagram of the arrangement of pixels (imaging pixels and focus detection pixels) of the image sensor 122. In FIG. 2, the pixel (imaging pixel) array of the image sensor (two-dimensional CMOS sensor element) 122 of this embodiment is shown in a range of 4 columns x 4 rows, and the focus detection pixel array is shown in a range of 8 columns x 4 rows. In this example, in the pixel group 200 of 2 columns x 2 rows shown in FIG. A pixel 200B having a spectral sensitivity of B (blue) is arranged at the lower left and at the lower right. Further, each pixel includes a first focus detection pixel (first pixel) 201 and a second focus detection pixel (second pixel) 202 arranged in two columns and one row.
図2に示される4列×4行の画素(8列×4行の焦点検出画素)を面上に多数配置し、撮像画像(焦点検出信号)の取得を可能としている。本実施例では、画素の周期Pが4μm、画素数Nが横5575列×縦3725行=約2075万画素、焦点検出画素の列方向周期PAFが2μm、焦点検出画素数NAFが横11150列×縦3725行=約4150万画素の撮像素子として説明を行う。 A large number of 4 columns x 4 rows of pixels (8 columns x 4 rows of focus detection pixels) shown in FIG. 2 are arranged on a surface to enable acquisition of a captured image (focus detection signal). In this example, the pixel period P is 4 μm, the number of pixels N is 5575 horizontal columns × 3725 vertical rows = approximately 20.75 million pixels, the column direction period PAF of focus detection pixels is 2 μm, and the number of focus detection pixels NAF is 11150 horizontal columns × The explanation will be given assuming that the image sensor has 3725 vertical lines = approximately 41.5 million pixels.
図3は、撮像素子122の画素の概略平面図と概略断面図である。図3(a)は図2に示される撮像素子122の1つの画素200Gを、撮像素子122の受光面側(+z側)から見た平面図、図3(b)は図3(a)中のa-a断面を-y側から見た断面図を示す。 FIG. 3 is a schematic plan view and a schematic cross-sectional view of pixels of the image sensor 122. 3(a) is a plan view of one pixel 200G of the image sensor 122 shown in FIG. 2, viewed from the light-receiving surface side (+z side) of the image sensor 122, and FIG. 3(b) is a plan view of one pixel 200G of the image sensor 122 shown in FIG. A cross-sectional view of the a-a cross section viewed from the -y side is shown.
図3に示されるように、本実施例の画素200Gでは、各画素の受光側に入射光を集光するためのマイクロレンズ305が形成され、x方向にNH分割(2分割)、y方向にNV分割(1分割)された光電変換部301と光電変換部302が形成される。光電変換部301と光電変換部302が、それぞれ、第1焦点検出画素201と第2焦点検出画素202に対応する。 As shown in FIG. 3, in the pixel 200G of this example, a microlens 305 is formed to condense incident light on the light receiving side of each pixel, and NH division (division into two) is performed in the x direction, and NH division is performed in the y direction. A photoelectric conversion section 301 and a photoelectric conversion section 302 which are divided into NV (divided into one) are formed. A photoelectric conversion unit 301 and a photoelectric conversion unit 302 correspond to the first focus detection pixel 201 and the second focus detection pixel 202, respectively.
光電変換部301と光電変換部302は、p型層とn型層の間にイントリンシック層を挟んだpin構造フォトダイオードとしても良いし、必要に応じて、イントリンシック層を省略し、pn接合フォトダイオードとしても良い。各画素には、マイクロレンズ305と、光電変換部301および光電変換部302との間に、カラーフィルタ306が形成される。また、必要に応じて、副画素毎にカラーフィルタ306の分光透過率を変えても良いし、カラーフィルタ306を省略しても良い。 The photoelectric conversion unit 301 and the photoelectric conversion unit 302 may be a pin structure photodiode in which an intrinsic layer is sandwiched between a p-type layer and an n-type layer, or if necessary, the intrinsic layer may be omitted and a pn junction It can also be used as a photodiode. In each pixel, a color filter 306 is formed between the microlens 305 and the photoelectric conversion section 301 and the photoelectric conversion section 302. Furthermore, if necessary, the spectral transmittance of the color filter 306 may be changed for each subpixel, or the color filter 306 may be omitted.
図3に示される画素200Gに入射した光は、マイクロレンズ305により集光され、カラーフィルタ306で分光された後、光電変換部301と光電変換部302で受光される。光電変換部301と光電変換部302では、受光量に応じて電子とホールが対生成し、空乏層で分離された後、負電荷の電子はn型層(不図示)に蓄積され、一方、ホールは定電圧源(不図示)に接続されたp型層を通じて撮像素子外部へ排出される。 光電変換部301と光電変換部302のn型層(不図示)に蓄積された電子は、転送ゲートを介して、静電容量部(FD)に転送され、電圧信号に変換される。 The light incident on the pixel 200G shown in FIG. 3 is collected by the microlens 305, separated by the color filter 306, and then received by the photoelectric conversion unit 301 and the photoelectric conversion unit 302. In the photoelectric conversion unit 301 and the photoelectric conversion unit 302, pairs of electrons and holes are generated depending on the amount of light received, and after being separated by a depletion layer, negatively charged electrons are accumulated in an n-type layer (not shown). Holes are discharged to the outside of the image sensor through a p-type layer connected to a constant voltage source (not shown). Electrons accumulated in the n-type layers (not shown) of the photoelectric conversion section 301 and the photoelectric conversion section 302 are transferred to a capacitance section (FD) via a transfer gate and converted into a voltage signal.
次に、図4を参照して、図3に示される本実施例の撮像素子122の画素構造と瞳分割との対応関係について説明する。図4は、撮像素子122の画素と瞳分割の概略説明図であり、図3(a)に示される本実施例の画素構造のa-a断面を+y側から見た断面図と撮像素子122の瞳面(瞳距離Ds)を示す。図4では、撮像素子122の瞳面の座標軸と対応を取るため、断面図のx軸とy軸を図3に対して反転させている。 Next, with reference to FIG. 4, the correspondence between the pixel structure of the image sensor 122 of the present embodiment shown in FIG. 3 and pupil division will be described. FIG. 4 is a schematic explanatory diagram of pixels and pupil division of the image sensor 122, and is a cross-sectional view of the a-a cross section of the pixel structure of the present embodiment shown in FIG. shows the pupil plane (pupil distance Ds) of In FIG. 4, the x-axis and y-axis of the cross-sectional view are reversed with respect to FIG. 3 in order to correspond to the coordinate axes of the pupil plane of the image sensor 122.
図4において、第1焦点検出画素201の第1瞳部分領域501は、重心が-x方向に偏心している光電変換部301の受光面と、マイクロレンズ305によって概ね共役関係になっており、第1焦点検出画素201で受光可能な瞳領域を表している。第1焦点検出画素201の第1瞳部分領域501は、瞳面上で+X側に重心が偏心している。図4において、第2焦点検出画素202の第2瞳部分領域502は、重心が+x方向に偏心している光電変換部302の受光面と、マイクロレンズ305によって概ね共役関係になっており、第2焦点検出画素202で受光可能な瞳領域を表している。第2焦点検出画素202の第2瞳部分領域502は、瞳面上で-X側に重心が偏心している。また図4において、瞳領域500は、光電変換部301と光電変換部302(第1焦点検出画素201と第2焦点検出画素202)を全て合わせた際の画素200G全体で受光可能な瞳領域である。 In FIG. 4, the first pupil partial region 501 of the first focus detection pixel 201 has an approximately conjugate relationship with the light receiving surface of the photoelectric conversion unit 301 whose center of gravity is eccentric in the −x direction due to the microlens 305. It represents the pupil area where light can be received by the single focus detection pixel 201. The first pupil partial region 501 of the first focus detection pixel 201 has a center of gravity eccentric to the +X side on the pupil plane. In FIG. 4, the second pupil partial region 502 of the second focus detection pixel 202 has an approximately conjugate relationship with the light receiving surface of the photoelectric conversion unit 302 whose center of gravity is eccentric in the +x direction due to the microlens 305. It represents the pupil area where the focus detection pixel 202 can receive light. The center of gravity of the second pupil partial region 502 of the second focus detection pixel 202 is eccentric to the −X side on the pupil plane. Further, in FIG. 4, the pupil area 500 is the pupil area where light can be received by the entire pixel 200G when the photoelectric conversion unit 301 and the photoelectric conversion unit 302 (the first focus detection pixel 201 and the second focus detection pixel 202) are all combined. be.
撮像面位相差AFでは、撮像素子122のマイクロレンズ305を利用して瞳分割するため回折の影響を受ける。図4において、撮像素子122の瞳面までの瞳距離が数10mmであるのに対し、マイクロレンズ305の直径は数μmである。このため、マイクロレンズ305の絞り値が数万となり、数10mmレベルの回折ボケが生じる。よって、光電変換部の受光面の像は、明瞭な瞳領域や瞳部分領域とはならずに、受光感度特性(受光率の入射角分布)となる。 In imaging plane phase difference AF, the microlens 305 of the imaging element 122 is used to divide the pupil, so it is affected by diffraction. In FIG. 4, the pupil distance to the pupil plane of the image sensor 122 is several tens of mm, while the diameter of the microlens 305 is several μm. For this reason, the aperture value of the microlens 305 is in the tens of thousands, and diffraction blur on the order of tens of millimeters occurs. Therefore, the image of the light-receiving surface of the photoelectric conversion unit does not represent a clear pupil region or pupil partial region, but a light-receiving sensitivity characteristic (incident angle distribution of light-receiving rate).
次に、図5を参照して、撮像素子122と瞳分割との対応関係について説明する。図5は、撮像素子122と瞳分割との概略図である。第1瞳部分領域501と第2瞳部分領域502の異なる瞳部分領域を通過した光束は、撮像素子122の各画素に、それぞれ互いに異なる角度で入射し、2×1分割された第1焦点検出画素201と第2焦点検出画素202で受光される。本実施例は、瞳領域が水平方向に2つに瞳分割されている例である。必要に応じて、垂直方向に瞳分割を行っても良い。また、水平方向および垂直方向の両方に瞳分割を行っても良い。 Next, with reference to FIG. 5, the correspondence between the image sensor 122 and pupil divisions will be described. FIG. 5 is a schematic diagram of the image sensor 122 and pupil division. The light fluxes that have passed through different pupil partial areas, the first pupil partial area 501 and the second pupil partial area 502, enter each pixel of the image sensor 122 at different angles, and are divided into 2×1 for first focus detection. The light is received by the pixel 201 and the second focus detection pixel 202. This embodiment is an example in which the pupil area is divided into two pupils in the horizontal direction. If necessary, pupil division may be performed in the vertical direction. Further, pupil division may be performed both in the horizontal direction and in the vertical direction.
本実施例の撮像素子122は、第1焦点検出画素201および第2焦点検出画素202を有する撮像画素が複数配列されている。第1焦点検出画素201は、撮像光学系の第1瞳部分領域501を通過する光束を受光する。第2焦点検出画素202は、第1瞳部分領域501と異なる撮像光学系の第2瞳部分領域502を通過する光束を受光する。また撮像画素は、撮像光学系の第1瞳部分領域501と第2瞳部分領域502とを合わせた瞳領域500を通過する光束を受光する。 In the image sensor 122 of this embodiment, a plurality of image sensors including a first focus detection pixel 201 and a second focus detection pixel 202 are arranged. The first focus detection pixel 201 receives a light beam passing through the first pupil partial region 501 of the imaging optical system. The second focus detection pixel 202 receives a light flux that passes through a second pupil partial area 502 of the imaging optical system, which is different from the first pupil partial area 501 . Further, the imaging pixel receives a light flux that passes through a pupil region 500 that is a combination of a first pupil partial region 501 and a second pupil partial region 502 of the imaging optical system.
本実施例の撮像素子122では、それぞれの撮像画素が第1焦点検出画素201および第2焦点検出画素202から構成されている。必要に応じて、撮像画素と第1焦点検出画素201、第2焦点検出画素202を個別の画素構成とし、撮像画素配列の一部に、第1焦点検出画素2001および第2焦点検出画素202を部分的に配置する構成としても良い。 In the image sensor 122 of this embodiment, each image sensor is composed of a first focus detection pixel 201 and a second focus detection pixel 202. If necessary, the imaging pixel, the first focus detection pixel 201, and the second focus detection pixel 202 are made into individual pixel configurations, and the first focus detection pixel 2001 and the second focus detection pixel 202 are formed as part of the imaging pixel array. It may also be configured to be partially arranged.
本実施例では、撮像素子122の各画素の第1焦点検出画素201の受光信号を集めて第1焦点信号を生成し、各画素の第2焦点検出画素202の受光信号を集めて第2焦点信号を生成して焦点検出を行う。また、撮像素子122の画素ごとに、第1焦点検出画素201からの信号(第1焦点検出信号)と第2焦点検出画素202からの信号(第2焦点検出信号)とを加算することで、有効画素数Nの解像度の撮像信号(撮像画像)を生成する。なお各信号の生成方法は、本実施例での実施形態に限定されるものではなく、例えば第2焦点信号は、撮像信号と第1焦点信号との差分から生成しても良い。 In this embodiment, the light reception signals of the first focus detection pixel 201 of each pixel of the image sensor 122 are collected to generate the first focus signal, and the light reception signals of the second focus detection pixel 202 of each pixel are collected to generate the second focus signal. Generates a signal and performs focus detection. Furthermore, by adding the signal from the first focus detection pixel 201 (first focus detection signal) and the signal from the second focus detection pixel 202 (second focus detection signal) for each pixel of the image sensor 122, An imaging signal (captured image) with a resolution of N effective pixels is generated. Note that the method of generating each signal is not limited to the embodiment described in this example. For example, the second focus signal may be generated from the difference between the imaging signal and the first focus signal.
(デフォーカス量と像ずれ量の関係)
次に、図6を参照して、撮像素子122により取得される第1焦点検出信号と第2焦点検出信号のデフォーカス量と像ずれ量との関係について説明する。図6は、第1焦点検出信号と第2焦点検出信号のデフォーカス量と、第1焦点検出信号と第2焦点検出信号との間の像ずれ量との概略関係図である。撮像面800に撮像素子122が配置され、図4および図5と同様に、撮像素子122の瞳面が、第1瞳部分領域501と第2瞳部分領域502に2分割される。
(Relationship between defocus amount and image shift amount)
Next, with reference to FIG. 6, the relationship between the defocus amount and the image shift amount of the first focus detection signal and the second focus detection signal acquired by the image sensor 122 will be described. FIG. 6 is a schematic relationship diagram between the defocus amount of the first focus detection signal and the second focus detection signal and the image shift amount between the first focus detection signal and the second focus detection signal. The image sensor 122 is arranged on the image sensor 800, and the pupil plane of the image sensor 122 is divided into two into a first pupil partial area 501 and a second pupil partial area 502, similar to FIGS. 4 and 5.
デフォーカス量dは、被写体の結像位置から撮像面までの距離を大きさ|d|とし、被写体の結像位置が撮像面より被写体側にある前ピン状態を負符号(d<0)として定義される。また、被写体の結像位置が撮像面より被写体の反対側にある後ピン状態を、正符号(d>0)として定義される。被写体の結像位置が撮像面(合焦位置)にある合焦状態において、d=0である。図6において、被写体801は合焦状態(d=0)の例を示しており、被写体802は前ピン状態(d<0)の例を示している。前ピン状態(d<0)と後ピン状態(d>0)とを合わせて、デフォーカス状態(|d|>0)とする。 The defocus amount d is defined as the distance from the subject's imaging position to the imaging plane as size |d|, and the front focus state where the subject's imaging position is closer to the subject than the imaging plane is defined as a negative sign (d<0). defined. Further, a back focus state in which the imaging position of the subject is on the opposite side of the subject from the imaging plane is defined as a positive sign (d>0). In a focused state where the imaging position of the subject is on the imaging plane (focusing position), d=0. In FIG. 6, a subject 801 shows an example of an in-focus state (d=0), and a subject 802 shows an example of a front-focus state (d<0). The front focus state (d<0) and the back focus state (d>0) are combined to form a defocus state (|d|>0).
前ピン状態(d<0)では、被写体802からの光束のうち、第1瞳部分領域501(第2瞳部分領域502)を通過した光束は、一度、集光した後、光束の重心位置G1(G2)を中心として幅Γ1(Γ2)に広がり、撮像面800でボケた像となる。ボケた像は、撮像素子122に配列された各画素を構成する第1焦点検出画素201(第2焦点検出画素202)により受光され、第1焦点検出信号(第2焦点検出信号)が生成される。よって、第1焦点検出信号(第2焦点検出信号)は、撮像面800上の重心位置G1(G2)に、被写体802が幅Γ1(Γ2)にボケた被写体像として記録される。被写体像のボケ幅Γ1(Γ2)は、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加する。同様に、第1焦点検出信号と第2焦点検出信号との間の被写体像の像ずれ量p(=光束の重心位置の差G1-G2)の大きさ|p|も、デフォーカス量dの大きさ|d|が増加するのに伴い、概ね、比例して増加する。後ピン状態(d>0)でも、第1焦点検出信号と第2焦点検出信号との間の被写体像の像ずれ方向が前ピン状態と反対となるが、同様である。 In the front focus state (d<0), among the light fluxes from the subject 802, the light fluxes that have passed through the first pupil partial area 501 (second pupil partial area 502) are once condensed and then moved to the center of gravity G1 of the light beams. (G2) as the center and spreads to a width Γ1 (Γ2), resulting in a blurred image on the imaging surface 800. The blurred image is received by the first focus detection pixel 201 (second focus detection pixel 202) that constitutes each pixel arranged in the image sensor 122, and a first focus detection signal (second focus detection signal) is generated. Ru. Therefore, the first focus detection signal (second focus detection signal) is recorded as a subject image in which the subject 802 is blurred to a width Γ1 (Γ2) at the center of gravity position G1 (G2) on the imaging surface 800. The blur width Γ1 (Γ2) of the subject image generally increases in proportion as the magnitude |d| of the defocus amount d increases. Similarly, the magnitude |p| of the image shift amount p of the subject image between the first focus detection signal and the second focus detection signal (=difference G1-G2 in the center of gravity position of the luminous flux) is also equal to the defocus amount d. As the magnitude |d| increases, it generally increases proportionally. The same is true in the rear focus state (d>0), although the direction of image shift of the subject image between the first focus detection signal and the second focus detection signal is opposite to that in the front focus state.
したがって、本実施例では、第1焦点検出信号と第2焦点検出信号、または、第1焦点検出信号と第2焦点検出信号とを加算した撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号との間の像ずれ量の大きさが増加する。撮像信号のデフォーカス量の大きさが増加するのに伴い、第1焦点検出信号と第2焦点検出信号との間の像ずれ量の大きさが増加する。このような関係性から、基線長に基づいて算出された変換係数(デフォーカス換算係数)により、像ずれ量を検出デフォーカス量に変換して焦点検出を行う。 Therefore, in this embodiment, even though the magnitude of the defocus amount of the first focus detection signal and the second focus detection signal or the imaging signal obtained by adding the first focus detection signal and the second focus detection signal increases, Accordingly, the amount of image shift between the first focus detection signal and the second focus detection signal increases. As the amount of defocus of the imaging signal increases, the amount of image shift between the first focus detection signal and the second focus detection signal increases. Based on this relationship, focus detection is performed by converting the image shift amount into a detected defocus amount using a conversion coefficient (defocus conversion coefficient) calculated based on the base line length.
(基線長)
次に、図7(a)および図7(b)を参照して、基線長について説明する。基線長は、第1焦点検出画素201と第2焦点検出画素202の受光感度特性の重心差に基づいて算出される。図7(a)、(b)は透過率分布層がない場合の基線長の概略説明図であり、図7(a)は中央像高、図7(b)は周辺像高のそれぞれにおける開口、受光感度特性、および、基線長を示す。
(baseline length)
Next, the base line length will be explained with reference to FIGS. 7(a) and 7(b). The base line length is calculated based on the difference in the center of gravity of the light receiving sensitivity characteristics of the first focus detection pixel 201 and the second focus detection pixel 202. FIGS. 7(a) and 7(b) are schematic explanatory diagrams of the base line length when there is no transmittance distribution layer, and FIG. 7(a) is the aperture at the center image height, and FIG. 7(b) is the aperture at the peripheral image height. , the light-receiving sensitivity characteristics, and the baseline length.
中央像高では、図7(a)に示されるように、開口情報の1つである絞り102により受光可能な光束が規定されている。このため、第1焦点検出画素201の受光感度特性である第1受光感度特性701と、第2焦点検出画素202の受光感度特性である第2受光感度特性702のうち、受光可能な領域は絞り102の内側領域となる。したがって、第1受光感度特性701と第2受光感度特性702との重心差、すなわち基線長はBL711となる。 At the center image height, as shown in FIG. 7(a), the light flux that can be received is defined by the aperture 102, which is one of the aperture information. Therefore, of the first light receiving sensitivity characteristic 701 which is the light receiving sensitivity characteristic of the first focus detection pixel 201 and the second light receiving sensitivity characteristic 702 which is the light receiving sensitivity characteristic of the second focus detection pixel 202, the area where light can be received is the aperture. This is the inner area of 102. Therefore, the difference in the center of gravity between the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702, that is, the base line length is BL711.
一方、周辺像高では、図7(b)に示されるように、x<0側の光束を規定する開口情報の1つである下線枠401と、x>0側の光束を規定する開口情報の1つである上線枠402により、受光可能な光束が規定されている。このため、第1受光感度特性と第2受光感度特性のうち受光可能な領域は下線枠401と上線枠402とで囲まれた領域となり、第1受光感度特性701と第2受光感度特性702との重心差、すなわち基線長はBL712となる。 On the other hand, at the peripheral image height, as shown in FIG. 7(b), there is an underlined frame 401 that is one of the aperture information that defines the luminous flux on the x<0 side, and aperture information that defines the luminous flux on the x>0 side. An overlined frame 402, which is one of the above, defines the light flux that can be received. Therefore, the area where light can be received among the first light receiving sensitivity characteristic and the second light receiving sensitivity characteristic is the area surrounded by the underlined frame 401 and the overlined frame 402, and the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702 are The difference in the center of gravity, that is, the base line length is BL712.
このように基線長は、受光感度特性と、受光可能領域を規定する開口情報とに基づいて決定され、正確な基線長を算出するにはこれらの情報が必要となる。 In this way, the baseline length is determined based on the light-receiving sensitivity characteristics and the aperture information that defines the light-receiving area, and these pieces of information are required to calculate the accurate baseline length.
(透過率分布)
次に、図8を参照して、透過率分布層105について説明する。図8は、図8は、透過率分布層105の概略説明図である。透過率分布層105による瞳距離Dsにおける透過率分布810は、光軸中心をピークとして光軸から離れるにしたがって低くなる。このような透過率分布を配することで、ボケ像のエッジを滑らかにすることができ、通常の光学系では得られないボケ描写を実現し、写真の表現領域を広げることが可能となる。
(Transmittance distribution)
Next, the transmittance distribution layer 105 will be described with reference to FIG. 8. FIG. 8 is a schematic explanatory diagram of the transmittance distribution layer 105. The transmittance distribution 810 at the pupil distance Ds by the transmittance distribution layer 105 has a peak at the center of the optical axis and decreases as the distance from the optical axis increases. By arranging such a transmittance distribution, the edges of the blurred image can be smoothed, and it is possible to achieve a blur depiction that cannot be obtained with a normal optical system, thereby expanding the expressive range of photography.
しかし、透過率分布が一様でなくなることにより、基線長は、第1焦点検出画素201または第2焦点検出画素202の受光感度特性と、透過率分布層105の透過率分布とが掛け合わされた状態で決定される。このため基線長は、透過率分布を考慮して算出する必要がある。そこで本実施例では、透過率分布による基線長の変化に対応した開口情報を保持することで透過率分布の影響を考慮し、透過率分布層を有していないレンズと同様の振る舞いで基線長を算出することを可能する。 However, since the transmittance distribution is no longer uniform, the base line length is determined by multiplying the light receiving sensitivity characteristic of the first focus detection pixel 201 or the second focus detection pixel 202 by the transmittance distribution of the transmittance distribution layer 105. Determined by state. Therefore, the base line length needs to be calculated in consideration of the transmittance distribution. Therefore, in this example, the influence of the transmittance distribution is taken into account by holding aperture information that corresponds to changes in the base line length due to the transmittance distribution, and the baseline length is It is possible to calculate
(基線長と透過率分布)
次に、図9(a)および図9(b)を参照して、透過率分布層105がある場合の基線長について説明する。図9(a)、(b)は透過率分布層105がある場合の基線長の概略説明図であり、図9(a)は中央像高、図9(b)は周辺像高のそれぞれにおける開口、受光感度特性、および、基線長を示す。
(Baseline length and transmittance distribution)
Next, the base line length when the transmittance distribution layer 105 is present will be described with reference to FIGS. 9(a) and 9(b). 9(a) and 9(b) are schematic explanatory diagrams of the base line length when there is the transmittance distribution layer 105, and FIG. 9(a) is for the central image height, and FIG. 9(b) is for the peripheral image height. The aperture, light-receiving sensitivity characteristics, and baseline length are shown.
第3受光感度特性901および第4受光感度特性902は、第1受光感度特性701および第2受光感度特性702のそれぞれと透過率分布810とが掛け合わされた状態の受光感度特性である。第3受光感度特性901および第4受光感度特性902は、透過率分布810の特性に従って、第1受光感度特性701および第2受光感度特性702のそれぞれよりも、光軸から離れるにつれて受光感度が低くなっている。このため、透過率分布層105がある場合の基線長BL911は、透過率分布層105がない場合の基線長BL711よりも短くなる。周辺像高の基線長BL912も、透過率分布層105がない場合の基線長BL712によりも短くなる。ただし、開口部の形状および透過率分布が中心像高の場合と異なるため、周辺像高での変化率は中心像高と異なる。 The third light receiving sensitivity characteristic 901 and the fourth light receiving sensitivity characteristic 902 are light receiving sensitivity characteristics obtained by multiplying each of the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702 by the transmittance distribution 810. The third light receiving sensitivity characteristic 901 and the fourth light receiving sensitivity characteristic 902 have lower light receiving sensitivity as they move away from the optical axis than the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702, respectively, according to the characteristics of the transmittance distribution 810. It has become. Therefore, the base line length BL911 when the transmittance distribution layer 105 is present is shorter than the base line length BL711 when the transmittance distribution layer 105 is not present. The base line length BL912 of the peripheral image height is also shorter than the base line length BL712 when the transmittance distribution layer 105 is not provided. However, since the shape of the aperture and the transmittance distribution are different from those at the central image height, the rate of change at the peripheral image height is different from that at the central image height.
(透過率分布を考慮した基線長を示す開口情報)
透過率分布層105を有しない撮像光学系と同様の振る舞いで基線長を算出するには、透過率分布による基線長の変化に対応した、透過率分布の影響を考慮した開口情報を保持する必要がある。
(Aperture information indicating baseline length considering transmittance distribution)
In order to calculate the baseline length with the same behavior as an imaging optical system that does not have the transmittance distribution layer 105, it is necessary to maintain aperture information that takes into account the influence of the transmittance distribution, corresponding to the change in the baseline length due to the transmittance distribution. There is.
次に、図10(a)および図10(b)を参照して、透過率分布の影響を考慮した基線長を示す開口情報(第1開口情報)について説明する。図10は第1開口情報の概略説明図であり、図10(a)は中央像高、図10(b)は周辺像高における透過率分布を考慮した基線長を示す開口情報を示す。 Next, aperture information (first aperture information) indicating a baseline length in consideration of the influence of transmittance distribution will be described with reference to FIGS. 10(a) and 10(b). FIG. 10 is a schematic explanatory diagram of the first aperture information, in which FIG. 10(a) shows the aperture information indicating the base line length in consideration of the transmittance distribution at the central image height and FIG. 10(b) in consideration of the transmittance distribution at the peripheral image height.
図10(a)に示されるように、基線長絞り枠1000は、中央像高の透過率分布を考慮した基線長を示す基線長絞り枠(中央像高の第1開口情報)である。基線長絞り枠1000は、透過率分布層105がない状態の第1受光感度特性701、第2受光感度特性702に対する基線長が、透過率分布層105がある場合の基線長BL911と等しくなるように、絞り102の径を変化させたものである。基線長絞り枠1000は、透過率分布により基線長が短くなったことを考慮して、絞り102よりも小さい径となっている。基線長絞り枠1000を第1開口情報として保持し使用することで、透過率分布層105を有しない撮像光学系と同様の振る舞いで基線長を算出することが可能となる。 As shown in FIG. 10A, the long baseline aperture frame 1000 is a long baseline aperture frame (first aperture information for the central image height) that indicates a baseline length that takes into account the transmittance distribution at the central image height. The long baseline aperture frame 1000 is configured such that the baseline length for the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702 without the transmittance distribution layer 105 is equal to the baseline length BL911 when the transmittance distribution layer 105 is present. In this case, the diameter of the aperture 102 is changed. The long baseline aperture frame 1000 has a smaller diameter than the aperture 102 in consideration of the fact that the baseline length is shortened due to the transmittance distribution. By retaining and using the baseline long aperture frame 1000 as first aperture information, it becomes possible to calculate the baseline length with the same behavior as an imaging optical system that does not have the transmittance distribution layer 105.
図10(b)に示されるように、x<0側の基線長下線枠1001およびx>0側の基線長上線枠1002は、周辺像高の透過率分布を考慮した基線長を示す。これらは、透過率分布層105がない状態の第1受光感度特性701、第2受光感度特性702に対する基線長が、透過率分布層105がある場合の基線長BL912と等しくなるように、下線枠401と上線枠402の中心位置を変化させたものである。中心位置の変化方法は、透過率分布中心(透過率分布ピーク位置)と基線長下線枠1001までの距離と、透過率分布中心と基線長上線枠1002までの距離が等しくなるように変化させている。透過率分布中心までの距離を等しくした場合、基線長下線枠1001または基線長上線枠1002の一方が下線枠401、上線枠402よりも外側に位置する場合、外側とならない方の中心位置のみを変化させる。 As shown in FIG. 10B, a base line length underlined frame 1001 on the x<0 side and a base line length overlined frame 1002 on the x>0 side indicate the base line length in consideration of the transmittance distribution of the peripheral image height. These are set in the underlined box so that the baseline length for the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702 without the transmittance distribution layer 105 is equal to the baseline length BL912 in the case where the transmittance distribution layer 105 is present. 401 and the center position of the overlined frame 402 are changed. The method of changing the center position is to change it so that the distance between the transmittance distribution center (transmittance distribution peak position) and the baseline length underlined frame 1001 is equal to the distance between the transmittance distribution center and the baseline length overlined frame 1002. There is. When the distances to the transmittance distribution centers are made equal, if either the base length underline frame 1001 or the base line length upper line frame 1002 is located outside the underline frame 401 or the overline frame 402, only the center position of the one that is not outside is set. change.
本実施例では、下線枠401と上線枠402の中心位置を変化させて基線長下線枠1001および基線長上線枠1002を算出するが、中心位置の代わりに径を変化させて算出してもよい。基線長下線枠1001および基線長上線枠1002は、透過率分布により基線長が短くなったことを考慮して、下線枠401および上線枠402よりも内側に位置している。基線長下線枠1001および基線長上線枠1002を第1開口情報として保持し使用することで、透過率分布層を有していないレンズと同様の振る舞いで基線長を算出することが可能となる。 In this embodiment, the base line length underline frame 1001 and the base line length upper line frame 1002 are calculated by changing the center positions of the underline frame 401 and the overline frame 402, but they may be calculated by changing the diameter instead of the center position. . The base line length underline frame 1001 and the base line length upper line frame 1002 are located inside the underline frame 401 and the upper line frame 402 in consideration of the fact that the base line length is shortened due to the transmittance distribution. By retaining and using the baseline length underlined frame 1001 and the baseline length overlined frame 1002 as first aperture information, it becomes possible to calculate the baseline length with the same behavior as a lens without a transmittance distribution layer.
(処理フロー)
次に、図11を参照して、本実施例における開口情報取得について説明する。図11は、本実施例における開口情報取得(通信方法)のフローチャートである。図11の各ステップは、主に、レンズMPU117により実行される。
(Processing flow)
Next, with reference to FIG. 11, aperture information acquisition in this embodiment will be described. FIG. 11 is a flowchart of aperture information acquisition (communication method) in this embodiment. Each step in FIG. 11 is mainly executed by the lens MPU 117.
まず、ステップS1101において、レンズMPU117は、レンズユニット100の現在のズームステートを取得する。続いてステップS1102において、レンズMPU117は、レンズユニット100の現在のフォーカスステートを取得する。続いてステップS1103において、レンズMPU117は、マウントMを介した通信により、カメラMPU125により指定された像高情報を取得する。続いてステップS1104において、レンズMPU117は、現在の設定絞り値を取得する。 First, in step S1101, the lens MPU 117 acquires the current zoom state of the lens unit 100. Subsequently, in step S1102, the lens MPU 117 acquires the current focus state of the lens unit 100. Subsequently, in step S1103, the lens MPU 117 acquires image height information designated by the camera MPU 125 through communication via the mount M. Subsequently, in step S1104, the lens MPU 117 obtains the current set aperture value.
続いてステップS1105において、レンズMPU117は、第1開口情報が取得可能か否かを判定する。レンズメモリ118は、メモリ容量の削減のため、所定の絞り値以下の範囲でのみ第1開口情報を記憶している。透過率分布810は、光軸から離れるほど透過率が低くなり、光軸中心との透過率差が大きいため、光軸から離れた領域を多く含むほど基線長への影響が大きくなる。逆に、光軸中心近傍の領域のみの場合には、光軸中心との透過率差が小さいため、基線長への影響が小さい。このため、絞り値が大きい場合には絞り径が小さくなり光軸中心近傍の領域のみとなるため、透過率分布の基線長への影響は小さくなる。 Subsequently, in step S1105, the lens MPU 117 determines whether the first aperture information can be acquired. In order to reduce memory capacity, the lens memory 118 stores first aperture information only in a range below a predetermined aperture value. In the transmittance distribution 810, the transmittance decreases as the distance from the optical axis increases, and the difference in transmittance from the center of the optical axis increases. Therefore, the more regions farther from the optical axis are included, the greater the influence on the baseline length. Conversely, in the case of only a region near the center of the optical axis, the difference in transmittance from the center of the optical axis is small, so the influence on the baseline length is small. Therefore, when the aperture value is large, the aperture diameter becomes small and only the area near the center of the optical axis is covered, so that the influence of the transmittance distribution on the baseline length becomes small.
以上のことから、絞り値が大きい場合、基線長へ与える影響は小さくなる。このため、メモリ容量の削減のため、第1開口情報を保持する絞り値の範囲を所定絞り値よりも小さい範囲に限定している。そこで本実施例では、ステップS1105にてレンズメモリ118が第1開口情報を保持している場合(現在の絞り値が所定絞り値よりも小さい場合)、レンズMPU117は第1開口情報を取得可能であると判定し、ステップS1106に進む。一方、ステップS1105にてレンズメモリ118が第1開口情報を保持していない場合(現在の絞り値が所定絞り値よりも大きい場合)、ステップS1106をスキップし、レンズMPU117は第1開口情報を取得せずにステップS1107に進む。なお本実施例では、メモリ容量の削減のため、レンズメモリ118に第1開口情報を保持する範囲を限定しているが、設定可能な絞り値の全ての範囲で第1開口情報を保持し、必ずステップS1106へ進み、第1開口情報を取得してもよい。 From the above, when the aperture value is large, the influence on the baseline length becomes small. Therefore, in order to reduce memory capacity, the range of aperture values for which the first aperture information is held is limited to a range smaller than a predetermined aperture value. Therefore, in this embodiment, if the lens memory 118 holds the first aperture information in step S1105 (if the current aperture value is smaller than the predetermined aperture value), the lens MPU 117 can acquire the first aperture information. It is determined that there is, and the process advances to step S1106. On the other hand, if the lens memory 118 does not hold the first aperture information in step S1105 (if the current aperture value is larger than the predetermined aperture value), step S1106 is skipped, and the lens MPU 117 acquires the first aperture information. The process advances to step S1107 without doing so. Note that in this embodiment, in order to reduce memory capacity, the range in which the first aperture information is held in the lens memory 118 is limited, but the first aperture information is held in the entire range of settable aperture values, The process may always proceed to step S1106 to obtain the first aperture information.
ステップS1106において、レンズMPU117は、レンズメモリ118から、ステップS1101~S1104にて取得したズームステート、フォーカスステート、像高、および、設定絞り値に応じた第1開口情報を取得する。レンズメモリ118は、ズーム範囲を複数に分割したズームステート毎、フォーカス範囲を複数に分割したフォーカスステート毎、像高範囲を複数に分割した像高毎、および、所定絞り値範囲を複数に分割した絞り値毎に第1開口情報を記憶している。このため、現在のズームステート、フォーカスステート、絞り値、および、カメラMPU125により指定された像高における第1開口情報を、近傍ステートの第1開口情報から線形補間することにより算出して取得する。本実施例では、現在のズームステート、フォーカスステート、絞り値、および、カメラMPU125により指定された像高の第1開口情報を、線形補間にて算出することで取得するが、最近傍ステートの第1開口情報を取得してもよい。 In step S1106, the lens MPU 117 obtains first aperture information corresponding to the zoom state, focus state, image height, and set aperture value obtained in steps S1101 to S1104 from the lens memory 118. The lens memory 118 is stored for each zoom state in which the zoom range is divided into a plurality of parts, for each focus state in which the focus range is divided into a plurality of parts, for each image height in which the image height range is divided into a plurality of parts, and for each image height in which the predetermined aperture value range is divided into a plurality of parts. First aperture information is stored for each aperture value. Therefore, the current zoom state, focus state, aperture value, and first aperture information at the image height specified by the camera MPU 125 are calculated and obtained by linear interpolation from the first aperture information of neighboring states. In this embodiment, the current zoom state, focus state, aperture value, and first aperture information of the image height specified by the camera MPU 125 are obtained by calculating by linear interpolation. 1 aperture information may be acquired.
続いてステップS1107において、レンズMPU117は、第2開口情報を取得する。第2開口情報は、光量を示す開口情報であり、透過率分布810による減光を考慮して算出された開口情報である。図10を参照して説明したように、第1開口情報は、透過率分布の影響を考慮した基線長を示す開口情報である。光量を示す開口情報(第2開口情報)も同様に、透過率分布によって減光したことを考慮して、絞り102、下線枠401、および、上線枠402を変化させた開口情報である。本実施例では、周辺像高で下線枠と上線枠に分けて第2開口情報を算出してレンズメモリ118に保持しているが、光量が等しい1つの枠とみなして、1つの枠情報のみを第2開口情報として保持していてもよい。また本実施例では、第2開口情報を、光量を示す開口情報として説明したが、透過率分布810による深度への影響を考慮した、深度を示す開口情報であってもよい。また第2開口情報は、絞り値(絞り径)に関する情報であってもよい。その場合、ステップS1104にて取得した設定絞り値の情報を第2開口情報とし、ステップS1107での処理をスキップしてもよい。 Subsequently, in step S1107, the lens MPU 117 acquires second aperture information. The second aperture information is aperture information indicating the amount of light, and is aperture information calculated in consideration of light attenuation due to the transmittance distribution 810. As described with reference to FIG. 10, the first aperture information is aperture information indicating the baseline length in consideration of the influence of the transmittance distribution. Similarly, the aperture information indicating the amount of light (second aperture information) is aperture information in which the aperture 102, the underlined frame 401, and the overlined frame 402 are changed in consideration of light attenuation due to the transmittance distribution. In this embodiment, the second aperture information is calculated for the underlined frame and the overlined frame based on the peripheral image height and stored in the lens memory 118, but it is regarded as one frame with the same amount of light, and only one frame information is used. may be held as the second aperture information. Further, in this embodiment, the second aperture information has been described as aperture information indicating the amount of light, but it may be aperture information indicating depth in consideration of the influence of the transmittance distribution 810 on the depth. Further, the second aperture information may be information regarding an aperture value (aperture diameter). In that case, the information on the set aperture value acquired in step S1104 may be used as the second aperture information, and the process in step S1107 may be skipped.
続いてステップS1108において、レンズMPU117は、開口情報をカメラMPU125へ送信し、本フローを終了する。すなわちレンズMPU117は、ステップS1105にて第1開口情報を取得可能と判定した場合、第1開口情報および第2開口情報をカメラMPU125へ送信する。一方、レンズMPU117は、ステップS1105にて第1開口情報を取得できないと判定した場合、第2開口情報をカメラMPU125へ送信する。 Subsequently, in step S1108, the lens MPU 117 transmits the aperture information to the camera MPU 125, and ends this flow. That is, when the lens MPU 117 determines in step S1105 that the first aperture information can be acquired, the lens MPU 117 transmits the first aperture information and the second aperture information to the camera MPU 125. On the other hand, if the lens MPU 117 determines in step S1105 that the first aperture information cannot be acquired, it transmits the second aperture information to the camera MPU 125.
本実施例では、レンズMPU117は、像高に応じた第1開口情報を取得してカメラMPU125へ送信するが、これに限定されるものではない。例えば、レンズMPU117は、全像高の第1開口情報をまとめてカメラMPU125に送信し、カメラMPU125が像高に応じた第1開口情報を取得してもよい。この点は、ズームステート、フォーカスステート、または、設定絞り値に関しても同様である。 In this embodiment, the lens MPU 117 acquires the first aperture information according to the image height and transmits it to the camera MPU 125, but the invention is not limited to this. For example, the lens MPU 117 may transmit the first aperture information of the entire image height to the camera MPU 125, and the camera MPU 125 may acquire the first aperture information according to the image height. The same applies to the zoom state, focus state, or set aperture value.
また本実施例では、絞り値の範囲を複数に分割して保持し、線形補間することにより算出するが、絞り値の関数として第1開口情報を保持し、取得した絞り値に応じた関数にて算出してもよい。この点は、ズームステート、フォーカスステート、または、像高に関しても同様である。 In addition, in this embodiment, the aperture value range is divided into multiple parts and held, and calculation is performed by linear interpolation, but the first aperture information is held as a function of the aperture value, and the first aperture information is calculated as a function according to the obtained aperture value. It may be calculated by This also applies to the zoom state, focus state, or image height.
また本実施例では、特定の第1受光感度特性および第2受光感度特性に基づいて算出された第1開口情報のみを保持するが、これに限定されるものではない。例えば、特性の異なる複数パターンの第1受光感度特性および第2受光感度特性に基づいて算出された第1開口情報を保持し、撮像素子122の特性に基づいて第1開口情報を取得してもよい。 Further, in this embodiment, only the first aperture information calculated based on the specific first light-receiving sensitivity characteristic and second light-receiving sensitivity characteristic is held, but the present invention is not limited to this. For example, even if the first aperture information calculated based on the first light-receiving sensitivity characteristic and the second light-receiving sensitivity characteristic of multiple patterns with different characteristics is held, and the first aperture information is acquired based on the characteristics of the image sensor 122, good.
次に、本発明の実施例2について説明する。本実施例は、開口情報の取得を行う場所、および、取得後の開口情報の使用に関して実施例1と異なる。なお、本実施例における他の構成および動作は、実施例1と同様であるため、それらの説明は省略する。 Next, Example 2 of the present invention will be described. This embodiment differs from the first embodiment with respect to the location where the aperture information is acquired and the use of the aperture information after acquisition. Note that the other configurations and operations in this example are the same as in Example 1, so their descriptions will be omitted.
実施例1では、レンズMPU117がレンズユニット100のレンズメモリ118に記憶された第1開口情報および第2開口情報を取得してカメラMPU125へ送信する。一方、本実施例では、カメラMPU125がカメラ本体120のメモリ128に記憶された第1開口情報および第2開口情報を取得し、第1開口情報を用いてデフォーカス換算係数を算出する。 In the first embodiment, the lens MPU 117 acquires the first aperture information and the second aperture information stored in the lens memory 118 of the lens unit 100 and transmits them to the camera MPU 125. On the other hand, in this embodiment, the camera MPU 125 acquires the first aperture information and the second aperture information stored in the memory 128 of the camera body 120, and calculates the defocus conversion coefficient using the first aperture information.
(処理フロー)
以下、図12を参照して、本実施例におけるデフォーカス換算係数算出について説明する。図12は、本実施例におけるデフォーカス換算係数算出(通信方法)のフローチャートである。なお、図12の各ステップは、主に、カメラMPU125により実行される。
(Processing flow)
Hereinafter, with reference to FIG. 12, calculation of the defocus conversion coefficient in this embodiment will be described. FIG. 12 is a flowchart of defocus conversion coefficient calculation (communication method) in this embodiment. Note that each step in FIG. 12 is mainly executed by the camera MPU 125.
まず、ステップS1201において、カメラMPU125は、マウントMを介した通信によりレンズMPU117から、レンズユニット100の現在のズームステートを取得する。続いてステップS1202において、カメラMPU125は、マウントMを介した通信によりレンズMPU117から、レンズユニット100の現在のフォーカスステートを取得する。続いてステップS1203において、カメラMPU125は、デフォーカス算出を行う像高情報を取得する。続いてステップS1204において、カメラMPU125は、マウントMを介した通信によりレンズMPU117から、現在の設定絞り値を取得する。 First, in step S1201, the camera MPU 125 acquires the current zoom state of the lens unit 100 from the lens MPU 117 through communication via the mount M. Subsequently, in step S1202, the camera MPU 125 acquires the current focus state of the lens unit 100 from the lens MPU 117 through communication via the mount M. Subsequently, in step S1203, the camera MPU 125 acquires image height information for performing defocus calculation. Subsequently, in step S1204, the camera MPU 125 acquires the current set aperture value from the lens MPU 117 through communication via the mount M.
続いてステップS1205において、カメラMPU125は、マウントMを介した通信によりレンズMPU117から、レンズユニット100のレンズ識別番号(レンズIDなどのレンズ情報)を取得する。メモリ128は、レンズ識別番号毎(レンズユニット毎)に第1開口情報および第2開口情報が記憶している。すなわちメモリ128は、透過率分布層105を有するレンズユニットに関して、実施例1と同様に算出された第1開口情報および第2開口情報を保持している。一方、透過率分布層105を有しないレンズユニットに関しては、第1開口情報と第2開口情報とが同一であるため、メモリ128は、第1開口情報を保持せず、第2開口情報のみを保持している。 Subsequently, in step S1205, the camera MPU 125 acquires the lens identification number (lens information such as lens ID) of the lens unit 100 from the lens MPU 117 through communication via the mount M. The memory 128 stores first aperture information and second aperture information for each lens identification number (for each lens unit). That is, the memory 128 holds first aperture information and second aperture information calculated in the same manner as in the first embodiment regarding the lens unit having the transmittance distribution layer 105. On the other hand, for a lens unit that does not have the transmittance distribution layer 105, the first aperture information and the second aperture information are the same, so the memory 128 does not hold the first aperture information and only stores the second aperture information. keeping.
続いてステップS1206において、カメラMPU125(取得手段129a)は、ステップS1201~S1205にて取得したズームステート、フォーカスステート、像高、設定絞り値、および、レンズ識別番号に応じた第1開口情報を取得する。透過率分布層105を有していないレンズユニットのレンズ識別番号を取得した場合、カメラMPU125は、第2開口情報を第1開口情報として取得する。メモリ128は、レンズ識別番号毎に、ズーム範囲を複数に分割したズームステート毎、フォーカス範囲を複数に分割したフォーカスステート毎、像高範囲を複数に分割した像高毎、所定絞り値範囲を複数に分割した絞り値毎に第1開口情報を記憶している。このためカメラMPU125は、レンズ識別番号、現在のズームステート、フォーカスステート、設定絞り値、および、デフォーカス算出の像高における第1開口情報を、近傍ステートの第1開口情報から線形補間することにより算出して取得する。 Subsequently, in step S1206, the camera MPU 125 (obtaining means 129a) obtains the zoom state, focus state, image height, set aperture value, and first aperture information corresponding to the lens identification number obtained in steps S1201 to S1205. do. When acquiring the lens identification number of a lens unit that does not have the transmittance distribution layer 105, the camera MPU 125 acquires the second aperture information as the first aperture information. The memory 128 stores information for each lens identification number, each zoom state in which the zoom range is divided into a plurality of parts, each focus state in which the focus range is divided into a plurality of parts, each image height in which the image height range is divided into a plurality of parts, and a plurality of predetermined aperture value ranges. First aperture information is stored for each aperture value divided into. For this reason, the camera MPU 125 linearly interpolates the lens identification number, current zoom state, focus state, set aperture value, and first aperture information at the image height for defocus calculation from the first aperture information of neighboring states. Calculate and obtain.
続いてステップS1207において、カメラMPU125は、メモリ128から、ステップS1204にて取得した設定絞り値に応じた係数(以下の式(1)で表される基線長BLを算出するための関数の係数m000~m220)を取得する。ここで取得される係数は、ステップS1203にて取得した像高情報h、ステップS1206にて取得した第1開口情報の上線枠と絞り中心までの距離b1、下線枠と絞り中心までの距離b2に対する2次の関数の係数である。なお本実施例では、像高情報h、距離b1、b2に関する2次の関数における係数を取得するが、2次の関数に限定されるものではなく、1次の関数や3以上の関数であってもよい。また、変化の小さい変数に対する次数を小さくし、大きい変数の次数を大きくして、変数ごとに次数を異ならせてもよい。 Subsequently, in step S1207, the camera MPU 125 retrieves from the memory 128 a coefficient (coefficient m000 of a function for calculating the baseline length BL expressed by the following formula (1)) according to the set aperture value acquired in step S1204. ~m220). The coefficients acquired here are for the image height information h acquired in step S1203, the distance b1 between the overlined frame and the aperture center of the first aperture information acquired in step S1206, and the distance b2 between the underlined frame and the aperture center. It is a coefficient of a quadratic function. In this embodiment, coefficients in a quadratic function regarding the image height information h and distances b1 and b2 are obtained, but the coefficients are not limited to quadratic functions, and may be linear functions or functions of three or more. You can. Alternatively, the order may be made different for each variable by decreasing the order for variables with small changes and increasing the order for variables with large changes.
続いてステップS1208において、カメラMPU125(算出手段129b)は、像ずれ量をデフォーカス量に変換するためのデフォーカス換算係数Kを算出する。すなわちカメラMPU125は、ステップS1203にて取得した像高情報、ステップS1206にて取得した第1開口情報、および、ステップS1207にて取得した係数に基づいて、以下の式(1)、(2)を用いてデフォーカス換算係数Kを算出する。 Subsequently, in step S1208, the camera MPU 125 (calculating means 129b) calculates a defocus conversion coefficient K for converting the image shift amount into a defocus amount. That is, the camera MPU 125 calculates the following equations (1) and (2) based on the image height information obtained in step S1203, the first aperture information obtained in step S1206, and the coefficient obtained in step S1207. The defocus conversion coefficient K is calculated using the defocus conversion coefficient K.
ステップS1208を終えると、カメラMPU125は、デフォーカス換算係数算出の処理を終了する。そしてカメラMPU125は、撮像素子122からの対の像信号に対する相関演算により算出された像ずれ量に、図12のフローチャートに従って算出されたデフォーカス換算係数Kを掛けて、デフォーカス量を算出する。そしてカメラMPU125およびレンズMPU117は、算出したデフォーカス量に基づいてフォーカス制御(AF制御)を行う。 After completing step S1208, the camera MPU 125 ends the process of calculating the defocus conversion coefficient. Then, the camera MPU 125 calculates the defocus amount by multiplying the image shift amount calculated by the correlation calculation for the pair of image signals from the image sensor 122 by the defocus conversion coefficient K calculated according to the flowchart of FIG. Then, the camera MPU 125 and the lens MPU 117 perform focus control (AF control) based on the calculated defocus amount.
次に、本発明の実施例3について説明する。本実施例は、レンズユニット100とカメラ本体120との間に着脱可能なユニット(コンバータレンズユニット)が装着されている点で、実施例1と異なる。本実施例では、予め記憶された着脱可能なユニットが装着された状態の基線長を示す第3開口情報を取得し、着脱可能なユニットの光学情報と第2開口情報から第4開口情報を算出して開口情報を取得する場合について説明する。なお本実施例における他の構成および動作は、実施例1と同様であるため、それらの説明は省略する。 Next, Example 3 of the present invention will be described. This embodiment differs from the first embodiment in that a detachable unit (converter lens unit) is attached between the lens unit 100 and the camera body 120. In this embodiment, the third aperture information indicating the baseline length with the removable unit stored in advance is acquired, and the fourth aperture information is calculated from the optical information of the removable unit and the second aperture information. A case where aperture information is acquired will be explained. Note that the other configurations and operations in this example are the same as in Example 1, so their descriptions will be omitted.
まず、図13を参照して、本実施例における撮像装置の構成について説明する。図13は、本実施例における撮像装置10aのブロック図である。撮像装置10aは、レンズユニット(交換レンズ、レンズ装置)100と、カメラ本体(撮像装置本体)120と、レンズユニット100とカメラ本体120との間に着脱可能なユニット(コンバータレンズユニット600)を有するカメラシステムである。コンバータレンズユニット600は、マウントMを介してカメラ本体120と着脱可能に取り付けられ、マウントM2を介してレンズユニット100と着脱可能に取り付けられる。なお、図1と同様の構成には同じ参照番号を付し、説明を省略する。また本実施例において、レンズユニット100とカメラ本体120との間に着脱可能なユニットはコンバータレンズユニット600であるが、これに限定されるものではない。 First, with reference to FIG. 13, the configuration of the imaging device in this example will be described. FIG. 13 is a block diagram of the imaging device 10a in this embodiment. The imaging device 10a includes a lens unit (interchangeable lens, lens device) 100, a camera body (imaging device body) 120, and a detachable unit (converter lens unit 600) between the lens unit 100 and the camera body 120. It is a camera system. Converter lens unit 600 is detachably attached to camera body 120 via mount M, and detachably attached to lens unit 100 via mount M2. In addition, the same reference numerals are given to the same structure as FIG. 1, and description is abbreviate|omitted. Further, in this embodiment, the converter lens unit 600 is a unit that can be attached and detached between the lens unit 100 and the camera body 120, but the unit is not limited to this.
図13において、コンバータレンズユニット600は、コンバータレンズ601およびコンバータメモリ602を有し、被写体の光学像を形成するレンズユニット100の焦点距離を変更する撮影レンズである。なお、以下の説明では、コンバータレンズ601と区別するため、レンズユニット100を「マスターレンズ100」と呼ぶ。コンバータレンズユニット600が装着されると、第1レンズ群101、第2レンズ群103、および、コンバータレンズ601により、ズーム機能を実現する。コンバータメモリ602は、自動焦点調整に必要な光学情報(開口情報)を予め記憶している。レンズMPU117は、コンバータメモリ602に記憶された光学情報(開口情報)を取得可能に構成される。 In FIG. 13, a converter lens unit 600 is a photographic lens that includes a converter lens 601 and a converter memory 602, and changes the focal length of the lens unit 100 that forms an optical image of a subject. Note that in the following description, the lens unit 100 will be referred to as a "master lens 100" to distinguish it from the converter lens 601. When the converter lens unit 600 is attached, the first lens group 101, the second lens group 103, and the converter lens 601 realize a zoom function. Converter memory 602 stores in advance optical information (aperture information) necessary for automatic focus adjustment. Lens MPU 117 is configured to be able to acquire optical information (aperture information) stored in converter memory 602.
(処理フロー)
次に、図14を参照して、本実施例における開口情報取得について説明する。図14は、本実施例における開口情報取得(通信方法)のフローチャートである。図14の各ステップは、主に、レンズMPU117により実行される。
(Processing flow)
Next, with reference to FIG. 14, aperture information acquisition in this embodiment will be described. FIG. 14 is a flowchart of aperture information acquisition (communication method) in this embodiment. Each step in FIG. 14 is mainly executed by the lens MPU 117.
まず、ステップS1401において、レンズMPU117は、レンズユニット100の現在のズームステートを取得する。続いてステップS1402において、レンズMPU117は、レンズユニット100の現在のフォーカスステートを取得する。続いてステップS1403において、レンズMPU117は、マウントM、M2を介した通信により、カメラMPU125により指定された像高情報を取得する。続いてステップS1404において、レンズMPU117は、現在の設定絞り値を取得する。続いてステップS1405において、レンズMPU117は、第2開口情報を取得する。本実施例において、第2開口情報は、絞り値(絞り径)に関する情報である。 First, in step S1401, the lens MPU 117 obtains the current zoom state of the lens unit 100. Subsequently, in step S1402, the lens MPU 117 obtains the current focus state of the lens unit 100. Subsequently, in step S1403, the lens MPU 117 acquires image height information designated by the camera MPU 125 through communication via the mounts M and M2. Subsequently, in step S1404, the lens MPU 117 obtains the current set aperture value. Subsequently, in step S1405, the lens MPU 117 acquires second aperture information. In this embodiment, the second aperture information is information regarding the aperture value (aperture diameter).
続いてステップS1406において、レンズMPU117は、コンバータレンズユニット(着脱可能ユニット)600が装着されているか否かを判定する。ステップS1406にてコンバータレンズユニット600が装着されていると判定された場合、ステップS1407に進む。 Subsequently, in step S1406, the lens MPU 117 determines whether the converter lens unit (removable unit) 600 is attached. If it is determined in step S1406 that the converter lens unit 600 is attached, the process advances to step S1407.
ステップS1407において、レンズMPU117は、コンバータレンズユニット600から、コンバータレンズユニット600の光学情報を取得する。本実施例において、光学情報は、コンバータレンズユニット600の焦点距離倍率である。 In step S1407, the lens MPU 117 acquires optical information of the converter lens unit 600 from the converter lens unit 600. In this embodiment, the optical information is the focal length magnification of the converter lens unit 600.
続いてステップS1408において、レンズMPU117は、取得したズームステート、フォーカスステート、像高、および、設定絞り値に応じた第3開口情報を取得する。レンズメモリ118は、ズーム範囲を複数に分割したズームステート毎、フォーカス範囲を複数に分割したフォーカスステート毎、像高範囲を複数に分割した像高毎、および、所定絞り値範囲を複数に分割した絞り値毎に第3開口情報を記憶している。このためレンズMPU117は、現在のズームステート、フォーカスステート、設定絞り値、および、カメラMPU125により指定された像高における第3開口情報を、近傍ステートの第3開口情報から線形補間することにより算出し取得する。本実施例では、現在のズームステート、フォーカスステート、絞り値、および、カメラMPU125により指定された像高の第3開口情報を、線形補間にて算出することで取得するが、最近傍ステートの第3開口情報を取得してもよい。 Subsequently, in step S1408, the lens MPU 117 acquires the acquired zoom state, focus state, image height, and third aperture information according to the set aperture value. The lens memory 118 is stored for each zoom state in which the zoom range is divided into a plurality of parts, for each focus state in which the focus range is divided into a plurality of parts, for each image height in which the image height range is divided into a plurality of parts, and for each image height in which the predetermined aperture value range is divided into a plurality of parts. Third aperture information is stored for each aperture value. Therefore, the lens MPU 117 calculates the current zoom state, focus state, set aperture value, and third aperture information at the image height specified by the camera MPU 125 by linearly interpolating the third aperture information of neighboring states. get. In this embodiment, the current zoom state, focus state, aperture value, and third aperture information of the image height specified by the camera MPU 125 are obtained by calculating by linear interpolation. 3 aperture information may be acquired.
続いてステップS1409において、レンズMPU117は、取得した第2開口情報と、コンバータレンズユニット600の光学情報とに基づいて、第4開口情報を算出する。第4開口情報は、コンバータレンズユニット600が装着された状態での、絞り値(絞り径)に関する情報である。コンバータレンズユニット600が装着された状態での絞り値は、コンバータレンズユニット600の焦点距離倍率に比例する。このため、取得した第2開口情報と、コンバータレンズユニット600の光学情報とに基づいて、第4開口情報を算出することが可能である。本実施例では、コンバータレンズ601の光学情報として焦点距離倍率を用いて第4開口情報を算出するが、焦点距離倍率ではない光学情報を用いて算出を行ってもよい。 Subsequently, in step S1409, the lens MPU 117 calculates fourth aperture information based on the acquired second aperture information and the optical information of the converter lens unit 600. The fourth aperture information is information regarding the aperture value (aperture diameter) when the converter lens unit 600 is attached. The aperture value when the converter lens unit 600 is attached is proportional to the focal length magnification of the converter lens unit 600. Therefore, it is possible to calculate the fourth aperture information based on the acquired second aperture information and the optical information of the converter lens unit 600. In this embodiment, the fourth aperture information is calculated using the focal length magnification as the optical information of the converter lens 601, but the fourth aperture information may be calculated using optical information other than the focal length magnification.
ここで、図15を参照して、第3開口情報および第4開口情報について説明する。図15は、第3開口情報および第4開口情報の概略説明図である。図15(a)は、コンバータレンズユニット600が装着された状態の透過率分布層105の概略説明図である。コンバータレンズユニット600が装着されたことで、透過率分布層105は、コンバータレンズユニット600が装着されていない図8の場合よりも、受光面から離れて位置する。このため、透過率分布層105による瞳距離Dsにおける透過率分布811は、図8の透過率分布810を縮小したように分布する。 Here, the third aperture information and the fourth aperture information will be explained with reference to FIG. 15. FIG. 15 is a schematic explanatory diagram of the third aperture information and the fourth aperture information. FIG. 15A is a schematic explanatory diagram of the transmittance distribution layer 105 with the converter lens unit 600 attached. With the converter lens unit 600 attached, the transmittance distribution layer 105 is located further away from the light receiving surface than in the case of FIG. 8 where the converter lens unit 600 is not attached. Therefore, the transmittance distribution 811 at the pupil distance Ds by the transmittance distribution layer 105 is distributed as if the transmittance distribution 810 in FIG. 8 is reduced.
図15(b)は、コンバータレンズユニット600が装着された状態の基線長および第4開口情報の概略説明図である。第5受光感度特性1501および第6受光感度特性1502は、第1受光感度特性701および第2受光感度特性702のそれぞれと透過率分布811とが掛け合わされた状態の受光感度特性を示している。基線長BL1511は、透過率分布811の特性に従って、コンバータレンズユニット600が装着された状態での第5受光感度特性1501および第6受光感度特性1502に対する基線長である。基線長BL1511は、コンバータレンズユニット600が装着されていない状態での第3受光感度特性901および第4受光感度特性902に対する基線長BL911よりも短くなる。 FIG. 15(b) is a schematic explanatory diagram of the base line length and fourth aperture information when the converter lens unit 600 is attached. The fifth light-receiving sensitivity characteristic 1501 and the sixth light-receiving sensitivity characteristic 1502 indicate the light-receiving sensitivity characteristic obtained by multiplying each of the first light-receiving sensitivity characteristic 701 and the second light-receiving sensitivity characteristic 702 by the transmittance distribution 811. The base line length BL1511 is the base line length for the fifth light receiving sensitivity characteristic 1501 and the sixth light receiving sensitivity characteristic 1502 in a state where the converter lens unit 600 is attached, according to the characteristics of the transmittance distribution 811. The base line length BL1511 is shorter than the base line length BL911 for the third light receiving sensitivity characteristic 901 and the fourth light receiving sensitivity characteristic 902 in a state where the converter lens unit 600 is not attached.
また、コンバータレンズユニット600が装着された状態での絞り102は、コンバータレンズユニット600が装着されていない図9(a)の状態よりも、受光面から離れて位置する。このため、瞳距離Dsにおける絞り102の径は、コンバータレンズユニット600が装着されていない図9(a)の瞳距離Dsにおける絞り102の径よりも小さくなる。 Further, the aperture 102 in a state where the converter lens unit 600 is attached is located further away from the light receiving surface than in the state shown in FIG. 9A where the converter lens unit 600 is not attached. Therefore, the diameter of the aperture 102 at the pupil distance Ds is smaller than the diameter of the aperture 102 at the pupil distance Ds in FIG. 9A where the converter lens unit 600 is not attached.
図15(c)は、コンバータレンズユニット600が装着された状態での透過率分布層105を考慮した基線長を示す開口情報(第3開口情報)の概略説明図を示す。コンバータレンズユニット600が装着された状態の透過率分布を考慮した基線長を示す基線長絞り枠1510(第3開口情報)は、絞り102の径を変化させたものである。すなわち基線長絞り枠1510は、透過率分布層105がない状態での第1受光感度特性701および第2受光感度特性702に対する基線長が、透過率分布層105がある場合の基線長BL1511と等しくなるように、絞り102の径を変化させたものである。基線長絞り枠1510は、透過率分布により基線長が短くなったことを考慮して、絞り102よりも小さい径となっている。基線長絞り枠1510を第3開口情報として保持し使用することで、透過率分布層105を有していないレンズユニット100と同様の振る舞いで基線長を算出することが可能となる。 FIG. 15C is a schematic explanatory diagram of aperture information (third aperture information) indicating the base line length in consideration of the transmittance distribution layer 105 in a state where the converter lens unit 600 is attached. A baseline long aperture frame 1510 (third aperture information) indicating a baseline length in consideration of the transmittance distribution with the converter lens unit 600 attached is obtained by changing the diameter of the aperture 102. That is, in the baseline long aperture frame 1510, the baseline length for the first light receiving sensitivity characteristic 701 and the second light receiving sensitivity characteristic 702 without the transmittance distribution layer 105 is equal to the baseline length BL1511 in the case where the transmittance distribution layer 105 is present. The diameter of the diaphragm 102 is changed so that the diameter of the diaphragm 102 is changed. The baseline long aperture frame 1510 has a smaller diameter than the aperture 102 in consideration of the fact that the baseline length is shortened due to the transmittance distribution. By retaining and using the baseline long aperture frame 1510 as the third aperture information, it becomes possible to calculate the baseline length with the same behavior as the lens unit 100 that does not have the transmittance distribution layer 105.
続いて、図14のステップS1410において、レンズMPU117は、マウントM、M2を介した通信により、第3開口情報および第4開口情報をカメラMPU125へ送信する。ステップS1410を終えると、レンズMPU117は、開口情報取得の処理を終了する。 Subsequently, in step S1410 of FIG. 14, the lens MPU 117 transmits the third aperture information and the fourth aperture information to the camera MPU 125 through communication via the mounts M and M2. After completing step S1410, the lens MPU 117 ends the aperture information acquisition process.
次に、ステップS1406の判定にてコンバータレンズユニット600が装着されていない場合について説明する。ステップS1406の判定にてコンバータレンズユニット600が装着されていない場合、ステップS1411へ進む。 Next, a case will be described in which it is determined in step S1406 that the converter lens unit 600 is not attached. If it is determined in step S1406 that converter lens unit 600 is not attached, the process advances to step S1411.
ステップS1411において、レンズMPU117は、取得したズームステート、フォーカスステート、像高、および、設定絞り値に応じた第1開口情報を取得する。レンズメモリ118は、ズーム範囲を複数に分割したズームステート毎、フォーカス範囲を複数に分割したフォーカスステート毎、像高範囲を複数に分割した像高毎、所定絞り値範囲を複数に分割した絞り値毎に第1開口情報を記憶している。このためレンズMPU117は、現在のズームステート、フォーカスステート、絞り値、カメラMPU125により指定された像高における第1開口情報を、近傍ステートの第1開口情報から線形補間することにより算出し取得する。本実施例では、現在のズームステート、フォーカスステート、絞り値、および、カメラMPU125により指定された像高の第1開口情報を線形補間で算出して取得するが、レンズMPU117は、最近傍ステートの第1開口情報を取得してもよい。 In step S1411, the lens MPU 117 acquires the acquired zoom state, focus state, image height, and first aperture information according to the set aperture value. The lens memory 118 stores information for each zoom state in which the zoom range is divided into a plurality of parts, for each focus state in which the focus range is divided into a plurality of parts, for each image height in which the image height range is divided into a plurality of parts, and for each aperture value in which a predetermined aperture value range is divided into a plurality of parts. The first aperture information is stored for each time. Therefore, the lens MPU 117 calculates and obtains the first aperture information at the current zoom state, focus state, aperture value, and image height specified by the camera MPU 125 by linear interpolation from the first aperture information of neighboring states. In this embodiment, the current zoom state, focus state, aperture value, and first aperture information of the image height specified by the camera MPU 125 are calculated and acquired by linear interpolation, but the lens MPU 117 calculates and obtains the first aperture information of the current zoom state, focus state, aperture value, and image height specified by the camera MPU 125. First aperture information may be acquired.
続いてステップS1412において、レンズMPU117は、マウントM、M2を介した通信により、第1開口情報および第2開口情報をカメラMPU125へ送信する。ステップS1412を終えると、開口情報取得の処理を終了する。 Subsequently, in step S1412, the lens MPU 117 transmits the first aperture information and the second aperture information to the camera MPU 125 through communication via the mounts M and M2. Upon completion of step S1412, the aperture information acquisition process ends.
本実施例において、レンズMPU117は、取得した像高に応じた第1開口情報および第3開口情報取得して、カメラMPU125へ送信する。ただし本実施例は、これに限定されるものではなく、全ての像高の第1開口情報および第3開口情報をまとめてカメラMPU125に送信して、カメラMPU125にて、像高に応じた第1開口情報および第3開口情報を取得してもよい。この点は、ズームステート、フォーカスステート、または、設定絞り値に関しても同様である。 In this embodiment, the lens MPU 117 acquires first aperture information and third aperture information according to the acquired image height, and transmits the acquired information to the camera MPU 125. However, the present embodiment is not limited to this, and the first aperture information and the third aperture information for all image heights are sent together to the camera MPU 125, and the camera MPU 125 The first aperture information and the third aperture information may be acquired. The same applies to the zoom state, focus state, or set aperture value.
本実施例では、絞り値範囲を複数に分割して保持し、線形補間することにより算出したが、絞り値の関数として第1開口情報および第3開口情報を保持し、取得した絞り値に応じて関数にて算出してもよい。この点は、ズームステート、フォーカスステート、または、像高に関しても同様である。 In this example, the aperture value range is divided into a plurality of parts and held, and the calculation is performed by linear interpolation. However, the first aperture information and the third aperture information are held as a function of the aperture value, and the aperture value range is It may also be calculated using a function. This also applies to the zoom state, focus state, or image height.
本実施例では、特定の第1受光感度特性および第2受光感度特性に基づいて算出された第1開口情報および第3開口情報のみをレンズメモリ118に保持するが、これに限定されるものではない。レンズメモリ118は、特性の異なる複数パターンの第1受光感度特性および第2受光感度特性に基づいて算出された第1開口情報および第3開口情報を保持し、レンズMPU117は、撮像素子122の特性に応じて第1開口情報を取得してもよい。 In this embodiment, only the first aperture information and the third aperture information calculated based on the specific first light-receiving sensitivity characteristic and second light-receiving sensitivity characteristic are held in the lens memory 118, but the invention is not limited to this. do not have. The lens memory 118 holds first aperture information and third aperture information calculated based on a plurality of patterns of first light-receiving sensitivity characteristics and second light-receiving sensitivity characteristics having different characteristics, and the lens MPU 117 stores first aperture information and third aperture information calculated based on a plurality of patterns of first light-receiving sensitivity characteristics and second light-receiving sensitivity characteristics having different characteristics. The first aperture information may be acquired according to the following.
(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other examples)
The present invention provides a system or device with a program that implements one or more of the functions of the above-described embodiments via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
以上のように、各実施例において、レンズ装置(レンズユニット100)は、撮像装置(カメラ本体120)に着脱可能であり、撮像光学系、記憶手段(レンズメモリ118)、および、通信手段(レンズMPU117)を有する。撮像光学系は、光軸に関して回転対称な透過率分布層105を有する。記憶手段は、撮像光学系の開口情報を記憶する。通信手段は、開口情報を撮像装置に送信する。また開口情報は、透過率分布層を有する撮像光学系の基線長に関する第1開口情報を含む。 As described above, in each embodiment, the lens device (lens unit 100) is removably attached to the imaging device (camera body 120), and includes the imaging optical system, storage means (lens memory 118), and communication means (lens memory 118). MPU 117). The imaging optical system has a transmittance distribution layer 105 that is rotationally symmetrical about the optical axis. The storage means stores aperture information of the imaging optical system. The communication means transmits the aperture information to the imaging device. Further, the aperture information includes first aperture information regarding the baseline length of the imaging optical system having the transmittance distribution layer.
好ましくは、通信手段は、記憶手段に記憶された第1開口情報のうち、撮像光学系のズームステート、フォーカスステート、または、絞り値の少なくとも一つに応じた第1開口情報を撮像装置に送信する。また好ましくは、開口情報は、絞り値、光量、または、深度の少なくとも一つに関する第2開口情報を含む。また好ましくは、基線長は、撮像素子122の第1画素(第1焦点検出画素201)と第2画素(第2焦点検出画素202)の受光感度特性と、透過率分布層の透過率分布と、に基づいて決定される。 Preferably, the communication means transmits first aperture information corresponding to at least one of a zoom state, a focus state, or an aperture value of the imaging optical system, out of the first aperture information stored in the storage means, to the imaging device. do. Preferably, the aperture information includes second aperture information regarding at least one of the aperture value, the amount of light, and the depth. Preferably, the baseline length is based on the light receiving sensitivity characteristics of the first pixel (first focus detection pixel 201) and the second pixel (second focus detection pixel 202) of the image sensor 122, and the transmittance distribution of the transmittance distribution layer. , determined based on.
好ましくは、第1開口情報は、撮像光学系の絞りの外縁または撮像光学系の開口の外縁の少なくとも一つと、透過率分布層の透過率分布と、に基づいて決定される。より好ましくは、第1開口情報に基づく開口面積は、絞りの外縁で囲まれる面積および開口の外縁で囲まれる面積のそれぞれよりも小さい。また好ましくは、開口情報に基づく開口面積と、絞りの外縁で囲まれる面積または開口の外縁で囲まれる面積との差は、絞りの外縁の径が小さいほど小さくなる。また好ましくは、通信手段は、絞りの外縁の径が所定の径よりも小さい場合、第1開口情報を撮像装置に送信しない。また好ましくは、記憶手段は、絞りの外縁の径が所定の径よりも小さい場合、第1開口情報を記憶しない。また好ましくは、記憶手段は、撮像素子122の種類に応じた開口情報を記憶し、通信手段は、撮像素子の種類に応じた開口情報をカメラ本体に送信する。また好ましくは、通信手段は、開口情報を撮像装置の信号取得フレームごとに送信する。 Preferably, the first aperture information is determined based on at least one of the outer edge of the aperture of the imaging optical system or the outer edge of the aperture of the imaging optical system, and the transmittance distribution of the transmittance distribution layer. More preferably, the aperture area based on the first aperture information is smaller than each of the area surrounded by the outer edge of the aperture and the area surrounded by the outer edge of the aperture. Preferably, the difference between the aperture area based on the aperture information and the area surrounded by the outer edge of the aperture or the area surrounded by the outer edge of the aperture becomes smaller as the diameter of the outer edge of the aperture becomes smaller. Preferably, the communication means does not transmit the first aperture information to the imaging device when the diameter of the outer edge of the aperture is smaller than a predetermined diameter. Preferably, the storage means does not store the first aperture information when the diameter of the outer edge of the aperture is smaller than a predetermined diameter. Preferably, the storage means stores aperture information according to the type of the image sensor 122, and the communication means transmits the aperture information according to the type of the image sensor to the camera body. Preferably, the communication means transmits the aperture information for each signal acquisition frame of the imaging device.
好ましくは、レンズ装置と撮像装置との間にユニット(コンバータレンズユニット600)が着脱可能であり、開口情報は、ユニットがレンズ装置に装着されたときの基線長に関する第3開口情報を含む。より好ましくは、レンズ装置は、ユニットの光学情報と第2開口情報とに基づいて、第4開口情報を算出する算出手段(レンズMPU117)を有する。通信手段は、第3開口情報および第4開口情報を撮像装置に送信する。 Preferably, a unit (converter lens unit 600) is removably attachable between the lens device and the imaging device, and the aperture information includes third aperture information regarding the baseline length when the unit is attached to the lens device. More preferably, the lens device includes calculation means (lens MPU 117) that calculates the fourth aperture information based on the optical information of the unit and the second aperture information. The communication means transmits the third aperture information and the fourth aperture information to the imaging device.
また各実施例において、撮像装置は、レンズ装置が着脱可能であり、撮像素子、通信手段(カメラMPU125)、および、算出手段129bを有する。通信手段は、レンズ装置から、光軸に関して回転対称な透過率分布層を有する撮像光学系の開口情報を受信する。算出手段は、開口情報に基づいてデフォーカス換算係数を算出する。開口情報は、透過率分布層を有する撮像光学系の基線長に関する第1開口情報を含む。 Further, in each embodiment, the imaging device has a removable lens device, an imaging element, a communication means (camera MPU 125), and a calculation means 129b. The communication means receives, from the lens device, aperture information of an imaging optical system having a transmittance distribution layer that is rotationally symmetrical with respect to the optical axis. The calculation means calculates a defocus conversion coefficient based on the aperture information. The aperture information includes first aperture information regarding the baseline length of the imaging optical system having the transmittance distribution layer.
各実施例によれば、透過率分布層を有する撮像光学系の透過率分布を考慮して算出された開口情報を保持、通信することで、正確なデフォーカス量を算出することができる。このため各実施形態によれば、記憶容量および演算時間を増やすことなく、デフォーカス換算係数を算出可能なレンズ装置、撮像装置、通信方法、および、プログラムを提供することができる。 According to each embodiment, an accurate defocus amount can be calculated by holding and communicating aperture information calculated in consideration of the transmittance distribution of the imaging optical system having the transmittance distribution layer. Therefore, according to each embodiment, it is possible to provide a lens device, an imaging device, a communication method, and a program that can calculate a defocus conversion coefficient without increasing storage capacity and calculation time.
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.
100 レンズユニット(レンズ装置)
105 透過率分布層
117 レンズMPU(通信手段)
118 レンズメモリ(記憶手段)
100 Lens unit (lens device)
105 Transmittance distribution layer 117 Lens MPU (communication means)
118 Lens memory (storage means)
Claims (18)
光軸に関して回転対称な透過率分布層を有する撮像光学系と、
前記撮像光学系による撮像素子の受光可能領域を規定する開口情報を記憶する記憶手段と、
前記開口情報を前記撮像装置に送信する通信手段と、を有し、
前記開口情報は、前記撮像装置が焦点検出を行う際にデフォーカス換算係数を算出するために用いられ、前記透過率分布層による基線長の変化に対応する第1開口情報を含むことを特徴とするレンズ装置。 A lens device that can be attached to and detached from an imaging device,
an imaging optical system having a transmittance distribution layer rotationally symmetrical about the optical axis;
storage means for storing aperture information that defines a light-receiving area of the image sensor by the imaging optical system;
a communication means for transmitting the aperture information to the imaging device,
The aperture information is used to calculate a defocus conversion coefficient when the imaging device performs focus detection, and includes first aperture information corresponding to a change in baseline length due to the transmittance distribution layer. lens device.
前記第1開口情報は、前記絞りの前記開口径を規定する外縁または前記撮像光学系の開口の外縁の少なくとも一つと、前記透過率分布層の透過率分布と、に基づいて決定されることを特徴とする請求項1乃至4のいずれか一項に記載のレンズ装置。 The imaging optical system has a diaphragm that adjusts the amount of light during imaging by adjusting the aperture diameter,
The first aperture information is determined based on at least one of an outer edge defining the aperture diameter of the diaphragm or an outer edge of the aperture of the imaging optical system, and a transmittance distribution of the transmittance distribution layer. The lens device according to any one of claims 1 to 4, characterized in that:
前記通信手段は、前記撮像素子の種類に応じた前記開口情報を前記撮像装置に送信することを特徴とする請求項1乃至9のいずれか一項に記載のレンズ装置。 The storage means stores the aperture information according to the type of image sensor,
The lens device according to any one of claims 1 to 9, wherein the communication means transmits the aperture information according to the type of the image pickup device to the image pickup device.
前記開口情報は、前記ユニットが前記レンズ装置に装着されたときの基線長に関する第3開口情報を含むことを特徴とする請求項3に記載のレンズ装置。 A unit is removable between the lens device and the imaging device,
4. The lens device according to claim 3, wherein the aperture information includes third aperture information regarding a baseline length when the unit is attached to the lens device.
前記通信手段は、前記第3開口情報および前記第4開口情報を前記撮像装置に送信することを特徴とする請求項12または13に記載のレンズ装置。 further comprising calculation means for calculating fourth aperture information based on the optical information of the unit and the second aperture information,
14. The lens device according to claim 12, wherein the communication means transmits the third aperture information and the fourth aperture information to the imaging device.
撮像素子と、
前記レンズ装置から、光軸に関して回転対称な透過率分布層を有する撮像光学系による撮像素子の受光可能領域を規定する開口情報を受信する通信手段と、
前記開口情報に基づいてデフォーカス換算係数を算出する算出手段と、を有し、
前記開口情報は、前記透過率分布層による基線長の変化に対応する基線長に関する第1開口情報を含むことを特徴とする撮像装置。 An imaging device with a detachable lens device,
An image sensor and
communication means for receiving, from the lens device, aperture information that defines a light-receivable area of an imaging element by an imaging optical system having a transmittance distribution layer that is rotationally symmetrical with respect to the optical axis;
a calculation means for calculating a defocus conversion coefficient based on the aperture information,
The imaging device is characterized in that the aperture information includes first aperture information regarding a baseline length that corresponds to a change in baseline length due to the transmittance distribution layer.
前記レンズ装置の記憶手段から前記撮像光学系による撮像素子の受光可能領域を規定する開口情報を取得するステップと、
前記開口情報を前記撮像装置に送信するステップと、を有し、
前記開口情報は、前記撮像装置が焦点検出を行う際にデフォーカス換算係数を算出するために用いられ、前記透過率分布層による基線長の変化に対応する基線長に関する第1開口情報を含むことを特徴とする通信方法。 A communication method between an imaging device and a lens device including an imaging optical system having a transmittance distribution layer rotationally symmetrical with respect to an optical axis, the method comprising:
acquiring aperture information that defines a light-receiving area of an image sensor by the imaging optical system from a storage means of the lens device;
transmitting the aperture information to the imaging device,
The aperture information is used to calculate a defocus conversion coefficient when the imaging device performs focus detection, and includes first aperture information regarding a baseline length corresponding to a change in baseline length due to the transmittance distribution layer. A communication method characterized by:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204495A JP7395326B2 (en) | 2019-11-12 | 2019-11-12 | Lens device, imaging device, communication method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019204495A JP7395326B2 (en) | 2019-11-12 | 2019-11-12 | Lens device, imaging device, communication method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021076760A JP2021076760A (en) | 2021-05-20 |
JP7395326B2 true JP7395326B2 (en) | 2023-12-11 |
Family
ID=75899019
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019204495A Active JP7395326B2 (en) | 2019-11-12 | 2019-11-12 | Lens device, imaging device, communication method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7395326B2 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062732A (en) | 2003-08-20 | 2005-03-10 | Canon Inc | Photographing apparatus and apodization filter |
JP2005062459A (en) | 2003-08-12 | 2005-03-10 | Olympus Corp | Lens interchangeable type camera and camera system |
JP2010226708A (en) | 2009-02-25 | 2010-10-07 | Ricoh Co Ltd | Imaging device and method of setting initial value using imaging device |
WO2016038936A1 (en) | 2014-09-11 | 2016-03-17 | 富士フイルム株式会社 | Imaging device and focusing control method for same |
-
2019
- 2019-11-12 JP JP2019204495A patent/JP7395326B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005062459A (en) | 2003-08-12 | 2005-03-10 | Olympus Corp | Lens interchangeable type camera and camera system |
JP2005062732A (en) | 2003-08-20 | 2005-03-10 | Canon Inc | Photographing apparatus and apodization filter |
JP2010226708A (en) | 2009-02-25 | 2010-10-07 | Ricoh Co Ltd | Imaging device and method of setting initial value using imaging device |
WO2016038936A1 (en) | 2014-09-11 | 2016-03-17 | 富士フイルム株式会社 | Imaging device and focusing control method for same |
Also Published As
Publication number | Publication date |
---|---|
JP2021076760A (en) | 2021-05-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101987175B1 (en) | Control apparatus, control method, and storage medium | |
CN107431755B (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
US20140071322A1 (en) | Image pickup apparatus with image pickup device and control method for image pickup apparatus | |
JP7264192B2 (en) | Imaging element and imaging device | |
JP6381266B2 (en) | IMAGING DEVICE, CONTROL DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2017107204A (en) | Information processing apparatus and information processing method | |
JP6486041B2 (en) | Imaging apparatus and control method thereof | |
JP6854619B2 (en) | Focus detection device and method, imaging device, lens unit and imaging system | |
JP7171331B2 (en) | Imaging device | |
US11889186B2 (en) | Focus detection device, focus detection method, and image capture apparatus | |
JP7395326B2 (en) | Lens device, imaging device, communication method, and program | |
JP2017219782A (en) | Control device, imaging device, control method, program, and storage medium | |
JP2022103610A (en) | Lens device, image capturing device, method of controlling lens device, and program | |
JP6701023B2 (en) | Imaging device, image processing method, image processing system, and image processing program | |
JP2020171050A (en) | Image processing apparatus, imaging apparatus, image processing method, and storage medium | |
JP6685769B2 (en) | Information processing device, imaging device, and information processing method | |
JP6671868B2 (en) | Control device, imaging device, control method, program, and storage medium | |
JP7324160B2 (en) | Shooting control device, imaging device, shooting control method, and program | |
JP7522571B2 (en) | Imaging device, control method thereof, program, and storage medium | |
JP2017219786A (en) | Control device, imaging device, control method, program, and storage medium | |
JP6349624B2 (en) | Image sensor and focus detection apparatus | |
JP7005209B2 (en) | Image pickup device and its control method | |
JP7207874B2 (en) | CONTROL DEVICE, IMAGING DEVICE, CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM | |
JP2018022984A (en) | Image processing device, control method therefor, program and imaging device | |
JP6628617B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221111 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230801 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230925 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231031 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231129 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7395326 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |