JP7427368B2 - Control device, imaging device, control method, and program - Google Patents

Control device, imaging device, control method, and program Download PDF

Info

Publication number
JP7427368B2
JP7427368B2 JP2019089532A JP2019089532A JP7427368B2 JP 7427368 B2 JP7427368 B2 JP 7427368B2 JP 2019089532 A JP2019089532 A JP 2019089532A JP 2019089532 A JP2019089532 A JP 2019089532A JP 7427368 B2 JP7427368 B2 JP 7427368B2
Authority
JP
Japan
Prior art keywords
aperture
information
aperture information
unit
lens
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019089532A
Other languages
Japanese (ja)
Other versions
JP2020187159A (en
Inventor
優 稲垣
英之 浜野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019089532A priority Critical patent/JP7427368B2/en
Publication of JP2020187159A publication Critical patent/JP2020187159A/en
Application granted granted Critical
Publication of JP7427368B2 publication Critical patent/JP7427368B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、撮像光学系の開口情報を有する撮像装置に関する。 The present invention relates to an imaging device having aperture information of an imaging optical system.

従来、撮像光学系の透過光を制限する開口情報を用いて、焦点検出のための情報を算出する撮像装置が知られている。特許文献1には、光学系の各開口までの距離に関する開口データを取得し、焦点検出光学系の測距瞳と交換レンズの射出瞳とが互いに重なる重なり領域の重心の重心距離を算出し、重心距離に基づいて像ズレ量をデフォーカス量に変換する撮像装置が開示されている。特許文献2には、レンズに結像光束の入射角度範囲に関する情報を記憶し、カメラ本体に焦点検出用画素の受光感度特性の情報を記憶し、これらの情報に基づいて焦点調節制御のための情報を算出する撮像装置が開示されている。 2. Description of the Related Art Conventionally, imaging apparatuses are known that calculate information for focus detection using aperture information that limits transmitted light of an imaging optical system. Patent Document 1 discloses that aperture data regarding the distance to each aperture of the optical system is acquired, and the distance of the center of gravity of the overlapping region where the distance measuring pupil of the focus detection optical system and the exit pupil of the interchangeable lens overlap with each other is calculated, An imaging device is disclosed that converts an amount of image shift into an amount of defocus based on a center of gravity distance. Patent Document 2 discloses that the lens stores information regarding the incident angle range of the imaging light flux, the camera body stores information regarding the light receiving sensitivity characteristics of the focus detection pixels, and based on this information, the information for focus adjustment control is stored. An imaging device that calculates information is disclosed.

特許第5045801号公報Patent No. 5045801 特開2016-118697号公報Japanese Patent Application Publication No. 2016-118697

ところで、結像光学系を通過する光束を制限する開口としては、複数のレンズ開口や絞り開口だけでなく、カメラ本体が有するシャッタの開口などの種々の開口が存在する。また、撮影レンズとカメラ本体との間に光路長を調節するアダプタユニットや焦点距離を変換するコンバータレンズユニットなどを装着した場合、各ユニットが有する開口も、結像光学系を通過する光束を制限し得る。しかしながら、特許文献1や特許文献2には、複数の着脱可能なユニットの各々の開口情報の導出方法が開示されていない。 Incidentally, as apertures that limit the light flux passing through the imaging optical system, there are various apertures such as not only a plurality of lens apertures and aperture apertures but also a shutter aperture included in a camera body. Additionally, when an adapter unit that adjusts the optical path length or a converter lens unit that converts the focal length is installed between the photographic lens and the camera body, the aperture of each unit also limits the light flux that passes through the imaging optical system. It is possible. However, Patent Document 1 and Patent Document 2 do not disclose a method for deriving aperture information for each of a plurality of detachable units.

そこで本発明は、複数の着脱可能なユニットの各々の開口情報を高精度に算出可能な制御装置、撮像装置、制御方法、および、プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION Therefore, an object of the present invention is to provide a control device, an imaging device, a control method, and a program that can calculate aperture information of each of a plurality of detachable units with high precision.

本発明の一側面としての制御装置は、撮像装置に着脱可能な第1ユニットおよび第2ユニットのそれぞれを通過する光束の外縁を規定する開口の形状に関する第1開口情報および第2開口情報を取得する取得手段と、前記第1開口情報および前記第2開口情報に基づいて合成開口情報を算出する算出手段とを有する。 A control device according to one aspect of the present invention acquires first aperture information and second aperture information regarding the shape of an aperture that defines the outer edge of a luminous flux passing through each of a first unit and a second unit that are detachable from an imaging device. and a calculating means that calculates synthetic aperture information based on the first aperture information and the second aperture information.

本発明の他の側面としての撮像装置は、撮像素子と前記制御装置とを有する。 An imaging device according to another aspect of the present invention includes an imaging element and the control device.

本発明の他の側面としての制御方法は、撮像装置に着脱可能な第1ユニットおよび第2ユニットのそれぞれを通過する光束の外縁を規定する開口の形状に関する第1開口情報および第2開口情報を取得するステップと、前記第1開口情報および前記第2開口情報に基づいて合成開口情報を算出するステップとを有する。 A control method according to another aspect of the present invention provides first aperture information and second aperture information regarding the shape of an aperture that defines the outer edge of a luminous flux passing through each of a first unit and a second unit that are detachable from an imaging device. and calculating synthetic aperture information based on the first aperture information and the second aperture information.

本発明の他の側面としてのプログラムは、前記制御方法をコンピュータに実行させる。 A program according to another aspect of the present invention causes a computer to execute the control method.

本発明の他の目的及び特徴は、以下の実施形態において説明される。 Other objects and features of the invention are explained in the following embodiments.

本発明によれば、複数の着脱可能なユニットの各々の開口情報を高精度に算出可能な制御装置、撮像装置、制御方法、および、プログラムを提供することができる。 According to the present invention, it is possible to provide a control device, an imaging device, a control method, and a program that can calculate aperture information of each of a plurality of detachable units with high precision.

本実施形態における撮像装置のブロック図である。FIG. 1 is a block diagram of an imaging device in this embodiment. 本実施形態におけるレンズユニットとカメラ本体との間に着脱可能なユニットを装着した撮像装置のブロック図である。FIG. 2 is a block diagram of an imaging apparatus in which a detachable unit is installed between a lens unit and a camera body according to the present embodiment. 本実施形態における開口情報の概略説明図である。FIG. 3 is a schematic explanatory diagram of aperture information in this embodiment. 本実施形態における開口情報の算出方法の概略説明図である。FIG. 2 is a schematic explanatory diagram of a method of calculating aperture information in this embodiment. 本実施形態における開口情報の算出方法の概略説明図である。FIG. 2 is a schematic explanatory diagram of a method of calculating aperture information in this embodiment. 本実施形態における開口情報を絞りの中心位置からの距離に関する情報で表現した場合の概略説明図である。FIG. 3 is a schematic explanatory diagram when aperture information in this embodiment is expressed as information regarding the distance from the center position of the diaphragm. 本実施形態における撮像光学系を通過した光束がカメラ本体の一部により遮られている状況を示す図である。FIG. 3 is a diagram showing a situation in which a light beam passing through an imaging optical system in this embodiment is blocked by a part of the camera body. 本実施形態における開口情報の取得方法を示すフローチャートである。3 is a flowchart showing a method for acquiring aperture information in this embodiment. 本実施形態における開口情報の属性情報の例である。It is an example of the attribute information of opening information in this embodiment. 本実施形態におけるデフォーカス量に依存する開口情報の説明図である。FIG. 7 is an explanatory diagram of aperture information depending on the amount of defocus in this embodiment. 本実施形態における各ユニットの開口情報と結像光学系を通過する光束の外縁を規定する開口の形状の説明図である。FIG. 3 is an explanatory diagram of the aperture information of each unit and the shape of the aperture that defines the outer edge of the light beam passing through the imaging optical system in the present embodiment. 本実施形態における各ユニットの通信情報と演算処理部を示すブロック図である。FIG. 3 is a block diagram showing communication information and arithmetic processing units of each unit in this embodiment.

以下、本発明の実施形態について、図面を参照しながら詳細に説明する。 Embodiments of the present invention will be described in detail below with reference to the drawings.

(撮像装置10の構成)
まず、図1を参照して、本実施形態における撮像装置の構成について説明する。図1は、本実施形態における撮像装置10(レンズ交換可能な一眼レフタイプのデジタルカメラ)のブロック図である。撮像装置10は、レンズユニット(第1ユニットとしてのレンズ装置)100とカメラ本体120とを有するカメラシステムである。レンズユニット100は、図1中の点線で示されるマウントMを介して、カメラ本体120と着脱可能に取り付けられる。ただし本実施形態は、これに限定されるものではなく、レンズユニット(撮像光学系)とカメラ本体とが一体的に構成された撮像装置(デジタルカメラ)にも適用可能である。また本実施形態は、デジタルカメラに限定されるものではなく、ビデオカメラなど他の撮像装置にも適用可能である。
(Configuration of imaging device 10)
First, with reference to FIG. 1, the configuration of the imaging device in this embodiment will be described. FIG. 1 is a block diagram of an imaging device 10 (single-lens reflex digital camera with interchangeable lenses) in this embodiment. The imaging device 10 is a camera system that includes a lens unit (lens device as a first unit) 100 and a camera body 120. The lens unit 100 is detachably attached to the camera body 120 via a mount M shown by a dotted line in FIG. However, this embodiment is not limited to this, and can also be applied to an imaging device (digital camera) in which a lens unit (imaging optical system) and a camera body are integrally configured. Furthermore, the present embodiment is not limited to digital cameras, but can also be applied to other imaging devices such as video cameras.

レンズユニット100は、光学系としての第1レンズ群101、絞り102、第2レンズ群103、および、フォーカスレンズ群(以下、単に「フォーカスレンズ」という)104と、駆動/制御系とを有する。このようにレンズユニット100は、フォーカスレンズ104を含み、被写体像を形成する撮影レンズ(撮像光学系)である。 The lens unit 100 includes a first lens group 101 as an optical system, an aperture 102, a second lens group 103, a focus lens group (hereinafter simply referred to as "focus lens") 104, and a drive/control system. In this way, the lens unit 100 is a photographic lens (imaging optical system) that includes the focus lens 104 and forms a subject image.

第1レンズ群101は、レンズユニット100の先端に配置され、光軸方向OAに進退可能に保持される。絞り102は、その開口径を調節することで撮影時の光量調節を行い、また静止画撮影時においては露光秒時調節用シャッタとして機能する。絞り102および第2レンズ群103は、一体的に光軸方向OAに移動可能であり、第1レンズ群101の進退動作との連動によりズーム機能を実現する。フォーカスレンズ104は、光軸方向OAに移動可能であり、その位置に応じてレンズユニット100が合焦する被写体距離(合焦距離)が変化する。フォーカスレンズ104の光軸方向OAにおける位置を制御することにより、レンズユニット100の合焦距離を調節する焦点調節(フォーカス制御)が可能である。 The first lens group 101 is disposed at the tip of the lens unit 100 and is held movable in the optical axis direction OA. The diaphragm 102 adjusts the amount of light during photographing by adjusting its aperture diameter, and also functions as a shutter for adjusting the exposure time during still image photographing. The diaphragm 102 and the second lens group 103 are movable together in the optical axis direction OA, and achieve a zoom function in conjunction with the forward and backward movements of the first lens group 101. The focus lens 104 is movable in the optical axis direction OA, and the subject distance (focusing distance) on which the lens unit 100 focuses changes depending on its position. By controlling the position of the focus lens 104 in the optical axis direction OA, focus adjustment (focus control) that adjusts the focusing distance of the lens unit 100 is possible.

駆動/制御系は、ズームアクチュエータ111、絞りアクチュエータ112、フォーカスアクチュエータ113、ズーム駆動回路114、絞り駆動回路115、フォーカス駆動回路116、レンズMPU117、及び、レンズメモリ118を有する。ズーム駆動回路114は、ズームアクチュエータ111を用いて第1レンズ群101や第3レンズ群103を光軸方向OAに駆動し、レンズユニット100の光学系の画角を制御する(ズーム操作を行う)。また、ズーム駆動回路114は、ズームアクチュエータ111を用いて第1レンズ群101や第3レンズ群103の現在位置(ズームステート)を検出する位置検出部としての機能を有する。絞り駆動回路115は、絞りアクチュエータ112を用いて絞り102を駆動し、絞り102の開口径や開閉動作を制御する。フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104を光軸方向OAに駆動し、レンズユニット100の光学系の合焦距離を制御する(フォーカス制御を行う)。また、フォーカス駆動回路116は、フォーカスアクチュエータ113を用いてフォーカスレンズ104の現在位置(フォーカスステート)を検出する位置検出部としての機能を有する。 The drive/control system includes a zoom actuator 111, an aperture actuator 112, a focus actuator 113, a zoom drive circuit 114, an aperture drive circuit 115, a focus drive circuit 116, a lens MPU 117, and a lens memory 118. The zoom drive circuit 114 uses the zoom actuator 111 to drive the first lens group 101 and the third lens group 103 in the optical axis direction OA, and controls the angle of view of the optical system of the lens unit 100 (performs a zoom operation). . Further, the zoom drive circuit 114 has a function as a position detection unit that uses the zoom actuator 111 to detect the current position (zoom state) of the first lens group 101 and the third lens group 103. The diaphragm drive circuit 115 drives the diaphragm 102 using the diaphragm actuator 112, and controls the aperture diameter and opening/closing operation of the diaphragm 102. The focus drive circuit 116 drives the focus lens 104 in the optical axis direction OA using the focus actuator 113 to control the focusing distance of the optical system of the lens unit 100 (performs focus control). Further, the focus drive circuit 116 has a function as a position detection unit that detects the current position (focus state) of the focus lens 104 using the focus actuator 113.

レンズMPU(プロセッサ、送信手段)117は、レンズユニット100に係る全ての演算、制御を行い、ズーム駆動回路114、絞り駆動回路115、および、フォーカス駆動回路116を制御する。また、レンズMPU117は、マウントMの複数のチャンネルを通じてカメラMPU125と接続され、コマンドやデータを通信する。例えば、レンズMPU117は、フォーカスレンズ104の位置を検出し、カメラMPU125からの要求に対してレンズ位置情報を通知する。このレンズ位置情報は、フォーカスレンズ104の光軸方向OAにおける位置、光学系が移動していない状態の射出瞳の光軸方向OAにおける位置および直径、および、射出瞳の光束を制限するレンズ枠の光軸方向OAにおける位置および直径などの情報を含む。また、レンズMPU117は、カメラMPU125からの要求に応じて、ズーム駆動回路114、絞り駆動回路115、および、フォーカス駆動回路116を制御する。 A lens MPU (processor, transmitter) 117 performs all calculations and controls related to the lens unit 100, and controls a zoom drive circuit 114, an aperture drive circuit 115, and a focus drive circuit 116. Further, the lens MPU 117 is connected to the camera MPU 125 through a plurality of channels of the mount M, and communicates commands and data. For example, the lens MPU 117 detects the position of the focus lens 104 and notifies lens position information in response to a request from the camera MPU 125. This lens position information includes the position of the focus lens 104 in the optical axis direction OA, the position and diameter of the exit pupil in the optical axis direction OA when the optical system is not moving, and the position of the lens frame that limits the light flux of the exit pupil. It includes information such as the position and diameter in the optical axis direction OA. Further, the lens MPU 117 controls the zoom drive circuit 114, the aperture drive circuit 115, and the focus drive circuit 116 in response to a request from the camera MPU 125.

レンズメモリ(記憶手段)118は、自動焦点調節(AF制御)に必要な光学情報(開口情報)を記憶している。レンズMPU117は、カメラMPU125からの要求に応じて、光学情報(開口情報)をカメラMPU125へ定期的または一括して送信する。また、カメラMPU125は、例えば内蔵の不揮発性メモリやレンズメモリ118に記憶されているプログラムを実行することにより、レンズユニット100の動作を制御する。 A lens memory (storage means) 118 stores optical information (aperture information) necessary for automatic focus adjustment (AF control). Lens MPU 117 transmits optical information (aperture information) to camera MPU 125 periodically or all at once in response to a request from camera MPU 125 . Further, the camera MPU 125 controls the operation of the lens unit 100 by executing a program stored in the built-in nonvolatile memory or the lens memory 118, for example.

カメラ本体120は、シャッターユニット131、光学的ローパスフィルタ121、撮像素子122、および、駆動/制御系を有する。シャッターユニット131は、矩形の開口を有し、開口内を走行する2枚の遮光膜のスリット幅を利用して撮影光量を調節する。光学的ローパスフィルタ121および撮像素子122は、レンズユニット100を介して形成された被写体像(光学像)を光電変換し、画像データを出力する撮像部(撮像手段)として機能する。本実施形態において、撮像素子122は、撮像光学系を介して形成された被写体像を光電変換し、画像データとして、撮像信号および焦点検出信号をそれぞれ出力する。また本実施形態において、第1レンズ群101、絞り102、第2レンズ群103、フォーカスレンズ104、および、光学的ローパスフィルタ121は、撮像光学系を構成する。 The camera body 120 includes a shutter unit 131, an optical low-pass filter 121, an image sensor 122, and a drive/control system. The shutter unit 131 has a rectangular opening, and adjusts the amount of photographing light using the slit width of two light-shielding films running inside the opening. The optical low-pass filter 121 and the imaging device 122 function as an imaging unit (imaging means) that photoelectrically converts a subject image (optical image) formed through the lens unit 100 and outputs image data. In this embodiment, the image sensor 122 photoelectrically converts a subject image formed through an imaging optical system, and outputs an imaging signal and a focus detection signal as image data. Further, in this embodiment, the first lens group 101, the diaphragm 102, the second lens group 103, the focus lens 104, and the optical low-pass filter 121 constitute an imaging optical system.

光学的ローパスフィルタ121は、撮影画像の偽色やモアレを軽減する。撮像素子122は、CMOSイメージセンサおよびその周辺回路で構成され、横方向m画素、縦方向n画素(m、nは2以上の整数)が配置されている。本実施形態の撮像素子122は、瞳分割機能を有し、画像データ(画像信号)を用いた位相差検出方式の焦点検出(位相差AF)が可能な瞳分割画素を有する。画像処理回路124は、撮像素子122から出力される画像データに基づいて、位相差AF用のデータと、表示、記録、およびコントラストAF(TVAF)用の画像データとを生成する。 The optical low-pass filter 121 reduces false colors and moiré in captured images. The image sensor 122 is composed of a CMOS image sensor and its peripheral circuit, and has m pixels in the horizontal direction and n pixels in the vertical direction (m and n are integers of 2 or more). The image sensor 122 of this embodiment has a pupil division pixel that has a pupil division function and can perform focus detection (phase difference AF) using a phase difference detection method using image data (image signal). The image processing circuit 124 generates data for phase difference AF and image data for display, recording, and contrast AF (TVAF) based on the image data output from the image sensor 122.

駆動/制御系は、撮像素子駆動回路123、画像処理回路124、カメラMPU125、表示器126、操作スイッチ群(操作SW)127、メモリ128、位相差AF部129(撮像面位相差焦点検出部)およびTVAF部130(TVAF焦点検出部)を有する。撮像素子駆動回路123は、撮像素子122の動作を制御するとともに、撮像素子122から出力された画像信号(画像データ)をA/D変換し、カメラMPU125に送信する。画像処理回路124は、撮像素子122から出力された画像信号に対して、γ変換、ホワイトバランス調整処理、色補間処理、圧縮符号化処理など、デジタルカメラで行われる一般的な画像処理を行う。また画像処理回路124は、位相差AF用の信号を生成する。 The drive/control system includes an image sensor drive circuit 123, an image processing circuit 124, a camera MPU 125, a display 126, an operation switch group (operation SW) 127, a memory 128, and a phase difference AF section 129 (imaging surface phase difference focus detection section). and a TVAF section 130 (TVAF focus detection section). The image sensor drive circuit 123 controls the operation of the image sensor 122, performs A/D conversion on an image signal (image data) output from the image sensor 122, and transmits the converted image signal to the camera MPU 125. The image processing circuit 124 performs general image processing performed in a digital camera, such as γ conversion, white balance adjustment processing, color interpolation processing, and compression encoding processing, on the image signal output from the image sensor 122. The image processing circuit 124 also generates a signal for phase difference AF.

カメラMPU125(プロセッサ、制御装置)は、カメラ本体120に係る全ての演算および制御を行う。すなわちカメラMPU125は、撮像素子駆動回路123、画像処理回路124、表示器126、操作スイッチ群127、メモリ128、位相差AF部129、および、TVAF部130を制御する。カメラMPU125は、マウントMの信号線を介してレンズMPU117と接続され、レンズMPU117とコマンドやデータを通信する。カメラMPU125は、レンズMPU117に対して、レンズ位置の取得や所定の駆動量でのレンズ駆動要求を発行し、また、レンズMPU117からレンズユニット100に固有の光学情報の取得要求などを発行する。 The camera MPU 125 (processor, control device) performs all calculations and controls related to the camera body 120. That is, the camera MPU 125 controls the image sensor drive circuit 123, the image processing circuit 124, the display 126, the operation switch group 127, the memory 128, the phase difference AF section 129, and the TVAF section 130. The camera MPU 125 is connected to the lens MPU 117 via the signal line of the mount M, and communicates commands and data with the lens MPU 117. The camera MPU 125 issues a request to the lens MPU 117 to acquire the lens position and drive the lens with a predetermined drive amount, and also issues a request from the lens MPU 117 to acquire optical information specific to the lens unit 100 .

カメラMPU125には、カメラ本体120の動作を制御するプログラムを格納したROM125a、変数を記憶するRAM125b(カメラメモリ)、および、各種のパラメータを記憶するEEPROM125cが内蔵されている。またカメラMPU125は、ROM125aに格納されているプログラムに基づいて、焦点検出処理を実行する。焦点検出処理においては、撮像光学系の互いに異なる瞳領域(瞳部分領域)を通過した光束により形成される光学像を光電変換した対の像信号を用いて、公知の相関演算処理が実行される。またカメラMPU125は、取得手段125dおよび算出手段125eを有する。これらの各手段の動作については後述する。なお、カメラMPU125の少なくとも一部の手段(取得手段125dまたは算出手段125eの一部)を、位相差AF部129などの他の部位に設けてもよい。 The camera MPU 125 includes a ROM 125a that stores a program for controlling the operation of the camera body 120, a RAM 125b (camera memory) that stores variables, and an EEPROM 125c that stores various parameters. Further, the camera MPU 125 executes focus detection processing based on a program stored in the ROM 125a. In the focus detection process, a known correlation calculation process is performed using a pair of image signals obtained by photoelectrically converting an optical image formed by a light flux that has passed through different pupil areas (pupil partial areas) of the imaging optical system. . The camera MPU 125 also includes an acquisition means 125d and a calculation means 125e. The operation of each of these means will be described later. Note that at least a part of the means of the camera MPU 125 (a part of the acquisition means 125d or the calculation means 125e) may be provided in other parts such as the phase difference AF section 129.

表示器126はLCDなどから構成され、撮像装置10の撮影モードに関する情報、撮影前のプレビュー画像と撮影後の確認用画像、焦点検出時の合焦状態表示画像などを表示する。操作スイッチ群127は、電源スイッチ、レリーズ(撮影トリガ)スイッチ、ズーム操作スイッチ、撮影モード選択スイッチなどで構成される。メモリ(記録手段)128は、着脱可能なフラッシュメモリであり、撮影済み画像を記録する。 The display 126 is composed of an LCD or the like, and displays information regarding the photographing mode of the imaging device 10, a preview image before photographing, a confirmation image after photographing, a focus state display image at the time of focus detection, and the like. The operation switch group 127 includes a power switch, a release (shooting trigger) switch, a zoom operation switch, a shooting mode selection switch, and the like. The memory (recording means) 128 is a removable flash memory and records captured images.

位相差AF部(デフォーカス量算出手段)129は、撮像素子122および画像処理回路124から得られる焦点検出用画像データの像信号に基づいて、位相差検出方式による焦点検出処理を行う。より具体的には、画像処理回路124は、撮像光学系の一対の瞳領域を通過する光束で形成される一対の像データを焦点検出用データとして生成し、位相差AF部129は、一対の像データのずれ量に基づいて焦点ずれ量を検出する。このように、本実施形態の位相差AF部129は、専用のAFセンサを用いず、撮像素子122の出力に基づく位相差AF(撮像面位相差AF)を行う。 The phase difference AF unit (defocus amount calculation means) 129 performs focus detection processing using a phase difference detection method based on the image signal of the focus detection image data obtained from the image sensor 122 and the image processing circuit 124. More specifically, the image processing circuit 124 generates a pair of image data formed by a light beam passing through a pair of pupil regions of the imaging optical system as focus detection data, and the phase difference AF unit 129 generates a pair of image data as focus detection data. The amount of defocus is detected based on the amount of deviation of image data. In this way, the phase difference AF unit 129 of this embodiment performs phase difference AF (imaging surface phase difference AF) based on the output of the image sensor 122 without using a dedicated AF sensor.

TVAF部130は、画像処理回路124により生成されるTVAF用評価値(画像データのコントラスト情報)に基づいて、コントラスト検出方式の焦点検出処理を行う。コントラスト検出方式の焦点検出処理の際には、フォーカスレンズ104を移動して評価値(焦点評価値)がピークとなるフォーカスレンズ位置が合焦位置として検出される。 The TVAF unit 130 performs focus detection processing using a contrast detection method based on the TVAF evaluation value (contrast information of image data) generated by the image processing circuit 124. During focus detection processing using the contrast detection method, the focus lens 104 is moved and the focus lens position where the evaluation value (focus evaluation value) reaches its peak is detected as the in-focus position.

このように、本実施形態の撮像装置10は、撮像面位相差AFとTVAFとを組み合わせて実行可能であり、状況に応じて、これらを選択的に使用し、または、組み合わせて使用することができる。位相差AF部129およびTVAF部130は、各々の焦点検出結果を用いてフォーカスレンズ104の位置を制御するフォーカス制御手段として機能する。撮像面位相差AFとTVAF以外の測距手段を備える場合には、当該測距手段も組み合わせて実行してもよい。 In this way, the imaging device 10 of the present embodiment can perform the imaging plane phase difference AF and TVAF in combination, and depending on the situation, these can be used selectively or in combination. can. The phase difference AF unit 129 and the TVAF unit 130 function as a focus control unit that controls the position of the focus lens 104 using the respective focus detection results. When distance measuring means other than the imaging plane phase difference AF and TVAF are provided, these distance measuring means may also be used in combination.

(レンズユニット100とカメラ本体120との間に着脱可能なユニットを装着した撮像装置の構成)
次に、レンズユニット100とカメラ本体120との間に着脱可能なユニット(アクセサリ)を装着して構成された撮像装置について説明する。図2は、レンズユニット100とカメラ本体120との間に着脱可能なユニットを装着した撮像装置10a、10bのブロック図である。図2(a)は、レンズユニット100とカメラ本体120との間に、アクセサリとして、光学的なパワーを有さず撮像光学系の光路長を調整するためのアダプター700を装着した撮像装置10aを示す。図2(b)は、図2(a)の構成に加えて、レンズユニット100とアダプター700との間に、アクセサリとしてのコンバータレンズユニット600を装着した撮像装置10bを示す。なお図2において、図1と同様の構成には同じ参照番号を付し、それらの説明を省略する。本実施形態において、カメラ本体120、アダプター700、および、コンバータレンズユニット600の少なくとも一つは、第2ユニットを構成する。
(Configuration of an imaging device in which a detachable unit is attached between the lens unit 100 and the camera body 120)
Next, an imaging device configured by attaching a detachable unit (accessory) between the lens unit 100 and the camera body 120 will be described. FIG. 2 is a block diagram of the imaging devices 10a and 10b in which a detachable unit is attached between the lens unit 100 and the camera body 120. FIG. 2A shows an imaging device 10a in which an adapter 700, which does not have optical power and is used to adjust the optical path length of the imaging optical system, is attached as an accessory between the lens unit 100 and the camera body 120. show. FIG. 2(b) shows an imaging device 10b in which a converter lens unit 600 as an accessory is attached between the lens unit 100 and an adapter 700 in addition to the configuration of FIG. 2(a). Note that in FIG. 2, components similar to those in FIG. 1 are given the same reference numerals, and their descriptions will be omitted. In this embodiment, at least one of the camera body 120, the adapter 700, and the converter lens unit 600 constitutes a second unit.

図2(a)に示されるように、アダプター700は、変換マウントを含むアダプタメカ部材701およびアダプタメモリ702を有する。アダプタメカ部材701は、レンズユニット100のマウントM2とカメラ本体120のマウントM1との規格が異なる場合などに、着脱可能とするため、マウント変換を行う機能を有する。アダプタメモリ702は、自動焦点調節(AF制御)に必要な光学情報(開口情報)を記憶している。アダプタメモリ702は、レンズメモリ118に記憶されている開口情報(第1開口情報)と異なり、アダプター700により形成される開口情報(第2開口情報)を記憶している。カメラMPU125は、アダプタメモリ702の光学情報(第2開口情報)を取得可能に構成されている。 As shown in FIG. 2(a), the adapter 700 includes an adapter mechanical member 701 including a conversion mount and an adapter memory 702. The adapter mechanical member 701 has a function of converting mounts so that they can be attached and detached when the standards of the mount M2 of the lens unit 100 and the mount M1 of the camera body 120 are different. The adapter memory 702 stores optical information (aperture information) necessary for automatic focus adjustment (AF control). The adapter memory 702 stores aperture information (second aperture information) formed by the adapter 700, unlike the aperture information (first aperture information) stored in the lens memory 118. The camera MPU 125 is configured to be able to acquire optical information (second aperture information) from the adapter memory 702.

図2(b)に示されるように、コンバータレンズユニット600は、コンバータレンズ601およびコンバータメモリ602を含み、被写体の光学像を形成するレンズユニット100の焦点距離を変更する撮影レンズである。なお、以下の説明では、コンバータレンズ601と区別するため、レンズユニット100を「マスターレンズ100」と呼ぶ。コンバータレンズユニット600が装着されると、第1レンズ群101、第2レンズ群103、および、コンバータレンズ601により、ズーム機能を実現する。コンバータメモリ602には、自動焦点調整に必要な光学情報(開口情報)が予め記憶されている。レンズMPU117またはカメラMPU125は、コンバータメモリ602に記憶された光学情報(第2開口情報)を取得可能に構成されている。なお、コンバータレンズユニット600およびアダプター700に別途MPU等を備え、所定の処理や演算を可能とする構成としてもよい。 As shown in FIG. 2(b), the converter lens unit 600 is a photographic lens that includes a converter lens 601 and a converter memory 602, and changes the focal length of the lens unit 100 that forms an optical image of a subject. Note that in the following description, the lens unit 100 will be referred to as a "master lens 100" to distinguish it from the converter lens 601. When the converter lens unit 600 is attached, the first lens group 101, the second lens group 103, and the converter lens 601 realize a zoom function. Converter memory 602 stores in advance optical information (aperture information) necessary for automatic focus adjustment. Lens MPU 117 or camera MPU 125 is configured to be able to acquire optical information (second aperture information) stored in converter memory 602. Note that the converter lens unit 600 and the adapter 700 may be provided with a separate MPU or the like to enable predetermined processing and calculations.

(像高に依存する開口情報)
次に、図3を参照して、像高に依存する開口情報の概要に関して説明する。以下の説明では、マスターレンズ100の開口情報について説明するが、コンバータレンズユニット600やアダプター700の開口情報についても、記憶しているメモリは異なるが、光軸を中心とする円形の開口により形成される開口情報に関しては、同様である。
(Aperture information dependent on image height)
Next, with reference to FIG. 3, an overview of aperture information that depends on the image height will be described. In the following explanation, the aperture information of the master lens 100 will be explained, but the aperture information of the converter lens unit 600 and adapter 700 is also stored in different memories, but is formed by a circular aperture centered on the optical axis. The same applies to the aperture information.

図3は、結像光学系(撮像光学系)を通過する光束の外縁を規定する開口の形状(開口情報)の概略説明図である。図3(a)は、中央像高での下線側の光束を規定するレンズ部材301と、上線側の光束を規定するレンズ部材302と、開口形状311との関係を示す。図3(b)は、周辺像高での下線側の光束を規定するレンズ部材303と、上線側の光束を規定するレンズ部材304と、開口形状312との関係を示す。開口形状311、312は、光軸に垂直であって、z=DSの平面に投影された状態を示している。Dsは、開口形状算出距離である。 FIG. 3 is a schematic explanatory diagram of the shape of the aperture (aperture information) that defines the outer edge of the light beam passing through the imaging optical system (imaging optical system). FIG. 3A shows the relationship between the lens member 301 that defines the underlined light flux at the center image height, the lens member 302 that defines the overlined light flux, and the aperture shape 311. FIG. 3B shows the relationship between the lens member 303 that defines the underlined light flux at the peripheral image height, the lens member 304 that defines the overlined light flux, and the aperture shape 312. The aperture shapes 311 and 312 are perpendicular to the optical axis and projected onto a plane of z=DS. Ds is the aperture shape calculation distance.

図3(a)は、焦点検出領域が中央像高((x、y)=(0、0))に設定されたときの状態を示す。図3(a)の中央像高の場合、同一xy平面内に配置されたレンズ部材301とレンズ部材302とにより開口形状は規定され、開口形状は円形となる。図3(b)は、焦点検出領域が周辺像高((x、y)=(-10、0))に設定されたときの状態を示す。図3(b)の周辺像高の場合、開口形状は、レンズ部材301とレンズ部材302では規定されず、レンズ部材303とレンズ部材304とにより規定され、形状は円形ではなくなる。図3(b)では、2つのレンズ部材303、304で開口が規定される例を示しているが、複数のレンズ部材で開口が規定される場合もある。その場合、開口形状はより複雑な形状となる。 FIG. 3(a) shows a state when the focus detection area is set to the central image height ((x, y)=(0, 0)). In the case of the central image height in FIG. 3A, the aperture shape is defined by the lens member 301 and the lens member 302 arranged in the same xy plane, and the aperture shape is circular. FIG. 3(b) shows a state when the focus detection area is set to the peripheral image height ((x, y)=(-10, 0)). In the case of the peripheral image height of FIG. 3(b), the aperture shape is not defined by the lens members 301 and 302, but by the lens members 303 and 304, and the shape is no longer circular. Although FIG. 3B shows an example in which the aperture is defined by two lens members 303 and 304, the aperture may be defined by a plurality of lens members. In that case, the opening shape becomes more complicated.

次に、図4乃至図6を参照して、開口情報の算出方法に関して説明する。図4は、開口情報の算出方法の概略説明図である。図4(a)は、図3(b)の開口形状312を開口情報として表現した様子を示し、図4(b)および図4(c)は、開口情報を算出する際に用いられる評価値(形状パラメータ)を示している。 Next, a method for calculating aperture information will be described with reference to FIGS. 4 to 6. FIG. 4 is a schematic explanatory diagram of a method of calculating aperture information. FIG. 4(a) shows how the aperture shape 312 in FIG. 3(b) is expressed as aperture information, and FIG. 4(b) and FIG. 4(c) show evaluation values used when calculating the aperture information. (shape parameter).

本実施形態では、開口情報として、開口形状を2つの円の位置と大きさで表現する。図4(a)では、開口形状312を、開口情報411(位置c1、半径r1)と、開口情報412(位置c2、半径r2)とで表現している。開口情報411は、開口形状312の点401から右回りに点402までの領域でフィッティングすることで算出され、開口情報412は、開口形状312の点401から左回りに点402までの領域でフィッティングすることで算出される。 In this embodiment, the aperture shape is expressed by the position and size of two circles as the aperture information. In FIG. 4A, the aperture shape 312 is expressed by aperture information 411 (position c1, radius r1) and aperture information 412 (position c2, radius r2). The aperture information 411 is calculated by fitting the area from the point 401 of the aperture shape 312 clockwise to the point 402, and the aperture information 412 is calculated by fitting the area from the point 401 of the aperture shape 312 to the point 402 counterclockwise. It is calculated by

点401、402は、所定位置からの開口形状312までの距離の二次微分の離散点である。図4(b)において、横軸は図4(a)中の回転角θ、縦軸は図4(a)中の(X,Y)=(0,0)から開口形状312までの距離rをそれぞれ示している。図4(c)において、横軸は図4(a)中の回転角θ、縦軸は距離rを回転角θに関して二回微分した値をそれぞれ示している。図4(c)の点(離散点)401、402は図4(a)の点401、点402と対応しており、これらの離散点によって、開口情報を算出する際のフィッティング範囲が決定される。所定位置からの距離変化が不連続となる点は、距離変化の二次微分の離散点として現れるため、このような離散点を用いることで、開口形状を1つの開口情報として表現する領域ごとに分離することができる。 Points 401 and 402 are discrete points of the second derivative of the distance from the predetermined position to the aperture shape 312. In FIG. 4(b), the horizontal axis is the rotation angle θ in FIG. 4(a), and the vertical axis is the distance r from (X, Y)=(0,0) to the opening shape 312 in FIG. 4(a). are shown respectively. In FIG. 4(c), the horizontal axis represents the rotation angle θ in FIG. 4(a), and the vertical axis represents the value obtained by differentiating the distance r twice with respect to the rotation angle θ. Points (discrete points) 401 and 402 in FIG. 4(c) correspond to points 401 and 402 in FIG. 4(a), and these discrete points determine the fitting range when calculating the aperture information. Ru. Points where the distance change from a predetermined position is discontinuous appear as discrete points of the second derivative of the distance change, so by using such discrete points, the aperture shape can be expressed for each area as one aperture information. Can be separated.

次に、図5を参照して、複数のレンズ部材で開口が規定され、開口形状がより複雑な形状となる場合の開口情報の算出方法に関して説明する。図5は、開口情報の算出方法の概略説明図である。図5(a)は、図3(b)の複数のレンズ部材で開口が規定された開口形状313を開口情報として表現した様子を示し、図5(b)および図5(c)は開口情報の算出の際に用いられる評価値(形状パラメータ)を示している。 Next, with reference to FIG. 5, a method for calculating aperture information when an aperture is defined by a plurality of lens members and the aperture shape becomes more complicated will be described. FIG. 5 is a schematic explanatory diagram of a method of calculating aperture information. FIG. 5(a) shows how the aperture shape 313 in FIG. 3(b), in which the aperture is defined by a plurality of lens members, is expressed as aperture information, and FIG. 5(b) and FIG. 5(c) show the aperture information. The evaluation value (shape parameter) used in the calculation of is shown.

本実施形態では、開口情報を、開口形状を2つの円の位置と大きさで表現する。図5(a)では、開口形状313を、開口情報511(位置c1、半径r1)と、開口情報512(位置c2、半径r2)とで表現している。開口情報511は、開口形状313の点501から右回りに点504までの領域でフィッティングすることで算出され、開口情報512は、開口形状313の点502から左回りに点503までの領域でフィッティングすることで算出される。 In this embodiment, the aperture information is expressed by the position and size of two circles representing the aperture shape. In FIG. 5A, the aperture shape 313 is expressed by aperture information 511 (position c1, radius r1) and aperture information 512 (position c2, radius r2). The aperture information 511 is calculated by fitting the area from the point 501 of the aperture shape 313 clockwise to the point 504, and the aperture information 512 is calculated by fitting the area from the point 502 of the aperture shape 313 to the point 503 counterclockwise. It is calculated by

点501~点504は、所定位置からの開口形状313までの距離の二次微分の離散点である。図5(b)において、横軸は図5(a)中の回転角θ、縦軸は図5(a)の(X,Y)=(0,0)から開口形状313までの距離rをそれぞれ示している。図5(c)において、横軸は図5(a)中の回転角θ、縦軸は距離rを回転角θに関して二回微分した値をそれぞれ示している。図5(c)中の点(離散点)501~504は図5(a)の点501~点504とそれぞれ対応しており、これらの離散点によって、開口情報の算出の際におけるフィッティング範囲を決定している。焦点検出の際には、開口形状の上線、下線の精度が要求されるため、開口形状313の点501から右回りに点504までの領域と、点502から左回りに点503までの領域でフィッティングしている。 Points 501 to 504 are discrete points of the second-order differential of the distance from the predetermined position to the aperture shape 313. In FIG. 5(b), the horizontal axis represents the rotation angle θ in FIG. 5(a), and the vertical axis represents the distance r from (X, Y)=(0,0) in FIG. 5(a) to the opening shape 313. are shown respectively. In FIG. 5(c), the horizontal axis represents the rotation angle θ in FIG. 5(a), and the vertical axis represents the value obtained by differentiating the distance r twice with respect to the rotation angle θ. Points (discrete points) 501 to 504 in FIG. 5(c) correspond to points 501 to 504 in FIG. 5(a), respectively, and these discrete points determine the fitting range when calculating the aperture information. It has been decided. During focus detection, accuracy of the upper and lower lines of the aperture shape is required, so the area from point 501 of the aperture shape 313 clockwise to point 504, and the area from point 502 to point 503 counterclockwise. Fitting.

なお本実施形態では、上線、下線の精度を優先するが、離散点の中で、変化の不連続度が大きくなる、二次微分値の大きい離散点から円のフィッティング範囲を決定してもよい。また本実施形態では、フィッティングを領域で行うが、離散点にて決定した領域内の数点からフィッティングして算出してもよい。また本実施形態では、所定位置からの距離の二次微分の離散点に基づいてフィッティング領域を設定したが、開口形状の曲率半径の変化点に基づいてフィッティング領域を設定し、開口情報を算出してもよい。また本実施形態では、所定位置からの距離の二次微分の離散点に基づいてフィッティングするが、各Y座標での幅(上線側と下線側のXの差分)に関して、開口形状と開口情報の差が最小となるように、開口情報を算出してもよい。また、開口形状の面積と開口情報の面積(開口情報511と開口情報512との共通部分の面積)の差分が最小となるように、開口情報を算出してもよい。 In this embodiment, priority is given to the accuracy of the overline and underline, but the fitting range of the circle may be determined from discrete points where the degree of discontinuity of change is large and the second derivative value is large among the discrete points. . Further, in this embodiment, fitting is performed in a region, but calculation may be performed by fitting from several points within a region determined using discrete points. Furthermore, in this embodiment, the fitting region is set based on the discrete points of the second derivative of the distance from the predetermined position, but the fitting region is set based on the change point of the radius of curvature of the aperture shape, and the aperture information is calculated. It's okay. Furthermore, in this embodiment, fitting is performed based on discrete points of the second-order differential of the distance from a predetermined position, but regarding the width at each Y coordinate (the difference between The aperture information may be calculated so that the difference is minimized. Alternatively, the aperture information may be calculated such that the difference between the area of the aperture shape and the area of the aperture information (the area of the common portion of the aperture information 511 and the aperture information 512) is minimized.

また本実施形態では、2つの開口情報で開口形状を表現しているが、3つ以上の開口情報で開口形状を表現してもよい。その場合、レンズメモリ118の記憶容量が増加するが、開口情報による開口形状の表現精度を向上することができる。また本実施形態では、レンズメモリ118に開口情報を記憶しておき、レンズメモリ118から開口情報を取得するが、メモリ128に記憶しておき、メモリ128から取得してもよい。また、開口形状をネットワーク上に記憶しておき、本実施形態で説明した算出方法で開口情報を計算し、レンズユニット100またはカメラ本体120と通信することで取得してもよい。以上の構成により、開口情報の精度を下げることなく簡易な構成で開口形状を表現することが可能となる。 Further, in this embodiment, the aperture shape is expressed using two pieces of aperture information, but the aperture shape may be expressed using three or more pieces of aperture information. In that case, although the storage capacity of the lens memory 118 increases, the accuracy of expressing the aperture shape using the aperture information can be improved. Further, in this embodiment, the aperture information is stored in the lens memory 118 and acquired from the lens memory 118, but the aperture information may be stored in the memory 128 and acquired from the memory 128. Alternatively, the aperture shape may be stored on the network, the aperture information may be calculated using the calculation method described in this embodiment, and acquired by communicating with the lens unit 100 or the camera body 120. With the above configuration, it is possible to express the aperture shape with a simple configuration without lowering the accuracy of the aperture information.

また、開口情報の表現方法としては、異なる方法も考えられる。前述の説明では、開口情報を、円の位置(c1、c2)と大きさ(r1、r2)で表現し保持しているが、これに限定されるものではない。次に、開口情報を、結像光学系の絞り102の中心位置からの距離に関する情報として保持する場合について説明する。 Further, different methods can be considered as the method of expressing the aperture information. In the above description, the aperture information is expressed and held by the position (c1, c2) and size (r1, r2) of the circle, but the information is not limited to this. Next, a case where aperture information is held as information regarding the distance from the center position of the aperture 102 of the imaging optical system will be described.

図6は、開口情報を絞り102の中心位置からの距離に関する情報で表現した場合の概略説明図であり、開口形状312に関して、絞り102の中心位置からの距離に関する情報として開口情報を表現した様子を示している。図6において、c3は絞り102の中心位置であり、a1、a2は絞り102の中心位置からの距離(開口情報)をそれぞれ示している。距離a1、a2は、位置c1、大きさr1と、位置c3、c2、大きさr2と、位置c3とに基づいて、以下の式(1)、(2)によりそれぞれ算出することができる。 FIG. 6 is a schematic explanatory diagram when aperture information is expressed as information regarding the distance from the center position of the aperture 102, and how the aperture information is expressed as information regarding the distance from the center position of the aperture 102 regarding the aperture shape 312. It shows. In FIG. 6, c3 is the center position of the aperture 102, and a1 and a2 indicate distances (aperture information) from the center position of the aperture 102, respectively. The distances a1 and a2 can be calculated by the following equations (1) and (2), respectively, based on the position c1, the size r1, the positions c3, c2, the size r2, and the position c3.

a1=r1-(c1-c3) ・・・(1)
a2=r2+(c2-c3) ・・・(2)
このように、位置c1、c2、大きさr1、r2を、距離a1、a2として記憶することで、レンズメモリ118への記憶容量を削減することができる。
a1=r1-(c1-c3)...(1)
a2=r2+(c2-c3)...(2)
In this way, by storing the positions c1 and c2 and the sizes r1 and r2 as distances a1 and a2, the storage capacity of the lens memory 118 can be reduced.

(像高の依存が連続的ではない開口情報)
次に、図7を参照して、像高の依存が連続的でない開口情報の概要に関して説明する。なお以下の説明では、カメラ本体120の開口情報について説明するが、アダプター700の開口情報についても、記憶しているメモリは異なるが、撮影光束の太さ(Fナンバー)や入射角度によって、ケラレの有無や程度が異なる開口情報に関しては、同様である。
(Aperture information with non-continuous dependence on image height)
Next, with reference to FIG. 7, an outline of aperture information in which image height does not depend continuously will be described. In the following explanation, the aperture information of the camera body 120 will be explained, but the aperture information of the adapter 700 is also stored in different memories, but vignetting can be affected depending on the thickness of the photographing light beam (F number) and the incident angle. The same applies to aperture information whose presence or extent differs.

図7は、結像光学系(撮像光学系)を通過した光束がカメラ本体120の一部によって遮られている(ケラレている)状況を示す図である。図7(a)は結像光学系を通過した光束が中央像高に到達する様子、図7(b)は周辺像高に到達する様子をそれぞれ示している。 FIG. 7 is a diagram illustrating a situation in which the light flux that has passed through the imaging optical system (imaging optical system) is blocked (vignetted) by a part of the camera body 120. FIG. 7A shows how the light flux passing through the imaging optical system reaches the central image height, and FIG. 7B shows how it reaches the peripheral image height.

図7において、905はカメラ本体120の筐体(の一部)、906はシャッターユニット131の開口(の端部)をそれぞれ示している。図7において、光束902、904は撮像光学系のF値(絞り値)が小さい場合の光束を示し、光束901、903は撮像光学系のF値がより大きい場合の光束をそれぞれ示している。 In FIG. 7, 905 indicates (a part of) the housing of the camera body 120, and 906 indicates (the end of) the opening of the shutter unit 131. In FIG. 7, luminous fluxes 902 and 904 indicate luminous fluxes when the F number (aperture value) of the imaging optical system is small, and luminous fluxes 901 and 903 indicate luminous fluxes when the F number of the imaging optical system is larger.

図7(a)に示されるように、光束902に関しては、筐体905によりケラレが生じているが、シャッタの開口906によるケラレは生じていない。一方、光束901に関しては、筐体905およびシャッタの開口906の両方でケラレは生じていない。図7(b)に示されるように、光束904は、筐体905およびシャッタの開口906の両方でケラレが生じている。一方、光束903は、筐体905およびシャッタの開口906の両方でケラレは生じていない。 As shown in FIG. 7A, with respect to the light beam 902, vignetting occurs due to the housing 905, but no vignetting occurs due to the shutter aperture 906. On the other hand, regarding the light beam 901, no vignetting occurs at both the housing 905 and the shutter aperture 906. As shown in FIG. 7B, the light beam 904 is vignetted at both the housing 905 and the shutter opening 906. On the other hand, the light beam 903 is not vignetted at both the housing 905 and the shutter opening 906.

このように、カメラ本体120内で生じるケラレは、ケラレが生じない像高の範囲と、ケラレが生じる像高の範囲とに区分することができる。また、撮像光学系のF値(絞り値)によっては、像高の全範囲で、ケラレが生じない場合もある。このため本実施形態では、このような開口情報に関しては、像高ごとに記憶するのではなく、開口の端部の座標を記憶しておく。例えば、撮像素子122と光軸の交点を原点とし、図7に示されている座標軸に基づき、筐体905の開口およびシャッタの開口906を、矩形の開口を3次元座標位置として記憶する。これにより、前述の像高に依存する開口情報に対して、記憶するべき情報量を減らすことができる。 In this way, vignetting that occurs within the camera body 120 can be divided into an image height range in which vignetting does not occur and an image height range in which vignetting occurs. Further, depending on the F number (aperture value) of the imaging optical system, vignetting may not occur over the entire range of image height. Therefore, in this embodiment, such aperture information is not stored for each image height, but the coordinates of the end of the aperture are stored. For example, with the intersection of the image sensor 122 and the optical axis as the origin, and based on the coordinate axes shown in FIG. 7, the aperture of the housing 905 and the aperture 906 of the shutter are stored as three-dimensional coordinate positions of rectangular apertures. This makes it possible to reduce the amount of information that needs to be stored with respect to the above-mentioned aperture information that depends on the image height.

(開口情報の取得方法)
次に、図8および図9を参照して、本実施形態における開口情報の取得方法について説明する。図8は、開口情報の取得方法を示すフローチャートである。なお図8の各ステップは、主に、レンズMPU117またはカメラMPU125により実行される。図8では、図2(b)に示される撮像装置10bの構成を前提とした開口情報の取得方法について説明するが、図1の撮像装置10や図2(a)の撮像装置10aの構成を想定した開口情報の取得方法に関しても同様である。また開口情報の取得方法に関する処理は、装着されていないユニットに帰属する開口情報を省略して行われる。
(How to obtain aperture information)
Next, a method for acquiring aperture information in this embodiment will be described with reference to FIGS. 8 and 9. FIG. 8 is a flowchart showing a method for acquiring aperture information. Note that each step in FIG. 8 is mainly executed by the lens MPU 117 or the camera MPU 125. In FIG. 8, a method for acquiring aperture information will be described based on the configuration of the imaging device 10b shown in FIG. 2(b), but the configuration of the imaging device 10 in FIG. The same applies to the assumed method of acquiring aperture information. Furthermore, the process related to the method of acquiring aperture information is performed without aperture information belonging to units that are not attached.

まずステップS801において、カメラMPU125は、マスターレンズ100、コンバータレンズユニット600、アダプター700、および、カメラ本体120の装着状況、各々が有する開口情報の有無、および、各開口情報の属性情報を取得する。 First, in step S801, the camera MPU 125 acquires the mounting status of the master lens 100, converter lens unit 600, adapter 700, and camera body 120, the presence or absence of aperture information each has, and attribute information of each aperture information.

図9は、開口情報の属性情報の例である。図9では、図2(b)に示されるマスターレンズ100とカメラ本体120との間にコンバータレンズユニット600およびアダプター700が装着された撮像装置10bに関する開口情報および属性情報を示している。 FIG. 9 is an example of attribute information of aperture information. FIG. 9 shows aperture information and attribute information regarding the imaging device 10b in which the converter lens unit 600 and the adapter 700 are attached between the master lens 100 and the camera body 120 shown in FIG. 2(b).

マスターレンズ100の開口情報(第1開口情報)は、フォーカスレンズおよびズームレンズの位置(レンズステート)、並びに、焦点検出領域の像高に依存して変化する。コンバータレンズユニット600の開口情報は、レンズとしての可動部を有さないため、レンズステートには依存せず、焦点検出領域の像高にのみ依存する情報である。アダプター700の開口情報およびカメラ本体(筐体)120の開口情報はそれぞれ、レンズステート、像高、および、デフォーカス(デフォーカス量)のいずれに対しても依存しない情報である。シャッタ開口の開口情報(第1開口情報)は、デフォーカスに依存する開口情報である。なお、シャッタ開口の開口情報とデフォーカスとの関係については、後述する。コンバータレンズユニット600の開口情報、アダプター700の開口情報、および、カメラ本体(筐体)120の開口情報はそれぞれ、第2開口情報である。 The aperture information (first aperture information) of the master lens 100 changes depending on the positions (lens states) of the focus lens and zoom lens, and the image height of the focus detection area. Since the converter lens unit 600 does not have a movable part as a lens, the aperture information does not depend on the lens state and is information that depends only on the image height of the focus detection area. The aperture information of the adapter 700 and the aperture information of the camera body (casing) 120 are information that does not depend on any of the lens state, image height, and defocus (defocus amount), respectively. The aperture information of the shutter aperture (first aperture information) is aperture information that depends on defocus. Note that the relationship between the aperture information of the shutter aperture and defocus will be described later. The aperture information of the converter lens unit 600, the aperture information of the adapter 700, and the aperture information of the camera body (casing) 120 are each second aperture information.

図9では、3種類の属性情報(レンズステート、像高、デフォーカス)について示しているが、属性情報の種類についてはこれらに限定されるものではない。例えば、撮像光学系の一部や撮像素子を揺動させることにより防振を行う場合などには、防振動作による開口情報の変化の有無を属性情報として有してもよい。また、開口形状が円形であるか矩形であるかなどの開口形状に関する情報を属性情報として有してもよい。 Although FIG. 9 shows three types of attribute information (lens state, image height, and defocus), the types of attribute information are not limited to these. For example, when vibration isolation is performed by swinging a part of the imaging optical system or the image sensor, the attribute information may include whether or not the aperture information changes due to the vibration isolation operation. Further, information regarding the opening shape, such as whether the opening shape is circular or rectangular, may be included as attribute information.

また図8のステップS801において、カメラMPU125は、属性情報を取得した後、装着状況に応じて得られる開口情報とその属性情報とを紐づける。 Further, in step S801 in FIG. 8, after acquiring the attribute information, the camera MPU 125 associates the aperture information obtained according to the wearing situation with the attribute information.

続いてステップS802において、以降に開口情報の取得方法や処理方法などを決定するための開口情報(取得枠情報)を決定する。本実施形態では、マスターレンズ100、コンバータレンズユニット600、アダプター700、および、カメラ本体120のそれぞれが開口情報を有し、記憶されている。これらの開口情報を順次処理するため、カメラMPU125は、いずれかの開口情報を処理対象開口情報として選択する。 Subsequently, in step S802, aperture information (acquisition frame information) for determining the acquisition method and processing method of aperture information thereafter is determined. In this embodiment, each of the master lens 100, converter lens unit 600, adapter 700, and camera body 120 has aperture information and is stored. In order to process these aperture information sequentially, the camera MPU 125 selects any one of the aperture information as the aperture information to be processed.

続いてステップS803において、カメラMPU125は、処理対象開口情報がレンズステートに対して変化するか否かを判定する。図9に示されるように、カメラMPU125は、開口情報と合わせて記憶されている属性情報を確認する。その開口情報がレンズステートに依存して変化する場合、ステップS804に進む。ステップS804において、カメラMPU125は、処理対象開口情報の通信での取得方法を設定する。この開口情報はレンズステートに応じて変化するため、カメラMPU125は、所定期間ごとに通信を行って開口情報を取得する方法を選択する。ステップS804で取得方法を設定すると、以後、カメラMPU125は、所定期間ごとに通信で処理対象開口情報を取得し、RAM125bの所定の領域に取得した情報を、更新および記憶する。 Subsequently, in step S803, the camera MPU 125 determines whether or not the processing target aperture information changes with respect to the lens state. As shown in FIG. 9, the camera MPU 125 checks the attribute information stored together with the aperture information. If the aperture information changes depending on the lens state, the process advances to step S804. In step S804, the camera MPU 125 sets a communication acquisition method for processing target aperture information. Since this aperture information changes depending on the lens state, the camera MPU 125 selects a method of acquiring aperture information by communicating at predetermined intervals. After setting the acquisition method in step S804, the camera MPU 125 thereafter acquires processing target aperture information via communication at predetermined intervals, and updates and stores the acquired information in a predetermined area of the RAM 125b.

より詳細に、開口情報の取得の流れを説明する。まず、取得する開口情報が、マスターレンズ100に関する開口情報である場合、カメラMPU125は、マスターレンズ100の現在のレンズステート(ズームステートおよびフォーカスステート)を取得する。続いて、カメラMPU125は、取得したズームステートおよびフォーカスステートに応じた開口情報を取得する。レンズメモリ118は、ズーム範囲を複数に分割したズームステートごと、フォーカス範囲を複数に分割したフォーカスステートごと、および、像高範囲を複数に分割した像高ごとに、開口情報を記憶している。このため、現在のズームステートおよびフォーカスステートにおける開口情報を、近傍ステートの開口情報から線形補間することにより算出して取得する。 The flow of acquiring aperture information will be explained in more detail. First, when the aperture information to be acquired is aperture information regarding the master lens 100, the camera MPU 125 acquires the current lens state (zoom state and focus state) of the master lens 100. Subsequently, the camera MPU 125 acquires aperture information according to the acquired zoom state and focus state. The lens memory 118 stores aperture information for each zoom state in which the zoom range is divided into a plurality of parts, for each focus state in which the focus range is divided into a plurality of parts, and for each image height in which the image height range is divided into a plurality of parts. Therefore, aperture information in the current zoom state and focus state is calculated and obtained by linear interpolation from aperture information in neighboring states.

同様に、取得する開口情報が、コンバータレンズユニット600に関する開口情報である場合、カメラMPU125は、コンバータレンズユニット600の開口情報を取得する。コンバータメモリ602は、像高範囲を複数に分割した像高ごとに開口情報を記憶している。 Similarly, if the aperture information to be acquired is aperture information regarding converter lens unit 600, camera MPU 125 acquires the aperture information of converter lens unit 600. Converter memory 602 stores aperture information for each image height obtained by dividing the image height range into a plurality of parts.

一方、ステップS803にて開口情報がレンズステートにより変化しない開口情報であると判定された場合、ステップS805に進む。ステップS805において、カメラMPU125は、あるタイミングに一括で、開口情報を取得する方法を選択する。カメラMPU125は、例えば、レンズユニット100やアダプター700などをカメラ本体120に装着した際の初期通信の中で、開口情報を取得する。ステップS805にて取得方法を設定した後、カメラMPU125は、初期通信で取得されている処理対象開口情報を取得し、RAM125bの所定の領域に取得した情報を記憶する。このように、開口情報の属性情報に応じて通信方法を変更することで、所定期間ごとに通信する情報量を低減することができる。 On the other hand, if it is determined in step S803 that the aperture information does not change depending on the lens state, the process advances to step S805. In step S805, the camera MPU 125 selects a method for acquiring aperture information all at once at a certain timing. The camera MPU 125 acquires aperture information, for example, during initial communication when the lens unit 100, adapter 700, etc. are attached to the camera body 120. After setting the acquisition method in step S805, the camera MPU 125 acquires the processing target aperture information acquired in the initial communication, and stores the acquired information in a predetermined area of the RAM 125b. In this way, by changing the communication method according to the attribute information of the aperture information, it is possible to reduce the amount of information communicated every predetermined period.

開口情報の取得方法を決定した後、ステップS806に進む。ステップS806において、カメラMPU125は、処理対象開口情報が、焦点調節を行う対象となる焦点検出領域(像高)に対して変化するか否かを判定する。図9に示されるように、カメラMPU125は、開口情報と合わせて記憶されている属性情報を確認する。開口情報が像高に依存せず変化しない場合、ステップS807に進む。ステップS807において、図7を参照して説明したように、カメラMPU125は、三次元座標位置としての開口情報を、RAM125bから取得する。その後、ステップS809に進み、カメラMPU125は、像高に応じた開口情報への換算を行う。図7を参照して説明したように、カメラMPU125は、記憶されている矩形の開口の三次元座標位置として、焦点検出領域の中心の像高を視点とし、開口形状算出距離Ds上の平面に投影して矩形の開口を定義する4本の直線を算出する。 After determining the aperture information acquisition method, the process advances to step S806. In step S806, the camera MPU 125 determines whether the processing target aperture information changes with respect to the focus detection area (image height) that is the target of focus adjustment. As shown in FIG. 9, the camera MPU 125 checks the attribute information stored together with the aperture information. If the aperture information does not depend on the image height and does not change, the process advances to step S807. In step S807, as described with reference to FIG. 7, the camera MPU 125 acquires aperture information as a three-dimensional coordinate position from the RAM 125b. Thereafter, the process advances to step S809, and the camera MPU 125 performs conversion into aperture information according to the image height. As described with reference to FIG. 7, the camera MPU 125 uses the image height of the center of the focus detection area as a viewpoint as the three-dimensional coordinate position of the stored rectangular aperture, and moves the camera MPU 125 to a plane on the aperture shape calculation distance Ds. Four straight lines are projected to define a rectangular opening.

一方、ステップS806にて処理対象開口情報が像高に対して変化する場合、ステップS808に進む。ステップS808において、カメラMPU125は、焦点検出領域の中心近傍の像高に対応する開口情報を、RAM125bから読み出す。カメラMPU125は、近傍像高の開口情報から線形補間することにより、焦点検出領域の像高に対応する開口情報を算出して取得する。なお本実施形態では、設定された焦点検出領域の像高の開口情報を、線形補間にて算出することで取得するが、近傍像高の開口情報を、設定された像高の開口情報として取得してもよい。 On the other hand, if the processing target aperture information changes with respect to the image height in step S806, the process advances to step S808. In step S808, the camera MPU 125 reads out aperture information corresponding to the image height near the center of the focus detection area from the RAM 125b. The camera MPU 125 calculates and obtains aperture information corresponding to the image height of the focus detection area by performing linear interpolation from aperture information of nearby image heights. In this embodiment, the aperture information of the image height of the set focus detection area is obtained by calculating by linear interpolation, but the aperture information of the neighboring image height is obtained as the aperture information of the set image height. You may.

また本実施形態では、開口情報を焦点検出に用いることを想定して説明したが、開口情報を露出調整や画像処理等に用いてもよい。その場合でも本実施形態と同様に、処理を実施しようとする像高に対する開口情報を設定し、補間処理などを経て、対応する開口情報を取得する。 Furthermore, although the present embodiment has been described assuming that the aperture information is used for focus detection, the aperture information may be used for exposure adjustment, image processing, and the like. Even in this case, similarly to the present embodiment, aperture information for the image height to be processed is set, and the corresponding aperture information is acquired through interpolation processing and the like.

続いてステップS810において、カメラMPU125は、処理対象開口情報がデフォーカス量に応じて変化するか否かを判定する。開口情報がデフォーカス量に応じて変化する場合、ステップS811に進む。ステップS811において、カメラMPU125は、デフォーカス量に応じた開口情報に変換し、変換された開口情報を取得する。 Subsequently, in step S810, the camera MPU 125 determines whether or not the processing target aperture information changes depending on the defocus amount. If the aperture information changes depending on the defocus amount, the process advances to step S811. In step S811, the camera MPU 125 converts the aperture information into aperture information according to the defocus amount, and acquires the converted aperture information.

次に、図10を参照して、デフォーカス量に依存する開口情報について説明する。図10は、デフォーカス量に依存する開口情報の説明図であり、結像光学系を通過した光束がカメラ本体120の一部によって遮られている(ケラレている)状況がデフォーカス量に応じて異なること示す図である。図10(a)は、図7(b)と同じ状態を示し、結像光学系を通過した光束904は、筐体905でケラレ、撮像素子122上で合焦していることを示している。図10(b)は、結像光学系を通過した光束は撮像素子122上よりもZ軸の正方向にずれた位置に、デフォーカスしている(def>0)ことを示している。その結果、光束904は、その片側がシャッタの開口906によってケラレが生じ、光束904-2よりも外側(X軸の正方向)の光束は、撮像素子122に到達しない。同様に、図10(c)は、結像光学系を通過した光束は、図10(b)に対して、反対方向にデフォーカスしている(def<0)ことを示している。この場合、図10(b)と同様に、シャッタの開口906でケラレが生じ、光束904-3よりも外側(X軸の負方向)の光束は撮像素子122に到達しない。このように、撮像素子122に対して近い位置にある開口は、デフォーカス量の大小や符号に応じて、ケラレの生じ方が異なる。このため本実施形態では、デフォーカス量に依存する開口情報については、デフォーカス量に応じた変換を行う。 Next, with reference to FIG. 10, aperture information that depends on the amount of defocus will be described. FIG. 10 is an explanatory diagram of aperture information that depends on the amount of defocus, and shows that the light flux passing through the imaging optical system is blocked (vignetted) by a part of the camera body 120 depending on the amount of defocus. FIG. FIG. 10(a) shows the same state as FIG. 7(b), and shows that the light beam 904 that has passed through the imaging optical system is eclipsed by the housing 905 and focused on the image sensor 122. . FIG. 10B shows that the light beam passing through the imaging optical system is defocused to a position shifted in the positive direction of the Z-axis from the top of the image sensor 122 (def>0). As a result, the light beam 904 is eclipsed on one side by the shutter aperture 906, and the light beam outside the light beam 904-2 (in the positive direction of the X-axis) does not reach the image sensor 122. Similarly, FIG. 10(c) shows that the light beam passing through the imaging optical system is defocused in the opposite direction (def<0) with respect to FIG. 10(b). In this case, as in FIG. 10(b), vignetting occurs at the shutter aperture 906, and the light flux outside the light flux 904-3 (in the negative direction of the X-axis) does not reach the image sensor 122. In this way, the manner in which vignetting occurs in an aperture located close to the image sensor 122 differs depending on the magnitude and sign of the defocus amount. Therefore, in this embodiment, aperture information that depends on the amount of defocus is converted in accordance with the amount of defocus.

変換の方法は、前述の像高に対する依存が連続的でない開口情報(矩形の開口の三次元座標位置)の変換と同様である。具体的には、焦点検出領域の中心の像高と対応する視点の位置を、デフォーカス量に相当する量、Z軸方向に移動させ、デフォーカス量に対応する視点を算出する。その後、記憶されている矩形の開口の三次元座標位置を、デフォーカス量に対応する視点を用いて、開口形状算出距離Ds上の平面に投影し、矩形の開口を定義する4本の直線を算出する。 The conversion method is similar to the conversion of aperture information (three-dimensional coordinate position of a rectangular aperture) whose dependence on image height is not continuous, as described above. Specifically, the position of the viewpoint corresponding to the center image height of the focus detection area is moved in the Z-axis direction by an amount corresponding to the amount of defocus, and the viewpoint corresponding to the amount of defocus is calculated. Then, the stored three-dimensional coordinate position of the rectangular aperture is projected onto a plane on the aperture shape calculation distance Ds using the viewpoint corresponding to the defocus amount, and four straight lines defining the rectangular aperture are drawn. calculate.

なお本実施形態では、デフォーカス量に対応させて、矩形開口の投影に用いる視点の位置をZ軸方向に移動させる。ただし、光束の主光線角度などがわかる場合、主光線の進行方向に平行に、デフォーカス量に対応する視点を移動してもよい。これにより、より高精度な開口情報の算出を行うことができる。 Note that in this embodiment, the position of the viewpoint used for projecting the rectangular aperture is moved in the Z-axis direction in accordance with the amount of defocus. However, if the principal ray angle of the luminous flux is known, the viewpoint corresponding to the amount of defocus may be moved parallel to the traveling direction of the principal ray. Thereby, it is possible to calculate aperture information with higher accuracy.

位相差方式の焦点検出において、精度の高いデフォーカス量を算出するには、開口情報を用いて公知の基線長を導出し、その基線長を用いて、検出した位相差をデフォーカス量に換算する必要がある。このため、前述のデフォーカス量を加味した開口情報の算出方法として、以下の2つの方法が考えられる。第一の方法は、事前に得たデフォーカス量と、その後のフォーカスレンズの駆動量とから、被写体距離が変化していないことを前提として、開口情報計算の際のデフォーカス量を推定する方法である。第二の方法は、一回目にはデフォーカス量がない前提で開口情報を算出してデフォーカス量を算出し、改めて、算出されたデフォーカス量を用いて開口情報を算出する方法である。なお、開口情報の算出は二回に限定されるものではなく、複数回行えばよいため、開口情報を三回以上算出してもよい。 In phase difference method focus detection, to calculate a highly accurate defocus amount, use aperture information to derive a known baseline length, and use that baseline length to convert the detected phase difference into a defocus amount. There is a need to. Therefore, the following two methods can be considered as a method of calculating aperture information that takes into account the amount of defocus described above. The first method is to estimate the defocus amount when calculating the aperture information, based on the defocus amount obtained in advance and the subsequent drive amount of the focus lens, assuming that the subject distance has not changed. It is. The second method is to calculate the aperture information on the premise that there is no defocus amount the first time, calculate the defocus amount, and then calculate the aperture information again using the calculated defocus amount. Note that the calculation of the aperture information is not limited to two times, but may be performed multiple times, so the aperture information may be calculated three or more times.

また、デフォーカス量を加味した開口情報の算出を行わない場合、検出されたデフォーカス量に対して、より小さいデフォーカス量に相当するフォーカスレンズ駆動を行うように構成してもよい。これにより、精度の低いデフォーカス量による誤ったフォーカスレンズ駆動を避けることができる。また、像高に依存しない開口情報の算出は、ステップS809で行っているが、デフォーカス量に依存する開口情報については、ステップS809の処理をスキップし、ステップS811で開口情報の算出を行えばよい。 Furthermore, when the aperture information is not calculated in consideration of the amount of defocus, it may be configured to drive the focus lens corresponding to the amount of defocus smaller than the detected amount of defocus. This makes it possible to avoid erroneous focus lens driving due to an inaccurate defocus amount. Further, the calculation of aperture information that does not depend on the image height is performed in step S809, but for the aperture information that depends on the amount of defocus, the process of step S809 can be skipped and the aperture information can be calculated in step S811. good.

図8のステップS810にて処理対象開口情報がデフォーカス量に応じて変化しない場合、ステップS811をスキップする。その後、ステップS812において、カメラMPU125は、取得可能な開口情報について、全て情報の取得が完了したか否かを判定する。まだ取得していない開口情報がある場合、ステップS802に戻り、次の開口情報について、前述の処理を繰り返す。一方、全開口情報の取得を完了した場合、ステップS813に進む。ステップS813において、算出手段としてのカメラMPU125は、取得した開口情報を合成する。 If the processing target aperture information does not change in accordance with the defocus amount in step S810 of FIG. 8, step S811 is skipped. Thereafter, in step S812, the camera MPU 125 determines whether or not all of the obtainable aperture information has been obtained. If there is aperture information that has not been acquired yet, the process returns to step S802 and the above-described process is repeated for the next aperture information. On the other hand, if the acquisition of all aperture information is completed, the process advances to step S813. In step S813, the camera MPU 125 as a calculation means combines the acquired aperture information.

ここで、図11を参照して、開口情報の合成について説明する。図11は、各ユニット(マスターレンズ100、アダプター700、カメラ本体120)の開口情報と結像光学系を通過する光束の外縁を規定する開口の形状の説明図である。前述の開口情報は、図3と同様に、開口形状算出距離Ds上の平面で、その形状が規定されているため、図11のように示すことができる。図8のステップS813では、これらの開口形状を合成して、図11のハッチング部の領域を合成開口形状(合成開口情報)として算出する。合成開口形状(合成開口情報)は、合成開口形状を形成する全ての開口情報を記憶してもよいし、改めて、フィッティング処理などを行い、例えば、2つの円形状などに情報を加工してもよい。ステップS813を終えると、カメラMPU125は開口情報取得の処理を終了する。 Here, synthesis of aperture information will be explained with reference to FIG. 11. FIG. 11 is an explanatory diagram of the aperture information of each unit (master lens 100, adapter 700, camera body 120) and the shape of the aperture that defines the outer edge of the light beam passing through the imaging optical system. Similar to FIG. 3, the shape of the aperture information described above is defined in a plane on the aperture shape calculation distance Ds, so it can be shown as shown in FIG. 11. In step S813 in FIG. 8, these aperture shapes are synthesized, and the area of the hatched part in FIG. 11 is calculated as a synthesized aperture shape (synthetic aperture information). The synthetic aperture shape (synthetic aperture information) may be created by storing all the aperture information that forms the synthetic aperture shape, or by performing fitting processing again and processing the information into two circular shapes, for example. good. After completing step S813, the camera MPU 125 ends the aperture information acquisition process.

(通信情報と開口情報の合成処理の演算リソースについて)
次に、図12を参照して、本実施形態における開口情報の通信と開口情報の合成処理の演算リソースについて説明する。図12は、各ユニット(マスターレンズ100、コンバータレンズユニット600、アダプター700、カメラ本体120)の通信情報と演算処理部を示すブロック図である。図12は、情報が記憶されているブロックと、開口情報の合成処理の演算を行うブロックを示している。
(About calculation resources for combining communication information and aperture information)
Next, with reference to FIG. 12, calculation resources for communication of aperture information and synthesis processing of aperture information in this embodiment will be described. FIG. 12 is a block diagram showing communication information and arithmetic processing units of each unit (master lens 100, converter lens unit 600, adapter 700, camera body 120). FIG. 12 shows blocks in which information is stored and blocks that perform calculations for synthesis processing of aperture information.

図12(a)は、情報記憶と演算処理を行うブロックの一例を示している。カメラMPU125は、アダプタメモリ702からアダプター開口情報を取得し、筐体905やシャッタの開口906の開口情報との合成処理を行う。これらの開口情報は、矩形の開口を三次元座標位置として記憶されている。このため、像高と矩形開口の三次元座標位置を結ぶベクトルと撮像光学系の光軸とのなす角によって、最もケラレが生じる開口情報を選択することができる。この開口情報の選択が、開口情報を合成することに相当する。 FIG. 12(a) shows an example of a block that performs information storage and arithmetic processing. The camera MPU 125 acquires adapter aperture information from the adapter memory 702 and performs a synthesis process with the aperture information of the housing 905 and the shutter aperture 906. This aperture information is stored with a rectangular aperture as a three-dimensional coordinate position. Therefore, the aperture information that causes the most vignetting can be selected depending on the angle formed by the optical axis of the imaging optical system and the vector connecting the image height and the three-dimensional coordinate position of the rectangular aperture. This selection of aperture information corresponds to composing the aperture information.

次に、カメラMPU125は、マスターレンズ100からレンズ開口情報、および、コンバータレンズユニット600からコンバータレンズ開口情報をそれぞれ取得し、既に合成された(選択された)開口情報との合成処理を行う。ここで行う合成処理は、図8を参照して説明した通りである。像高ごとに情報を持たない開口情報は、レンズステートによる変化がないため、先行して合成することにより、演算処理量を低減することができる。 Next, the camera MPU 125 obtains lens aperture information from the master lens 100 and converter lens aperture information from the converter lens unit 600, and performs synthesis processing with the already synthesized (selected) aperture information. The compositing process performed here is as described with reference to FIG. Since the aperture information, which does not have information for each image height, does not change depending on the lens state, the amount of calculation processing can be reduced by combining the aperture information in advance.

図12(b)は、情報記憶と演算処理を行うブロックが異なる一例を示している。図12(a)との違いは、マスターレンズ100内において、レンズMPU117が、像高ごとに開口情報を有するマスターレンズ100のレンズ開口情報とコンバータレンズユニット600のコンバータレンズ開口情報との合成処理を行う点である。レンズ開口情報およびコンバータレンズ開口情報はそれぞれ、レンズステートにより変化するため、随時、カメラ本体120に対して通知する必要がある。一方、図12(b)では、合成処理後の開口情報をカメラ本体120に通知するため、通信情報量を低減することができる。 FIG. 12(b) shows an example in which the blocks that perform information storage and arithmetic processing are different. The difference from FIG. 12A is that in the master lens 100, the lens MPU 117 performs a synthesis process of the lens aperture information of the master lens 100, which has aperture information for each image height, and the converter lens aperture information of the converter lens unit 600. The point is to do it. Since the lens aperture information and converter lens aperture information each change depending on the lens state, it is necessary to notify the camera body 120 at any time. On the other hand, in FIG. 12(b), since the aperture information after the synthesis process is notified to the camera body 120, the amount of communication information can be reduced.

なお、情報記憶と演算処理を行うブロックの組み合わせについては、種々の構成が考えられる。アダプター700やコンバータレンズユニット600が演算装置を有する場合には、演算装置において適宜情報を取得し、合成処理を行ってもよい。 Note that various configurations are possible for combinations of blocks that perform information storage and arithmetic processing. If the adapter 700 or the converter lens unit 600 has a computing device, the computing device may acquire appropriate information and perform the combining process.

また、開口情報の通知する経路も、種々の経路が考えられる。カメラ本体120に装着される各ユニットが、個別にカメラ本体120に通知する方法や、コンバータレンズユニット600の情報はマスターレンズ100が取得した後、マスターレンズ100からカメラ本体120にまとめて通知する方法などが考えられる。 Furthermore, various routes are conceivable as the route for notifying the aperture information. A method in which each unit attached to the camera body 120 notifies the camera body 120 individually, or a method in which information on the converter lens unit 600 is acquired by the master lens 100 and then the master lens 100 notifies the camera body 120 all at once. etc. are possible.

また、各ユニットが開口情報を有しない場合、カメラ本体120が開口情報を記憶していてもよい。例えば、マスターレンズ100、コンバータレンズユニット600、および、アダプター700の一部は、各々のユニットから開口情報を取得し、他の情報はカメラ本体120内の記憶手段に記憶していてもよい。このような場合でも、前述と同様に合成開口情報を算出することができる。 Furthermore, if each unit does not have aperture information, the camera body 120 may store the aperture information. For example, some of the master lens 100, converter lens unit 600, and adapter 700 may acquire aperture information from each unit, and other information may be stored in a storage unit within the camera body 120. Even in such a case, synthetic aperture information can be calculated in the same manner as described above.

また本実施形態では、各ユニットが開口情報を記憶している場合を説明したが、これに限定されるものではない。複数のユニットの少なくとも一部が開口情報を記憶していない場合、カメラMPU125はそのユニットの開口情報を取得することができない。この場合、取得できない開口情報(第1開口情報および第2開口情報の少なくとも一部)を用いずに合成開口情報の算出を行えばよい。また、図1および図2に示される撮像装置10、10a、10bのそれぞれにおいて、着脱可能なユニットの数は異なるが、いずれの場合でも装着されているユニットの開口情報を取得し、合成開口情報の算出を行うことができる。なお、開口情報を撮像素子10の外部から通信手段等を用いて取得するようにしてもよい。また、表示部等に表示したUIを利用してユーザー等に入力させる構成としてもよい。 Further, in this embodiment, a case has been described in which each unit stores aperture information, but the present invention is not limited to this. If at least some of the plurality of units do not store aperture information, the camera MPU 125 cannot acquire the aperture information of that unit. In this case, the synthetic aperture information may be calculated without using the aperture information that cannot be obtained (at least part of the first aperture information and the second aperture information). In each of the imaging devices 10, 10a, and 10b shown in FIGS. 1 and 2, the number of detachable units differs, but in any case, the aperture information of the attached unit is acquired, and the synthetic aperture information is can be calculated. Note that the aperture information may be acquired from outside the image sensor 10 using a communication means or the like. Alternatively, a configuration may be adopted in which a user or the like is required to input information using a UI displayed on a display unit or the like.

このように本実施形態において、制御装置(カメラMPU125)は、取得手段125dおよび算出手段125eを有する。取得手段は、撮像装置(カメラ本体120)に着脱可能な第1ユニットおよび第2ユニットのそれぞれの第1開口情報および第2開口情報を取得する。算出手段は、第1開口情報および第2開口情報に基づいて(すなわち、第1開口情報と第2開口情報とを組み合わせて)合成開口情報を算出する。 As described above, in this embodiment, the control device (camera MPU 125) includes the acquisition means 125d and the calculation means 125e. The acquisition means acquires first aperture information and second aperture information of each of a first unit and a second unit that are detachable from the imaging device (camera body 120). The calculation means calculates synthetic aperture information based on the first aperture information and the second aperture information (that is, by combining the first aperture information and the second aperture information).

好ましくは、第1開口情報と第2開口情報とは、互いに属性情報が異なり、属性情報は、レンズステート、像高、防振動作、および、デフォーカス量の少なくとも一つに関する情報である。好ましくは、第1開口情報がレンズステートに対して変化し、かつ第2開口情報がレンズステートに対して変化しない場合、取得手段は、レンズステートの変化に応じて(変化のたびに)レンズステートに対応する第1開口情報を(通信または演算により)取得する。またこの場合、取得手段は、第1開口情報の通信とは異なるタイミングで、第2開口情報を一括で(通信または演算により)取得する。また好ましくは、第1開口情報がデフォーカス量に対して変化し、かつ第2開口情報がデフォーカス量に対して変化しない場合、算出手段は、第1開口情報を用いて算出するデフォーカス量または像高範囲を変化させる。例えば、算出手段は、絞り値(F値)および射出瞳距離の少なくとも一つに応じて、デフォーカス量または像高範囲を異ならせる。 Preferably, the first aperture information and the second aperture information have different attribute information from each other, and the attribute information is information regarding at least one of the lens state, image height, anti-vibration operation, and defocus amount. Preferably, when the first aperture information changes with respect to the lens state and the second aperture information does not change with respect to the lens state, the acquisition means adjusts the lens state according to the change of the lens state (every time there is a change). First aperture information corresponding to is acquired (by communication or calculation). Further, in this case, the acquisition means acquires the second aperture information all at once (through communication or calculation) at a timing different from the communication of the first aperture information. Preferably, when the first aperture information changes with respect to the defocus amount and the second aperture information does not change with respect to the defocus amount, the calculation means calculates the defocus amount using the first aperture information. Or change the image height range. For example, the calculation means varies the defocus amount or image height range depending on at least one of an aperture value (F value) and an exit pupil distance.

好ましくは、取得手段が第1開口情報および第2開口情報を取得するタイミング、頻度、情報、および、演算の少なくとも一つは、互いに異なる。また好ましくは、取得手段は、第1ユニットから第1開口情報を取得し、第2ユニットから第2開口情報を取得する。また好ましくは、取得手段が第1開口情報を取得できない場合、算出手段は、第1開口情報を用いずに合成開口情報を算出する。 Preferably, at least one of the timing, frequency, information, and calculation with which the acquisition means acquires the first aperture information and the second aperture information are different from each other. Also preferably, the acquisition means acquires the first aperture information from the first unit and the second aperture information from the second unit. Preferably, when the acquisition means cannot acquire the first aperture information, the calculation means calculates the synthetic aperture information without using the first aperture information.

好ましくは、第1ユニットは、撮像装置(カメラ本体120)に着脱可能なレンズユニット100であり、第2ユニットは、撮像装置とレンズユニットとの間に着脱可能なアクセサリである。より好ましくは、アクセサリは、レンズユニットにおける撮像光学系の光路長を調整するアダプター700、および、レンズユニットの焦点距離を変更するコンバータレンズユニット600の少なくとも一つである。また好ましくは、第1ユニットおよび第2ユニットは、撮像素子122による受光光束を制限する。第1開口情報および第2開口情報はそれぞれ、第1ユニットおよび第2ユニットが撮像素子による受光光束を制限する開口に関する情報である。 Preferably, the first unit is a lens unit 100 that is detachable from the imaging device (camera body 120), and the second unit is an accessory that is detachable between the imaging device and the lens unit. More preferably, the accessory is at least one of an adapter 700 that adjusts the optical path length of the imaging optical system in the lens unit, and a converter lens unit 600 that changes the focal length of the lens unit. Preferably, the first unit and the second unit limit the light flux received by the image sensor 122. The first aperture information and the second aperture information are information regarding apertures through which the first unit and the second unit limit the light flux received by the image sensor, respectively.

本実施形態によれば、マスターレンズ100、コンバータレンズユニット600、アダプター700、および、カメラ本体120のそれぞれが結像光学系を通過する光束を制限する場合でも、開口情報の精度を下げることなく開口形状を算出することが可能となる。 According to this embodiment, even if the master lens 100, converter lens unit 600, adapter 700, and camera body 120 each limit the light flux passing through the imaging optical system, the aperture information can be adjusted without reducing the accuracy of the aperture information. It becomes possible to calculate the shape.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

本実施形態によれば、複数の着脱可能なユニットの各々の開口情報を高精度に算出可能な制御装置、撮像装置、制御方法、および、プログラムを提供することができる。 According to the present embodiment, it is possible to provide a control device, an imaging device, a control method, and a program that can calculate aperture information of each of a plurality of detachable units with high precision.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and changes can be made within the scope of the invention.

125 カメラMPU(制御装置)
125d 取得手段
125e 算出手段
125 Camera MPU (control unit)
125d Acquisition means 125e Calculation means

Claims (14)

撮像装置に着脱可能な第1ユニットおよび第2ユニットのそれぞれを通過する光束の外縁を規定する開口の形状に関する第1開口情報および第2開口情報を取得する取得手段と、
前記第1開口情報および前記第2開口情報に基づいて合成開口情報を算出する算出手段と、を有することを特徴とする制御装置。
acquisition means for acquiring first aperture information and second aperture information regarding the shape of an aperture that defines an outer edge of a luminous flux passing through each of a first unit and a second unit that are detachable from the imaging device;
A control device comprising: calculation means for calculating synthetic aperture information based on the first aperture information and the second aperture information.
前記第1開口情報と前記第2開口情報とは、互いに属性情報に対する変化が異なり、
前記属性情報は、レンズステート、像高、防振動作、および、デフォーカス量の少なくとも一つに関する情報であることを特徴とする請求項1に記載の制御装置。
The first aperture information and the second aperture information have different changes in attribute information,
The control device according to claim 1, wherein the attribute information is information regarding at least one of a lens state, an image height, an anti-vibration operation, and a defocus amount.
前記属性情報は、前記レンズステートであり、
前記第1開口情報が前記レンズステートに対して変化し、かつ、前記第2開口情報が前記レンズステートに対して変化しない場合、前記取得手段は、前記レンズステートの変化に応じて前記レンズステートに対応する前記第1開口情報を取得し、前記第1開口情報の通信とは異なるタイミングで、前記第2開口情報を一括で取得することを特徴とする請求項2に記載の制御装置。
The attribute information is the lens state,
When the first aperture information changes with respect to the lens state and the second aperture information does not change with respect to the lens state, the acquisition means changes the lens state according to the change in the lens state. 3. The control device according to claim 2, wherein the corresponding first aperture information is acquired, and the second aperture information is acquired all at once at a timing different from communication of the first aperture information.
前記属性情報は、前記デフォーカス量であり、
前記第1開口情報が前記デフォーカス量に対して変化し、かつ、前記第2開口情報が前記デフォーカス量に対して変化しない場合、前記取得手段は、前記デフォーカス量に応じて変換された前記第1開口情報を取得し、前記デフォーカス量に応じた変換を行うことなく前記第2開口情報を取得することを特徴とする請求項2に記載の制御装置。
The attribute information is the defocus amount,
When the first aperture information changes with respect to the defocus amount and the second aperture information does not change with respect to the defocus amount, the acquisition means converts the information into the defocus amount according to the defocus amount. 3. The control device according to claim 2, wherein the first aperture information is acquired and the second aperture information is acquired without performing conversion according to the defocus amount.
前記取得手段が前記第1開口情報および前記第2開口情報を取得するタイミングおよび頻度の少なくとも一つは、互いに異なることを特徴とする請求項1乃至4のいずれか1項に記載の制御装置。 5. The control device according to claim 1, wherein at least one of timing and frequency with which the acquisition means acquires the first aperture information and the second aperture information are different from each other. 前記取得手段は、
前記第1ユニットから前記第1開口情報を取得し、
前記第2ユニットから前記第2開口情報を取得することを特徴とする請求項1乃至5のいずれか1項に記載の制御装置。
The acquisition means is
acquiring the first aperture information from the first unit;
The control device according to any one of claims 1 to 5, wherein the second aperture information is acquired from the second unit.
前記取得手段が前記第1開口情報を取得できない場合、前記算出手段は、前記第1開口情報を用いずに前記合成開口情報を算出することを特徴とする請求項1乃至6のいずれか1項に記載の制御装置。 7. If the acquisition means cannot acquire the first aperture information, the calculation means calculates the synthetic aperture information without using the first aperture information. The control device described in . 前記第1ユニットは、前記撮像装置に着脱可能なレンズユニットであり、
前記第2ユニットは、前記撮像装置と前記レンズユニットとの間に着脱可能なアクセサリであることを特徴とする請求項1乃至7のいずれか1項に記載の制御装置。
The first unit is a lens unit that is detachable from the imaging device,
The control device according to any one of claims 1 to 7, wherein the second unit is an accessory that can be attached and detached between the imaging device and the lens unit.
前記アクセサリは、前記レンズユニットにおける撮像光学系の光路長を調整するアダプター、および、前記レンズユニットの焦点距離を変更するコンバータレンズユニットの少なくとも一つであることを特徴とする請求項8に記載の制御装置。 9. The accessory according to claim 8, wherein the accessory is at least one of an adapter that adjusts the optical path length of an imaging optical system in the lens unit, and a converter lens unit that changes the focal length of the lens unit. Control device. 撮像素子と、
請求項1乃至9のいずれか1項に記載の制御装置と、を有することを特徴とする撮像装置。
An image sensor and
An imaging device comprising: the control device according to claim 1 .
前記第1ユニットおよび前記第2ユニットは、前記撮像素子による受光光束を制限し、
前記第1開口情報および前記第2開口情報はそれぞれ、前記第1ユニットおよび前記第2ユニットが前記撮像素子による前記受光光束を制限する開口に関する情報であることを特徴とする請求項10に記載の撮像装置。
The first unit and the second unit limit the light flux received by the image sensor,
11. The first aperture information and the second aperture information are information regarding an aperture in which the first unit and the second unit respectively limit the light flux received by the image sensor. Imaging device.
前記第1ユニットは、前記撮像装置に着脱可能なレンズユニットであり、
前記第1開口情報は、デフォーカス量に応じて変化することを特徴とする請求項10または11に記載の撮像装置。
The first unit is a lens unit that is detachable from the imaging device,
The imaging device according to claim 10 or 11, wherein the first aperture information changes depending on a defocus amount.
撮像装置に着脱可能な第1ユニットおよび第2ユニットのそれぞれを通過する光束の外縁を規定する開口の形状に関する第1開口情報および第2開口情報を取得するステップと、
前記第1開口情報および前記第2開口情報に基づいて合成開口情報を算出するステップと、を有することを特徴とする制御方法。
acquiring first aperture information and second aperture information regarding the shape of an aperture that defines an outer edge of a light beam passing through each of a first unit and a second unit that are detachable from the imaging device;
A control method comprising the step of calculating synthetic aperture information based on the first aperture information and the second aperture information.
請求項13に記載の制御方法をコンピュータに実行させることを特徴とするプログラム。 A program that causes a computer to execute the control method according to claim 13.
JP2019089532A 2019-05-10 2019-05-10 Control device, imaging device, control method, and program Active JP7427368B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019089532A JP7427368B2 (en) 2019-05-10 2019-05-10 Control device, imaging device, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019089532A JP7427368B2 (en) 2019-05-10 2019-05-10 Control device, imaging device, control method, and program

Publications (2)

Publication Number Publication Date
JP2020187159A JP2020187159A (en) 2020-11-19
JP7427368B2 true JP7427368B2 (en) 2024-02-05

Family

ID=73220982

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019089532A Active JP7427368B2 (en) 2019-05-10 2019-05-10 Control device, imaging device, control method, and program

Country Status (1)

Country Link
JP (1) JP7427368B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118697A (en) 2014-12-22 2016-06-30 オリンパス株式会社 Photographing device
JP2017040704A (en) 2015-08-18 2017-02-23 キヤノン株式会社 Imaging apparatus and imaging system
JP2019053189A (en) 2017-09-15 2019-04-04 富士フイルム株式会社 Rear converter lens and imaging apparatus
JP2020003733A (en) 2018-06-29 2020-01-09 キヤノン株式会社 Defocus detection device, and defocus detection method

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63200132A (en) * 1987-02-16 1988-08-18 Minolta Camera Co Ltd Camera system and intermediate accessory

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016118697A (en) 2014-12-22 2016-06-30 オリンパス株式会社 Photographing device
JP2017040704A (en) 2015-08-18 2017-02-23 キヤノン株式会社 Imaging apparatus and imaging system
JP2019053189A (en) 2017-09-15 2019-04-04 富士フイルム株式会社 Rear converter lens and imaging apparatus
JP2020003733A (en) 2018-06-29 2020-01-09 キヤノン株式会社 Defocus detection device, and defocus detection method

Also Published As

Publication number Publication date
JP2020187159A (en) 2020-11-19

Similar Documents

Publication Publication Date Title
JP5293716B2 (en) Interchangeable lens, camera body and camera system
KR101987175B1 (en) Control apparatus, control method, and storage medium
JP3728608B2 (en) Blur correction optical device
JP5784395B2 (en) Imaging device
JP2012234152A (en) Imaging apparatus and control method thereof
JP5344608B2 (en) Shooting system
JP6019626B2 (en) Imaging device
JP6659100B2 (en) Imaging device
JP2011044970A5 (en)
JP6854619B2 (en) Focus detection device and method, imaging device, lens unit and imaging system
JP2008268815A (en) Automatic focusing device
JP4560420B2 (en) Imaging device
JP7427368B2 (en) Control device, imaging device, control method, and program
JP2015232604A (en) Focus adjustment device, focus adjustment method and program, and imaging device
JP2008249966A (en) Autofocus device and camera
JP2006084545A (en) Camera, photographing lens, and camera system
JP2006065080A (en) Imaging device
JP6501536B2 (en) Imaging device, control method therefor, program, storage medium
JP2014194502A (en) Imaging apparatus and imaging system
JP6355348B2 (en) IMAGING DEVICE, IMAGING SYSTEM, IMAGING DEVICE CONTROL METHOD, PROGRAM, AND STORAGE MEDIUM
JP2018180135A (en) Imaging device
JP2012093712A (en) Interchangeable lens and camera body
JP2005062729A (en) Camera
JP6136566B2 (en) Imaging device and intermediate adapter
JP5943693B2 (en) Imaging device, control method thereof, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220428

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230228

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230925

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240124

R151 Written notification of patent or utility model registration

Ref document number: 7427368

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151