JP2010283651A - Imaging device, and imaging element unit - Google Patents

Imaging device, and imaging element unit Download PDF

Info

Publication number
JP2010283651A
JP2010283651A JP2009136007A JP2009136007A JP2010283651A JP 2010283651 A JP2010283651 A JP 2010283651A JP 2009136007 A JP2009136007 A JP 2009136007A JP 2009136007 A JP2009136007 A JP 2009136007A JP 2010283651 A JP2010283651 A JP 2010283651A
Authority
JP
Japan
Prior art keywords
focus detection
imaging
image sensor
unit
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009136007A
Other languages
Japanese (ja)
Other versions
JP5407567B2 (en
Inventor
Yosuke Kusaka
洋介 日下
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009136007A priority Critical patent/JP5407567B2/en
Publication of JP2010283651A publication Critical patent/JP2010283651A/en
Application granted granted Critical
Publication of JP5407567B2 publication Critical patent/JP5407567B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an imaging device including a plurality of imaging elements different in positions of focus detection pixels as a unit detachable by being replaced for one imaging device body, and allowing a user to change over a focus detection function in accordance with an object. <P>SOLUTION: When this imaging element unit is mounted, the imaging device body reads imaging element unit information (S110), and specifies the position of a focus detection pixel of the imaging element unit to be displayed by being superposed on a shot image (S150). A defocus amount is calculated based on the imaging element unit information and focus detection pixel data (S160), and automatic focus adjustment control is made (S180). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、撮像素子を備えた撮像装置および撮像素子ユニットに関するものである。   The present invention relates to an image pickup apparatus and an image pickup element unit including an image pickup element.

瞳分割型位相差検出方式を用いた焦点検出用画素を撮像素子中央の水平方向に配置し、その周辺に撮像用画素を配置した撮像素子を備えた撮像装置が知られている(例えば、特許文献1参照)。   There is known an imaging apparatus including an imaging element in which focus detection pixels using a pupil division type phase difference detection method are arranged in the horizontal direction at the center of the imaging element and imaging pixels are arranged in the periphery thereof (for example, patents) Reference 1).

このような撮像装置に用いられる撮像素子の焦点検出機能には種々のバリエーションが要求されるが、例えば焦点検出位置のレイアウトを取ってみても、画面中央の1点のみ/画面中央+上下左右周辺の5点/画面中央+画面対角方向の周辺の5点/画面内の格子点上に多数など多くのバリエーションがある。はじめから多数の焦点検出位置を備える撮像素子の場合には、所望の焦点検出位置を選択するために複雑な操作が必要であったり、多量の焦点検出画素の位置における画像データを補間することにより画像品質が低下してしまう虞があった。そのほかの焦点検出機能のバリエーションとしては、焦点検出画素の画素サイズ(焦点検出精度)/焦点検出画素の配列方向等がある。   Various variations are required for the focus detection function of the image sensor used in such an image pickup apparatus. For example, even if the layout of the focus detection position is taken, only one point at the center of the screen / the center of the screen + up / down / left / right periphery There are many variations such as 5 points / center of the screen + 5 points in the periphery of the screen diagonal / many on the grid points in the screen. In the case of an image sensor having a large number of focus detection positions from the beginning, a complicated operation is required to select a desired focus detection position, or by interpolating image data at a large number of focus detection pixel positions. There was a risk that the image quality would be degraded. Other variations of the focus detection function include the pixel size of the focus detection pixels (focus detection accuracy) / the arrangement direction of the focus detection pixels.

特開平1−216306号公報JP-A-1-216306

上記焦点検出機能の切り換えをユーザーが状況に応じて行いたい場合、各焦点検出機能を備えた撮像素子を搭載した撮像装置をそれぞれ用意する必要があった。例えば高画質の画像を得るために焦点検出画素を備えない撮像素子を搭載した撮像装置A、静止被写体を撮影するために焦点検出位置が比較的少ない撮像素子を搭載した撮像装置B、移動被写体を撮影するために焦点検出位置を多数備えた撮像素子を搭載した撮像装置Cを用意する必要があり、このことはユーザーにとって大きな負担であった。   When the user wants to switch the focus detection function according to the situation, it is necessary to prepare an image pickup apparatus equipped with an image pickup device having each focus detection function. For example, an image pickup apparatus A equipped with an image pickup element that does not include a focus detection pixel to obtain a high-quality image, an image pickup apparatus B equipped with an image pickup element with a relatively small focus detection position to take a still subject, and a moving subject In order to take a picture, it is necessary to prepare an image pickup apparatus C equipped with an image pickup element having a large number of focus detection positions, which is a heavy burden on the user.

またユーザーが最新の焦点検出機能を備えた撮像素子を用いたい場合には、その撮像素子を搭載した撮像装置を新たに用意する必要があった。   In addition, when a user wants to use an image pickup device having the latest focus detection function, it is necessary to prepare a new image pickup apparatus equipped with the image pickup device.

本発明の課題は、撮像素子に組み込まれた焦点検出用画素による焦点検出機能を実現しながら、ユーザーに大きな負担とならない撮像装置を提供することである。   The subject of this invention is providing the imaging device which does not become a big burden on a user, implement | achieving the focus detection function by the pixel for a focus detection incorporated in the image pick-up element.

請求項1の発明による撮像装置は、撮像画素および焦点検出画素を有する撮像素子と、ユニット通信手段とを含む撮像素子ユニットと、撮像素子ユニットが着脱可能に装着される装着部と、撮影光学系と、本体通信手段とを含む本体とを備え、撮像画素は撮像信号を出力し、焦点検出画素は、撮影光学系の焦点調節状態を検出するための焦点検出信号を出力し、撮像素子ユニットは、装着部に装着された時、ユニット通信手段と本体通信手段との間の通信を介し、本体との間で焦点調節状態の検出に関連する焦点検出関連情報を送受信することを特徴とする。
請求項7の発明による撮像装置は、撮影光学系と装着部と本体通信手段とを含む本体と、撮像画素及び焦点検出画素を有する撮像素子とユニット通信手段とを含む第1の撮像素子ユニットと、少なくとも撮像画素を有する撮像素子とユニット通信手段とを含む第2の撮像素子ユニットとを備え、第1及び第2の撮像素子ユニットに含まれる各々の撮像画素は、それぞれ撮像信号を出力し、焦点検出画素は、撮影光学系の焦点調節状態を検出する為の焦点検出信号を出力し、第1及び第2の撮像素子ユニットの各々は、択一的に装置本体の装着部に着脱可能に装着され、本体制御手段は、第1の撮像素子ユニットが装着部に装着された時、第1の撮像素子ユニットに含まれるユニット通信手段と本体通信手段との間の通信を介し、第1の撮像素子ユニットとの間で焦点調節状態の検出に関連する第1の情報を受信し、第2の撮像素子ユニットが装着部に装着された時、第2の撮像素子ユニットに含まれるユニット通信手段と本体通信手段との間の通信を介し、第1の情報とは異なる第2の情報を受信し、装着部に装着されているのが、第1の撮像素子ユニットであるか、第2の撮像素子ユニットであるかに応じて焦点調節状態の検出処理を行うことを特徴とする。
請求項13の発明による撮像素子ユニットは、請求項7〜12のいずれか1項に記載の撮像装置で使用する第1の撮像素子ユニットである。
An image pickup apparatus according to a first aspect of the present invention includes an image pickup element having an image pickup pixel and a focus detection pixel, an image pickup element unit including unit communication means, a mounting portion on which the image pickup element unit is detachably mounted, and a photographing optical system. And a main body including main body communication means, the imaging pixel outputs an imaging signal, the focus detection pixel outputs a focus detection signal for detecting a focus adjustment state of the imaging optical system, and the imaging element unit When mounted on the mounting portion, the focus detection related information related to the detection of the focus adjustment state is transmitted / received to / from the main body via communication between the unit communication means and the main body communication means.
An image pickup apparatus according to a seventh aspect of the present invention includes a main body including a photographing optical system, a mounting unit, and main body communication means, a first image pickup element unit including an image pickup element having an image pickup pixel and a focus detection pixel, and unit communication means. A second imaging element unit including at least an imaging element having an imaging pixel and unit communication means, and each imaging pixel included in the first and second imaging element units outputs an imaging signal, The focus detection pixel outputs a focus detection signal for detecting the focus adjustment state of the photographing optical system, and each of the first and second image sensor units can be detachably attached to the mounting portion of the apparatus main body. When the first image sensor unit is mounted on the mounting portion, the main body control means is connected to the first image sensor unit via communication between the unit communication means included in the first image sensor unit and the main body communication means. Imaging element Unit communication means and main body included in the second image sensor unit when the first information related to the detection of the focus adjustment state with the unit is received and the second image sensor unit is mounted on the mounting unit 2nd information different from 1st information is received via communication with a communication means, and it is a 1st image pick-up element unit with which the mounting part is mounted | worn, or 2nd image sensor The focus adjustment state detection process is performed according to whether the unit is a unit.
An image sensor unit according to a thirteenth aspect of the present invention is a first image sensor unit used in the image pickup apparatus according to any one of the seventh to twelfth aspects.

本発明による撮像装置によれば、ユーザーに大きな負担をかけずに、ユーザーが状況に応じて種々の焦点検出機能の切り換えを行うことが可能になる。   According to the imaging apparatus of the present invention, it is possible for the user to switch various focus detection functions depending on the situation without imposing a heavy burden on the user.

本実施の形態によるカメラシステムを説明する図。FIG. 6 illustrates a camera system according to this embodiment. カメラシステムの構成を示すブロック図。The block diagram which shows the structure of a camera system. 撮像素子ユニットAにおける撮影画面上の焦点検出位置を示す図。FIG. 4 is a diagram illustrating a focus detection position on a shooting screen in the image sensor unit A. 瞳分割型位相差検出方式の原理について説明する図。The figure explaining the principle of a pupil division type phase difference detection system. 撮像素子ユニットAの撮像素子の詳細な構成を示す部分拡大正面図。FIG. 3 is a partially enlarged front view showing a detailed configuration of an image sensor of the image sensor unit A. 撮像画素と焦点検出画素のマイクロレンズの形状を示す図。The figure which shows the shape of the micro lens of an imaging pixel and a focus detection pixel. 撮像画素のマイクロレンズの形状を示す図。The figure which shows the shape of the micro lens of an imaging pixel. 焦点検出画素のマイクロレンズの形状を示す図。The figure which shows the shape of the micro lens of a focus detection pixel. 緑画素、赤画素および青画素の分光特性を示す図。The figure which shows the spectral characteristic of a green pixel, a red pixel, and a blue pixel. 焦点検出画素の分光特性を示す図。The figure which shows the spectral characteristic of a focus detection pixel. 撮像画素の断面図。Sectional drawing of an imaging pixel. 焦点検出画素の断面図。Sectional drawing of a focus detection pixel. マイクロレンズを用いた瞳分割型位相差検出方式の焦点検出光学系の構成を示す図。The figure which shows the structure of the focus detection optical system of the pupil division type phase difference detection system using a micro lens. 撮像画素が受光する撮影光束の様子を示す図。The figure which shows the mode of the imaging | photography light beam which an imaging pixel receives. 撮像素子ユニットBにおける撮影画面上の焦点検出位置を示す図。FIG. 6 is a diagram illustrating a focus detection position on a shooting screen in the image sensor unit B. 撮像素子ユニットBの撮像素子の詳細な構成を示す部分拡大正面図。FIG. 4 is a partially enlarged front view showing a detailed configuration of an image sensor of the image sensor unit B. 撮像素子ユニットCにおける撮影画面上の焦点検出位置を示す図。FIG. 4 is a diagram showing a focus detection position on a shooting screen in the image sensor unit C. 撮像素子ユニットCの撮像素子の詳細な構成を示す部分拡大正面図。FIG. 4 is a partially enlarged front view showing a detailed configuration of an image sensor of the image sensor unit C. 撮像素子ユニットDにおける撮影画面上の焦点検出位置を示す図。FIG. 4 is a diagram illustrating a focus detection position on a shooting screen in the image sensor unit D. 撮像素子ユニットDの撮像素子の詳細な構成を示す部分拡大正面図。FIG. 3 is a partially enlarged front view showing a detailed configuration of an image sensor of the image sensor unit D. カメラシステムのボディ制御装置の撮像動作を示すフローチャート。The flowchart which shows the imaging operation of the body control apparatus of a camera system. カメラシステムのユニット制御装置の撮像動作を示すフローチャート。The flowchart which shows the imaging operation of the unit control apparatus of a camera system. カメラシステムのレンズ制御装置の撮像動作を示すフローチャート。The flowchart which shows the imaging operation of the lens control apparatus of a camera system. 一対のデータのシフト量kに対する相関量C(k)の関係を示す図。The figure which shows the relationship of the correlation amount C (k) with respect to the shift amount k of a pair of data. 他の実施の形態によるカメラシステムのボディ制御装置の撮像動作を示すフローチャート。The flowchart which shows the imaging operation of the body control apparatus of the camera system by other embodiment. 他の実施の形態によるカメラシステムのユニット制御装置の撮像動作を示すフローチャート。The flowchart which shows the imaging operation of the unit control apparatus of the camera system by other embodiment. 他の実施の形態による撮像素子ユニットにおける撮影画面上の焦点検出位置を示す図。The figure which shows the focus detection position on the imaging | photography screen in the image pick-up element unit by other embodiment. 他の実施の形態による撮像素子ユニットの撮像素子の詳細な構成を示す部分拡大正面図。The partial enlarged front view which shows the detailed structure of the image pick-up element of the image pick-up element unit by other embodiment. 他の実施の形態における焦点検出画素のマイクロレンズの形状を示す図。The figure which shows the shape of the micro lens of the focus detection pixel in other embodiment. 他の実施の形態における焦点検出画素の断面図。Sectional drawing of the focus detection pixel in other embodiment.

一実施の形態の撮像装置として、レンズ交換式デジタルスチルカメラシステムを例に上げて説明する。図1は一実施形態のカメラシステム(デジタルスチルカメラ)201の概要を示す図であり、カメラ本体(カメラボディ)203の前部には交換レンズ202が装着される。カメラボディ203の背部には撮像素子ユニット400を装着するための装着部221が設けられている。装着部221には撮像素子ユニット400が装着部221に装着された時に撮像素子ユニット400と通信するための電気接点222が設けられている。撮像素子ユニット400はカメラボディ202の装着部221に対して着脱可能であり、撮像素子ユニット400が装着部221に装着された時にカメラボディ203と通信するための電気接点222と接触する電気接点422が設けられている。   As an imaging apparatus according to an embodiment, a lens interchangeable digital still camera system will be described as an example. FIG. 1 is a diagram showing an outline of a camera system (digital still camera) 201 according to an embodiment. An interchangeable lens 202 is attached to the front portion of a camera body (camera body) 203. A mounting portion 221 for mounting the image sensor unit 400 is provided on the back of the camera body 203. The mounting unit 221 is provided with an electrical contact 222 for communicating with the image sensor unit 400 when the image sensor unit 400 is mounted on the mounting unit 221. The image sensor unit 400 can be attached to and detached from the mounting part 221 of the camera body 202, and when the image sensor unit 400 is mounted on the mounting part 221, an electrical contact 422 that contacts an electrical contact 222 for communicating with the camera body 203. Is provided.

図2は一実施形態のカメラシステム201の構成を示すブロック図である。カメラシステム201は交換レンズ202とカメラボディ203と撮像素子ユニット400から構成され、交換レンズ202がマウント部204を介してカメラボディ203に装着される。カメラボディ203にはマウント部204を介して種々の撮影光学系を有する交換レンズ202が装着可能である。また撮像素子ユニット400が装着部221を介してカメラボディ203に装着される。カメラボディ203には装着部221を介して種々の撮像素子を有する撮像素子ユニット400が装着可能である。   FIG. 2 is a block diagram illustrating a configuration of the camera system 201 according to the embodiment. The camera system 201 includes an interchangeable lens 202, a camera body 203, and an image sensor unit 400, and the interchangeable lens 202 is attached to the camera body 203 via a mount unit 204. An interchangeable lens 202 having various photographing optical systems can be attached to the camera body 203 via a mount unit 204. Further, the image sensor unit 400 is attached to the camera body 203 via the attachment portion 221. An image sensor unit 400 having various image sensors can be mounted on the camera body 203 via a mounting portion 221.

交換レンズ202はレンズ209、ズーミング用レンズ208、フォーカシング用レンズ210、絞り211、レンズ制御装置206などを備えている。レンズ制御装置206は不図示のマイクロコンピューター、メモリ、駆動制御回路などから構成され、フォーカシング用レンズ210の焦点調節と絞り211の開口径調節のための駆動制御や、ズーミング用レンズ208、フォーカシング用レンズ210および絞り211の状態検出などを行う他、後述するボディ制御装置214との通信によりレンズ情報の送信とカメラ情報の受信を行う。絞り211は、光量およびボケ量調整のために光軸中心に開口径が可変な開口を形成する。   The interchangeable lens 202 includes a lens 209, a zooming lens 208, a focusing lens 210, an aperture 211, a lens control device 206, and the like. The lens control device 206 includes a microcomputer (not shown), a memory, a drive control circuit, and the like, and performs drive control for adjusting the focus of the focusing lens 210 and adjusting the aperture diameter of the aperture 211, zooming lens 208, and focusing lens. In addition to detecting the state of 210 and the aperture 211, lens information is transmitted and camera information is received through communication with a body control device 214 described later. The aperture 211 forms an aperture having a variable aperture diameter at the center of the optical axis in order to adjust the amount of light and the amount of blur.

撮像素子ユニット400は撮像素子412、ユニット制御装置401、メモリ402、撮像素子駆動回路404などを備えている。焦点検出画素を含む撮像素子を備えた撮像素子ユニットにおいては、焦点検出画素の位置における仮想的な撮像画素のデータを焦点検出画素の周囲の撮像画素のデータから補間するための画素補間回路403も備えている。   The image sensor unit 400 includes an image sensor 412, a unit control device 401, a memory 402, an image sensor drive circuit 404, and the like. In an image sensor unit including an image sensor including a focus detection pixel, a pixel interpolation circuit 403 for interpolating virtual image pixel data at the position of the focus detection pixel from image data around the focus detection pixel is also provided. I have.

ユニット制御装置401は撮像素子駆動回路404を介して撮像素子412を駆動制御し、撮像画素データ(撮像信号)および焦点検出画素データ(焦点検出信号)の読み出しを繰り返し行うとともに、電気接点422を介してボディ制御装置214と通信を行うことにより、上記撮像画素データおよび焦点検出画素データレンズ情報をカメラボディ203に送信するとともに、カメラボディ203からカメラボディ情報を受信する。メモリ402には撮像素子の特性情報や焦点検出に関連する情報が記憶されており、該情報はユニット制御装置401により読み出されてカメラボディ203に送信される。   The unit control device 401 drives and controls the image sensor 412 via the image sensor drive circuit 404, repeatedly reads out the image pixel data (image signal) and the focus detection pixel data (focus detection signal), and also via the electrical contact 422. By communicating with the body control device 214, the imaging pixel data and the focus detection pixel data lens information are transmitted to the camera body 203 and the camera body information is received from the camera body 203. The memory 402 stores characteristic information of the image sensor and information related to focus detection. The information is read by the unit control device 401 and transmitted to the camera body 203.

撮像素子412には、撮像画素が二次元状に配置されるとともに、焦点検出画素を含む撮像素子においては焦点検出位置に対応した部分に焦点検出画素が組み込まれている。この撮像素子412については詳細を後述する。   The imaging element 412 has imaging pixels arranged in a two-dimensional manner, and in an imaging element including a focus detection pixel, the focus detection pixel is incorporated in a portion corresponding to the focus detection position. Details of the image sensor 412 will be described later.

カメラボディ203はボディ制御装置214、液晶表示素子駆動回路215、液晶表示素子216、接眼レンズ217、メモリカード219、操作手段220などを備えている。ボディ制御装置214はマイクロコンピューター、メモリ、駆動制御回路などから構成され、画像生成を行って該画像の画像データを記録するとともに、焦点情報の生成を行って該焦点情報に基づいて交換レンズ202の焦点調節を繰り返し行う。またその他カメラシステム全体の動作制御などを行う。また、ボディ制御装置214は電気接点213を介してレンズ制御装置206と通信を行い、レンズ情報の受信とカメラ情報(デフォーカス量や絞り値など)の送信を行うとともに、電気接点222を介して撮像素子ユニット422と通信を行い、撮像素子の特性情報や焦点検出に関連する情報の受信とカメラボディ情報の送信を行う。   The camera body 203 includes a body control device 214, a liquid crystal display element driving circuit 215, a liquid crystal display element 216, an eyepiece lens 217, a memory card 219, an operation means 220, and the like. The body control device 214 includes a microcomputer, a memory, a drive control circuit, and the like. The body control device 214 generates an image and records image data of the image, and also generates focus information and generates the focus information based on the focus information. Repeat the focus adjustment. It also controls the overall camera system operation. The body control device 214 communicates with the lens control device 206 via the electrical contact 213 to receive lens information and transmit camera information (defocus amount, aperture value, etc.), and via the electrical contact 222. It communicates with the image sensor unit 422, receives characteristic information of the image sensor and information related to focus detection, and transmits camera body information.

液晶表示素子216は電気的なビューファインダー(EVF:Electronic View Finder)として機能する。液晶表示素子駆動回路215は画像を液晶表示素子216に表示し、撮影者は接眼レンズ217を介して画像を観察することができる。メモリカード219は、画像データ記憶する画像ストレージである。操作手段220はカメラボディ203に対しユーザーの意志を伝達するための手段であって、これにより焦点検出位置の選択やシャッターレリーズの指示が行われる。   The liquid crystal display element 216 functions as an electric view finder (EVF). The liquid crystal display element driving circuit 215 displays an image on the liquid crystal display element 216, and the photographer can observe the image through the eyepiece lens 217. The memory card 219 is an image storage that stores image data. The operation unit 220 is a unit for transmitting the user's will to the camera body 203, whereby the focus detection position is selected and the shutter release is instructed.

撮像素子412には、撮像画素が二次元状に配置されるとともに、焦点検出位置に対応した部分に焦点検出画素が組み込まれている。この撮像素子412については詳細を後述する。   In the imaging element 412, imaging pixels are two-dimensionally arranged, and focus detection pixels are incorporated in portions corresponding to focus detection positions. Details of the image sensor 412 will be described later.

以上のような構成により、以下のような動作が行われる。交換レンズ202を通過した光束により、撮像素子412の受光面上に被写体像が形成される。この被写体像は撮像素子412により光電変換され、撮像画素データと焦点検出画素データが生成される。焦点検出画素データの位置における仮想的な撮像画素データは画素補間回路403により画素補間される。画素補間されたデータを含む撮像画素データと焦点検出画素データと撮像素子の特性情報と焦点検出に関連した情報がユニット制御装置401に取り込まれ、通信によりボディ制御装置214に送信される。   With the above configuration, the following operation is performed. A subject image is formed on the light receiving surface of the image sensor 412 by the light beam that has passed through the interchangeable lens 202. This subject image is photoelectrically converted by the imaging element 412 to generate imaging pixel data and focus detection pixel data. The virtual imaging pixel data at the position of the focus detection pixel data is subjected to pixel interpolation by the pixel interpolation circuit 403. Image pickup pixel data including pixel interpolated data, focus detection pixel data, image sensor characteristic information, and information related to focus detection are taken into the unit control device 401 and transmitted to the body control device 214 by communication.

ボディ制御装置214は、焦点検出画素データと焦点検出に関連する情報に基づいてデフォーカス量を算出し、このデフォーカス量をレンズ制御装置206へ送る。また、ボディ制御装置214は、撮像画素データを撮像素子の特性情報に応じて処理することにより画像データを生成し、該画像データをメモリカード219に格納するとともに、該画像データを液晶表示素子駆動回路215へ送り、画像を液晶表示素子216に表示させる。さらに、ボディ制御装置214は、レンズ制御装置206へ絞り制御情報を送って絞り211の開口制御を行う。   The body control device 214 calculates a defocus amount based on the focus detection pixel data and information related to focus detection, and sends the defocus amount to the lens control device 206. The body control device 214 generates image data by processing the imaging pixel data in accordance with the characteristic information of the imaging element, stores the image data in the memory card 219, and drives the liquid crystal display element. The image is sent to the circuit 215 and an image is displayed on the liquid crystal display element 216. Further, the body control device 214 sends aperture control information to the lens control device 206 to control the aperture of the aperture 211.

レンズ制御装置206は、フォーカシング状態、ズーミング状態、絞り設定状態、絞り開放F値などに応じてレンズ情報を更新する。具体的には、ズーミング用レンズ208の位置とフォーカシング用レンズ210の位置と絞り211の絞り値(開口径)を検出し、これらのレンズ位置と絞り値に応じてレンズ情報を演算したり、あるいは予め用意されたルックアップテーブルからレンズ位置と絞り値に応じたレンズ情報を選択し、該情報をボディ制御装置203に送信する。   The lens control device 206 updates the lens information according to the focusing state, zooming state, aperture setting state, aperture opening F value, and the like. Specifically, the position of the zooming lens 208, the position of the focusing lens 210, and the aperture value (aperture diameter) of the aperture 211 are detected, and lens information is calculated according to these lens location and aperture value, or Lens information corresponding to the lens position and aperture value is selected from a lookup table prepared in advance, and the information is transmitted to the body control device 203.

レンズ制御装置206は、受信したデフォーカス量に基づいてレンズ駆動量を算出し、レンズ駆動量に応じてフォーカシング用レンズ210を合焦位置へ駆動する。また、レンズ制御装置206は受信した絞り値に応じて絞り211を駆動する。   The lens control device 206 calculates a lens driving amount based on the received defocus amount, and drives the focusing lens 210 to the in-focus position according to the lens driving amount. In addition, the lens control device 206 drives the diaphragm 211 in accordance with the received diaphragm value.

なお電源についてはカメラボディ203に内蔵し、マウント部204、装着部221を介して交換レンズ202、撮像素子ユニット400に供給してもよいし、カメラボディ203,交換レンズ202、撮像素子ユニット400のおのおのに内蔵してもよい。   The power source may be built in the camera body 203 and supplied to the interchangeable lens 202 and the image sensor unit 400 via the mount unit 204 and the mounting unit 221, or the camera body 203, the interchangeable lens 202, and the image sensor unit 400. It may be built in each one.

図3は、1つの種類の撮像素子ユニットAにおける撮影画面上の焦点検出位置を示す図であり、後述する撮像素子412上の焦点検出画素列が焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、AFエリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面100上の中央および左右の3箇所に焦点検出エリア101〜103が配置される。長方形で示す焦点検出エリアの長手方向に、焦点検出画素が垂直方向に直線的に配列される。   FIG. 3 is a diagram showing a focus detection position on the shooting screen in one type of image sensor unit A, and an image is sampled on the shooting screen when a focus detection pixel column on the image sensor 412 described later performs focus detection. An example of a region (focus detection area, AF area, focus detection position) to be performed is shown. In this example, focus detection areas 101 to 103 are arranged at the center and three left and right positions on the rectangular shooting screen 100. In the longitudinal direction of the focus detection area indicated by the rectangle, the focus detection pixels are linearly arranged in the vertical direction.

撮像素子412の詳細な構成について説明する前に、公知技術である瞳分割型位相差検出方式の原理について、図4を用いて説明する。撮像面110上に焦点検出画素111が複数配列される。焦点検出画素111はマイクロレンズ112と一対の光電変換部113,114から構成される。一対の光電変換部113,114はマイクロレンズ112により撮像面110から前方の距離d(測距瞳距離)にある測距瞳面120に投影され、測距瞳123,124が形成される。換言すると、撮像面110から前方の距離dにある測距瞳面120上を通過する光束のうち測距瞳123の光束が、焦点検出画素111の光電変換部113により受光され、測距瞳面120上を通過する光束のうち測距瞳124の光束が、焦点検出画素111の光電変換部114により受光される。焦点検出画素111の配列の光電変換部113の系列の像信号と、光電変換部114の系列の像信号との相対的なズレ量(位相差、像ズレ量)は、撮像面上に像を形成する光学系の焦点調節状態に応じて変化するので、このズレ量を焦点検出画素が生成する一対の像信号を演算処理することによって求めれば、光学系の焦点調節状態を検出することができる。   Before describing the detailed configuration of the image sensor 412, the principle of a pupil division type phase difference detection method, which is a known technique, will be described with reference to FIG. A plurality of focus detection pixels 111 are arranged on the imaging surface 110. The focus detection pixel 111 includes a microlens 112 and a pair of photoelectric conversion units 113 and 114. The pair of photoelectric conversion units 113 and 114 are projected by the microlens 112 onto the distance measuring pupil plane 120 at a distance d (distance pupil distance) ahead from the imaging surface 110 to form the distance measuring pupils 123 and 124. In other words, the luminous flux of the ranging pupil 123 out of the luminous flux passing through the distance measuring pupil plane 120 at a distance d ahead of the imaging surface 110 is received by the photoelectric conversion unit 113 of the focus detection pixel 111, and the distance measuring pupil plane. Among the light beams that pass on 120, the light beam of the distance measuring pupil 124 is received by the photoelectric conversion unit 114 of the focus detection pixel 111. The relative shift amount (phase difference, image shift amount) between the image signal of the photoelectric conversion unit 113 in the array of the focus detection pixels 111 and the image signal of the photoelectric conversion unit 114 is an image on the imaging surface. Since it changes according to the focus adjustment state of the optical system to be formed, the focus adjustment state of the optical system can be detected by calculating this shift amount by processing a pair of image signals generated by the focus detection pixels. .

ところで上記一対の測距瞳123,124は一対の光電変換部113,114を単純に投影した分布とはならず、マイクロレンズ111の開口径(画素サイズと略一致)に応じた光の回折効果により、ボケを生じて裾野を引いた分布となる。図3において一対の測距瞳123,124の並び方向と垂直な方向のスリットを用いて一対の測距瞳123,124を並び方向に走査すると、一対の測距瞳分布133,134が得られる。上記回折効果により一対の測距瞳分布133,134は隣接した部分で互いに重畳部135を有する。   By the way, the pair of distance measurement pupils 123 and 124 do not have a distribution obtained by simply projecting the pair of photoelectric conversion units 113 and 114, but the light diffraction effect according to the aperture diameter (substantially coincides with the pixel size) of the microlens 111. Due to this, the distribution is blurred and has a base. In FIG. 3, when the pair of distance measurement pupils 123 and 124 are scanned in the alignment direction using the slit in the direction perpendicular to the alignment direction of the pair of distance measurement pupils 123 and 124, a pair of distance measurement pupil distributions 133 and 134 are obtained. . Due to the diffraction effect, the pair of distance measuring pupil distributions 133 and 134 have overlapping portions 135 at adjacent portions.

上述したように瞳分割型位相差検出方式においては、一対の測距瞳を通過する光束が形成する一対の像の撮像面上での像ズレ量を検出し、該像ズレ量に所定の変換係数を乗じて光軸方向のデフォーカス量(焦点調節状態)に変換する。   As described above, in the pupil division type phase difference detection method, the image displacement amount on the imaging surface of the pair of images formed by the light flux passing through the pair of distance measurement pupils is detected and converted into the image displacement amount with a predetermined conversion. Multiply by a coefficient to convert to a defocus amount (focus adjustment state) in the optical axis direction.

図5は撮像素子412の詳細な構成を示す正面図であり、図3における焦点検出エリア101の近傍を拡大して画素配列の詳細を示す。撮像素子412には撮像画素310が二次元正方格子状に稠密に配列される。撮像画素310は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。焦点検出用には撮像画素と同一の画素サイズを有する垂直方向焦点検出用の焦点検出画素313、314が交互に、本来緑画素と青画素が連続的に配置されるべき垂直方向の直線上に連続して配列される。   FIG. 5 is a front view showing a detailed configuration of the image sensor 412, and shows the details of the pixel arrangement by enlarging the vicinity of the focus detection area 101 in FIG. 3. Imaging pixels 310 are densely arranged in a two-dimensional square lattice pattern on the imaging element 412. The imaging pixel 310 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. For focus detection, focus detection pixels 313 and 314 for vertical focus detection having the same pixel size as the imaging pixels are alternately arranged on a vertical straight line on which green and blue pixels should be continuously arranged. Arranged consecutively.

図6は撮像画素と焦点検出画素のマイクロレンズの形状を示す図であって、元々画素サイズより大きな円形のマイクロレンズ9から画素サイズに対応した正方形の形状で切り出した形状をしており、マイクロレンズ10の光軸を通る対角線の方向の断面とマイクロレンズ10の光軸を通る水平線の方向の断面とはそれぞれ図に示す形状になっている。   FIG. 6 is a diagram showing the shape of the microlens of the image pickup pixel and the focus detection pixel. The microlens 9 is originally cut out from a circular microlens 9 larger than the pixel size into a square shape corresponding to the pixel size. The cross section in the direction of the diagonal line passing through the optical axis of the lens 10 and the cross section in the direction of the horizontal line passing through the optical axis of the microlens 10 have shapes shown in the drawing.

撮像画素310は、図7に示すように矩形のマイクロレンズ10、後述の遮光マスクで受光領域を制限された光電変換部11、および色フィルター(不図示)から構成される。色フィルターは赤(R)、緑(G)、青(B)の3種類からなり、それぞれの分光感度は図9に示す特性になっている。撮像素子412には、各色フィルターを備えた撮像画素310がベイヤー配列されている。   As shown in FIG. 7, the imaging pixel 310 includes a rectangular microlens 10, a photoelectric conversion unit 11 whose light receiving area is limited by a light shielding mask described later, and a color filter (not shown). There are three types of color filters, red (R), green (G), and blue (B), and the respective spectral sensitivities have the characteristics shown in FIG. In the image pickup element 412, the image pickup pixels 310 including the respective color filters are arranged in a Bayer array.

焦点検出画素313は、図8(a)に示すように矩形のマイクロレンズ10と後述の遮光マスクで受光領域を制限された光電変換部13、および不図示のNDフィルター(ニュートラルデンシティフィルター)とから構成され、遮光マスクで受光領域を制限された光電変換部13の形状は矩形である。また、焦点検出画素314は、図8(b)に示すように矩形のマイクロレンズ10と後述の遮光マスクで受光領域を制限された光電変換部14、およびNDフィルター(不図示)とから構成され、遮光マスクで受光領域を制限された光電変換部14の形状は矩形である。焦点検出画素313と焦点検出画素314とをマイクロレンズ10を重ね合わせて表示すると、遮光マスクで受光領域を制限された光電変換部13と14が垂直方向に並んでいる。   As shown in FIG. 8A, the focus detection pixel 313 includes a rectangular microlens 10, a photoelectric conversion unit 13 whose light receiving area is limited by a light shielding mask described later, and an ND filter (neutral density filter) (not shown). The shape of the photoelectric conversion unit 13 that is configured and whose light-receiving area is limited by the light-shielding mask is rectangular. Further, as shown in FIG. 8B, the focus detection pixel 314 includes a rectangular microlens 10, a photoelectric conversion unit 14 whose light receiving area is limited by a light shielding mask described later, and an ND filter (not shown). The shape of the photoelectric conversion unit 14 in which the light receiving area is limited by the light shielding mask is rectangular. When the focus detection pixel 313 and the focus detection pixel 314 are displayed with the microlens 10 superimposed, the photoelectric conversion units 13 and 14 whose light receiving areas are limited by the light shielding mask are arranged in the vertical direction.

焦点検出画素313、314には全ての色に対して焦点検出を行うために特定の色フィルターが設けられておらずその代わりに入射光量を減ずるNDフィルターが設けられており、その分光特性は図10に示す特性となる。つまり、図9に示す緑画素、赤画素および青画素の分光特性を加算したような分光特性となり、その感度の光波長領域は緑画素、赤画素および青画素の感度の光波長領域を包括している。NDフィルターの濃度は、白色光に撮像素子を露光した場合に、例えば焦点検出画素の出力レベルが緑画素の出力レベルに対し3/4以下となるように定められる。これは画面上の像高が高い領域(焦点検出エリア102,103)において焦点検出光束のケラレが発生し、一対の焦点検出画素の出力バランスが崩れ、一方の焦点検出画素の出力が増加した場合においても撮像画素(緑画素)の出力レベルを超えないように余裕を見ているためである。   The focus detection pixels 313 and 314 are not provided with a specific color filter in order to perform focus detection for all colors, but instead are provided with an ND filter that reduces the amount of incident light. The characteristics shown in FIG. In other words, the spectral characteristics are obtained by adding the spectral characteristics of the green pixel, red pixel, and blue pixel shown in FIG. 9, and the light wavelength region of the sensitivity includes the light wavelength regions of the sensitivity of the green pixel, red pixel, and blue pixel. ing. The density of the ND filter is determined so that, for example, the output level of the focus detection pixel is 3/4 or less of the output level of the green pixel when the image sensor is exposed to white light. This is a case where the vignetting of the focus detection light beam occurs in the region where the image height on the screen is high (focus detection areas 102 and 103), the output balance of the pair of focus detection pixels is lost, and the output of one focus detection pixel increases. This is because there is a margin so as not to exceed the output level of the imaging pixel (green pixel).

焦点検出画素313、314は、撮像画素310のBとGが配置されるべき列に配置されている。焦点検出画素313、314が、撮像画素310のBとGが配置されるべき列に配置されているのは、焦点検出画素の位置における撮像用の画像信号を求めるための補間処理において補間誤差が生じた場合に、人間の視覚特性上、赤画素の補間誤差に比較して青画素の補間誤差が目立たないためである。   The focus detection pixels 313 and 314 are arranged in a column where B and G of the imaging pixel 310 should be arranged. The focus detection pixels 313 and 314 are arranged in the column where the B and G of the imaging pixel 310 are to be arranged because an interpolation error occurs in the interpolation processing for obtaining an image signal for imaging at the position of the focus detection pixel. When this occurs, the interpolation error of the blue pixel is less noticeable than the interpolation error of the red pixel due to human visual characteristics.

撮像画素310は、マイクロレンズ10によって最も明るい交換レンズ(例えばF1.0)の射出瞳を通過する光束をすべて受光するような形状に設計される。また、焦点検出画素313a、314aは、マイクロレンズ10によって交換レンズの射出瞳の一対の所定の領域を通過する光束をそれぞれ受光するような形状に設計される。   The imaging pixel 310 is designed in such a shape that the microlens 10 receives all the light flux that passes through the exit pupil of the brightest interchangeable lens (for example, F1.0). The focus detection pixels 313a and 314a are designed in such a shape that the microlens 10 receives light beams that pass through a pair of predetermined regions of the exit pupil of the interchangeable lens.

図11は撮像画素310の断面図である。撮像画素310では撮像用の光電変換部11の上に近接して遮光マスク30が形成され、遮光マスク30の開口部30aを通過した光を光線変換部11は受光する。遮光マスク30の上には平坦化層31が形成され、その上に色フィルター38が形成される。色フィルター38の上には平坦化層32が形成され、その上にマイクロレンズ10が形成される。マイクロレンズ10により開口部30aの形状が前方に投影される。光電変換部11は半導体回路基板29上に形成される。   FIG. 11 is a cross-sectional view of the imaging pixel 310. In the imaging pixel 310, a light shielding mask 30 is formed in proximity to the photoelectric conversion unit 11 for imaging, and the light beam conversion unit 11 receives light that has passed through the opening 30 a of the light shielding mask 30. A planarizing layer 31 is formed on the light shielding mask 30, and a color filter 38 is formed thereon. A planarizing layer 32 is formed on the color filter 38, and the microlens 10 is formed thereon. The shape of the opening 30 a is projected forward by the microlens 10. The photoelectric conversion unit 11 is formed on the semiconductor circuit substrate 29.

図12は焦点検出画素313、314の断面図である。焦点検出画素313、314では焦点検出用の光電変換部13,14の上に近接して遮光マスク30が形成され、遮光マスク30の開口部30b、30cを通過した光を光線変換部13,14は受光する。遮光マスク30の上には平坦化層31が形成され、その上にNDフィルター34が形成される。NDフィルター34の上には平坦化層32が形成され、その上にマイクロレンズ10が形成される。マイクロレンズ10により開口部30b、30cの形状が前方に投影される。光電変換部13,14は半導体回路基板29上に形成される。   FIG. 12 is a cross-sectional view of the focus detection pixels 313 and 314. In the focus detection pixels 313 and 314, a light shielding mask 30 is formed in proximity to the focus detection photoelectric conversion units 13 and 14, and light that has passed through the openings 30 b and 30 c of the light shielding mask 30 is converted into the light beam conversion units 13 and 14. Receive light. A planarizing layer 31 is formed on the light shielding mask 30, and an ND filter 34 is formed thereon. A planarizing layer 32 is formed on the ND filter 34, and the microlens 10 is formed thereon. The shapes of the openings 30b and 30c are projected forward by the microlens 10. The photoelectric conversion units 13 and 14 are formed on the semiconductor circuit substrate 29.

図13は、マイクロレンズを用いた瞳分割型位相差検出方式の焦点検出光学系の構成を示す。なお、焦点検出画素の部分は拡大して示す。図において、90は、交換レンズ202(図1参照)の予定結像面に配置されたマイクロレンズから前方dの距離に設定された射出瞳である。この距離dは、マイクロレンズの曲率、屈折率、マイクロレンズと光電変換部との間の距離などに応じて決まる距離であって、この明細書では測距瞳距離と呼ぶ。91は交換レンズの光軸、10はマイクロレンズ、13、14は光電変換部、313、314は焦点検出画素、71は撮影光束、73、74は焦点検出光束である。   FIG. 13 shows a configuration of a pupil division type phase difference detection type focus detection optical system using a microlens. The focus detection pixel portion is shown in an enlarged manner. In the figure, reference numeral 90 denotes an exit pupil set at a distance d forward from the microlens arranged on the planned imaging plane of the interchangeable lens 202 (see FIG. 1). This distance d is a distance determined according to the curvature and refractive index of the microlens, the distance between the microlens and the photoelectric conversion unit, and is referred to as a distance measuring pupil distance in this specification. Reference numeral 91 is an optical axis of the interchangeable lens, 10 is a microlens, 13 and 14 are photoelectric conversion units, 313 and 314 are focus detection pixels, 71 is a photographing light beam, and 73 and 74 are focus detection light beams.

93はマイクロレンズ10により投影された開口部30bの領域であり、この明細書では測距瞳と呼ぶ。同様に、94はマイクロレンズ10により投影された開口部30cの領域である。図13では、説明を解りやすくするために93,94の領域で示しているが、実際には開口部30bの形状が拡大投影されるとともに回折によりぼやけた形状になる。   Reference numeral 93 denotes an area of the opening 30b projected by the microlens 10, which is called a distance measuring pupil in this specification. Similarly, 94 is an area of the opening 30 c projected by the microlens 10. In FIG. 13, the regions 93 and 94 are shown for ease of explanation, but actually, the shape of the opening 30b is enlarged and projected and becomes a blurred shape due to diffraction.

図13では、撮影光軸に隣接する5つの焦点検出画素を模式的に例示しているが、画面周辺部の焦点検出画素配列においても、各光電変換部はそれぞれ対応した測距瞳93、94から各マイクロレンズに到来する光束を受光するように構成されている。焦点検出画素の配列方向は一対の測距瞳の並び方向、すなわち一対の光電変換部の並び方向と一致させる。   FIG. 13 schematically illustrates five focus detection pixels adjacent to the photographing optical axis. However, in the focus detection pixel array at the periphery of the screen, each photoelectric conversion unit has corresponding distance measurement pupils 93 and 94, respectively. Are configured to receive a light beam coming to each microlens. The arrangement direction of the focus detection pixels is made to coincide with the arrangement direction of the pair of distance measuring pupils, that is, the arrangement direction of the pair of photoelectric conversion units.

マイクロレンズ10は交換レンズ202(図2参照)の予定結像面近傍に配置されており、マイクロレンズ10により光電変換部13、14に近接して配置された開口部30b、30cの形状がマイクロレンズ10から測距瞳距離dだけ離間した射出瞳90上に投影され、その投影形状は測距瞳93,94を形成する。   The microlens 10 is disposed in the vicinity of the planned imaging plane of the interchangeable lens 202 (see FIG. 2), and the shapes of the openings 30b and 30c disposed near the photoelectric conversion units 13 and 14 by the microlens 10 are micro. The projection is performed on the exit pupil 90 separated from the lens 10 by the distance measurement pupil distance d, and the projection shape forms distance measurement pupils 93 and 94.

光電変換部13は測距瞳93を通過し、焦点検出画素313のマイクロレンズ10に向う光束73によりマイクロレンズ10上に形成される像の強度に対応した信号を出力する。また、光電変換部14は測距瞳94を通過し、焦点検出画素314のマイクロレンズ10に向う光束74によりマイクロレンズ10上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 13 outputs a signal corresponding to the intensity of the image formed on the microlens 10 by the light beam 73 passing through the distance measuring pupil 93 and directed to the microlens 10 of the focus detection pixel 313. Further, the photoelectric conversion unit 14 outputs a signal corresponding to the intensity of the image formed on the microlens 10 by the light flux 74 that passes through the distance measuring pupil 94 and travels toward the microlens 10 of the focus detection pixel 314.

上述した2種類の焦点検出画素を直線状に多数配置し、各画素の光電変換部の出力を測距瞳93および測距瞳94に対応した出力グループにまとめることによって、測距瞳93と測距瞳94をそれぞれ通過する焦点検出用光束が画素列上に形成する一対の像の強度分布に関する情報が得られる。この情報に対して後述する像ズレ検出演算処理(相関演算処理、位相差検出処理)を施すことによって、いわゆる瞳分割型位相差検出方式で一対の像の像ズレ量が検出される。さらに、像ズレ量に一対の測距瞳の重心間隔と測距瞳距離の比例関係に応じた変換演算を行うことによって、予定結像面(マイクロレンズアレイの位置)に対する現在の結像面(撮影画面100上で定められる焦点検出位置における実際の結像面)の偏差(デフォーカス量)が算出される。   A large number of the two types of focus detection pixels described above are arranged in a straight line, and the output of the photoelectric conversion unit of each pixel is grouped into a distance measurement pupil 93 and an output group corresponding to the distance measurement pupil 94, thereby measuring the distance measurement pupil 93 and the measurement pupil 93. Information on the intensity distribution of the pair of images formed on the pixel array by the focus detection light beams that respectively pass through the distance pupil 94 is obtained. By applying an image shift detection calculation process (correlation calculation process, phase difference detection process), which will be described later, to this information, an image shift amount of a pair of images is detected by a so-called pupil division type phase difference detection method. Furthermore, by performing a conversion calculation according to the proportional relationship between the distance between the center of gravity of the pair of distance measurement pupils and the distance measurement pupil distance to the image shift amount, the current image formation surface (the position of the microlens array) ( A deviation (defocus amount) of an actual imaging plane at a focus detection position determined on the photographing screen 100 is calculated.

図14は、図7に示す撮像素子412の撮像画素310が受光する撮影光束の様子を図11と比較して説明するための図であって、図13と重複する部分の説明は省略する。撮像画素はマイクロレンズ10とその背後に配置された光電変換部11等から構成され、光電変換部51に近接して配置された開口部30aの形状がマイクロレンズ10から測距瞳距離dだけ離間した射出瞳90上に投影され、その投影形状は測距瞳93、94に略外接する領域95を形成する。   FIG. 14 is a diagram for explaining the state of the imaging light beam received by the imaging pixel 310 of the imaging element 412 shown in FIG. 7 in comparison with FIG. 11, and a description of portions overlapping those in FIG. 13 is omitted. The imaging pixel includes a microlens 10 and a photoelectric conversion unit 11 disposed behind the microlens 10, and the shape of the opening 30 a disposed in the vicinity of the photoelectric conversion unit 51 is separated from the microlens 10 by the distance measurement pupil distance d. The projected shape is projected onto the exit pupil 90, and the projected shape forms a region 95 that is substantially circumscribed by the distance measuring pupils 93 and 94.

光電変換部11は、領域95を通過してマイクロレンズ10へ向う撮影光束71によってマイクロレンズ11上に形成される像の強度に対応した信号を出力する。   The photoelectric conversion unit 11 outputs a signal corresponding to the intensity of the image formed on the microlens 11 by the imaging light flux 71 that passes through the region 95 and travels toward the microlens 10.

撮像素子ユニットには異なる撮像素子を備えた複数のバリエーションが存在する。図15は、1つの種類の撮像素子ユニットBにおける撮影画面上の焦点検出位置を示す図であり、撮像素子412上の焦点検出画素列が焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面140上の中央および左右の3箇所に焦点検出エリア141〜143が配置される。長方形で示す焦点検出エリアの長手方向に、焦点検出画素が垂直方向に直線的に配列される。撮影画面110の大きさは撮像素子ユニットAの撮像素子の撮像画面100(図3)より縮小されている。   There are a plurality of variations of the image sensor unit including different image sensors. FIG. 15 is a diagram showing a focus detection position on the shooting screen in one type of image sensor unit B, and a region where the focus detection pixel row on the image sensor 412 samples an image on the shooting screen when focus detection is performed. An example of (focus detection area, focus detection position) is shown. In this example, focus detection areas 141 to 143 are arranged at the center and three places on the left and right on the rectangular shooting screen 140. In the longitudinal direction of the focus detection area indicated by the rectangle, the focus detection pixels are linearly arranged in the vertical direction. The size of the imaging screen 110 is smaller than the imaging screen 100 (FIG. 3) of the imaging device of the imaging device unit A.

図16は撮像素子412の詳細な構成を示す正面図であり、図15における焦点検出エリア141の近傍を拡大して画素配列の詳細を示す。撮像素子412には撮像画素320が二次元正方格子状に稠密に配列される。撮像画素320は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。焦点検出用には撮像画素320と同一の画素サイズを有する垂直方向焦点検出用の焦点検出画素313、314が交互に、本来緑画素と青画素が連続的に配置されるべき垂直方向の直線上に連続して配列される。撮像画素320の画素サイズは撮像素子ユニットAの撮像素子の撮像画素310(図5)より縮小されている。   FIG. 16 is a front view showing a detailed configuration of the image sensor 412, and shows the details of the pixel arrangement by enlarging the vicinity of the focus detection area 141 in FIG. In the imaging element 412, imaging pixels 320 are densely arranged in a two-dimensional square lattice. The imaging pixel 320 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. For focus detection, vertical focus detection focus detection pixels 313 and 314 having the same pixel size as that of the imaging pixel 320 are alternately arranged on the vertical straight line on which the green pixel and the blue pixel should be continuously arranged. Are arranged in succession. The pixel size of the imaging pixel 320 is smaller than the imaging pixel 310 (FIG. 5) of the imaging element of the imaging element unit A.

図17は、1つの種類の撮像素子ユニットCにおける撮影画面上の焦点検出位置を示す図であり、撮像素子412上の焦点検出画素列が焦点検出の際に撮影画面上で像をサンプリングする領域(焦点検出エリア、焦点検出位置)の一例を示す。この例では、矩形の撮影画面100上の中央および対角方向の5箇所に焦点検出エリア151〜155が配置される。中央の焦点検出エリア151においては長方形で示す焦点検出エリアの長手方向に、焦点検出画素が垂直方向に直線的に配列される。画面の対角領域に配置された焦点検出エリア152〜155においては長方形で示す焦点検出エリアの長手方向に、焦点検出画素が45度斜め方向に直線的に配列される。撮影画面100の大きさは撮像素子ユニットAの撮像素子の撮像画面100(図3)と同一である。   FIG. 17 is a diagram illustrating a focus detection position on the shooting screen in one type of image sensor unit C, and a region in which the focus detection pixel row on the image sensor 412 samples an image on the shooting screen when focus detection is performed. An example of (focus detection area, focus detection position) is shown. In this example, focus detection areas 151 to 155 are arranged at five locations in the center and diagonal directions on the rectangular shooting screen 100. In the central focus detection area 151, focus detection pixels are linearly arranged in the vertical direction in the longitudinal direction of the focus detection area indicated by a rectangle. In the focus detection areas 152 to 155 arranged in the diagonal area of the screen, the focus detection pixels are linearly arranged in a 45-degree oblique direction in the longitudinal direction of the focus detection area indicated by a rectangle. The size of the imaging screen 100 is the same as the imaging screen 100 (FIG. 3) of the imaging device of the imaging device unit A.

図18は撮像素子412の詳細な構成を示す正面図であり、図17における焦点検出エリア153の近傍を拡大して画素配列の詳細を示す。撮像素子412には撮像画素320が二次元正方格子状に稠密に配列される。撮像画素310は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。焦点検出用には撮像画素310と同一の画素サイズを有する垂直方向焦点検出用の焦点検出画素333、334が交互に、本来緑画素が連続的に配置されるべき斜め右上がり45度方向の直線上に連続して配列される。撮像画素310の画素サイズは撮像素子ユニットAの撮像素子の撮像画素310(図5)と同一である。   FIG. 18 is a front view showing a detailed configuration of the image sensor 412, and shows the details of the pixel arrangement by enlarging the vicinity of the focus detection area 153 in FIG. In the imaging element 412, imaging pixels 320 are densely arranged in a two-dimensional square lattice. The imaging pixel 310 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. For focus detection, vertical focus detection focus detection pixels 333 and 334 having the same pixel size as that of the image pickup pixel 310 are alternately arranged. Arranged continuously on top. The pixel size of the image pickup pixel 310 is the same as that of the image pickup pixel 310 (FIG. 5) of the image pickup element of the image pickup element unit A.

図19は、1つの種類の撮像素子ユニットDにおける撮影画面上の焦点検出位置を示す図であり、撮像素子412上のには焦点検出画素列が存在していない。撮影画面100の大きさは撮像素子ユニットAの撮像素子の撮像画面100(図3)と同一である。   FIG. 19 is a diagram showing a focus detection position on the photographing screen in one type of image sensor unit D, and no focus detection pixel column is present on the image sensor 412. The size of the imaging screen 100 is the same as the imaging screen 100 (FIG. 3) of the imaging device of the imaging device unit A.

図20は撮像素子412の詳細な構成を示す正面図であり、図19における中央の近傍を拡大して画素配列の詳細を示す。撮像素子412には撮像画素320が二次元正方格子状に稠密に配列される。撮像画素320は赤画素(R)、緑画素(G)、青画素(B)からなり、ベイヤー配列の配置規則によって配置されている。撮像画素320の画素サイズは撮像素子ユニットAの撮像素子の撮像画素310(図5)と同一である。   FIG. 20 is a front view showing a detailed configuration of the image sensor 412, and shows the details of the pixel arrangement by enlarging the vicinity of the center in FIG. In the imaging element 412, imaging pixels 320 are densely arranged in a two-dimensional square lattice. The imaging pixel 320 includes a red pixel (R), a green pixel (G), and a blue pixel (B), and is arranged according to a Bayer arrangement rule. The pixel size of the image pickup pixel 320 is the same as that of the image pickup pixel 310 (FIG. 5) of the image pickup element of the image pickup element unit A.

図21、図22、図23は、一実施の形態のカメラシステム201(デジタルスチルカメラ、撮像装置)のボディ制御装置214、ユニット制御装置401、レンズ制御装置206の動作を示すフローチャートである。図21においてボディ制御装置214は、ステップS100でカメラの電源がオンされると、ステップS110以降の撮像動作を開始する。   21, 22, and 23 are flowcharts illustrating operations of the body control device 214, the unit control device 401, and the lens control device 206 of the camera system 201 (digital still camera, imaging device) according to an embodiment. In FIG. 21, when the camera is turned on in step S100, the body control device 214 starts an imaging operation after step S110.

ステップS105において交換レンズ202がカメラボディ203に装着されているか否かをチェックし、装着されていない場合は交換レンズ202の装着を待機し、装着されている場合にはレンズ制御装置206と通信してレンズ情報(絞り開口F値など)を読み出す。   In step S105, it is checked whether or not the interchangeable lens 202 is attached to the camera body 203. If the interchangeable lens 202 is not attached, the interchangeable lens 202 is awaited, and if attached, communicates with the lens control device 206. Lens information (aperture aperture F value, etc.) is read out.

ステップS110において撮像素子ユニット400がカメラボディ203に装着されているか否かをチェックし、装着されていない場合は撮像素子ユニット400の装着を待機し、装着されている場合にはユニット制御装置401と通信してメモリ402に記憶されている撮像素子ユニット情報を読み出す。   In step S110, it is checked whether or not the image sensor unit 400 is attached to the camera body 203. If the image sensor unit 400 is not attached, the camera waits for the image sensor unit 400 to be attached. The image sensor unit information stored in the memory 402 is read through communication.

ここで撮像素子ユニット情報の詳細について説明する。表1、表2は撮像素子ユニット情報をリスト化した表であり、表1が焦点検出に関連した情報、表2が撮像素子の特性情報である。表1、表2においては図3、図5、図15〜図20で説明した撮像素子を搭載した撮像素子ユニットA、B、C、Dのデータを示している。

Figure 2010283651
Details of the image sensor unit information will be described here. Tables 1 and 2 are tables that list image sensor unit information. Table 1 is information related to focus detection, and Table 2 is characteristic information of the image sensor. Tables 1 and 2 show data of the image sensor units A, B, C, and D in which the image sensors described with reference to FIGS. 3, 5, and 15 to 20 are mounted.
Figure 2010283651

表1において「AF画素有無」は撮像素子に焦点検出画素が含まれているか否かを示す情報であり、撮像素子ユニットA、B、C、は「あり」であり、撮像素子ユニットDは「なし」である。撮像素子ユニットDはこれ以降の焦点検出に関連した情報はない。「AFエリア数」は撮像素子上のAFエリア(焦点検出エリア)の数を示す情報であり、撮像素子ユニットA、Bは「3」であり、撮像素子ユニットCは「5」である。   In Table 1, “AF pixel presence / absence” is information indicating whether or not a focus detection pixel is included in the image sensor, the image sensor units A, B, and C are “present”, and the image sensor unit D is “ None ”. The image sensor unit D has no information related to subsequent focus detection. The “number of AF areas” is information indicating the number of AF areas (focus detection areas) on the image sensor, the image sensor units A and B are “3”, and the image sensor unit C is “5”.

撮像素子上のAFエリアは番号付けされており、例えば図3において101がエリア1、102がエリア2、103がエリア3となる。「エリア1位置(行)」、「エリア1位置(列)」は撮像素子上のエリア1の位置を画素配列の行数および列数で示す情報であり、撮像素子ユニットA、B、Cは表1の通りになっている。ここでエリア1の位置とは焦点検出画素配列の中央の画素の位置あるいは焦点検出画素配列の先頭画素の位置に適宜定められている。   The AF areas on the image sensor are numbered. For example, in FIG. 3, 101 is area 1, 102 is area 2, and 103 is area 3. “Area 1 position (row)” and “Area 1 position (column)” are information indicating the position of area 1 on the image sensor by the number of rows and columns of the pixel array, and image sensor units A, B, and C are It is as shown in Table 1. Here, the position of area 1 is appropriately determined as the position of the center pixel in the focus detection pixel array or the position of the first pixel in the focus detection pixel array.

「エリア1AF画素数」は撮像素子上のエリア1の焦点検出画素の画素数を示す情報であり、撮像素子ユニットA、B、Cは表1の通りになっている。「エリア1AF画素PD(フォトダイオード)数」は撮像素子上のエリア1の1つの焦点検出画素に備えられた光電変換部の数を示す情報であり、撮像素子ユニットA、B、Cは「1」になっている。後述するような変形例においては焦点検出画素の構造によって「2」になる場合がある。   “Area 1 AF pixel count” is information indicating the number of focus detection pixels in area 1 on the image sensor, and the image sensor units A, B, and C are as shown in Table 1. “Number of area 1 AF pixels PD (photodiodes)” is information indicating the number of photoelectric conversion units provided in one focus detection pixel in area 1 on the image sensor, and image sensor units A, B, and C are “1”. "It has become. In a modified example as will be described later, there are cases where it becomes “2” depending on the structure of the focus detection pixel.

「エリア1AF画素配列方向」は撮像素子上のエリア1の焦点検出画素の配列方向を示す情報であり、撮像素子ユニットA、B、Cは「垂直」になっている。AFエリアの配列方向に応じて、「水平」、「斜め右上がり45度」、「斜め左上がり45度」にもなる。「エリア1AF画素検出ピッチ」は撮像素子上のエリア1の焦点検出画素の像検出ピッチをμm単位で示す情報であり、撮像素子ユニットAでは「8」、撮像素子ユニットBでは「6」、撮像素子ユニットCでは「8」になっている。撮像素子ユニットA、B、Cのエリア1では一対の焦点検出画素が交互に垂直方向に並んでおり、検出ピッチとは、その一対の焦点検出画素の間隔であり、その値は画素ピッチの2倍の値になる。撮像素子ユニットCの焦点検出画素の配列方向が斜め方向の場合には、この値は更に√2倍となる。   “Area 1 AF pixel array direction” is information indicating the array direction of focus detection pixels in area 1 on the image sensor, and image sensor units A, B, and C are “vertical”. Depending on the arrangement direction of the AF area, it becomes “horizontal”, “obliquely rising 45 degrees”, and “obliquely rising 45 degrees”. “Area 1 AF pixel detection pitch” is information indicating the image detection pitch of the focus detection pixel in area 1 on the image sensor in μm units, “8” for image sensor unit A, “6” for image sensor unit B, The element unit C is “8”. In the area 1 of the image sensor units A, B, and C, a pair of focus detection pixels are alternately arranged in the vertical direction, and the detection pitch is an interval between the pair of focus detection pixels, and the value is 2 of the pixel pitch. Double the value. When the arrangement direction of the focus detection pixels of the image sensor unit C is oblique, this value is further multiplied by √2.

「エリア1AF画素色フィルター」は撮像素子上のエリア1の焦点検出画素が色フィルターを備えているか否かおよび何色の色フィルターを備えているかを示す情報であり、撮像素子ユニットA、B、Cは「なし」になっている。焦点検出画素が緑色の色フィルターを備えている場合には「緑」となる。「エリア1測距瞳距離」は撮像素子上のエリア1の焦点検出画素の測距瞳距離(図13参照)を示す情報であり、撮像素子ユニットA、B、Cは表1の通りになっている。   “Area 1 AF pixel color filter” is information indicating whether or not the focus detection pixel in area 1 on the image sensor has a color filter and what color filter the image sensor unit has. C is “None”. When the focus detection pixel includes a green color filter, the color is “green”. “Area 1 distance pupil distance” is information indicating the distance distance pupil distance (see FIG. 13) of the focus detection pixels in area 1 on the image sensor, and image sensor units A, B, and C are as shown in Table 1. ing.

「エリア1F1.0変換係数」、「エリア1F1.4変換係数」、「エリア1F2.0変換係数」〜「エリア1F8.0変換係数」は撮像素子上のエリア1の焦点検出画素配列のデータに基づき後述する焦点検出演算を行う際に各F値で像ズレ量をデフォーカス量に変換する際の変換係数を示す情報であり、撮像素子ユニットA、B、Cは表1の通りになっている。以下、エリア2以降についても、エリア1と同様な情報が存在する。

Figure 2010283651
“Area 1F1.0 conversion coefficient”, “Area 1F1.4 conversion coefficient”, “Area 1F2.0 conversion coefficient” to “Area 1F8.0 conversion coefficient” are the data of the focus detection pixel array of area 1 on the image sensor. This is information indicating a conversion coefficient when converting an image shift amount into a defocus amount with each F value when performing a focus detection calculation to be described later, and the imaging element units A, B, and C are as shown in Table 1. Yes. Hereinafter, the same information as in area 1 also exists in area 2 and subsequent areas.
Figure 2010283651

表2において「画素配置」は撮像素子の画素配置を示す情報であり、撮像素子ユニットA、B、C、Dは「正方格子」である。撮像素子の画素配置によっては「六方格子」にもなりうる。「画素数(水平)」、「画素数(垂直)」は撮像素子上の画素数を水平方向と垂直方向で示す情報であり、撮像素子ユニットA、B、C、Dは表1の通りになっている。「画素サイズ」は撮像画素の画素サイズをμm単位で示す情報であり、撮像素子ユニットA、C、Dでは「4」、撮像素子ユニットBでは「3」になっている。「色フィルター」は撮像画素の色フィルターの構成を示す情報であり、撮像素子ユニットA、B、C、Dでは「RGB」になっている。撮像素子の色フィルターの構成によっては「補色YCM」、「モノクロ」、「赤外」にもなりうる。「フィルター配置」は撮像画素の色フィルターの構成を示す情報であり、撮像素子ユニットA、B、C、Dでは「ベイヤー」になっている。   In Table 2, “pixel arrangement” is information indicating the pixel arrangement of the image sensor, and the image sensor units A, B, C, and D are “square lattices”. Depending on the pixel arrangement of the image sensor, it may be a “hexagonal lattice”. “Number of pixels (horizontal)” and “number of pixels (vertical)” are information indicating the number of pixels on the image sensor in the horizontal direction and the vertical direction, and the image sensor units A, B, C, and D are as shown in Table 1. It has become. “Pixel size” is information indicating the pixel size of the imaging pixel in μm units, and is “4” for the imaging element units A, C, and D, and “3” for the imaging element unit B. The “color filter” is information indicating the configuration of the color filter of the imaging pixel, and is “RGB” in the imaging element units A, B, C, and D. Depending on the configuration of the color filter of the image sensor, it may be “complementary color YCM”, “monochrome”, or “infrared”. “Filter arrangement” is information indicating the configuration of the color filter of the image pickup pixel, and is “Bayer” in the image pickup device units A, B, C, and D.

「読み出しモード」は撮像素子の画素出力の読み出しモードを示す情報であり、撮像素子ユニットA、B、C、Dでは「通常/高速」になっている。これは撮像素子から通常速度で画素出力を読み出すモードと高速で画素出力を読み出すモードがあることを示している。「水平間引き」、「垂直間引き」、「水平加算」、「垂直加算」は撮像素子から画素出力を間引いて読み出す際の水平方向、垂直方向の間引き数および画素加算して読み出す際の水平方向、垂直方向の画素加算数を示す情報であり、撮像素子ユニットA、B、C、Dは表1の通りになっている。   The “read mode” is information indicating the read mode of the pixel output of the image sensor, and is “normal / high speed” in the image sensor units A, B, C, and D. This indicates that there are a mode for reading pixel output from the image sensor at a normal speed and a mode for reading pixel output at a high speed. “Horizontal thinning”, “vertical thinning”, “horizontal addition”, and “vertical addition” are the horizontal direction when thinned out and read out the pixel output from the image sensor, the horizontal direction when thinned out and read out by adding the pixels in the vertical direction, This is information indicating the number of pixels added in the vertical direction, and the image sensor units A, B, C, and D are as shown in Table 1.

「ダイナミックレンジ」、「感度」は撮像画素のダイナミックレンジ、感度を数値で表した情報であり、撮像素子ユニットA、B、C、Dは表1の通りになっている。「欠陥画素位置情報」は欠陥画素数/欠陥画素位置(行、列)の位置を全欠陥画素について示す情報である。「PRNU情報」は全画素(撮像画素、焦点検出画素)の感度不均一性(Phot-Response-Non-Uniformity)を全画素について示す情報である。「DSNU情報」は全画素(撮像画素、焦点検出画素)の暗電流不均一性(Dark-Signal-Non-Uniformity)を全画素について示す情報である。   “Dynamic range” and “sensitivity” are information representing the dynamic range and sensitivity of the imaging pixel in numerical values, and the imaging element units A, B, C, and D are as shown in Table 1. “Defective pixel position information” is information indicating the number of defective pixels / defective pixel positions (rows, columns) for all defective pixels. “PRNU information” is information indicating sensitivity non-uniformity (Phot-Response-Non-Uniformity) of all pixels (imaging pixels, focus detection pixels) for all pixels. “DSNU information” is information indicating dark current non-uniformity (Dark-Signal-Non-Uniformity) of all pixels (imaging pixels, focus detection pixels) for all pixels.

図21に戻って説明を続ける。ステップS120において撮像素子ユニット400から撮像画素データを読み出し、ステップS110で得た撮像素子の特性情報に基づいて該撮像画素データを画像処理して画像データを生成する。画像処理としては例えばディベイヤー処理(撮像画素データのRAWデータをRGBデータに変換する処理)、JPEG画像生成などの圧縮・フォーマット変換処理、γ変換処理、ホワイトバランス処理などがある。   Returning to FIG. 21, the description will be continued. In step S120, the imaging pixel data is read from the imaging element unit 400, and the imaging pixel data is subjected to image processing based on the characteristic information of the imaging element obtained in step S110 to generate image data. Examples of image processing include debayer processing (processing for converting RAW data of imaging pixel data into RGB data), compression / format conversion processing such as JPEG image generation, γ conversion processing, and white balance processing.

ステップS130において画像データに基づいて画像を電子ビューファインダーに表示させる。ステップS140においてステップS110で得た焦点検出に関する情報に基づいて、撮像素子が焦点検出画素を備えているか(焦点検出機能を有しているか)を判定し、焦点検出画素がない場合には、ステップS150〜ステップS180の焦点検出演算処理をスキップしてステップS190に進む。   In step S130, an image is displayed on the electronic viewfinder based on the image data. In step S140, based on the information regarding focus detection obtained in step S110, it is determined whether the image sensor has a focus detection pixel (has a focus detection function). The focus detection calculation process in steps S150 to S180 is skipped and the process proceeds to step S190.

焦点検出画素を備えている場合にはステップS150においてステップS110で得た焦点検出に関連した情報に基づき、画像に重畳して焦点検出エリア(焦点検出位置)を電子ビューファインダーに表示させる。ステップS160において撮像素子ユニット400から焦点検出画素データを読み出し、該焦点検出画素データに基づき後述の像ズレ検出演算を行い、デフォーカス量を算出する。なお撮影者は焦点検出エリア選択のために操作部材を用いて撮像面上における所望の焦点検出エリアを予め選択しているものとする。   When the focus detection pixel is provided, in step S150, based on the information related to focus detection obtained in step S110, the focus detection area (focus detection position) is displayed on the electronic viewfinder so as to be superimposed on the image. In step S160, focus detection pixel data is read from the image sensor unit 400, and an image shift detection calculation described later is performed based on the focus detection pixel data to calculate a defocus amount. It is assumed that the photographer has previously selected a desired focus detection area on the imaging surface using an operation member for selecting a focus detection area.

ステップS170で合焦近傍か否か、すなわち算出されたデフォーカス量の絶対値が所定値以内であるか否かを調べる。合焦近傍でないと判定された場合はステップS180へ進み、デフォーカス量をレンズ制御装置206へ送信し、交換レンズ202のフォーカシングレンズ210を合焦位置に駆動させる。その後、ステップS105へ戻って上述した動作を繰り返す。なお、焦点検出不能な場合もこのステップに分岐し、レンズ制御装置206へスキャン駆動命令を送信し、交換レンズ202のフォーカシングレンズ210を無限から至近までの間でスキャン駆動を開始させる。その後、ステップS105へ戻って上述した動作を繰り返す。   In step S170, it is checked whether or not the focus is close, that is, whether or not the calculated absolute value of the defocus amount is within a predetermined value. If it is determined that the focus is not close, the process proceeds to step S180, the defocus amount is transmitted to the lens controller 206, and the focusing lens 210 of the interchangeable lens 202 is driven to the focus position. Then, it returns to step S105 and repeats the operation | movement mentioned above. Even when focus detection is impossible, the process branches to this step, a scan drive command is transmitted to the lens control device 206, and the scan driving of the focusing lens 210 of the interchangeable lens 202 is started from infinity to the nearest. Then, it returns to step S105 and repeats the operation | movement mentioned above.

ステップS170で合焦近傍であると判定された場合はステップS190へ進み、シャッターボタン(操作部材)の操作によりシャッターレリーズがなされたか否かを判別する。シャッターレリーズがなされていないと判定された場合はステップS105へ戻り、上述した動作を繰り返す。一方、シャッターレリーズがなされたと判定された場合はステップS200へ進み、レンズ制御装置206へ絞り調整命令を送信し、交換レンズ202の絞り値を制御F値(撮影者または自動により設定されたF値)にする。絞り制御が終了した後に、撮像素子ユニット400から撮像画素データを読み出し、ステップS110で得た撮像素子の特性情報に基づいて該撮像画素データを処理して画像データを生成する。続くステップS210では、画像データをメモリカード219に記憶し、ステップS105へ戻って上述した動作を繰り返す。   If it is determined in step S170 that the focus is close to the in-focus state, the process proceeds to step S190, and it is determined whether or not a shutter release has been performed by operating a shutter button (operation member). If it is determined that the shutter release has not been performed, the process returns to step S105, and the above-described operation is repeated. On the other hand, if it is determined that the shutter release has been performed, the process proceeds to step S200, where an aperture adjustment command is transmitted to the lens control device 206, and the aperture value of the interchangeable lens 202 is set to the control F value (the F value set by the photographer or automatically). ). After the aperture control is completed, the imaged pixel data is read from the image sensor unit 400, and the imaged pixel data is processed based on the image sensor characteristic information obtained in step S110 to generate image data. In the subsequent step S210, the image data is stored in the memory card 219, and the process returns to step S105 to repeat the above-described operation.

図22においてユニット制御装置401は、ステップS400で電源がオンされると、ステップS410以降の動作を開始する。ステップS410においてボディ制御装置214から情報読み出し要求が来たかチェックし、情報要求があった場合にはステップS420において指定された情報をボディ制御装置214に送信する。以上の動作を繰り返す。   In FIG. 22, when the power is turned on in step S400, the unit control device 401 starts the operation after step S410. In step S410, it is checked whether an information read request is received from the body control device 214. If there is an information request, the information specified in step S420 is transmitted to the body control device 214. The above operation is repeated.

図23においてレンズ制御装置206は、ステップS600で電源がオンされると、ステップS610以降の動作を開始する。ステップS610においてボディ制御装置214から情報読み出し要求が来たかチェックし、情報要求があった場合にはステップS620において指定された情報をボディ制御装置214に送信する。   In FIG. 23, when the power is turned on in step S600, the lens control device 206 starts the operation after step S610. In step S610, it is checked whether an information read request is received from the body control device 214. If there is an information request, the information specified in step S620 is transmitted to the body control device 214.

ステップS630においてボディ制御装置214から制御情報(絞り値、デフォーカス量)を受信したかチェックし、制御情報を受信した場合にはステップS640において制御量に応じた制御を行う。制御情報が絞り値であった場合には絞り開口形を該絞り値となるように制御する。制御情報がデフォーカス量であった場合には該デフォーカス量に応じたレンズ駆動量を演算し、該駆動量に応じてフォーカシングの駆動を行う。以上の動作を繰り返す。   In step S630, it is checked whether control information (aperture value, defocus amount) is received from the body control device 214. If control information is received, control corresponding to the control amount is performed in step S640. When the control information is an aperture value, the aperture aperture shape is controlled to be the aperture value. When the control information is a defocus amount, a lens drive amount corresponding to the defocus amount is calculated, and focusing driving is performed according to the drive amount. The above operation is repeated.

図21のステップS160における像ズレ検出演算処理(相関演算処理)の詳細について以下説明する。焦点検出画素が検出する一対の像は、測距瞳がレンズの絞り開口によりけられて光量バランスが崩れている可能性があるので、光量バランスに対して像ズレ検出精度を維持できるタイプの相関演算を施す。撮像素子ユニット400から読み出された焦点検出画素データ即ち一対のデータ列(A1〜A1、A2〜A2:Mはデータ数)に対し本出願人の出願(特開2007−333720)に開示された相関演算(式(1))を行い、相関量C(k)を演算する。
C(k)=Σ|A1・A2n+1+k−A2n+k・A1n+1| (1)
Details of the image shift detection calculation process (correlation calculation process) in step S160 in FIG. 21 will be described below. The pair of images detected by the focus detection pixels has a possibility that the distance measurement pupil is displaced by the aperture of the lens and the balance of the light quantity is lost. Perform the operation. For the focus detection pixel data read from the image sensor unit 400, that is, a pair of data strings (A1 1 to A1 M , A2 1 to A2 M : M is the number of data), the applicant's application (Japanese Patent Laid-Open No. 2007-333720). The correlation calculation (formula (1)) disclosed in (1) is performed to calculate the correlation amount C (k).
C (k) = Σ | A1 n · A2 n + 1 + k− A2 n + k · A1 n + 1 | (1)

式(1)において、Σ演算はn=1,...,Mについて累積される。nのとる範囲は、像シフト量kに応じてA1、A1n+1、A2n+k、A2n+1+kのデータが存在する範囲に限定される。像シフト量kは整数であり、データ列のデータ間隔を単位とした相対的シフト量である。 In equation (1), Σ operations are n = 1,. . . , M are accumulated. The range taken by n is limited to a range in which data of A1 n , A1 n + 1 , A2 n + k , A2 n + 1 + k exists according to the image shift amount k. The image shift amount k is an integer and is a relative shift amount with the data interval of the data string as a unit.

式(1)の演算結果は、図24(a)に示すように、一対のデータの相関が高い像シフト量(図24(a)ではk=k=2)において相関量C(k)が極小(小さいほど相関度が高い)になる。式(2)〜(5)による3点内挿の手法を用いて連続的な相関量に対する極小値C(x)を与えるシフト量xを求める。
x=k+D/SLOP (2)
C(x)= C(k)−|D| (3)
D={C(k−1)−C(k+1)}/2 (4)
SLOP=MAX{C(k+1)−C(k),C(k−1)−C(k)}
(5)
As shown in FIG. 24A, the calculation result of the expression (1) indicates that the correlation amount C (k) at an image shift amount (k = k j = 2 in FIG. 24A) having a high correlation between a pair of data. Becomes minimal (the smaller the value, the higher the degree of correlation). The shift amount x that gives the minimum value C (x) with respect to the continuous correlation amount is obtained using the three-point interpolation method according to equations (2) to (5).
x = k j + D / SLOP (2)
C (x) = C (k j ) − | D | (3)
D = {C (k j −1) −C (k j +1)} / 2 (4)
SLOP = MAX {C ( kj + 1) -C ( kj ), C ( kj- 1) -C ( kj )}
(5)

式(2)で算出されたシフト量xの信頼性があるかどうかは、以下のようにして判定される。図24(b)に示すように、一対のデータの相関度が低い場合は、内挿された相関量の極小値C(x)の値が大きくなる。したがって、C(x)が所定の閾値以上の場合は算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。
あるいは、C(x)をデータのコントラストで規格化するために、コントラストに比例した値となるSLOPでC(x)を除した値が所定値以上の場合は、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。あるいはまた、コントラストに比例した値となるSLOPが所定値以下の場合は、被写体が低コントラストであり、算出されたシフト量の信頼性が低いと判定し、算出されたシフト量xをキャンセルする。
Whether the shift amount x calculated by the equation (2) is reliable is determined as follows. As shown in FIG. 24B, when the degree of correlation between a pair of data is low, the value of the minimal value C (x) of the interpolated correlation amount is large. Therefore, when C (x) is equal to or greater than a predetermined threshold value, it is determined that the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled.
Alternatively, in order to normalize C (x) with the contrast of data, when the value obtained by dividing C (x) by SLOP that is proportional to the contrast is equal to or greater than a predetermined value, the reliability of the calculated shift amount Is determined to be low, and the calculated shift amount x is canceled. Alternatively, when SLOP that is a value proportional to the contrast is equal to or less than a predetermined value, it is determined that the subject has low contrast and the reliability of the calculated shift amount is low, and the calculated shift amount x is canceled.

図24(c)に示すように、一対のデータの相関度が低く、シフト範囲kmin〜kmaxの間で相関量C(k)の落ち込みがない場合は、極小値C(x)を求めることができず、このような場合は焦点検出不能と判定する。算出されたシフト量xの信頼性があると判定された場合は、式(6)により像ズレ量shftに換算される。
shft=PY・x (6)
As shown in FIG. 24C, when the degree of correlation between the pair of data is low and there is no drop in the correlation amount C (k) between the shift ranges k min to k max , the minimum value C (x) is obtained. In such a case, it is determined that the focus cannot be detected. When it is determined that the calculated shift amount x is reliable, it is converted into the image shift amount shft by the equation (6).
shft = PY · x (6)

式(6)において、PYは撮像素子ユニット400から読み出した焦点検出に関連した情報のひとつであるAF画素検出ピッチである。式(6)で算出された像ズレ量に変換係数Kを乗じてデフォーカス量defへ変換する。
def=K・shft (7)
In Expression (6), PY is an AF pixel detection pitch which is one of information related to focus detection read from the image sensor unit 400. The image shift amount calculated by the equation (6) is multiplied by the conversion coefficient Kd to convert to the defocus amount def.
def = K d · shft (7)

ここで変換係数Kは撮像素子ユニット400から読み出した焦点検出に関連した情報に含まれるF値に応じた変換係数のうち、レンズ情報に含まれる絞り開口のF値に対応した変換係数である。 Here, the conversion coefficient Kd is a conversion coefficient corresponding to the F value of the aperture opening included in the lens information, among the conversion coefficients corresponding to the F value included in the information related to the focus detection read from the image sensor unit 400. .

以上のように本発明の実施形態においては、撮像素子ユニットをカメラボディ本体に対して交換して脱着可能に設けるとともに、撮像素子ユニットからカメラボディ本体に撮像素子ユニットの焦点検出に関連する情報と焦点検出画素データを伝達しているので、カメラボディ本体側において複雑な焦点検出演算を含む焦点調節動作の制御を行うことが可能となり、撮像素子ユニット側の処理負担を軽減することができる。   As described above, in the embodiment of the present invention, the image sensor unit is exchanged with respect to the camera body, and is provided so as to be detachable. Information related to focus detection of the image sensor unit from the image sensor unit to the camera body is also provided. Since the focus detection pixel data is transmitted, it is possible to control the focus adjustment operation including complicated focus detection calculation on the camera body main body side, and the processing load on the image sensor unit side can be reduced.

また焦点検出画素位置における仮想的な撮像画素のデータを焦点検出画素の周囲の撮像画素のデータに基づいて画素補間する処理は撮像素子ユニット側にある専用の画素補間回路403で行うことにより、AFエリアのレイアウトのようにバリエーションが多くかつカメラボディより後に世に出る撮像素子のAFエリアのレイアウトの予測が困難なパラメータに基づく必要がありかつソフト的な処理では処理速度が不足するような画素補間を高速に行うことができるとともに、撮像素子ユニットからカメラボディ本体に撮像素子の特性情報と撮像画素データを伝達し、カメラボディ本体側において汎用的な画像処理を行っているので、撮像素子ユニット側の処理負担を軽減することができる。   Further, the process of interpolating the data of the virtual imaging pixel at the focus detection pixel position based on the data of the imaging pixels around the focus detection pixel is performed by the dedicated pixel interpolation circuit 403 on the imaging element unit side, thereby performing AF. Pixel interpolation that needs to be based on parameters that are difficult to predict the AF area layout of an image sensor that comes out later than the camera body, such as area layout, and that processing speed is insufficient in software processing In addition to being able to perform at a high speed, the image sensor element characteristic information and image pixel data are transmitted from the image sensor unit to the camera body body, and general-purpose image processing is performed on the camera body body side. The processing burden can be reduced.

ユーザーにとっては種々の焦点検出機能が異なる撮像素子を搭載した撮像素子ユニットをひとつのカメラボディに交換して装着するだけ、所望の焦点検出機能を活用することができ、複数のカメラボディを用意するような負担がなくなる。   For the user, the desired focus detection function can be utilized just by replacing and mounting an image sensor unit equipped with various image sensors with different focus detection functions, and a plurality of camera bodies are prepared. Such a burden is eliminated.

《発明の他の実施の形態》
図25、図26は、本発明の他の実施の形態によるカメラシステム(デジタルスチルカメラ、撮像装置)のボディ制御装置214、ユニット制御装置401の動作を示すフローチャートである。この実施形態においてはカメラボディから撮像素子ユニットに焦点検出関連の情報を伝達し、撮像素子ユニット側でデフォーカス量を演算し、算出したデフォーカス量を撮像素子ユニットからカメラボディに伝達し、該デフォーカス量に基づいてカメラボディが焦点調節動作を行う。
<< Other Embodiments of the Invention >>
25 and 26 are flowcharts showing the operations of the body control device 214 and the unit control device 401 of the camera system (digital still camera, imaging device) according to another embodiment of the present invention. In this embodiment, information related to focus detection is transmitted from the camera body to the image sensor unit, the defocus amount is calculated on the image sensor unit side, and the calculated defocus amount is transmitted from the image sensor unit to the camera body. The camera body performs a focus adjustment operation based on the defocus amount.

図25は図21とステップS150〜ステップS170の間が異なるので、その部分だけを説明する。ステップS161においてボディ制御装置214はユニット制御装置401に焦点検出に関連した情報を伝達する。

Figure 2010283651
FIG. 25 differs from FIG. 21 in steps S150 to S170, and only that portion will be described. In step S161, the body control device 214 transmits information related to focus detection to the unit control device 401.
Figure 2010283651

表3は該焦点検出に関連した情報をリスト化した表である。表3において「絞り開口F値」は交換レンズの絞り開口径をF値で表した情報であり、「AFエリア指定番号」はカメラボディ側で撮影者によって選択されたAFエリアの位置を指定する情報であり、具体的には「AFエリア1」、「AFエリア2」・・となる。   Table 3 is a table that lists information related to the focus detection. In Table 3, “aperture aperture F value” is information representing the aperture aperture diameter of the interchangeable lens as an F value, and “AF area designation number” designates the position of the AF area selected by the photographer on the camera body side. Information, specifically “AF area 1”, “AF area 2”,...

ステップS162においてボディ制御装置214はユニット制御装置401から指定したAFエリアのデフォーカス量を受信する。   In step S162, the body control device 214 receives the defocus amount of the designated AF area from the unit control device 401.

図26においてユニット制御装置401は、ステップS400で電源がオンされると、ステップS410以降の動作を開始する。ステップS410においてボディ制御装置214から情報読み出し要求が来たかチェックし、情報要求があった場合にはステップS420において指定された情報をボディ制御装置214に送信する。   In FIG. 26, when the power is turned on in step S400, the unit control device 401 starts the operation after step S410. In step S410, it is checked whether an information read request is received from the body control device 214. If there is an information request, the information specified in step S420 is transmitted to the body control device 214.

ステップS430においてボディ制御装置214から焦点検出に関連した情報(絞り値、AFエリア)を受信したかチェックし、該情報を受信した場合にはステップS640において指定されたAFエリアに対応する焦点検出画素データに基づいて像ズレ量を算出し、該像ズレを受信した絞り値に応じた変換係数によってデフォーカス量に変換する。ステップS450においては算出したデフォーカス量をボディ制御装置214に送信する。以上の動作を繰り返す。   In step S430, it is checked whether information (aperture value, AF area) related to focus detection is received from the body control device 214. If the information is received, the focus detection pixel corresponding to the AF area specified in step S640. An image shift amount is calculated based on the data, and the image shift is converted into a defocus amount by a conversion coefficient corresponding to the received aperture value. In step S450, the calculated defocus amount is transmitted to the body control device 214. The above operation is repeated.

以上のように本発明の実施形態においては、撮像素子ユニットをカメラボディ本体に対して交換して脱着可能に設けるとともに、カメラボディから撮像素子ユニットに焦点検出に関連する情報を伝達し、撮像素子ユニット側で該情報と焦点検出画素データに基づいてデフォーカス量を伝達し、該デフォーカス量を撮像素子ユニットからカメラボディに伝達し、該デフォーカス量に基づいてカメラボディ側で焦点調節動作を制御しているので、焦点検出画素の仕様(AFエリアのレイアウト、AF画素の構成)のようにバリエーションが多くかつカメラボディより後に世に出る撮像素子の焦点検出画素の仕様の予測が困難なパラメータに基づいて行うことが必要な焦点検出演算処理を個々の撮像素子ユニット側で行うことができるとともに、撮像素子ユニットからカメラボディ本体に多数の焦点検出画素データを伝達する必要がなくなるので、全体の処理時間を短縮でき焦点調節の高速化を図ることができる。   As described above, in the embodiment of the present invention, the image sensor unit is exchanged with respect to the camera body body and is detachably provided, and information relating to focus detection is transmitted from the camera body to the image sensor unit. A defocus amount is transmitted on the unit side based on the information and focus detection pixel data, the defocus amount is transmitted from the image sensor unit to the camera body, and a focus adjustment operation is performed on the camera body side based on the defocus amount. Because it is controlled, it is a parameter that has many variations, such as the specifications of focus detection pixels (AF area layout, AF pixel configuration), and it is difficult to predict the specifications of the focus detection pixels of image sensors that come out after the camera body. Focus detection calculation processing that must be performed based on the image sensor unit can be performed on the individual image sensor unit side. The need to transfer a large number of focus detection pixel data from the device unit in the camera main body is eliminated, it is possible to increase the speed of focus adjustment can reduce the overall processing time.

撮像素子ユニットに搭載される撮像素子における焦点検出エリアのレイアウトは図3、図15、図17に限定されるものではなく、様々な変形例がある。例えば図27に示すように画面100上に多数の焦点検出エリア104を図に示すように高密度に配置してもよい。   The focus detection area layout in the image sensor mounted on the image sensor unit is not limited to FIGS. 3, 15, and 17, and there are various modifications. For example, as shown in FIG. 27, a large number of focus detection areas 104 may be arranged on the screen 100 at a high density as shown in the figure.

図5に示す撮像素子412の部分拡大図では、各画素に1つの光電変換部を有する一対の焦点検出画素313,314を備える例を示したが、ひとつの焦点検出画素内に一対の光電変換部を備えるようにしてもよい。図28は、このような撮像素子412の部分拡大図であり、焦点検出画素311は一対の光電変換部を備える。図29に示す焦点検出画素311は、図8(a)、(b)に示す焦点検出画素313と焦点検出画素314のペアに相当した機能を果たす。焦点検出画素311は、図28に示すようにマイクロレンズ10と一対の光電変換部13,14から構成される。焦点検出画素311には光量をかせぐために色フィルターは配置されておらず、その分光特性は光電変換を行うフォトダイオードの分光感度と、赤外カットフィルター(不図示)の分光特性とを総合した分光特性(図10参照)となる。つまり、図9に示す緑画素、赤画素および青画素の分光特性を加算したような分光特性となり、その感度の光波長領域は緑画素、赤画素および青画素の感度の光波長領域を包括している。   In the partial enlarged view of the image sensor 412 illustrated in FIG. 5, an example in which each pixel includes a pair of focus detection pixels 313 and 314 having one photoelectric conversion unit is illustrated. However, a pair of photoelectric conversions is performed in one focus detection pixel. You may make it provide a part. FIG. 28 is a partially enlarged view of such an image sensor 412. The focus detection pixel 311 includes a pair of photoelectric conversion units. The focus detection pixel 311 illustrated in FIG. 29 performs a function corresponding to the pair of the focus detection pixel 313 and the focus detection pixel 314 illustrated in FIGS. The focus detection pixel 311 includes a microlens 10 and a pair of photoelectric conversion units 13 and 14 as shown in FIG. The focus detection pixel 311 is not provided with a color filter in order to increase the amount of light, and its spectral characteristic is a spectral that combines the spectral sensitivity of a photodiode that performs photoelectric conversion and the spectral characteristic of an infrared cut filter (not shown). Characteristics (see FIG. 10). In other words, the spectral characteristics are obtained by adding the spectral characteristics of the green pixel, red pixel, and blue pixel shown in FIG. 9, and the light wavelength region of the sensitivity includes the light wavelength regions of the sensitivity of the green pixel, red pixel, and blue pixel. ing.

図30は図29に示した焦点検出画素311の断面図であって、光電変換部13,14の上に近接して遮光マスク30が形成され、遮光マスク30の開口部30dを通過した光を光線変換部13,14は受光する。遮光マスク30の上には平坦化層31が形成され、その上にNDフィルター34が形成される。NDフィルター34の上には平坦化層32が形成され、その上にマイクロレンズ10が形成される。マイクロレンズ10により開口部30dに制限された光電変換部13,14の形状が前方に投影されて、一対の測距瞳を形成する。光電変換部13,14は半導体回路基板29上に形成される。   FIG. 30 is a cross-sectional view of the focus detection pixel 311 shown in FIG. 29, in which a light shielding mask 30 is formed in proximity to the photoelectric conversion units 13 and 14, and light that has passed through the opening 30 d of the light shielding mask 30 is reflected. The light beam converters 13 and 14 receive light. A planarizing layer 31 is formed on the light shielding mask 30, and an ND filter 34 is formed thereon. A planarizing layer 32 is formed on the ND filter 34, and the microlens 10 is formed thereon. The shape of the photoelectric conversion units 13 and 14 limited to the opening 30d by the microlens 10 is projected forward to form a pair of distance measuring pupils. The photoelectric conversion units 13 and 14 are formed on the semiconductor circuit substrate 29.

上述した実施形態における撮像素子では撮像画素がベイヤー配列の色フィルターを備えた例を示したが、色フィルターの構成や配列はこれに限定されることはなく、補色フィルター(緑:G、イエロー:Ye、マゼンタ:Mg,シアン:Cy)の配列やベイヤー配列以外の配列にも本発明を適用することができる。   In the image sensor according to the above-described embodiment, an example in which the imaging pixel includes a Bayer color filter is shown. However, the configuration and arrangement of the color filter are not limited thereto, and complementary color filters (green: G, yellow: The present invention can also be applied to an array other than the array of Ye, magenta: Mg, cyan: Cy) or a Bayer array.

上述した実施形態における焦点検出画素では、遮光マスクの開口形状を矩形にした例を示したが、遮光マスクの開口形状はこれらに限定されず、他の形状であってもよく、例えば半円形や楕円や多角形にすることも可能である。   In the focus detection pixel in the embodiment described above, an example in which the opening shape of the light shielding mask is rectangular has been described. However, the opening shape of the light shielding mask is not limited thereto, and may be other shapes, for example, a semicircular shape, It can also be an ellipse or a polygon.

上述した実施形態におけるカメラボディ203に撮像素子ユニット400が装着されると、図21におけるステップS110にて、撮像素子ユニット情報読み出し処理が実行されるが、予め撮像素子ユニット種別(ID)を識別可能な識別子に対応付けて撮像素子ユニット情報を記憶しておき、装着された撮像素子ユニット400からIDを受信することによって、詳細の撮像素子ユニット情報読み出し処理をカメラボディ203内部で実行しても良い。   When the image sensor unit 400 is attached to the camera body 203 in the above-described embodiment, the image sensor unit information reading process is executed in step S110 in FIG. 21, but the image sensor unit type (ID) can be identified in advance. The image sensor unit information may be stored in association with a unique identifier, and a detailed image sensor unit information read process may be executed inside the camera body 203 by receiving an ID from the mounted image sensor unit 400. .

上述した実施形態におけるカメラボディ203に装着される撮像素子ユニット400が撮像素子ユニットDである場合、焦点検出演算をスキップすることとしたが、図21において、ステップS140否定判定の後、コントラスト検出方式により、撮像画素データに基づいて焦点検出演算を行うこととしてもよい。ステップS140否定判定を契機として焦点検出演算を中止し、使用者のマニュアル操作による焦点調節を促す報知画面を液晶表示素子216に表示するようにしてもよい。   When the image sensor unit 400 attached to the camera body 203 in the above-described embodiment is the image sensor unit D, the focus detection calculation is skipped. In FIG. 21, after the negative determination in step S140, the contrast detection method is used. Thus, the focus detection calculation may be performed based on the imaging pixel data. When the negative determination is made in step S140, the focus detection calculation may be stopped, and a notification screen that prompts the user to adjust the focus manually is displayed on the liquid crystal display element 216.

なお、撮像装置としては、上述したようなカメラボディに交換レンズが装着される構成のデジタルスチルカメラやフィルムスチルカメラに限定されない。例えばレンズ一体型のデジタルスチルカメラ、フィルムスチルカメラ、あるいはビデオカメラにも本発明を適用することができる。さらには、携帯電話などに内蔵される小型カメラモジュール、監視カメラやロボット用の視覚認識装置、車載カメラなどにも適用できる。   Note that the imaging apparatus is not limited to a digital still camera or a film still camera in which an interchangeable lens is mounted on the camera body as described above. For example, the present invention can be applied to a lens-integrated digital still camera, film still camera, or video camera. Furthermore, the present invention can be applied to a small camera module built in a mobile phone, a surveillance camera, a visual recognition device for a robot, an in-vehicle camera, and the like.

100、140 撮影画面
101〜104、141〜143、151〜155 焦点検出エリア
201 カメラシステム(撮像装置)
202 交換レンズ(撮影光学系)
203 カメラボディ(本体)
204 マウント部
206 レンズ制御装置
208 ズーミング用レンズ
209 レンズ
210 フォーカシング用レンズ
211 絞り
213、222、422 電気接点
214 ボディ制御装置(本体通信手段)
215 液晶表示素子駆動回路
216 液晶表示素子(表示器)
217 接眼レンズ
219 メモリカード
220 操作手段
221 装着部
400 撮像素子ユニット
401 ユニット制御装置(ユニット通信手段)
402 メモリ
403 画素補間回路
404 撮像素子駆動回路
412 撮像素子
100, 140 Shooting screens 101-104, 141-143, 151-155 Focus detection area
201 Camera system (imaging device)
202 Interchangeable lens (shooting optical system)
203 Camera body (main body)
204 Mount unit 206 Lens control device 208 Zooming lens 209 Lens 210 Focusing lens 211 Apertures 213, 222, 422 Electric contact 214 Body control device (main body communication means)
215 Liquid crystal display element driving circuit 216 Liquid crystal display element (display)
217 Eyepiece 219 Memory card 220 Operation unit 221 Mounting unit 400 Image sensor unit 401 Unit control device (unit communication unit)
402 Memory 403 Pixel Interpolation Circuit 404 Image Sensor Drive Circuit 412 Image Sensor

Claims (13)

撮像画素および焦点検出画素を有する撮像素子と、ユニット通信手段とを含む撮像素子ユニットと、
前記撮像素子ユニットが着脱可能に装着される装着部と、撮影光学系と、本体通信手段とを含む本体とを備え、
前記撮像画素は撮像信号を出力し、
前記焦点検出画素は、前記撮影光学系の焦点調節状態を検出するための焦点検出信号を出力し、
前記撮像素子ユニットは、前記装着部に装着された時、前記ユニット通信手段と前記本体通信手段との間の通信を介し、前記本体との間で前記焦点調節状態の検出に関連する焦点検出関連情報を送受信することを特徴とする撮像装置。
An image pickup device unit including an image pickup device having an image pickup pixel and a focus detection pixel, and unit communication means;
A mounting portion on which the image sensor unit is detachably mounted, a photographing optical system, and a main body including main body communication means;
The imaging pixel outputs an imaging signal,
The focus detection pixel outputs a focus detection signal for detecting a focus adjustment state of the photographing optical system,
When the image sensor unit is mounted on the mounting unit, the focus detection related to the detection of the focus adjustment state with the main body via the communication between the unit communication means and the main body communication means. An imaging device characterized by transmitting and receiving information.
請求項1に記載の撮像装置において、
前記撮像素子ユニットは、前記焦点検出信号を用いて前記焦点調節状態を検出するユニット制御手段を含み、
前記焦点検出関連情報は、前記ユニット制御手段が前記焦点調節状態を検出することによって得られるデフォーカス量であることを特徴とする撮像装置。
The imaging device according to claim 1,
The image sensor unit includes unit control means for detecting the focus adjustment state using the focus detection signal,
The imaging apparatus according to claim 1, wherein the focus detection related information is a defocus amount obtained by the unit control means detecting the focus adjustment state.
請求項1に記載の撮像装置において、
前記焦点検出信号は、瞳分割型位相差検出方式によって前記焦点調節状態を検出するために出力され、
前記焦点検出関連情報は、撮像素子が前記瞳分割型位相差検出方式に基づく前記焦点検出信号を出力する焦点検出画素を備えるか否かを示す情報であることを特徴とする撮像装置。
The imaging device according to claim 1,
The focus detection signal is output to detect the focus adjustment state by a pupil division type phase difference detection method,
The imaging apparatus, wherein the focus detection related information is information indicating whether or not the imaging device includes a focus detection pixel that outputs the focus detection signal based on the pupil division type phase difference detection method.
請求項1に記載の撮像装置において、
前記焦点検出信号は、瞳分割型位相差検出方式によって前記焦点調節状態を検出するために出力され、
前記撮像素子は、前記焦点検出画素が配置された焦点検出エリアを含み、
前記焦点検出関連情報は、前記焦点検出エリアに関する情報と、前記焦点検出信号と前記焦点検出画素の数とに関する情報と、または対を成す2つの前記焦点検出画素の間隔と前記瞳分割型位相差検出方式によって検出される像ズレ量をデフォーカス量に変換するための変換係数とに関する情報との内の少なくとも一つの情報を含むことを特徴とする撮像装置。
The imaging device according to claim 1,
The focus detection signal is output to detect the focus adjustment state by a pupil division type phase difference detection method,
The imaging device includes a focus detection area in which the focus detection pixels are arranged,
The focus detection related information includes information on the focus detection area, information on the focus detection signal and the number of focus detection pixels, or an interval between two paired focus detection pixels and the pupil division type phase difference. An imaging apparatus comprising at least one piece of information related to a conversion coefficient for converting an image shift amount detected by a detection method into a defocus amount.
請求項2または4に記載の撮像装置において、
前記撮像素子は、前記焦点検出画素が配置された複数の焦点検出エリアを含み、
前記本体は、前記複数の前記焦点検出エリアの内から1つを所定の焦点検出エリアとして指定する指定手段を含み、
前記焦点検出関連情報は、前記指定手段によって指定された前記所定の焦点検出エリアに関する情報と、前記撮影光学系に含まれる開口絞りの開口径の情報との内の少なくとも一つの情報をさらに含むことを特徴とする撮像装置。
In the imaging device according to claim 2 or 4,
The imaging device includes a plurality of focus detection areas in which the focus detection pixels are arranged,
The main body includes designation means for designating one of the plurality of focus detection areas as a predetermined focus detection area,
The focus detection related information further includes at least one of information on the predetermined focus detection area specified by the specifying means and information on an aperture diameter of an aperture stop included in the photographing optical system. An imaging apparatus characterized by the above.
請求項1〜5のいずれか1項に記載の撮像装置において、
前記本体は画像データを生成する画像生成部を含み、
前記画像生成部は、前記本体が前記通信を介して前記撮像素子ユニットから前記撮像素子の特性情報と前記撮像画素の出力した前記撮像信号とを受信した時、該撮像信号を該特性情報に基づいて処理し、前記画像データを生成することを特徴とする撮像装置。
In the imaging device according to any one of claims 1 to 5,
The main body includes an image generation unit that generates image data;
When the main body receives the characteristic information of the image pickup element and the image pickup signal output from the image pickup pixel from the image pickup element unit via the communication, the image generation unit is configured to use the image pickup signal based on the characteristic information. Processing, and generating the image data.
撮影光学系と装着部と本体通信手段とを含む本体と、
撮像画素及び焦点検出画素を有する撮像素子とユニット通信手段とを含む第1の撮像素子ユニットと、
少なくとも撮像画素を有する撮像素子とユニット通信手段とを含む第2の撮像素子ユニットとを備え、
前記第1及び第2の撮像素子ユニットに含まれる各々の前記撮像画素は、それぞれ撮像信号を出力し、
前記焦点検出画素は、前記撮影光学系の焦点調節状態を検出する為の焦点検出信号を出力し、
前記第1及び第2の撮像素子ユニットの各々は、択一的に前記装置本体の前記装着部に着脱可能に装着され、
前記本体制御手段は、
前記第1の撮像素子ユニットが前記装着部に装着された時、前記第1の撮像素子ユニットに含まれる前記ユニット通信手段と前記本体通信手段との間の通信を介し、前記第1の撮像素子ユニットとの間で前記焦点調節状態の検出に関連する第1の情報を受信し、前記第2の撮像素子ユニットが前記装着部に装着された時、前記第2の撮像素子ユニットに含まれる前記ユニット通信手段と前記本体通信手段との間の通信を介し、前記第1の情報とは異なる第2の情報を受信し、
前記装着部に装着されているのが、前記第1の撮像素子ユニットであるか、前記第2の撮像素子ユニットであるかに応じて前記焦点調節状態の検出処理を行うことを特徴とする撮像装置。
A main body including a photographing optical system, a mounting portion, and main body communication means;
A first imaging element unit including an imaging element having an imaging pixel and a focus detection pixel and unit communication means;
A second imaging element unit including at least an imaging element having imaging pixels and unit communication means;
Each of the imaging pixels included in the first and second imaging element units outputs an imaging signal,
The focus detection pixel outputs a focus detection signal for detecting a focus adjustment state of the photographing optical system,
Each of the first and second image sensor units is alternatively detachably mounted on the mounting portion of the apparatus body,
The main body control means includes
When the first image sensor unit is mounted on the mounting portion, the first image sensor is communicated between the unit communication unit included in the first image sensor unit and the main body communication unit. When the first information related to the detection of the focus adjustment state with the unit is received and the second image sensor unit is mounted on the mounting unit, the second image sensor unit is included in the second image sensor unit. Receiving second information different from the first information through communication between the unit communication means and the main body communication means;
The imaging in which the focus adjustment state detection process is performed depending on whether the first imaging element unit or the second imaging element unit is attached to the attachment unit. apparatus.
請求項7に記載の撮像装置において、
前記第2の撮像素子ユニットに含まれる前記撮像素子は、前記焦点検出画素を有さないことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The image pickup device, wherein the image pickup element included in the second image pickup element unit does not have the focus detection pixel.
請求項7に記載の撮像装置において、
前記第2の撮像素子ユニットに含まれる前記撮像素子は、前記焦点検出画素をさらに有し、
前記第1の撮像素子ユニットに含まれる前記撮像素子と前記第2の撮像素子ユニットに含まれる前記撮像素子とは、共に実質的に同一形状の撮像面を有し、
前記第1の撮像素子ユニットに含まれる複数の前記焦点検出画素は、前記撮像素子の前記撮像面内の所定の焦点検出エリアに配列され、
前記第2の撮像素子ユニットに含まれる複数の前記焦点検出画素は、前記撮像素子の前記撮像面内の、前記所定の焦点検出エリアとは位置的に異なった焦点検出エリアに配列されることを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The image sensor included in the second image sensor unit further includes the focus detection pixel,
The imaging element included in the first imaging element unit and the imaging element included in the second imaging element unit both have imaging surfaces having substantially the same shape,
The plurality of focus detection pixels included in the first image sensor unit are arranged in a predetermined focus detection area in the imaging surface of the image sensor,
The plurality of focus detection pixels included in the second image sensor unit are arranged in a focus detection area that is positionally different from the predetermined focus detection area in the imaging surface of the image sensor. An imaging device that is characterized.
請求項7に記載の撮像装置において、
前記第1の情報は前記第1の撮像素子ユニットに前記焦点検出画素が含まれることを表す情報であり、
前記本体制御手段は、前記第1の情報を受信した時は、前記焦点調節状態の検出処理として第1の検出処理を行い、前記第1の情報を受信しなかった時は、前記第1の処理とは異なる第2の検出処理を行うことを特徴とする撮像装置。
The imaging apparatus according to claim 7,
The first information is information indicating that the focus detection pixel is included in the first image sensor unit,
The main body control means performs a first detection process as the focus adjustment state detection process when the first information is received, and receives the first information when the first information is not received. An image pickup apparatus that performs a second detection process different from the process.
請求項10に記載の撮像装置は表示器をさらに備え、
前記第1の撮像素子ユニットに含まれる複数の前記焦点検出画素は、前記撮像素子の撮像面内の焦点検出エリアに配列され、
前記第1の情報は、前記撮像面における前記焦点検出エリアの位置情報をさらに含み、
前記第1の検出処理には、前記位置情報に基づいて前記焦点検出エリアの位置を表す画面を表示器に表示するための表示データ出力処理が含まれることを特徴とする撮像装置。
The imaging device according to claim 10, further comprising a display,
The plurality of focus detection pixels included in the first image sensor unit are arranged in a focus detection area in an imaging surface of the image sensor,
The first information further includes position information of the focus detection area on the imaging surface,
The imaging apparatus, wherein the first detection process includes a display data output process for displaying a screen representing the position of the focus detection area on a display based on the position information.
請求項10に記載の撮像装置において、
前記本体制御手段は、前記通信を介し、前記第1の撮像素子ユニットから前記焦点検出信号をさらに受信し、前記第1の撮像素子ユニットから受信した前記焦点検出信号に基づいて前記第1の検出処理を行い、前記第1の情報を受信しなかった時は、前記装着部に装着されているのが、前記第2の撮像素子ユニットであって、かつ前記第2の撮像素子ユニットに含まれる前記撮像素子は、前記焦点検出画素を有さないと判定し、前記第2の検出処理を行うことを特徴とする撮像装置。
The imaging device according to claim 10.
The main body control means further receives the focus detection signal from the first image sensor unit via the communication, and the first detection based on the focus detection signal received from the first image sensor unit. When processing is performed and the first information is not received, it is the second image sensor unit that is mounted on the mounting portion, and is included in the second image sensor unit. The imaging device, wherein the imaging device determines that the focus detection pixel is not included, and performs the second detection process.
請求項7〜12のいずれか1項に記載の撮像装置で使用する前記第1の撮像素子ユニット。   The first imaging device unit used in the imaging device according to any one of claims 7 to 12.
JP2009136007A 2009-06-05 2009-06-05 Imaging device and imaging element unit Active JP5407567B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009136007A JP5407567B2 (en) 2009-06-05 2009-06-05 Imaging device and imaging element unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009136007A JP5407567B2 (en) 2009-06-05 2009-06-05 Imaging device and imaging element unit

Publications (2)

Publication Number Publication Date
JP2010283651A true JP2010283651A (en) 2010-12-16
JP5407567B2 JP5407567B2 (en) 2014-02-05

Family

ID=43539995

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009136007A Active JP5407567B2 (en) 2009-06-05 2009-06-05 Imaging device and imaging element unit

Country Status (1)

Country Link
JP (1) JP5407567B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013057859A1 (en) * 2011-10-21 2015-04-02 株式会社ニコン Image sensor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177872A (en) * 1997-12-16 1999-07-02 Nikon Corp Electronic camera with focus detection function
JP2000075197A (en) * 1998-09-02 2000-03-14 Olympus Optical Co Ltd Camera system
JP2002118779A (en) * 2000-10-06 2002-04-19 Olympus Optical Co Ltd Image pickup device, image pickup element unit, imaging device body, and focus adjustment method
JP2002116370A (en) * 2000-10-06 2002-04-19 Olympus Optical Co Ltd Image pickup device, focus control device, electronic camera and focusing method
JP2003295048A (en) * 2002-04-08 2003-10-15 Minolta Co Ltd Camera to which digital back is attachable

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11177872A (en) * 1997-12-16 1999-07-02 Nikon Corp Electronic camera with focus detection function
JP2000075197A (en) * 1998-09-02 2000-03-14 Olympus Optical Co Ltd Camera system
JP2002118779A (en) * 2000-10-06 2002-04-19 Olympus Optical Co Ltd Image pickup device, image pickup element unit, imaging device body, and focus adjustment method
JP2002116370A (en) * 2000-10-06 2002-04-19 Olympus Optical Co Ltd Image pickup device, focus control device, electronic camera and focusing method
JP2003295048A (en) * 2002-04-08 2003-10-15 Minolta Co Ltd Camera to which digital back is attachable

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2013057859A1 (en) * 2011-10-21 2015-04-02 株式会社ニコン Image sensor

Also Published As

Publication number Publication date
JP5407567B2 (en) 2014-02-05

Similar Documents

Publication Publication Date Title
JP5454223B2 (en) camera
EP1975695B1 (en) Focus detection device, focusing state detection method and imaging apparatus
US7863550B2 (en) Focus detection device and focus detection method based upon center position of gravity information of a pair of light fluxes
JP5012495B2 (en) IMAGING ELEMENT, FOCUS DETECTION DEVICE, FOCUS ADJUSTMENT DEVICE, AND IMAGING DEVICE
US8488956B2 (en) Focus adjusting apparatus and focus adjusting method
JP2007317951A (en) Optical sensing element and photographing device
JP2007282108A (en) Imaging apparatus, camera and image processing method
JP2008040087A (en) Imaging device, imaging apparatus and focus detecting device
JP2012113189A (en) Imaging apparatus
JP5609098B2 (en) Imaging device
JP5381472B2 (en) Imaging device
JP2009271523A (en) Focus detection device and image-capturing apparatus
JP2010026011A (en) Imaging apparatus
JP6642628B2 (en) Imaging device and imaging device
JP5609232B2 (en) Imaging device
JP5278123B2 (en) Imaging device
JP5600941B2 (en) Focus detection apparatus and imaging apparatus
JP5747510B2 (en) Imaging device
JP5407314B2 (en) Focus detection apparatus and imaging apparatus
JP5407567B2 (en) Imaging device and imaging element unit
JP5962830B2 (en) Focus detection device
JP2014132354A (en) Imaging apparatus
JP5804104B2 (en) Focus adjustment device
JP5440585B2 (en) Digital camera
JP6349624B2 (en) Image sensor and focus detection apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120604

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130718

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131021

R150 Certificate of patent or registration of utility model

Ref document number: 5407567

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250