JPWO2010050184A1 - Imaging unit - Google Patents

Imaging unit Download PDF

Info

Publication number
JPWO2010050184A1
JPWO2010050184A1 JP2010535659A JP2010535659A JPWO2010050184A1 JP WO2010050184 A1 JPWO2010050184 A1 JP WO2010050184A1 JP 2010535659 A JP2010535659 A JP 2010535659A JP 2010535659 A JP2010535659 A JP 2010535659A JP WO2010050184 A1 JPWO2010050184 A1 JP WO2010050184A1
Authority
JP
Japan
Prior art keywords
light
unit
lens
image sensor
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010535659A
Other languages
Japanese (ja)
Other versions
JP5097275B2 (en
Inventor
大 新谷
大 新谷
孝紀 余湖
孝紀 余湖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2010535659A priority Critical patent/JP5097275B2/en
Publication of JPWO2010050184A1 publication Critical patent/JPWO2010050184A1/en
Application granted granted Critical
Publication of JP5097275B2 publication Critical patent/JP5097275B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B13/00Viewfinders; Focusing aids for cameras; Means for focusing for cameras; Autofocus systems for cameras
    • G03B13/32Means for focusing
    • G03B13/34Power focusing
    • G03B13/36Autofocus systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/005Arrays characterized by the distribution or form of lenses arranged along a single direction only, e.g. lenticular sheets
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • G02B3/0062Stacked lens arrays, i.e. refractive surfaces arranged in at least two planes, without structurally separate optical elements in-between
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • G02B7/36Systems for automatic generation of focusing signals using image sharpness techniques, e.g. image processing techniques for generating autofocus signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • G03B17/12Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets
    • G03B17/14Bodies with means for supporting objectives, supplementary lenses, filters, masks, or turrets interchangeably
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements

Abstract

本発明は、光電変換を行う撮像素子を備えた撮像ユニットに関するものである。撮像素子を用いた種々の処理における利便性を向上させるべく、光に撮像素子を透過させつつ、該撮像素子の強度を確保できる撮像ユニットを提供する。撮像ユニット(1)は、基板(11a)と基板(11a)に設けられた受光部(11b)とを有し、受光部(11b)で受けた光を光電変換により電気信号に変換すると共に、光が透過するように構成されている撮像素子(10)と、撮像素子(10)に接合され、光を透過させるガラス基板(19)とを備える。The present invention relates to an imaging unit including an imaging device that performs photoelectric conversion. In order to improve convenience in various processes using an imaging device, an imaging unit capable of ensuring the strength of the imaging device while allowing light to pass through the imaging device is provided. The imaging unit (1) includes a substrate (11a) and a light receiving unit (11b) provided on the substrate (11a), converts light received by the light receiving unit (11b) into an electrical signal by photoelectric conversion, An image sensor (10) configured to transmit light and a glass substrate (19) bonded to the image sensor (10) and transmitting light are provided.

Description

本発明は、光電変換を行う撮像素子を備えた撮像ユニットに関するものである。   The present invention relates to an imaging unit including an imaging device that performs photoelectric conversion.

近年、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどの撮像素子を用いて、被写体像を電気信号に変換し、この電気信号をデジタル化して記録するデジタルカメラが普及している。   2. Description of the Related Art In recent years, digital cameras that convert an object image into an electrical signal using an imaging device such as a charge coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor and digitize and record the electrical signal have been developed. It is popular.

デジタル一眼レフカメラは、被写体像の位相差を検出する位相差検出部を有し、これによりオートフォーカス(以下、単にAFともいう)を行う位相差検出方式AF機能を備えている。位相差検出方式AF機能によれば、デフォーカス方向及びデフォーカス量を検出できるため、フォーカスレンズの移動時間を短縮でき、迅速にフォーカスできるという利点を有する(例えば、特許文献1)。従来のデジタル一眼レフカメラでは、位相差検出部に被写体からの光を導くために、レンズ鏡筒から撮像素子への光路上に進出/退避可能に構成された可動ミラーを設けている。   A digital single-lens reflex camera has a phase difference detection unit that detects a phase difference of a subject image, and thus has a phase difference detection AF function that performs autofocus (hereinafter also simply referred to as AF). According to the phase difference detection AF function, the defocus direction and the defocus amount can be detected, so that the moving time of the focus lens can be shortened and the focus can be quickly achieved (for example, Patent Document 1). In a conventional digital single lens reflex camera, in order to guide light from a subject to a phase difference detection unit, a movable mirror configured to be able to advance / retreat on an optical path from a lens barrel to an image sensor is provided.

また、いわゆるコンパクトデジタルカメラは、撮像素子を用いたビデオAFによるオートフォーカス機能を採用している(例えば、特許文献2)。こうして、コンパクトデジタルカメラでは、被写体からの光を位相差検出部へ導くためのミラーをなくすことにより小型化を実現している。このようなコンパクトデジタルカメラでは、撮像素子を露光しながらオートフォーカスを行うことができる。すなわち、オートフォーカスを行いながら、撮像素子を用いた種々の処理、例えば、撮像素子上に結像する被写体像から画像信号を取得して、カメラの背面に設けた画像表示部へ表示したり、記録部へ記録したりすることができる。このビデオAFによるオートフォーカス機能は、一般的に位相差検出方式AFに比べて精度が高いという利点がある。   A so-called compact digital camera adopts an autofocus function by video AF using an image sensor (for example, Patent Document 2). In this way, the compact digital camera is miniaturized by eliminating the mirror for guiding the light from the subject to the phase difference detection unit. In such a compact digital camera, autofocus can be performed while exposing the image sensor. That is, while performing autofocus, various processes using the image sensor, for example, obtaining an image signal from a subject image formed on the image sensor and displaying it on the image display unit provided on the back of the camera, It can be recorded in the recording unit. This autofocus function by video AF is generally advantageous in that it has higher accuracy than phase difference detection AF.

特開2007−163545号公報JP 2007-163545 A 特開2007−135140号公報JP 2007-135140 A

しかしながら、特許文献2に係るデジタルカメラのようにビデオAFではデフォーカス方向を瞬時に検出することができない。例えば、コントラスト検出方式AFによれば、コントラストピークを検出することで焦点を検出するが、フォーカスレンズを現在の位置から前後に移動させる等しないと、コントラストピークの方向、即ち、デフォーカス方向を検出することができない。そのため、焦点検出に時間がかかってしまう。   However, the video AF cannot detect the defocus direction instantaneously like the digital camera according to Patent Document 2. For example, according to the contrast detection method AF, the focus is detected by detecting the contrast peak, but if the focus lens is not moved back and forth from the current position, the direction of the contrast peak, that is, the defocus direction is detected. Can not do it. Therefore, it takes time for focus detection.

つまり、焦点検出に要する時間を短縮する観点からは、位相差検出方式AFの方が有利である。しかしながら、特許文献1に係るデジタル一眼レフカメラのように位相差検出方式AFを採用している撮像装置においては、被写体からの光を位相差検出部へ導くために、レンズ鏡筒から撮像素子への光路上に可動ミラーを進出させる必要がある。そのため、位相差検出方式AFを行いながら、撮像素子を用いた種々の処理を行うことができない。また、入射光の進路を位相差検出部へ向かう進路と撮像素子へ向かう進路とで切り替える際には可動ミラーを移動させる必要があり、この可動ミラーの移動のためのタイムラグや騒音が生じる。   That is, the phase difference detection method AF is more advantageous from the viewpoint of reducing the time required for focus detection. However, in an imaging apparatus that employs phase difference detection AF such as a digital single-lens reflex camera according to Patent Document 1, in order to guide light from a subject to a phase difference detection unit, the lens barrel is moved to the imaging device. It is necessary to move a movable mirror on the optical path. Therefore, various processes using the image sensor cannot be performed while performing the phase difference detection method AF. Further, when the path of incident light is switched between the path toward the phase difference detection unit and the path toward the image sensor, it is necessary to move the movable mirror, and a time lag and noise for the movement of the movable mirror are generated.

すなわち、従来の位相差検出方式AFを行う撮像装置においては、撮像素子を用いた種々の処理との関係で利便性が悪かった。   That is, the conventional imaging apparatus that performs the phase difference detection method AF is not convenient due to various processes using the imaging element.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、撮像素子を用いた種々の処理と位相差検出部を用いた位相差検出とを行う上での利便性を向上させることにある。   The present invention has been made in view of such a point, and the object of the present invention is to provide convenience in performing various processes using an image sensor and phase difference detection using a phase difference detection unit. It is to improve.

本願出願人は、上記課題を解決すべく、鋭意研究の結果、撮像素子を透過した光を利用することを見出した。すなわち、撮像素子を透過した光を用いて位相差検出方式の焦点検出を行うことで、可動ミラーを無くすことができると共に、撮像素子による処理と位相差検出とを並行して行うことができる。さらに、光に撮像素子を透過させることによって、位相差検出に限らず、種々の処理を行う上での利便性を向上させることができる。   As a result of intensive studies, the applicant of the present application has found that light transmitted through the image sensor is used in order to solve the above problems. That is, by performing focus detection by the phase difference detection method using light transmitted through the image sensor, the movable mirror can be eliminated, and processing by the image sensor and phase difference detection can be performed in parallel. Furthermore, by allowing light to pass through the image sensor, not only the phase difference detection but also convenience in performing various processes can be improved.

しかしながら、光に撮像素子を透過させるためには、撮像素子を薄く形成する必要があり、そうすると、撮像素子の強度が低下してしまう。つまり、本発明の目的とするところは、光に撮像素子を透過させつつ、該撮像素子の強度を確保できる撮像ユニットを提供することにある。   However, in order to allow light to pass through the image sensor, it is necessary to form the image sensor thin, and this reduces the strength of the image sensor. That is, an object of the present invention is to provide an imaging unit capable of ensuring the strength of the image sensor while allowing the image sensor to transmit light.

そこで、本発明は、撮像素子の基板に光学的透明基板を接合して、撮像素子を補強するようにしたものである。具体的には、本発明に係る撮像ユニットは、半導体基板と該半導体基板に設けられた受光部とを有し、該受光部で受けた光を光電変換により電気信号に変換すると共に、光が透過するように構成されている撮像素子と、上記撮像素子に接合され、光を透過させる光学的透明基板とを備えるものとする。   Therefore, the present invention reinforces the image sensor by bonding an optically transparent substrate to the substrate of the image sensor. Specifically, an imaging unit according to the present invention has a semiconductor substrate and a light receiving portion provided on the semiconductor substrate, converts light received by the light receiving portion into an electrical signal by photoelectric conversion, An imaging element configured to transmit light and an optically transparent substrate that is bonded to the imaging element and transmits light are provided.

本発明によれば、撮像素子に光学的透過基板を接合することによって、撮像素子を光が透過する程度に薄く形成したとしても、該撮像素子を補強することができる。そして、この補強用の基板を光学的透明基板で構成することによって、該光学的透明基板も光を透過させることがきるため、光が撮像素子に入射又は撮像素子から出射する際に、該光学的透明基板が該光の入射又は出射を妨害してしまうことを防止することができる。   According to the present invention, even if an image pickup device is formed thin enough to transmit light by bonding an optical transmission substrate to the image pickup device, the image pickup device can be reinforced. By configuring the reinforcing substrate with an optically transparent substrate, the optically transparent substrate can also transmit light. Therefore, when light enters or exits the image sensor, the optical substrate It is possible to prevent the transparent substrate from interfering with the incidence or emission of the light.

図1は、実施形態1に係る撮像素子の断面図である。FIG. 1 is a cross-sectional view of the image sensor according to the first embodiment. 図2は、カメラのブロック図である。FIG. 2 is a block diagram of the camera. 図3は、撮像ユニットの断面図である。FIG. 3 is a cross-sectional view of the imaging unit. 図4は、撮像素子の平面図である。FIG. 4 is a plan view of the image sensor. 図5は、撮像素子とパッケージとの接合部を示す部分拡大断面図である。FIG. 5 is a partially enlarged cross-sectional view showing a joint portion between the image sensor and the package. 図6は、位相検出ユニットの平面図である。FIG. 6 is a plan view of the phase detection unit. 図7は、撮像ユニットの斜視図である。FIG. 7 is a perspective view of the imaging unit. 図8は、レリーズボタンが全押しされるまでの撮影動作を示すフローチャート図である。FIG. 8 is a flowchart showing the photographing operation until the release button is fully pressed. 図9は、レリーズボタンが全押しされた後の撮影動作を示すフローチャート図である。FIG. 9 is a flowchart showing the photographing operation after the release button is fully pressed. 図10は、変形例1に係る撮像ユニットの断面図である。FIG. 10 is a cross-sectional view of an imaging unit according to the first modification. 図11は、変形例2に係る撮像素子の断面図である。FIG. 11 is a cross-sectional view of an image sensor according to the second modification. 図12は、変形例3に係る撮像素子の断面図である。FIG. 12 is a cross-sectional view of an image sensor according to the third modification. 図13は、変形例3に係る撮像素子とパッケージとの接合を示す断面図である。FIG. 13 is a cross-sectional view illustrating the bonding between the image sensor and the package according to the third modification. 図14は、実施形態2に係る撮像素子の断面図である。FIG. 14 is a cross-sectional view of the image sensor according to the second embodiment.

以下、本発明の実施形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

《発明の実施形態1》
本発明の実施形態1に係る撮像ユニット1を備えたカメラについて説明する。
Embodiment 1 of the Invention
A camera including the imaging unit 1 according to Embodiment 1 of the present invention will be described.

実施形態1に係るカメラ100は、図2に示すように、交換レンズ式の一眼レフデジタルカメラであり、主に、カメラシステムの主要な機能を有するカメラ本体4と、カメラ本体4に取り外し可能に装着された交換レンズ7とから構成されている。交換レンズ7は、カメラ本体4の前面に設けられたボディマウント41に装着されている。ボディマウント41には電気切片41aが設けられている。   As shown in FIG. 2, the camera 100 according to the first embodiment is an interchangeable-lens single-lens reflex digital camera. The camera 100 mainly has a main function of the camera system, and is removable from the camera body 4. The interchangeable lens 7 is mounted. The interchangeable lens 7 is attached to a body mount 41 provided on the front surface of the camera body 4. The body mount 41 is provided with an electrical section 41a.

−カメラ本体の構成−
カメラ本体4は、被写体像を撮影画像として取得する撮像ユニット1と、撮像ユニット1の露光状態を調節するシャッタユニット42と、撮像ユニット1に入射する被写体像の赤外光除去とモアレ現象を軽減するためのIRカット兼OLPF(Optical Low Pass Filter)43と、液晶モニタで構成され、撮影画像やライブビュー画像や各種情報を表示する画像表示部44と、ボディ制御部5とを有している。このカメラ本体4が撮像装置本体を構成する。
-Camera body configuration-
The camera body 4 has an imaging unit 1 that acquires a subject image as a captured image, a shutter unit 42 that adjusts the exposure state of the imaging unit 1, and infrared light removal and moire phenomenon of the subject image incident on the imaging unit 1. And an image display unit 44 that includes an IR cut and OLPF (Optical Low Pass Filter) 43, a liquid crystal monitor, and displays captured images, live view images, and various types of information, and a body control unit 5. . This camera body 4 constitutes the imaging apparatus body.

カメラ本体4には、カメラシステムの電源の入切を操作する電源スイッチ40aと、撮影者がフォーカシング時およびレリーズ時に操作するレリーズボタン40bとが設けられている。   The camera body 4 is provided with a power switch 40a that operates to turn on / off the power of the camera system, and a release button 40b that is operated by the photographer during focusing and release.

電源スイッチ40aにより電源がON状態になると、カメラ本体4および交換レンズ7の各部に電源が供給される。   When the power is turned on by the power switch 40 a, power is supplied to each part of the camera body 4 and the interchangeable lens 7.

レリーズボタン40bは、2段式であって、半押しすることで後述するオートフォーカスやAE等を行う一方、全押しすることでレリーズが行われる。   The release button 40b is a two-stage type, and performs autofocus and AE, which will be described later, when pressed halfway, and releases when pressed fully.

撮像ユニット1は、詳しくは後述するが、光電変換により被写体像を電気信号に変換するものである。この撮像ユニット1は、ブレ補正ユニット45によって光軸Xに直行する平面内で移動可能に構成されている。   As will be described in detail later, the imaging unit 1 converts the subject image into an electrical signal by photoelectric conversion. The imaging unit 1 is configured to be movable in a plane perpendicular to the optical axis X by the blur correction unit 45.

ボディ制御部5は、ボディマイコン50と、不揮発性メモリ50aと、シャッタユニット42の駆動を制御するシャッタ制御部51と、撮像ユニット1の動作を制御すると共に撮像ユニット1からの電気信号をA/D変換してボディマイコン50へ出力する撮像ユニット制御部52と、例えばカード型記録媒体や内部メモリである画像格納部58からの画像データの読み出し及び該画像格納部58への画像データの記録を行う画像読み出し/記録部53と、画像読み出し/記録部53を制御する画像記録制御部54と、画像表示部44の表示を制御する画像表示制御部55と、カメラ本体4のブレにより生じる像ブレ量を検出するブレ検出部56と、ブレ補正ユニット45を制御する補正ユニット制御部57とを含む。このボディ制御部5が制御部を構成する。   The body control unit 5 controls the operation of the body microcomputer 50, the nonvolatile memory 50 a, the shutter control unit 51 that controls the driving of the shutter unit 42, and the imaging unit 1, and converts the electrical signal from the imaging unit 1 to A / The imaging unit control unit 52 that performs D conversion and outputs the image data to the body microcomputer 50, and the reading of the image data from the image storage unit 58, which is a card-type recording medium or an internal memory, for example, and the recording of the image data in the image storage unit 58 The image reading / recording unit 53 to perform, the image recording control unit 54 for controlling the image reading / recording unit 53, the image display control unit 55 for controlling the display of the image display unit 44, and the image blur caused by the camera body 4 blur A blur detection unit 56 that detects the amount and a correction unit control unit 57 that controls the blur correction unit 45 are included. This body control part 5 comprises a control part.

ボディマイコン50は、カメラ本体4の中枢を司る制御装置であり、各種シーケンスの制御を行う。ボディマイコン50には、例えば、CPU,ROM,RAMが搭載されている。そして、ROMに格納されたプログラムがCPUに読み込まれることで、ボディマイコン50は様々な機能を実現することができる。   The body microcomputer 50 is a control device that controls the center of the camera body 4 and controls various sequences. For example, a CPU, a ROM, and a RAM are mounted on the body microcomputer 50. And the body microcomputer 50 can implement | achieve various functions because the program stored in ROM is read by CPU.

このボディマイコン50は、電源スイッチ40a及びレリーズボタン40bからの入力信号が入力されると共に、シャッタ制御部51、撮像ユニット制御部52、画像読み出し/記録部53、画像記録制御部54及び補正ユニット制御部57等に対し制御信号を出力するように構成されており、シャッタ制御部51、撮像ユニット制御部52、画像読み出し/記録部53、画像記録制御部54及び補正ユニット制御部57等にそれぞれの制御を実行させる。また、ボディマイコン50は、後述するレンズマイコン80とマイコン間通信を行う。   The body microcomputer 50 receives input signals from the power switch 40a and the release button 40b, as well as a shutter control unit 51, an imaging unit control unit 52, an image readout / recording unit 53, an image recording control unit 54, and a correction unit control. The controller 57 is configured to output control signals to the shutter 57, the imaging unit controller 52, the image reading / recording unit 53, the image recording controller 54, the correction unit controller 57, and the like. Make control run. The body microcomputer 50 performs inter-microcomputer communication with a lens microcomputer 80 described later.

例えば、ボディマイコン50の指示により、撮像ユニット制御部52が撮像ユニット1からの電気信号をA/D変換してボディマイコン50へ出力する。ボディマイコン50は、取り込んだ電気信号に所定の画像処理を施して画像信号を作成する。そして、ボディマイコン50は、画像読み出し/記録部53に画像信号を送信すると共に、画像記録制御部54に画像の記録及び表示の指示を行って、画像格納部58への画像信号の保存と画像表示制御部55への画像信号の送信を行わせる。画像表示制御部55は、送信されてきた画像信号に基づいて画像表示部44を制御して、該画像表示部44に画像を表示させる。   For example, in accordance with an instruction from the body microcomputer 50, the imaging unit control unit 52 performs A / D conversion on the electrical signal from the imaging unit 1 and outputs it to the body microcomputer 50. The body microcomputer 50 performs predetermined image processing on the captured electric signal to create an image signal. The body microcomputer 50 transmits an image signal to the image reading / recording unit 53 and instructs the image recording control unit 54 to record and display an image, and stores the image signal in the image storage unit 58 and the image. The image signal is transmitted to the display control unit 55. The image display control unit 55 controls the image display unit 44 based on the transmitted image signal, and causes the image display unit 44 to display an image.

不揮発性メモリ50aには、カメラ本体4に関する各種情報(本体情報)が格納されている。この本体情報には、例えば、カメラ本体4のメーカー名、製造年月日、型番、ボディマイコン50にインストールされているソフトのバージョン、およびファームアップに関する情報などのカメラ本体4を特定するための型式に関する情報(本体特定情報)、カメラ本体4がブレ補正ユニット45及びブレ検出部56等の像ブレを補正するための手段を搭載しているか否かに関する情報、ブレ検出部56の型番および感度などの検出性能に関する情報、エラー履歴なども含まれている。尚、これらの情報は、不揮発性メモリ50aの代わりにボディマイコン50内のメモリ部に格納されていてもよい。   Various information (main body information) related to the camera body 4 is stored in the nonvolatile memory 50a. The body information includes, for example, the model name for identifying the camera body 4 such as the manufacturer name, date of manufacture, model number, software version installed in the body microcomputer 50, and information on the firmware upgrade. Information (main body specifying information), information about whether the camera body 4 is equipped with means for correcting image blur such as the blur correction unit 45 and the blur detection unit 56, the model number and sensitivity of the blur detection unit 56, etc. It also includes information on detection performance, error history, etc. These pieces of information may be stored in the memory unit in the body microcomputer 50 instead of the nonvolatile memory 50a.

ブレ検出部56は、手ブレなどに起因するカメラ本体4の動きを検出する角速度センサを備える。角速度センサは、カメラ本体4が静止している状態での出力を基準としてカメラ本体4が動く方向に応じて正負の角速度信号を出力する。尚、本実施の形態では、ヨーイング方向及びピッチング方向の2方向を検出するために角速度センサを2個設けている。出力された角速度信号は、フィルタ処理、アンプ処理等を経て、A/D変換部によりデジタル信号に変換されてボディマイコン50に与えられる。   The shake detection unit 56 includes an angular velocity sensor that detects the movement of the camera body 4 caused by camera shake or the like. The angular velocity sensor outputs a positive / negative angular velocity signal according to the direction in which the camera body 4 moves with reference to the output when the camera body 4 is stationary. In the present embodiment, two angular velocity sensors are provided to detect the two directions of the yawing direction and the pitching direction. The output angular velocity signal is subjected to filter processing, amplifier processing, and the like, converted into a digital signal by an A / D conversion unit, and provided to the body microcomputer 50.

−交換レンズの構成−
交換レンズ7は、カメラ本体4内の撮像ユニット1に被写体像を結ぶための撮像光学系を構成しており、主に、フォーカシングを行うフォーカス調節部7Aと、絞りを調節する絞り調節部7Bと、光路を調節することで像ブレを補正するレンズ用像ブレ補正部7Cと、交換レンズ7の動作を制御するレンズ制御部8とを有している。
-Composition of interchangeable lens-
The interchangeable lens 7 constitutes an imaging optical system for connecting a subject image to the imaging unit 1 in the camera body 4, and mainly includes a focus adjustment unit 7A that performs focusing and an aperture adjustment unit 7B that adjusts the aperture. The image blur correction unit 7C for correcting the image blur by adjusting the optical path and the lens control unit 8 for controlling the operation of the interchangeable lens 7 are provided.

交換レンズ7は、レンズマウント71を介して、カメラ本体4のボディマウント41に取り付けられている。また、レンズマウント71には、交換レンズ7がカメラ本体4に取り付けられてときにボディマウント41の電気切片41aと電気的に接続される電気切片71aが設けられている。   The interchangeable lens 7 is attached to the body mount 41 of the camera body 4 via the lens mount 71. In addition, the lens mount 71 is provided with an electrical piece 71 a that is electrically connected to the electrical piece 41 a of the body mount 41 when the interchangeable lens 7 is attached to the camera body 4.

フォーカス調節部7Aは、フォーカスを調節するフォーカスレンズ群72で構成されている。フォーカスレンズ群72は、交換レンズ7の規格として定められた最至近合焦位置から無限合焦位置までの区間で光軸X方向に移動可能である。また、フォーカスレンズ群72は、後述するコントラスト検出方式による合焦位置検出の場合、合焦位置を挟んで光軸X方向前後に移動可能である必要があるため、上述の最至近合焦位置から無限合焦位置までの区間よりもさらに光軸X方向前後に移動可能なレンズシフト余裕区間を有している。なお、フォーカスレンズ群72は、必ずしも複数のレンズで構成される必要はなく、1枚のレンズで構成されていてもよい。   The focus adjustment unit 7A includes a focus lens group 72 that adjusts the focus. The focus lens group 72 is movable in the direction of the optical axis X in a section from the closest focus position to the infinite focus position defined as the standard of the interchangeable lens 7. In addition, the focus lens group 72 needs to be movable back and forth in the optical axis X direction with respect to the focus position in the case of focus position detection by a contrast detection method to be described later. It has a lens shift margin section that can move further back and forth in the optical axis X direction than the section to the infinite focus position. The focus lens group 72 does not necessarily need to be composed of a plurality of lenses, and may be composed of a single lens.

絞り調節部7Bは、絞りまたは開放を調節する絞り部73で構成されている。この絞り部73が光量調節部を構成する。   The diaphragm adjustment unit 7B is configured by a diaphragm unit 73 that adjusts the diaphragm or opening. The diaphragm 73 constitutes a light quantity adjustment unit.

レンズ用像ブレ補正部7Cは、ブレ補正レンズ74と、ブレ補正レンズ74を光軸Xに直行する平面内で移動させるブレ補正レンズ駆動部74aとを有している。   The lens image blur correction unit 7C includes a blur correction lens 74 and a blur correction lens driving unit 74a that moves the blur correction lens 74 in a plane perpendicular to the optical axis X.

レンズ制御部8は、レンズマイコン80と、不揮発性メモリ80aと、フォーカスレンズ群72の動作を制御するフォーカスレンズ群制御部81と、フォーカスレンズ群制御部81の制御信号を受けてフォーカスレンズ群72を駆動するフォーカス駆動部82と、絞り部73の動作を制御する絞り制御部83と、交換レンズ7のブレを検出するブレ検出部84と、ブレ補正レンズ駆動部74aを制御するブレ補正レンズユニット制御部85とを有する。   The lens controller 8 receives a control signal from the lens microcomputer 80, the nonvolatile memory 80 a, the focus lens group controller 81 that controls the operation of the focus lens group 72, and the focus lens group controller 81, and receives the focus lens group 72. A focus drive unit 82 for driving the lens, a diaphragm control unit 83 for controlling the operation of the diaphragm unit 73, a blur detection unit 84 for detecting blur of the interchangeable lens 7, and a blur correction lens unit for controlling the blur correction lens driving unit 74a. And a control unit 85.

レンズマイコン80は、交換レンズ7の中枢を司る制御装置であり、交換レンズ7に搭載された各部に接続されている。具体的には、レンズマイコン80には、CPU、ROM、RAMが搭載されており、ROMに格納されたプログラムがCPUに読み込まれることで、様々な機能を実現することができる。例えば、レンズマイコン80は、ボディマイコン50からの信号に基づいてレンズ用像ブレ補正装置(ブレ補正レンズ駆動部74a等)を補正可能状態または補正不能状態に設定する機能を有している。また、レンズマウント71に設けられた電気切片71aとボディマウント41に設けられた電気切片41aとの接触により,ボディマイコン50およびレンズマイコン80は電気的に接続されており、互いに情報の送受信が可能となっている。   The lens microcomputer 80 is a control device that controls the center of the interchangeable lens 7, and is connected to each unit mounted on the interchangeable lens 7. Specifically, the lens microcomputer 80 is equipped with a CPU, a ROM, and a RAM, and various functions can be realized by reading a program stored in the ROM into the CPU. For example, the lens microcomputer 80 has a function of setting a lens image blur correction device (such as the blur correction lens driving unit 74a) to a correctable state or an uncorrectable state based on a signal from the body microcomputer 50. Further, the body microcomputer 50 and the lens microcomputer 80 are electrically connected by contact between the electrical slice 71a provided on the lens mount 71 and the electrical slice 41a provided on the body mount 41, so that information can be transmitted and received between them. It has become.

また、不揮発性メモリ80aには、交換レンズ7に関する各種情報(レンズ情報)が格納されている。このレンズ情報には、例えば、交換レンズ7のメーカー名、製造年月日、型番、レンズマイコン80にインストールされているソフトのバージョンおよびファームアップに関する情報などの交換レンズ7を特定するための型式に関する情報(レンズ特定情報)、交換レンズ7がブレ補正レンズ駆動部74a及びブレ検出部84等の像ブレを補正するための手段を搭載しているか否かに関する情報、像ブレを補正するための手段を搭載している場合は、ブレ検出部84の型番および感度などの検出性能に関する情報、ブレ補正レンズ駆動部74aの型番および最大補正可能角度などの補正性能に関する情報(レンズ側補正性能情報)、像ブレ補正を行うためのソフトのバージョンなどが含まれている。さらに、レンズ情報には、ブレ補正レンズ駆動部74aの駆動に必要な消費電力に関する情報(レンズ側消費電力情報)およびブレ補正レンズ駆動部74aの駆動方式に関する情報(レンズ側駆動方式情報)も含まれている。尚、不揮発性メモリ80aは、ボディマイコン50から送信された情報を格納可能である。尚、これらの情報は、不揮発性メモリ80aの代わりに、レンズマイコン80内のメモリ部に格納されていてもよい。   In addition, various information (lens information) related to the interchangeable lens 7 is stored in the nonvolatile memory 80a. The lens information includes, for example, a model for specifying the interchangeable lens 7 such as a manufacturer name, a date of manufacture, a model number, a software version installed in the lens microcomputer 80, and information on firmware upgrade of the interchangeable lens 7. Information (lens specifying information), information on whether or not the interchangeable lens 7 is equipped with means for correcting image blur such as the blur correction lens driving unit 74a and blur detection unit 84, and means for correcting image blur , Information on the detection performance such as the model number and sensitivity of the blur detection unit 84, information on the correction performance such as the model number of the blur correction lens driving unit 74a and the maximum correctable angle (lens side correction performance information), Software version for image blur correction is included. Further, the lens information includes information on power consumption necessary for driving the blur correction lens driving unit 74a (lens side power consumption information) and information on driving method of the blur correction lens driving unit 74a (lens side driving method information). It is. The nonvolatile memory 80a can store information transmitted from the body microcomputer 50. These pieces of information may be stored in a memory unit in the lens microcomputer 80 instead of the nonvolatile memory 80a.

フォーカスレンズ群制御部81は、フォーカスレンズ群72の光軸方向の絶対位置を検出する絶対位置検出部81aと、フォーカスレンズ群72の光軸方向の相対位置を検出する相対位置検出部81bとを有している。絶対位置検出部81aは、交換レンズ7の筐体におけるフォーカスレンズ群72の絶対位置を検出するものである。絶対位置検出部81aは、例えば、数bitの接触型エンコーダ基板とブラシとによって構成され、絶対位置を検出可能に構成されている。相対位置検出部81bは、それのみではフォーカスレンズ群72の絶対位置を検出することができないが、フォーカスレンズ群72の移動方向は検出可能であり、例えば二相エンコーダを用いている。二相エンコーダは回転パルスエンコーダや、MR素子、ホール素子など、フォーカスレンズ群72の光軸方向の位置に応じて等しいピッチで2値の信号を交互に出力するものが2つ設けられており、これらのピッチの位相をずらすように設置されている。レンズマイコン80は、相対位置検出部81bの出力からフォーカスレンズ群72の光軸方向の相対位置を算出する。   The focus lens group control unit 81 includes an absolute position detection unit 81a that detects an absolute position of the focus lens group 72 in the optical axis direction, and a relative position detection unit 81b that detects a relative position of the focus lens group 72 in the optical axis direction. Have. The absolute position detector 81 a detects the absolute position of the focus lens group 72 in the casing of the interchangeable lens 7. The absolute position detector 81a is constituted by, for example, a contact encoder board of several bits and a brush, and is configured to be able to detect the absolute position. The relative position detector 81b alone cannot detect the absolute position of the focus lens group 72, but can detect the moving direction of the focus lens group 72, and uses, for example, a two-phase encoder. Two two-phase encoders, such as a rotary pulse encoder, an MR element, and a Hall element, are provided that alternately output binary signals at an equal pitch according to the position of the focus lens group 72 in the optical axis direction. These pitches are installed so as to shift the phases. The lens microcomputer 80 calculates the relative position of the focus lens group 72 in the optical axis direction from the output of the relative position detector 81b.

ブレ検出部84は,手ブレなどに起因する交換レンズ7の動きを検出する角速度センサを備える。角速度センサは、交換レンズ7が静止している状態での出力を基準として交換レンズ7が動く方向に応じて正負の角速度信号を出力する。尚、本実施の形態では、ヨーイング方向及びピッチング方向の2方向を検出するために角速度センサを2個設けている。出力された角速度信号は、フィルタ処理、アンプ処理等を経て、A/D変換部によりデジタル信号に変換されてレンズマイコン80に与えられる。   The shake detection unit 84 includes an angular velocity sensor that detects the movement of the interchangeable lens 7 caused by camera shake or the like. The angular velocity sensor outputs positive and negative angular velocity signals according to the direction in which the interchangeable lens 7 moves with reference to the output when the interchangeable lens 7 is stationary. In the present embodiment, two angular velocity sensors are provided to detect the two directions of the yawing direction and the pitching direction. The output angular velocity signal is subjected to filter processing, amplifier processing, and the like, converted into a digital signal by an A / D conversion unit, and provided to the lens microcomputer 80.

ブレ補正レンズユニット制御部85は、移動量検出部(図示せず)を備える。移動量検出部は、ブレ補正レンズ74の実際の移動量を検出する検出部である。ブレ補正レンズユニット制御部85は、移動量検出部からの出力に基づいて、ブレ補正レンズ74を帰還制御している。   The blur correction lens unit control unit 85 includes a movement amount detection unit (not shown). The movement amount detection unit is a detection unit that detects an actual movement amount of the blur correction lens 74. The blur correction lens unit control unit 85 performs feedback control of the blur correction lens 74 based on the output from the movement amount detection unit.

尚、カメラ本体4及び交換レンズ7の両方にブレ検出部56,84とブレ補正装置45,74aを搭載した例を示したが、カメラ本体4及び交換レンズ7の何れかにブレ検出部及びブレ補正装置が搭載されていてもよく、何れにもブレ検出部及びブレ補正装置が搭載されていない場合であってもよい(その場合は、上述のブレ補正に関するシーケンスを排除すればよい)。   Although an example in which the camera shake detection units 56 and 84 and the camera shake correction devices 45 and 74a are mounted on both the camera body 4 and the interchangeable lens 7 has been shown, A correction device may be mounted, and neither of the shake detection unit and the shake correction device may be mounted (in this case, the above-described sequence related to the shake correction may be excluded).

−撮像ユニットの構成−
撮像ユニット1は、図3に示すように、被写体像を電気信号に変換するための撮像素子10と、撮像素子10に接合されたガラス基板19と、撮像素子10を保持するためのパッケージ31と、位相差検出方式の焦点検出を行うための位相差検出ユニット20とを有している。
-Image unit configuration-
As shown in FIG. 3, the imaging unit 1 includes an imaging element 10 for converting a subject image into an electrical signal, a glass substrate 19 bonded to the imaging element 10, and a package 31 for holding the imaging element 10. And a phase difference detection unit 20 for performing focus detection by the phase difference detection method.

撮像素子10は、裏面照射型のインターライン型CCDイメージセンサであって、図1に示すように、半導体材料で構成された光電変換部11と、垂直レジスタ12と、転送路13と、マスク14と、カラーフィルタ15とを有している。   The imaging device 10 is a back-illuminated interline CCD image sensor, and as shown in FIG. 1, a photoelectric conversion unit 11 made of a semiconductor material, a vertical register 12, a transfer path 13, and a mask 14 And a color filter 15.

光電変換部11は、基板11aと、基板11a上に配列された複数の受光部(画素ともいう)11b,11b,…とを有している。   The photoelectric conversion unit 11 includes a substrate 11a and a plurality of light receiving units (also referred to as pixels) 11b, 11b,... Arranged on the substrate 11a.

基板11aは、Si(シリコン)ベースで構成された半導体基板である。詳しくは、基板11aは、Si単結晶基板又はSOI(Silicon On Insulator wafer)で構成されている。特に、SOI基板は、Si薄膜とSiO薄膜のサンドイッチ構造をなし、エッチングの処理などにおいてSiO層で反応をとめることが可能であり、安定した基板加工を行う上で有利である。The substrate 11a is a semiconductor substrate composed of Si (silicon) base. Specifically, the substrate 11a is formed of a Si single crystal substrate or an SOI (Silicon On Insulator wafer). In particular, the SOI substrate has a sandwich structure of an Si thin film and an SiO 2 thin film, and can stop the reaction in the SiO 2 layer in an etching process or the like, which is advantageous for stable substrate processing.

また、受光部11bは、フォトダイオードで構成されていて、光を吸収して電荷を発生する。受光部11b,11b,…は、基板11aの表面(図1における下面)において行列状に配列された微小な方形の画素領域内にそれぞれ設けられている(図4参照)。   The light receiving portion 11b is composed of a photodiode and absorbs light to generate charges. The light receiving portions 11b, 11b,... Are respectively provided in minute square pixel regions arranged in a matrix on the surface of the substrate 11a (the lower surface in FIG. 1) (see FIG. 4).

前述の如く、撮像素子10は、裏面照射型であって、被写体からの光が、基板11aにおける、受光部11b,11b,…が設けられている面(以下、表面ともいう)と反対側の面(以下、裏面ともいう)から入射する。   As described above, the imaging element 10 is a back-illuminated type, and the light from the subject is on the opposite side of the surface (hereinafter also referred to as the front surface) on the substrate 11a where the light receiving portions 11b, 11b,. Incident from the surface (hereinafter also referred to as the back surface).

垂直レジスタ12は、基板11aの表面側において、受光部11bごとに設けられており、受光部11bに蓄積された電荷を一時蓄積する役割を有する。つまり、受光部11bに蓄積された電荷は、垂直レジスタ12に転送される。垂直レジスタ12に転送された電荷は、転送路13を介して水平レジスタ(図示省略)に転送され、増幅器(図示省略)に送られる。増幅器に送られた電荷は、増幅され電気信号として取り出される。   The vertical register 12 is provided for each light receiving portion 11b on the front surface side of the substrate 11a, and has a role of temporarily storing charges accumulated in the light receiving portion 11b. That is, the electric charge accumulated in the light receiving unit 11 b is transferred to the vertical register 12. The charges transferred to the vertical register 12 are transferred to a horizontal register (not shown) via the transfer path 13 and sent to an amplifier (not shown). The electric charge sent to the amplifier is amplified and taken out as an electric signal.

マスク14は、基板11aの表面に設けられた入射側マスク14aと、受光部11b、垂直レジスタ12及び転送路13を基板11aとは反対側から覆うように設けられた出射側マスク14bとを有している。入射側マスク14aは、基板11aの表面において各受光部11b,11bの間に設けられている。そして、垂直レジスタ12及び転送路13は、この入射側マスク14aと重なるようにして設けられている。こうして、入射側マスク14aは、基板11aを透過してきた光が垂直レジスタ12及び転送路13に入射することを防止している。出射側マスク14bは、受光部11b,11b,…に吸収されずに該受光部11b,11b,…を透過した光を反射させて、再度、受光部11b,11b,…に入射させる。また、出射側マスク14bには、受光部11bを透過した光を、撮像素子10の背面側(本実施形態では、ガラス基板19と反対側)へ出射させるための複数の通過孔14c(図1では1つのみ図示)が形成されている。尚、この出射側マスク14bを設けなくてもよい。   The mask 14 includes an incident-side mask 14a provided on the surface of the substrate 11a, and an emission-side mask 14b provided so as to cover the light receiving unit 11b, the vertical register 12, and the transfer path 13 from the side opposite to the substrate 11a. is doing. The incident side mask 14a is provided between the light receiving portions 11b and 11b on the surface of the substrate 11a. The vertical register 12 and the transfer path 13 are provided so as to overlap the incident side mask 14a. In this way, the incident side mask 14 a prevents the light transmitted through the substrate 11 a from entering the vertical register 12 and the transfer path 13. The emission side mask 14b reflects the light transmitted through the light receiving parts 11b, 11b,... Without being absorbed by the light receiving parts 11b, 11b,. In addition, a plurality of through holes 14c (FIG. 1) for emitting light that has passed through the light receiving portion 11b to the back side of the image sensor 10 (in the present embodiment, the side opposite to the glass substrate 19) is provided in the emission side mask 14b. , Only one is shown). Note that the emission side mask 14b may not be provided.

また、基板11aの表面には、これら受光部11b、垂直レジスタ12、転送路13及びマスク14を覆うように、光学的に透明な樹脂で構成された保護層18が設けられている。   A protective layer 18 made of an optically transparent resin is provided on the surface of the substrate 11a so as to cover the light receiving portion 11b, the vertical register 12, the transfer path 13, and the mask 14.

カラーフィルタ15は、基板11aの裏面側において、各受光部11bに対応して上記微小な方形の画素領域ごとに設けられている。カラーフィルタ15は、特定の色だけを透過させるためのものであり、誘電体で形成される薄膜干渉フィルタである。本実施形態では、図4に示すように、いわゆるベイヤー型の原色フィルタが用いられている。すなわち、撮像素子10全体としては、2行2列に隣接する4つのカラーフィルタ15,15,…(又は4つの画素領域)を1つの繰り返し単位としたときに、該繰り返し単位中において、一方の対角方向に2つの緑のカラーフィルタ(即ち、緑色の可視光波長域に対して緑色以外の他の色の可視光波長域よりも高い透過率を持つカラーフィルタ)15gが配列され、他方の対角方向に赤のカラーフィルタ(即ち、赤色の可視光波長域に対して赤色以外の他の色の可視光波長域よりも高い透過率を持つカラーフィルタ)15rと青のカラーフィルタ(即ち、青色の可視光波長域に対して青色以外の他の色の可視光波長域よりも高い透過率を持つカラーフィルタ)15bとが配列されている。全体として緑のカラーフィルタ15g,15g,…が縦横に1つおきに配置されている。尚、カラーフィルタ15として、CyMYGの各色を透過させる補色系のフィルタを採用してもよい。このカラーフィルタ15は、ガラス基板19の、撮像素子10との接合面に蒸着させている。   The color filter 15 is provided for each of the small square pixel regions corresponding to each light receiving portion 11b on the back side of the substrate 11a. The color filter 15 is for transmitting only a specific color, and is a thin film interference filter formed of a dielectric. In this embodiment, as shown in FIG. 4, a so-called Bayer type primary color filter is used. That is, for the entire image sensor 10, when four color filters 15, 15,... (Or four pixel regions) adjacent to 2 rows and 2 columns are defined as one repeating unit, Two green color filters (that is, color filters having higher transmittance than the visible light wavelength region of colors other than green with respect to the green visible light wavelength region) 15g are arranged in the diagonal direction, A diagonally red color filter (that is, a color filter having a higher transmittance than the visible light wavelength range of colors other than red with respect to the red visible light wavelength range) 15r and a blue color filter (that is, And a color filter 15b having a higher transmittance than the visible light wavelength region of colors other than blue with respect to the blue visible light wavelength region. As a whole, every other green color filter 15g, 15g,... Is arranged vertically and horizontally. The color filter 15 may be a complementary color filter that transmits each color of CyMYG. The color filter 15 is vapor-deposited on the bonding surface of the glass substrate 19 with the image sensor 10.

ガラス基板19は、硼珪酸ガラス基板で構成されている。このガラス基板19が光学的透明基板に相当する。このガラス基板19は、基板11aと陽極接合されている。ここで、硼珪酸ガラスは、可動イオンが豊富に含まれているため、ガラス基板19を硼珪酸ガラスで構成することによって、基板11aとの陽極接合が可能となる。また、ガラス基板19の、基板11aと接合される面には、上述の如く、カラーフィルタ15が蒸着されているが、該カラーフィルタ15は誘電体であるため、ガラス基板19を基板11aに陽極接合することができる。   The glass substrate 19 is composed of a borosilicate glass substrate. This glass substrate 19 corresponds to an optically transparent substrate. The glass substrate 19 is anodically bonded to the substrate 11a. Here, since borosilicate glass is rich in mobile ions, anodic bonding with the substrate 11a is possible by configuring the glass substrate 19 with borosilicate glass. Further, as described above, the color filter 15 is deposited on the surface of the glass substrate 19 to be bonded to the substrate 11a. Since the color filter 15 is a dielectric, the glass substrate 19 is attached to the substrate 11a as an anode. Can be joined.

尚、ガラス基板19の材質としては、例えば、コーニング社製のパイレックス(登録商標)、ショット社製のテンパックス・デュランを採用し得る。また、ガラス基板19と基板11aとの接合は陽極接合に限られず、接着剤を介した接合等であってもよい。   As a material of the glass substrate 19, for example, Pyrex (registered trademark) manufactured by Corning, or Tempax Duran manufactured by Schott can be employed. Further, the bonding between the glass substrate 19 and the substrate 11a is not limited to the anodic bonding, and may be bonding via an adhesive or the like.

ここで、ガラス基板19に陽極接合される基板11aは、所望の厚さ(例えば、1〜5μm)に研磨されたものをガラス基板19に陽極接合してもよいし、所望の厚さよりも厚い基板11aを陽極接合した後にエッチング等により所望の厚さまで研磨等してもよい。所望の厚さよりも厚い基板11aを用いる場合には、陽極接合した基板11aを熱処理して、基板11aのうち、ガラス基板19と反対側の表面にSiO層を形成する。そして、フッ化水素酸でSiO層だけを溶かすことによって、薄い(例えば、1〜2μm)Si層を形成し。それと共に、半導体プロセスによってSi層に受光部11b、垂直レジスタ12及び転送路13等を形成する。Here, the substrate 11a to be anodically bonded to the glass substrate 19 may be anodically bonded to the glass substrate 19 after being polished to a desired thickness (for example, 1 to 5 μm) or thicker than the desired thickness. After the substrate 11a is anodically bonded, it may be polished to a desired thickness by etching or the like. When the substrate 11a thicker than the desired thickness is used, the substrate 11a that has been anodically bonded is heat-treated to form a SiO 2 layer on the surface of the substrate 11a opposite to the glass substrate 19. Then, a thin (eg, 1 to 2 μm) Si layer is formed by dissolving only the SiO 2 layer with hydrofluoric acid. At the same time, the light receiving portion 11b, the vertical register 12, the transfer path 13 and the like are formed in the Si layer by a semiconductor process.

このように構成された撮像素子10においては、ガラス基板19側から光が入射する。詳しくは、ガラス基板19を通過した光は、カラーフィルタ15r,15g,15bに入射し、各カラーフィルタ15に応じた色の光だけが該カラーフィルタ15を透過して、基板11aの裏面に入射する。基板11aは非常に薄いため(即ち、基板11aを光が透過する程度の厚さに形成しているため)、基板11aに入射した光は、該基板11aを透過して、基板11aの表面に配設された受光部11b,11b,…に到達する。ここで、基板11aの表面における、受光部11b,11b,…が配設されていな領域には、入射側マスク14aが設けられているため、垂直レジスタ12や転送路13には光が入射しない。また、受光部11b,11b,…は、後述する実施形態2の撮像素子410と異なり、光が入射してくる側(基板11a側)へ全面が開口しているため、量子効率が非常に高くなる。各受光部11bは、光を吸収して電荷を発生する。ここで、受光部11bの、基板11aとは反対側には出射側マスク14bが設けられているため、受光部11bに吸収されずに、該受光部11bを透過した光は、該出射側マスク14bで反射して、再び、受光部11bに入射する。こうすることで、量子効率をさらに高めることができる。この各受光部11bで発生した電荷は、垂直レジスタ12及び転送路13を介して増幅器に送られ、電気信号として出力される。このとき、受光部11b,11b,…には、カラーフィルタ15r,15g,15bを透過した特定の色の光が入射しているため、各受光部11bからは、各カラーフィルタ15に対応した色の受光光量が出力として得られる。   In the imaging device 10 configured as described above, light enters from the glass substrate 19 side. Specifically, light that has passed through the glass substrate 19 is incident on the color filters 15r, 15g, and 15b, and only light of a color corresponding to each color filter 15 is transmitted through the color filter 15 and incident on the back surface of the substrate 11a. To do. Since the substrate 11a is very thin (that is, the substrate 11a is formed to have a thickness that allows light to pass through), the light incident on the substrate 11a passes through the substrate 11a and reaches the surface of the substrate 11a. It reaches the arranged light receiving portions 11b, 11b,. Here, since the incident side mask 14a is provided in the region where the light receiving portions 11b, 11b,... Are not provided on the surface of the substrate 11a, no light enters the vertical register 12 or the transfer path 13. . In addition, the light receiving portions 11b, 11b,... Have a very high quantum efficiency because the entire surface is open to the light incident side (substrate 11a side) unlike the image sensor 410 of the second embodiment described later. Become. Each light receiving portion 11b absorbs light and generates electric charges. Here, since the emission side mask 14b is provided on the opposite side of the light receiving portion 11b from the substrate 11a, the light transmitted through the light receiving portion 11b without being absorbed by the light receiving portion 11b is transmitted to the emission side mask. The light is reflected by 14b and enters the light receiving unit 11b again. By doing so, the quantum efficiency can be further increased. The electric charge generated in each light receiving unit 11b is sent to the amplifier via the vertical register 12 and the transfer path 13 and is output as an electric signal. At this time, since light of a specific color transmitted through the color filters 15r, 15g, and 15b is incident on the light receiving portions 11b, 11b,..., The colors corresponding to the color filters 15 are received from the light receiving portions 11b. The received light quantity is obtained as an output.

こうして、撮像素子10は、その撮像面全体における受光部11b,11b,…で光電変換を行うことによって、撮像面に形成された被写体像を電気信号に変換する。   Thus, the image sensor 10 converts the subject image formed on the imaging surface into an electrical signal by performing photoelectric conversion at the light receiving portions 11b, 11b,... On the entire imaging surface.

このように構成された撮像素子10は、パッケージ31に保持されている(図3参照)。このパッケージ31が保持部を構成する。   The imaging device 10 configured in this way is held in a package 31 (see FIG. 3). The package 31 constitutes a holding unit.

詳しくは、パッケージ31は、平板状の底板31aに回路基板32が設けられていると共に、四方には立壁31b,31b,…が設けられている。撮像素子10は、立壁31b,31b,…により四方を覆われるようにして、回路基板32にマウントされる。   Specifically, the package 31 is provided with a circuit board 32 on a flat bottom plate 31a, and with standing walls 31b, 31b,. The image sensor 10 is mounted on the circuit board 32 so as to be covered on all sides by the standing walls 31b, 31b,.

詳しくは、図5に示すように、撮像素子10の基板11aの周縁部には、受光部11b、垂直レジスタ12、転送路13、マスク14及び保護層18等が設けられておらず、転送路13や垂直レジスタ12等との電気的接続を可能にするための配線が露出している。   Specifically, as shown in FIG. 5, the light receiving unit 11 b, the vertical register 12, the transfer path 13, the mask 14, the protective layer 18, and the like are not provided at the peripheral edge of the substrate 11 a of the image sensor 10. 13 and the wiring for enabling electrical connection with the vertical register 12 and the like are exposed.

一方、回路基板32は、基板ベース32aを有し、該基板ベース32aの表面(被写体側の面)には、撮像素子10の基板11aの配線と対向する位置に回路パターン32bが設けられている。そして、撮像素子10の基板11aの周縁部を被写体側から回路基板32と重ね合わせ、熱溶着により、両者を接合して、撮像素子10の基板11aの配線と回路パターン32bとを電気的に接続している。   On the other hand, the circuit board 32 has a board base 32a, and a circuit pattern 32b is provided on the surface (subject side surface) of the board base 32a at a position facing the wiring of the board 11a of the image sensor 10. . Then, the peripheral portion of the substrate 11a of the image sensor 10 is overlapped with the circuit board 32 from the subject side, and both are joined by thermal welding to electrically connect the wiring of the substrate 11a of the image sensor 10 and the circuit pattern 32b. is doing.

また、パッケージ31の立壁31b,31b,…の先端には、撮像素子10の撮像面(裏面)を覆うようにカバーガラス33が取り付けられている。このカバーガラス33によって、撮像素子10の撮像面はゴミの付着などから保護されている。   Further, a cover glass 33 is attached to the tips of the standing walls 31b, 31b,... Of the package 31 so as to cover the imaging surface (back surface) of the imaging device 10. The cover glass 33 protects the image pickup surface of the image pickup device 10 from dust and the like.

ここで、パッケージ31の底板31aには、撮像素子10の出射側マスク14bの通過孔14c,14c,…に対応する位置に該通過孔14c,14c,…と同じ個数(本実施形態では3個)だけ開口31c,31c,…が貫通形成されている。この開口31c,31c,…により、撮像素子10を透過した光が、後述する位相差検出ユニット20まで到達する。   Here, the bottom plate 31a of the package 31 has the same number as the passage holes 14c, 14c,... In the position corresponding to the passage holes 14c, 14c,. ), The openings 31c, 31c,. Through the openings 31c, 31c,..., The light transmitted through the image sensor 10 reaches a phase difference detection unit 20 described later.

尚、パッケージ31の底板31aには、必ずしも開口31cが貫通形成される必要はない。すなわち、撮像素子10を透過した光が位相差検出ユニット20まで到達する構成であれば、底板31aに透明部若しくは半透明部を形成する等の構成であってもよい。   Note that the opening 31 c is not necessarily formed through the bottom plate 31 a of the package 31. That is, as long as the light transmitted through the image sensor 10 reaches the phase difference detection unit 20, a configuration such as forming a transparent portion or a semi-transparent portion on the bottom plate 31a may be used.

位相差検出ユニット20は、撮像素子10の背面側(被写体と反対側)に設けられて、撮像素子10からの透過光を受光して位相差検出方式の焦点検出を行う。詳しくは、位相差検出ユニット20は、受光した透過光を測距のための電気信号に変換する。この位相差検出ユニット20が位相差検出部を構成する。   The phase difference detection unit 20 is provided on the back side (opposite to the subject) of the image sensor 10 and receives the transmitted light from the image sensor 10 to perform focus detection by the phase difference detection method. Specifically, the phase difference detection unit 20 converts the received transmitted light into an electric signal for distance measurement. This phase difference detection unit 20 constitutes a phase difference detection unit.

この位相差検出ユニット20は、図3,6に示すように、コンデンサレンズユニット21と、マスク部材22と、セパレータレンズユニット23と、ラインセンサユニット24と、これらコンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24を取り付けるためのモジュール枠25とを有している。コンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24は、撮像素子10の厚さ方向に沿って該撮像素子10側からこの順で並んでいる。   3 and 6, the phase difference detection unit 20 includes a condenser lens unit 21, a mask member 22, a separator lens unit 23, a line sensor unit 24, the condenser lens unit 21, the mask member 22, And a module frame 25 to which the separator lens unit 23 and the line sensor unit 24 are attached. The condenser lens unit 21, the mask member 22, the separator lens unit 23, and the line sensor unit 24 are arranged in this order from the image sensor 10 side along the thickness direction of the image sensor 10.

コンデンサレンズユニット21は、複数のコンデンサレンズ21a,21a,…を一体的にユニット化したものである。コンデンサレンズ21a,21a,…は、出射側マスク14bの通過孔14c,14c,…と同じ数だけ設けられている。各コンデンサレンズ21aは、入射する光を集光するためのものであり、撮像素子10を透過して拡がりつつある光を集光して、セパレータレンズユニット23の後述するセパレータレンズ23aへと導く。各コンデンサレンズ21aは、入射面21bが凸状に形成されていると共に、入射面21b近傍が円柱状に形成されている。   The condenser lens unit 21 is a unit in which a plurality of condenser lenses 21a, 21a,. As many condenser lenses 21a, 21a,... Are provided as there are passage holes 14c, 14c,. Each condenser lens 21 a is for condensing incident light, condenses the light that is transmitted through the image sensor 10 and is spreading, and guides it to a separator lens 23 a described later of the separator lens unit 23. Each condenser lens 21a has an incident surface 21b formed in a convex shape, and the vicinity of the incident surface 21b is formed in a cylindrical shape.

このコンデンサレンズ21aを設けることによって、セパレータレンズ23aへの入射角度が立つ(入射角が小さくなる)ため、セパレータレンズ23aの収差を抑えることができると共に、後述するラインセンサ24a上の被写体像間隔を小さくすることができる。その結果、セパレータレンズ23a及びラインセンサ24aを小型化することができる。また、撮像光学系からの被写体像の焦点位置が撮像ユニット1から大きく外れたとき(詳しくは、撮像ユニット1の撮像素子10から大きく外れたとき)、その像のコントラストが著しく下がるが、本実施形態によれば、コンデンサレンズ21aとセパレータレンズ23aによる縮小効果によりコントラストの低下を抑え、焦点検出範囲を広くすることもできる。尚、焦点位置近傍における高精度な位相差検出等の場合、セパレータレンズ23aやラインセンサ24a等の寸法に余裕がある場合等においては、コンデンサレンズユニット21を設けなくてもよい。   By providing the condenser lens 21a, the incident angle to the separator lens 23a is increased (the incident angle is reduced), so that the aberration of the separator lens 23a can be suppressed and the object image interval on the line sensor 24a described later can be reduced. Can be small. As a result, the separator lens 23a and the line sensor 24a can be reduced in size. In addition, when the focus position of the subject image from the image pickup optical system is greatly deviated from the image pickup unit 1 (specifically, when it is greatly deviated from the image pickup device 10 of the image pickup unit 1), the contrast of the image is remarkably lowered. According to the embodiment, it is possible to suppress a decrease in contrast by the reduction effect of the condenser lens 21a and the separator lens 23a and to widen the focus detection range. Note that the condenser lens unit 21 may not be provided in the case of high-accuracy phase difference detection in the vicinity of the focal position, or when the dimensions of the separator lens 23a, the line sensor 24a, etc. are sufficient.

マスク部材22は、コンデンサレンズユニット21とセパレータレンズユニット23との間に配設される。マスク部材22は、各セパレータレンズ23aに対応する位置ごとに2つのマスク開口22a,22aが形成されている。つまり、マスク部材22は、セパレータレンズ23aのレンズ面を2つの領域に分割して、該2つの領域だけをコンデンサレンズ21a側に露出させている。すなわち、マスク部材22は、コンデンサレンズ21aにより集光された光を2つの光束に瞳分割して、セパレータレンズ23aへ入射させる。このマスク部材22により隣り合う一方のセパレータレンズ23aからの有害光などが他方のセパレータレンズ23aに入らないようにすることができる。尚、このマスク部材22は、設けなくともよい。   The mask member 22 is disposed between the condenser lens unit 21 and the separator lens unit 23. In the mask member 22, two mask openings 22a and 22a are formed for each position corresponding to each separator lens 23a. That is, the mask member 22 divides the lens surface of the separator lens 23a into two regions, and only the two regions are exposed to the condenser lens 21a side. That is, the mask member 22 divides the light collected by the condenser lens 21a into two light fluxes and makes the light incident on the separator lens 23a. This mask member 22 can prevent harmful light from one separator lens 23a adjacent to the other separator lens 23a from entering. The mask member 22 need not be provided.

セパレータレンズユニット23は、複数のセパレータレンズ23a,23a,…を有し、これら複数のセパレータレンズ23a,23a,…を一体的にユニット化したものである。セパレータレンズ23a,23a,…は、コンデンサレンズ21a,21a,…と同様に、出射側マスク14bの通過孔14c,14c,…と同じ数だけ設けられている。各セパレータレンズ23aは、マスク部材22を通過して入射してきた2つの光束を、同一の2つの被写体像としてラインセンサ24a上に結像させる。   The separator lens unit 23 includes a plurality of separator lenses 23a, 23a,..., And the separator lenses 23a, 23a,. The separator lenses 23a, 23a,... Are provided in the same number as the passage holes 14c, 14c,. Each separator lens 23a forms two light fluxes incident through the mask member 22 on the line sensor 24a as two identical subject images.

ラインセンサユニット24は、複数のラインセンサ24a,24a,…と該ラインセンサ24a,24a,…を設置する設置部24bとを有する。ラインセンサ24a,24a,…は、コンデンサレンズ21a,21a,…と同様に、出射側マスク14bの通過孔14c,14c,…と同じ数だけ設けられている。各ラインセンサ24aは、撮像面上に結像する像を受光して電気信号に変換する。つまり、ラインセンサ24aの出力から、2つの被写体像の間隔を検出することができ、その間隔によって撮像素子10に結像する被写体像の焦点のずれ量(即ち、デフォーカス量(Df量))及び焦点がどちらの方向にずれているか(即ち、デフォーカス方向)を求めることができる(以下、これらDf量及びデフォーカス方向等をデフォーカス情報ともいう)。   The line sensor unit 24 includes a plurality of line sensors 24a, 24a,... And an installation portion 24b for installing the line sensors 24a, 24a,. The number of line sensors 24a, 24a,... Is the same as the number of passage holes 14c, 14c,. Each line sensor 24a receives an image formed on the imaging surface and converts it into an electrical signal. That is, the interval between two subject images can be detected from the output of the line sensor 24a, and the defocus amount (ie, defocus amount (Df amount)) of the subject image formed on the image sensor 10 based on the interval. It is possible to determine in which direction the focus is deviated (that is, the defocus direction) (hereinafter, the Df amount, the defocus direction, and the like are also referred to as defocus information).

このように構成されたコンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24は、モジュール枠25に配設されている。   The condenser lens unit 21, the mask member 22, the separator lens unit 23, and the line sensor unit 24 configured as described above are disposed in the module frame 25.

モジュール枠25は、枠状に形成された部材であって、その内周には、内側に向かって突出する取付部25aが設けられている。取付部25aの撮像素子10側には、階段状に第1取付部25b及び第2取付部25cが形成されている。また、取付部25aの撮像素子10と反対側には、第3取付部25dが形成されている。   The module frame 25 is a member formed in a frame shape, and an attachment portion 25a that protrudes inward is provided on the inner periphery thereof. A first mounting portion 25b and a second mounting portion 25c are formed stepwise on the imaging element 10 side of the mounting portion 25a. Further, a third mounting portion 25d is formed on the side of the mounting portion 25a opposite to the image sensor 10.

そして、撮像素子10側から、モジュール枠25の第2取付部25cにマスク部材22が取り付けられ、第1取付部25bにコンデンサレンズユニット21が取り付けられている。これらコンデンサレンズユニット21及びマスク部材22は、それぞれ第1取付部25b及び第2取付部25cに取り付けられる際に、図3,6に示すように、周縁部がモジュール枠25に嵌り込むように形成されており、それによりモジュール枠25に対して位置決めされる。   From the image sensor 10 side, the mask member 22 is attached to the second attachment portion 25c of the module frame 25, and the condenser lens unit 21 is attached to the first attachment portion 25b. The condenser lens unit 21 and the mask member 22 are formed so that the peripheral edge fits into the module frame 25 as shown in FIGS. 3 and 6 when attached to the first attachment portion 25b and the second attachment portion 25c, respectively. And thereby positioned with respect to the module frame 25.

一方、撮像素子10の反対側から、モジュール枠25の第3取付部25dにセパレータレンズユニット23が取り付けられている。第3取付部25dには、コンデンサレンズユニット21と反対側に突出する位置決めピン25eと方向基準ピン25fとが設けられている。一方、セパレータレンズユニット23には、これら位置決めピン25e及び方向基準ピン25fにそれぞれ対応する位置決め孔23b及び方向基準孔23cが形成されている。位置決めピン25eと位置決め孔23bとは嵌合するようにそれぞれの径が設定されている。一方、方向基準ピン25fと方向基準孔23cとは緩やかに嵌るようにそれぞれの径が設定されている。すなわち、セパレータレンズユニット23は、位置決め孔23b及び方向基準孔23cをそれぞれ第3取付部25dの位置決めピン25e及び方向基準ピン25fに挿通させることによって、第3取付部25dに取り付ける際の方向等の姿勢が規定されると共に、位置決め孔23bと位置決めピン25eとの嵌合によって第3取付部25dに対して位置決めされる。こうして、セパレータレンズユニット23が姿勢及び位置を決めて取り付けられたとき、セパレータレンズ23a,23a,…の各レンズ面は、コンデンサレンズユニット21の側を向くと共に、マスク開口22a,22aと対向した状態になる。   On the other hand, the separator lens unit 23 is attached to the third attachment portion 25 d of the module frame 25 from the opposite side of the image sensor 10. The third mounting portion 25d is provided with a positioning pin 25e and a direction reference pin 25f that protrude on the opposite side of the condenser lens unit 21. On the other hand, the separator lens unit 23 is formed with positioning holes 23b and direction reference holes 23c corresponding to the positioning pins 25e and the direction reference pins 25f, respectively. The diameters of the positioning pins 25e and the positioning holes 23b are set so as to be fitted. On the other hand, the diameters of the direction reference pin 25f and the direction reference hole 23c are set so as to fit gently. That is, the separator lens unit 23 inserts the positioning hole 23b and the direction reference hole 23c into the positioning pin 25e and the direction reference pin 25f of the third attachment part 25d, respectively, so that the direction when attaching to the third attachment part 25d, etc. The posture is defined, and the positioning is performed with respect to the third mounting portion 25d by fitting the positioning hole 23b and the positioning pin 25e. Thus, when the separator lens unit 23 is mounted with its orientation and position determined, the lens surfaces of the separator lenses 23a, 23a,... Face the condenser lens unit 21 and face the mask openings 22a, 22a. become.

こうして、コンデンサレンズユニット21、マスク部材22及びセパレータレンズユニット23は、モジュール枠25に対して位置決めされた状態で取り付けられる。すなわち、これらコンデンサレンズユニット21、マスク部材22及びセパレータレンズユニット23は、モジュール枠25を介して、互いの位置関係が位置決めされる。   Thus, the condenser lens unit 21, the mask member 22, and the separator lens unit 23 are attached while being positioned with respect to the module frame 25. That is, the positional relationship between the condenser lens unit 21, the mask member 22, and the separator lens unit 23 is positioned via the module frame 25.

そして、ラインセンサユニット24が、セパレータレンズユニット23の背面側(コンデンサレンズユニット21と反対側)からモジュール枠25に対して取り付けられる。このとき、ラインセンサユニット24は、各セパレータレンズ23aを透過した光がラインセンサ24aに入射するように位置決めされた状態でモジュール枠25に取り付けられる。   The line sensor unit 24 is attached to the module frame 25 from the back side of the separator lens unit 23 (the side opposite to the condenser lens unit 21). At this time, the line sensor unit 24 is attached to the module frame 25 in a state where the light transmitted through each separator lens 23a is positioned so as to enter the line sensor 24a.

したがって、コンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24をモジュール枠25に取り付けることによって、コンデンサレンズ21a,21a,…に入射した光が、該コンデンサレンズ21a,21a,…を透過して、マスク部材22を介してセパレータレンズ23a,23a,…に入射し、セパレータレンズ23a,23a,…を透過した光がラインセンサ24a,24a,…上に結像するように、コンデンサレンズ21a,21a,…、マスク部材22、セパレータレンズ23a,23a,…及びラインセンサ24a,24a,…がそれぞれ位置決めされた状態で配列される。   Therefore, by attaching the condenser lens unit 21, the mask member 22, the separator lens unit 23, and the line sensor unit 24 to the module frame 25, light incident on the condenser lenses 21a, 21a,. Are transmitted through the mask member 22 and incident on the separator lenses 23a, 23a,..., And the light transmitted through the separator lenses 23a, 23a,... Forms an image on the line sensors 24a, 24a,. The lenses 21a, 21a,..., The mask member 22, the separator lenses 23a, 23a,... And the line sensors 24a, 24a,.

このように構成された撮像素子10と位相差検出ユニット20とは、互いに接合される。詳しくは、撮像素子10におけるパッケージ31の開口31cと位相差検出ユニット20におけるコンデンサレンズ21aとが、互いに嵌合するように構成されている。つまり、位相差検出ユニット20におけるコンデンサレンズ21a,21a,…を、撮像素子10におけるパッケージ31の開口31c,31c,…に嵌め込んだ状態で、モジュール枠25をパッケージ31に接着する。こうすることで撮像素子10と位相差検出ユニット20とを互いに位置決めした状態で接合することができる。このように、コンデンサレンズ21a,21a,…、セパレータレンズ23a,23a,…及びラインセンサ24a,24a,…は、一体的にユニット化されると共に、ユニット化された状態でパッケージ31に取り付けられる。   The image sensor 10 and the phase difference detection unit 20 configured as described above are joined to each other. Specifically, the opening 31c of the package 31 in the image sensor 10 and the condenser lens 21a in the phase difference detection unit 20 are configured to fit each other. That is, the module frame 25 is bonded to the package 31 in a state where the condenser lenses 21a, 21a,... In the phase difference detection unit 20 are fitted into the openings 31c, 31c,. By doing so, the imaging device 10 and the phase difference detection unit 20 can be joined in a state of being positioned with respect to each other. In this way, the condenser lenses 21a, 21a,..., The separator lenses 23a, 23a,... And the line sensors 24a, 24a, etc. are integrated into a unit and attached to the package 31 in a united state.

このとき、全ての開口31c,31c,…と全てのコンデンサレンズ21a,21a,…とを互いに嵌合するように構成してもよい。あるいは、そのうちのいくつかの開口31c,31c,…とコンデンサレンズ21a,21a,…だけを嵌合状態とし、残りの開口31c,31c,…とコンデンサレンズ21a,21a,…とは緩やかに嵌るように構成してもよい。後者の場合には、最も撮像面中央に近いコンデンサレンズ21aと開口31cとが嵌合するように構成して撮像面内における位置決めを行い、さらに、撮像面中央から最も離れたコンデンサレンズ21aと開口31cとが嵌合するように構成して撮像面中央のコンデンサレンズ21a及び開口31c回り(即ち、回転角度)の位置決めを行うことが好ましい。   At this time, all the openings 31c, 31c,... And all the condenser lenses 21a, 21a,. Alternatively, only some of the openings 31c, 31c,... And the condenser lenses 21a, 21a,... Are fitted, and the remaining openings 31c, 31c,. You may comprise. In the latter case, the condenser lens 21a closest to the center of the imaging surface and the opening 31c are configured to be fitted to perform positioning within the imaging surface, and further, the condenser lens 21a and the aperture that are farthest from the center of the imaging surface. It is preferable that positioning is performed around the condenser lens 21a and the opening 31c (that is, the rotation angle) in the center of the imaging surface by being configured so as to be fitted with 31c.

こうして、撮像素子10と位相差検出ユニット20とを接合した結果、撮像素子10の背面側には、出射側マスク14bの各通過孔14cごとに、コンデンサレンズ21a、マスク部材22の一対のマスク開口22a,22a、セパレータレンズ23a及びラインセンサ24aが配置される。   In this way, as a result of joining the image sensor 10 and the phase difference detection unit 20, a pair of mask openings of the condenser lens 21a and the mask member 22 are provided on the back side of the image sensor 10 for each of the passage holes 14c of the emission side mask 14b. 22a, 22a, separator lens 23a and line sensor 24a are arranged.

このように、光を透過させるように構成した撮像素子10に対して、撮像素子10を収容するパッケージ31の底板31aに開口31c,31c,…を形成することによって、撮像素子10を透過した光をパッケージ31の背面側まで容易に到達させることができると共に、パッケージ31の背面側に位相差検出ユニット20を配設することによって、撮像素子10を透過した光を位相差検出ユニット20で受光する構成を容易に実現することができる。   In this way, by forming the openings 31c, 31c,... In the bottom plate 31a of the package 31 that accommodates the image sensor 10 with respect to the image sensor 10 configured to transmit light, the light transmitted through the image sensor 10 is formed. Can easily reach the back side of the package 31, and the phase difference detection unit 20 is disposed on the back side of the package 31 so that the light transmitted through the image sensor 10 is received by the phase difference detection unit 20. The configuration can be easily realized.

また、パッケージ31の底板31aに形成される開口31c,31c,…は撮像素子10を透過した光をパッケージ31の背面側に通過させる構成であれば任意の構成を採用することができるが、貫通孔である開口31c,31c,…を形成することによって、撮像素子10を透過した光を減衰させることなくパッケージ31の背面側まで到達させることができる。   In addition, the openings 31c, 31c,... Formed in the bottom plate 31a of the package 31 may adopt any configuration as long as the configuration allows the light transmitted through the image sensor 10 to pass through to the back side of the package 31. By forming the openings 31c, 31c,... Which are holes, the light transmitted through the image sensor 10 can reach the back side of the package 31 without being attenuated.

また、コンデンサレンズ21a,21a,…を開口31c,31c,…に嵌合させることによって、開口31c,31c,…を利用して、撮像素子10に対する位相差検出ユニット20の位置決めを行うことができる。尚、コンデンサレンズ21a,21a,…を設けない場合は、セパレータレンズ23a,23a,…を開口31c,31c,…に嵌合させるように構成すれば、同様に、撮像素子10に対する位相差検出ユニット20の位置決めを行うことができる。   Further, the phase difference detection unit 20 can be positioned with respect to the image sensor 10 by using the openings 31c, 31c,... By fitting the condenser lenses 21a, 21a,. . In the case where the condenser lenses 21a, 21a,... Are not provided, the phase difference detection unit for the image sensor 10 can be similarly formed by configuring the separator lenses 23a, 23a,. 20 positionings can be performed.

それと共に、コンデンサレンズ21a,21a,…にパッケージ31の底板31aを貫かせて、基板11aに接近させて配設することができるため、撮像ユニット1をコンパクトに構成することができる。   At the same time, the bottom plate 31a of the package 31 can be passed through the condenser lenses 21a, 21a,... And close to the substrate 11a, so that the imaging unit 1 can be configured compactly.

また、撮像素子10の出射側マスク14bには、通過孔14cが3つ形成されると共に、コンデンサレンズ21a,セパレータレンズ23a及びラインセンサ24aが通過孔14c,14c,14cに対応して3セット設けられているが、これに限られるものではない。これらの個数は3つに限定されるものではなく、任意の個数に設定し得る。例えば、図7に示すように、9つの通過孔14c,14c,…を形成すると共に、コンデンサレンズ21a,セパレータレンズ23a及びラインセンサ24aを9セット設けるようにしてもよい。   Further, three passage holes 14c are formed in the exit side mask 14b of the image sensor 10, and three sets of condenser lenses 21a, separator lenses 23a, and line sensors 24a are provided corresponding to the passage holes 14c, 14c, 14c. However, it is not limited to this. The number of these is not limited to three, and can be set to an arbitrary number. For example, as shown in FIG. 7, nine passing holes 14c, 14c,... May be formed, and nine sets of condenser lens 21a, separator lens 23a, and line sensor 24a may be provided.

このように構成された撮像ユニット1の動作について、以下に説明する。   The operation of the imaging unit 1 configured as described above will be described below.

撮像ユニット1に被写体からの光が入射すると、該光は、カバーガラス33を透過し、ガラス基板19に入射する。該光は、ガラス基板19を透過して撮像素子10の基板11aの裏面に入射する。このとき、該光は、カラーフィルタ15r,15g,15bを透過することにより各カラーフィルタ15に対応した色の光だけが基板11aに入射する。基板11aに入射した光は、該基板11aを透過して、基板11a表面の受光部11b,11b,…に到達する。基板11aの表面には、入射側マスク14aが設けられているため、垂直レジスタ12や転送路13には光が入射せず、受光部11b,11b,…にだけ光が入射する。各受光部11bは光を吸収して電荷を発生する。ここで、受光部11bに入射した光は、全てが該受光部11bに吸収されるわけではなく、その一部は該受光部11bを透過するが、該受光部11bを透過した位置には出射側マスク14bが設けられているため、受光部11bを透過した光は出射側マスク14bで反射して、再び、受光部11bに入射する。受光部11bで発生した電荷は垂直レジスタ12及び転送路13を介して増幅器に送られ、電気信号として出力される。こうして、撮像素子10は、その撮像面全体において各受光部11bが光を電気信号に変換することによって、撮像面に形成された被写体像を、画像信号を作成するための電気信号に変換する。   When light from the subject enters the imaging unit 1, the light passes through the cover glass 33 and enters the glass substrate 19. The light passes through the glass substrate 19 and enters the back surface of the substrate 11 a of the image sensor 10. At this time, the light passes through the color filters 15r, 15g, and 15b, so that only light of a color corresponding to each color filter 15 enters the substrate 11a. The light incident on the substrate 11a passes through the substrate 11a and reaches the light receiving portions 11b, 11b,... On the surface of the substrate 11a. Since the incident side mask 14a is provided on the surface of the substrate 11a, light does not enter the vertical register 12 or the transfer path 13, and light enters only the light receiving portions 11b, 11b,. Each light receiving portion 11b absorbs light and generates electric charges. Here, not all of the light incident on the light receiving portion 11b is absorbed by the light receiving portion 11b, and a part of the light is transmitted through the light receiving portion 11b, but is emitted to a position where it has passed through the light receiving portion 11b. Since the side mask 14b is provided, the light transmitted through the light receiving portion 11b is reflected by the emission side mask 14b and enters the light receiving portion 11b again. The electric charge generated in the light receiving unit 11b is sent to the amplifier via the vertical register 12 and the transfer path 13, and is output as an electric signal. In this way, the image sensor 10 converts the subject image formed on the imaging surface into an electrical signal for creating an image signal by the light receiving units 11b converting the light into electrical signals on the entire imaging surface.

ただし、出射側マスク14bの通過孔14c,14c,…では、撮像素子10の受光部11b,11b,…を透過した光が、撮像素子10の背面側へ出射する。そして、撮像素子10を透過した光は、パッケージ31の開口31c,31c,…に嵌合されたコンデンサレンズ21a,21a,…へ入射する。各コンデンサレンズ21aを透過することにより集光された光は、マスク部材22に形成された各対のマスク開口22a,22aを通過する際に2つの光束に分割されて各セパレータレンズ23aに入射する。こうして瞳分割された光は、セパレータレンズ23aを透過して、ラインセンサ24a上の2つの位置に同一の被写体像として結像する。ラインセンサ24aは、光電変換により被写体像から電気信号を作成し出力する。   However, the light transmitted through the light receiving portions 11b, 11b,... Of the image sensor 10 exits to the back side of the image sensor 10 through the passage holes 14c, 14c,. And the light which permeate | transmitted the image pick-up element 10 injects into the condenser lenses 21a, 21a, ... fitted to the openings 31c, 31c, ... of the package 31. The light condensed by passing through each condenser lens 21a is divided into two light beams when passing through each pair of mask openings 22a, 22a formed in the mask member 22, and enters each separator lens 23a. . The light thus divided into pupils passes through the separator lens 23a and forms an identical subject image at two positions on the line sensor 24a. The line sensor 24a creates and outputs an electrical signal from the subject image by photoelectric conversion.

続いて、撮像素子10で変換した電気信号についてのボディマイコン50での処理について説明する。   Next, processing in the body microcomputer 50 for the electrical signal converted by the image sensor 10 will be described.

撮像素子10から出力される電気信号は、撮像ユニット制御部52を介してボディマイコン50に入力される。そして、ボディマイコン50は、各受光部11bの位置情報と該受光部11bの受光光量に対応した出力データとを撮像素子10の撮像面全体から得ることによって、撮像面に形成された被写体像を、電気信号として取得する。   An electrical signal output from the image sensor 10 is input to the body microcomputer 50 via the image capturing unit controller 52. Then, the body microcomputer 50 obtains the subject image formed on the imaging surface by obtaining the position information of each light receiving unit 11b and the output data corresponding to the amount of light received by the light receiving unit 11b from the entire imaging surface of the image sensor 10. Get as an electrical signal.

ここで、受光部11b,11b,…では同じ光量の光を受光しても光の波長が異なると蓄積電荷量が異なるため、撮像素子10の受光部11b,11b,…からの出力はそれぞれに設けられているカラーフィルタ15r,15g,15bの種類に応じて補正される。例えば、赤のカラーフィルタ15rが設けられたR画素11b、緑のカラーフィルタ15gが設けられたG画素11b及び青のカラーフィルタ15bが設けられたB画素11bがそれぞれのカラーフィルタに対応する色の光を同じ光量だけ受光したときに、R画素11b、G画素11b、B画素11bからの出力が同じレベルとなるように各画素の補正量が設定される。   Here, even if the light receiving units 11b, 11b,... Receive the same amount of light, the accumulated charge amounts differ depending on the wavelength of the light, so that the outputs from the light receiving units 11b, 11b,. Correction is performed according to the type of the color filters 15r, 15g, and 15b provided. For example, an R pixel 11b provided with a red color filter 15r, a G pixel 11b provided with a green color filter 15g, and a B pixel 11b provided with a blue color filter 15b have colors corresponding to the respective color filters. When the same amount of light is received, the correction amount of each pixel is set so that the outputs from the R pixel 11b, the G pixel 11b, and the B pixel 11b are at the same level.

それに加えて、本実施形態では出射側マスク14bの通過孔14c,14c,…を設けることによって、撮像素子10のうち通過孔14c,14c,…に対応する部分の受光量が、それ以外の部分に比べて少なくなる。その結果、通過孔14c,14c,…に対応する位置に設けられた画素11b,11b,…から出力された出力データにそれ以外の部分に設けられた画素11b,11b,…から出力された出力データと同様の画像処理を施したのでは、通過孔14c,14c,…に対応する部分の画像が適切に撮影されない(例えば、暗く撮影されてしまう)可能性がある。そこで、通過孔14c,14c,…における各画素11bの出力を、通過孔14c,14c,…の影響がなくなるように補正(例えば、通過孔14c,14c,…における各画素11bの出力を増幅する等)する。   In addition, in this embodiment, by providing the passage holes 14c, 14c,... Of the emission side mask 14b, the amount of received light in the portion corresponding to the passage holes 14c, 14c,. Less than As a result, the output data output from the pixels 11b, 11b,... Provided at the positions corresponding to the through holes 14c, 14c,. When image processing similar to that of data is performed, there is a possibility that images of portions corresponding to the passage holes 14c, 14c,... Are not properly captured (for example, they are captured darkly). Therefore, the output of each pixel 11b in the passage holes 14c, 14c,... Is corrected so as to eliminate the influence of the passage holes 14c, 14c,... (For example, the output of each pixel 11b in the passage holes 14c, 14c,. Etc.)

また、この出力の低下は、光の波長により異なる。具体的には、波長が長いほど、基板11aの透過率が高くなるため、通過孔14cによる出力の低下も大きくなる。そのため、カラーフィルタ15r,15g,15bの種類により、通過孔14cによる出力の低下に差が生じる。そこで、通過孔14cに対応する各画素11bについての通過孔14cの影響をなくす補正は、該各画素11bが受光する光の波長に応じて補正量を異ならせている。具体的には、通過孔14cに対応する各画素11bについて、該各画素11bが受光する光の波長が長いほど補正量を大きくしている。   Further, the reduction in output varies depending on the wavelength of light. Specifically, the longer the wavelength, the higher the transmittance of the substrate 11a, and the greater the decrease in output due to the passage hole 14c. Therefore, there is a difference in the decrease in output due to the passage hole 14c depending on the type of the color filters 15r, 15g, and 15b. Accordingly, the correction for eliminating the influence of the passage hole 14c on each pixel 11b corresponding to the passage hole 14c is made different in accordance with the wavelength of the light received by each pixel 11b. Specifically, for each pixel 11b corresponding to the passage hole 14c, the correction amount is increased as the wavelength of light received by each pixel 11b is longer.

ここで、各画素11bでは、前述の如く、受光する色の種類による蓄積電荷量の差をなくすための補正量が設定されており、この色の種類による蓄積電荷量の差をなくす補正に加えて、通過孔14cの影響をなくす補正がなされる。すなわち、通過孔14cの影響をなくす補正の補正量は、通過孔14cに対応する各画素11bについての補正量と、通過孔14c以外の位置に対応する画素11bであって且つ同じ色を受光する画素11bについての補正量との差となる。本実施形態では、以下に示す関係で色ごとに補正量を異ならせている。こうすることで安定した画像出力を得ることができる。   Here, in each pixel 11b, as described above, a correction amount for eliminating the difference in accumulated charge amount depending on the type of light received is set, and in addition to the correction for eliminating the difference in accumulated charge amount due to this color type. Thus, the correction for eliminating the influence of the passage hole 14c is made. That is, the correction amount for correcting the influence of the passage hole 14c is the correction amount for each pixel 11b corresponding to the passage hole 14c and the pixel 11b corresponding to a position other than the passage hole 14c and receiving the same color. This is the difference from the correction amount for the pixel 11b. In the present embodiment, the correction amount is varied for each color according to the relationship shown below. By doing so, a stable image output can be obtained.

Rk>Gk>Bk ・・・(1)
ここで、
Rk:通過孔14cのR画素補正量−通過孔14c以外のR画素補正量
Gk:通過孔14cのG画素補正量−通過孔14c以外のG画素補正量
Bk:通過孔14cのB画素補正量−通過孔14c以外のB画素補正量
とする。
Rk>Gk> Bk (1)
here,
Rk: R pixel correction amount of the passage hole 14c−R pixel correction amount other than the passage hole 14c Gk: G pixel correction amount of the passage hole 14c−G pixel correction amount other than the passage hole 14c Bk: B pixel correction amount of the passage hole 14c -It is set as B pixel correction amount other than the passage hole 14c.

すなわち、赤、緑、青の3色のうち長波長である赤が最も透過率が高いため、赤の画素での補正量の差が最も大きい。また、該3色のうち短波長である青が最も透過率が低いため、青の画素での補正量の差が最も小さい。   That is, among the three colors of red, green, and blue, red, which has a long wavelength, has the highest transmittance, so that the difference in correction amount at the red pixel is the largest. In addition, since blue, which has a short wavelength among the three colors, has the lowest transmittance, the difference in the correction amount between the blue pixels is the smallest.

つまり、撮像素子10の各画素11bの出力の補正量は、各画素11bが通過孔14cに対応する位置に位置するか否か、および、各画素11bに対応するカラーフィルタ15の色の種類に基づいて決定される。各補正量は、例えば、通過孔14cに対応する画素11bからの出力と通過孔14c以外の位置に対応する画素11bからの出力とにより表示される画像のホワイトバランス及び/又は輝度が等しくなるように決定される。   That is, the correction amount of the output of each pixel 11b of the image sensor 10 depends on whether or not each pixel 11b is located at a position corresponding to the passage hole 14c and the color type of the color filter 15 corresponding to each pixel 11b. To be determined. Each correction amount is set so that, for example, the white balance and / or luminance of the displayed image are equal by the output from the pixel 11b corresponding to the passage hole 14c and the output from the pixel 11b corresponding to a position other than the passage hole 14c. To be determined.

ボディマイコン50は、受光部11b,11b,…からの出力データをこのように補正した後、該出力データに基づいて、各受光部、即ち、画素11bにおける位置情報、色情報及び輝度情報とを含む画像信号を作成する。こうして、撮像素子10の撮像面上に結像された被写体像の画像信号が得られる。   The body microcomputer 50 corrects the output data from the light receiving portions 11b, 11b,... In this way, and then, based on the output data, the position information, color information, and luminance information in each light receiving portion, that is, the pixel 11b. Create an image signal containing. Thus, an image signal of the subject image formed on the imaging surface of the image sensor 10 is obtained.

このように撮像素子10からの出力を補正することによって、通過孔14c,14c,…が設けられた撮像素子10であっても、被写体像を適切に撮影することができる。   By correcting the output from the image sensor 10 in this way, the subject image can be appropriately captured even in the image sensor 10 provided with the passage holes 14c, 14c,.

一方、ラインセンサユニット24から出力される電気信号も、ボディマイコン50に入力される。そして、ボディマイコン50は、ラインセンサユニット24からの出力に基づいて、ラインセンサ24a上に結像する2つの被写体像の間隔を求め、求めた間隔から、撮像素子10に結像する被写体像の焦点状態を検出することができる。例えば、ラインセンサ24a上に結像する2つの被写体像は、撮像レンズを透過して撮像素子10に結像する被写体像が正確に結像しているとき(合焦)には、所定の基準間隔を開けて所定の基準位置に位置する。それに対し、被写体像が撮像素子10よりも光軸方向手前側に結像しているとき(前ピン)には、2つの被写体像の間隔が合焦時の基準間隔よりも狭くなる。一方、被写体像が撮像素子10よりも光軸方向奥側に結像しているとき(後ピン)には、2つの被写体像の間隔が合焦時の基準間隔よりも広くなる。つまり、ラインセンサ24aからの出カを増幅した後、演算回路にて演算することによって、合焦か非合焦か、前ピンか後ピンか、Df量はどの位かを知ることができる。   On the other hand, an electrical signal output from the line sensor unit 24 is also input to the body microcomputer 50. Based on the output from the line sensor unit 24, the body microcomputer 50 obtains the interval between the two subject images formed on the line sensor 24a, and uses the obtained interval to determine the subject image to be imaged on the image sensor 10. The focus state can be detected. For example, the two subject images formed on the line sensor 24a have a predetermined reference when the subject image formed on the image sensor 10 through the imaging lens is accurately formed (focused). Positioned at a predetermined reference position with a gap. On the other hand, when the subject image is formed in front of the image sensor 10 in the optical axis direction (front pin), the interval between the two subject images is narrower than the reference interval at the time of focusing. On the other hand, when the subject image is formed behind the image sensor 10 in the optical axis direction (rear pin), the interval between the two subject images is wider than the reference interval at the time of focusing. That is, after amplifying the output from the line sensor 24a, it is possible to know whether the in-focus state or the out-of-focus state, the front pin or the rear pin, or the amount of Df by calculating with the arithmetic circuit.

−カメラの動作説明−
このように構成されたカメラ100の動作について、図8,9を参照しながら説明する。図8は、レリーズボタンが全押しされるまでのカメラ100の動作を示すフローチャート図であり、図9は、レリーズボタンが全押しされた後のカメラ100の動作を示すフローチャート図である。
-Explanation of camera operation-
The operation of the camera 100 configured as described above will be described with reference to FIGS. FIG. 8 is a flowchart showing the operation of the camera 100 until the release button is fully pressed, and FIG. 9 is a flowchart showing the operation of the camera 100 after the release button is fully pressed.

以下の各動作は、主に、ボディマイコン50によって制御されている。   The following operations are mainly controlled by the body microcomputer 50.

まず、電源スイッチ40aがONされると(ステップSt1)、カメラ本体4と交換レンズ7との交信が行われる(ステップSt2)。詳しくは、カメラ本体4内のボディマイコン50及び各種ユニットに電力が供給され、ボディマイコン50が起動する。同時に、電気切片41a,71aを介して、交換レンズ7内のレンズマイコン80及び各種ユニットに電極が供給され、レンズマイコン80が起動する。ボディマイコン50及びレンズマイコン80は、起動時に互いに情報を送受信するようプログラミングされており、例えばレンズマイコン80のメモリ部からボディマイコン50へ交換レンズ7に関するレンズ情報が送信され、このレンズ情報はボディマイコン50のメモリ部に格納される。   First, when the power switch 40a is turned on (step St1), communication between the camera body 4 and the interchangeable lens 7 is performed (step St2). Specifically, power is supplied to the body microcomputer 50 and various units in the camera body 4, and the body microcomputer 50 is activated. At the same time, electrodes are supplied to the lens microcomputer 80 and various units in the interchangeable lens 7 via the electrical sections 41a and 71a, and the lens microcomputer 80 is activated. The body microcomputer 50 and the lens microcomputer 80 are programmed to transmit and receive information to each other at the time of activation. For example, lens information relating to the interchangeable lens 7 is transmitted from the memory unit of the lens microcomputer 80 to the body microcomputer 50. 50 memory units.

続いて、ボディマイコン50は、レンズマイコン80を介してフォーカスレンズ群72を予め設定された所定の基準位置に位置させる(ステップSt3)と共に、それと並行して、シャッタユニット42を開状態にする(ステップSt4)。その後、ステップSt5へ進み、撮影者によりレリーズボタン40bが半押しされるまで待機する。   Subsequently, the body microcomputer 50 positions the focus lens group 72 at a predetermined reference position set in advance via the lens microcomputer 80 (step St3), and at the same time, opens the shutter unit 42 (see FIG. Step St4). Thereafter, the process proceeds to step St5 and waits until the photographer presses the release button 40b halfway.

こうすることで、交換レンズ7を透過して、カメラ本体4内に入射した光は、シャッタユニット42を通過して、さらにIRカット兼OLPF43を透過し、撮像ユニット1へ入射する。そして、撮像ユニット1にて結像した被写体像は画像表示部44に表示され、撮影者は画像表示部44を介して被写体の正立像を観察できる。詳しくは、ボディマイコン50は、撮像ユニット制御部52を介して撮像素子10からの電気信号を一定の周期で読み込み、読み込んだ電気信号に対して所定の画像処理を施した後、画像信号を作成し、画像表示制御部55を制御して画像表示部44にライブビュー画像を表示させる。   By doing so, the light that has passed through the interchangeable lens 7 and entered the camera body 4 passes through the shutter unit 42, further passes through the IR cut / OLPF 43, and enters the imaging unit 1. The subject image formed by the imaging unit 1 is displayed on the image display unit 44, and the photographer can observe an erect image of the subject via the image display unit 44. Specifically, the body microcomputer 50 reads an electrical signal from the image sensor 10 via the imaging unit control unit 52 at a constant cycle, performs predetermined image processing on the read electrical signal, and then creates an image signal. Then, the image display control unit 55 is controlled to display the live view image on the image display unit 44.

また、撮像ユニット1へ入射した光の一部は、撮像素子10を透過して位相差検出ユニット20へ入射する。   Further, part of the light incident on the imaging unit 1 passes through the imaging element 10 and enters the phase difference detection unit 20.

ここで、撮影者によりレリーズボタン40bが半押しされる(即ち、S1スイッチ(図示省略)がONされる)と(ステップSt5)、ボディマイコン50は、位相差検出ユニット20のラインセンサ24aからの出カを増幅した後、演算回路にて演算して、合焦か非合焦かを検出する(ステップSt6)。さらに、ボディマイコン50は、前ピンか後ピンか、デフォーカス量はどの位かを求め、デフォーカス情報を取得する(ステップSt7)。その後、ステップSt10へ進む。   Here, when the release button 40b is half-pressed by the photographer (that is, the S1 switch (not shown) is turned on) (step St5), the body microcomputer 50 receives the signal from the line sensor 24a of the phase difference detection unit 20. After the output is amplified, it is calculated by an arithmetic circuit to detect whether it is in focus or not in focus (step St6). Furthermore, the body microcomputer 50 obtains the defocus information by obtaining the front pin or the rear pin and how much the defocus amount is (step St7). Thereafter, the process proceeds to step St10.

ここで、本実施形態に係る位相差検出ユニット20は、コンデンサレンズ21a、マスク開口22a,22a、セパレータレンズ23a及びラインセンサ24aのセットを3セット、即ち、位相差検出方式の焦点検出を行う測距ポイントを3つ有している。そして、位相差検出では、撮影者が任意に選択した測距ポイントに対応したセットのラインセンサ24aの出力に基づいてフォーカスレンズ群72を駆動させる。   Here, the phase difference detection unit 20 according to the present embodiment includes three sets of the condenser lens 21a, the mask openings 22a and 22a, the separator lens 23a, and the line sensor 24a, that is, measurement that performs focus detection by the phase difference detection method. There are three distance points. In the phase difference detection, the focus lens group 72 is driven based on the output of the set of line sensors 24a corresponding to the distance measuring points arbitrarily selected by the photographer.

あるいは、複数の測距ポイントのうち、最もカメラと被写体とが近接した測距ポイントを選択してフォーカスレンズ群72の駆動を行うように、ボディマイコン50に自動最適化アルゴリズムを設定しておいてもよい。この場合、中抜け写真などが発生する確率を低減することができる。   Alternatively, an automatic optimization algorithm is set in the body microcomputer 50 so that the focus lens group 72 is driven by selecting the distance measurement point closest to the camera and the subject from among the plurality of distance measurement points. Also good. In this case, it is possible to reduce the probability that a hollow photo or the like will occur.

一方、ステップSt6,St7と並行して、測光を行う(ステップSt8)と共に、像ブレ検出を開始する(ステップSt9)。   On the other hand, in parallel with steps St6 and St7, photometry is performed (step St8) and image blur detection is started (step St9).

すなわち、ステップSt8においては、撮像素子10によって該撮像素子10に入射してくる光の光量が測定される。つまり、本実施形態においては、撮像素子10に入射して該撮像素子10を透過した光を用いて上述の位相差検出を行っているため、該位相差検出と並行して、撮像素子10を用いて測光を行うことができる。   That is, in step St8, the amount of light incident on the image sensor 10 is measured by the image sensor 10. That is, in the present embodiment, since the above-described phase difference detection is performed using the light that has entered the image sensor 10 and has passed through the image sensor 10, the image sensor 10 is mounted in parallel with the phase difference detection. Can be used for photometry.

詳しくは、ボディマイコン50が、撮像ユニット制御部52を介して撮像素子10からの電気信号を取り込み、該電気信号に基づいて被写体光の強度を測定することによって測光を行う。そして、ボディマイコン50は、測光の結果から、撮影モードに応じた露光時におけるシャッタスピードと絞り値を所定のアルゴリズムに従って決定する。   Specifically, the body microcomputer 50 performs photometry by taking in an electrical signal from the image sensor 10 via the imaging unit controller 52 and measuring the intensity of the subject light based on the electrical signal. Then, the body microcomputer 50 determines the shutter speed and aperture value at the time of exposure according to the photographing mode from the photometric result according to a predetermined algorithm.

そして、ステップSt8において測光が終了すると、ステップSt9において像ブレ検出を開始する。尚、ステップSt8とステップSt9とは並行して行ってもよい。   Then, when the photometry is finished in step St8, image blur detection is started in step St9. Note that step St8 and step St9 may be performed in parallel.

その後、ステップSt10へ進む。尚、ステップSt9の後は、ステップSt10ではなく、ステップSt12へ進んでもよい。   Thereafter, the process proceeds to step St10. In addition, after step St9, you may progress to step St12 instead of step St10.

このように、本実施形態においては、撮像素子10に入射して該撮像素子10を透過した光を用いて上述の位相差に基づく焦点検出を行っているため、該焦点検出と並行して、撮像素子10を用いて測光を行うことができる。   As described above, in the present embodiment, since the focus detection based on the above-described phase difference is performed using the light incident on the image sensor 10 and transmitted through the image sensor 10, in parallel with the focus detection, Photometry can be performed using the image sensor 10.

ステップSt10では、ボディマイコン50は、ステップSt7で取得したデフォーカス情報に基づいて、フォーカスレンズ群72を駆動する。   In step St10, the body microcomputer 50 drives the focus lens group 72 based on the defocus information acquired in step St7.

そして、ボディマイコン50は、コントラストピークが検出されたか否かを判定する(ステップSt11)。コントラストピークが検出されていない(NO)ときにはフォーカスレンズ群72の駆動(ステップSt10)を繰り返す一方、コントラストピークが検出された(YES)ときにはフォーカスレンズ群72の駆動を停止して、フォーカスレンズ群72をコントラスト値がピークとなった位置まで移動させた後、ステップSt11へ進む。   Then, the body microcomputer 50 determines whether or not a contrast peak has been detected (step St11). When the contrast peak is not detected (NO), the drive of the focus lens group 72 is repeated (step St10), while when the contrast peak is detected (YES), the drive of the focus lens group 72 is stopped and the focus lens group 72 is stopped. Is moved to a position where the contrast value reaches a peak, and then the process proceeds to step St11.

具体的には、ステップSt7で算出したデフォーカス量に基づいて合焦位置と予測される位置よりも前後に離れた位置までフォーカスレンズ群72を高速で駆動する。その後、合焦位置と予測される位置に向かってフォーカスレンズ群72を低速で駆動しながらコントラストピークを検出する。   Specifically, the focus lens group 72 is driven at a high speed to a position farther forward and backward than the position predicted as the in-focus position based on the defocus amount calculated in step St7. Thereafter, the contrast peak is detected while the focus lens group 72 is driven at a low speed toward the predicted position as the in-focus position.

また、撮影者によりレリーズボタン40bが半押しされると、画像表示部44には、撮影画像と共に撮影に係る各種情報表示が表示され、撮影者は画像表示部44を介して各種情報を確認することができる。   When the release button 40b is pressed halfway by the photographer, various information related to photographing is displayed together with the photographed image on the image display unit 44, and the photographer confirms various information via the image display unit 44. be able to.

ステップSt12では、撮影者にレリーズボタン40bが全押しされる(即ち、S2スイッチ(図示省略)がONされる)まで待機する。撮影者によりレリーズボタン40bが全押しされると、ボディマイコン50は、シャッタユニット42を一旦、閉状態にする(ステップSt13)。こうして、シャッタユニット42を閉状態にしている間に、後述する露光に備えて、撮像素子10の受光部11b,11b,…に蓄積されている電荷を転送してしまう。   In step St12, the process waits until the photographer fully presses the release button 40b (that is, the S2 switch (not shown) is turned on). When the release button 40b is fully pressed by the photographer, the body microcomputer 50 temporarily closes the shutter unit 42 (step St13). Thus, while the shutter unit 42 is in the closed state, the charges accumulated in the light receiving portions 11b, 11b,...

その後、ボディマイコン50は、カメラ本体4と交換レンズ7との交信情報、又は撮影者の任意の指定情報を基に像ブレの補正を開始する(ステップSt14)。具体的には、カメラ本体4内のブレ検出部56の情報を基に交換レンズ7内のブレ補正レンズ駆動部74aを駆動する。また、撮影者の意図に応じて、(i)交換レンズ7内のブレ検出部84とブレ補正レンズ駆動部74aを用いる、(ii)カメラ本体4内のブレ検出部56とブレ補正ユニット45を用いる、(iii)交換レンズ7内のブレ検出部84とカメラ本体4内のブレ補正ユニット45を用いる、の何れかが選択可能である。   Thereafter, the body microcomputer 50 starts correction of image blur based on communication information between the camera body 4 and the interchangeable lens 7 or arbitrary designation information of the photographer (step St14). Specifically, the blur correction lens driving unit 74 a in the interchangeable lens 7 is driven based on information from the blur detection unit 56 in the camera body 4. Further, according to the photographer's intention, (i) the blur detection unit 84 and the blur correction lens driving unit 74a in the interchangeable lens 7 are used, and (ii) the blur detection unit 56 and the blur correction unit 45 in the camera body 4 are provided. Either (iii) using the blur detection unit 84 in the interchangeable lens 7 or the blur correction unit 45 in the camera body 4 can be selected.

尚、像ブレ補正手段の駆動開始は、レリーズボタン40b半押し時点から開始することで、合焦させたい被写体の動きが軽減され、AFをより正確に行うことが可能となる。   The driving of the image blur correction unit is started when the release button 40b is half-pressed, so that the movement of the subject to be focused is reduced and AF can be performed more accurately.

また、ボディマイコン50は、像ブレの補正開始と並行して、ステップSt8における測光の結果から求められた絞り値となるようにレンズマイコン80を介して絞り部73を絞り込む(ステップSt15)。   In parallel with the start of image blur correction, the body microcomputer 50 narrows down the diaphragm 73 via the lens microcomputer 80 so that the diaphragm value obtained from the photometric result in step St8 is obtained (step St15).

こうして、像ブレの補正が開始されると共に、絞り込みが完了すると、ボディマイコン50は、ステップSt8における測光の結果から求められたシャッタスピードに基づいてシャッタユニット42を開状態にする(ステップSt16)。こうして、シャッタユニット42を開状態にすることで、被写体からの光が撮像素子10に入射するようになり、撮像素子10では所定時間だけ電荷の蓄積を行う(ステップSt17)。   In this way, the correction of image blur is started, and when the narrowing is completed, the body microcomputer 50 opens the shutter unit 42 based on the shutter speed obtained from the photometric result in step St8 (step St16). Thus, by opening the shutter unit 42, the light from the subject enters the image sensor 10, and the image sensor 10 accumulates charges for a predetermined time (step St17).

そして、ボディマイコン50は、該シャッタスピードに基づいて、シャッタユニット42を閉状態にして、露光を終了する(ステップSt18)。露光完了後、ボディマイコン50では、撮像ユニット制御部52を介して撮像ユニット1から画像データを読み出し、所定の画像処理後、画像読み出し/記録部53を介して画像表示制御部55へ画像データを出力する。これにより、画像表示部44へ撮影画像が表示される。また、ボディマイコン50は、必要に応じて、画像記録制御部54を介して画像格納部58に画像データを格納する。   Then, the body microcomputer 50 closes the shutter unit 42 based on the shutter speed, and ends the exposure (step St18). After the exposure is completed, the body microcomputer 50 reads the image data from the imaging unit 1 via the imaging unit control unit 52, and after the predetermined image processing, the image data is sent to the image display control unit 55 via the image reading / recording unit 53. Output. As a result, the captured image is displayed on the image display unit 44. The body microcomputer 50 stores image data in the image storage unit 58 via the image recording control unit 54 as necessary.

その後、ボディマイコン50は、像ブレ補正を終了する(ステップSt19)共に、絞り部73を開放する(ステップSt20)。そして、ボディマイコン50は、シャッタユニット42を開状態とする(ステップSt21)。   Thereafter, the body microcomputer 50 ends the image blur correction (step St19) and opens the diaphragm 73 (step St20). Then, the body microcomputer 50 opens the shutter unit 42 (step St21).

レンズマイコン80は、リセットが完了すると、ボディマイコン50にリセット完了を伝える。ボディマイコン50は、レンズマイコン80からのリセット完了情報と露光後の一連処理の完了を待ち、その後、レリーズボタン40bの状態が、押し込みされていないことを確認し、撮影シーケンスを終了する。その後、ステップSt5へ戻り、レリーズボタン40bが半押しされるまで待機する。   When the reset is completed, the lens microcomputer 80 notifies the body microcomputer 50 of the completion of the reset. The body microcomputer 50 waits for the reset completion information from the lens microcomputer 80 and the completion of the series of processes after exposure, and then confirms that the state of the release button 40b is not depressed, and ends the photographing sequence. Thereafter, the process returns to step St5 and waits until the release button 40b is half-pressed.

尚、電源スイッチ40aがOFFされる(ステップSt22)と、ボディマイコン50は、フォーカスレンズ群72を予め設定された所定の基準位置に移動させる(ステップSt23)と共に、シャッタユニット42を閉状態にする(ステップSt24)。そして、カメラ本体4内のボディマイコン50及び各種ユニット、並びに交換レンズ7内のレンズマイコン80及び各種ユニットの作動を停止する。   When the power switch 40a is turned off (step St22), the body microcomputer 50 moves the focus lens group 72 to a predetermined reference position set in advance (step St23) and closes the shutter unit 42. (Step St24). Then, the operation of the body microcomputer 50 and various units in the camera body 4 and the lens microcomputer 80 and various units in the interchangeable lens 7 are stopped.

このように、本実施形態のAF動作では、まず、位相差検出ユニット20によってデフォーカス情報を取得し、これらのデフォーカス情報に基づいてフォーカスレンズ群72を駆動する。そして、撮像素子10からの出力に基づいて算出されるコントラスト値がピークとなるフォーカスレンズ群72の位置を検出し、フォーカスレンズ群72を該位置に位置させる。こうすることで、フォーカスレンズ群72の駆動前にデフォーカス情報を検出することができるため、従来のコントラスト検出方式AFのようにフォーカスレンズ群72をとりあえず駆動してみるというステップが必要ないため、オートフォーカスの処理時間を短縮することができる。また、最終的にはコントラスト検出方式AFによって焦点を合わすため、ダイレクトにコントラストピークを捕らえることが可能となり、位相差検出方式AFと異なり、開放バック補正(絞りの開口度合いによるピントズレ)などの様々な補正演算が必要ないため高精度なピント性能を得ることができる。特に繰り返しパターンのある被写体やコントラストが極端に低い被写体などに対して、従来の位相差検出方式AFよりも精度良く焦点を合わせることができる。   Thus, in the AF operation of this embodiment, first, the defocus information is acquired by the phase difference detection unit 20, and the focus lens group 72 is driven based on the defocus information. Then, the position of the focus lens group 72 where the contrast value calculated based on the output from the image sensor 10 reaches a peak is detected, and the focus lens group 72 is positioned at this position. In this way, since defocus information can be detected before the focus lens group 72 is driven, there is no need to drive the focus lens group 72 for the time being as in the conventional contrast detection method AF. The autofocus processing time can be shortened. In addition, since the focus is finally adjusted by the contrast detection method AF, it is possible to directly capture the contrast peak, and unlike the phase difference detection method AF, there are various methods such as open back correction (focus shift due to the aperture opening degree). Since no correction calculation is required, a highly accurate focus performance can be obtained. In particular, it is possible to focus on a subject with a repetitive pattern or a subject with extremely low contrast with higher accuracy than the conventional phase difference detection method AF.

そして、本実施形態のAF動作では位相差検出を含んでいるにもかかわらず、撮像素子10を透過した光を用いて位相差検出ユニット20によりデフォーカス情報を取得しているため、撮像素子10による測光と位相差検出ユニット20によるデフォーカス情報の取得とを並行して行うことができる。すなわち、位相差検出ユニット20は撮像素子10を透過した光を受けてデフォーカス情報を取得するため、デフォーカス情報を取得する際には必ず、被写体からの光が撮像素子10に照射されている。そこで、オートフォーカス時に撮像素子10を透過する光を用いて測光を行う。こうすることで、測光用のセンサを別途設ける必要がなくなると共に、レリーズボタン40bが全押しされる前に測光を行っておくことができるため、レリーズボタン40bが全押しされてから露光が完了するまでの時間(以下、レリーズタイムラグともいう)を短縮することができる。   Since the AF operation of the present embodiment includes phase difference detection, the defocus information is acquired by the phase difference detection unit 20 using light transmitted through the image sensor 10. Metering and acquisition of defocus information by the phase difference detection unit 20 can be performed in parallel. That is, since the phase difference detection unit 20 receives the light transmitted through the image sensor 10 and acquires defocus information, the image sensor 10 is always irradiated with light from the subject when acquiring the defocus information. . Therefore, photometry is performed using light transmitted through the image sensor 10 during autofocus. By doing so, it is not necessary to separately provide a photometric sensor, and since photometry can be performed before the release button 40b is fully pressed, exposure is completed after the release button 40b is fully pressed. Time (hereinafter also referred to as a release time lag) can be shortened.

また、レリーズボタン40bの全押し前に測光を行う構成であっても、測光をオートフォーカスと並行して行うことによって、レリーズボタン40b半押し後の処理時間を長くしてしまうことも防止できる。その際、被写体からの光を測光用センサや位相差検出ユニットへ導くためのミラーを設ける必要がない。   Further, even if the photometry is performed before the release button 40b is fully pressed, it is possible to prevent the processing time after the release button 40b is half-pressed by performing photometry in parallel with the autofocus. At this time, there is no need to provide a mirror for guiding light from the subject to the photometric sensor or the phase difference detection unit.

また、従来は、被写体から撮像装置に導かれる光の一部をミラー等で、撮像装置外に設けられた位相差検出ユニットへ導いていたのに対し、撮像ユニット1に導かれた光をそのまま用いて位相差検出ユニット20によって焦点状態を検出することができるため、デフォーカス情報を高い精度で取得することができる。   Conventionally, part of the light guided from the subject to the imaging device is guided to the phase difference detection unit provided outside the imaging device by a mirror or the like, whereas the light guided to the imaging unit 1 is used as it is. Since the focus state can be detected by the phase difference detection unit 20, the defocus information can be acquired with high accuracy.

尚、上記実施形態では、位相差検出をした後、コントラスト方式AFを行う、いわゆるハイブリッド方式AFを採用しているが、これに限られるものではない。例えば、位相差検出によって取得したデフォーカス情報に基づいてAFを行う位相差検出方式AFであってもよい。また、上記ハイブリッド方式AFと、位相差検出方式AFと、位相差検出を行わず、コントラスト値だけに基づいて合焦させるコントラスト検出方式AFとを、切り替えて行うようにしてもよい。   In the above-described embodiment, the so-called hybrid AF, in which the contrast AF is performed after the phase difference is detected, is adopted, but the present invention is not limited to this. For example, phase difference detection AF that performs AF based on defocus information acquired by phase difference detection may be used. Also, the hybrid AF, the phase difference detection AF, and the contrast detection AF that performs focusing based on only the contrast value without performing the phase difference detection may be switched.

−実施形態1の効果−
したがって、本実施形態1によれば、撮像素子10を光が通過するように構成し且つ該撮像素子10を通過した光を受光して位相差検出方式の焦点検出を行う位相差検出ユニット20を設けると共に、ボディ制御部5が撮像素子10を制御し且つ、少なくとも位相差検出ユニット20の検出結果に基づいてフォーカスレンズ群72を駆動制御することにより焦点調節を行うことによって、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを並行して行うことができ、処理時間を短縮することができる。
-Effect of Embodiment 1-
Therefore, according to the first embodiment, the phase difference detection unit 20 configured to allow light to pass through the image sensor 10 and receive the light that has passed through the image sensor 10 and perform focus detection by the phase difference detection method is provided. And the body control unit 5 controls the image sensor 10 and performs focus adjustment by driving and controlling the focus lens group 72 based on at least the detection result of the phase difference detection unit 20, thereby using the image sensor 10. The various processes and the autofocus using the phase difference detection unit 20 can be performed in parallel, and the processing time can be shortened.

また、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを並行して行わないとしても、上記構成によれば撮像素子10に光が入射しているときには位相差検出ユニット20にも光が入射しているため、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとをボディ制御部5の制御の切替により容易に切り替えることができる。すなわち、従来のように被写体からの光の進む方向を可動ミラーを進退させて撮像素子と位相差検出ユニットとに切り替える構成と比較して、可動ミラーを進退させる必要がないため、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを即座に切り替えることができると共に、可動ミラーの進退に伴う音も生じ得ないため、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを静かに切り替えることができる。   Even if various processes using the image sensor 10 and autofocus using the phase difference detection unit 20 are not performed in parallel, according to the above configuration, when light is incident on the image sensor 10, the phase difference Since light is also incident on the detection unit 20, various processes using the image sensor 10 and autofocus using the phase difference detection unit 20 can be easily switched by switching the control of the body control unit 5. . That is, since it is not necessary to move the movable mirror forward and backward as compared with the conventional configuration in which the moving direction of the light from the subject is switched between the image pickup element and the phase difference detection unit by moving the movable mirror forward and backward, the image pickup element 10 is Since various processes used and auto-focus using the phase difference detection unit 20 can be switched immediately, and no sound is generated as the movable mirror advances and retreats, various processes and levels using the image sensor 10 can be avoided. The auto focus using the phase difference detection unit 20 can be switched silently.

こうして、カメラ100の利便性を向上させることができる。   Thus, the convenience of the camera 100 can be improved.

具体的には、撮像素子10を光が通過するように構成し且つ該撮像素子10を通過した光を受光して位相差検出方式の焦点検出を行う位相差検出ユニット20を設けることによって、上記位相差検出方式AFのように、位相差検出ユニット20を用いたAFと撮像素子10を用いた測光とを並行して行うことができる。こうすることによって、レリーズボタン40bの全押し後に測光を行う必要がなくなり、レリーズタイムラグを短縮することができる。また、レリーズボタン40bの全押し前に測光を行う構成であっても、測光をオートフォーカスと並行して行うことによって、レリーズボタン40b半押し後の処理時間を長くしてしまうことも防止できる。さらに、撮像素子10を用いて測光を行うため、測光用センサを別途設ける必要がない。さらにまた、被写体からの光を測光用センサや位相差検出ユニットへ導くための可動ミラーを設ける必要がない。そのため、電力消費を抑制することができる。   Specifically, the image sensor 10 is configured to allow light to pass through, and by providing the phase difference detection unit 20 that receives the light that has passed through the image sensor 10 and performs focus detection by a phase difference detection method, Like the phase difference detection AF, AF using the phase difference detection unit 20 and photometry using the image sensor 10 can be performed in parallel. By doing so, it is not necessary to perform photometry after the release button 40b is fully pressed, and the release time lag can be shortened. Further, even if the photometry is performed before the release button 40b is fully pressed, it is possible to prevent the processing time after the release button 40b is half-pressed by performing photometry in parallel with the autofocus. Furthermore, since photometry is performed using the image sensor 10, there is no need to separately provide a photometric sensor. Furthermore, there is no need to provide a movable mirror for guiding light from the subject to a photometric sensor or a phase difference detection unit. Therefore, power consumption can be suppressed.

また、上記のハイブリッド方式AFであっても、位相差検出ユニット20による位相差検出から撮像素子10を用いたコントラスト検出への切り替えを、従来の可動ミラーを用いた光路の切り替え等を行うことなく、ボディ制御部5内の制御で即座に行うことができるため、ハイブリッド方式AFに要する時間を短縮することができる。また、可動ミラーが不要なため、可動ミラーによる騒音もなくなり、ハイブリッド方式AFを静かに行うことができる。   Further, even in the hybrid AF described above, switching from phase difference detection by the phase difference detection unit 20 to contrast detection using the image sensor 10 is performed without performing switching of an optical path using a conventional movable mirror or the like. Since it can be performed immediately by the control in the body controller 5, the time required for the hybrid AF can be shortened. Further, since the movable mirror is unnecessary, noise due to the movable mirror is eliminated and the hybrid AF can be performed silently.

さらに、被写体から撮像素子10へ向かう光を可動ミラー等を用いて、撮像素子10の背面側とは別の場所に配設された位相差検出ユニットへ向かわせる従来の構成においては、露光時の光路と位相差検出時の光路とが異なることや可動ミラーの設置誤差等によって焦点調節の精度が高くないが、本実施形態においては位相差検出ユニット20が撮像素子10を通過する光を受けて位相差検出方式の焦点検出を行うため、露光時の光路と同じ光路のまま位相差検出方式の焦点検出を行うことができると共に、可動ミラーのような誤差を生じさせる部材がないため、位相差検出に基づくデフォーカス量の取得を高い精度で行うことができる。   Furthermore, in the conventional configuration in which light traveling from the subject toward the image sensor 10 is directed to a phase difference detection unit disposed at a location different from the back side of the image sensor 10 using a movable mirror or the like, The focus adjustment accuracy is not high due to the difference between the optical path and the optical path at the time of phase difference detection, the installation error of the movable mirror, etc. In this embodiment, the phase difference detection unit 20 receives light passing through the image sensor 10. Since the phase difference detection method focus detection is performed, the phase difference detection method focus detection can be performed while maintaining the same optical path as that at the time of exposure, and there is no member that causes an error such as a movable mirror. Acquisition of the defocus amount based on detection can be performed with high accuracy.

そして、上記のように、撮像素子10を、光が透過するように構成した場合であっても、該撮像素子10にガラス基板19を接合することによって、撮像素子10を補強することができる。すなわち、撮像素子10を、光が透過するように構成すると、該撮像素子10は非常に薄くなり、強度が低下する。そこで、該撮像素子10にガラス基板19を接合することによって、該撮像素子10を補強することができる。そして、本実施形態では、裏面照射型の撮像素子10に対して、基板11aの裏面にガラス基板19を接合しているが、該ガラス基板19は光学的に透明であって光を透過するため、ガラス基板19が撮像素子10への光の入射を妨害することを防止することができる。つまり、ガラス基板19を用いることによって、撮像素子10への光の入射又は出射に影響を与えることなく、該撮像素子10を補強することができる。   As described above, even when the image sensor 10 is configured to transmit light, the image sensor 10 can be reinforced by bonding the glass substrate 19 to the image sensor 10. That is, if the image sensor 10 is configured to transmit light, the image sensor 10 becomes very thin and the strength is reduced. Therefore, the image pickup device 10 can be reinforced by bonding the glass substrate 19 to the image pickup device 10. In the present embodiment, the glass substrate 19 is bonded to the back surface of the substrate 11a with respect to the back-illuminated imaging element 10, but the glass substrate 19 is optically transparent and transmits light. The glass substrate 19 can be prevented from obstructing the incidence of light on the image sensor 10. That is, by using the glass substrate 19, it is possible to reinforce the image sensor 10 without affecting the incidence or emission of light to the image sensor 10.

−変形例1−
以下に、本実施形態の変形例について説明する。図10は、変形例1に係る撮像ユニット210の断面図である。
-Modification 1-
Below, the modification of this embodiment is demonstrated. FIG. 10 is a cross-sectional view of the imaging unit 210 according to the first modification.

上記撮像ユニット1においては、撮像素子10と位相差検出ユニット20とをパッケージ31を介して接合することで撮像ユニット1を構成しているが、変形例1に係る撮像ユニット201は、これらを半導体プロセスで製造している。この撮像ユニット201は、撮像素子10及びガラス基板19の基本的構成については、上記撮像ユニット1と同様である。ただし、撮像素子10の基板11aの表面には、保護層18が設けられておらず、その代わりに、基板11aの表面からの順に、第1低屈折率層225、コンデンサレンズ層221、第2低屈折率層226、第3低屈折率層227、セパレータレンズ層223、第4低屈折率層228及び保護層229が積層されている。   In the imaging unit 1, the imaging unit 1 is configured by joining the imaging element 10 and the phase difference detection unit 20 via the package 31. However, the imaging unit 201 according to the first modification includes these as semiconductors. Manufactured in process. The imaging unit 201 is the same as the imaging unit 1 with respect to the basic configuration of the imaging element 10 and the glass substrate 19. However, the protective layer 18 is not provided on the surface of the substrate 11a of the imaging device 10, and instead, the first low refractive index layer 225, the condenser lens layer 221, and the second in order from the surface of the substrate 11a. A low refractive index layer 226, a third low refractive index layer 227, a separator lens layer 223, a fourth low refractive index layer 228, and a protective layer 229 are laminated.

第1、第2、第3及び第4低屈折率層225,226,227,228は、屈折率が比較的低い、透明な材料で構成されている。一方、コンデンサレンズ層221及びセパレータレンズ層223は、屈折率が比較的高い、透明な材料で構成されている。尚、第1、第2、第3及び第4低屈折率層225,226,227,228は、それぞれ、同じ材料であってもよいし、異なる材料であってもよい。同様に、コンデンサレンズ層221及びセパレータレンズ層223も、それぞれ、同じ材料であってもよいし、異なる材料であってもよい。   The first, second, third, and fourth low refractive index layers 225, 226, 227, and 228 are made of a transparent material having a relatively low refractive index. On the other hand, the condenser lens layer 221 and the separator lens layer 223 are made of a transparent material having a relatively high refractive index. The first, second, third, and fourth low refractive index layers 225, 226, 227, and 228 may be made of the same material or different materials. Similarly, the condenser lens layer 221 and the separator lens layer 223 may be made of the same material or different materials.

そして、第1低屈折率層225における、コンデンサレンズ層221との接合面は、基板11aに設けられた出射側マスク14bの通過孔14cに対応する部分が基板11a側に凹状に窪んでいる一方、それに対応して、コンデンサレンズ層221における、第1低屈折率層225との接合面は、該通過孔14cに対応する部分が基板11a側に凸状に膨出している。つまり、第1低屈折率層225とコンデンサレンズ層221との接合面のうち、通過孔14cに対応する部分はレンズ面を形成しており、コンデンサレンズ層221はコンデンサレンズとして機能する。   In the first low-refractive index layer 225, the bonding surface with the condenser lens layer 221 has a portion corresponding to the passage hole 14c of the emission side mask 14b provided on the substrate 11a, which is recessed toward the substrate 11a. Correspondingly, the portion of the condenser lens layer 221 that is bonded to the first low-refractive index layer 225 has a portion corresponding to the through hole 14c bulges toward the substrate 11a. That is, of the joint surface between the first low refractive index layer 225 and the condenser lens layer 221, the portion corresponding to the passage hole 14c forms a lens surface, and the condenser lens layer 221 functions as a condenser lens.

また、第2低屈折率層226と第3低屈折率層227との接合面には、マスク部材222が設けられている。マスク部材222は、該通過孔14cに対応する位置ごとに2つのマスク開口222a,222aが形成されている。   A mask member 222 is provided on the bonding surface between the second low refractive index layer 226 and the third low refractive index layer 227. In the mask member 222, two mask openings 222a and 222a are formed at positions corresponding to the passage holes 14c.

さらに、第3低屈折率層227における、セパレータレンズ層223との接合面は、通過孔14cに対応する部分が基板11a側に凹状に窪んでいる。詳しくは、かかる凹状の部分は、2つの凹曲面を隣接させた形状をしている。一方、セパレータレンズ層223における、第3低屈折率層227との接合面は、該第3低屈折率層227に対応して、該通過孔14cに対応する部分が基板11a側に凸状に膨出している。詳しくは、かかる凸状の部分は、2つの凸曲面を隣接させた形状をしている。つまり、第3低屈折率層227とセパレータレンズ層223との接合面のうち、通過孔14cに対応する部分は2つのレンズ面を形成しており、セパレータレンズ層223はセパレータレンズとして機能する。   Further, the surface of the third low refractive index layer 227 that is bonded to the separator lens layer 223 has a concave portion on the substrate 11a side corresponding to the passage hole 14c. Specifically, the concave portion has a shape in which two concave curved surfaces are adjacent to each other. On the other hand, the joint surface of the separator lens layer 223 with the third low-refractive index layer 227 corresponds to the third low-refractive index layer 227, and a portion corresponding to the passage hole 14c is convex toward the substrate 11a. Bulges. Specifically, the convex portion has a shape in which two convex curved surfaces are adjacent to each other. That is, in the joint surface between the third low refractive index layer 227 and the separator lens layer 223, the portion corresponding to the passage hole 14c forms two lens surfaces, and the separator lens layer 223 functions as a separator lens.

さらにまた、第4低屈折率層228と保護層229との接合面には、該通過孔14cに対応する位置に、ラインセンサ224が設けられている。   Furthermore, a line sensor 224 is provided on the joint surface between the fourth low refractive index layer 228 and the protective layer 229 at a position corresponding to the passage hole 14c.

これら第1低屈折率層225、コンデンサレンズ層221、第2低屈折率層226、第3低屈折率層227、セパレータレンズ層223、第4低屈折率層228及び保護層229によって、位相差検出ユニット220が構成されている。このように、ガラス基板19、撮像素子10及び位相差検出ユニット220を半導体プロセスによって製造してもよい。   The first low refractive index layer 225, the condenser lens layer 221, the second low refractive index layer 226, the third low refractive index layer 227, the separator lens layer 223, the fourth low refractive index layer 228, and the protective layer 229 provide a phase difference. A detection unit 220 is configured. As described above, the glass substrate 19, the image sensor 10, and the phase difference detection unit 220 may be manufactured by a semiconductor process.

−変形例2−
次に、変形例2に係る撮像素子310について、図11を参照しながら説明する。図11は、撮像素子310の断面図を示す。
-Modification 2-
Next, an image sensor 310 according to Modification 2 will be described with reference to FIG. FIG. 11 is a cross-sectional view of the image sensor 310.

この撮像素子310は、CCDイメージセンサである撮像素子10と異なり、CMOSイメージセンサである。詳しくは、撮像素子310は、半導体材料で構成された光電変換部311と、トランジスタ312と、信号線313と、マスク314と、カラーフィルタ315とを有している。   Unlike the image sensor 10 that is a CCD image sensor, the image sensor 310 is a CMOS image sensor. Specifically, the imaging element 310 includes a photoelectric conversion unit 311 made of a semiconductor material, a transistor 312, a signal line 313, a mask 314, and a color filter 315.

光電変換部311は、基板311aと、フォトダイオードで構成された受光部311b,311b,…とを有している。各受光部311bごとに、トランジスタ312が設けられている。受光部311bで蓄積された電荷は、トランジスタ312で増幅され、信号線313を介して外部へ出力される。   The photoelectric conversion unit 311 includes a substrate 311a and light receiving units 311b, 311b,. A transistor 312 is provided for each light receiving unit 311b. The charge accumulated in the light receiving portion 311b is amplified by the transistor 312 and output to the outside through the signal line 313.

マスク314は、上記マスク14と同様に、入射側マスク314aと出射側マスク314bとで構成されている。入射側マスク314aは、受光部311bと隣接して設けられており、光がトランジスタ312及び信号線313に入射することを防止している。また、出射側マスク314bには、受光部311bを透過した光を、撮像素子310の背面側へ出射させるための複数の通過孔314cが設けられている。   Like the mask 14, the mask 314 includes an incident side mask 314a and an emission side mask 314b. The incident side mask 314 a is provided adjacent to the light receiving portion 311 b and prevents light from entering the transistor 312 and the signal line 313. Further, the emission side mask 314b is provided with a plurality of passage holes 314c for emitting the light transmitted through the light receiving portion 311b to the back side of the image sensor 310.

カラーフィルタ315は、上記カラーフィルタ15と同様の構成である。   The color filter 315 has the same configuration as the color filter 15.

また、CMOSイメージセンサにおいては、トランジスタ312の増幅率を受光部311bごとに設定することができるため、各トランジスタ312の増幅率を各受光部311bが通過孔314cに対応する位置に位置するか否か、および、各受光部311bに対応するカラーフィルタ315の色の種類に基づいて設定することによって、通過孔314c,314c,…に対応する部分の画像が、適切に撮影されないことを防止することができる。   In the CMOS image sensor, since the amplification factor of the transistor 312 can be set for each light receiving portion 311b, whether or not each light receiving portion 311b is positioned at a position corresponding to the passage hole 314c. Or setting based on the color type of the color filter 315 corresponding to each light receiving portion 311b, thereby preventing the image of the portion corresponding to the through holes 314c, 314c,. Can do.

−変形例3−
続いて、変形例3に係る撮像ユニット401について図12,13を参照しながら説明する。図12は、撮像ユニット401の撮像素子410の断面図であり、図13は、撮像素子410の、回路基板432への取り付け状態を示す断面図である。
-Modification 3-
Next, an imaging unit 401 according to Modification 3 will be described with reference to FIGS. FIG. 12 is a cross-sectional view of the image sensor 410 of the image pickup unit 401, and FIG. 13 is a cross-sectional view showing a state in which the image sensor 410 is attached to the circuit board 432.

この撮像ユニット401は、撮像素子の基板の裏面ではなく、表面に被写体からの光が入射する点で上記撮像ユニット1と異なる。そこで、撮像ユニット1と同様の構成については、同様の符号を付して説明を省略し、異なる構成を中心に説明する。   The imaging unit 401 differs from the imaging unit 1 in that light from a subject is incident on the front surface, not the back surface of the substrate of the image sensor. Therefore, the same components as those of the imaging unit 1 are denoted by the same reference numerals, description thereof is omitted, and different components are mainly described.

撮像ユニット401は、被写体像を電気信号に変換するための撮像素子410と、撮像素子410に接合されたガラス基板19と、撮像素子410を保持するためのパッケージと、位相差検出方式の焦点検出を行うための位相差検出ユニットとを有している。パッケージと位相差検出ユニットについては、図示を省略するが、撮像ユニット1と同様の構成をしている。   The imaging unit 401 includes an imaging element 410 for converting a subject image into an electrical signal, a glass substrate 19 bonded to the imaging element 410, a package for holding the imaging element 410, and phase difference detection type focus detection. A phase difference detection unit for performing the above. The package and the phase difference detection unit have the same configuration as that of the imaging unit 1 although not shown.

撮像素子410は、裏面照射型のインターライン型CCDイメージセンサであって、図12に示すように、半導体材料で構成された光電変換部11と、垂直レジスタ12と、転送路13と、マスク414と、カラーフィルタ15と、マイクロレンズ416とを有している。   The imaging element 410 is a back-illuminated interline CCD image sensor, and as shown in FIG. 12, a photoelectric conversion unit 11 made of a semiconductor material, a vertical register 12, a transfer path 13, and a mask 414. And a color filter 15 and a microlens 416.

基板11aの表面には、受光部11b,11b,…が行列状に配列された微小な方形の画素領域内にそれぞれ設けられている。また、基板11aの表面には、各受光部11bに隣接して垂直レジスタ12が設けられている。さらに、この垂直レジスタ12に重なるように転送路13が設けられている。そして、これら垂直レジスタ12及び転送路13を覆うようにマスク414が設けられている。   On the surface of the substrate 11a, light receiving portions 11b, 11b,... Are provided in minute square pixel regions arranged in a matrix. A vertical register 12 is provided on the surface of the substrate 11a adjacent to each light receiving portion 11b. Further, a transfer path 13 is provided so as to overlap the vertical register 12. A mask 414 is provided so as to cover the vertical register 12 and the transfer path 13.

このマスク414は、撮像ユニット1に係るマスク14と異なり、被写体からの光の入射側だけに設けられている。具体的には、マスク414は、垂直レジスタ12及び転送路13を基板11aと反対側から覆うように設けられている。こうして、マスク414は、被写体側からの光が垂直レジスタ12及び転送路13に入射することを防止している。   Unlike the mask 14 according to the imaging unit 1, the mask 414 is provided only on the incident side of light from the subject. Specifically, the mask 414 is provided so as to cover the vertical register 12 and the transfer path 13 from the side opposite to the substrate 11a. Thus, the mask 414 prevents light from the subject side from entering the vertical register 12 and the transfer path 13.

さらに、基板11aの表面には、これら受光部11b、垂直レジスタ12、転送路13及びマスク414を覆うように、光学的に透明な樹脂で構成された保護層18が設けられている。   Further, a protective layer 18 made of an optically transparent resin is provided on the surface of the substrate 11a so as to cover the light receiving portion 11b, the vertical register 12, the transfer path 13, and the mask 414.

そして、カラーフィルタ15は、保護層18の表面(即ち、保護層18における基板11aと反対側の面)に積層されている。このカラーフィルタ15は、染色系又は顔料系色素を含むカラーフィルタである。   The color filter 15 is laminated on the surface of the protective layer 18 (that is, the surface of the protective layer 18 opposite to the substrate 11a). The color filter 15 is a color filter containing a dye system or a pigment system pigment.

マイクロレンズ416は、光学的に透明な樹脂で構成され、光を集光して受光部11bに入射させるものであって、カラーフィルタ15の上に積層されている。詳しくは、マイクロレンズ416は、受光部11bごと、即ち、カラーフィルタ15ごとに設けられ且つ、被写体側(即ち、基板11aと反対側)に凸状に膨出した凸レンズとなっている。このマイクロレンズ416によって受光部11bを効率良く照射できる。   The microlens 416 is made of an optically transparent resin, collects light and makes it incident on the light receiving unit 11 b, and is stacked on the color filter 15. Specifically, the microlens 416 is a convex lens that is provided for each light receiving unit 11b, that is, for each color filter 15, and bulges in a convex shape on the subject side (that is, the side opposite to the substrate 11a). The microlens 416 can efficiently irradiate the light receiving portion 11b.

さらに、マイクロレンズ416の表面(凸面)には、光学的に透明な樹脂で構成された保護層17が積層されている。   Further, a protective layer 17 made of an optically transparent resin is laminated on the surface (convex surface) of the microlens 416.

そして、ガラス基板19は、基板11aの裏面に陽極接合によって接合されている。   The glass substrate 19 is bonded to the back surface of the substrate 11a by anodic bonding.

このように構成された撮像素子10においては、マイクロレンズ416,416,…によって集光された光が、カラーフィルタ15r,15g,15bに入射し、各カラーフィルタ15に応じた色の光だけが該カラーフィルタ15を透過して、基板11aの表面に到達する。基板11aでは、受光部11b,11b,…のみが露出し、垂直レジスタ12及び転送路13等はマスク414で覆われているため、基板11aに到達した光は、受光部11b,11b,…にだけ入射する。各受光部11bは、光を吸収して電荷を発生する。この各受光部11bで発生した電荷は、垂直レジスタ12及び転送路13を介して増幅器に送られ、電気信号として出力される。このとき、受光部11b,11b,…には、カラーフィルタ15r,15g,15bを透過した特定の色の光が入射しているため、各受光部11bからは、各カラーフィルタ15に対応した色の受光光量が出力として得られる。こうして、撮像素子410は、その撮像面全体における受光部11b,11b,…で光電変換を行うことによって、撮像面に形成された被写体像を電気信号に変換する。   In the imaging device 10 configured as described above, the light collected by the microlenses 416, 416,... Enters the color filters 15r, 15g, and 15b, and only the light of the color corresponding to each color filter 15 is obtained. The light passes through the color filter 15 and reaches the surface of the substrate 11a. In the substrate 11a, only the light receiving portions 11b, 11b,... Are exposed, and the vertical register 12, the transfer path 13, and the like are covered with the mask 414. Therefore, the light reaching the substrate 11a is directed to the light receiving portions 11b, 11b,. Only incident. Each light receiving portion 11b absorbs light and generates electric charges. The electric charge generated in each light receiving unit 11b is sent to the amplifier via the vertical register 12 and the transfer path 13 and is output as an electric signal. At this time, since light of a specific color transmitted through the color filters 15r, 15g, and 15b is incident on the light receiving portions 11b, 11b,..., The colors corresponding to the color filters 15 are received from the light receiving portions 11b. The received light quantity is obtained as an output. Thus, the image sensor 410 converts the subject image formed on the imaging surface into an electrical signal by performing photoelectric conversion at the light receiving portions 11b, 11b,... On the entire imaging surface.

一方、受光部11bに入射した光の一部は、該受光部11bに吸収されずに、該受光部11bを透過する。基板11aは非常に薄いため(即ち、基板11aを光が透過する程度の厚さに形成しているため)、受光部11bを透過した光は、該基板11aを透過し、さらに、ガラス基板19を透過して、撮像素子410の背面側へ出射する。   On the other hand, a part of the light incident on the light receiving part 11b is not absorbed by the light receiving part 11b but passes through the light receiving part 11b. Since the substrate 11a is very thin (that is, the substrate 11a is formed to have a thickness that allows light to pass through), the light transmitted through the light receiving portion 11b passes through the substrate 11a, and further, the glass substrate 19 Is transmitted to the back side of the image sensor 410.

撮像素子410の背面側には、撮像ユニット1と同様に、位相差検出ユニットが設けられており、該位相差検出ユニットは、撮像素子410を透過した光を用いて位相差検出方式の焦点検出を行う。   Similar to the imaging unit 1, a phase difference detection unit is provided on the back side of the imaging element 410, and the phase difference detection unit uses the light transmitted through the imaging element 410 to detect the focus of the phase difference detection method. I do.

このように構成された撮像素子410は、パッケージの回路基板432にマウントされる。   The imaging element 410 configured as described above is mounted on the circuit board 432 of the package.

詳しくは、撮像素子410の基板11aの周縁部には、受光部11b、垂直レジスタ12、転送路13、マスク414、カラーフィルタ15、マイクロレンズ416及び保護層17,18等が設けられておらず、転送路13や垂直レジスタ12等との電気的接続を可能にするための配線が露出している。一方、回路基板432の裏面(被写体と反対側の面)には、撮像素子410の基板11aの配線と対向する位置に回路パターンが設けられている。そして、図13に示すように、撮像素子410の基板11aの周縁部を被写体と反対側から回路基板432と重ね合わせ、熱溶着により、両者を接合して、撮像素子410の基板11aの配線と回路基板432の回路パターンとを電気的に接続している。   Specifically, the light receiving portion 11b, the vertical register 12, the transfer path 13, the mask 414, the color filter 15, the microlens 416, the protective layers 17 and 18 and the like are not provided on the peripheral portion of the substrate 11a of the image sensor 410. The wiring for enabling electrical connection with the transfer path 13 and the vertical register 12 is exposed. On the other hand, a circuit pattern is provided on the back surface (the surface opposite to the subject) of the circuit board 432 at a position facing the wiring of the substrate 11 a of the image sensor 410. Then, as shown in FIG. 13, the peripheral portion of the substrate 11a of the image sensor 410 is overlapped with the circuit board 432 from the opposite side to the subject, and the two are joined by thermal welding to connect the wiring of the substrate 11a of the image sensor 410. The circuit pattern of the circuit board 432 is electrically connected.

したがって、撮像素子410を、光が透過するように構成した場合であっても、該撮像素子410にガラス基板19を接合することによって、撮像素子410を補強することができる。すなわち、撮像素子410を、光が透過するように構成すると、該撮像素子410は非常に薄くなり、強度が低下する。そこで、該撮像素子410にガラス基板19を接合することによって、該撮像素子410を補強することができる。そして、裏面照射ではなく、基板11aの表面から光を入射させる構成において、基板11aの裏面にガラス基板19を接合しているが、該ガラス基板19は光学的に透明であって光を透過するため、ガラス基板19が撮像素子410からの光の出射を妨害することを防止することができる。つまり、ガラス基板19を用いることによって、撮像素子410からの光の出射に影響を与えることなく、該撮像素子410を補強することができる。   Therefore, even when the image sensor 410 is configured to transmit light, the image sensor 410 can be reinforced by bonding the glass substrate 19 to the image sensor 410. That is, if the image sensor 410 is configured to transmit light, the image sensor 410 becomes very thin and the strength is reduced. Therefore, the image pickup element 410 can be reinforced by bonding the glass substrate 19 to the image pickup element 410. And in the structure which makes light inject from the surface of the board | substrate 11a instead of back surface irradiation, although the glass substrate 19 is joined to the back surface of the board | substrate 11a, this glass substrate 19 is optically transparent and permeate | transmits light. Therefore, it is possible to prevent the glass substrate 19 from interfering with the emission of light from the image sensor 410. That is, by using the glass substrate 19, it is possible to reinforce the image sensor 410 without affecting the emission of light from the image sensor 410.

その他、撮像ユニット1と同様の作用効果を奏することができる。   In addition, the same effects as the imaging unit 1 can be achieved.

《発明の実施形態2》
続いて、本発明の実施形態2に係る撮像ユニット501について図14を参照しながら説明する。図14は、撮像ユニット501の撮像素子510の断面図である。
<< Embodiment 2 of the Invention >>
Next, an imaging unit 501 according to Embodiment 2 of the present invention will be described with reference to FIG. FIG. 14 is a cross-sectional view of the image sensor 510 of the imaging unit 501.

本実施形態2に係る撮像ユニット501は、位相差検出ユニットを備えていない点で、実施形態1と異なる。そこで、実施形態1と同様の構成については、同様の符号を付して説明を省略し、異なる構成を中心に説明する。   An imaging unit 501 according to the second embodiment is different from the first embodiment in that it does not include a phase difference detection unit. Therefore, configurations similar to those of the first embodiment are denoted by the same reference numerals, description thereof is omitted, and different configurations are mainly described.

撮像ユニット501は、被写体像を電気信号に変換するための撮像素子510と、撮像素子510に接合されたガラス基板19とを有している。   The imaging unit 501 includes an imaging element 510 for converting a subject image into an electrical signal, and a glass substrate 19 bonded to the imaging element 510.

撮像素子510の構成は、出射側マスク514bの構成以外は、実施形態1と同様である。つまり、マスク514は、基板11aの表面に設けられた入射側マスク514aと、受光部11b、垂直レジスタ12及び転送路13を基板11aとは反対側から覆うように設けられた出射側マスク514bとを有している。そして、この出射側マスク514bは、通過孔が設けられておらず、受光部11b、垂直レジスタ12及び転送路13を基板11aとは反対側から完全に覆っている。   The configuration of the image sensor 510 is the same as that of the first embodiment except for the configuration of the emission side mask 514b. That is, the mask 514 includes an incident side mask 514a provided on the surface of the substrate 11a, and an emission side mask 514b provided so as to cover the light receiving unit 11b, the vertical register 12, and the transfer path 13 from the side opposite to the substrate 11a. have. The emission side mask 514b is not provided with a passage hole, and completely covers the light receiving unit 11b, the vertical register 12, and the transfer path 13 from the side opposite to the substrate 11a.

このように構成された撮像素子510においては、受光部11b,11b,…を透過した光を、全て出射側マスク514bにより反射させて、再度、受光部11b,11b,…に入射させ、該光を撮像素子510の背面側に出射させない。   In the imaging device 510 configured as described above, all the light transmitted through the light receiving portions 11b, 11b,... Is reflected by the emission side mask 514b, and is incident again on the light receiving portions 11b, 11b,. Are not emitted to the back side of the image sensor 510.

つまり、本実施形態2に係る撮像素子510は、裏面照射型の撮像素子であって且つ、位相差検出を行わないものである。このように、位相差検出方式の焦点検出を行うか否かにかかわらず、裏面照射型の撮像素子である限りは、光に基板11aを透過させる必要がある。そして、光に基板11aを透過させる構成においては、基板11aを光が透過する程度に薄く形成する必要があるが、上記の如く、撮像素子510にガラス基板19を接合することによって、撮像素子510への光の入射に影響を与えることなく、該撮像素子510を補強することができる。   That is, the image sensor 510 according to the second embodiment is a back-illuminated image sensor and does not perform phase difference detection. As described above, regardless of whether or not the phase difference detection type focus detection is performed, as long as the imaging device is a back-illuminated type, it is necessary to allow the light to pass through the substrate 11a. In the configuration in which light is transmitted through the substrate 11a, it is necessary to form the substrate 11a thin enough to transmit light. As described above, by bonding the glass substrate 19 to the image sensor 510, the image sensor 510 is provided. The image pickup element 510 can be reinforced without affecting the incidence of light.

《その他の実施形態》
本発明は、上記実施形態について、以下のような構成としてもよい。
<< Other Embodiments >>
The present invention may be configured as follows with respect to the above embodiment.

例えば、撮像素子の構成は、上記の構成に限られるものではなく、光が撮像素子を透過する構成であれば、任意の構成を採用することができる。また、位相差検出ユニットについても、上記の構成に限られるものではない。   For example, the configuration of the image sensor is not limited to the above configuration, and any configuration can be adopted as long as light is transmitted through the image sensor. Further, the phase difference detection unit is not limited to the above configuration.

また、撮像素子と光学的透明基板との接合は、例えば、光学的透明基板上に撮像素子を形成することによって実現されてもよい。   Moreover, joining of an image pick-up element and an optical transparent substrate may be implement | achieved by forming an image pick-up element on an optical transparent substrate, for example.

また、上記実施形態では、撮像ユニット1をカメラに搭載した構成について説明しているが、これに限られるものではない。例えば、撮像ユニット1はビデオカメラに搭載することもできる。   Moreover, although the said embodiment demonstrated the structure which mounted the imaging unit 1 in the camera, it is not restricted to this. For example, the imaging unit 1 can be mounted on a video camera.

また、撮影者によりレリーズボタン40bが半押しされる(即ち、S1スイッチがONされる)とAFが開始される構成ついて説明したが、レリーズボタン40bは半押しされる前からAFを行ってもよい。また、合焦と判断するとAFを終了する構成について説明したが、合焦判定後もAFを継続するようにしてもよく、合焦判定をせずに継続してAFを行ってもよい。   In addition, the configuration is described in which AF is started when the photographer presses the release button 40b halfway (that is, when the S1 switch is turned on). However, even if the release button 40b is subjected to AF before halfway pressing. Good. Further, although the configuration has been described in which AF is terminated when it is determined that the focus is achieved, AF may be continued after the focus determination, or AF may be performed continuously without performing the focus determination.

また、上述の実施形態において、基板11aが研磨やエッチング等により完全に除去されていてもよい。その場合、受光部11bにガラス基板19が直接接合されていてもよい。また、ガラス基板19上に、受光部11bが直接形成されてもよい。   In the above-described embodiment, the substrate 11a may be completely removed by polishing, etching, or the like. In that case, the glass substrate 19 may be directly joined to the light receiving part 11b. In addition, the light receiving portion 11 b may be directly formed on the glass substrate 19.

尚、以上の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。   In addition, the above embodiment is an essentially preferable illustration, Comprising: It does not intend restrict | limiting the range of this invention, its application thing, or its use.

以上説明したように、本発明は、光電変換を行う撮像素子を備えた撮像ユニットについて有用である。   As described above, the present invention is useful for an imaging unit including an imaging device that performs photoelectric conversion.

1,201,401,501 撮像ユニット
10,310,410 撮像素子
11a 基板(半導体基板)
11b 受光部
15 カラーフィルタ(干渉フィルタ)
20,220 位相差検出ユニット(位相差検出部)
21a コンデンサレンズ
221 コンデンサレンズ層(コンデンサレンズ)
23a セパレータレンズ
223 セパレータレンズ層(セパレータレンズ)
24a,224 ラインセンサ
31 パッケージ
1, 201, 401, 501 Imaging unit 10, 310, 410 Imaging element 11a Substrate (semiconductor substrate)
11b Light receiver 15 Color filter (interference filter)
20,220 Phase difference detection unit (phase difference detection unit)
21a condenser lens 221 condenser lens layer (condenser lens)
23a Separator lens 223 Separator lens layer (Separator lens)
24a, 224 line sensor 31 package

本発明は、光電変換を行う撮像素子を備えた撮像ユニットに関するものである。   The present invention relates to an imaging unit including an imaging device that performs photoelectric conversion.

近年、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal-oxide Semiconductor)イメージセンサなどの撮像素子を用いて、被写体像を電気信号に変換し、この電気信号をデジタル化して記録するデジタルカメラが普及している。   2. Description of the Related Art In recent years, digital cameras that convert an object image into an electrical signal using an imaging device such as a charge coupled device (CCD) image sensor or a complementary metal-oxide semiconductor (CMOS) image sensor and digitize and record the electrical signal have been developed. It is popular.

デジタル一眼レフカメラは、被写体像の位相差を検出する位相差検出部を有し、これによりオートフォーカス(以下、単にAFともいう)を行う位相差検出方式AF機能を備えている。位相差検出方式AF機能によれば、デフォーカス方向及びデフォーカス量を検出できるため、フォーカスレンズの移動時間を短縮でき、迅速にフォーカスできるという利点を有する(例えば、特許文献1)。従来のデジタル一眼レフカメラでは、位相差検出部に被写体からの光を導くために、レンズ鏡筒から撮像素子への光路上に進出/退避可能に構成された可動ミラーを設けている。   A digital single-lens reflex camera has a phase difference detection unit that detects a phase difference of a subject image, and thus has a phase difference detection AF function that performs autofocus (hereinafter also simply referred to as AF). According to the phase difference detection AF function, the defocus direction and the defocus amount can be detected, so that the moving time of the focus lens can be shortened and the focus can be quickly achieved (for example, Patent Document 1). In a conventional digital single lens reflex camera, in order to guide light from a subject to a phase difference detection unit, a movable mirror configured to be able to advance / retreat on an optical path from a lens barrel to an image sensor is provided.

また、いわゆるコンパクトデジタルカメラは、撮像素子を用いたビデオAFによるオートフォーカス機能を採用している(例えば、特許文献2)。こうして、コンパクトデジタルカメラでは、被写体からの光を位相差検出部へ導くためのミラーをなくすことにより小型化を実現している。このようなコンパクトデジタルカメラでは、撮像素子を露光しながらオートフォーカスを行うことができる。すなわち、オートフォーカスを行いながら、撮像素子を用いた種々の処理、例えば、撮像素子上に結像する被写体像から画像信号を取得して、カメラの背面に設けた画像表示部へ表示したり、記録部へ記録したりすることができる。このビデオAFによるオートフォーカス機能は、一般的に位相差検出方式AFに比べて精度が高いという利点がある。   A so-called compact digital camera adopts an autofocus function by video AF using an image sensor (for example, Patent Document 2). In this way, the compact digital camera is miniaturized by eliminating the mirror for guiding the light from the subject to the phase difference detection unit. In such a compact digital camera, autofocus can be performed while exposing the image sensor. That is, while performing autofocus, various processes using the image sensor, for example, obtaining an image signal from a subject image formed on the image sensor and displaying it on the image display unit provided on the back of the camera, It can be recorded in the recording unit. This autofocus function by video AF is generally advantageous in that it has higher accuracy than phase difference detection AF.

特開2007−163545号公報JP 2007-163545 A 特開2007−135140号公報JP 2007-135140 A

しかしながら、特許文献2に係るデジタルカメラのようにビデオAFではデフォーカス方向を瞬時に検出することができない。例えば、コントラスト検出方式AFによれば、コントラストピークを検出することで焦点を検出するが、フォーカスレンズを現在の位置から前後に移動させる等しないと、コントラストピークの方向、即ち、デフォーカス方向を検出することができない。そのため、焦点検出に時間がかかってしまう。   However, the video AF cannot detect the defocus direction instantaneously like the digital camera according to Patent Document 2. For example, according to the contrast detection method AF, the focus is detected by detecting the contrast peak, but if the focus lens is not moved back and forth from the current position, the direction of the contrast peak, that is, the defocus direction is detected. Can not do it. Therefore, it takes time for focus detection.

つまり、焦点検出に要する時間を短縮する観点からは、位相差検出方式AFの方が有利である。しかしながら、特許文献1に係るデジタル一眼レフカメラのように位相差検出方式AFを採用している撮像装置においては、被写体からの光を位相差検出部へ導くために、レンズ鏡筒から撮像素子への光路上に可動ミラーを進出させる必要がある。そのため、位相差検出方式AFを行いながら、撮像素子を用いた種々の処理を行うことができない。また、入射光の進路を位相差検出部へ向かう進路と撮像素子へ向かう進路とで切り替える際には可動ミラーを移動させる必要があり、この可動ミラーの移動のためのタイムラグや騒音が生じる。   That is, the phase difference detection method AF is more advantageous from the viewpoint of reducing the time required for focus detection. However, in an imaging apparatus that employs phase difference detection AF such as a digital single-lens reflex camera according to Patent Document 1, in order to guide light from a subject to a phase difference detection unit, the lens barrel is moved to the imaging device. It is necessary to move a movable mirror on the optical path. Therefore, various processes using the image sensor cannot be performed while performing the phase difference detection method AF. Further, when the path of incident light is switched between the path toward the phase difference detection unit and the path toward the image sensor, it is necessary to move the movable mirror, and a time lag and noise for the movement of the movable mirror are generated.

すなわち、従来の位相差検出方式AFを行う撮像装置においては、撮像素子を用いた種々の処理との関係で利便性が悪かった。   That is, the conventional imaging apparatus that performs the phase difference detection method AF is not convenient due to various processes using the imaging element.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、撮像素子を用いた種々の処理と位相差検出部を用いた位相差検出とを行う上での利便性を向上させることにある。   The present invention has been made in view of such a point, and the object of the present invention is to provide convenience in performing various processes using an image sensor and phase difference detection using a phase difference detection unit. It is to improve.

本願出願人は、上記課題を解決すべく、鋭意研究の結果、撮像素子を透過した光を利用することを見出した。すなわち、撮像素子を透過した光を用いて位相差検出方式の焦点検出を行うことで、可動ミラーを無くすことができると共に、撮像素子による処理と位相差検出とを並行して行うことができる。さらに、光に撮像素子を透過させることによって、位相差検出に限らず、種々の処理を行う上での利便性を向上させることができる。   As a result of intensive studies, the applicant of the present application has found that light transmitted through the image sensor is used in order to solve the above problems. That is, by performing focus detection by the phase difference detection method using light transmitted through the image sensor, the movable mirror can be eliminated, and processing by the image sensor and phase difference detection can be performed in parallel. Furthermore, by allowing light to pass through the image sensor, not only the phase difference detection but also convenience in performing various processes can be improved.

しかしながら、光に撮像素子を透過させるためには、撮像素子を薄く形成する必要があり、そうすると、撮像素子の強度が低下してしまう。つまり、本発明の目的とするところは、光に撮像素子を透過させつつ、該撮像素子の強度を確保できる撮像ユニットを提供することにある。   However, in order to allow light to pass through the image sensor, it is necessary to form the image sensor thin, and this reduces the strength of the image sensor. That is, an object of the present invention is to provide an imaging unit capable of ensuring the strength of the image sensor while allowing the image sensor to transmit light.

そこで、本発明は、撮像素子の基板に光学的透明基板を接合して、撮像素子を補強するようにしたものである。具体的には、本発明に係る撮像ユニットは、半導体基板と該半導体基板に設けられた受光部とを有し、該受光部で受けた光を光電変換により電気信号に変換すると共に、光が透過するように構成されている撮像素子と、上記撮像素子に接合され、光を透過させる光学的透明基板とを備えるものとする。   Therefore, the present invention reinforces the image sensor by bonding an optically transparent substrate to the substrate of the image sensor. Specifically, an imaging unit according to the present invention has a semiconductor substrate and a light receiving portion provided on the semiconductor substrate, converts light received by the light receiving portion into an electrical signal by photoelectric conversion, An imaging element configured to transmit light and an optically transparent substrate that is bonded to the imaging element and transmits light are provided.

本発明によれば、撮像素子に光学的透過基板を接合することによって、撮像素子を光が透過する程度に薄く形成したとしても、該撮像素子を補強することができる。そして、この補強用の基板を光学的透明基板で構成することによって、該光学的透明基板も光を透過させることがきるため、光が撮像素子に入射又は撮像素子から出射する際に、該光学的透明基板が該光の入射又は出射を妨害してしまうことを防止することができる。   According to the present invention, even if an image pickup device is formed thin enough to transmit light by bonding an optical transmission substrate to the image pickup device, the image pickup device can be reinforced. By configuring the reinforcing substrate with an optically transparent substrate, the optically transparent substrate can also transmit light. Therefore, when light enters or exits the image sensor, the optical substrate It is possible to prevent the transparent substrate from interfering with the incidence or emission of the light.

図1は、実施形態1に係る撮像素子の断面図である。FIG. 1 is a cross-sectional view of the image sensor according to the first embodiment. 図2は、カメラのブロック図である。FIG. 2 is a block diagram of the camera. 図3は、撮像ユニットの断面図である。FIG. 3 is a cross-sectional view of the imaging unit. 図4は、撮像素子の平面図である。FIG. 4 is a plan view of the image sensor. 図5は、撮像素子とパッケージとの接合部を示す部分拡大断面図である。FIG. 5 is a partially enlarged cross-sectional view showing a joint portion between the image sensor and the package. 図6は、位相検出ユニットの平面図である。FIG. 6 is a plan view of the phase detection unit. 図7は、撮像ユニットの斜視図である。FIG. 7 is a perspective view of the imaging unit. 図8は、レリーズボタンが全押しされるまでの撮影動作を示すフローチャート図である。FIG. 8 is a flowchart showing the photographing operation until the release button is fully pressed. 図9は、レリーズボタンが全押しされた後の撮影動作を示すフローチャート図である。FIG. 9 is a flowchart showing the photographing operation after the release button is fully pressed. 図10は、変形例1に係る撮像ユニットの断面図である。FIG. 10 is a cross-sectional view of an imaging unit according to the first modification. 図11は、変形例2に係る撮像素子の断面図である。FIG. 11 is a cross-sectional view of an image sensor according to the second modification. 図12は、変形例3に係る撮像素子の断面図である。FIG. 12 is a cross-sectional view of an image sensor according to the third modification. 図13は、変形例3に係る撮像素子とパッケージとの接合を示す断面図である。FIG. 13 is a cross-sectional view illustrating the bonding between the image sensor and the package according to the third modification. 図14は、実施形態2に係る撮像素子の断面図である。FIG. 14 is a cross-sectional view of the image sensor according to the second embodiment.

以下、本発明の実施形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

《発明の実施形態1》
本発明の実施形態1に係る撮像ユニット1を備えたカメラについて説明する。
Embodiment 1 of the Invention
A camera including the imaging unit 1 according to Embodiment 1 of the present invention will be described.

実施形態1に係るカメラ100は、図2に示すように、交換レンズ式の一眼レフデジタルカメラであり、主に、カメラシステムの主要な機能を有するカメラ本体4と、カメラ本体4に取り外し可能に装着された交換レンズ7とから構成されている。交換レンズ7は、カメラ本体4の前面に設けられたボディマウント41に装着されている。ボディマウント41には電気切片41aが設けられている。   As shown in FIG. 2, the camera 100 according to the first embodiment is an interchangeable-lens single-lens reflex digital camera. The camera 100 mainly has a main function of the camera system, and is removable from the camera body 4. The interchangeable lens 7 is mounted. The interchangeable lens 7 is attached to a body mount 41 provided on the front surface of the camera body 4. The body mount 41 is provided with an electrical section 41a.

−カメラ本体の構成−
カメラ本体4は、被写体像を撮影画像として取得する撮像ユニット1と、撮像ユニット1の露光状態を調節するシャッタユニット42と、撮像ユニット1に入射する被写体像の赤外光除去とモアレ現象を軽減するためのIRカット兼OLPF(Optical Low Pass Filter)43と、液晶モニタで構成され、撮影画像やライブビュー画像や各種情報を表示する画像表示部44と、ボディ制御部5とを有している。このカメラ本体4が撮像装置本体を構成する。
-Camera body configuration-
The camera body 4 has an imaging unit 1 that acquires a subject image as a captured image, a shutter unit 42 that adjusts the exposure state of the imaging unit 1, and infrared light removal and moire phenomenon of the subject image incident on the imaging unit 1. And an image display unit 44 that includes an IR cut and OLPF (Optical Low Pass Filter) 43, a liquid crystal monitor, and displays captured images, live view images, and various types of information, and a body control unit 5. . This camera body 4 constitutes the imaging apparatus body.

カメラ本体4には、カメラシステムの電源の入切を操作する電源スイッチ40aと、撮影者がフォーカシング時およびレリーズ時に操作するレリーズボタン40bとが設けられている。   The camera body 4 is provided with a power switch 40a that operates to turn on / off the power of the camera system, and a release button 40b that is operated by the photographer during focusing and release.

電源スイッチ40aにより電源がON状態になると、カメラ本体4および交換レンズ7の各部に電源が供給される。   When the power is turned on by the power switch 40 a, power is supplied to each part of the camera body 4 and the interchangeable lens 7.

レリーズボタン40bは、2段式であって、半押しすることで後述するオートフォーカスやAE等を行う一方、全押しすることでレリーズが行われる。   The release button 40b is a two-stage type, and performs autofocus and AE, which will be described later, when pressed halfway, and releases when pressed fully.

撮像ユニット1は、詳しくは後述するが、光電変換により被写体像を電気信号に変換するものである。この撮像ユニット1は、ブレ補正ユニット45によって光軸Xに直行する平面内で移動可能に構成されている。   As will be described in detail later, the imaging unit 1 converts the subject image into an electrical signal by photoelectric conversion. The imaging unit 1 is configured to be movable in a plane perpendicular to the optical axis X by the blur correction unit 45.

ボディ制御部5は、ボディマイコン50と、不揮発性メモリ50aと、シャッタユニット42の駆動を制御するシャッタ制御部51と、撮像ユニット1の動作を制御すると共に撮像ユニット1からの電気信号をA/D変換してボディマイコン50へ出力する撮像ユニット制御部52と、例えばカード型記録媒体や内部メモリである画像格納部58からの画像データの読み出し及び該画像格納部58への画像データの記録を行う画像読み出し/記録部53と、画像読み出し/記録部53を制御する画像記録制御部54と、画像表示部44の表示を制御する画像表示制御部55と、カメラ本体4のブレにより生じる像ブレ量を検出するブレ検出部56と、ブレ補正ユニット45を制御する補正ユニット制御部57とを含む。このボディ制御部5が制御部を構成する。   The body control unit 5 controls the operation of the body microcomputer 50, the nonvolatile memory 50 a, the shutter control unit 51 that controls the driving of the shutter unit 42, and the imaging unit 1, and converts the electrical signal from the imaging unit 1 to A / The imaging unit control unit 52 that performs D conversion and outputs the image data to the body microcomputer 50, and the reading of the image data from the image storage unit 58, which is a card-type recording medium or an internal memory, for example, and the recording of the image data in the image storage unit 58 The image reading / recording unit 53 to perform, the image recording control unit 54 for controlling the image reading / recording unit 53, the image display control unit 55 for controlling the display of the image display unit 44, and the image blur caused by the camera body 4 blur A blur detection unit 56 that detects the amount and a correction unit control unit 57 that controls the blur correction unit 45 are included. This body control part 5 comprises a control part.

ボディマイコン50は、カメラ本体4の中枢を司る制御装置であり、各種シーケンスの制御を行う。ボディマイコン50には、例えば、CPU,ROM,RAMが搭載されている。そして、ROMに格納されたプログラムがCPUに読み込まれることで、ボディマイコン50は様々な機能を実現することができる。   The body microcomputer 50 is a control device that controls the center of the camera body 4 and controls various sequences. For example, a CPU, a ROM, and a RAM are mounted on the body microcomputer 50. And the body microcomputer 50 can implement | achieve various functions because the program stored in ROM is read by CPU.

このボディマイコン50は、電源スイッチ40a及びレリーズボタン40bからの入力信号が入力されると共に、シャッタ制御部51、撮像ユニット制御部52、画像読み出し/記録部53、画像記録制御部54及び補正ユニット制御部57等に対し制御信号を出力するように構成されており、シャッタ制御部51、撮像ユニット制御部52、画像読み出し/記録部53、画像記録制御部54及び補正ユニット制御部57等にそれぞれの制御を実行させる。また、ボディマイコン50は、後述するレンズマイコン80とマイコン間通信を行う。   The body microcomputer 50 receives input signals from the power switch 40a and the release button 40b, as well as a shutter control unit 51, an imaging unit control unit 52, an image readout / recording unit 53, an image recording control unit 54, and a correction unit control. The controller 57 is configured to output control signals to the shutter 57, the imaging unit controller 52, the image reading / recording unit 53, the image recording controller 54, the correction unit controller 57, and the like. Make control run. The body microcomputer 50 performs inter-microcomputer communication with a lens microcomputer 80 described later.

例えば、ボディマイコン50の指示により、撮像ユニット制御部52が撮像ユニット1からの電気信号をA/D変換してボディマイコン50へ出力する。ボディマイコン50は、取り込んだ電気信号に所定の画像処理を施して画像信号を作成する。そして、ボディマイコン50は、画像読み出し/記録部53に画像信号を送信すると共に、画像記録制御部54に画像の記録及び表示の指示を行って、画像格納部58への画像信号の保存と画像表示制御部55への画像信号の送信を行わせる。画像表示制御部55は、送信されてきた画像信号に基づいて画像表示部44を制御して、該画像表示部44に画像を表示させる。   For example, in accordance with an instruction from the body microcomputer 50, the imaging unit control unit 52 performs A / D conversion on the electrical signal from the imaging unit 1 and outputs it to the body microcomputer 50. The body microcomputer 50 performs predetermined image processing on the captured electric signal to create an image signal. The body microcomputer 50 transmits an image signal to the image reading / recording unit 53 and instructs the image recording control unit 54 to record and display an image, and stores the image signal in the image storage unit 58 and the image. The image signal is transmitted to the display control unit 55. The image display control unit 55 controls the image display unit 44 based on the transmitted image signal, and causes the image display unit 44 to display an image.

不揮発性メモリ50aには、カメラ本体4に関する各種情報(本体情報)が格納されている。この本体情報には、例えば、カメラ本体4のメーカー名、製造年月日、型番、ボディマイコン50にインストールされているソフトのバージョン、およびファームアップに関する情報などのカメラ本体4を特定するための型式に関する情報(本体特定情報)、カメラ本体4がブレ補正ユニット45及びブレ検出部56等の像ブレを補正するための手段を搭載しているか否かに関する情報、ブレ検出部56の型番および感度などの検出性能に関する情報、エラー履歴なども含まれている。尚、これらの情報は、不揮発性メモリ50aの代わりにボディマイコン50内のメモリ部に格納されていてもよい。   Various information (main body information) related to the camera body 4 is stored in the nonvolatile memory 50a. The body information includes, for example, the model name for identifying the camera body 4 such as the manufacturer name, date of manufacture, model number, software version installed in the body microcomputer 50, and information on the firmware upgrade. Information (main body specifying information), information about whether the camera body 4 is equipped with means for correcting image blur such as the blur correction unit 45 and the blur detection unit 56, the model number and sensitivity of the blur detection unit 56, etc. It also includes information on detection performance, error history, etc. These pieces of information may be stored in the memory unit in the body microcomputer 50 instead of the nonvolatile memory 50a.

ブレ検出部56は、手ブレなどに起因するカメラ本体4の動きを検出する角速度センサを備える。角速度センサは、カメラ本体4が静止している状態での出力を基準としてカメラ本体4が動く方向に応じて正負の角速度信号を出力する。尚、本実施の形態では、ヨーイング方向及びピッチング方向の2方向を検出するために角速度センサを2個設けている。出力された角速度信号は、フィルタ処理、アンプ処理等を経て、A/D変換部によりデジタル信号に変換されてボディマイコン50に与えられる。   The shake detection unit 56 includes an angular velocity sensor that detects the movement of the camera body 4 caused by camera shake or the like. The angular velocity sensor outputs a positive / negative angular velocity signal according to the direction in which the camera body 4 moves with reference to the output when the camera body 4 is stationary. In the present embodiment, two angular velocity sensors are provided to detect the two directions of the yawing direction and the pitching direction. The output angular velocity signal is subjected to filter processing, amplifier processing, and the like, converted into a digital signal by an A / D conversion unit, and provided to the body microcomputer 50.

−交換レンズの構成−
交換レンズ7は、カメラ本体4内の撮像ユニット1に被写体像を結ぶための撮像光学系を構成しており、主に、フォーカシングを行うフォーカス調節部7Aと、絞りを調節する絞り調節部7Bと、光路を調節することで像ブレを補正するレンズ用像ブレ補正部7Cと、交換レンズ7の動作を制御するレンズ制御部8とを有している。
-Composition of interchangeable lens-
The interchangeable lens 7 constitutes an imaging optical system for connecting a subject image to the imaging unit 1 in the camera body 4, and mainly includes a focus adjustment unit 7A that performs focusing and an aperture adjustment unit 7B that adjusts the aperture. The image blur correction unit 7C for correcting the image blur by adjusting the optical path and the lens control unit 8 for controlling the operation of the interchangeable lens 7 are provided.

交換レンズ7は、レンズマウント71を介して、カメラ本体4のボディマウント41に取り付けられている。また、レンズマウント71には、交換レンズ7がカメラ本体4に取り付けられてときにボディマウント41の電気切片41aと電気的に接続される電気切片71aが設けられている。   The interchangeable lens 7 is attached to the body mount 41 of the camera body 4 via the lens mount 71. In addition, the lens mount 71 is provided with an electrical piece 71 a that is electrically connected to the electrical piece 41 a of the body mount 41 when the interchangeable lens 7 is attached to the camera body 4.

フォーカス調節部7Aは、フォーカスを調節するフォーカスレンズ群72で構成されている。フォーカスレンズ群72は、交換レンズ7の規格として定められた最至近合焦位置から無限合焦位置までの区間で光軸X方向に移動可能である。また、フォーカスレンズ群72は、後述するコントラスト検出方式による合焦位置検出の場合、合焦位置を挟んで光軸X方向前後に移動可能である必要があるため、上述の最至近合焦位置から無限合焦位置までの区間よりもさらに光軸X方向前後に移動可能なレンズシフト余裕区間を有している。なお、フォーカスレンズ群72は、必ずしも複数のレンズで構成される必要はなく、1枚のレンズで構成されていてもよい。   The focus adjustment unit 7A includes a focus lens group 72 that adjusts the focus. The focus lens group 72 is movable in the direction of the optical axis X in a section from the closest focus position to the infinite focus position defined as the standard of the interchangeable lens 7. In addition, the focus lens group 72 needs to be movable back and forth in the optical axis X direction with respect to the focus position in the case of focus position detection by a contrast detection method to be described later. It has a lens shift margin section that can move further back and forth in the optical axis X direction than the section to the infinite focus position. The focus lens group 72 does not necessarily need to be composed of a plurality of lenses, and may be composed of a single lens.

絞り調節部7Bは、絞りまたは開放を調節する絞り部73で構成されている。この絞り部73が光量調節部を構成する。   The diaphragm adjustment unit 7B is configured by a diaphragm unit 73 that adjusts the diaphragm or opening. The diaphragm 73 constitutes a light quantity adjustment unit.

レンズ用像ブレ補正部7Cは、ブレ補正レンズ74と、ブレ補正レンズ74を光軸Xに直行する平面内で移動させるブレ補正レンズ駆動部74aとを有している。   The lens image blur correction unit 7C includes a blur correction lens 74 and a blur correction lens driving unit 74a that moves the blur correction lens 74 in a plane perpendicular to the optical axis X.

レンズ制御部8は、レンズマイコン80と、不揮発性メモリ80aと、フォーカスレンズ群72の動作を制御するフォーカスレンズ群制御部81と、フォーカスレンズ群制御部81の制御信号を受けてフォーカスレンズ群72を駆動するフォーカス駆動部82と、絞り部73の動作を制御する絞り制御部83と、交換レンズ7のブレを検出するブレ検出部84と、ブレ補正レンズ駆動部74aを制御するブレ補正レンズユニット制御部85とを有する。   The lens controller 8 receives a control signal from the lens microcomputer 80, the nonvolatile memory 80 a, the focus lens group controller 81 that controls the operation of the focus lens group 72, and the focus lens group controller 81, and receives the focus lens group 72. A focus drive unit 82 for driving the lens, a diaphragm control unit 83 for controlling the operation of the diaphragm unit 73, a blur detection unit 84 for detecting blur of the interchangeable lens 7, and a blur correction lens unit for controlling the blur correction lens driving unit 74a. And a control unit 85.

レンズマイコン80は、交換レンズ7の中枢を司る制御装置であり、交換レンズ7に搭載された各部に接続されている。具体的には、レンズマイコン80には、CPU、ROM、RAMが搭載されており、ROMに格納されたプログラムがCPUに読み込まれることで、様々な機能を実現することができる。例えば、レンズマイコン80は、ボディマイコン50からの信号に基づいてレンズ用像ブレ補正装置(ブレ補正レンズ駆動部74a等)を補正可能状態または補正不能状態に設定する機能を有している。また、レンズマウント71に設けられた電気切片71aとボディマウント41に設けられた電気切片41aとの接触により,ボディマイコン50およびレンズマイコン80は電気的に接続されており、互いに情報の送受信が可能となっている。   The lens microcomputer 80 is a control device that controls the center of the interchangeable lens 7, and is connected to each unit mounted on the interchangeable lens 7. Specifically, the lens microcomputer 80 is equipped with a CPU, a ROM, and a RAM, and various functions can be realized by reading a program stored in the ROM into the CPU. For example, the lens microcomputer 80 has a function of setting a lens image blur correction device (such as the blur correction lens driving unit 74a) to a correctable state or an uncorrectable state based on a signal from the body microcomputer 50. Further, the body microcomputer 50 and the lens microcomputer 80 are electrically connected by contact between the electrical slice 71a provided on the lens mount 71 and the electrical slice 41a provided on the body mount 41, so that information can be transmitted and received between them. It has become.

また、不揮発性メモリ80aには、交換レンズ7に関する各種情報(レンズ情報)が格納されている。このレンズ情報には、例えば、交換レンズ7のメーカー名、製造年月日、型番、レンズマイコン80にインストールされているソフトのバージョンおよびファームアップに関する情報などの交換レンズ7を特定するための型式に関する情報(レンズ特定情報)、交換レンズ7がブレ補正レンズ駆動部74a及びブレ検出部84等の像ブレを補正するための手段を搭載しているか否かに関する情報、像ブレを補正するための手段を搭載している場合は、ブレ検出部84の型番および感度などの検出性能に関する情報、ブレ補正レンズ駆動部74aの型番および最大補正可能角度などの補正性能に関する情報(レンズ側補正性能情報)、像ブレ補正を行うためのソフトのバージョンなどが含まれている。さらに、レンズ情報には、ブレ補正レンズ駆動部74aの駆動に必要な消費電力に関する情報(レンズ側消費電力情報)およびブレ補正レンズ駆動部74aの駆動方式に関する情報(レンズ側駆動方式情報)も含まれている。尚、不揮発性メモリ80aは、ボディマイコン50から送信された情報を格納可能である。尚、これらの情報は、不揮発性メモリ80aの代わりに、レンズマイコン80内のメモリ部に格納されていてもよい。   In addition, various information (lens information) related to the interchangeable lens 7 is stored in the nonvolatile memory 80a. The lens information includes, for example, a model for specifying the interchangeable lens 7 such as a manufacturer name, a date of manufacture, a model number, a software version installed in the lens microcomputer 80, and information on firmware upgrade of the interchangeable lens 7. Information (lens specifying information), information on whether or not the interchangeable lens 7 is equipped with means for correcting image blur such as the blur correction lens driving unit 74a and blur detection unit 84, and means for correcting image blur , Information on the detection performance such as the model number and sensitivity of the blur detection unit 84, information on the correction performance such as the model number of the blur correction lens driving unit 74a and the maximum correctable angle (lens side correction performance information), Software version for image blur correction is included. Further, the lens information includes information on power consumption necessary for driving the blur correction lens driving unit 74a (lens side power consumption information) and information on driving method of the blur correction lens driving unit 74a (lens side driving method information). It is. The nonvolatile memory 80a can store information transmitted from the body microcomputer 50. These pieces of information may be stored in a memory unit in the lens microcomputer 80 instead of the nonvolatile memory 80a.

フォーカスレンズ群制御部81は、フォーカスレンズ群72の光軸方向の絶対位置を検出する絶対位置検出部81aと、フォーカスレンズ群72の光軸方向の相対位置を検出する相対位置検出部81bとを有している。絶対位置検出部81aは、交換レンズ7の筐体におけるフォーカスレンズ群72の絶対位置を検出するものである。絶対位置検出部81aは、例えば、数bitの接触型エンコーダ基板とブラシとによって構成され、絶対位置を検出可能に構成されている。相対位置検出部81bは、それのみではフォーカスレンズ群72の絶対位置を検出することができないが、フォーカスレンズ群72の移動方向は検出可能であり、例えば二相エンコーダを用いている。二相エンコーダは回転パルスエンコーダや、MR素子、ホール素子など、フォーカスレンズ群72の光軸方向の位置に応じて等しいピッチで2値の信号を交互に出力するものが2つ設けられており、これらのピッチの位相をずらすように設置されている。レンズマイコン80は、相対位置検出部81bの出力からフォーカスレンズ群72の光軸方向の相対位置を算出する。   The focus lens group control unit 81 includes an absolute position detection unit 81a that detects an absolute position of the focus lens group 72 in the optical axis direction, and a relative position detection unit 81b that detects a relative position of the focus lens group 72 in the optical axis direction. Have. The absolute position detector 81 a detects the absolute position of the focus lens group 72 in the casing of the interchangeable lens 7. The absolute position detector 81a is constituted by, for example, a contact encoder board of several bits and a brush, and is configured to be able to detect the absolute position. The relative position detector 81b alone cannot detect the absolute position of the focus lens group 72, but can detect the moving direction of the focus lens group 72, and uses, for example, a two-phase encoder. Two two-phase encoders, such as a rotary pulse encoder, an MR element, and a Hall element, are provided that alternately output binary signals at an equal pitch according to the position of the focus lens group 72 in the optical axis direction. These pitches are installed so as to shift the phases. The lens microcomputer 80 calculates the relative position of the focus lens group 72 in the optical axis direction from the output of the relative position detector 81b.

ブレ検出部84は,手ブレなどに起因する交換レンズ7の動きを検出する角速度センサを備える。角速度センサは、交換レンズ7が静止している状態での出力を基準として交換レンズ7が動く方向に応じて正負の角速度信号を出力する。尚、本実施の形態では、ヨーイング方向及びピッチング方向の2方向を検出するために角速度センサを2個設けている。出力された角速度信号は、フィルタ処理、アンプ処理等を経て、A/D変換部によりデジタル信号に変換されてレンズマイコン80に与えられる。   The shake detection unit 84 includes an angular velocity sensor that detects the movement of the interchangeable lens 7 caused by camera shake or the like. The angular velocity sensor outputs positive and negative angular velocity signals according to the direction in which the interchangeable lens 7 moves with reference to the output when the interchangeable lens 7 is stationary. In the present embodiment, two angular velocity sensors are provided to detect the two directions of the yawing direction and the pitching direction. The output angular velocity signal is subjected to filter processing, amplifier processing, and the like, converted into a digital signal by an A / D conversion unit, and provided to the lens microcomputer 80.

ブレ補正レンズユニット制御部85は、移動量検出部(図示せず)を備える。移動量検出部は、ブレ補正レンズ74の実際の移動量を検出する検出部である。ブレ補正レンズユニット制御部85は、移動量検出部からの出力に基づいて、ブレ補正レンズ74を帰還制御している。   The blur correction lens unit control unit 85 includes a movement amount detection unit (not shown). The movement amount detection unit is a detection unit that detects an actual movement amount of the blur correction lens 74. The blur correction lens unit control unit 85 performs feedback control of the blur correction lens 74 based on the output from the movement amount detection unit.

尚、カメラ本体4及び交換レンズ7の両方にブレ検出部56,84とブレ補正装置45,74aを搭載した例を示したが、カメラ本体4及び交換レンズ7の何れかにブレ検出部及びブレ補正装置が搭載されていてもよく、何れにもブレ検出部及びブレ補正装置が搭載されていない場合であってもよい(その場合は、上述のブレ補正に関するシーケンスを排除すればよい)。   Although an example in which the camera shake detection units 56 and 84 and the camera shake correction devices 45 and 74a are mounted on both the camera body 4 and the interchangeable lens 7 has been shown, A correction device may be mounted, and neither of the shake detection unit and the shake correction device may be mounted (in this case, the above-described sequence related to the shake correction may be excluded).

−撮像ユニットの構成−
撮像ユニット1は、図3に示すように、被写体像を電気信号に変換するための撮像素子10と、撮像素子10に接合されたガラス基板19と、撮像素子10を保持するためのパッケージ31と、位相差検出方式の焦点検出を行うための位相差検出ユニット20とを有している。
-Image unit configuration-
As shown in FIG. 3, the imaging unit 1 includes an imaging element 10 for converting a subject image into an electrical signal, a glass substrate 19 bonded to the imaging element 10, and a package 31 for holding the imaging element 10. And a phase difference detection unit 20 for performing focus detection by the phase difference detection method.

撮像素子10は、裏面照射型のインターライン型CCDイメージセンサであって、図1に示すように、半導体材料で構成された光電変換部11と、垂直レジスタ12と、転送路13と、マスク14と、カラーフィルタ15とを有している。   The imaging device 10 is a back-illuminated interline CCD image sensor, and as shown in FIG. 1, a photoelectric conversion unit 11 made of a semiconductor material, a vertical register 12, a transfer path 13, and a mask 14 And a color filter 15.

光電変換部11は、基板11aと、基板11a上に配列された複数の受光部(画素ともいう)11b,11b,…とを有している。   The photoelectric conversion unit 11 includes a substrate 11a and a plurality of light receiving units (also referred to as pixels) 11b, 11b,... Arranged on the substrate 11a.

基板11aは、Si(シリコン)ベースで構成された半導体基板である。詳しくは、基板11aは、Si単結晶基板又はSOI(Silicon On Insulator wafer)で構成されている。特に、SOI基板は、Si薄膜とSiO薄膜のサンドイッチ構造をなし、エッチングの処理などにおいてSiO層で反応をとめることが可能であり、安定した基板加工を行う上で有利である。 The substrate 11a is a semiconductor substrate composed of Si (silicon) base. Specifically, the substrate 11a is formed of a Si single crystal substrate or an SOI (Silicon On Insulator wafer). In particular, the SOI substrate has a sandwich structure of an Si thin film and an SiO 2 thin film, and can stop the reaction in the SiO 2 layer in an etching process or the like, which is advantageous for stable substrate processing.

また、受光部11bは、フォトダイオードで構成されていて、光を吸収して電荷を発生する。受光部11b,11b,…は、基板11aの表面(図1における下面)において行列状に配列された微小な方形の画素領域内にそれぞれ設けられている(図4参照)。   The light receiving portion 11b is composed of a photodiode and absorbs light to generate charges. The light receiving portions 11b, 11b,... Are respectively provided in minute square pixel regions arranged in a matrix on the surface of the substrate 11a (the lower surface in FIG. 1) (see FIG. 4).

前述の如く、撮像素子10は、裏面照射型であって、被写体からの光が、基板11aにおける、受光部11b,11b,…が設けられている面(以下、表面ともいう)と反対側の面(以下、裏面ともいう)から入射する。   As described above, the imaging element 10 is a back-illuminated type, and the light from the subject is on the opposite side of the surface (hereinafter also referred to as the front surface) on the substrate 11a where the light receiving portions 11b, 11b,. Incident from the surface (hereinafter also referred to as the back surface).

垂直レジスタ12は、基板11aの表面側において、受光部11bごとに設けられており、受光部11bに蓄積された電荷を一時蓄積する役割を有する。つまり、受光部11bに蓄積された電荷は、垂直レジスタ12に転送される。垂直レジスタ12に転送された電荷は、転送路13を介して水平レジスタ(図示省略)に転送され、増幅器(図示省略)に送られる。増幅器に送られた電荷は、増幅され電気信号として取り出される。   The vertical register 12 is provided for each light receiving portion 11b on the front surface side of the substrate 11a, and has a role of temporarily storing charges accumulated in the light receiving portion 11b. That is, the electric charge accumulated in the light receiving unit 11 b is transferred to the vertical register 12. The charges transferred to the vertical register 12 are transferred to a horizontal register (not shown) via the transfer path 13 and sent to an amplifier (not shown). The electric charge sent to the amplifier is amplified and taken out as an electric signal.

マスク14は、基板11aの表面に設けられた入射側マスク14aと、受光部11b、垂直レジスタ12及び転送路13を基板11aとは反対側から覆うように設けられた出射側マスク14bとを有している。入射側マスク14aは、基板11aの表面において各受光部11b,11bの間に設けられている。そして、垂直レジスタ12及び転送路13は、この入射側マスク14aと重なるようにして設けられている。こうして、入射側マスク14aは、基板11aを透過してきた光が垂直レジスタ12及び転送路13に入射することを防止している。出射側マスク14bは、受光部11b,11b,…に吸収されずに該受光部11b,11b,…を透過した光を反射させて、再度、受光部11b,11b,…に入射させる。また、出射側マスク14bには、受光部11bを透過した光を、撮像素子10の背面側(本実施形態では、ガラス基板19と反対側)へ出射させるための複数の通過孔14c(図1では1つのみ図示)が形成されている。尚、この出射側マスク14bを設けなくてもよい。   The mask 14 includes an incident-side mask 14a provided on the surface of the substrate 11a, and an emission-side mask 14b provided so as to cover the light receiving unit 11b, the vertical register 12, and the transfer path 13 from the side opposite to the substrate 11a. is doing. The incident side mask 14a is provided between the light receiving portions 11b and 11b on the surface of the substrate 11a. The vertical register 12 and the transfer path 13 are provided so as to overlap the incident side mask 14a. In this way, the incident side mask 14 a prevents the light transmitted through the substrate 11 a from entering the vertical register 12 and the transfer path 13. The emission side mask 14b reflects the light transmitted through the light receiving parts 11b, 11b,... Without being absorbed by the light receiving parts 11b, 11b,. In addition, a plurality of through holes 14c (FIG. 1) for emitting light that has passed through the light receiving portion 11b to the back side of the image sensor 10 (in the present embodiment, the side opposite to the glass substrate 19) is provided in the emission side mask 14b. , Only one is shown). Note that the emission side mask 14b may not be provided.

また、基板11aの表面には、これら受光部11b、垂直レジスタ12、転送路13及びマスク14を覆うように、光学的に透明な樹脂で構成された保護層18が設けられている。   A protective layer 18 made of an optically transparent resin is provided on the surface of the substrate 11a so as to cover the light receiving portion 11b, the vertical register 12, the transfer path 13, and the mask 14.

カラーフィルタ15は、基板11aの裏面側において、各受光部11bに対応して上記微小な方形の画素領域ごとに設けられている。カラーフィルタ15は、特定の色だけを透過させるためのものであり、誘電体で形成される薄膜干渉フィルタである。本実施形態では、図4に示すように、いわゆるベイヤー型の原色フィルタが用いられている。すなわち、撮像素子10全体としては、2行2列に隣接する4つのカラーフィルタ15,15,…(又は4つの画素領域)を1つの繰り返し単位としたときに、該繰り返し単位中において、一方の対角方向に2つの緑のカラーフィルタ(即ち、緑色の可視光波長域に対して緑色以外の他の色の可視光波長域よりも高い透過率を持つカラーフィルタ)15gが配列され、他方の対角方向に赤のカラーフィルタ(即ち、赤色の可視光波長域に対して赤色以外の他の色の可視光波長域よりも高い透過率を持つカラーフィルタ)15rと青のカラーフィルタ(即ち、青色の可視光波長域に対して青色以外の他の色の可視光波長域よりも高い透過率を持つカラーフィルタ)15bとが配列されている。全体として緑のカラーフィルタ15g,15g,…が縦横に1つおきに配置されている。尚、カラーフィルタ15として、CyMYGの各色を透過させる補色系のフィルタを採用してもよい。このカラーフィルタ15は、ガラス基板19の、撮像素子10との接合面に蒸着させている。   The color filter 15 is provided for each of the small square pixel regions corresponding to each light receiving portion 11b on the back side of the substrate 11a. The color filter 15 is for transmitting only a specific color, and is a thin film interference filter formed of a dielectric. In this embodiment, as shown in FIG. 4, a so-called Bayer type primary color filter is used. That is, for the entire image sensor 10, when four color filters 15, 15,... (Or four pixel regions) adjacent to 2 rows and 2 columns are defined as one repeating unit, Two green color filters (that is, color filters having higher transmittance than the visible light wavelength region of colors other than green with respect to the green visible light wavelength region) 15g are arranged in the diagonal direction, A diagonally red color filter (that is, a color filter having a higher transmittance than the visible light wavelength range of colors other than red with respect to the red visible light wavelength range) 15r and a blue color filter (that is, And a color filter 15b having a higher transmittance than the visible light wavelength region of colors other than blue with respect to the blue visible light wavelength region. As a whole, every other green color filter 15g, 15g,... Is arranged vertically and horizontally. The color filter 15 may be a complementary color filter that transmits each color of CyMYG. The color filter 15 is vapor-deposited on the bonding surface of the glass substrate 19 with the image sensor 10.

ガラス基板19は、硼珪酸ガラス基板で構成されている。このガラス基板19が光学的透明基板に相当する。このガラス基板19は、基板11aと陽極接合されている。ここで、硼珪酸ガラスは、可動イオンが豊富に含まれているため、ガラス基板19を硼珪酸ガラスで構成することによって、基板11aとの陽極接合が可能となる。また、ガラス基板19の、基板11aと接合される面には、上述の如く、カラーフィルタ15が蒸着されているが、該カラーフィルタ15は誘電体であるため、ガラス基板19を基板11aに陽極接合することができる。   The glass substrate 19 is composed of a borosilicate glass substrate. This glass substrate 19 corresponds to an optically transparent substrate. The glass substrate 19 is anodically bonded to the substrate 11a. Here, since borosilicate glass is rich in mobile ions, anodic bonding with the substrate 11a is possible by configuring the glass substrate 19 with borosilicate glass. Further, as described above, the color filter 15 is deposited on the surface of the glass substrate 19 to be bonded to the substrate 11a. Since the color filter 15 is a dielectric, the glass substrate 19 is attached to the substrate 11a as an anode. Can be joined.

尚、ガラス基板19の材質としては、例えば、コーニング社製のパイレックス(登録商標)、ショット社製のテンパックス・デュランを採用し得る。また、ガラス基板19と基板11aとの接合は陽極接合に限られず、接着剤を介した接合等であってもよい。   As a material of the glass substrate 19, for example, Pyrex (registered trademark) manufactured by Corning, or Tempax Duran manufactured by Schott can be employed. Further, the bonding between the glass substrate 19 and the substrate 11a is not limited to the anodic bonding, and may be bonding via an adhesive or the like.

ここで、ガラス基板19に陽極接合される基板11aは、所望の厚さ(例えば、1〜5μm)に研磨されたものをガラス基板19に陽極接合してもよいし、所望の厚さよりも厚い基板11aを陽極接合した後にエッチング等により所望の厚さまで研磨等してもよい。所望の厚さよりも厚い基板11aを用いる場合には、陽極接合した基板11aを熱処理して、基板11aのうち、ガラス基板19と反対側の表面にSiO層を形成する。そして、フッ化水素酸でSiO層だけを溶かすことによって、薄い(例えば、1〜2μm)Si層を形成し。それと共に、半導体プロセスによってSi層に受光部11b、垂直レジスタ12及び転送路13等を形成する。 Here, the substrate 11a to be anodically bonded to the glass substrate 19 may be anodically bonded to the glass substrate 19 after being polished to a desired thickness (for example, 1 to 5 μm) or thicker than the desired thickness. After the substrate 11a is anodically bonded, it may be polished to a desired thickness by etching or the like. When the substrate 11a thicker than the desired thickness is used, the substrate 11a that has been anodically bonded is heat-treated to form a SiO 2 layer on the surface of the substrate 11a opposite to the glass substrate 19. Then, a thin (eg, 1 to 2 μm) Si layer is formed by dissolving only the SiO 2 layer with hydrofluoric acid. At the same time, the light receiving portion 11b, the vertical register 12, the transfer path 13 and the like are formed in the Si layer by a semiconductor process.

このように構成された撮像素子10においては、ガラス基板19側から光が入射する。詳しくは、ガラス基板19を通過した光は、カラーフィルタ15r,15g,15bに入射し、各カラーフィルタ15に応じた色の光だけが該カラーフィルタ15を透過して、基板11aの裏面に入射する。基板11aは非常に薄いため(即ち、基板11aを光が透過する程度の厚さに形成しているため)、基板11aに入射した光は、該基板11aを透過して、基板11aの表面に配設された受光部11b,11b,…に到達する。ここで、基板11aの表面における、受光部11b,11b,…が配設されていな領域には、入射側マスク14aが設けられているため、垂直レジスタ12や転送路13には光が入射しない。また、受光部11b,11b,…は、後述する実施形態2の撮像素子410と異なり、光が入射してくる側(基板11a側)へ全面が開口しているため、量子効率が非常に高くなる。各受光部11bは、光を吸収して電荷を発生する。ここで、受光部11bの、基板11aとは反対側には出射側マスク14bが設けられているため、受光部11bに吸収されずに、該受光部11bを透過した光は、該出射側マスク14bで反射して、再び、受光部11bに入射する。こうすることで、量子効率をさらに高めることができる。この各受光部11bで発生した電荷は、垂直レジスタ12及び転送路13を介して増幅器に送られ、電気信号として出力される。このとき、受光部11b,11b,…には、カラーフィルタ15r,15g,15bを透過した特定の色の光が入射しているため、各受光部11bからは、各カラーフィルタ15に対応した色の受光光量が出力として得られる。   In the imaging device 10 configured as described above, light enters from the glass substrate 19 side. Specifically, light that has passed through the glass substrate 19 is incident on the color filters 15r, 15g, and 15b, and only light of a color corresponding to each color filter 15 is transmitted through the color filter 15 and incident on the back surface of the substrate 11a. To do. Since the substrate 11a is very thin (that is, the substrate 11a is formed to have a thickness that allows light to pass through), the light incident on the substrate 11a passes through the substrate 11a and reaches the surface of the substrate 11a. It reaches the arranged light receiving portions 11b, 11b,. Here, since the incident side mask 14a is provided in the region where the light receiving portions 11b, 11b,... Are not provided on the surface of the substrate 11a, no light enters the vertical register 12 or the transfer path 13. . In addition, the light receiving portions 11b, 11b,... Have a very high quantum efficiency because the entire surface is open to the light incident side (substrate 11a side) unlike the image sensor 410 of the second embodiment described later. Become. Each light receiving portion 11b absorbs light and generates electric charges. Here, since the emission side mask 14b is provided on the opposite side of the light receiving portion 11b from the substrate 11a, the light transmitted through the light receiving portion 11b without being absorbed by the light receiving portion 11b is transmitted to the emission side mask. The light is reflected by 14b and enters the light receiving unit 11b again. By doing so, the quantum efficiency can be further increased. The electric charge generated in each light receiving unit 11b is sent to the amplifier via the vertical register 12 and the transfer path 13 and is output as an electric signal. At this time, since light of a specific color transmitted through the color filters 15r, 15g, and 15b is incident on the light receiving portions 11b, 11b,..., The colors corresponding to the color filters 15 are received from the light receiving portions 11b. The received light quantity is obtained as an output.

こうして、撮像素子10は、その撮像面全体における受光部11b,11b,…で光電変換を行うことによって、撮像面に形成された被写体像を電気信号に変換する。   Thus, the image sensor 10 converts the subject image formed on the imaging surface into an electrical signal by performing photoelectric conversion at the light receiving portions 11b, 11b,... On the entire imaging surface.

このように構成された撮像素子10は、パッケージ31に保持されている(図3参照)。このパッケージ31が保持部を構成する。   The imaging device 10 configured in this way is held in a package 31 (see FIG. 3). The package 31 constitutes a holding unit.

詳しくは、パッケージ31は、平板状の底板31aに回路基板32が設けられていると共に、四方には立壁31b,31b,…が設けられている。撮像素子10は、立壁31b,31b,…により四方を覆われるようにして、回路基板32にマウントされる。   Specifically, the package 31 is provided with a circuit board 32 on a flat bottom plate 31a, and with standing walls 31b, 31b,. The image sensor 10 is mounted on the circuit board 32 so as to be covered on all sides by the standing walls 31b, 31b,.

詳しくは、図5に示すように、撮像素子10の基板11aの周縁部には、受光部11b、垂直レジスタ12、転送路13、マスク14及び保護層18等が設けられておらず、転送路13や垂直レジスタ12等との電気的接続を可能にするための配線が露出している。   Specifically, as shown in FIG. 5, the light receiving unit 11 b, the vertical register 12, the transfer path 13, the mask 14, the protective layer 18, and the like are not provided at the peripheral edge of the substrate 11 a of the image sensor 10. 13 and the wiring for enabling electrical connection with the vertical register 12 and the like are exposed.

一方、回路基板32は、基板ベース32aを有し、該基板ベース32aの表面(被写体側の面)には、撮像素子10の基板11aの配線と対向する位置に回路パターン32bが設けられている。そして、撮像素子10の基板11aの周縁部を被写体側から回路基板32と重ね合わせ、熱溶着により、両者を接合して、撮像素子10の基板11aの配線と回路パターン32bとを電気的に接続している。   On the other hand, the circuit board 32 has a board base 32a, and a circuit pattern 32b is provided on the surface (subject side surface) of the board base 32a at a position facing the wiring of the board 11a of the image sensor 10. . Then, the peripheral portion of the substrate 11a of the image sensor 10 is overlapped with the circuit board 32 from the subject side, and both are joined by thermal welding to electrically connect the wiring of the substrate 11a of the image sensor 10 and the circuit pattern 32b. is doing.

また、パッケージ31の立壁31b,31b,…の先端には、撮像素子10の撮像面(裏面)を覆うようにカバーガラス33が取り付けられている。このカバーガラス33によって、撮像素子10の撮像面はゴミの付着などから保護されている。   Further, a cover glass 33 is attached to the tips of the standing walls 31b, 31b,... Of the package 31 so as to cover the imaging surface (back surface) of the imaging device 10. The cover glass 33 protects the image pickup surface of the image pickup device 10 from dust and the like.

ここで、パッケージ31の底板31aには、撮像素子10の出射側マスク14bの通過孔14c,14c,…に対応する位置に該通過孔14c,14c,…と同じ個数(本実施形態では3個)だけ開口31c,31c,…が貫通形成されている。この開口31c,31c,…により、撮像素子10を透過した光が、後述する位相差検出ユニット20まで到達する。   Here, the bottom plate 31a of the package 31 has the same number as the passage holes 14c, 14c,... In the position corresponding to the passage holes 14c, 14c,. ), The openings 31c, 31c,. Through the openings 31c, 31c,..., The light transmitted through the image sensor 10 reaches a phase difference detection unit 20 described later.

尚、パッケージ31の底板31aには、必ずしも開口31cが貫通形成される必要はない。すなわち、撮像素子10を透過した光が位相差検出ユニット20まで到達する構成であれば、底板31aに透明部若しくは半透明部を形成する等の構成であってもよい。   Note that the opening 31 c is not necessarily formed through the bottom plate 31 a of the package 31. That is, as long as the light transmitted through the image sensor 10 reaches the phase difference detection unit 20, a configuration such as forming a transparent portion or a semi-transparent portion on the bottom plate 31a may be used.

位相差検出ユニット20は、撮像素子10の背面側(被写体と反対側)に設けられて、撮像素子10からの透過光を受光して位相差検出方式の焦点検出を行う。詳しくは、位相差検出ユニット20は、受光した透過光を測距のための電気信号に変換する。この位相差検出ユニット20が位相差検出部を構成する。   The phase difference detection unit 20 is provided on the back side (opposite to the subject) of the image sensor 10 and receives the transmitted light from the image sensor 10 to perform focus detection by the phase difference detection method. Specifically, the phase difference detection unit 20 converts the received transmitted light into an electric signal for distance measurement. This phase difference detection unit 20 constitutes a phase difference detection unit.

この位相差検出ユニット20は、図3,6に示すように、コンデンサレンズユニット21と、マスク部材22と、セパレータレンズユニット23と、ラインセンサユニット24と、これらコンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24を取り付けるためのモジュール枠25とを有している。コンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24は、撮像素子10の厚さ方向に沿って該撮像素子10側からこの順で並んでいる。   3 and 6, the phase difference detection unit 20 includes a condenser lens unit 21, a mask member 22, a separator lens unit 23, a line sensor unit 24, the condenser lens unit 21, the mask member 22, And a module frame 25 to which the separator lens unit 23 and the line sensor unit 24 are attached. The condenser lens unit 21, the mask member 22, the separator lens unit 23, and the line sensor unit 24 are arranged in this order from the image sensor 10 side along the thickness direction of the image sensor 10.

コンデンサレンズユニット21は、複数のコンデンサレンズ21a,21a,…を一体的にユニット化したものである。コンデンサレンズ21a,21a,…は、出射側マスク14bの通過孔14c,14c,…と同じ数だけ設けられている。各コンデンサレンズ21aは、入射する光を集光するためのものであり、撮像素子10を透過して拡がりつつある光を集光して、セパレータレンズユニット23の後述するセパレータレンズ23aへと導く。各コンデンサレンズ21aは、入射面21bが凸状に形成されていると共に、入射面21b近傍が円柱状に形成されている。   The condenser lens unit 21 is a unit in which a plurality of condenser lenses 21a, 21a,. As many condenser lenses 21a, 21a,... Are provided as there are passage holes 14c, 14c,. Each condenser lens 21 a is for condensing incident light, condenses the light that is transmitted through the image sensor 10 and is spreading, and guides it to a separator lens 23 a described later of the separator lens unit 23. Each condenser lens 21a has an incident surface 21b formed in a convex shape, and the vicinity of the incident surface 21b is formed in a cylindrical shape.

このコンデンサレンズ21aを設けることによって、セパレータレンズ23aへの入射角度が立つ(入射角が小さくなる)ため、セパレータレンズ23aの収差を抑えることができると共に、後述するラインセンサ24a上の被写体像間隔を小さくすることができる。その結果、セパレータレンズ23a及びラインセンサ24aを小型化することができる。また、撮像光学系からの被写体像の焦点位置が撮像ユニット1から大きく外れたとき(詳しくは、撮像ユニット1の撮像素子10から大きく外れたとき)、その像のコントラストが著しく下がるが、本実施形態によれば、コンデンサレンズ21aとセパレータレンズ23aによる縮小効果によりコントラストの低下を抑え、焦点検出範囲を広くすることもできる。尚、焦点位置近傍における高精度な位相差検出等の場合、セパレータレンズ23aやラインセンサ24a等の寸法に余裕がある場合等においては、コンデンサレンズユニット21を設けなくてもよい。   By providing the condenser lens 21a, the incident angle to the separator lens 23a is increased (the incident angle is reduced), so that the aberration of the separator lens 23a can be suppressed and the object image interval on the line sensor 24a described later can be reduced. Can be small. As a result, the separator lens 23a and the line sensor 24a can be reduced in size. In addition, when the focus position of the subject image from the image pickup optical system is greatly deviated from the image pickup unit 1 (specifically, when it is greatly deviated from the image pickup device 10 of the image pickup unit 1), the contrast of the image is remarkably lowered. According to the embodiment, it is possible to suppress a decrease in contrast by the reduction effect of the condenser lens 21a and the separator lens 23a and to widen the focus detection range. Note that the condenser lens unit 21 may not be provided in the case of high-accuracy phase difference detection in the vicinity of the focal position, or when the dimensions of the separator lens 23a, the line sensor 24a, etc. are sufficient.

マスク部材22は、コンデンサレンズユニット21とセパレータレンズユニット23との間に配設される。マスク部材22は、各セパレータレンズ23aに対応する位置ごとに2つのマスク開口22a,22aが形成されている。つまり、マスク部材22は、セパレータレンズ23aのレンズ面を2つの領域に分割して、該2つの領域だけをコンデンサレンズ21a側に露出させている。すなわち、マスク部材22は、コンデンサレンズ21aにより集光された光を2つの光束に瞳分割して、セパレータレンズ23aへ入射させる。このマスク部材22により隣り合う一方のセパレータレンズ23aからの有害光などが他方のセパレータレンズ23aに入らないようにすることができる。尚、このマスク部材22は、設けなくともよい。   The mask member 22 is disposed between the condenser lens unit 21 and the separator lens unit 23. In the mask member 22, two mask openings 22a and 22a are formed for each position corresponding to each separator lens 23a. That is, the mask member 22 divides the lens surface of the separator lens 23a into two regions, and only the two regions are exposed to the condenser lens 21a side. That is, the mask member 22 divides the light collected by the condenser lens 21a into two light fluxes and makes the light incident on the separator lens 23a. This mask member 22 can prevent harmful light from one separator lens 23a adjacent to the other separator lens 23a from entering. The mask member 22 need not be provided.

セパレータレンズユニット23は、複数のセパレータレンズ23a,23a,…を有し、これら複数のセパレータレンズ23a,23a,…を一体的にユニット化したものである。セパレータレンズ23a,23a,…は、コンデンサレンズ21a,21a,…と同様に、出射側マスク14bの通過孔14c,14c,…と同じ数だけ設けられている。各セパレータレンズ23aは、マスク部材22を通過して入射してきた2つの光束を、同一の2つの被写体像としてラインセンサ24a上に結像させる。   The separator lens unit 23 includes a plurality of separator lenses 23a, 23a,..., And the separator lenses 23a, 23a,. The separator lenses 23a, 23a,... Are provided in the same number as the passage holes 14c, 14c,. Each separator lens 23a forms two light fluxes incident through the mask member 22 on the line sensor 24a as two identical subject images.

ラインセンサユニット24は、複数のラインセンサ24a,24a,…と該ラインセンサ24a,24a,…を設置する設置部24bとを有する。ラインセンサ24a,24a,…は、コンデンサレンズ21a,21a,…と同様に、出射側マスク14bの通過孔14c,14c,…と同じ数だけ設けられている。各ラインセンサ24aは、撮像面上に結像する像を受光して電気信号に変換する。つまり、ラインセンサ24aの出力から、2つの被写体像の間隔を検出することができ、その間隔によって撮像素子10に結像する被写体像の焦点のずれ量(即ち、デフォーカス量(Df量))及び焦点がどちらの方向にずれているか(即ち、デフォーカス方向)を求めることができる(以下、これらDf量及びデフォーカス方向等をデフォーカス情報ともいう)。   The line sensor unit 24 includes a plurality of line sensors 24a, 24a,... And an installation portion 24b for installing the line sensors 24a, 24a,. The number of line sensors 24a, 24a,... Is the same as the number of passage holes 14c, 14c,. Each line sensor 24a receives an image formed on the imaging surface and converts it into an electrical signal. That is, the interval between two subject images can be detected from the output of the line sensor 24a, and the defocus amount (ie, defocus amount (Df amount)) of the subject image formed on the image sensor 10 based on the interval. It is possible to determine in which direction the focus is deviated (that is, the defocus direction) (hereinafter, the Df amount, the defocus direction, and the like are also referred to as defocus information).

このように構成されたコンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24は、モジュール枠25に配設されている。   The condenser lens unit 21, the mask member 22, the separator lens unit 23, and the line sensor unit 24 configured as described above are disposed in the module frame 25.

モジュール枠25は、枠状に形成された部材であって、その内周には、内側に向かって突出する取付部25aが設けられている。取付部25aの撮像素子10側には、階段状に第1取付部25b及び第2取付部25cが形成されている。また、取付部25aの撮像素子10と反対側には、第3取付部25dが形成されている。   The module frame 25 is a member formed in a frame shape, and an attachment portion 25a that protrudes inward is provided on the inner periphery thereof. A first mounting portion 25b and a second mounting portion 25c are formed stepwise on the imaging element 10 side of the mounting portion 25a. Further, a third mounting portion 25d is formed on the side of the mounting portion 25a opposite to the image sensor 10.

そして、撮像素子10側から、モジュール枠25の第2取付部25cにマスク部材22が取り付けられ、第1取付部25bにコンデンサレンズユニット21が取り付けられている。これらコンデンサレンズユニット21及びマスク部材22は、それぞれ第1取付部25b及び第2取付部25cに取り付けられる際に、図3,6に示すように、周縁部がモジュール枠25に嵌り込むように形成されており、それによりモジュール枠25に対して位置決めされる。   From the image sensor 10 side, the mask member 22 is attached to the second attachment portion 25c of the module frame 25, and the condenser lens unit 21 is attached to the first attachment portion 25b. The condenser lens unit 21 and the mask member 22 are formed so that the peripheral edge fits into the module frame 25 as shown in FIGS. 3 and 6 when attached to the first attachment portion 25b and the second attachment portion 25c, respectively. And thereby positioned with respect to the module frame 25.

一方、撮像素子10の反対側から、モジュール枠25の第3取付部25dにセパレータレンズユニット23が取り付けられている。第3取付部25dには、コンデンサレンズユニット21と反対側に突出する位置決めピン25eと方向基準ピン25fとが設けられている。一方、セパレータレンズユニット23には、これら位置決めピン25e及び方向基準ピン25fにそれぞれ対応する位置決め孔23b及び方向基準孔23cが形成されている。位置決めピン25eと位置決め孔23bとは嵌合するようにそれぞれの径が設定されている。一方、方向基準ピン25fと方向基準孔23cとは緩やかに嵌るようにそれぞれの径が設定されている。すなわち、セパレータレンズユニット23は、位置決め孔23b及び方向基準孔23cをそれぞれ第3取付部25dの位置決めピン25e及び方向基準ピン25fに挿通させることによって、第3取付部25dに取り付ける際の方向等の姿勢が規定されると共に、位置決め孔23bと位置決めピン25eとの嵌合によって第3取付部25dに対して位置決めされる。こうして、セパレータレンズユニット23が姿勢及び位置を決めて取り付けられたとき、セパレータレンズ23a,23a,…の各レンズ面は、コンデンサレンズユニット21の側を向くと共に、マスク開口22a,22aと対向した状態になる。   On the other hand, the separator lens unit 23 is attached to the third attachment portion 25 d of the module frame 25 from the opposite side of the image sensor 10. The third mounting portion 25d is provided with a positioning pin 25e and a direction reference pin 25f that protrude on the opposite side of the condenser lens unit 21. On the other hand, the separator lens unit 23 is formed with positioning holes 23b and direction reference holes 23c corresponding to the positioning pins 25e and the direction reference pins 25f, respectively. The diameters of the positioning pins 25e and the positioning holes 23b are set so as to be fitted. On the other hand, the diameters of the direction reference pin 25f and the direction reference hole 23c are set so as to fit gently. That is, the separator lens unit 23 inserts the positioning hole 23b and the direction reference hole 23c into the positioning pin 25e and the direction reference pin 25f of the third attachment part 25d, respectively, so that the direction when attaching to the third attachment part 25d, etc. The posture is defined, and the positioning is performed with respect to the third mounting portion 25d by fitting the positioning hole 23b and the positioning pin 25e. Thus, when the separator lens unit 23 is mounted with its orientation and position determined, the lens surfaces of the separator lenses 23a, 23a,... Face the condenser lens unit 21 and face the mask openings 22a, 22a. become.

こうして、コンデンサレンズユニット21、マスク部材22及びセパレータレンズユニット23は、モジュール枠25に対して位置決めされた状態で取り付けられる。すなわち、これらコンデンサレンズユニット21、マスク部材22及びセパレータレンズユニット23は、モジュール枠25を介して、互いの位置関係が位置決めされる。   Thus, the condenser lens unit 21, the mask member 22, and the separator lens unit 23 are attached while being positioned with respect to the module frame 25. That is, the positional relationship between the condenser lens unit 21, the mask member 22, and the separator lens unit 23 is positioned via the module frame 25.

そして、ラインセンサユニット24が、セパレータレンズユニット23の背面側(コンデンサレンズユニット21と反対側)からモジュール枠25に対して取り付けられる。このとき、ラインセンサユニット24は、各セパレータレンズ23aを透過した光がラインセンサ24aに入射するように位置決めされた状態でモジュール枠25に取り付けられる。   The line sensor unit 24 is attached to the module frame 25 from the back side of the separator lens unit 23 (the side opposite to the condenser lens unit 21). At this time, the line sensor unit 24 is attached to the module frame 25 in a state where the light transmitted through each separator lens 23a is positioned so as to enter the line sensor 24a.

したがって、コンデンサレンズユニット21、マスク部材22、セパレータレンズユニット23及びラインセンサユニット24をモジュール枠25に取り付けることによって、コンデンサレンズ21a,21a,…に入射した光が、該コンデンサレンズ21a,21a,…を透過して、マスク部材22を介してセパレータレンズ23a,23a,…に入射し、セパレータレンズ23a,23a,…を透過した光がラインセンサ24a,24a,…上に結像するように、コンデンサレンズ21a,21a,…、マスク部材22、セパレータレンズ23a,23a,…及びラインセンサ24a,24a,…がそれぞれ位置決めされた状態で配列される。   Therefore, by attaching the condenser lens unit 21, the mask member 22, the separator lens unit 23, and the line sensor unit 24 to the module frame 25, light incident on the condenser lenses 21a, 21a,. Are transmitted through the mask member 22 and incident on the separator lenses 23a, 23a,..., And the light transmitted through the separator lenses 23a, 23a,... Forms an image on the line sensors 24a, 24a,. The lenses 21a, 21a,..., The mask member 22, the separator lenses 23a, 23a,... And the line sensors 24a, 24a,.

このように構成された撮像素子10と位相差検出ユニット20とは、互いに接合される。詳しくは、撮像素子10におけるパッケージ31の開口31cと位相差検出ユニット20におけるコンデンサレンズ21aとが、互いに嵌合するように構成されている。つまり、位相差検出ユニット20におけるコンデンサレンズ21a,21a,…を、撮像素子10におけるパッケージ31の開口31c,31c,…に嵌め込んだ状態で、モジュール枠25をパッケージ31に接着する。こうすることで撮像素子10と位相差検出ユニット20とを互いに位置決めした状態で接合することができる。このように、コンデンサレンズ21a,21a,…、セパレータレンズ23a,23a,…及びラインセンサ24a,24a,…は、一体的にユニット化されると共に、ユニット化された状態でパッケージ31に取り付けられる。   The image sensor 10 and the phase difference detection unit 20 configured as described above are joined to each other. Specifically, the opening 31c of the package 31 in the image sensor 10 and the condenser lens 21a in the phase difference detection unit 20 are configured to fit each other. That is, the module frame 25 is bonded to the package 31 in a state where the condenser lenses 21a, 21a,... In the phase difference detection unit 20 are fitted into the openings 31c, 31c,. By doing so, the imaging device 10 and the phase difference detection unit 20 can be joined in a state of being positioned with respect to each other. In this way, the condenser lenses 21a, 21a,..., The separator lenses 23a, 23a,... And the line sensors 24a, 24a, etc. are integrated into a unit and attached to the package 31 in a united state.

このとき、全ての開口31c,31c,…と全てのコンデンサレンズ21a,21a,…とを互いに嵌合するように構成してもよい。あるいは、そのうちのいくつかの開口31c,31c,…とコンデンサレンズ21a,21a,…だけを嵌合状態とし、残りの開口31c,31c,…とコンデンサレンズ21a,21a,…とは緩やかに嵌るように構成してもよい。後者の場合には、最も撮像面中央に近いコンデンサレンズ21aと開口31cとが嵌合するように構成して撮像面内における位置決めを行い、さらに、撮像面中央から最も離れたコンデンサレンズ21aと開口31cとが嵌合するように構成して撮像面中央のコンデンサレンズ21a及び開口31c回り(即ち、回転角度)の位置決めを行うことが好ましい。   At this time, all the openings 31c, 31c,... And all the condenser lenses 21a, 21a,. Alternatively, only some of the openings 31c, 31c,... And the condenser lenses 21a, 21a,... Are fitted, and the remaining openings 31c, 31c,. You may comprise. In the latter case, the condenser lens 21a closest to the center of the imaging surface and the opening 31c are configured to be fitted to perform positioning within the imaging surface, and further, the condenser lens 21a and the aperture that are farthest from the center of the imaging surface. It is preferable that positioning is performed around the condenser lens 21a and the opening 31c (that is, the rotation angle) in the center of the imaging surface by being configured so as to be fitted with 31c.

こうして、撮像素子10と位相差検出ユニット20とを接合した結果、撮像素子10の背面側には、出射側マスク14bの各通過孔14cごとに、コンデンサレンズ21a、マスク部材22の一対のマスク開口22a,22a、セパレータレンズ23a及びラインセンサ24aが配置される。   In this way, as a result of joining the image sensor 10 and the phase difference detection unit 20, a pair of mask openings of the condenser lens 21a and the mask member 22 are provided on the back side of the image sensor 10 for each of the passage holes 14c of the emission side mask 14b. 22a, 22a, separator lens 23a and line sensor 24a are arranged.

このように、光を透過させるように構成した撮像素子10に対して、撮像素子10を収容するパッケージ31の底板31aに開口31c,31c,…を形成することによって、撮像素子10を透過した光をパッケージ31の背面側まで容易に到達させることができると共に、パッケージ31の背面側に位相差検出ユニット20を配設することによって、撮像素子10を透過した光を位相差検出ユニット20で受光する構成を容易に実現することができる。   In this way, by forming the openings 31c, 31c,... In the bottom plate 31a of the package 31 that accommodates the image sensor 10 with respect to the image sensor 10 configured to transmit light, the light transmitted through the image sensor 10 is formed. Can easily reach the back side of the package 31, and the phase difference detection unit 20 is disposed on the back side of the package 31 so that the light transmitted through the image sensor 10 is received by the phase difference detection unit 20. The configuration can be easily realized.

また、パッケージ31の底板31aに形成される開口31c,31c,…は撮像素子10を透過した光をパッケージ31の背面側に通過させる構成であれば任意の構成を採用することができるが、貫通孔である開口31c,31c,…を形成することによって、撮像素子10を透過した光を減衰させることなくパッケージ31の背面側まで到達させることができる。   In addition, the openings 31c, 31c,... Formed in the bottom plate 31a of the package 31 may adopt any configuration as long as the configuration allows the light transmitted through the image sensor 10 to pass through to the back side of the package 31. By forming the openings 31c, 31c,... Which are holes, the light transmitted through the image sensor 10 can reach the back side of the package 31 without being attenuated.

また、コンデンサレンズ21a,21a,…を開口31c,31c,…に嵌合させることによって、開口31c,31c,…を利用して、撮像素子10に対する位相差検出ユニット20の位置決めを行うことができる。尚、コンデンサレンズ21a,21a,…を設けない場合は、セパレータレンズ23a,23a,…を開口31c,31c,…に嵌合させるように構成すれば、同様に、撮像素子10に対する位相差検出ユニット20の位置決めを行うことができる。   Further, the phase difference detection unit 20 can be positioned with respect to the image sensor 10 by using the openings 31c, 31c,... By fitting the condenser lenses 21a, 21a,. . In the case where the condenser lenses 21a, 21a,... Are not provided, the phase difference detection unit for the image sensor 10 can be similarly formed by configuring the separator lenses 23a, 23a,. 20 positionings can be performed.

それと共に、コンデンサレンズ21a,21a,…にパッケージ31の底板31aを貫かせて、基板11aに接近させて配設することができるため、撮像ユニット1をコンパクトに構成することができる。   At the same time, the bottom plate 31a of the package 31 can be passed through the condenser lenses 21a, 21a,... And close to the substrate 11a, so that the imaging unit 1 can be configured compactly.

また、撮像素子10の出射側マスク14bには、通過孔14cが3つ形成されると共に、コンデンサレンズ21a,セパレータレンズ23a及びラインセンサ24aが通過孔14c,14c,14cに対応して3セット設けられているが、これに限られるものではない。これらの個数は3つに限定されるものではなく、任意の個数に設定し得る。例えば、図7に示すように、9つの通過孔14c,14c,…を形成すると共に、コンデンサレンズ21a,セパレータレンズ23a及びラインセンサ24aを9セット設けるようにしてもよい。   Further, three passage holes 14c are formed in the exit side mask 14b of the image sensor 10, and three sets of condenser lenses 21a, separator lenses 23a, and line sensors 24a are provided corresponding to the passage holes 14c, 14c, 14c. However, it is not limited to this. The number of these is not limited to three, and can be set to an arbitrary number. For example, as shown in FIG. 7, nine passing holes 14c, 14c,... May be formed, and nine sets of condenser lens 21a, separator lens 23a, and line sensor 24a may be provided.

このように構成された撮像ユニット1の動作について、以下に説明する。   The operation of the imaging unit 1 configured as described above will be described below.

撮像ユニット1に被写体からの光が入射すると、該光は、カバーガラス33を透過し、ガラス基板19に入射する。該光は、ガラス基板19を透過して撮像素子10の基板11aの裏面に入射する。このとき、該光は、カラーフィルタ15r,15g,15bを透過することにより各カラーフィルタ15に対応した色の光だけが基板11aに入射する。基板11aに入射した光は、該基板11aを透過して、基板11a表面の受光部11b,11b,…に到達する。基板11aの表面には、入射側マスク14aが設けられているため、垂直レジスタ12や転送路13には光が入射せず、受光部11b,11b,…にだけ光が入射する。各受光部11bは光を吸収して電荷を発生する。ここで、受光部11bに入射した光は、全てが該受光部11bに吸収されるわけではなく、その一部は該受光部11bを透過するが、該受光部11bを透過した位置には出射側マスク14bが設けられているため、受光部11bを透過した光は出射側マスク14bで反射して、再び、受光部11bに入射する。受光部11bで発生した電荷は垂直レジスタ12及び転送路13を介して増幅器に送られ、電気信号として出力される。こうして、撮像素子10は、その撮像面全体において各受光部11bが光を電気信号に変換することによって、撮像面に形成された被写体像を、画像信号を作成するための電気信号に変換する。   When light from the subject enters the imaging unit 1, the light passes through the cover glass 33 and enters the glass substrate 19. The light passes through the glass substrate 19 and enters the back surface of the substrate 11 a of the image sensor 10. At this time, the light passes through the color filters 15r, 15g, and 15b, so that only light of a color corresponding to each color filter 15 enters the substrate 11a. The light incident on the substrate 11a passes through the substrate 11a and reaches the light receiving portions 11b, 11b,... On the surface of the substrate 11a. Since the incident side mask 14a is provided on the surface of the substrate 11a, light does not enter the vertical register 12 or the transfer path 13, and light enters only the light receiving portions 11b, 11b,. Each light receiving portion 11b absorbs light and generates electric charges. Here, not all of the light incident on the light receiving portion 11b is absorbed by the light receiving portion 11b, and a part of the light is transmitted through the light receiving portion 11b, but is emitted to a position where it has passed through the light receiving portion 11b. Since the side mask 14b is provided, the light transmitted through the light receiving portion 11b is reflected by the emission side mask 14b and enters the light receiving portion 11b again. The electric charge generated in the light receiving unit 11b is sent to the amplifier via the vertical register 12 and the transfer path 13, and is output as an electric signal. In this way, the image sensor 10 converts the subject image formed on the imaging surface into an electrical signal for creating an image signal by the light receiving units 11b converting the light into electrical signals on the entire imaging surface.

ただし、出射側マスク14bの通過孔14c,14c,…では、撮像素子10の受光部11b,11b,…を透過した光が、撮像素子10の背面側へ出射する。そして、撮像素子10を透過した光は、パッケージ31の開口31c,31c,…に嵌合されたコンデンサレンズ21a,21a,…へ入射する。各コンデンサレンズ21aを透過することにより集光された光は、マスク部材22に形成された各対のマスク開口22a,22aを通過する際に2つの光束に分割されて各セパレータレンズ23aに入射する。こうして瞳分割された光は、セパレータレンズ23aを透過して、ラインセンサ24a上の2つの位置に同一の被写体像として結像する。ラインセンサ24aは、光電変換により被写体像から電気信号を作成し出力する。   However, the light transmitted through the light receiving portions 11b, 11b,... Of the image sensor 10 exits to the back side of the image sensor 10 through the passage holes 14c, 14c,. And the light which permeate | transmitted the image pick-up element 10 injects into the condenser lenses 21a, 21a, ... fitted to the openings 31c, 31c, ... of the package 31. The light condensed by passing through each condenser lens 21a is divided into two light beams when passing through each pair of mask openings 22a, 22a formed in the mask member 22, and enters each separator lens 23a. . The light thus divided into pupils passes through the separator lens 23a and forms an identical subject image at two positions on the line sensor 24a. The line sensor 24a creates and outputs an electrical signal from the subject image by photoelectric conversion.

続いて、撮像素子10で変換した電気信号についてのボディマイコン50での処理について説明する。   Next, processing in the body microcomputer 50 for the electrical signal converted by the image sensor 10 will be described.

撮像素子10から出力される電気信号は、撮像ユニット制御部52を介してボディマイコン50に入力される。そして、ボディマイコン50は、各受光部11bの位置情報と該受光部11bの受光光量に対応した出力データとを撮像素子10の撮像面全体から得ることによって、撮像面に形成された被写体像を、電気信号として取得する。   An electrical signal output from the image sensor 10 is input to the body microcomputer 50 via the image capturing unit controller 52. Then, the body microcomputer 50 obtains the subject image formed on the imaging surface by obtaining the position information of each light receiving unit 11b and the output data corresponding to the amount of light received by the light receiving unit 11b from the entire imaging surface of the image sensor 10. Get as an electrical signal.

ここで、受光部11b,11b,…では同じ光量の光を受光しても光の波長が異なると蓄積電荷量が異なるため、撮像素子10の受光部11b,11b,…からの出力はそれぞれに設けられているカラーフィルタ15r,15g,15bの種類に応じて補正される。例えば、赤のカラーフィルタ15rが設けられたR画素11b、緑のカラーフィルタ15gが設けられたG画素11b及び青のカラーフィルタ15bが設けられたB画素11bがそれぞれのカラーフィルタに対応する色の光を同じ光量だけ受光したときに、R画素11b、G画素11b、B画素11bからの出力が同じレベルとなるように各画素の補正量が設定される。   Here, even if the light receiving units 11b, 11b,... Receive the same amount of light, the accumulated charge amounts differ depending on the wavelength of the light, so that the outputs from the light receiving units 11b, 11b,. Correction is performed according to the type of the color filters 15r, 15g, and 15b provided. For example, an R pixel 11b provided with a red color filter 15r, a G pixel 11b provided with a green color filter 15g, and a B pixel 11b provided with a blue color filter 15b have colors corresponding to the respective color filters. When the same amount of light is received, the correction amount of each pixel is set so that the outputs from the R pixel 11b, the G pixel 11b, and the B pixel 11b are at the same level.

それに加えて、本実施形態では出射側マスク14bの通過孔14c,14c,…を設けることによって、撮像素子10のうち通過孔14c,14c,…に対応する部分の受光量が、それ以外の部分に比べて少なくなる。その結果、通過孔14c,14c,…に対応する位置に設けられた画素11b,11b,…から出力された出力データにそれ以外の部分に設けられた画素11b,11b,…から出力された出力データと同様の画像処理を施したのでは、通過孔14c,14c,…に対応する部分の画像が適切に撮影されない(例えば、暗く撮影されてしまう)可能性がある。そこで、通過孔14c,14c,…における各画素11bの出力を、通過孔14c,14c,…の影響がなくなるように補正(例えば、通過孔14c,14c,…における各画素11bの出力を増幅する等)する。   In addition, in this embodiment, by providing the passage holes 14c, 14c,... Of the emission side mask 14b, the amount of received light in the portion corresponding to the passage holes 14c, 14c,. Less than As a result, the output data output from the pixels 11b, 11b,... Provided at the positions corresponding to the through holes 14c, 14c,. When image processing similar to that of data is performed, there is a possibility that images of portions corresponding to the passage holes 14c, 14c,... Are not properly captured (for example, they are captured darkly). Therefore, the output of each pixel 11b in the passage holes 14c, 14c,... Is corrected so as to eliminate the influence of the passage holes 14c, 14c,... (For example, the output of each pixel 11b in the passage holes 14c, 14c,. Etc.)

また、この出力の低下は、光の波長により異なる。具体的には、波長が長いほど、基板11aの透過率が高くなるため、通過孔14cによる出力の低下も大きくなる。そのため、カラーフィルタ15r,15g,15bの種類により、通過孔14cによる出力の低下に差が生じる。そこで、通過孔14cに対応する各画素11bについての通過孔14cの影響をなくす補正は、該各画素11bが受光する光の波長に応じて補正量を異ならせている。具体的には、通過孔14cに対応する各画素11bについて、該各画素11bが受光する光の波長が長いほど補正量を大きくしている。   Further, the reduction in output varies depending on the wavelength of light. Specifically, the longer the wavelength, the higher the transmittance of the substrate 11a, and the greater the decrease in output due to the passage hole 14c. Therefore, there is a difference in the decrease in output due to the passage hole 14c depending on the type of the color filters 15r, 15g, and 15b. Accordingly, the correction for eliminating the influence of the passage hole 14c on each pixel 11b corresponding to the passage hole 14c is made different in accordance with the wavelength of the light received by each pixel 11b. Specifically, for each pixel 11b corresponding to the passage hole 14c, the correction amount is increased as the wavelength of light received by each pixel 11b is longer.

ここで、各画素11bでは、前述の如く、受光する色の種類による蓄積電荷量の差をなくすための補正量が設定されており、この色の種類による蓄積電荷量の差をなくす補正に加えて、通過孔14cの影響をなくす補正がなされる。すなわち、通過孔14cの影響をなくす補正の補正量は、通過孔14cに対応する各画素11bについての補正量と、通過孔14c以外の位置に対応する画素11bであって且つ同じ色を受光する画素11bについての補正量との差となる。本実施形態では、以下に示す関係で色ごとに補正量を異ならせている。こうすることで安定した画像出力を得ることができる。   Here, in each pixel 11b, as described above, a correction amount for eliminating the difference in accumulated charge amount depending on the type of light received is set, and in addition to the correction for eliminating the difference in accumulated charge amount due to this color type. Thus, the correction for eliminating the influence of the passage hole 14c is made. That is, the correction amount for correcting the influence of the passage hole 14c is the correction amount for each pixel 11b corresponding to the passage hole 14c and the pixel 11b corresponding to a position other than the passage hole 14c and receiving the same color. This is the difference from the correction amount for the pixel 11b. In the present embodiment, the correction amount is varied for each color according to the relationship shown below. By doing so, a stable image output can be obtained.

Rk>Gk>Bk ・・・(1)
ここで、
Rk:通過孔14cのR画素補正量−通過孔14c以外のR画素補正量
Gk:通過孔14cのG画素補正量−通過孔14c以外のG画素補正量
Bk:通過孔14cのB画素補正量−通過孔14c以外のB画素補正量
とする。
Rk>Gk> Bk (1)
here,
Rk: R pixel correction amount of the passage hole 14c−R pixel correction amount other than the passage hole 14c Gk: G pixel correction amount of the passage hole 14c−G pixel correction amount other than the passage hole 14c Bk: B pixel correction amount of the passage hole 14c -It is set as B pixel correction amount other than the passage hole 14c.

すなわち、赤、緑、青の3色のうち長波長である赤が最も透過率が高いため、赤の画素での補正量の差が最も大きい。また、該3色のうち短波長である青が最も透過率が低いため、青の画素での補正量の差が最も小さい。   That is, among the three colors of red, green, and blue, red, which has a long wavelength, has the highest transmittance, so that the difference in correction amount at the red pixel is the largest. In addition, since blue, which has a short wavelength among the three colors, has the lowest transmittance, the difference in the correction amount between the blue pixels is the smallest.

つまり、撮像素子10の各画素11bの出力の補正量は、各画素11bが通過孔14cに対応する位置に位置するか否か、および、各画素11bに対応するカラーフィルタ15の色の種類に基づいて決定される。各補正量は、例えば、通過孔14cに対応する画素11bからの出力と通過孔14c以外の位置に対応する画素11bからの出力とにより表示される画像のホワイトバランス及び/又は輝度が等しくなるように決定される。   That is, the correction amount of the output of each pixel 11b of the image sensor 10 depends on whether or not each pixel 11b is located at a position corresponding to the passage hole 14c and the color type of the color filter 15 corresponding to each pixel 11b. To be determined. Each correction amount is set so that, for example, the white balance and / or luminance of the displayed image are equal by the output from the pixel 11b corresponding to the passage hole 14c and the output from the pixel 11b corresponding to a position other than the passage hole 14c. To be determined.

ボディマイコン50は、受光部11b,11b,…からの出力データをこのように補正した後、該出力データに基づいて、各受光部、即ち、画素11bにおける位置情報、色情報及び輝度情報とを含む画像信号を作成する。こうして、撮像素子10の撮像面上に結像された被写体像の画像信号が得られる。   The body microcomputer 50 corrects the output data from the light receiving portions 11b, 11b,... In this way, and then, based on the output data, the position information, color information, and luminance information in each light receiving portion, that is, the pixel 11b. Create an image signal containing. Thus, an image signal of the subject image formed on the imaging surface of the image sensor 10 is obtained.

このように撮像素子10からの出力を補正することによって、通過孔14c,14c,…が設けられた撮像素子10であっても、被写体像を適切に撮影することができる。   By correcting the output from the image sensor 10 in this way, the subject image can be appropriately captured even in the image sensor 10 provided with the passage holes 14c, 14c,.

一方、ラインセンサユニット24から出力される電気信号も、ボディマイコン50に入力される。そして、ボディマイコン50は、ラインセンサユニット24からの出力に基づいて、ラインセンサ24a上に結像する2つの被写体像の間隔を求め、求めた間隔から、撮像素子10に結像する被写体像の焦点状態を検出することができる。例えば、ラインセンサ24a上に結像する2つの被写体像は、撮像レンズを透過して撮像素子10に結像する被写体像が正確に結像しているとき(合焦)には、所定の基準間隔を開けて所定の基準位置に位置する。それに対し、被写体像が撮像素子10よりも光軸方向手前側に結像しているとき(前ピン)には、2つの被写体像の間隔が合焦時の基準間隔よりも狭くなる。一方、被写体像が撮像素子10よりも光軸方向奥側に結像しているとき(後ピン)には、2つの被写体像の間隔が合焦時の基準間隔よりも広くなる。つまり、ラインセンサ24aからの出カを増幅した後、演算回路にて演算することによって、合焦か非合焦か、前ピンか後ピンか、Df量はどの位かを知ることができる。   On the other hand, an electrical signal output from the line sensor unit 24 is also input to the body microcomputer 50. Based on the output from the line sensor unit 24, the body microcomputer 50 obtains the interval between the two subject images formed on the line sensor 24a, and uses the obtained interval to determine the subject image to be imaged on the image sensor 10. The focus state can be detected. For example, the two subject images formed on the line sensor 24a have a predetermined reference when the subject image formed on the image sensor 10 through the imaging lens is accurately formed (focused). Positioned at a predetermined reference position with a gap. On the other hand, when the subject image is formed in front of the image sensor 10 in the optical axis direction (front pin), the interval between the two subject images is narrower than the reference interval at the time of focusing. On the other hand, when the subject image is formed behind the image sensor 10 in the optical axis direction (rear pin), the interval between the two subject images is wider than the reference interval at the time of focusing. That is, after amplifying the output from the line sensor 24a, it is possible to know whether the in-focus state or the out-of-focus state, the front pin or the rear pin, or the amount of Df by calculating with the arithmetic circuit.

−カメラの動作説明−
このように構成されたカメラ100の動作について、図8,9を参照しながら説明する。図8は、レリーズボタンが全押しされるまでのカメラ100の動作を示すフローチャート図であり、図9は、レリーズボタンが全押しされた後のカメラ100の動作を示すフローチャート図である。
-Explanation of camera operation-
The operation of the camera 100 configured as described above will be described with reference to FIGS. FIG. 8 is a flowchart showing the operation of the camera 100 until the release button is fully pressed, and FIG. 9 is a flowchart showing the operation of the camera 100 after the release button is fully pressed.

以下の各動作は、主に、ボディマイコン50によって制御されている。   The following operations are mainly controlled by the body microcomputer 50.

まず、電源スイッチ40aがONされると(ステップSt1)、カメラ本体4と交換レンズ7との交信が行われる(ステップSt2)。詳しくは、カメラ本体4内のボディマイコン50及び各種ユニットに電力が供給され、ボディマイコン50が起動する。同時に、電気切片41a,71aを介して、交換レンズ7内のレンズマイコン80及び各種ユニットに電極が供給され、レンズマイコン80が起動する。ボディマイコン50及びレンズマイコン80は、起動時に互いに情報を送受信するようプログラミングされており、例えばレンズマイコン80のメモリ部からボディマイコン50へ交換レンズ7に関するレンズ情報が送信され、このレンズ情報はボディマイコン50のメモリ部に格納される。   First, when the power switch 40a is turned on (step St1), communication between the camera body 4 and the interchangeable lens 7 is performed (step St2). Specifically, power is supplied to the body microcomputer 50 and various units in the camera body 4, and the body microcomputer 50 is activated. At the same time, electrodes are supplied to the lens microcomputer 80 and various units in the interchangeable lens 7 via the electrical sections 41a and 71a, and the lens microcomputer 80 is activated. The body microcomputer 50 and the lens microcomputer 80 are programmed to transmit and receive information to each other at the time of activation. For example, lens information relating to the interchangeable lens 7 is transmitted from the memory unit of the lens microcomputer 80 to the body microcomputer 50. 50 memory units.

続いて、ボディマイコン50は、レンズマイコン80を介してフォーカスレンズ群72を予め設定された所定の基準位置に位置させる(ステップSt3)と共に、それと並行して、シャッタユニット42を開状態にする(ステップSt4)。その後、ステップSt5へ進み、撮影者によりレリーズボタン40bが半押しされるまで待機する。   Subsequently, the body microcomputer 50 positions the focus lens group 72 at a predetermined reference position set in advance via the lens microcomputer 80 (step St3), and at the same time, opens the shutter unit 42 (see FIG. Step St4). Thereafter, the process proceeds to step St5 and waits until the photographer presses the release button 40b halfway.

こうすることで、交換レンズ7を透過して、カメラ本体4内に入射した光は、シャッタユニット42を通過して、さらにIRカット兼OLPF43を透過し、撮像ユニット1へ入射する。そして、撮像ユニット1にて結像した被写体像は画像表示部44に表示され、撮影者は画像表示部44を介して被写体の正立像を観察できる。詳しくは、ボディマイコン50は、撮像ユニット制御部52を介して撮像素子10からの電気信号を一定の周期で読み込み、読み込んだ電気信号に対して所定の画像処理を施した後、画像信号を作成し、画像表示制御部55を制御して画像表示部44にライブビュー画像を表示させる。   By doing so, the light that has passed through the interchangeable lens 7 and entered the camera body 4 passes through the shutter unit 42, further passes through the IR cut / OLPF 43, and enters the imaging unit 1. The subject image formed by the imaging unit 1 is displayed on the image display unit 44, and the photographer can observe an erect image of the subject via the image display unit 44. Specifically, the body microcomputer 50 reads an electrical signal from the image sensor 10 via the imaging unit control unit 52 at a constant cycle, performs predetermined image processing on the read electrical signal, and then creates an image signal. Then, the image display control unit 55 is controlled to display the live view image on the image display unit 44.

また、撮像ユニット1へ入射した光の一部は、撮像素子10を透過して位相差検出ユニット20へ入射する。   Further, part of the light incident on the imaging unit 1 passes through the imaging element 10 and enters the phase difference detection unit 20.

ここで、撮影者によりレリーズボタン40bが半押しされる(即ち、S1スイッチ(図示省略)がONされる)と(ステップSt5)、ボディマイコン50は、位相差検出ユニット20のラインセンサ24aからの出カを増幅した後、演算回路にて演算して、合焦か非合焦かを検出する(ステップSt6)。さらに、ボディマイコン50は、前ピンか後ピンか、デフォーカス量はどの位かを求め、デフォーカス情報を取得する(ステップSt7)。その後、ステップSt10へ進む。   Here, when the release button 40b is half-pressed by the photographer (that is, the S1 switch (not shown) is turned on) (step St5), the body microcomputer 50 receives the signal from the line sensor 24a of the phase difference detection unit 20. After the output is amplified, it is calculated by an arithmetic circuit to detect whether it is in focus or not in focus (step St6). Furthermore, the body microcomputer 50 obtains the defocus information by obtaining the front pin or the rear pin and how much the defocus amount is (step St7). Thereafter, the process proceeds to step St10.

ここで、本実施形態に係る位相差検出ユニット20は、コンデンサレンズ21a、マスク開口22a,22a、セパレータレンズ23a及びラインセンサ24aのセットを3セット、即ち、位相差検出方式の焦点検出を行う測距ポイントを3つ有している。そして、位相差検出では、撮影者が任意に選択した測距ポイントに対応したセットのラインセンサ24aの出力に基づいてフォーカスレンズ群72を駆動させる。   Here, the phase difference detection unit 20 according to the present embodiment includes three sets of the condenser lens 21a, the mask openings 22a and 22a, the separator lens 23a, and the line sensor 24a, that is, measurement that performs focus detection by the phase difference detection method. There are three distance points. In the phase difference detection, the focus lens group 72 is driven based on the output of the set of line sensors 24a corresponding to the distance measuring points arbitrarily selected by the photographer.

あるいは、複数の測距ポイントのうち、最もカメラと被写体とが近接した測距ポイントを選択してフォーカスレンズ群72の駆動を行うように、ボディマイコン50に自動最適化アルゴリズムを設定しておいてもよい。この場合、中抜け写真などが発生する確率を低減することができる。   Alternatively, an automatic optimization algorithm is set in the body microcomputer 50 so that the focus lens group 72 is driven by selecting the distance measurement point closest to the camera and the subject from among the plurality of distance measurement points. Also good. In this case, it is possible to reduce the probability that a hollow photo or the like will occur.

一方、ステップSt6,St7と並行して、測光を行う(ステップSt8)と共に、像ブレ検出を開始する(ステップSt9)。   On the other hand, in parallel with steps St6 and St7, photometry is performed (step St8) and image blur detection is started (step St9).

すなわち、ステップSt8においては、撮像素子10によって該撮像素子10に入射してくる光の光量が測定される。つまり、本実施形態においては、撮像素子10に入射して該撮像素子10を透過した光を用いて上述の位相差検出を行っているため、該位相差検出と並行して、撮像素子10を用いて測光を行うことができる。   That is, in step St8, the amount of light incident on the image sensor 10 is measured by the image sensor 10. That is, in the present embodiment, since the above-described phase difference detection is performed using the light that has entered the image sensor 10 and has passed through the image sensor 10, the image sensor 10 is mounted in parallel with the phase difference detection. Can be used for photometry.

詳しくは、ボディマイコン50が、撮像ユニット制御部52を介して撮像素子10からの電気信号を取り込み、該電気信号に基づいて被写体光の強度を測定することによって測光を行う。そして、ボディマイコン50は、測光の結果から、撮影モードに応じた露光時におけるシャッタスピードと絞り値を所定のアルゴリズムに従って決定する。   Specifically, the body microcomputer 50 performs photometry by taking in an electrical signal from the image sensor 10 via the imaging unit controller 52 and measuring the intensity of the subject light based on the electrical signal. Then, the body microcomputer 50 determines the shutter speed and aperture value at the time of exposure according to the photographing mode from the photometric result according to a predetermined algorithm.

そして、ステップSt8において測光が終了すると、ステップSt9において像ブレ検出を開始する。尚、ステップSt8とステップSt9とは並行して行ってもよい。   Then, when the photometry is finished in step St8, image blur detection is started in step St9. Note that step St8 and step St9 may be performed in parallel.

その後、ステップSt10へ進む。尚、ステップSt9の後は、ステップSt10ではなく、ステップSt12へ進んでもよい。   Thereafter, the process proceeds to step St10. In addition, after step St9, you may progress to step St12 instead of step St10.

このように、本実施形態においては、撮像素子10に入射して該撮像素子10を透過した光を用いて上述の位相差に基づく焦点検出を行っているため、該焦点検出と並行して、撮像素子10を用いて測光を行うことができる。   As described above, in the present embodiment, since the focus detection based on the above-described phase difference is performed using the light incident on the image sensor 10 and transmitted through the image sensor 10, in parallel with the focus detection, Photometry can be performed using the image sensor 10.

ステップSt10では、ボディマイコン50は、ステップSt7で取得したデフォーカス情報に基づいて、フォーカスレンズ群72を駆動する。   In step St10, the body microcomputer 50 drives the focus lens group 72 based on the defocus information acquired in step St7.

そして、ボディマイコン50は、コントラストピークが検出されたか否かを判定する(ステップSt11)。コントラストピークが検出されていない(NO)ときにはフォーカスレンズ群72の駆動(ステップSt10)を繰り返す一方、コントラストピークが検出された(YES)ときにはフォーカスレンズ群72の駆動を停止して、フォーカスレンズ群72をコントラスト値がピークとなった位置まで移動させた後、ステップSt11へ進む。   Then, the body microcomputer 50 determines whether or not a contrast peak has been detected (step St11). When the contrast peak is not detected (NO), the drive of the focus lens group 72 is repeated (step St10), while when the contrast peak is detected (YES), the drive of the focus lens group 72 is stopped and the focus lens group 72 is stopped. Is moved to a position where the contrast value reaches a peak, and then the process proceeds to step St11.

具体的には、ステップSt7で算出したデフォーカス量に基づいて合焦位置と予測される位置よりも前後に離れた位置までフォーカスレンズ群72を高速で駆動する。その後、合焦位置と予測される位置に向かってフォーカスレンズ群72を低速で駆動しながらコントラストピークを検出する。   Specifically, the focus lens group 72 is driven at a high speed to a position farther forward and backward than the position predicted as the in-focus position based on the defocus amount calculated in step St7. Thereafter, the contrast peak is detected while the focus lens group 72 is driven at a low speed toward the predicted position as the in-focus position.

また、撮影者によりレリーズボタン40bが半押しされると、画像表示部44には、撮影画像と共に撮影に係る各種情報表示が表示され、撮影者は画像表示部44を介して各種情報を確認することができる。   When the release button 40b is pressed halfway by the photographer, various information related to photographing is displayed together with the photographed image on the image display unit 44, and the photographer confirms various information via the image display unit 44. be able to.

ステップSt12では、撮影者にレリーズボタン40bが全押しされる(即ち、S2スイッチ(図示省略)がONされる)まで待機する。撮影者によりレリーズボタン40bが全押しされると、ボディマイコン50は、シャッタユニット42を一旦、閉状態にする(ステップSt13)。こうして、シャッタユニット42を閉状態にしている間に、後述する露光に備えて、撮像素子10の受光部11b,11b,…に蓄積されている電荷を転送してしまう。   In step St12, the process waits until the photographer fully presses the release button 40b (that is, the S2 switch (not shown) is turned on). When the release button 40b is fully pressed by the photographer, the body microcomputer 50 temporarily closes the shutter unit 42 (step St13). Thus, while the shutter unit 42 is in the closed state, the charges accumulated in the light receiving portions 11b, 11b,...

その後、ボディマイコン50は、カメラ本体4と交換レンズ7との交信情報、又は撮影者の任意の指定情報を基に像ブレの補正を開始する(ステップSt14)。具体的には、カメラ本体4内のブレ検出部56の情報を基に交換レンズ7内のブレ補正レンズ駆動部74aを駆動する。また、撮影者の意図に応じて、(i)交換レンズ7内のブレ検出部84とブレ補正レンズ駆動部74aを用いる、(ii)カメラ本体4内のブレ検出部56とブレ補正ユニット45を用いる、(iii)交換レンズ7内のブレ検出部84とカメラ本体4内のブレ補正ユニット45を用いる、の何れかが選択可能である。   Thereafter, the body microcomputer 50 starts correction of image blur based on communication information between the camera body 4 and the interchangeable lens 7 or arbitrary designation information of the photographer (step St14). Specifically, the blur correction lens driving unit 74 a in the interchangeable lens 7 is driven based on information from the blur detection unit 56 in the camera body 4. Further, according to the photographer's intention, (i) the blur detection unit 84 and the blur correction lens driving unit 74a in the interchangeable lens 7 are used, and (ii) the blur detection unit 56 and the blur correction unit 45 in the camera body 4 are provided. Either (iii) using the blur detection unit 84 in the interchangeable lens 7 or the blur correction unit 45 in the camera body 4 can be selected.

尚、像ブレ補正手段の駆動開始は、レリーズボタン40b半押し時点から開始することで、合焦させたい被写体の動きが軽減され、AFをより正確に行うことが可能となる。   The driving of the image blur correction unit is started when the release button 40b is half-pressed, so that the movement of the subject to be focused is reduced and AF can be performed more accurately.

また、ボディマイコン50は、像ブレの補正開始と並行して、ステップSt8における測光の結果から求められた絞り値となるようにレンズマイコン80を介して絞り部73を絞り込む(ステップSt15)。   In parallel with the start of image blur correction, the body microcomputer 50 narrows down the diaphragm 73 via the lens microcomputer 80 so that the diaphragm value obtained from the photometric result in step St8 is obtained (step St15).

こうして、像ブレの補正が開始されると共に、絞り込みが完了すると、ボディマイコン50は、ステップSt8における測光の結果から求められたシャッタスピードに基づいてシャッタユニット42を開状態にする(ステップSt16)。こうして、シャッタユニット42を開状態にすることで、被写体からの光が撮像素子10に入射するようになり、撮像素子10では所定時間だけ電荷の蓄積を行う(ステップSt17)。   In this way, the correction of image blur is started, and when the narrowing is completed, the body microcomputer 50 opens the shutter unit 42 based on the shutter speed obtained from the photometric result in step St8 (step St16). Thus, by opening the shutter unit 42, the light from the subject enters the image sensor 10, and the image sensor 10 accumulates charges for a predetermined time (step St17).

そして、ボディマイコン50は、該シャッタスピードに基づいて、シャッタユニット42を閉状態にして、露光を終了する(ステップSt18)。露光完了後、ボディマイコン50では、撮像ユニット制御部52を介して撮像ユニット1から画像データを読み出し、所定の画像処理後、画像読み出し/記録部53を介して画像表示制御部55へ画像データを出力する。これにより、画像表示部44へ撮影画像が表示される。また、ボディマイコン50は、必要に応じて、画像記録制御部54を介して画像格納部58に画像データを格納する。   Then, the body microcomputer 50 closes the shutter unit 42 based on the shutter speed, and ends the exposure (step St18). After the exposure is completed, the body microcomputer 50 reads the image data from the imaging unit 1 via the imaging unit control unit 52, and after the predetermined image processing, the image data is sent to the image display control unit 55 via the image reading / recording unit 53. Output. As a result, the captured image is displayed on the image display unit 44. The body microcomputer 50 stores image data in the image storage unit 58 via the image recording control unit 54 as necessary.

その後、ボディマイコン50は、像ブレ補正を終了する(ステップSt19)共に、絞り部73を開放する(ステップSt20)。そして、ボディマイコン50は、シャッタユニット42を開状態とする(ステップSt21)。   Thereafter, the body microcomputer 50 ends the image blur correction (step St19) and opens the diaphragm 73 (step St20). Then, the body microcomputer 50 opens the shutter unit 42 (step St21).

レンズマイコン80は、リセットが完了すると、ボディマイコン50にリセット完了を伝える。ボディマイコン50は、レンズマイコン80からのリセット完了情報と露光後の一連処理の完了を待ち、その後、レリーズボタン40bの状態が、押し込みされていないことを確認し、撮影シーケンスを終了する。その後、ステップSt5へ戻り、レリーズボタン40bが半押しされるまで待機する。   When the reset is completed, the lens microcomputer 80 notifies the body microcomputer 50 of the completion of the reset. The body microcomputer 50 waits for the reset completion information from the lens microcomputer 80 and the completion of the series of processes after exposure, and then confirms that the state of the release button 40b is not depressed, and ends the photographing sequence. Thereafter, the process returns to step St5 and waits until the release button 40b is half-pressed.

尚、電源スイッチ40aがOFFされる(ステップSt22)と、ボディマイコン50は、フォーカスレンズ群72を予め設定された所定の基準位置に移動させる(ステップSt23)と共に、シャッタユニット42を閉状態にする(ステップSt24)。そして、カメラ本体4内のボディマイコン50及び各種ユニット、並びに交換レンズ7内のレンズマイコン80及び各種ユニットの作動を停止する。   When the power switch 40a is turned off (step St22), the body microcomputer 50 moves the focus lens group 72 to a predetermined reference position set in advance (step St23) and closes the shutter unit 42. (Step St24). Then, the operation of the body microcomputer 50 and various units in the camera body 4 and the lens microcomputer 80 and various units in the interchangeable lens 7 are stopped.

このように、本実施形態のAF動作では、まず、位相差検出ユニット20によってデフォーカス情報を取得し、これらのデフォーカス情報に基づいてフォーカスレンズ群72を駆動する。そして、撮像素子10からの出力に基づいて算出されるコントラスト値がピークとなるフォーカスレンズ群72の位置を検出し、フォーカスレンズ群72を該位置に位置させる。こうすることで、フォーカスレンズ群72の駆動前にデフォーカス情報を検出することができるため、従来のコントラスト検出方式AFのようにフォーカスレンズ群72をとりあえず駆動してみるというステップが必要ないため、オートフォーカスの処理時間を短縮することができる。また、最終的にはコントラスト検出方式AFによって焦点を合わすため、ダイレクトにコントラストピークを捕らえることが可能となり、位相差検出方式AFと異なり、開放バック補正(絞りの開口度合いによるピントズレ)などの様々な補正演算が必要ないため高精度なピント性能を得ることができる。特に繰り返しパターンのある被写体やコントラストが極端に低い被写体などに対して、従来の位相差検出方式AFよりも精度良く焦点を合わせることができる。   Thus, in the AF operation of this embodiment, first, the defocus information is acquired by the phase difference detection unit 20, and the focus lens group 72 is driven based on the defocus information. Then, the position of the focus lens group 72 where the contrast value calculated based on the output from the image sensor 10 reaches a peak is detected, and the focus lens group 72 is positioned at this position. In this way, since defocus information can be detected before the focus lens group 72 is driven, there is no need to drive the focus lens group 72 for the time being as in the conventional contrast detection method AF. The autofocus processing time can be shortened. In addition, since the focus is finally adjusted by the contrast detection method AF, it is possible to directly capture the contrast peak, and unlike the phase difference detection method AF, there are various methods such as open back correction (focus shift due to the aperture opening degree). Since no correction calculation is required, a highly accurate focus performance can be obtained. In particular, it is possible to focus on a subject with a repetitive pattern or a subject with extremely low contrast with higher accuracy than the conventional phase difference detection method AF.

そして、本実施形態のAF動作では位相差検出を含んでいるにもかかわらず、撮像素子10を透過した光を用いて位相差検出ユニット20によりデフォーカス情報を取得しているため、撮像素子10による測光と位相差検出ユニット20によるデフォーカス情報の取得とを並行して行うことができる。すなわち、位相差検出ユニット20は撮像素子10を透過した光を受けてデフォーカス情報を取得するため、デフォーカス情報を取得する際には必ず、被写体からの光が撮像素子10に照射されている。そこで、オートフォーカス時に撮像素子10を透過する光を用いて測光を行う。こうすることで、測光用のセンサを別途設ける必要がなくなると共に、レリーズボタン40bが全押しされる前に測光を行っておくことができるため、レリーズボタン40bが全押しされてから露光が完了するまでの時間(以下、レリーズタイムラグともいう)を短縮することができる。   Since the AF operation of the present embodiment includes phase difference detection, the defocus information is acquired by the phase difference detection unit 20 using light transmitted through the image sensor 10. Metering and acquisition of defocus information by the phase difference detection unit 20 can be performed in parallel. That is, since the phase difference detection unit 20 receives the light transmitted through the image sensor 10 and acquires defocus information, the image sensor 10 is always irradiated with light from the subject when acquiring the defocus information. . Therefore, photometry is performed using light transmitted through the image sensor 10 during autofocus. By doing so, it is not necessary to separately provide a photometric sensor, and since photometry can be performed before the release button 40b is fully pressed, exposure is completed after the release button 40b is fully pressed. Time (hereinafter also referred to as a release time lag) can be shortened.

また、レリーズボタン40bの全押し前に測光を行う構成であっても、測光をオートフォーカスと並行して行うことによって、レリーズボタン40b半押し後の処理時間を長くしてしまうことも防止できる。その際、被写体からの光を測光用センサや位相差検出ユニットへ導くためのミラーを設ける必要がない。   Further, even if the photometry is performed before the release button 40b is fully pressed, it is possible to prevent the processing time after the release button 40b is half-pressed by performing photometry in parallel with the autofocus. At this time, there is no need to provide a mirror for guiding light from the subject to the photometric sensor or the phase difference detection unit.

また、従来は、被写体から撮像装置に導かれる光の一部をミラー等で、撮像装置外に設けられた位相差検出ユニットへ導いていたのに対し、撮像ユニット1に導かれた光をそのまま用いて位相差検出ユニット20によって焦点状態を検出することができるため、デフォーカス情報を高い精度で取得することができる。   Conventionally, part of the light guided from the subject to the imaging device is guided to the phase difference detection unit provided outside the imaging device by a mirror or the like, whereas the light guided to the imaging unit 1 is used as it is. Since the focus state can be detected by the phase difference detection unit 20, the defocus information can be acquired with high accuracy.

尚、上記実施形態では、位相差検出をした後、コントラスト方式AFを行う、いわゆるハイブリッド方式AFを採用しているが、これに限られるものではない。例えば、位相差検出によって取得したデフォーカス情報に基づいてAFを行う位相差検出方式AFであってもよい。また、上記ハイブリッド方式AFと、位相差検出方式AFと、位相差検出を行わず、コントラスト値だけに基づいて合焦させるコントラスト検出方式AFとを、切り替えて行うようにしてもよい。   In the above-described embodiment, the so-called hybrid AF, in which the contrast AF is performed after the phase difference is detected, is adopted, but the present invention is not limited to this. For example, phase difference detection AF that performs AF based on defocus information acquired by phase difference detection may be used. Also, the hybrid AF, the phase difference detection AF, and the contrast detection AF that performs focusing based on only the contrast value without performing the phase difference detection may be switched.

−実施形態1の効果−
したがって、本実施形態1によれば、撮像素子10を光が通過するように構成し且つ該撮像素子10を通過した光を受光して位相差検出方式の焦点検出を行う位相差検出ユニット20を設けると共に、ボディ制御部5が撮像素子10を制御し且つ、少なくとも位相差検出ユニット20の検出結果に基づいてフォーカスレンズ群72を駆動制御することにより焦点調節を行うことによって、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを並行して行うことができ、処理時間を短縮することができる。
-Effect of Embodiment 1-
Therefore, according to the first embodiment, the phase difference detection unit 20 configured to allow light to pass through the image sensor 10 and receive the light that has passed through the image sensor 10 and perform focus detection by the phase difference detection method is provided. And the body control unit 5 controls the image sensor 10 and performs focus adjustment by driving and controlling the focus lens group 72 based on at least the detection result of the phase difference detection unit 20, thereby using the image sensor 10. The various processes and the autofocus using the phase difference detection unit 20 can be performed in parallel, and the processing time can be shortened.

また、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを並行して行わないとしても、上記構成によれば撮像素子10に光が入射しているときには位相差検出ユニット20にも光が入射しているため、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとをボディ制御部5の制御の切替により容易に切り替えることができる。すなわち、従来のように被写体からの光の進む方向を可動ミラーを進退させて撮像素子と位相差検出ユニットとに切り替える構成と比較して、可動ミラーを進退させる必要がないため、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを即座に切り替えることができると共に、可動ミラーの進退に伴う音も生じ得ないため、撮像素子10を用いた種々の処理と位相差検出ユニット20を用いたオートフォーカスとを静かに切り替えることができる。   Even if various processes using the image sensor 10 and autofocus using the phase difference detection unit 20 are not performed in parallel, according to the above configuration, when light is incident on the image sensor 10, the phase difference Since light is also incident on the detection unit 20, various processes using the image sensor 10 and autofocus using the phase difference detection unit 20 can be easily switched by switching the control of the body control unit 5. . That is, since it is not necessary to move the movable mirror forward and backward as compared with the conventional configuration in which the moving direction of the light from the subject is switched between the image pickup element and the phase difference detection unit by moving the movable mirror forward and backward, the image pickup element 10 is Since various processes used and auto-focus using the phase difference detection unit 20 can be switched immediately, and no sound is generated as the movable mirror advances and retreats, various processes and levels using the image sensor 10 can be avoided. The auto focus using the phase difference detection unit 20 can be switched silently.

こうして、カメラ100の利便性を向上させることができる。   Thus, the convenience of the camera 100 can be improved.

具体的には、撮像素子10を光が通過するように構成し且つ該撮像素子10を通過した光を受光して位相差検出方式の焦点検出を行う位相差検出ユニット20を設けることによって、上記位相差検出方式AFのように、位相差検出ユニット20を用いたAFと撮像素子10を用いた測光とを並行して行うことができる。こうすることによって、レリーズボタン40bの全押し後に測光を行う必要がなくなり、レリーズタイムラグを短縮することができる。また、レリーズボタン40bの全押し前に測光を行う構成であっても、測光をオートフォーカスと並行して行うことによって、レリーズボタン40b半押し後の処理時間を長くしてしまうことも防止できる。さらに、撮像素子10を用いて測光を行うため、測光用センサを別途設ける必要がない。さらにまた、被写体からの光を測光用センサや位相差検出ユニットへ導くための可動ミラーを設ける必要がない。そのため、電力消費を抑制することができる。   Specifically, the image sensor 10 is configured to allow light to pass through, and by providing the phase difference detection unit 20 that receives the light that has passed through the image sensor 10 and performs focus detection by a phase difference detection method, Like the phase difference detection AF, AF using the phase difference detection unit 20 and photometry using the image sensor 10 can be performed in parallel. By doing so, it is not necessary to perform photometry after the release button 40b is fully pressed, and the release time lag can be shortened. Further, even if the photometry is performed before the release button 40b is fully pressed, it is possible to prevent the processing time after the release button 40b is half-pressed by performing photometry in parallel with the autofocus. Furthermore, since photometry is performed using the image sensor 10, there is no need to separately provide a photometric sensor. Furthermore, there is no need to provide a movable mirror for guiding light from the subject to a photometric sensor or a phase difference detection unit. Therefore, power consumption can be suppressed.

また、上記のハイブリッド方式AFであっても、位相差検出ユニット20による位相差検出から撮像素子10を用いたコントラスト検出への切り替えを、従来の可動ミラーを用いた光路の切り替え等を行うことなく、ボディ制御部5内の制御で即座に行うことができるため、ハイブリッド方式AFに要する時間を短縮することができる。また、可動ミラーが不要なため、可動ミラーによる騒音もなくなり、ハイブリッド方式AFを静かに行うことができる。   Further, even in the hybrid AF described above, switching from phase difference detection by the phase difference detection unit 20 to contrast detection using the image sensor 10 is performed without performing switching of an optical path using a conventional movable mirror or the like. Since it can be performed immediately by the control in the body controller 5, the time required for the hybrid AF can be shortened. Further, since the movable mirror is unnecessary, noise due to the movable mirror is eliminated and the hybrid AF can be performed silently.

さらに、被写体から撮像素子10へ向かう光を可動ミラー等を用いて、撮像素子10の背面側とは別の場所に配設された位相差検出ユニットへ向かわせる従来の構成においては、露光時の光路と位相差検出時の光路とが異なることや可動ミラーの設置誤差等によって焦点調節の精度が高くないが、本実施形態においては位相差検出ユニット20が撮像素子10を通過する光を受けて位相差検出方式の焦点検出を行うため、露光時の光路と同じ光路のまま位相差検出方式の焦点検出を行うことができると共に、可動ミラーのような誤差を生じさせる部材がないため、位相差検出に基づくデフォーカス量の取得を高い精度で行うことができる。   Furthermore, in the conventional configuration in which light traveling from the subject toward the image sensor 10 is directed to a phase difference detection unit disposed at a location different from the back side of the image sensor 10 using a movable mirror or the like, The focus adjustment accuracy is not high due to the difference between the optical path and the optical path at the time of phase difference detection, the installation error of the movable mirror, etc. In this embodiment, the phase difference detection unit 20 receives light passing through the image sensor 10. Since the phase difference detection method focus detection is performed, the phase difference detection method focus detection can be performed while maintaining the same optical path as that at the time of exposure, and there is no member that causes an error such as a movable mirror. Acquisition of the defocus amount based on detection can be performed with high accuracy.

そして、上記のように、撮像素子10を、光が透過するように構成した場合であっても、該撮像素子10にガラス基板19を接合することによって、撮像素子10を補強することができる。すなわち、撮像素子10を、光が透過するように構成すると、該撮像素子10は非常に薄くなり、強度が低下する。そこで、該撮像素子10にガラス基板19を接合することによって、該撮像素子10を補強することができる。そして、本実施形態では、裏面照射型の撮像素子10に対して、基板11aの裏面にガラス基板19を接合しているが、該ガラス基板19は光学的に透明であって光を透過するため、ガラス基板19が撮像素子10への光の入射を妨害することを防止することができる。つまり、ガラス基板19を用いることによって、撮像素子10への光の入射又は出射に影響を与えることなく、該撮像素子10を補強することができる。   As described above, even when the image sensor 10 is configured to transmit light, the image sensor 10 can be reinforced by bonding the glass substrate 19 to the image sensor 10. That is, if the image sensor 10 is configured to transmit light, the image sensor 10 becomes very thin and the strength is reduced. Therefore, the image pickup device 10 can be reinforced by bonding the glass substrate 19 to the image pickup device 10. In the present embodiment, the glass substrate 19 is bonded to the back surface of the substrate 11a with respect to the back-illuminated imaging element 10, but the glass substrate 19 is optically transparent and transmits light. The glass substrate 19 can be prevented from obstructing the incidence of light on the image sensor 10. That is, by using the glass substrate 19, it is possible to reinforce the image sensor 10 without affecting the incidence or emission of light to the image sensor 10.

−変形例1−
以下に、本実施形態の変形例について説明する。図10は、変形例1に係る撮像ユニット210の断面図である。
-Modification 1-
Below, the modification of this embodiment is demonstrated. FIG. 10 is a cross-sectional view of the imaging unit 210 according to the first modification.

上記撮像ユニット1においては、撮像素子10と位相差検出ユニット20とをパッケージ31を介して接合することで撮像ユニット1を構成しているが、変形例1に係る撮像ユニット201は、これらを半導体プロセスで製造している。この撮像ユニット201は、撮像素子10及びガラス基板19の基本的構成については、上記撮像ユニット1と同様である。ただし、撮像素子10の基板11aの表面には、保護層18が設けられておらず、その代わりに、基板11aの表面からの順に、第1低屈折率層225、コンデンサレンズ層221、第2低屈折率層226、第3低屈折率層227、セパレータレンズ層223、第4低屈折率層228及び保護層229が積層されている。   In the imaging unit 1, the imaging unit 1 is configured by joining the imaging element 10 and the phase difference detection unit 20 via the package 31. However, the imaging unit 201 according to the first modification includes these as semiconductors. Manufactured in process. The imaging unit 201 is the same as the imaging unit 1 with respect to the basic configuration of the imaging element 10 and the glass substrate 19. However, the protective layer 18 is not provided on the surface of the substrate 11a of the imaging device 10, and instead, the first low refractive index layer 225, the condenser lens layer 221, and the second in order from the surface of the substrate 11a. A low refractive index layer 226, a third low refractive index layer 227, a separator lens layer 223, a fourth low refractive index layer 228, and a protective layer 229 are laminated.

第1、第2、第3及び第4低屈折率層225,226,227,228は、屈折率が比較的低い、透明な材料で構成されている。一方、コンデンサレンズ層221及びセパレータレンズ層223は、屈折率が比較的高い、透明な材料で構成されている。尚、第1、第2、第3及び第4低屈折率層225,226,227,228は、それぞれ、同じ材料であってもよいし、異なる材料であってもよい。同様に、コンデンサレンズ層221及びセパレータレンズ層223も、それぞれ、同じ材料であってもよいし、異なる材料であってもよい。   The first, second, third, and fourth low refractive index layers 225, 226, 227, and 228 are made of a transparent material having a relatively low refractive index. On the other hand, the condenser lens layer 221 and the separator lens layer 223 are made of a transparent material having a relatively high refractive index. The first, second, third, and fourth low refractive index layers 225, 226, 227, and 228 may be made of the same material or different materials. Similarly, the condenser lens layer 221 and the separator lens layer 223 may be made of the same material or different materials.

そして、第1低屈折率層225における、コンデンサレンズ層221との接合面は、基板11aに設けられた出射側マスク14bの通過孔14cに対応する部分が基板11a側に凹状に窪んでいる一方、それに対応して、コンデンサレンズ層221における、第1低屈折率層225との接合面は、該通過孔14cに対応する部分が基板11a側に凸状に膨出している。つまり、第1低屈折率層225とコンデンサレンズ層221との接合面のうち、通過孔14cに対応する部分はレンズ面を形成しており、コンデンサレンズ層221はコンデンサレンズとして機能する。   In the first low-refractive index layer 225, the bonding surface with the condenser lens layer 221 has a portion corresponding to the passage hole 14c of the emission side mask 14b provided on the substrate 11a, which is recessed toward the substrate 11a. Correspondingly, the portion of the condenser lens layer 221 that is bonded to the first low-refractive index layer 225 has a portion corresponding to the through hole 14c bulges toward the substrate 11a. That is, of the joint surface between the first low refractive index layer 225 and the condenser lens layer 221, the portion corresponding to the passage hole 14c forms a lens surface, and the condenser lens layer 221 functions as a condenser lens.

また、第2低屈折率層226と第3低屈折率層227との接合面には、マスク部材222が設けられている。マスク部材222は、該通過孔14cに対応する位置ごとに2つのマスク開口222a,222aが形成されている。   A mask member 222 is provided on the bonding surface between the second low refractive index layer 226 and the third low refractive index layer 227. In the mask member 222, two mask openings 222a and 222a are formed at positions corresponding to the passage holes 14c.

さらに、第3低屈折率層227における、セパレータレンズ層223との接合面は、通過孔14cに対応する部分が基板11a側に凹状に窪んでいる。詳しくは、かかる凹状の部分は、2つの凹曲面を隣接させた形状をしている。一方、セパレータレンズ層223における、第3低屈折率層227との接合面は、該第3低屈折率層227に対応して、該通過孔14cに対応する部分が基板11a側に凸状に膨出している。詳しくは、かかる凸状の部分は、2つの凸曲面を隣接させた形状をしている。つまり、第3低屈折率層227とセパレータレンズ層223との接合面のうち、通過孔14cに対応する部分は2つのレンズ面を形成しており、セパレータレンズ層223はセパレータレンズとして機能する。   Further, the surface of the third low refractive index layer 227 that is bonded to the separator lens layer 223 has a concave portion on the substrate 11a side corresponding to the passage hole 14c. Specifically, the concave portion has a shape in which two concave curved surfaces are adjacent to each other. On the other hand, the joint surface of the separator lens layer 223 with the third low-refractive index layer 227 corresponds to the third low-refractive index layer 227, and a portion corresponding to the passage hole 14c is convex toward the substrate 11a. Bulges. Specifically, the convex portion has a shape in which two convex curved surfaces are adjacent to each other. That is, in the joint surface between the third low refractive index layer 227 and the separator lens layer 223, the portion corresponding to the passage hole 14c forms two lens surfaces, and the separator lens layer 223 functions as a separator lens.

さらにまた、第4低屈折率層228と保護層229との接合面には、該通過孔14cに対応する位置に、ラインセンサ224が設けられている。   Furthermore, a line sensor 224 is provided on the joint surface between the fourth low refractive index layer 228 and the protective layer 229 at a position corresponding to the passage hole 14c.

これら第1低屈折率層225、コンデンサレンズ層221、第2低屈折率層226、第3低屈折率層227、セパレータレンズ層223、第4低屈折率層228及び保護層229によって、位相差検出ユニット220が構成されている。このように、ガラス基板19、撮像素子10及び位相差検出ユニット220を半導体プロセスによって製造してもよい。   The first low refractive index layer 225, the condenser lens layer 221, the second low refractive index layer 226, the third low refractive index layer 227, the separator lens layer 223, the fourth low refractive index layer 228, and the protective layer 229 provide a phase difference. A detection unit 220 is configured. As described above, the glass substrate 19, the image sensor 10, and the phase difference detection unit 220 may be manufactured by a semiconductor process.

−変形例2−
次に、変形例2に係る撮像素子310について、図11を参照しながら説明する。図11は、撮像素子310の断面図を示す。
-Modification 2-
Next, an image sensor 310 according to Modification 2 will be described with reference to FIG. FIG. 11 is a cross-sectional view of the image sensor 310.

この撮像素子310は、CCDイメージセンサである撮像素子10と異なり、CMOSイメージセンサである。詳しくは、撮像素子310は、半導体材料で構成された光電変換部311と、トランジスタ312と、信号線313と、マスク314と、カラーフィルタ315とを有している。   Unlike the image sensor 10 that is a CCD image sensor, the image sensor 310 is a CMOS image sensor. Specifically, the imaging element 310 includes a photoelectric conversion unit 311 made of a semiconductor material, a transistor 312, a signal line 313, a mask 314, and a color filter 315.

光電変換部311は、基板311aと、フォトダイオードで構成された受光部311b,311b,…とを有している。各受光部311bごとに、トランジスタ312が設けられている。受光部311bで蓄積された電荷は、トランジスタ312で増幅され、信号線313を介して外部へ出力される。   The photoelectric conversion unit 311 includes a substrate 311a and light receiving units 311b, 311b,. A transistor 312 is provided for each light receiving unit 311b. The charge accumulated in the light receiving portion 311b is amplified by the transistor 312 and output to the outside through the signal line 313.

マスク314は、上記マスク14と同様に、入射側マスク314aと出射側マスク314bとで構成されている。入射側マスク314aは、受光部311bと隣接して設けられており、光がトランジスタ312及び信号線313に入射することを防止している。また、出射側マスク314bには、受光部311bを透過した光を、撮像素子310の背面側へ出射させるための複数の通過孔314cが設けられている。   Like the mask 14, the mask 314 includes an incident side mask 314a and an emission side mask 314b. The incident side mask 314 a is provided adjacent to the light receiving portion 311 b and prevents light from entering the transistor 312 and the signal line 313. Further, the emission side mask 314b is provided with a plurality of passage holes 314c for emitting the light transmitted through the light receiving portion 311b to the back side of the image sensor 310.

カラーフィルタ315は、上記カラーフィルタ15と同様の構成である。   The color filter 315 has the same configuration as the color filter 15.

また、CMOSイメージセンサにおいては、トランジスタ312の増幅率を受光部311bごとに設定することができるため、各トランジスタ312の増幅率を各受光部311bが通過孔314cに対応する位置に位置するか否か、および、各受光部311bに対応するカラーフィルタ315の色の種類に基づいて設定することによって、通過孔314c,314c,…に対応する部分の画像が、適切に撮影されないことを防止することができる。   In the CMOS image sensor, since the amplification factor of the transistor 312 can be set for each light receiving portion 311b, whether or not each light receiving portion 311b is positioned at a position corresponding to the passage hole 314c. Or setting based on the color type of the color filter 315 corresponding to each light receiving portion 311b, thereby preventing the image of the portion corresponding to the through holes 314c, 314c,. Can do.

−変形例3−
続いて、変形例3に係る撮像ユニット401について図12,13を参照しながら説明する。図12は、撮像ユニット401の撮像素子410の断面図であり、図13は、撮像素子410の、回路基板432への取り付け状態を示す断面図である。
-Modification 3-
Next, an imaging unit 401 according to Modification 3 will be described with reference to FIGS. FIG. 12 is a cross-sectional view of the image sensor 410 of the image pickup unit 401, and FIG. 13 is a cross-sectional view showing a state in which the image sensor 410 is attached to the circuit board 432.

この撮像ユニット401は、撮像素子の基板の裏面ではなく、表面に被写体からの光が入射する点で上記撮像ユニット1と異なる。そこで、撮像ユニット1と同様の構成については、同様の符号を付して説明を省略し、異なる構成を中心に説明する。   The imaging unit 401 differs from the imaging unit 1 in that light from a subject is incident on the front surface, not the back surface of the substrate of the image sensor. Therefore, the same components as those of the imaging unit 1 are denoted by the same reference numerals, description thereof is omitted, and different components are mainly described.

撮像ユニット401は、被写体像を電気信号に変換するための撮像素子410と、撮像素子410に接合されたガラス基板19と、撮像素子410を保持するためのパッケージと、位相差検出方式の焦点検出を行うための位相差検出ユニットとを有している。パッケージと位相差検出ユニットについては、図示を省略するが、撮像ユニット1と同様の構成をしている。   The imaging unit 401 includes an imaging element 410 for converting a subject image into an electrical signal, a glass substrate 19 bonded to the imaging element 410, a package for holding the imaging element 410, and phase difference detection type focus detection. A phase difference detection unit for performing the above. The package and the phase difference detection unit have the same configuration as that of the imaging unit 1 although not shown.

撮像素子410は、裏面照射型のインターライン型CCDイメージセンサであって、図12に示すように、半導体材料で構成された光電変換部11と、垂直レジスタ12と、転送路13と、マスク414と、カラーフィルタ15と、マイクロレンズ416とを有している。   The imaging element 410 is a back-illuminated interline CCD image sensor, and as shown in FIG. 12, a photoelectric conversion unit 11 made of a semiconductor material, a vertical register 12, a transfer path 13, and a mask 414. And a color filter 15 and a microlens 416.

基板11aの表面には、受光部11b,11b,…が行列状に配列された微小な方形の画素領域内にそれぞれ設けられている。また、基板11aの表面には、各受光部11bに隣接して垂直レジスタ12が設けられている。さらに、この垂直レジスタ12に重なるように転送路13が設けられている。そして、これら垂直レジスタ12及び転送路13を覆うようにマスク414が設けられている。   On the surface of the substrate 11a, light receiving portions 11b, 11b,... Are provided in minute square pixel regions arranged in a matrix. A vertical register 12 is provided on the surface of the substrate 11a adjacent to each light receiving portion 11b. Further, a transfer path 13 is provided so as to overlap the vertical register 12. A mask 414 is provided so as to cover the vertical register 12 and the transfer path 13.

このマスク414は、撮像ユニット1に係るマスク14と異なり、被写体からの光の入射側だけに設けられている。具体的には、マスク414は、垂直レジスタ12及び転送路13を基板11aと反対側から覆うように設けられている。こうして、マスク414は、被写体側からの光が垂直レジスタ12及び転送路13に入射することを防止している。   Unlike the mask 14 according to the imaging unit 1, the mask 414 is provided only on the incident side of light from the subject. Specifically, the mask 414 is provided so as to cover the vertical register 12 and the transfer path 13 from the side opposite to the substrate 11a. Thus, the mask 414 prevents light from the subject side from entering the vertical register 12 and the transfer path 13.

さらに、基板11aの表面には、これら受光部11b、垂直レジスタ12、転送路13及びマスク414を覆うように、光学的に透明な樹脂で構成された保護層18が設けられている。   Further, a protective layer 18 made of an optically transparent resin is provided on the surface of the substrate 11a so as to cover the light receiving portion 11b, the vertical register 12, the transfer path 13, and the mask 414.

そして、カラーフィルタ15は、保護層18の表面(即ち、保護層18における基板11aと反対側の面)に積層されている。このカラーフィルタ15は、染色系又は顔料系色素を含むカラーフィルタである。   The color filter 15 is laminated on the surface of the protective layer 18 (that is, the surface of the protective layer 18 opposite to the substrate 11a). The color filter 15 is a color filter containing a dye system or a pigment system pigment.

マイクロレンズ416は、光学的に透明な樹脂で構成され、光を集光して受光部11bに入射させるものであって、カラーフィルタ15の上に積層されている。詳しくは、マイクロレンズ416は、受光部11bごと、即ち、カラーフィルタ15ごとに設けられ且つ、被写体側(即ち、基板11aと反対側)に凸状に膨出した凸レンズとなっている。このマイクロレンズ416によって受光部11bを効率良く照射できる。   The microlens 416 is made of an optically transparent resin, collects light and makes it incident on the light receiving unit 11 b, and is stacked on the color filter 15. Specifically, the microlens 416 is a convex lens that is provided for each light receiving unit 11b, that is, for each color filter 15, and bulges in a convex shape on the subject side (that is, the side opposite to the substrate 11a). The microlens 416 can efficiently irradiate the light receiving portion 11b.

さらに、マイクロレンズ416の表面(凸面)には、光学的に透明な樹脂で構成された保護層17が積層されている。   Further, a protective layer 17 made of an optically transparent resin is laminated on the surface (convex surface) of the microlens 416.

そして、ガラス基板19は、基板11aの裏面に陽極接合によって接合されている。   The glass substrate 19 is bonded to the back surface of the substrate 11a by anodic bonding.

このように構成された撮像素子10においては、マイクロレンズ416,416,…によって集光された光が、カラーフィルタ15r,15g,15bに入射し、各カラーフィルタ15に応じた色の光だけが該カラーフィルタ15を透過して、基板11aの表面に到達する。基板11aでは、受光部11b,11b,…のみが露出し、垂直レジスタ12及び転送路13等はマスク414で覆われているため、基板11aに到達した光は、受光部11b,11b,…にだけ入射する。各受光部11bは、光を吸収して電荷を発生する。この各受光部11bで発生した電荷は、垂直レジスタ12及び転送路13を介して増幅器に送られ、電気信号として出力される。このとき、受光部11b,11b,…には、カラーフィルタ15r,15g,15bを透過した特定の色の光が入射しているため、各受光部11bからは、各カラーフィルタ15に対応した色の受光光量が出力として得られる。こうして、撮像素子410は、その撮像面全体における受光部11b,11b,…で光電変換を行うことによって、撮像面に形成された被写体像を電気信号に変換する。   In the imaging device 10 configured as described above, the light collected by the microlenses 416, 416,... Enters the color filters 15r, 15g, and 15b, and only the light of the color corresponding to each color filter 15 is obtained. The light passes through the color filter 15 and reaches the surface of the substrate 11a. In the substrate 11a, only the light receiving portions 11b, 11b,... Are exposed, and the vertical register 12, the transfer path 13, and the like are covered with the mask 414. Therefore, the light reaching the substrate 11a is directed to the light receiving portions 11b, 11b,. Only incident. Each light receiving portion 11b absorbs light and generates electric charges. The electric charge generated in each light receiving unit 11b is sent to the amplifier via the vertical register 12 and the transfer path 13 and is output as an electric signal. At this time, since light of a specific color transmitted through the color filters 15r, 15g, and 15b is incident on the light receiving portions 11b, 11b,..., The colors corresponding to the color filters 15 are received from the light receiving portions 11b. The received light quantity is obtained as an output. Thus, the image sensor 410 converts the subject image formed on the imaging surface into an electrical signal by performing photoelectric conversion at the light receiving portions 11b, 11b,... On the entire imaging surface.

一方、受光部11bに入射した光の一部は、該受光部11bに吸収されずに、該受光部11bを透過する。基板11aは非常に薄いため(即ち、基板11aを光が透過する程度の厚さに形成しているため)、受光部11bを透過した光は、該基板11aを透過し、さらに、ガラス基板19を透過して、撮像素子410の背面側へ出射する。   On the other hand, a part of the light incident on the light receiving part 11b is not absorbed by the light receiving part 11b but passes through the light receiving part 11b. Since the substrate 11a is very thin (that is, the substrate 11a is formed to have a thickness that allows light to pass through), the light transmitted through the light receiving portion 11b passes through the substrate 11a, and further, the glass substrate 19 Is transmitted to the back side of the image sensor 410.

撮像素子410の背面側には、撮像ユニット1と同様に、位相差検出ユニットが設けられており、該位相差検出ユニットは、撮像素子410を透過した光を用いて位相差検出方式の焦点検出を行う。   Similar to the imaging unit 1, a phase difference detection unit is provided on the back side of the imaging element 410, and the phase difference detection unit uses the light transmitted through the imaging element 410 to detect the focus of the phase difference detection method. I do.

このように構成された撮像素子410は、パッケージの回路基板432にマウントされる。   The imaging element 410 configured as described above is mounted on the circuit board 432 of the package.

詳しくは、撮像素子410の基板11aの周縁部には、受光部11b、垂直レジスタ12、転送路13、マスク414、カラーフィルタ15、マイクロレンズ416及び保護層17,18等が設けられておらず、転送路13や垂直レジスタ12等との電気的接続を可能にするための配線が露出している。一方、回路基板432の裏面(被写体と反対側の面)には、撮像素子410の基板11aの配線と対向する位置に回路パターンが設けられている。そして、図13に示すように、撮像素子410の基板11aの周縁部を被写体と反対側から回路基板432と重ね合わせ、熱溶着により、両者を接合して、撮像素子410の基板11aの配線と回路基板432の回路パターンとを電気的に接続している。   Specifically, the light receiving portion 11b, the vertical register 12, the transfer path 13, the mask 414, the color filter 15, the microlens 416, the protective layers 17 and 18 and the like are not provided on the peripheral portion of the substrate 11a of the image sensor 410. The wiring for enabling electrical connection with the transfer path 13 and the vertical register 12 is exposed. On the other hand, a circuit pattern is provided on the back surface (the surface opposite to the subject) of the circuit board 432 at a position facing the wiring of the substrate 11 a of the image sensor 410. Then, as shown in FIG. 13, the peripheral portion of the substrate 11a of the image sensor 410 is overlapped with the circuit board 432 from the opposite side to the subject, and the two are joined by thermal welding to connect the wiring of the substrate 11a of the image sensor 410. The circuit pattern of the circuit board 432 is electrically connected.

したがって、撮像素子410を、光が透過するように構成した場合であっても、該撮像素子410にガラス基板19を接合することによって、撮像素子410を補強することができる。すなわち、撮像素子410を、光が透過するように構成すると、該撮像素子410は非常に薄くなり、強度が低下する。そこで、該撮像素子410にガラス基板19を接合することによって、該撮像素子410を補強することができる。そして、裏面照射ではなく、基板11aの表面から光を入射させる構成において、基板11aの裏面にガラス基板19を接合しているが、該ガラス基板19は光学的に透明であって光を透過するため、ガラス基板19が撮像素子410からの光の出射を妨害することを防止することができる。つまり、ガラス基板19を用いることによって、撮像素子410からの光の出射に影響を与えることなく、該撮像素子410を補強することができる。   Therefore, even when the image sensor 410 is configured to transmit light, the image sensor 410 can be reinforced by bonding the glass substrate 19 to the image sensor 410. That is, if the image sensor 410 is configured to transmit light, the image sensor 410 becomes very thin and the strength is reduced. Therefore, the image pickup element 410 can be reinforced by bonding the glass substrate 19 to the image pickup element 410. And in the structure which makes light inject from the surface of the board | substrate 11a instead of back surface irradiation, although the glass substrate 19 is joined to the back surface of the board | substrate 11a, this glass substrate 19 is optically transparent and permeate | transmits light. Therefore, it is possible to prevent the glass substrate 19 from interfering with the emission of light from the image sensor 410. That is, by using the glass substrate 19, it is possible to reinforce the image sensor 410 without affecting the emission of light from the image sensor 410.

その他、撮像ユニット1と同様の作用効果を奏することができる。   In addition, the same effects as the imaging unit 1 can be achieved.

《発明の実施形態2》
続いて、本発明の実施形態2に係る撮像ユニット501について図14を参照しながら説明する。図14は、撮像ユニット501の撮像素子510の断面図である。
<< Embodiment 2 of the Invention >>
Next, an imaging unit 501 according to Embodiment 2 of the present invention will be described with reference to FIG. FIG. 14 is a cross-sectional view of the image sensor 510 of the imaging unit 501.

本実施形態2に係る撮像ユニット501は、位相差検出ユニットを備えていない点で、実施形態1と異なる。そこで、実施形態1と同様の構成については、同様の符号を付して説明を省略し、異なる構成を中心に説明する。   An imaging unit 501 according to the second embodiment is different from the first embodiment in that it does not include a phase difference detection unit. Therefore, configurations similar to those of the first embodiment are denoted by the same reference numerals, description thereof is omitted, and different configurations are mainly described.

撮像ユニット501は、被写体像を電気信号に変換するための撮像素子510と、撮像素子510に接合されたガラス基板19とを有している。   The imaging unit 501 includes an imaging element 510 for converting a subject image into an electrical signal, and a glass substrate 19 bonded to the imaging element 510.

撮像素子510の構成は、出射側マスク514bの構成以外は、実施形態1と同様である。つまり、マスク514は、基板11aの表面に設けられた入射側マスク514aと、受光部11b、垂直レジスタ12及び転送路13を基板11aとは反対側から覆うように設けられた出射側マスク514bとを有している。そして、この出射側マスク514bは、通過孔が設けられておらず、受光部11b、垂直レジスタ12及び転送路13を基板11aとは反対側から完全に覆っている。   The configuration of the image sensor 510 is the same as that of the first embodiment except for the configuration of the emission side mask 514b. That is, the mask 514 includes an incident side mask 514a provided on the surface of the substrate 11a, and an emission side mask 514b provided so as to cover the light receiving unit 11b, the vertical register 12, and the transfer path 13 from the side opposite to the substrate 11a. have. The emission side mask 514b is not provided with a passage hole, and completely covers the light receiving unit 11b, the vertical register 12, and the transfer path 13 from the side opposite to the substrate 11a.

このように構成された撮像素子510においては、受光部11b,11b,…を透過した光を、全て出射側マスク514bにより反射させて、再度、受光部11b,11b,…に入射させ、該光を撮像素子510の背面側に出射させない。   In the imaging device 510 configured as described above, all the light transmitted through the light receiving portions 11b, 11b,... Is reflected by the emission side mask 514b, and is incident again on the light receiving portions 11b, 11b,. Are not emitted to the back side of the image sensor 510.

つまり、本実施形態2に係る撮像素子510は、裏面照射型の撮像素子であって且つ、位相差検出を行わないものである。このように、位相差検出方式の焦点検出を行うか否かにかかわらず、裏面照射型の撮像素子である限りは、光に基板11aを透過させる必要がある。そして、光に基板11aを透過させる構成においては、基板11aを光が透過する程度に薄く形成する必要があるが、上記の如く、撮像素子510にガラス基板19を接合することによって、撮像素子510への光の入射に影響を与えることなく、該撮像素子510を補強することができる。   That is, the image sensor 510 according to the second embodiment is a back-illuminated image sensor and does not perform phase difference detection. As described above, regardless of whether or not the phase difference detection type focus detection is performed, as long as the imaging device is a back-illuminated type, it is necessary to allow the light to pass through the substrate 11a. In the configuration in which light is transmitted through the substrate 11a, it is necessary to form the substrate 11a thin enough to transmit light. As described above, by bonding the glass substrate 19 to the image sensor 510, the image sensor 510 is provided. The image pickup element 510 can be reinforced without affecting the incidence of light.

《その他の実施形態》
本発明は、上記実施形態について、以下のような構成としてもよい。
<< Other Embodiments >>
The present invention may be configured as follows with respect to the above embodiment.

例えば、撮像素子の構成は、上記の構成に限られるものではなく、光が撮像素子を透過する構成であれば、任意の構成を採用することができる。また、位相差検出ユニットについても、上記の構成に限られるものではない。   For example, the configuration of the image sensor is not limited to the above configuration, and any configuration can be adopted as long as light is transmitted through the image sensor. Further, the phase difference detection unit is not limited to the above configuration.

また、撮像素子と光学的透明基板との接合は、例えば、光学的透明基板上に撮像素子を形成することによって実現されてもよい。   Moreover, joining of an image pick-up element and an optical transparent substrate may be implement | achieved by forming an image pick-up element on an optical transparent substrate, for example.

また、上記実施形態では、撮像ユニット1をカメラに搭載した構成について説明しているが、これに限られるものではない。例えば、撮像ユニット1はビデオカメラに搭載することもできる。   Moreover, although the said embodiment demonstrated the structure which mounted the imaging unit 1 in the camera, it is not restricted to this. For example, the imaging unit 1 can be mounted on a video camera.

また、撮影者によりレリーズボタン40bが半押しされる(即ち、S1スイッチがONされる)とAFが開始される構成ついて説明したが、レリーズボタン40bは半押しされる前からAFを行ってもよい。また、合焦と判断するとAFを終了する構成について説明したが、合焦判定後もAFを継続するようにしてもよく、合焦判定をせずに継続してAFを行ってもよい。   In addition, the configuration is described in which AF is started when the photographer presses the release button 40b halfway (that is, when the S1 switch is turned on). However, even if the release button 40b is subjected to AF before halfway pressing. Good. Further, although the configuration has been described in which AF is terminated when it is determined that the focus is achieved, AF may be continued after the focus determination, or AF may be performed continuously without performing the focus determination.

また、上述の実施形態において、基板11aが研磨やエッチング等により完全に除去されていてもよい。その場合、受光部11bにガラス基板19が直接接合されていてもよい。また、ガラス基板19上に、受光部11bが直接形成されてもよい。   In the above-described embodiment, the substrate 11a may be completely removed by polishing, etching, or the like. In that case, the glass substrate 19 may be directly joined to the light receiving part 11b. In addition, the light receiving portion 11 b may be directly formed on the glass substrate 19.

尚、以上の実施形態は、本質的に好ましい例示であって、本発明、その適用物、あるいはその用途の範囲を制限することを意図するものではない。   In addition, the above embodiment is an essentially preferable illustration, Comprising: It does not intend restrict | limiting the range of this invention, its application thing, or its use.

以上説明したように、本発明は、光電変換を行う撮像素子を備えた撮像ユニットについて有用である。   As described above, the present invention is useful for an imaging unit including an imaging device that performs photoelectric conversion.

1,201,401,501 撮像ユニット
10,310,410 撮像素子
11a 基板(半導体基板)
11b 受光部
15 カラーフィルタ(干渉フィルタ)
20,220 位相差検出ユニット(位相差検出部)
21a コンデンサレンズ
221 コンデンサレンズ層(コンデンサレンズ)
23a セパレータレンズ
223 セパレータレンズ層(セパレータレンズ)
24a,224 ラインセンサ
31 パッケージ
1, 201, 401, 501 Imaging unit 10, 310, 410 Imaging element 11a Substrate (semiconductor substrate)
11b Light receiver 15 Color filter (interference filter)
20,220 Phase difference detection unit (phase difference detection unit)
21a condenser lens 221 condenser lens layer (condenser lens)
23a Separator lens 223 Separator lens layer (Separator lens)
24a, 224 line sensor 31 package

Claims (19)

半導体基板と該半導体基板に設けられた受光部とを有し、該受光部で受けた光を光電変換により電気信号に変換すると共に、光が透過するように構成されている撮像素子と、
上記撮像素子に接合され、光を透過させる光学的透明基板とを備える撮像ユニット。
An imaging device having a semiconductor substrate and a light receiving portion provided on the semiconductor substrate, configured to convert light received by the light receiving portion into an electrical signal by photoelectric conversion, and to transmit light;
An imaging unit comprising: an optically transparent substrate that is bonded to the imaging element and transmits light.
請求項1に記載の撮像ユニットにおいて、
上記撮像素子を通過した光を受光して位相差検出方式の焦点検出を行う位相差検出部をさらに備える撮像ユニット。
The imaging unit according to claim 1,
An imaging unit further comprising a phase difference detection unit that receives light that has passed through the imaging element and performs focus detection by a phase difference detection method.
請求項2に記載の撮像ユニットにおいて、
上記位相差検出部は、上記撮像素子に対して上記光学的透明基板と反対側に設けられている撮像ユニット。
The imaging unit according to claim 2,
The said phase difference detection part is an imaging unit provided in the opposite side to the said optically transparent substrate with respect to the said image pick-up element.
請求項3に記載の撮像ユニットにおいて、
上記位相差検出部は、上記撮像素子を透過した光を瞳分割するセパレータレンズと、該セパレータレンズに分割された光を検出するセンサとを有する撮像ユニット。
The imaging unit according to claim 3,
The phase difference detection unit includes: a separator lens that divides the light transmitted through the imaging device into a pupil; and a sensor that detects the light divided into the separator lens.
請求項4に記載の撮像ユニットにおいて、
上記位相差検出部は、上記セパレータレンズよりも上記撮像素子側に設けられ、上記撮像素子の複数の上記受光部を透過した光を集光させて該セパレータレンズに入射させるコンデンサレンズをさらに有する撮像ユニット。
The imaging unit according to claim 4,
The phase difference detection unit further includes a condenser lens that is provided closer to the imaging element than the separator lens and collects light transmitted through the plurality of light receiving units of the imaging element and causes the light to enter the separator lens. unit.
請求項2に記載の撮像ユニットにおいて、
上記位相差検出部は、上記光学的透明基板に対して上記撮像素子と反対側に設けられている撮像ユニット。
The imaging unit according to claim 2,
The said phase difference detection part is an imaging unit provided in the opposite side to the said image pick-up element with respect to the said optical transparent substrate.
請求項6に記載の撮像ユニットにおいて、
上記位相差検出部は、上記撮像素子を透過した光を瞳分割するセパレータレンズと、該セパレータレンズに分割された光を検出するセンサとを有する撮像ユニット。
The imaging unit according to claim 6,
The phase difference detection unit includes: a separator lens that divides the light transmitted through the imaging device into a pupil; and a sensor that detects the light divided into the separator lens.
請求項7に記載の撮像ユニットにおいて、
上記位相差検出部は、上記セパレータレンズよりも上記撮像素子側に設けられ、上記撮像素子を透過した光を集光させて該セパレータレンズに入射させるコンデンサレンズをさらに有する撮像ユニット。
The imaging unit according to claim 7,
The imaging unit further comprising a condenser lens that is provided closer to the imaging element than the separator lens and collects light transmitted through the imaging element and causes the light to enter the separator lens.
請求項4又は5に記載の撮像ユニットにおいて、
上記位相差検出部は、上記半導体基板上に半導体プロセスによって形成されている撮像ユニット。
The imaging unit according to claim 4 or 5,
The phase difference detection unit is an imaging unit formed on the semiconductor substrate by a semiconductor process.
請求項2乃至8の何れか1つに記載の撮像ユニットにおいて、
上記位相差検出部が配設されるパッケージをさらに備え、
上記撮像素子は、上記パッケージに取り付けられている撮像ユニット。
The imaging unit according to any one of claims 2 to 8,
Further comprising a package in which the phase difference detection unit is disposed,
The imaging element is an imaging unit attached to the package.
請求項4、5、7、8の何れか1つに記載の撮像ユニットにおいて、
上記センサは、ラインセンサである撮像ユニット。
The imaging unit according to any one of claims 4, 5, 7, and 8,
The sensor is an imaging unit which is a line sensor.
請求項1乃至11の何れか1つに記載の撮像ユニットにおいて、
上記撮像素子と上記光学的透明基板とは、陽極接合されている撮像ユニット。
The imaging unit according to any one of claims 1 to 11,
The image pickup unit and the optically transparent substrate are image pickup units in which anodic bonding is performed.
請求項12に記載の撮像ユニットにおいて、
上記撮像素子の上記半導体基板は、Si単結晶であり、
上記光学的透明基板は、硼珪酸ガラス基板である撮像ユニット。
The imaging unit according to claim 12,
The semiconductor substrate of the imaging device is a Si single crystal,
The imaging unit, wherein the optically transparent substrate is a borosilicate glass substrate.
請求項1乃至13の何れか1つに記載の撮像ユニットにおいて、
上記撮像素子の上記半導体基板の厚みは、5μm以下である撮像ユニット。
The imaging unit according to any one of claims 1 to 13,
The thickness of the said semiconductor substrate of the said image pick-up element is an imaging unit which is 5 micrometers or less.
請求項1乃至14の何れか1つに記載の撮像ユニットにおいて、
上記半導体基板の周縁部に電気的接続端子が設けられている撮像ユニット。
The imaging unit according to any one of claims 1 to 14,
An imaging unit in which an electrical connection terminal is provided on a peripheral portion of the semiconductor substrate.
請求項1乃至3の何れか1つに記載の撮像ユニットにおいて、
上記撮像素子は、上記光学的透明基板を透過した光を受光するように構成されており、
上記光学的透明基板における、上記撮像素子と対向する面には干渉フィルタが設けられている撮像ユニット。
The imaging unit according to any one of claims 1 to 3,
The image sensor is configured to receive light transmitted through the optical transparent substrate,
An imaging unit in which an interference filter is provided on a surface of the optically transparent substrate facing the imaging element.
請求項16に記載の撮像ユニットにおいて、
上記干渉フィルタは、干渉現象によりRGB3原色をそれぞれ透過させるベイヤ配列のフィルタである撮像ユニット。
The imaging unit according to claim 16,
The interference unit is an imaging unit that is a Bayer array filter that transmits the three primary colors of RGB according to an interference phenomenon.
受光部を有し、該受光部で受けた光を光電変換により電気信号に変換すると共に、光が透過するように構成されている撮像素子と、
上記撮像素子に接合され、光を透過させる光学的透明基板とを備える撮像ユニット。
An image sensor having a light receiving portion, configured to convert light received by the light receiving portion into an electrical signal by photoelectric conversion, and to transmit light;
An imaging unit comprising: an optically transparent substrate that is bonded to the imaging element and transmits light.
請求項18に記載の撮像ユニットにおいて、
上記撮像素子を通過した光を受光して位相差検出方式の焦点検出を行う位相差検出部をさらに備える撮像ユニット。
The imaging unit according to claim 18,
An imaging unit further comprising a phase difference detection unit that receives light that has passed through the imaging element and performs focus detection by a phase difference detection method.
JP2010535659A 2008-10-28 2009-10-27 Imaging unit Expired - Fee Related JP5097275B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010535659A JP5097275B2 (en) 2008-10-28 2009-10-27 Imaging unit

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008276416 2008-10-28
JP2008276416 2008-10-28
JP2010535659A JP5097275B2 (en) 2008-10-28 2009-10-27 Imaging unit
PCT/JP2009/005661 WO2010050184A1 (en) 2008-10-28 2009-10-27 Image pickup unit

Publications (2)

Publication Number Publication Date
JPWO2010050184A1 true JPWO2010050184A1 (en) 2012-03-29
JP5097275B2 JP5097275B2 (en) 2012-12-12

Family

ID=42128555

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010535659A Expired - Fee Related JP5097275B2 (en) 2008-10-28 2009-10-27 Imaging unit

Country Status (4)

Country Link
US (1) US8179462B2 (en)
JP (1) JP5097275B2 (en)
CN (1) CN102077577B (en)
WO (1) WO2010050184A1 (en)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009104390A1 (en) * 2008-02-22 2009-08-27 パナソニック株式会社 Imaging device
KR101786069B1 (en) 2009-02-17 2017-10-16 가부시키가이샤 니콘 Backside illumination image sensor, manufacturing method thereof and image-capturing device
JP5653035B2 (en) * 2009-12-22 2015-01-14 キヤノン株式会社 Imaging apparatus, focus detection method, and control method
JP5556823B2 (en) * 2012-01-13 2014-07-23 株式会社ニコン Solid-state imaging device and electronic camera
JP2013187475A (en) * 2012-03-09 2013-09-19 Olympus Corp Solid state imaging device and camera system
US8890269B2 (en) * 2012-05-31 2014-11-18 Stmicroelectronics Pte Ltd. Optical sensor package with through vias
JP6288909B2 (en) * 2012-10-19 2018-03-07 キヤノン株式会社 Imaging device and imaging apparatus
JP2015011320A (en) * 2013-07-02 2015-01-19 キヤノン株式会社 Imaging device and control method of the same
JP6161522B2 (en) 2013-11-20 2017-07-12 オリンパス株式会社 Image sensor
JP5664742B2 (en) * 2013-11-22 2015-02-04 株式会社ニコン Imaging device and imaging apparatus
JP2015128131A (en) * 2013-11-27 2015-07-09 ソニー株式会社 Solid state image sensor and electronic apparatus
TWI561799B (en) * 2015-08-24 2016-12-11 Chiang Chung I Packaging method, cover structure of temperature sensing element and method for fabricating the same
CN105262955B (en) * 2015-11-19 2018-03-20 湖州旻合科技有限公司 Optical anti-vibration drive system framework
JP6869717B2 (en) * 2016-12-28 2021-05-12 ソニーセミコンダクタソリューションズ株式会社 Imaging equipment, manufacturing methods for imaging equipment, and electronic devices
JP6929578B2 (en) * 2019-04-04 2021-09-01 株式会社ユピテル System etc.
CN112449030B (en) * 2019-08-30 2023-05-30 北京小米移动软件有限公司 Electronic equipment

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027303A (en) * 2000-07-10 2002-01-25 Hamamatsu Photonics Kk Image pickup device
JP2006106435A (en) * 2004-10-06 2006-04-20 Canon Inc Optical device
JP4379295B2 (en) 2004-10-26 2009-12-09 ソニー株式会社 Semiconductor image sensor module and manufacturing method thereof
JP4564831B2 (en) * 2004-11-26 2010-10-20 キヤノン株式会社 Imaging apparatus and control method thereof
JP2007135140A (en) 2005-11-14 2007-05-31 Konica Minolta Photo Imaging Inc Imaging apparatus
JP4834394B2 (en) 2005-12-09 2011-12-14 キヤノン株式会社 Imaging apparatus and control method thereof
JP4973273B2 (en) 2007-03-28 2012-07-11 株式会社ニコン Digital camera
JP4902890B2 (en) * 2008-02-22 2012-03-21 パナソニック株式会社 Imaging device
US8077233B2 (en) * 2008-02-22 2011-12-13 Panasonic Corporation Imaging apparatus

Also Published As

Publication number Publication date
WO2010050184A1 (en) 2010-05-06
CN102077577A (en) 2011-05-25
US20110102653A1 (en) 2011-05-05
US8179462B2 (en) 2012-05-15
CN102077577B (en) 2013-05-15
JP5097275B2 (en) 2012-12-12

Similar Documents

Publication Publication Date Title
JP5097275B2 (en) Imaging unit
JP5128616B2 (en) Imaging device
US8988584B2 (en) Imaging apparatus
JP5398893B2 (en) Imaging device
JP5190537B2 (en) Image pickup device and image pickup apparatus including the same
JP4077577B2 (en) Image sensor
JP4902892B2 (en) Imaging device
JP5247522B2 (en) Imaging device
JP4902891B2 (en) Imaging device
JP4902890B2 (en) Imaging device
JP2010113272A (en) Imaging apparatus
JP2010113273A (en) Imaging apparatus
JP4902893B2 (en) Imaging device
JP2011175172A (en) Digital camera
JP2009210817A (en) Imaging apparatus

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20120213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120828

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120921

R150 Certificate of patent or registration of utility model

Ref document number: 5097275

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees