WO2015151790A1 - 固体撮像素子、電子機器、および撮像方法 - Google Patents

固体撮像素子、電子機器、および撮像方法 Download PDF

Info

Publication number
WO2015151790A1
WO2015151790A1 PCT/JP2015/057836 JP2015057836W WO2015151790A1 WO 2015151790 A1 WO2015151790 A1 WO 2015151790A1 JP 2015057836 W JP2015057836 W JP 2015057836W WO 2015151790 A1 WO2015151790 A1 WO 2015151790A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
solid
specific
pixels
imaging device
Prior art date
Application number
PCT/JP2015/057836
Other languages
English (en)
French (fr)
Inventor
圭司 田谷
知治 荻田
永野 隆史
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/128,629 priority Critical patent/US10181485B2/en
Priority to KR1020167022686A priority patent/KR102429308B1/ko
Priority to CN201580015676.0A priority patent/CN106133912B/zh
Publication of WO2015151790A1 publication Critical patent/WO2015151790A1/ja
Priority to US16/213,038 priority patent/US10658405B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/10Circuitry of solid-state image sensors [SSIS]; Control thereof for transforming different wavelengths into image signals
    • H04N25/11Arrangement of colour filter arrays [CFA]; Filter mosaics
    • H04N25/13Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements
    • H04N25/134Arrangement of colour filter arrays [CFA]; Filter mosaics characterised by the spectral characteristics of the filter elements based on three different wavelength filter elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Definitions

  • An imaging method includes a plurality of pixels that output pixel signals used to construct an image, and a logic circuit for driving the pixels, and the plurality of pixels are formed.
  • a first semiconductor substrate and a second semiconductor substrate on which the logic circuit is formed are configured to have a stacked structure, and the identification is a process other than the imaging process for capturing the image among the plurality of pixels.
  • the specific pixel that is the pixel that outputs the pixel signal used in processing is connected to the logic circuit independently of the normal pixel that is the pixel other than the specific pixel.
  • the solid-state imaging device 11 is configured to be able to drive only some of the pixels 21 when performing the specific process.
  • the pixel 21 that outputs a pixel signal in a normal imaging process is referred to as a normal pixel 21
  • the pixel 21 that outputs a pixel signal in a specific process is referred to as a specific pixel 21 ⁇ / b> X.
  • the normal pixels 21-1 to 21-N include the PDs 24-1 to 24-N, the transfer transistors 25-1 to 25-N, the FDs 26-1 to 26-N, and the amplification transistors. 27-1 to 27-N, selection transistors 28-1 to 28-N, and reset transistors 29-1 to 29-N, respectively.
  • the select transistors 28-1 to 28-N of the normal pixels 21-1 to 21-N are connected to a connection terminal 43-1 formed on the bonding surface of the sensor substrate 41.
  • the bias transistor 45-1 is connected to a connection terminal 44-1 formed on the bonding surface of the logic substrate 42.
  • the solid-state imaging device 11 configured as described above can drive the specific pixel 21X separately from the normal pixels 21-1 to 21-N.
  • the sensor substrate 41 and the logic substrate 42 are joined, so that the normal pixels 21-1 to 21-5 are connected to the logic substrate via the connection terminal 43-1 and the connection terminal 44-1.
  • the specific pixel 21X is electrically connected to the logic substrate 42 via the connection terminal 43-2 and the connection terminal 44-2. That is, the solid-state imaging device 11 has a configuration in which the normal pixels 21-1 to 21-5 and the specific pixel 21X are individually connected to the logic board 42.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the imaging unit 103, and forms an image on a light receiving surface (sensor unit) of the imaging unit 103.
  • the imaging unit 103 accumulates electrons for a certain period in accordance with an image formed on the light receiving surface via the optical system 102, and a signal processing circuit 104 and an operation detection unit 107 output signals corresponding to the accumulated electrons.
  • the above-described solid-state imaging element 11 can be applied to the imaging unit 103, and hereinafter, the imaging unit 103 is also referred to as a solid-state imaging element 11.
  • the solid-state imaging device 11 outputs a pixel signal only for the specific pixel 21X until the timing for storing the image, and the pixel signal output from all the pixels 21 (the normal pixel 21 and the specific pixel 21X) according to the timing for storing the image. Is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 constructs an image from the pixel signals output from the solid-state imaging device 11, and performs various signal processing such as white balance adjustment processing and gamma correction processing. For example, when only the pixel signal of the specific pixel 21X is supplied, the signal processing circuit 104 supplies a low-resolution image constructed by these pixel signals to the display 105 to perform live view display. In addition, when pixel signals output from all the pixels 21 are supplied, the signal processing circuit 104 supplies a high-definition image constructed by these pixel signals to the recording medium 106 for storage (recording). .
  • the motion detection unit 107 performs, for example, a motion detection process for detecting a user's motion, and determines whether or not an imaging operation that is a predetermined motion serving as a trigger for storing an image has been performed. Only the pixel signal of the specific pixel 21X is supplied from the solid-state imaging device 11 to the motion detection unit 107, and the motion detection unit 107 is copied to an image based on an image composed of the pixel signal of only the specific pixel 21X. Detects user activity.
  • FIG. 6 is a flowchart for describing an imaging process (first imaging method) in which the imaging apparatus 101 stores an image when an imaging operation is performed by the user.
  • step S ⁇ b> 12 the motion detection unit 107 performs a motion detection process for detecting a user motion based on an image configured by only the pixel signal of the specific pixel 21 ⁇ / b> X supplied from the solid-state imaging device 11.
  • the motion detection unit 107 holds an image composed only of the pixel signal of the specific pixel 21X, and obtains a difference between the images when a predetermined number of images are accumulated, thereby performing the user's motion. To detect.
  • step S13 the motion detection unit 107 determines whether or not the user has performed a predetermined imaging operation (for example, an operation of waving a hand) instructing to capture an image as a result of the motion detection process in step S12.
  • a predetermined imaging operation for example, an operation of waving a hand
  • step S13 when the motion detection unit 107 determines that the user is not performing a predetermined imaging operation, the process returns to step S11, and the same processing is repeated thereafter. A pixel signal of only 21X is supplied. On the other hand, if the operation detection unit 107 determines in step S13 that the user has performed a predetermined imaging operation, the process proceeds to step S14.
  • step S14 the operation detection unit 107 instructs the solid-state image sensor 11 to drive all pixels, and the solid-state image sensor 11 is output from all the pixels 21 (the normal pixel 21 and the specific pixel 21X).
  • the pixel signal is supplied to the signal processing circuit 104.
  • the imaging apparatus 101A shown in FIG. 7 the same reference numerals are given to components common to the imaging apparatus 101 in FIG. 5, and detailed description thereof is omitted. That is, the imaging apparatus 101A is common to the imaging apparatus 101 in FIG. 5 in that the imaging apparatus 101A includes an optical system 102, an imaging unit 103 (for example, the solid-state imaging device 11 is applied), a signal processing circuit 104, a display 105, and a recording medium 106. To do. However, the imaging apparatus 101A has a configuration different from that of the imaging apparatus 101 in FIG.
  • step S ⁇ b> 22 the luminance detection unit 108 performs illuminance detection processing for detecting illuminance in the surrounding environment where the imaging device 101 ⁇ / b> A is placed based on the luminance of the pixel signal of the specific pixel 21 ⁇ / b> X supplied from the solid-state imaging device 11. .
  • step S24 it is determined whether or not the user has operated the shutter as an operation for instructing image capturing.
  • the user when the user operates the shutter of the imaging apparatus 101A, an operation signal indicating that the shutter has been operated is output from an operation control unit (not shown), and thereby the user operates the shutter. Determined.
  • the imaging device 101A can perform the illuminance detection process based on the luminance of the pixel signal output from the specific pixel 21X.
  • the imaging apparatus 101A drives all the pixels 21 and speeds up the processing compared to a configuration in which the illuminance detection processing is performed based on the luminance of the pixel signal output from all the pixels 21. And can be driven with low power consumption.
  • the addition processing of the solid-state imaging device 11 and the like can be performed more than the operation detection, and the illuminance sensor is mounted only for detecting the illuminance. Can be omitted.
  • FIG. 9 shows a cross-sectional configuration of the first modification of the solid-state imaging device.
  • the heights at which the on-chip lens 62Xa ′ and the on-chip lens 62Xb ′ are arranged are adjusted so that the light is collected on the end surfaces shielded by the light shielding film 71a and the light shielding film 71b.
  • the thickness of the insulating layer 55 stacked on the semiconductor substrate 54 is different between the specific pixel 21 ⁇ / b> X and the normal pixel 21 so that the light is collected on the end surfaces shielded by the light shielding film 71 a and the light shielding film 71 b.
  • the potential of the PD 24X of the specific pixel 21X can be different from the potential of the PD 24 of the normal pixel 21.
  • the potential of the PD 24X of the specific pixel 21X shallow, it is possible to transfer charges more reliably even when driving at high speed.
  • FIG. 12 is a block diagram showing a third configuration example of an imaging apparatus on which the solid-state imaging device 11A of FIG. 9 is mounted, for example.
  • the imaging device 101B includes the optical system 102, the imaging unit 103 (for example, applying the solid-state imaging device 11A), the signal processing circuit 104, the display 105, and the recording medium 106, and the imaging device 101B in FIG. Common.
  • the imaging apparatus 101B has a different configuration from the imaging apparatus 101 of FIG. 5 in that the imaging apparatus 101B includes an AF control unit 109 and a driving unit 110.
  • step S35 the signal processing circuit 104 supplies the image constructed by the pixel signal supplied from the solid-state imaging device 11 in step S34 to the recording medium 106 and stores it. Thereafter, the process returns to step S31, and the same process is repeated thereafter.
  • processing is started when a mode for saving motion information along with an image is selected.
  • the solid-state image pickup device 11 outputs a pixel signal only for the specific pixel 21X, The data is output to the detection unit 107.
  • step S45 the motion detection unit 107 performs a motion detection process for detecting the user's motion based on an image composed only of the pixel signal of the specific pixel 21X supplied from the solid-state imaging device 11.
  • step S48 the motion information calculated in step S47 and the image constructed in step S43 are stored in the recording medium 106 as a set. And after the process of step S48, a process returns to step S41 and the same process is repeated hereafter.
  • the processes described with reference to the flowcharts described above do not necessarily have to be processed in chronological order in the order described in the flowcharts, but are performed in parallel or individually (for example, parallel processes or objects). Processing).
  • the program may be processed by one CPU (Central Processing Unit) or may be distributedly processed by a plurality of CPUs.
  • CPU Central Processing Unit
  • a first semiconductor substrate having a plurality of pixels that output pixel signals used to construct an image; and a logic circuit for driving the pixels;
  • the pixel signal used in a specific process that is a process other than the imaging process for capturing the image among the plurality of pixels is output.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

 本開示は、通常の撮像以外の特定の処理を行う時の駆動の高速化および低消費電力化を図ることができるようにする固体撮像素子、電子機器、および撮像方法に関する。 画像を構築するのに用いられる画素信号を出力する画素と、画素を駆動するためのロジック回路とを備え、複数の画素が形成される第1の半導体基板と、ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成される。そして、複数の画素のうち、画像を撮像する撮像処理以外の処理である特定処理において使用される画素信号を出力する画素である特定画素が、特定画素以外の画素である通常画素と独立して、ロジック回路に接続される。本技術は、例えば、積層型の固体撮像素子に適用できる。

Description

固体撮像素子、電子機器、および撮像方法
 本開示は、固体撮像素子、電子機器、および撮像方法に関し、特に、通常の撮像以外の特定の処理を行う時の駆動の高速化および低消費電力化を図ることができるようにした固体撮像素子、電子機器、および撮像方法に関する。
 従来、デジタルスチルカメラやデジタルビデオカメラなどの撮像機能を備えた電子機器においては、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子が使用されている。固体撮像素子は、光電変換を行うPD(photodiode:フォトダイオード)と複数のトランジスタとが組み合わされた画素を有しており、平面的に配置された複数の画素から出力される画素信号に基づいて画像が構築される。
 また、近年、固体撮像素子を搭載する電子機器の小型化に伴って、固体撮像素子の小型化または小面積化が進められている。
 例えば、特許文献1には、複数の画素がアレイ状に配置された画素アレイ部などを形成する基板と、画素信号に対する信号処理などを行う基板とを積層する構成により、小面積化が図られた積層型の固体撮像素子が開示されている。
特開2010-245506号公報
 ところで、CMOSイメージセンサでは、一般的に、画素からの信号の読み出しを、行または列ごとにスキャンする形式が採用されている。従って、従来のCMOSイメージセンサでは、一部の画素のみにランダムでアクセスするような処理であっても、最低限でも、その一部の画素が配置されている行または列ごとに駆動させる必要があった。
 そのため、通常の撮像以外の特定の処理、例えば、動きを検出する処理や、照度センサとして機能する処理、位相差オートフォーカスを行う処理のように、一部の画素のみを駆動する場合であっても、その一部の画素が配置されている行または列ごとの駆動が行われることになる。そのため、それらの特定の処理を行う時の駆動を高速化することが困難であり、それらの特定の処理を行う際の消費電力が増加することがあった。
 本開示は、このような状況に鑑みてなされたものであり、通常の撮像以外の特定の処理を行う時の駆動の高速化および低消費電力化を図ることができるようにするものである。
 本開示の一側面の固体撮像素子は、画像を構築するのに用いられる画素信号を出力する画素と、前記画素を駆動するためのロジック回路とを備え、複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される。
 本開示の一側面の電子機器は、画像を構築するのに用いられる画素信号を出力する画素と、前記画素を駆動するためのロジック回路とを有し、複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される固体撮像素子を備える。
 本開示の一側面の撮像方法は、画像を構築するのに用いられる画素信号を出力する複数の画素と、前記画素を駆動するためのロジック回路とを有し、複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される固体撮像素子の撮像方法において、前記通常画素に対して所定の割合で配置される所定数の前記特定画素から出力される画素信号に基づいて前記特定処理を行い、前記画像の撮像を指示する所定操作が行われると、複数の前記画素の全てから出力される画素信号に基づいて前記撮像処理を行うステップを含む。
 本開示の一側面においては、画像を構築するのに用いられる画素信号を出力する複数の画素と、画素を駆動するためのロジック回路とを有し、複数の画素が形成される第1の半導体基板と、ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成される。そして、複数の画素のうち、画像を撮像する撮像処理以外の処理である特定処理において使用される画素信号を出力する画素である特定画素が、その特定画素以外の画素である通常画素と独立して、ロジック回路に接続される。
 本開示の一側面によれば、通常の撮像以外の特定の処理を行う時の駆動の高速化および低消費電力化を図ることができる。
本技術を適用した固体撮像素子の一実施の形態の構成例を示すブロック図である。 通常画素および特定画素の平面的な配置を示す図である。 固体撮像素子の回路的な構成を示す図である。 固体撮像素子の断面的な構成を示す図である。 撮像装置の第1の構成例を示すブロック図である。 第1の撮像方法について説明するフローチャートである。 撮像装置の第2の構成例を示すブロック図である。 第2の撮像方法について説明するフローチャートである。 固体撮像素子の第1の変形例における断面的な構成を示す図である。 固体撮像素子の第2の変形例における断面的な構成を示す図である。 固体撮像素子の第3の変形例における断面的な構成を示す図である。 撮像装置の第3の構成例を示すブロック図である。 第3の撮像方法について説明するフローチャートである。 特定画素の補正処理について説明する図である。 固体撮像素子の第4の変形例における断面的な構成を示す図である。 固体撮像素子の第5の変形例における断面的な構成を示す図である。 第4の撮像方法について説明するフローチャートである。 第5の撮像方法について説明するフローチャートである。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 図1は、本技術を適用した固体撮像素子の一実施の形態の構成例を示すブロック図である。
 図1において、固体撮像素子11は、画素領域12、垂直駆動回路13、カラム信号処理回路14、水平駆動回路15、出力回路16、および制御回路17を備えて構成される。
 画素領域12には、複数の画素21がアレイ状に配置されており、それぞれの画素21は、水平信号線22を介して垂直駆動回路13に接続されるとともに、垂直信号線23を介してカラム信号処理回路14に接続される。複数の画素21は、図示しない光学系を介して照射される光の光量に応じた画素信号をそれぞれ出力し、それらの画素信号から、画素領域12に結像する被写体の画像が構築される。
 画素21は、例えば、図1の右側に拡大して示されているように構成されており、光電変換部であるPD24で発生した電荷は、垂直駆動回路13による駆動に従って転送トランジスタ25を介して、浮遊拡散領域であるFD26に転送される。その後、画素21が読み出し対象となると、垂直駆動回路13による駆動に従って選択トランジスタ28がオンにされ、FD26に蓄積されている電荷に応じたレベルの画素信号が、増幅トランジスタ27から選択トランジスタ28を介して垂直信号線23に出力される。また、リセットトランジスタ29をオンにすることでFD26に蓄積されている電荷がリセットされ、リセットレベルの画素信号が、増幅トランジスタ27から選択トランジスタ28を介して垂直信号線23に出力される。
 垂直駆動回路13は、画素領域12に配置される複数の画素21の行ごとに、それぞれの画素21を駆動(転送や、選択、リセットなど)するための駆動信号を、水平信号線22を介して画素21に供給する。カラム信号処理回路14は、複数の画素21から垂直信号線23を介して出力される画素信号に対してCDS(Correlated Double Sampling:相関2重サンプリング)処理を施すことで、画素信号のアナログディジタル変換を行うとともにリセットノイズを除去する。
 水平駆動回路15は、画素領域12に配置される複数の画素21の列ごとに、カラム信号処理回路14から画素信号を出力させるための駆動信号を、カラム信号処理回路14に供給する。出力回路16は、水平駆動回路15の駆動信号に従ったタイミングでカラム信号処理回路14から供給される画素信号を増幅し、後段の画像処理回路に出力する。
 制御回路17は、固体撮像素子11の内部の各ブロックの駆動を制御する。例えば、制御回路17は、各ブロックの駆動周期に従ったクロック信号を生成して、それぞれのブロックに供給する。
 このように構成される固体撮像素子11は、全ての画素21から出力される画素信号を用いて、高精細な画像を撮像することができる。一方、固体撮像素子11は、このような全画素駆動を行うのではなく、一部の画素21から出力される画素信号を用いて、通常の撮像処理以外の特定の処理、例えば、動きを検出する処理や、照度センサとして機能する処理、位相差オートフォーカスを行う処理などの処理(以下適宜、これらの処理を特定処理と称する)を行うことができる。
 例えば、一般的な固体撮像素子では、一部の画素の画素信号を用いて特定処理を行う場合であっても、その一部の画素が配置されている列または行ごとに駆動する必要があった。これに対し、固体撮像素子11は、特定処理を行う際に、一部の画素21のみを駆動することができるように構成される。以下、適宜、通常の撮像処理において画素信号を出力する画素21を通常画素21と称し、特定処理において画素信号を出力する画素21を特定画素21Xと称する。
 このような通常画素21および特定画素21Xの平面的な配置について、図2を参照して説明する。
 図2には、平面的に見た画素領域12の一部が示されている。画素領域12の各画素21には、赤色(R)、緑色(G)、および青色(B)の光を透過するカラーフィルタが、いわゆるベイヤー配列で配置されており、図2において、それぞれの色に対応する升目が画素21を表している。
 また、図2には、太枠に囲われた4つの特定画素21X-1乃至特定画素21X-4が示されている。特定画素21X-1乃至特定画素21X-4は、特定処理を行う際に、それぞれが配置される所定範囲31-1乃至31-4にある複数の通常画素21を代表するもののして扱われる。即ち、図示するように、5×5で配置される25個の画素21ごとに正方形の所定範囲31-1乃至31-4が設定され、24個の通常画素21に対して1個の特定画素21Xの割合で、特定画素21Xが埋め込まれている。
 そして、固体撮像素子11は、通常の撮像を行うときには全画素動作を行って全ての画素21(通常画素21および特定画素21X)から画素信号を出力して高精細な画像を撮像する。一方、固体撮像素子11は、特定処理を行う際には、間引き動作を行って、所定の割合で配置された特定画素21Xからのみ画素信号を出力する。
 次に、図3を参照して、固体撮像素子11の回路的な構成について説明する。
 図3には、N個の通常画素21-1乃至21-Nに対して、1個の特定画素21Xが配置される構成が示されている。また、固体撮像素子11では、画素21などのセンサが形成されるセンサ基板41と、垂直駆動回路13や、水平駆動回路15、制御回路17などのロジック回路が形成されるロジック基板42とが積層して構成される積層構造が採用されている。
 つまり、図3に示すように、固体撮像素子11では、通常画素21-1乃至21-Nおよび特定画素21Xがセンサ基板41に形成され、例えば、ソースフォロワの定電流源として機能するバイアストランジスタ45-1および45-2がロジック基板42に形成される。また、バイアストランジスタ45-1および45-2は、バイアス電圧Vbがゲートに入力され一定電流を出力する。
 通常画素21-1乃至21-Nは、図1を参照して上述したように、PD24-1乃至24-N、転送トランジスタ25-1乃至25-N、FD26-1乃至26-N、増幅トランジスタ27-1乃至27-N、選択トランジスタ28-1乃至28-N、およびリセットトランジスタ29-1乃至29-Nをそれぞれ備えて構成される。そして、通常画素21-1乃至21-Nの選択トランジスタ28-1乃至28-Nが、センサ基板41の接合面に形成される接続端子43-1に接続されている。一方、ロジック基板42では、バイアストランジスタ45-1が、ロジック基板42の接合面に形成される接続端子44-1に接続されている。
 特定画素21Xは、同様に、PD24X、転送トランジスタ25X、FD26X、増幅トランジスタ27X、選択トランジスタ28X、およびリセットトランジスタ29Xを備えて構成される。そして、特定画素21Xの選択トランジスタ28Xが、センサ基板41の接合面に形成される接続端子43-2に接続されている。一方、ロジック基板42では、バイアストランジスタ45-2が、ロジック基板42の接合面に形成される接続端子44-2に接続されている。
 そして、センサ基板41とロジック基板42とは、基板どうしを直接的に接合するダイレクト接合技術を用いて接合される。なお、ダイレクト接合技術については、本願出願人により出願済みの特許文献(特開2000-299379号公報)に詳細に開示されている。
 このように、センサ基板41およびロジック基板42を接合することで、接続端子43-1と接続端子44-1とが電気的に接続されるとともに、接続端子43-2と接続端子44-2とが電気的に接続される。これにより、通常画素21-1乃至21-Nが、接続端子43-1および接続端子44-1を介してバイアストランジスタ45-1に接続され、特定画素21Xが、接続端子43-2および接続端子44-2を介してバイアストランジスタ45-2に接続される。
 このように構成される固体撮像素子11は、通常画素21-1乃至21-Nとは別に、特定画素21Xを個別に駆動することができる。
 次に、図4には、固体撮像素子11の断面的な構成例が示されている。
 図4に示すように、固体撮像素子11は、センサ基板41およびロジック基板42が積層されて構成される。
 ロジック基板42は、図4の下側から順に、半導体層51および配線層52が積層されて構成されている。半導体層51には、ロジック回路を構成するトランジスタなどの素子(図示せず)が形成され、配線層52には、それらの各素子と接続端子44-1および44-2とを接続する配線が形成される。
 センサ基板41は、図4の下側から順に、配線層53、半導体基板54、絶縁層55、カラーフィルタ層56、オンチップレンズ層57が積層されて構成される。図4の例では、センサ基板41に形成される複数の画素21のうち、5つの通常画素21-1乃至21-5および特定画素21Xが示されている。
 配線層53には、接続端子43-1および43-2に接続される配線が形成され、図示するように、通常画素21-1乃至21-5が配線を介して接続端子43-1に接続されるとともに、特定画素21Xが配線を介して接続端子43-2に接続されている。
 半導体基板54には、通常画素21-1乃至21-5および特定画素21Xごとに、PD24-1乃至24-5およびPD24Xが形成される。絶縁層55は、半導体基板54の受光面(図4の上側の面)を絶縁する。
 カラーフィルタ層56には、通常画素21-1乃至21-5および特定画素21Xごとに、それぞれ対応する色の光を透過するフィルター61-1乃至61-5およびフィルター61Xが形成される。オンチップレンズ層57には、通常画素21-1乃至21-5および特定画素21Xごとに、それらに照射される光を集光するオンチップレンズ62-1乃至62-5およびオンチップレンズ62Xが形成される。
 このように、固体撮像素子11では、センサ基板41およびロジック基板42を接合することにより、通常画素21-1乃至21-5が接続端子43-1および接続端子44-1を介して、ロジック基板42に電気的に接続されるとともに、特定画素21Xが接続端子43-2および接続端子44-2を介して、ロジック基板42に電気的に接続される。即ち、固体撮像素子11では、通常画素21-1乃至21-5と特定画素21Xとが個別に、ロジック基板42に接続される構成となっている。
 従って、固体撮像素子11では、特定画素21Xから出力される画素信号を、通常画素21-1乃至21-5とは独立して読み出すことができる。即ち、固体撮像素子11では、特定画素21Xが配置される列ごとに駆動するのではなく、特定画素21Xを列から独立して駆動することができる。このように、特定画素21Xを列から独立して駆動することで、固体撮像素子11は、例えば、画素信号を読み出す処理を高速動作で行うことができる。
 次に、図5は、固体撮像素子11が搭載される撮像装置の第1の構成例を示すブロック図である。
 図5に示すように、撮像装置101は、光学系102、撮像部103、信号処理回路104、ディスプレイ105、記録媒体106、および動作検出部107を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像部103に導き、撮像部103の受光面(センサ部)に結像させる。
 撮像部103は、光学系102を介して受光面に結像される像に応じて、一定期間、電子を蓄積し、その蓄積された電子に応じた信号を信号処理回路104および動作検出部107に供給する。撮像部103には、上述した固体撮像素子11を適用することができ、以下、撮像部103のことを固体撮像素子11とも称する。固体撮像素子11は、画像を保存するタイミングとなるまで特定画素21Xのみ画素信号を出力し、画像を保存するタイミングに従って、全ての画素21(通常画素21および特定画素21X)から出力される画素信号を信号処理回路104に供給する。
 信号処理回路104は、固体撮像素子11から出力される画素信号から画像を構築し、ホワイトバランス調整処理やガンマ補正処理などの各種の信号処理を施す。例えば、信号処理回路104は、特定画素21Xの画素信号のみが供給された場合、それらの画素信号により構築される低解像度の画像をディスプレイ105に供給してライブビュー表示を行う。また、信号処理回路104は、全ての画素21から出力される画素信号が供給された場合、それらの画素信号により構築される高精細な画像を、記録媒体106に供給して保存(記録)させる。
 動作検出部107は、例えば、ユーザの動作を検出する動き検出処理を行い、画像を保存するトリガーとなる所定の動作である撮像動作が行われたか否かを判定する。動作検出部107には、固体撮像素子11から特定画素21Xの画素信号のみが供給され、動作検出部107は、特定画素21Xのみの画素信号により構成される画像に基づいて、画像に写されているユーザの動作を検出する。
 なお、上述したように、固体撮像素子11は、センサ基板41およびロジック基板42が積層されて構成されており、ロジック基板42に、信号処理回路104や動作検出部107などが形成される構成とすることができる。即ち、撮像部103のみが固体撮像素子11に対応する構成ではなく、1枚のチップからなる固体撮像素子11に、撮像部103、信号処理回路104、および動作検出部107が組み込まれる構成とすることができる。
 次に、図6は、撮像装置101が、ユーザにより撮像動作が行われたときに画像を保存する撮像処理(第1の撮像方法)を説明するフローチャートである。
 例えば、ユーザが撮像装置101を操作して、撮像動作が行われたときに画像を保存するモードを選択すると処理が開始される。そして、ステップS11において、固体撮像素子11は、特定画素21Xのみ画素信号を、信号処理回路104および動作検出部107に出力する。
 ステップS12において、動作検出部107は、固体撮像素子11から供給される特定画素21Xの画素信号のみにより構成される画像に基づき、ユーザの動作を検出する動き検出処理を行う。例えば、動作検出部107は、特定画素21Xの画素信号のみにより構成される画像を保持し、所定枚数の画像が蓄積された段階で、それらの画像どうしの差分を求めることで、ユーザの動作を検出する。
 ステップS13において、動作検出部107は、ステップS12の動き検出処理の結果、ユーザが、画像の撮像を指示する所定の撮像動作(例えば、手を振る動作など)を行ったか否かを判定する。
 ステップS13において、動作検出部107が、ユーザが所定の撮像動作を行っていないと判定した場合、処理はステップS11に戻り、以下、同様の処理が繰り返され、動作検出部107に順次、特定画素21Xのみの画素信号が供給される。一方、ステップS13において、動作検出部107が、ユーザが所定の撮像動作を行ったと判定した場合、処理はステップS14に進む。
 ステップS14において、動作検出部107は、固体撮像素子11に対して、全画素駆動するように指示し、固体撮像素子11は、全ての画素21(通常画素21および特定画素21X)から出力される画素信号を信号処理回路104に供給する。
 ステップS15において、信号処理回路104は、ステップS14で固体撮像素子11から供給される画素信号により構築される画像を、記録媒体106に供給して保存させる。その後、処理はステップS11に戻り、以下、同様の処理が繰り返される。
 以上のように、撮像装置101では、特定画素21Xを個別に駆動することができるように固体撮像素子11が構成されていることより、ユーザにより撮像動作が行われたと判定されるまでは、特定画素21Xのみから画素信号を出力させることができる。そして、撮像装置101では、ユーザにより撮像動作が行われると、複数の画素21の全てから出力される画素信号に基づいて画像を撮像する撮像処理が行われる。従って、撮像装置101では、特定画素21Xから出力される画素信号のみにより構成される画像を用いて動き検出処理を行うことができ、例えば、全ての画素21を駆動させる構成と比較して、処理を高速化することができ、低消費電力で駆動することができる。
 次に、図7は、固体撮像素子11が搭載される撮像装置の第2の構成例を示すブロック図である。
 図7に示す撮像装置101Aにおいて、図5の撮像装置101と共通する構成については同一の符号を付し、その詳細な説明は省略する。即ち、撮像装置101Aは、光学系102、撮像部103(例えば、固体撮像素子11を適用)、信号処理回路104、ディスプレイ105、および記録媒体106を備える点で、図5の撮像装置101と共通する。但し、撮像装置101Aは、輝度検出部108を備える点で、図5の撮像装置101と異なる構成となっている。
 輝度検出部108は、例えば、固体撮像素子11から供給される特定画素21Xの画素信号の輝度に基づいて、撮像装置101Aが置かれている周囲の環境における照度を検出する照度検出処理を行い、その照度に基づいた動作を行う。例えば、輝度検出部108は、照度検出処理により検出された照度の変化に従って、照度が低下したときにはディスプレイ105の輝度を下げ、照度が上昇したときにはディスプレイ105の輝度を上げる動作を行う。なお、上述したように、1枚のチップからなる固体撮像素子11に、撮像部103、信号処理回路104、および輝度検出部108が組み込まれる構成とすることができる。
 次に、図8は、撮像装置101Aが、撮像装置101Aが置かれている周囲の環境における照度に基づいた動作を行う処理(第2の撮像方法)を説明するフローチャートである。
 例えば、ユーザが撮像装置101Aを操作して、撮像装置101Aが置かれている周囲の環境における照度に基づいた動作を行うモードを選択すると処理が開始される。そして、ステップS21において、固体撮像素子11は、特定画素21Xのみ画素信号を、信号処理回路104および輝度検出部108に出力する。
 ステップS22において、輝度検出部108は、固体撮像素子11から供給される特定画素21Xの画素信号の輝度に基づき、撮像装置101Aが置かれている周囲の環境における照度を検出する照度検出処理を行う。
 ステップS23において、輝度検出部108は、ステップS12の照度検出処理で検出された照度に基づいた動作を行う。例えば、輝度検出部108は、照度検出処理により検出された照度の変化に従って、照度が低下したときにはディスプレイ105の輝度を下げ、照度が上昇したときにはディスプレイ105の輝度を上げる動作を行う。
 ステップS24において、画像の撮像を指示する操作として、ユーザによりシャッタが操作されたか否かが判定される。例えば、撮像装置101Aでは、ユーザにより撮像装置101Aのシャッタが操作されると、図示しない操作制御部からシャッタが操作されたことを示す操作信号が出力され、これにより、ユーザによりシャッタが操作されたと判定される。
 ステップS24において、ユーザによりシャッタが操作されていないと判定された場合、処理はステップS21に戻り、以下、同様の処理が繰り返される。一方、ステップS24において、ユーザによりシャッタが操作されたと判定された場合、処理はステップS25に進む。
 ステップS25において、固体撮像素子11は、全ての画素21(通常画素21および特定画素21X)から出力される画素信号を信号処理回路104に供給する。
 ステップS26において、信号処理回路104は、ステップS25で固体撮像素子11から供給される画素信号により構築される画像を、記録媒体106に供給して保存させる。その後、処理はステップS21に戻り、以下、同様の処理が繰り返される。
 以上のように、撮像装置101Aでは、特定画素21Xから出力される画素信号の輝度に基づいて照度検出処理を行うことができる。これにより、撮像装置101Aは、例えば、全ての画素21を駆動させ、全ての画素21から出力される画素信号の輝度に基づいて照度検出処理を行う構成と比較して、処理を高速化することができ、低消費電力で駆動することができる。さらに、撮像装置101Aでは、照度を検出することができればよいので、固体撮像素子11の加算処理などを、動作検出よりも多く行うことができ、また、照度を検出するためだけの照度センサの搭載を省略することができる。
 次に、図9には、固体撮像素子の第1の変形例における断面的な構成が示されている。
 図9に示す固体撮像素子11Aの断面構造において、図4の固体撮像素子11と共通する構成については同一の符号を付し、その詳細な説明は省略する。即ち、固体撮像素子11Aは、センサ基板41およびロジック基板42が積層されて構成され、ロジック基板42は、半導体層51および配線層52が積層されて構成され、センサ基板41は、配線層53、半導体基板54、絶縁層55、カラーフィルタ層56、オンチップレンズ層57が積層されて構成される点で、図4の固体撮像素子11と共通する。また、固体撮像素子11Aでは、画素21ごとに、PD24、フィルター61、およびオンチップレンズ62が配置される点で、図4の固体撮像素子11と共通する。
 但し、固体撮像素子11Aでは、絶縁層55において、隣り合う画素21どうしの間に、隣接する画素21からの入射光を遮光する遮光膜71が形成されているとともに、特定画素21Xaでは、遮光膜71aにより開口の左側の略半分が遮光され、特定画素21Xbでは、遮光膜71bにより開口の右側の略半分が遮光される点で、図4の固体撮像素子11と異なる構成とされる。
 即ち、固体撮像素子11Aでは、一対の特定画素21Xaおよび特定画素21Xbが、撮像面において検出される位相差に基づいてAF(Auto Focus)処理を行う像面位相差AFに用いられる。例えば、固体撮像素子11Aの複数個所に組み込まれている特定画素21Xaから出力される開口の左側半分が遮光された光による画素信号により第1の位相差画像が構成される。同様に、固体撮像素子11Bの複数個所に組み込まれている特定画素21Xbから出力される開口の右側半分が遮光された光による画素信号により第2の位相差画像が構成される。そして、第1の位相差画像に写されている被写体の位置と、第2の位相差画像に写されている被写体の位置との差分に基づいて、被写体までの距離が計測され、AF制御することができる。
 そして、固体撮像素子11Aでは、特定画素21Xaおよび特定画素21Xbが、図4の特定画素21Xと同様に、通常画素21とは個別にロジック基板42に接続される構成となっている。なお、一対の特定画素21Xaおよび特定画素21Xbが、図示しない配線により接続された構成で共通の接続端子を介して、通常画素21とは個別にロジック基板42に接続される構成としてもよい。また、特定画素21Xaの遮光膜71aおよび特定画素21Xbの遮光膜71bは、画素21における遮光領域とは異なって、位相差画像を取得することができる程度に開口の少なくとも一部を遮光する構成であればよい。
 次に、図10には、固体撮像素子の第2の変形例における断面的な構成が示されている。
 図10に示す固体撮像素子11Bの断面構造において、図9の固体撮像素子11Aと共通する構成については同一の符号を付し、その詳細な説明は省略する。
 即ち、固体撮像素子11Bでは、特定画素21Xa’および特定画素21Xb’に、無色(クリア)のフィルター61Xa’およびフィルター61Xb’が配置されている点で、図9の固体撮像素子11Aと異なる構成とされる。このように、固体撮像素子11Bでは、所定の色の光を透過させる通常画素21のフィルター61とは異なり、例えば、光の透過性の良好なフィルター61Xa’およびフィルター61Xb’を用いることで、特定画素21Xa’および特定画素21Xb’の感度を向上させることができる。これにより、像面位相差AFの合焦精度を向上させることができ、例えば、低照度な環境でも正確にフォーカスを制御することができる。
 次に、図11には、固体撮像素子の第3の変形例における断面的な構成が示されている。
 図11に示す固体撮像素子11Cの断面構造において、図9の固体撮像素子11Aと共通する構成については同一の符号を付し、その詳細な説明は省略する。
 即ち、固体撮像素子11Cでは、特定画素21Xa’’および特定画素21Xb’’に、通常画素21のオンチップレンズ62とは光学特性の異なるオンチップレンズ62Xa’およびオンチップレンズ62Xb’が配置されている点で、図9の固体撮像素子11Aと異なる構成とされる。例えば、固体撮像素子11Cでは、遮光膜71aおよび遮光膜71bにより遮光される端面に光が集光されるように、オンチップレンズ62Xa’およびオンチップレンズ62Xb’の曲率が調整される。または、固体撮像素子11Cでは、遮光膜71aおよび遮光膜71bにより遮光される端面に光が集光されるように、オンチップレンズ62Xa’およびオンチップレンズ62Xb’が配置される高さが調整される。例えば、特定画素21Xと通常画素21とで、半導体基板54に積層される絶縁層55の厚みが異なるものとし、遮光膜71aおよび遮光膜71bにより遮光される端面に光が集光されるように調整することができる。これにより、固体撮像素子11Cでは、より正確な位相差画像を得ることができ、像面位相差AFの合焦精度を向上させることができる。
 なお、このように、通常画素21とは異なる光を透過するフィルター61や、通常画素21とは異なる光学特性のオンチップレンズ62を、特定画素21Xに配置する他にも、特定画素21Xの構造などを通常画素21とは異なるものとしてもよい。例えば、特定画素21XのPD24Xにおいて光電変換を行って電荷を蓄積する電荷蓄積時間を、通常画素21のPD24における電荷蓄積時間と異なるものとすることができる。例えば、高速駆動を行う特定画素21Xでは電荷蓄積時間を短くする一方、通常画素21では電荷蓄積時間を長くして、より高感度な画像を得るようにすることができる。また、例えば、特定画素21XのPD24Xのポテンシャルを通常画素21のPD24のポテンシャルと異なるものとすることができる。例えば、特定画素21XのPD24Xのポテンシャルを浅く形成することで、高速駆動する際にも、電荷の転送をより確実に行うことができる。
 次に、図12は、例えば、図9の固体撮像素子11Aが搭載される撮像装置の第3の構成例を示すブロック図である。
 図12に示す撮像装置101Bにおいて、図5の撮像装置101と共通する構成については同一の符号を付し、その詳細な説明は省略する。即ち、撮像装置101Bは、光学系102、撮像部103(例えば、固体撮像素子11Aを適用する)、信号処理回路104、ディスプレイ105、および記録媒体106を備える点で、図5の撮像装置101と共通する。但し、撮像装置101Bは、AF制御部109および駆動部110を備える点で、図5の撮像装置101と異なる構成となっている。
 AF制御部109には、固体撮像素子11Aから特定画素21Xaおよび特定画素21Xbの画素信号が供給される。AF制御部109は、特定画素21Xaの画素信号から構成される位相差画像に写されている被写体と、特定画素21Xbの画素信号から構成される位相差画像に写されている被写体との差分を求め、その被写体までの距離を算出する。そして、AF制御部109は、算出した被写体までの距離に基づいて、被写体にフォーカスが合うように、駆動部110に対する制御を行うAF処理(合焦処理)を行う。
 駆動部110は、AF制御部109の制御に従って、光学系102が有するAF用のレンズを駆動する。なお、1枚のチップからなる固体撮像素子11に、撮像部103、信号処理回路104、およびAF制御部109が組み込まれる構成とすることができる。
 次に、図13は、撮像装置101Bが、像面位相差AFを行う処理(第3の撮像方法)を説明するフローチャートである。
 例えば、ユーザが撮像装置101Bを操作して、AFモードを選択すると処理が開始され、ステップS31において、固体撮像素子11Aは、特定画素21Xaおよび特定画素21Xbのみ画素信号をAF制御部109に出力する。
 ステップS32において、AF制御部109は、特定画素21Xaおよび特定画素21Xbの画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて、その被写体までの距離を算出する。そして、AF制御部109は、算出した被写体までの距離に基づいて、被写体にフォーカスが合うように、駆動部110に対する制御を行い、駆動部110は、AF制御部109の制御に従って、光学系102が有するAF用のレンズを駆動するAF処理を行う。
 ステップS33において、AF制御部109は、ステップS32でAF処理を行った後に得られる位相差画像に基づいて、被写体に合焦したか否かを判定する。そして、AF制御部109は、被写体に合焦していないと判定した場合、処理はステップS31に戻り、以下、同様の処理が繰り返される。一方、ステップS33において、AF制御部109は、被写体に合焦したと判定した場合、処理はステップS34に進む。
 ステップS34において、AF制御部109は、固体撮像素子11Aに対して、全画素駆動するように指示し、固体撮像素子11Aは、全ての画素21(通常画素21並びに特定画素21Xaおよび特定画素21Xb)から出力される画素信号を信号処理回路104に供給する。
 ステップS35において、信号処理回路104は、ステップS34で固体撮像素子11から供給される画素信号により構築される画像を、記録媒体106に供給して保存させる。その後、処理はステップS31に戻り、以下、同様の処理が繰り返される。
 以上のように、撮像装置101Bでは、特定画素21Xaおよび特定画素21Xbから出力される画素信号のみにより構成される画像を用いてAF処理を行うことができる。これにより、例えば、全ての画素21を駆動させ、全ての画素から出力される画素信号により構成される画像を用いたAF処理よりも、AF処理を高速化することができ、より短時間で、被写体に合焦させることができる。また、低消費電力で駆動することができる。
 次に、図14を参照して、特定画素21Xの補正処理について説明する。
 例えば、固体撮像素子11において、特定画素21Xは、ロジック基板42との接続構成が通常画素21とは異なるため、その画素特性も通常画素21とは異なるものとなる。これにより、例えば、同一の照度の光を受光しても、特定画素21Xの画素信号は、通常画素21の画素信号と異なるものとなり、正確な画像を構築するには補正を行う必要がある。そこで、固体撮像素子11は、特定画素21Xの近傍にあり、特定画素21Xと同色の光を受光する通常画素21の画素信号から、特定画素21Xの画素信号を補正する補正処理を行うことで、より正確な画像を構築することができる。
 例えば、図14に示すように、補正の対象となる緑色の光を受光する特定画素21X(G)は、1画素離れた上側にある緑色の光を受光する通常画素21-1(G)から出力される画素信号、1画素離れた下側にある緑色の光を受光する通常画素21-2(G)から出力される画素信号、1画素離れた右側にある緑色の光を受光する通常画素21-3(G)から出力される画素信号、および1画素離れた左側にある緑色の光を受光する通常画素21-4(G)から出力される画素信号を用いて、画素特性を補正する補正処理を行うことができる。なお、他の通常画素21を使用したり、他の補正方法で補正処理をおこなってもよい。また、このような画素信号に対する補正処理を、例えば、図5の信号処理回路104が行う他、補正処理を行う回路を固体撮像素子11のロジック基板42に組み込むことができる。
 さらに、例えば、特定画素21Xの周辺にある通常画素21に対して、それらの通常画素21の近傍にあり、同色の光を受光する他の通常画素21の画素信号を用いた補正処理を行ってもよい。即ち、特定画素21Xの影響が、その周辺にある通常画素21にも及ぶことが想定され、そのような場合には、特定画素21Xの周辺にある通常画素21に対して補正処理を行うことで、より正確な画像を構築することができる。
 次に、図15は、固体撮像素子の第4の変形例における断面的な構成を示す図である。
 図15に示す固体撮像素子11Dの断面構造において、図4の固体撮像素子11と共通する構成については同一の符号を付し、その詳細な説明は省略する。即ち、固体撮像素子11Dは、センサ基板41およびロジック基板42を有し、ロジック基板42は半導体層51および配線層52が積層され、センサ基板41は、配線層53、半導体基板54、絶縁層55、カラーフィルタ層56、オンチップレンズ層57が積層されて構成される点で、図4の固体撮像素子11と共通する。また、固体撮像素子11Dでは、画素21ごとに、PD24、フィルター61、およびオンチップレンズ62が配置される点で、図4の固体撮像素子11と共通する。
 但し、固体撮像素子11Dは、センサ基板41およびロジック基板42の間に赤外センサ基板81が配置されている点で、図4の固体撮像素子11と異なる構成とされる。
 赤外センサ基板81は、図15の下側から順に、配線層82、半導体層83、および配線層84が積層されて構成され、半導体層83に赤外PD85および86が形成されている。赤外PD85および86は、固体撮像素子11Dの深い領域まで届く赤外光を検出する。赤外PD85および86から出力される赤外光の画素信号は、例えば、監視カメラとして利用したり、物体の距離を計測するセンサとして利用したりすることができる。また、固体撮像素子11Dの周辺部分には、赤外センサ基板81を貫通するように、貫通電極87が形成され、貫通電極87によりセンサ基板41およびロジック基板42が電気的に接続される。
 このように構成される固体撮像素子11Dでは、図4の固体撮像素子11と同様に、センサ基板41に配置される特定画素21X(図15には図示せず)を個別に駆動するように構成したり、赤外センサ基板81に形成される赤外PD85または86のいずれかを個別に駆動したりするように構成することができる。または、固体撮像素子11Dでは、センサ基板41に配置される特定画素21X(図15には図示せず)と、赤外センサ基板81に形成される赤外PD85または86との両方が、個別に駆動するように構成してもよい。
 次に、図16は、固体撮像素子の第5の変形例における断面的な構成を示す図である。
 図16に示す固体撮像素子11Eの断面構造において、図4の固体撮像素子11と共通する構成については同一の符号を付し、その詳細な説明は省略する。即ち、固体撮像素子11Eは、センサ基板41およびロジック基板42を有し、ロジック基板42は半導体層51および配線層52が積層され、センサ基板41は、配線層53、半導体基板54、絶縁層55、カラーフィルタ層56、オンチップレンズ層57が積層されて構成される点で、図4の固体撮像素子11と共通する。また、固体撮像素子11Eでは、画素21ごとに、PD24、フィルター61、およびオンチップレンズ62が配置される点で、図4の固体撮像素子11と共通する。
 但し、固体撮像素子11Eは、センサ基板41およびロジック基板42の間に赤外センサ基板91が配置されている点で、図4の固体撮像素子11と異なる構成とされる。
 赤外センサ基板91は、図16の下側から順に、配線層92、化合物半導体層93、および配線層94が積層されて構成される。化合物半導体層93は、例えば、InGaAs(Indium Gallium Arsenide(インジウムガリウムヒ化物))などにより構成され、固体撮像素子11Eの深い領域まで届く赤外光を検出する。そして、化合物半導体層93は、それぞれ対応する画素21ごとに赤外PDとして機能し、赤外PDごとに赤外光の画素信号を出力する。化合物半導体層93から出力される赤外光の画素信号は、例えば、監視カメラとして利用したり、物体の距離を計測するセンサとして利用したりすることができる。また、固体撮像素子11Eの周辺部分には、赤外センサ基板91を貫通するように、貫通電極95が形成され、貫通電極95によりセンサ基板41およびロジック基板42が電気的に接続される。
 このように構成される固体撮像素子11Eでは、図4の固体撮像素子11と同様に、センサ基板41に配置される特定画素21X(図16には図示せず)を個別に駆動するように構成したり、赤外センサ基板91に形成される化合物半導体層93の赤外PDを個別に駆動したりするように構成することができる。または、固体撮像素子11Dでは、センサ基板41に配置される特定画素21X(図16には図示せず)と、赤外センサ基板91に形成される化合物半導体層93の赤外PDとが、個別に駆動するように構成してもよい。
 次に、図17のフローチャートを参照して、第4の撮像方法について説明する。
 例えば、図5の撮像装置101において、画像とともに動き情報を保存するモードを選択すると処理が開始され、ステップS41において、固体撮像素子11は、特定画素21Xのみ画素信号を、信号処理回路104および動作検出部107に出力する。
 ステップS42において、ユーザによりシャッタが操作されたか否かが判定され、ユーザによりシャッタが操作されていないと判定された場合、処理はステップS41に戻り、以下、同様の処理が繰り返される。一方、ステップS42において、ユーザによりシャッタが操作されたと判定された場合、処理はステップS43およびS45に進む。
 ステップS43およびS44の処理と、ステップS45乃至S47の処理は並行して行われる。
 ステップS43において、固体撮像素子11は、全ての画素21(通常画素21および特定画素21X)から出力される画素信号を信号処理回路104に供給する。ステップS44において、信号処理回路104は、ステップS43で固体撮像素子11から供給される画素信号により構築される画像を、記録媒体106に供給して保存させる。
 一方、ステップS45において、動作検出部107は、固体撮像素子11から供給される特定画素21Xの画素信号のみにより構成される画像に基づき、ユーザの動作を検出する動き検出処理を行う。
 ステップS46において、動作検出部107は、所定回数の動き検出処理を行ったか否かを判定し、動き検出処理が所定回数未満である場合には、所定回数となるまで動き検出処理が繰り返される。上述したように、動き検出処理は、高速駆動することができ、ステップS43において全ての画素21から画素信号を出力してステップS44において画像を保存する間に、複数回行うことができる。
 ステップS46において、動作検出部107が、所定回数の動き検出処理を行ったと判定した場合、処理はステップS47に進み、動作検出部107は、複数回行った動き検出処理により検出された動きから動き情報を算出する。
 ステップS44およびS47の処理後、処理はステップS48に進み、ステップS47で算出された動き情報と、ステップS43で構築された画像とがセットにして、記録媒体106に保存される。そして、ステップS48の処理後、処理はステップS41に戻り、以下、同様の処理が繰り返される。
 以上のように、撮像装置101では、特定画素21Xを高速駆動することができるので、通常の撮像が行われている間に、特定画素21Xから出力される画素信号に基づいて、動き情報を取得することができる。これにより、被写体が撮像されたタイミングにおける動きを、画像とともに保存することができる。なお、第4の撮像方法において、ステップS41の処理を省略して、シャッタが操作されたことを検出して処理が開始されるようにしてもよい。また、第4の撮像方法において、ステップS46における判定処理を行わずに、ステップS45の動き検出処理を所定回数、連続的に行うようにしてもよい。
 次に、図18のフローチャートを参照して、第5の撮像方法について説明する。
 例えば、図12の撮像装置101Bにおいて、画像とともに距離情報を保存するモードを選択すると処理が開始され、ステップS51において、固体撮像素子11Aは、特定画素21Xaおよび特定画素21Xbのみ画素信号を、信号処理回路104およびAF制御部109に出力する。
 ステップS52において、ユーザによりシャッタが操作されたか否かが判定され、ユーザによりシャッタが操作されていないと判定された場合、処理はステップS51に戻り、以下、同様の処理が繰り返される。一方、ステップS52において、ユーザによりシャッタが操作されたと判定された場合、処理はステップS53およびS56に進む。
 ステップS53乃至S55の処理と、ステップS56乃至S58の処理は並行して行われる。
 ステップS53において、AF制御部109は、特定画素21Xaおよび特定画素21Xbの画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて、その被写体までの距離を算出する。そして、AF制御部109は、算出した被写体までの距離に基づいて、被写体にフォーカスが合うように、駆動部110に対する制御を行い、駆動部110は、AF制御部109の制御に従って、光学系102が有するAF用のレンズを駆動するAF処理を行う。AF処理を行った結果、被写体にフォーカスが合うと処理はステップS54に進む。
 ステップS54において、AF制御部109は、固体撮像素子11Aに対して、全画素駆動するように指示し、固体撮像素子11Aは、全ての画素21(通常画素21並びに特定画素21Xaおよび特定画素21Xb)から出力される画素信号を信号処理回路104に供給する。ステップS55において、信号処理回路104は、ステップS54で固体撮像素子11Aから供給される画素信号により構築される画像を、記録媒体106に供給して保存させる。
 一方、ステップS56において、AF制御部109は、特定画素21Xaおよび特定画素21Xbの画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて、その被写体までの距離を算出する距離検出処理を行う。
 ステップS57において、AF制御部109は、所定回数の距離検出処理を行ったか否かを判定し、距離検出処理が所定回数未満である場合には、所定回数となるまで距離検出処理が繰り返される。上述したように、距離検出処理は、高速駆動することができ、ステップS53からステップS55までの処理が行われる間に、複数回行うことができる。
 ステップS57において、AF制御部109が、所定回数の距離検出処理を行ったと判定した場合、処理はステップS58に進み、AF制御部109は、複数回行った距離検出処理により検出された距離から距離情報(被写体が光軸方向に移動しているときには、被写体までの距離の変化を含む情報)を算出する。
 ステップS55およびS58の処理後、処理はステップS59に進み、ステップS58で算出された距離情報と、ステップS54で構築された画像とをセットにして、記録媒体106に保存される。そして、ステップS59の処理後、処理はステップS51に戻り、以下、同様の処理が繰り返される。なお、第5の撮像方法において、ステップS51の処理を省略して、シャッタが操作されたことを検出して処理が開始されるようにしてもよい。また、第5の撮像方法において、ステップS57における判定処理を行わずに、ステップS56の距離検出処理を所定回数、連続的に行うようにしてもよい。
 以上のように、撮像装置101Bでは、特定画素21Xaおよび特定画素21Xbを高速駆動することができるので、通常の撮像が行われている間に、特定画素21Xaおよび特定画素21Xbから出力される画素信号に基づいて、複数の距離情報を取得することができる。これにより、被写体が撮像されたタイミングにおける被写体までの距離の変化を、画像とともに保存することができる。例えば、AF用のレンズの動きと同期された被写体までの距離情報を、画像とセットで記録することができる。
 なお、上述のフローチャートを参照して説明した各処理は、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。また、プログラムは、1のCPU(Central Processing Unit)により処理されるものであっても良いし、複数のCPUによって分散処理されるものであっても良い。
 また、固体撮像素子11は、撮像装置101以外に、例えば、撮像を主な機能とする電子機器、携帯電話機器、または、いわゆるスマートフォンやタブレットなどと呼ばれる多機能型携帯端末のように撮像機能を備えた電子機器が適応可能とされる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 画像を構築するのに用いられる画素信号を出力する画素と、
 前記画素を駆動するためのロジック回路と
 を備え、
 複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、
 複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される
 固体撮像素子。
(2)
 前記通常画素に対して所定の割合で配置される所定数の前記特定画素から出力される画素信号に基づいて前記特定処理を行い、
 前記画像の撮像を指示する所定操作が行われると、複数の前記画素の全てから出力される画素信号に基づいて前記撮像処理を行う
 上記(1)に記載の固体撮像素子。
(3)
 前記特定処理は、前記画像に写されている被写体の動作を検出する動き検出処理である
 上記(1)または(2)に記載の固体撮像素子。
(4)
 前記特定処理は、前記撮像素子を備える電子機器が置かれている周囲の環境における照度を検出する照度検出処理である
 上記(1)または(2)に記載の固体撮像素子。
(5)
 前記特定画素は、照射される光を開口の一部の領域で遮光して得られる画素信号から構築される位相差画像を取得するのに用いられる位相差画素であり、
 前記特定処理は、前記位相差画素から出力される画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて前記被写体にフォーカスを合わせる合焦処理である
 上記(1)または(2)に記載の固体撮像素子。
(6)
 前記特定画素に配置される遮光膜による遮光領域が、前記通常画素に配置される遮光膜による遮光領域とは異なって、前記特定画素の開口の少なくとも一部を遮光する
 上記(5)に記載の固体撮像素子。
(7)
 前記特定画素に配置されるフィルターが透過する光の色が、前記通常画素に配置されるフィルターが透過する光の色とは異なる
 上記(5)または(6)に記載の固体撮像素子。
(8)
 前記特定画素に配置されるオンチップレンズの光学特性が、前記通常画素に配置されるオンチップレンズの光学特性とは異なる
 上記(5)から(7)までのいずれかに記載の固体撮像素子。
(9)
 前記第1の半導体基板を構成する半導体基板に積層される絶縁膜の厚みが、前記特定画素と前記通常画素とで異なる
 上記(5)から(8)までのいずれかに記載の固体撮像素子。
(10)
 前記特定画素が有する光電変換部において光電変換を行って電荷を蓄積する蓄積時間が、前記通常画素における前記蓄積時間とは異なる
 上記(1)から(9)までのいずれかに記載の固体撮像素子。
(11)
 前記特定画素が有する光電変換部のポテンシャルが、前記通常画素が有する光電変換部のポテンシャルとは異なる
 上記(1)から(10)までのいずれかに記載の固体撮像素子。
(12)
 前記特定画素から出力される画素信号に対して、その特定画素の近傍にある所定の前記通常画素の画素信号を用いた補正が行われる
 上記(1)から(11)までのいずれかに記載の固体撮像素子。
(13)
 前記特定画素の周辺にある前記通常画素から出力される画素信号に対して、その通常画素の近傍にある所定の前記通常画素の画素信号を用いた補正が行われる
 上記(1)から(12)までのいずれかに記載の固体撮像素子。
(14)
 前記第1の半導体基板の前記画素よりも深い位置に形成される他の画素を有する第3の半導体基板が積層される
 上記(1)から(12)までのいずれかに記載の固体撮像素子。
(15)
 画像を構築するのに用いられる画素信号を出力する画素と、
 前記画素を駆動するためのロジック回路と
 を有し、
 複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、
 複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される
 固体撮像素子を備える電子機器。
(16)
 画像を構築するのに用いられる画素信号を出力する複数の画素と、前記画素を駆動するためのロジック回路とを有し、複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される固体撮像素子の撮像方法において、
 前記通常画素に対して所定の割合で配置される所定数の前記特定画素から出力される画素信号に基づいて前記特定処理を行い、
 前記画像の撮像を指示する所定操作が行われると、複数の前記画素の全てから出力される画素信号に基づいて前記撮像処理を行う
 ステップを含む撮像方法。
(17)
 前記特定処理は、前記画像に写されている被写体の動作を検出する動き検出処理であり、
 前記撮像処理で撮像される画像とともに、前記動き検出処理で取得される動き情報を保存する
 ステップを含む上記(16)に記載の撮像方法。
(18)
 前記特定画素は、照射される光を開口の一部の領域で遮光して得られる画素信号から構築される位相差画像を取得するのに用いられる位相差画素であり、
 前記特定処理は、前記位相差画素から出力される画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて前記被写体にフォーカスを合わせる合焦処理であって、
 前記撮像処理で撮像される画像とともに、前記合焦処理で取得される動き情報を保存する
 ステップを含む上記(16)に記載の撮像方法。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 11 固体撮像素子, 12 画素領域, 13 垂直駆動回路, 14 カラム信号処理回路, 15 水平駆動回路, 16 出力回路, 17 制御回路, 21 画素,通常画素 21 画素,通常画素, 21X 特定画素, 23 垂直信号線, 24 PD, 25 転送トランジスタ, 26 FD, 27 増幅トランジスタ, 28 選択トランジスタ, 29 リセットトランジスタ, 31-1乃至31-4 所定範囲, 41 センサ基板, 42 ロジック基板, 43-1および43-2 接続端子, 44-1および44-2 接続端子, 45-1および45-2 バイアストランジスタ, 51 半導体層, 52 配線層, 53 配線層, 54 半導体基板, 55 絶縁層, 56 カラーフィルタ層, 57 オンチップレンズ層, 61 フィルター, 62 オンチップレンズ, 101 撮像装置, 102 光学系, 103 撮像部, 104 信号処理回路, 105 ディスプレイ, 106 記録媒体, 107 動作検出部, 108 輝度検出部, 109 AF制御部, 110 駆動部

Claims (18)

  1.  画像を構築するのに用いられる画素信号を出力する画素と、
     前記画素を駆動するためのロジック回路と
     を備え、
     複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、
     複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される
     固体撮像素子。
  2.  前記通常画素に対して所定の割合で配置される所定数の前記特定画素から出力される画素信号に基づいて前記特定処理を行い、
     前記画像の撮像を指示する所定操作が行われると、複数の前記画素の全てから出力される画素信号に基づいて前記撮像処理を行う
     請求項1に記載の固体撮像素子。
  3.  前記特定処理は、前記画像に写されている被写体の動作を検出する動き検出処理である
     請求項2に記載の固体撮像素子。
  4.  前記特定処理は、前記撮像素子を備える電子機器が置かれている周囲の環境における照度を検出する照度検出処理である
     請求項2に記載の固体撮像素子。
  5.  前記特定画素は、照射される光を開口の一部の領域で遮光して得られる画素信号から構築される位相差画像を取得するのに用いられる位相差画素であり、
     前記特定処理は、前記位相差画素から出力される画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて前記被写体にフォーカスを合わせる合焦処理である
     請求項1に記載の固体撮像素子。
  6.  前記特定画素に配置される遮光膜による遮光領域が、前記通常画素に配置される遮光膜による遮光領域とは異なって、前記特定画素の開口の少なくとも一部を遮光する
     請求項5に記載の固体撮像素子。
  7.  前記特定画素に配置されるフィルターが透過する光の色が、前記通常画素に配置されるフィルターが透過する光の色とは異なる
     請求項5に記載の固体撮像素子。
  8.  前記特定画素に配置されるオンチップレンズの光学特性が、前記通常画素に配置されるオンチップレンズの光学特性とは異なる
     請求項5に記載の固体撮像素子。
  9.  前記第1の半導体基板を構成する半導体基板に積層される絶縁膜の厚みが、前記特定画素と前記通常画素とで異なる
     請求項5に記載の固体撮像素子。
  10.  前記特定画素が有する光電変換部において光電変換を行って電荷を蓄積する蓄積時間が、前記通常画素における前記蓄積時間とは異なる
     請求項1に記載の固体撮像素子。
  11.  前記特定画素が有する光電変換部のポテンシャルが、前記通常画素が有する光電変換部のポテンシャルとは異なる
     請求項1に記載の固体撮像素子。
  12.  前記特定画素から出力される画素信号に対して、その特定画素の近傍にある所定の前記通常画素の画素信号を用いた補正が行われる
     請求項1に記載の固体撮像素子。
  13.  前記特定画素の周辺にある前記通常画素から出力される画素信号に対して、その通常画素の近傍にある所定の前記通常画素の画素信号を用いた補正が行われる
     請求項1に記載の固体撮像素子。
  14.  前記第1の半導体基板の前記画素よりも深い位置に形成される他の画素を有する第3の半導体基板が積層される
     請求項1に記載の固体撮像素子。
  15.  画像を構築するのに用いられる画素信号を出力する画素と、
     前記画素を駆動するためのロジック回路と
     を有し、
     複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、
     複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される
     固体撮像素子を備える電子機器。
  16.  画像を構築するのに用いられる画素信号を出力する複数の画素と、前記画素を駆動するためのロジック回路とを有し、複数の前記画素が形成される第1の半導体基板と、前記ロジック回路が形成される第2の半導体基板とが接合される積層構造により構成され、複数の前記画素のうち、前記画像を撮像する撮像処理以外の処理である特定処理において使用される前記画素信号を出力する前記画素である特定画素が、前記特定画素以外の前記画素である通常画素と独立して、前記ロジック回路に接続される固体撮像素子の撮像方法において、
     前記通常画素に対して所定の割合で配置される所定数の前記特定画素から出力される画素信号に基づいて前記特定処理を行い、
     前記画像の撮像を指示する所定操作が行われると、複数の前記画素の全てから出力される画素信号に基づいて前記撮像処理を行う
     ステップを含む撮像方法。
  17.  前記特定処理は、前記画像に写されている被写体の動作を検出する動き検出処理であり、
     前記撮像処理で撮像される画像とともに、前記動き検出処理で取得される動き情報を保存する
     ステップを含む請求項16に記載の撮像方法。
  18.  前記特定画素は、照射される光を開口の一部の領域で遮光して得られる画素信号から構築される位相差画像を取得するのに用いられる位相差画素であり、
     前記特定処理は、前記位相差画素から出力される画素信号から構築される一組の位相差画像に写されている被写体の位置の差に基づいて前記被写体にフォーカスを合わせる合焦処理であって、
     前記撮像処理で撮像される画像とともに、前記合焦処理で取得される動き情報を保存する
     ステップを含む請求項16に記載の撮像方法。
PCT/JP2015/057836 2014-03-31 2015-03-17 固体撮像素子、電子機器、および撮像方法 WO2015151790A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US15/128,629 US10181485B2 (en) 2014-03-31 2015-03-17 Solid-state image sensor, electronic apparatus, and imaging method
KR1020167022686A KR102429308B1 (ko) 2014-03-31 2015-03-17 고체 촬상 소자, 전자 기기, 및 촬상 방법
CN201580015676.0A CN106133912B (zh) 2014-03-31 2015-03-17 固态图像传感器、电子装置和成像方法
US16/213,038 US10658405B2 (en) 2014-03-31 2018-12-07 Solid-state image sensor, electronic apparatus, and imaging method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-071167 2014-03-31
JP2014071167A JP2015195235A (ja) 2014-03-31 2014-03-31 固体撮像素子、電子機器、および撮像方法

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/128,629 A-371-Of-International US10181485B2 (en) 2014-03-31 2015-03-17 Solid-state image sensor, electronic apparatus, and imaging method
US16/213,038 Continuation US10658405B2 (en) 2014-03-31 2018-12-07 Solid-state image sensor, electronic apparatus, and imaging method

Publications (1)

Publication Number Publication Date
WO2015151790A1 true WO2015151790A1 (ja) 2015-10-08

Family

ID=54240122

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/057836 WO2015151790A1 (ja) 2014-03-31 2015-03-17 固体撮像素子、電子機器、および撮像方法

Country Status (5)

Country Link
US (2) US10181485B2 (ja)
JP (1) JP2015195235A (ja)
KR (1) KR102429308B1 (ja)
CN (1) CN106133912B (ja)
WO (1) WO2015151790A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017104765A1 (ja) * 2015-12-16 2017-06-22 株式会社ニコン 撮像装置および動き検出方法
EP3258493A1 (en) * 2016-06-16 2017-12-20 ams AG System-on-chip camera with integrated light sensor(s) and method of producing a system-on-chip camera
WO2018189994A1 (en) * 2017-04-12 2018-10-18 Sony Semiconductor Solutions Corporation Solid-state imaging device
US10283554B2 (en) 2016-09-02 2019-05-07 Samsung Electronics Co., Ltd. Semiconductor devices including first sensor with infrared photodiode and second sensor with color photodiode

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015195235A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 固体撮像素子、電子機器、および撮像方法
TWI565323B (zh) * 2015-09-02 2017-01-01 原相科技股份有限公司 分辨前景的成像裝置及其運作方法、以及影像感測器
JP2018026444A (ja) 2016-08-10 2018-02-15 ソニー株式会社 半導体集積回路、および、半導体集積回路の製造方法
US9818791B1 (en) * 2016-10-04 2017-11-14 Omnivision Technologies, Inc. Stacked image sensor
JP6920110B2 (ja) * 2017-06-13 2021-08-18 ルネサスエレクトロニクス株式会社 固体撮像素子およびその製造方法
EP4235793A3 (en) 2017-06-29 2023-10-04 Sony Semiconductor Solutions Corporation Wafer bonded back illuminated imager
FR3071665B1 (fr) * 2017-09-27 2019-10-11 Airbus Defence And Space Sas Redimensionnement des entites de detection d'un capteur d'image matriciel hybride
EP3688808B1 (fr) * 2017-09-27 2022-06-01 Airbus Defence and Space SAS Redimensionnement des entites de detection d'un capteur d'image matriciel hybride
TW202315106A (zh) * 2017-10-30 2023-04-01 日商索尼半導體解決方案公司 固體攝像裝置及電子機器
JP7353729B2 (ja) * 2018-02-09 2023-10-02 キヤノン株式会社 半導体装置、半導体装置の製造方法
CN108600662B (zh) * 2018-07-24 2023-09-26 思特威(上海)电子科技股份有限公司 图像传感器像素电路及成像系统
US11888002B2 (en) * 2018-12-17 2024-01-30 Meta Platforms Technologies, Llc Dynamically programmable image sensor
US11962928B2 (en) 2018-12-17 2024-04-16 Meta Platforms Technologies, Llc Programmable pixel array
US10847564B1 (en) * 2019-07-24 2020-11-24 Taiwan Semiconductor Manufacturing Co., Ltd. Charge release layer to remove charge carriers from dielectric grid structures in image sensors
US11935291B2 (en) 2019-10-30 2024-03-19 Meta Platforms Technologies, Llc Distributed sensor system
US11948089B2 (en) 2019-11-07 2024-04-02 Meta Platforms Technologies, Llc Sparse image sensing and processing
JP2022007971A (ja) * 2020-03-31 2022-01-13 キヤノン株式会社 光電変換装置、光電変換システム、および移動体
US11825228B2 (en) 2020-05-20 2023-11-21 Meta Platforms Technologies, Llc Programmable pixel array having multiple power domains
US20220187536A1 (en) * 2020-12-16 2022-06-16 Intel Corporation Hybrid manufacturing for integrating photonic and electronic components
CN112911115B (zh) * 2021-01-28 2022-11-11 深圳市汇顶科技股份有限公司 像素阵列、影像感测装置、影像感测器及相关控制方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000316127A (ja) * 1999-05-06 2000-11-14 Nec Corp 固体撮像装置およびその駆動方法
JP2003219278A (ja) * 2002-01-21 2003-07-31 Hamamatsu Photonics Kk 固体撮像装置
JP2008067241A (ja) * 2006-09-11 2008-03-21 Olympus Corp 固体撮像装置及び撮像システム
JP2008085535A (ja) * 2006-09-27 2008-04-10 Nikon Corp 撮像素子および撮像装置
JP2008172606A (ja) * 2007-01-12 2008-07-24 Sony Corp 固体撮像装置及びカメラシステム
JP2010193073A (ja) * 2009-02-17 2010-09-02 Nikon Corp 裏面照射型撮像素子、その製造方法および撮像装置
JP2012060425A (ja) * 2010-09-09 2012-03-22 Olympus Corp 読出し制御装置、読出し制御方法、プログラム、および撮像装置
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
JP2013090127A (ja) * 2011-10-18 2013-05-13 Olympus Corp 固体撮像装置および撮像装置
JP2013174713A (ja) * 2012-02-24 2013-09-05 Canon Inc 光透過部材の形成方法および撮像装置の製造方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100718878B1 (ko) * 2005-06-28 2007-05-17 (주)실리콘화일 3차원 구조를 갖는 이미지 센서의 분리형 단위화소 및 그제조방법
US7978255B2 (en) * 2007-10-11 2011-07-12 Nikon Corporation Solid-state image sensor and image-capturing device
US7667169B2 (en) * 2008-05-22 2010-02-23 Omnivision Technologies, Inc. Image sensor with simultaneous auto-focus and image preview
US8558940B2 (en) * 2008-11-27 2013-10-15 Nikon Corporation Image sensor and image-capturing device
JP5319347B2 (ja) * 2009-03-17 2013-10-16 キヤノン株式会社 撮像装置及びその制御方法
JP5985136B2 (ja) 2009-03-19 2016-09-06 ソニー株式会社 半導体装置とその製造方法、及び電子機器
JP5685898B2 (ja) * 2010-01-08 2015-03-18 ソニー株式会社 半導体装置、固体撮像装置、およびカメラシステム
JP2011176715A (ja) * 2010-02-25 2011-09-08 Nikon Corp 裏面照射型撮像素子および撮像装置
US8531537B2 (en) * 2010-09-08 2013-09-10 Olympus Corporation Imaging apparatus for processing still picture signals and live view signals output from an image sensor
US9294691B2 (en) * 2011-09-06 2016-03-22 Sony Corporation Imaging device, imaging apparatus, manufacturing apparatus and manufacturing method
JP2014089432A (ja) * 2012-03-01 2014-05-15 Sony Corp 固体撮像装置、固体撮像装置におけるマイクロレンズの形成方法、及び、電子機器
JP6042636B2 (ja) * 2012-05-28 2016-12-14 オリンパス株式会社 固体撮像素子および固体撮像装置
JP2014022561A (ja) * 2012-07-18 2014-02-03 Sony Corp 固体撮像装置、及び、電子機器
KR101889932B1 (ko) * 2012-07-25 2018-09-28 삼성전자주식회사 촬영 장치 및 이에 적용되는 촬영 방법
US8878325B2 (en) * 2012-07-31 2014-11-04 Taiwan Semiconductor Manufacturing Company, Ltd. Elevated photodiode with a stacked scheme
US20140078343A1 (en) * 2012-09-20 2014-03-20 Htc Corporation Methods for generating video and multiple still images simultaneously and apparatuses using the same
EP2963917B1 (en) * 2013-02-27 2021-04-14 Nikon Corporation Electronic apparatus comprising an image sensor
JP6320272B2 (ja) * 2013-11-29 2018-05-09 キヤノン株式会社 撮像素子、撮像装置及び携帯電話機
JP6196911B2 (ja) * 2014-02-05 2017-09-13 オリンパス株式会社 固体撮像装置および撮像装置
JP2015195235A (ja) * 2014-03-31 2015-11-05 ソニー株式会社 固体撮像素子、電子機器、および撮像方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000316127A (ja) * 1999-05-06 2000-11-14 Nec Corp 固体撮像装置およびその駆動方法
JP2003219278A (ja) * 2002-01-21 2003-07-31 Hamamatsu Photonics Kk 固体撮像装置
JP2008067241A (ja) * 2006-09-11 2008-03-21 Olympus Corp 固体撮像装置及び撮像システム
JP2008085535A (ja) * 2006-09-27 2008-04-10 Nikon Corp 撮像素子および撮像装置
JP2008172606A (ja) * 2007-01-12 2008-07-24 Sony Corp 固体撮像装置及びカメラシステム
JP2010193073A (ja) * 2009-02-17 2010-09-02 Nikon Corp 裏面照射型撮像素子、その製造方法および撮像装置
JP2012060425A (ja) * 2010-09-09 2012-03-22 Olympus Corp 読出し制御装置、読出し制御方法、プログラム、および撮像装置
JP2013070030A (ja) * 2011-09-06 2013-04-18 Sony Corp 撮像素子、電子機器、並びに、情報処理装置
JP2013090127A (ja) * 2011-10-18 2013-05-13 Olympus Corp 固体撮像装置および撮像装置
JP2013174713A (ja) * 2012-02-24 2013-09-05 Canon Inc 光透過部材の形成方法および撮像装置の製造方法

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2017104765A1 (ja) * 2015-12-16 2018-08-16 株式会社ニコン 撮像装置および動き検出方法
WO2017104765A1 (ja) * 2015-12-16 2017-06-22 株式会社ニコン 撮像装置および動き検出方法
CN109564925B (zh) * 2016-06-16 2023-06-27 ams有限公司 具有集成光传感器的片上系统型相机以及制造片上系统型相机的方法
EP3258493A1 (en) * 2016-06-16 2017-12-20 ams AG System-on-chip camera with integrated light sensor(s) and method of producing a system-on-chip camera
WO2017216164A1 (en) * 2016-06-16 2017-12-21 Ams Ag System-on-chip camera with integrated light sensor(s) and method of producing a system-on-chip camera
CN109564925A (zh) * 2016-06-16 2019-04-02 ams有限公司 具有集成光传感器的片上系统型相机以及制造片上系统型相机的方法
US11888010B2 (en) 2016-06-16 2024-01-30 Ams Ag System-on-chip camera with integrated light sensor(s) and method of producing a system-on-chip camera
US11411035B2 (en) 2016-06-16 2022-08-09 Ams Ag System-on-chip camera with integrated light sensor(s) and method of producing a system-on-chip camera
US10283554B2 (en) 2016-09-02 2019-05-07 Samsung Electronics Co., Ltd. Semiconductor devices including first sensor with infrared photodiode and second sensor with color photodiode
US10707261B2 (en) 2016-09-02 2020-07-07 Samsung Electronics Co., Ltd. Semiconductor devices including infrared sensor with infrared photodiode and color sensor with color photodiode
US10840292B2 (en) 2016-09-02 2020-11-17 Samsung Electronics Co., Ltd. Semiconductor devices including infrared sensor with infrared photodiode and color sensor with color photodiode
WO2018189994A1 (en) * 2017-04-12 2018-10-18 Sony Semiconductor Solutions Corporation Solid-state imaging device
US11688753B2 (en) 2017-04-12 2023-06-27 Sony Semiconductor Solutions Corporation Solid-state imaging device configured by electrically bonding the respective electrodes of a plurality of semiconductor chips
TWI773736B (zh) * 2017-04-12 2022-08-11 日商索尼半導體解決方案公司 固態成像裝置
CN110506337B (zh) * 2017-04-12 2023-12-15 索尼半导体解决方案公司 固态成像元件
CN110506337A (zh) * 2017-04-12 2019-11-26 索尼半导体解决方案公司 固态成像元件

Also Published As

Publication number Publication date
US20170117310A1 (en) 2017-04-27
US20190109165A1 (en) 2019-04-11
US10658405B2 (en) 2020-05-19
CN106133912A (zh) 2016-11-16
KR102429308B1 (ko) 2022-08-04
JP2015195235A (ja) 2015-11-05
US10181485B2 (en) 2019-01-15
KR20160140597A (ko) 2016-12-07
CN106133912B (zh) 2020-05-19

Similar Documents

Publication Publication Date Title
WO2015151790A1 (ja) 固体撮像素子、電子機器、および撮像方法
US11595604B2 (en) Image sensor and imaging device including a plurality of semiconductor substrates
US10115753B2 (en) Image sensor including pixels having plural photoelectric converters configured to convert light of different wavelengths and imaging apparatus including the same
JP6440844B2 (ja) 固体撮像装置
US8970773B2 (en) Image capture apparatus with first and second pixel groups
JP6042636B2 (ja) 固体撮像素子および固体撮像装置
JP5034840B2 (ja) 固体撮像装置及びこれを用いた電子カメラ
US20130182156A1 (en) Solid-state imaging device and electronic apparatus
JP2007155929A (ja) 固体撮像素子及びこれを用いた撮像装置
US10003734B2 (en) Image capturing apparatus and control method of image sensor
JP6413233B2 (ja) 撮像装置および撮像素子
JP5657184B2 (ja) 撮像装置及び信号処理方法
US20160353043A1 (en) Image sensor and image apparatus
WO2015080163A1 (ja) 電子機器、撮像装置、および、撮像素子
JP2018160779A (ja) 撮像素子及びその制御方法、撮像装置、焦点検出装置及び方法
JP6488545B2 (ja) 電子機器
JP2016103513A (ja) 撮像素子および撮像装置
JP2018056944A (ja) 撮像装置および撮像素子
WO2015008635A1 (ja) 固体撮像素子及びその駆動方法、並びに電子機器
JP2016224277A (ja) 撮像装置及びその制御方法
JP6349659B2 (ja) 電子機器、電子機器の制御方法、及び制御プログラム
JP2018056945A (ja) 撮像装置および撮像素子
JP2008228021A (ja) 固体撮像装置及び撮像装置
JP2018207544A (ja) 撮像装置および撮像素子
JP2018174543A (ja) 電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15773897

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20167022686

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15128629

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15773897

Country of ref document: EP

Kind code of ref document: A1