WO2016147837A1 - 固体撮像素子、駆動方法、および電子機器 - Google Patents

固体撮像素子、駆動方法、および電子機器 Download PDF

Info

Publication number
WO2016147837A1
WO2016147837A1 PCT/JP2016/055796 JP2016055796W WO2016147837A1 WO 2016147837 A1 WO2016147837 A1 WO 2016147837A1 JP 2016055796 W JP2016055796 W JP 2016055796W WO 2016147837 A1 WO2016147837 A1 WO 2016147837A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
conversion unit
photoelectric conversion
signal
charge
Prior art date
Application number
PCT/JP2016/055796
Other languages
English (en)
French (fr)
Inventor
睦聡 田代
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2017506175A priority Critical patent/JP6732730B2/ja
Priority to US15/554,543 priority patent/US10249657B2/en
Priority to CN201680013785.3A priority patent/CN107409184B/zh
Publication of WO2016147837A1 publication Critical patent/WO2016147837A1/ja
Priority to US16/281,674 priority patent/US10692904B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • H01L27/14647Multicolour imagers having a stacked pixel-element structure, e.g. npn, npnpn or MQW elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/14612Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor
    • H01L27/14614Pixel-elements with integrated switching, control, storage or amplification elements involving a transistor having a special gate structure
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L29/00Semiconductor devices adapted for rectifying, amplifying, oscillating or switching, or capacitors or resistors with at least one potential-jump barrier or surface barrier, e.g. PN junction depletion layer or carrier concentration layer; Details of semiconductor bodies or of electrodes thereof  ; Multistep manufacturing processes therefor
    • H01L29/40Electrodes ; Multistep manufacturing processes therefor
    • H01L29/41Electrodes ; Multistep manufacturing processes therefor characterised by their shape, relative sizes or dispositions
    • H01L29/423Electrodes ; Multistep manufacturing processes therefor characterised by their shape, relative sizes or dispositions not carrying the current to be rectified, amplified or switched
    • H01L29/42312Gate electrodes for field effect devices
    • H01L29/42316Gate electrodes for field effect devices for field-effect transistors
    • H01L29/4232Gate electrodes for field effect devices for field-effect transistors with insulated gate
    • H01L29/42356Disposition, e.g. buried gate electrode
    • H01L29/4236Disposition, e.g. buried gate electrode within a trench, e.g. trench gate electrode, groove gate electrode

Definitions

  • the present disclosure relates to a solid-state imaging device, a driving method, and an electronic device, and more particularly, to a solid-state imaging device, a driving method, and an electronic device that can suppress color mixing of a phase difference detection signal to an imaging signal. .
  • a solid-state imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) image sensor is used.
  • the solid-state imaging device has a pixel in which a PD (photodiode) that performs photoelectric conversion and a plurality of transistors are combined, and outputs from a plurality of pixels arranged on an image plane on which a subject image is formed. An image is constructed based on the pixel signals to be processed.
  • a solid-state imaging device equipped with a phase difference detection pixel capable of detecting a phase difference in an image plane has been developed by separating the PD in one pixel into two.
  • the electric charges generated in each of the two PDs of the phase difference detection pixel are independently read out and focused as a phase difference detection signal for detecting the phase difference of incident light. Can be used to control.
  • the charges generated in each of the two PDs of the phase difference detection pixels are simultaneously read out, and a signal is output as one pixel, so that it can be used as an imaging signal for image construction.
  • the phase difference detection pixel can output the phase difference detection signal and the imaging signal, and can play two roles. Therefore, by switching the role of the phase difference detection pixel between auto focus and imaging, not only a part of the solid-state image sensor but also all the pixels can be used as the phase difference detection pixel.
  • Patent Document 1 a PD that receives light in a wavelength region used for imaging is not divided, and a PD formed at a position deeper than the PD is divided into pupils and used for phase difference detection.
  • a solid-state imaging device that performs focusing using infrared light that is photoelectrically converted in a region is disclosed.
  • the present disclosure has been made in view of such a situation, and is intended to suppress color mixture of a phase difference detection signal to an imaging signal.
  • the first photoelectric conversion unit that photoelectrically converts visible light in the first wavelength region and the second photoelectric conversion unit that photoelectrically converts visible light in the second wavelength region have different depths when viewed from the cross-sectional direction.
  • the pixel is configured such that at least one of the first photoelectric conversion unit and the second photoelectric conversion unit is divided as viewed in the planar direction.
  • a driving method includes: a first photoelectric conversion unit that photoelectrically converts visible light in a first wavelength range; and a second photoelectric conversion unit that photoelectrically converts visible light in a second wavelength range.
  • a driving unit that reads out from the pixel, and the pixel is configured such that at least one of the first photoelectric conversion unit and the second photoelectric conversion unit is divided as viewed in a planar direction.
  • the second photoelectric conversion unit converts the charge photoelectrically converted by the first photoelectric conversion unit into a first pixel signal
  • the second photoelectric conversion unit converts the charge photoelectrically converted by the second photoelectric conversion unit.
  • the driving unit may simultaneously read drive and the second pixel signal and the first pixel signal from a certain one of said pixels.
  • An electronic apparatus includes a first photoelectric conversion unit that photoelectrically converts visible light in a first wavelength range, and a second photoelectric conversion unit that photoelectrically converts visible light in a second wavelength range.
  • a pixel region in which a plurality of pixels formed at different depths as viewed from the cross-sectional direction are arranged, and a pixel signal at a level corresponding to the charge generated in each of the first photoelectric conversion unit and the second photoelectric conversion unit
  • a driving unit that performs driving for reading out from the pixel, and in the pixel, at least one of the first photoelectric conversion unit and the second photoelectric conversion unit is divided when viewed in a planar direction.
  • a solid-state imaging device is provided.
  • the first photoelectric conversion unit that photoelectrically converts visible light in the first wavelength range and the second photoelectric conversion unit that photoelectrically converts visible light in the second wavelength range are cross sections.
  • a driving unit that performs driving for reading.
  • the pixel is configured such that at least one of the first photoelectric conversion unit and the second photoelectric conversion unit is divided as viewed from the planar direction.
  • color mixing of the phase difference detection signal into the imaging signal can be suppressed.
  • FIG. 1 is a block diagram illustrating a configuration example of an embodiment of an image sensor to which the present technology is applied.
  • the image sensor 11 includes a pixel region 12, a vertical drive circuit 13, a column signal processing circuit 14, a horizontal drive circuit 15, an output circuit 16, and a control circuit 17.
  • the pixel region 12 is a light receiving surface that receives light collected by an optical system (not shown).
  • a plurality of pixels 21 are arranged in a matrix in the pixel region 12, and each pixel 21 is connected to the vertical drive circuit 13 for each row via a horizontal signal line 22, and the vertical signal line 23 is connected to the pixel region 12.
  • Each of the plurality of pixels 21 outputs a pixel signal at a level corresponding to the amount of light received, and an image of a subject that forms an image in the pixel region 12 is constructed from these pixel signals.
  • the vertical drive circuit 13 sequentially outputs a drive signal for driving (transferring, selecting, resetting, etc.) each pixel 21 for each row of the plurality of pixels 21 arranged in the pixel region 12 and the horizontal signal line 22.
  • the column signal processing circuit 14 performs CDS (Correlated Double Sampling) processing on the pixel signal output from the plurality of pixels 21 via the vertical signal line 23, thereby performing AD conversion of the pixel signal. And reset noise.
  • CDS Correlated Double Sampling
  • the horizontal driving circuit 15 sequentially outputs a driving signal for outputting a pixel signal from the column signal processing circuit 14 to the data output signal line 24 for each column of the plurality of pixels 21 arranged in the pixel region 12. 14.
  • the output circuit 16 amplifies the pixel signal supplied from the column signal processing circuit 14 via the data output signal line 24 at a timing according to the driving signal of the horizontal driving circuit 15 and outputs the amplified pixel signal to the subsequent signal processing circuit.
  • the control circuit 17 controls driving of each block inside the image sensor 11. For example, the control circuit 17 generates a clock signal according to the driving cycle of each block and supplies it to each block.
  • the pixel 21 includes a PD 31, a transfer transistor 32, an FD unit 33, an amplification transistor 34, a selection transistor 35, and a reset transistor 36.
  • the PD 31 is a photoelectric conversion unit that converts incident light into electric charge by photoelectric conversion and accumulates the light.
  • the anode terminal is grounded and the cathode terminal is connected to the transfer transistor 32.
  • the transfer transistor 32 is driven according to the transfer signal TRG supplied from the vertical drive circuit 13.
  • TRG transfer signal supplied from the vertical drive circuit 13.
  • the FD portion 33 is a floating diffusion region having a predetermined storage capacity connected to the gate electrode of the amplification transistor 34 and stores the charge transferred from the PD 31.
  • the amplification transistor 34 outputs a pixel signal of a level corresponding to the charge accumulated in the FD unit 33 (that is, the potential of the FD unit 33) to the vertical signal line 23 via the selection transistor 35.
  • the FD unit 33 is connected to the gate electrode of the amplification transistor 34
  • the FD unit 33 and the amplification transistor 34 serve as a conversion unit that converts the charge generated in the PD 31 into a pixel signal having a level corresponding to the charge. Function.
  • the selection transistor 35 is driven according to the selection signal SEL supplied from the vertical drive circuit 13, and when the selection transistor 35 is turned on, the pixel signal output from the amplification transistor 34 can be output to the vertical signal line 23.
  • the reset transistor 36 is driven according to the reset signal RST supplied from the vertical drive circuit 13. When the reset transistor 36 is turned on, the electric charge accumulated in the FD unit 33 is discharged to the drain power supply Vdd, and the FD unit 33 is Reset.
  • the PD 31 of one pixel 21 is divided into two when viewed from the plane direction, so that the pixel 21 is positioned on the image plane on which the subject image is formed. It can be used as a phase difference detection pixel for detecting a phase difference.
  • the image pickup device 11 is configured by laminating a filter layer in which a color filter that transmits light of a color received by the pixel 21 is planarly arranged for each pixel 21 on the light receiving surface side of the pixel region 12. Therefore, a red pixel signal (hereinafter, referred to as an R signal as appropriate) is output from the pixel 21 in which a color filter that transmits red light is arranged. Similarly, from the pixel 21 in which the color filter that transmits green light is arranged, a pixel signal in which a green pixel signal (hereinafter referred to as G signal) is output and a color filter that transmits blue light is arranged. 21 outputs a blue pixel signal (hereinafter referred to as B signal as appropriate).
  • R signal red pixel signal
  • G signal green pixel signal
  • B signal blue pixel signal
  • the image sensor 11 arranges a plurality of PDs 31 at different depths when viewed from the cross-sectional direction so that a plurality of colors are dispersed in one pixel 21.
  • a pixel signal can be output.
  • the PD 31 that receives red light and the PD 31 that receives blue light have different depths when viewed from the cross-sectional direction.
  • R signal and B signal can be output.
  • FIG. 2A shows a planar configuration example of the pixel 21RB
  • FIG. 2B shows a cross-sectional configuration of the pixel 21RB along the one-dot chain line AA ′ shown in FIG. 2A. An example is shown.
  • the pixel 21RB has PDs 31R-1 and 31R-2 that photoelectrically convert red light, and PDs 31B-1 and 31B-2 that photoelectrically convert blue light.
  • the pixel 21RB includes a semiconductor substrate 41, a wiring layer 42, a filter layer 43, and an on-chip lens layer 44, and the filter layer 43 includes red and blue layers.
  • a magenta color filter 51 that transmits light is disposed.
  • the PDs 31R-1 and 31R-2 are formed in a deep region of the semiconductor substrate 41 when viewed from the light incident side, and the PDs 31B-1 and 31B-2 are formed from the light incident side.
  • the semiconductor substrate 41 is formed in a shallow region.
  • the pixel 21RB employs a structure that splits red and blue in the depth direction of the semiconductor substrate 41 (hereinafter, referred to as a vertical spectral structure as appropriate).
  • the light incident on the pixel 21 RB is collected by the on-chip lens layer 44, the green wavelength is cut by the magenta color filter 51 of the filter layer 43, and the semiconductor substrate 41 is irradiated. Then, blue light having a short wavelength is photoelectrically converted by the PDs 31B-1 and 31B-2 in a shallow region of the semiconductor substrate 41, and red light having a long wavelength is PD31R-1 and 31R ⁇ in a deep region of the semiconductor substrate 41. 2 is photoelectrically converted.
  • the PDs 31R-1 and 31R-2 are divided on the left and right sides of the drawing, and the PDs 31B-1 and 31B-2 are arranged on the upper and lower sides of the drawing.
  • the layout is divided. That is, in the pixel 21RB, the PDs 31R-1 and 31R-2 and the PDs 31B-1 and 31B-2 are divided in directions (different directions) that are substantially orthogonal to each other when seen in a plan view.
  • the pixel 21RB can detect a phase difference in a substantially orthogonal direction by the PDs 31R-1 and 31R-2 and the PDs 31B-1 and 31B-2.
  • the R signal read out independently from each of the PDs 31R-1 and 31R-2 is used to detect the phase difference in the horizontal direction of the image
  • the B signal read out independently from each of the PDs 31B-1 and 31B-2 is used to detect the phase difference in the vertical direction of the image.
  • the R signal is simultaneously read from the PDs 31R-1 and 31R-2
  • the B signal is simultaneously read from the PDs 31B-1 and 31B-2.
  • the pixel 21RB configured in this manner photoelectrically converts light in the wavelength range of red and blue visible light into a phase difference detection signal, for example, like the solid-state imaging device disclosed in Patent Document 1
  • the pixel 21RB generates PD 31R-1 and 31R-2 and PD 31B-1 and 31B-2 at different depths for red and blue, which are separated from each other in visible light, thereby generating color mixing. Concern can be minimized.
  • a phase difference detection pixel that detects a phase difference in the left-right direction and a phase difference detection pixel that detects a phase difference in the vertical direction are physically located at different locations. Had to place. For this reason, a shift has occurred at the position where the phase difference is detected, whereas the pixel 21RB can physically detect the phase difference in the left-right direction and the up-down direction at one location. It is possible to avoid the occurrence of misalignment.
  • the positional deviation becomes the sampling time deviation, so there is a concern about the focusing accuracy on the subject, whereas in the pixel 21RB, no positional deviation occurs. There will be no deviation in sampling time. Therefore, the imaging element 11 that employs the pixel 21RB can improve the focusing accuracy on the subject.
  • the pixel 21RB can obtain signals for phase difference detection and imaging using visible light, and one pixel can have both functions of a phase difference detection element and an imaging pixel. .
  • the pixel 21RB is configured to use the PD 31 that detects red light and the PD 31 that detects blue light.
  • the PD 31 that detects red light and the green light are detected.
  • a configuration using the PD 31 or a configuration using the PD 31 that detects green light and the PD 31 that detects blue light may be employed.
  • FIG. 3 is a diagram showing an example of a first layout of the pixel region 12.
  • pixels 21RB that can output R and B signals and pixels 21G that can output G signals are alternately arranged in the horizontal direction and the vertical direction. Then, for example, an R signal and a B signal output from the pixel 21RB surrounded by a two-dot chain line in the lower left of FIG. 3 and a G signal output from the pixel 21G make the pixel 21RB and the pixel 21G a sub-pixel. It is used as a set of pixel signals (RGB signals).
  • the pixel 21G has a PD 31G that photoelectrically converts green light and a transfer transistor 32G that transfers the charge of the PD 31G.
  • the PDs 31R-1 and 31R-2 of the pixel 21RB and the PD 31G of the pixel 21G share and use one FD portion 33RG. That is, the PDs 31R-1 and 31R-2 of the pixel 21RB are connected to the FD unit 33RG via the transfer transistors 32R-1 and 32R-2, respectively, and the PD 31G of the pixel 21G is connected to the FD unit via the transfer transistor 32G. It is connected to 33RG.
  • the pixel region 12 has a wiring structure in which the amplification transistor 34 that converts the R signal and the amplification transistor 34 that converts the B signal are used in a single pixel 21RB.
  • two vertical signal lines 23-1 and 23-2 are arranged for one column of the pixels 21RB and 21G arranged in the vertical direction.
  • the pixels 21RB and the pixels 21G that output pixel signals (RGB signals) used as a set are alternately connected in the vertical direction to the vertical signal lines 23-1 and 23-2, respectively. It has a structure. Thereby, the image sensor 11 can read out two sets of pixel signals in parallel via the vertical signal lines 23-1 and 23-2.
  • pixel signals of the same color can be simultaneously read from each of the plurality of pixels 21 RB and 21 G.
  • a wiring structure is used. Is adopted.
  • a signal reading path is indicated by a white arrow.
  • the R signal and the B signal are both amplified in common. Read out to the vertical signal line 23-1 through the transistor 34.
  • the PDs 31R-1 and 31R-2 and the PDs 31B-1 and 31B-2 share the amplification transistor 34. For this reason, in the wiring structure of the pixel region 12, the R signal and the B signal cannot be read at the same time, and the drive for sequentially reading the R signal and the B signal is performed.
  • FIG. 4 is a diagram illustrating an example of a second layout of the pixel region 12.
  • the pixel 21RB that can output the R signal and the B signal and the pixel 21G that can output the G signal are arranged in the horizontal direction. And alternately arranged in the vertical direction.
  • the wiring structure for reading out pixel signals from the pixels 21RB and 21G to the vertical signal lines 23-1 and 23-2 is different from that in the pixel region 12 of FIG. Yes.
  • two pixels 21RB and one pixel 21G surrounded by a two-dot chain line output an R signal, a G signal, and a B signal used as a set of pixel signals.
  • the amplification transistor 34 shared by two pixels 21RB and one pixel 21G surrounded by a two-dot chain line includes an FD portion 33B of the pixel 21RB above the amplification transistor 34, and the amplification transistor 34. Is connected to the lower FD portion 33RG.
  • the vertical signal line 23-1 to which the amplification transistor 34 is connected via the selection transistor 35 has a B signal output from the upper pixel 21RB, a G signal output from the pixel 21G, and a lower signal line.
  • the R signal output from the pixel 21RB is output as a set of pixel signals (RGB signals).
  • the R signal and the B signal output from the pixel 21RB are read out through different paths. Become. That is, as illustrated by the white arrow, the R signal output from the pixel 21RB is output to the vertical signal line 23-1 via the amplification transistor 34 above the pixel 21RB, and output from the pixel 21RB.
  • the B signal is output to the vertical signal line 23-2 through the amplification transistor 34 below the pixel 21RB.
  • the amplification transistor 34 that converts the electric charge obtained by photoelectrically converting red light in the pixel 21RB into the R signal is shared with the pixel 21G and the pixel 21RB arranged above the pixel 21RB. Used.
  • the amplification transistor 34 that converts the electric charge obtained by photoelectrically converting blue light in the pixel 21RB into a B signal is shared with the pixel 21G and the pixel 21RB (not shown) disposed below the pixel 21RB. Used.
  • the pixel region 12-a converts the B signal output from the other pixel 21RB and the amplification transistor 34 that converts the R signal output from the one pixel 21RB in the two (plural) pixels 21RB.
  • the wiring structure is shared with the amplification transistor 34.
  • the vertical drive circuit 13 in FIG. 1 performs driving to read out the R signal and the B signal from one pixel 21RB simultaneously (at the same timing).
  • FIG. 5 is a diagram showing a third layout example of the pixel region 12.
  • the pixel region 12-b shown in FIG. 5 As in the pixel area 12-a in FIG. 4, two pixels 21RB and one pixel 21G surrounded by a two-dot chain line are used as one set of pixel signals.
  • the wiring structure is such that (RGB signal) is output.
  • the pixel region 12-b has a wiring structure capable of simultaneously reading out the R signal and the B signal from one pixel 21RB, similarly to the pixel region 12-a in FIG.
  • the structure of the pixel 21RB is different for each column in the vertical direction. That is, in the pixel 21RB arranged in the left column (for example, odd column) in FIG. 5, the PDs 31R-1 and 31R-2 are divided into the left and right in the figure, like the pixel 21RB shown in FIG. -1 and 31B-2 are divided in the vertical direction in the figure. On the other hand, the pixel 21RB ′ arranged in the right column (for example, even column) in FIG. 5 is different from the pixel 21RB shown in FIG. 2, and the PDs 31R-1 and 31R-2 are divided vertically in the figure. PDs 31B-1 and 31B-2 have a structure divided into right and left in the figure.
  • the R signal of the pixel 21RB is used for the phase difference detection in the left-right direction
  • the B signal of the pixel 21RB is used for the phase difference detection in the up-down direction
  • the R signal of the pixel 21RB ' is used for detecting the phase difference in the vertical direction
  • the B signal of the pixel 21RB' is used for detecting the phase difference in the horizontal direction.
  • the structure in which the pixels 21RB and 21RB ′ are alternately arranged for each column can detect the phase difference in the horizontal direction and the vertical direction for each color. It is possible to improve the focusing accuracy.
  • FIG. 6A shows a planar configuration example of the pixel 21RB-a
  • FIG. 6B shows the pixel 21RB-a along the alternate long and short dash line AA ′ shown in FIG. 6A.
  • a cross-sectional configuration example is shown.
  • the same components as those in the pixel 21RB in FIG. 2 are denoted by the same reference numerals, and detailed description thereof is omitted. That is, the pixel 21RB-a has a configuration common to the pixel 21RB in FIG. 2 in that the PDs 31R-1 and 31R-2 are arranged in the left and right directions in the drawing.
  • the pixel 21RB-a is different from the pixel 21RB in FIG. 2 in that one PD 31B-a is arranged. That is, in the pixel 21RB of FIG. 2, PDs 31B-1 and 31B-2 that photoelectrically convert blue light are divided and arranged, whereas in the pixel 21RB-a, one PD 31B-a is not divided and is arranged. Be placed.
  • the R signal is used for phase difference detection
  • the B signal is not used for phase difference detection but is used for image construction.
  • the pixel 21RB-a is not configured to detect a phase difference in two directions, but may be configured to use at least one of the R signal and the B signal for phase difference detection.
  • the pixel 21RB-a has a surface irradiation type structure in which light is irradiated on the surface on which the wiring layer 42 is stacked on the semiconductor substrate 41, and the PD 31B- formed in a shallow region of the semiconductor substrate 41.
  • the charge from a is easy to read.
  • FIG. 7A shows a planar configuration example of the pixel 21RB-b
  • FIG. 7B shows the pixel 21RB-b along the alternate long and short dash line AA ′ shown in FIG. 7A.
  • a cross-sectional configuration example is shown.
  • the same components as those in the pixel 21RB-a in FIG. 6 are denoted by the same reference numerals, and detailed description thereof is omitted. That is, in the pixel 21RB-b, the PDs 31R-1 and 31R-2 are arranged in the left and right directions in the figure, and the PD 31B-b is arranged without being divided, so that the pixel 21RB in FIG. The configuration is common with -a.
  • the pixel 21RB-b has a back-illuminated structure in which light is irradiated on the back surface facing the opposite side to the surface on which the wiring layer 42 is laminated with respect to the semiconductor substrate 41, and therefore the pixel in FIG.
  • the configuration is different from 21RB-a.
  • the filter layer 43 and the on-chip lens layer 44 are laminated on the back surface side of the semiconductor substrate 41 via an insulating layer 45, which is compared with the front-illuminated structure.
  • the amount of light applied to the semiconductor substrate 41 can be increased.
  • the area of the PD 31B-b can be expanded more than the PD 31B-a of the pixel 21RB-a in FIG. 6, and the amount of light received by the PD 31B-b can be increased.
  • the semiconductor substrate 41 can be thinned, and a region for photoelectric conversion of infrared light in the semiconductor substrate 41 cannot be secured. For this reason, for example, it has been difficult to apply a configuration using infrared light for phase difference detection as described in Patent Document 1 to a back-illuminated structure. On the other hand, since the pixel 21RB-b uses visible light for phase difference detection, such difficulty can be eliminated.
  • the pixel 21RB-b has a configuration in which charges from the PDs 31R-1 and 31R-2 formed in a deep region of the semiconductor substrate 41 can be easily read.
  • the charge transfer characteristics of the PDs 31R-1 and 31R-2 used for phase difference detection are low, it is possible to transfer charges more reliably by adopting a configuration in which charges are easily read.
  • FIG. 8A shows a planar configuration example of the pixel 21RB-c
  • FIG. 8B shows the pixel 21RB-c along the alternate long and short dash line AA ′ shown in FIG.
  • a cross-sectional configuration example is shown.
  • the same components as those in the pixel 21RB-a in FIG. 6 are denoted by the same reference numerals, and detailed description thereof is omitted. That is, the pixel 21RB-c has the same configuration as the pixel 21RB-a in FIG. 6 in that it has a surface irradiation type structure.
  • the PDs 31B-1 and 31B-2 are divided in the upper and lower directions in the figure, and the pixel 21RB in FIG. The configuration is different from -a. That is, in the pixel 21RB-a in FIG. 6, the PDs 31R-1 and 31R-2 that photoelectrically convert red light are used for phase difference detection, whereas the pixel 21RB-c photoelectrically converts blue light. PDs 31B-1 and 31B-2 are used for phase difference detection.
  • any one of the PD 31R and the PD 31B can be used so that at least one of red and blue light can be used for phase difference detection. It is only necessary to adopt a configuration in which one of them is divided and arranged.
  • FIG. 9A shows a planar configuration example of the pixel 21RB-d
  • FIG. 9B shows the pixel 21RB-d along the alternate long and short dash line AA ′ shown in FIG. 9A.
  • a cross-sectional configuration example is shown.
  • the same components as those of the pixel 21RB-a in FIG. 6 are denoted by the same reference numerals, and detailed description thereof is omitted. That is, the pixel 21RB-d has a configuration common to the pixel 21RB-a in FIG. 6 in that it has a surface irradiation type structure.
  • the PDs 31R-1d and 31R-2d are arranged in the vertical direction of the drawing, and the PD 31B-d is arranged without being divided. Further, in the pixel 21RB-d, reading of charges from the PDs 31R-1d and 31R-2d and reading of charges from the PD 31B-d are performed by the common transfer transistors 32RB-1 and 32RB-2. In the pixel 21RB-d, a P-type transistor is provided between the PDs 31R-1d and 31R-2d and the PD 31B-d, and between the PD 31R-1d and 31R-2d and the transfer transistors 32RB-1 and 32RB-2. A high concentration P-type region 61 having a high impurity concentration is formed.
  • the transfer transistors 32RB-1 and 32RB-2 are constituted by vertical gate electrodes dug to the same extent as the depth at which the PDs 31R-1d and 31R-2d are arranged, and are applied to the vertical gate electrodes.
  • the reading of charges from the PDs 31R-1d and 31R-2d and the reading of charges from the PD 31B-d can be switched.
  • the pixel 21RB-d first reads out the electric charge accumulated in the PD 31B-d by applying a low voltage, and then applies a high voltage.
  • a read voltage threshold is set so that the voltages applied to the PDs 31R-1d and 31R-2d can be read.
  • the pixel 21RB-d configured in this manner can be made smaller in area than, for example, the pixel 21RB-a in FIG. 6 by using the transfer transistors 32RB-1 and 32RB-2 in common.
  • FIG. 10A shows a planar configuration example of the pixel 21RGB
  • FIG. 10B shows a cross-sectional configuration of the pixel 21RGB along the alternate long and short dash line AA ′ shown in FIG. An example is shown.
  • the same components as those of the pixel 21RB-d in FIG. 9 are denoted by the same reference numerals, and detailed description thereof is omitted. That is, the pixel 21RGB has a configuration in which the transfer transistors 32RB-1 and 32RB-2 are used in common by the PDs 31R-1 and 31R-2 and the PD 31B-d, and thus is common to the pixel 21RB-d in FIG. It is the composition to do.
  • the pixel 21RGB is different from the pixel 21RB-d in FIG. 9 in that a green photoelectric conversion film 52 is stacked instead of the magenta color filter 51 in FIG. That is, the pixel 21 RGB is configured such that, in the green photoelectric conversion film 52, green light of the irradiated light is photoelectrically converted, and red and blue light are incident on the semiconductor substrate 41.
  • one pixel 21RGB photoelectrically converts red light in the PDs 31R-1 and 31R-2, photoelectrically converts green light in the green photoelectric conversion film 52, and converts blue light in the PD 31B-d.
  • Photoelectric conversion can be performed. That is, the R signal, the G signal, and the B signal can be output from one pixel 21RGB, and can be used for phase difference detection by reading the signals independently from each of the PDs 31R-1 and 31R-2. .
  • the imaging device 11 as described above is applied to various electronic devices such as an imaging system such as a digital still camera and a digital video camera, a mobile phone having an imaging function, or other devices having an imaging function. can do.
  • FIG. 11 is a block diagram illustrating a configuration example of an imaging device mounted on an electronic device.
  • the imaging apparatus 101 includes an optical system 102, an imaging element 103, a signal processing circuit 104, a monitor 105, and a memory 106, and can capture still images and moving images.
  • the optical system 102 includes one or more lenses, guides image light (incident light) from a subject to the image sensor 103, and forms an image on a light receiving surface (sensor unit) of the image sensor 103.
  • the above-described image sensor 11 is applied.
  • the image sensor 103 electrons are accumulated for a certain period according to an image formed on the light receiving surface via the optical system 102. Then, a signal corresponding to the electrons accumulated in the image sensor 103 is supplied to the signal processing circuit 104.
  • the signal processing circuit 104 performs various signal processing on the pixel signal output from the image sensor 103.
  • An image (image data) obtained by performing signal processing by the signal processing circuit 104 is supplied to the monitor 105 and displayed, or supplied to the memory 106 and stored (recorded).
  • the imaging apparatus 101 configured as described above, by applying the imaging element 11 described above, it is possible to improve the focusing accuracy on the subject, and it is possible to reliably capture an in-focus image.
  • FIG. 12 is a diagram showing a usage example in which the above-described image sensor is used.
  • the image sensor described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray as follows.
  • Devices for taking images for viewing such as digital cameras and mobile devices with camera functions
  • Devices used for traffic such as in-vehicle sensors that capture the back, surroundings, and interiors of vehicles, surveillance cameras that monitor traveling vehicles and roads, and ranging sensors that measure distances between vehicles, etc.
  • Equipment used for home appliances such as TVs, refrigerators, air conditioners, etc. to take pictures and operate the equipment according to the gestures ⁇ Endoscopes, equipment that performs blood vessel photography by receiving infrared light, etc.
  • Equipment used for medical and health care ⁇ Security equipment such as security surveillance cameras and personal authentication cameras ⁇ Skin measuring instrument for photographing skin and scalp photography Such as a microscope to do beauty Equipment used for sports-Equipment used for sports such as action cameras and wearable cameras for sports applications-Used for agriculture such as cameras for monitoring the condition of fields and crops apparatus
  • the first photoelectric conversion unit that photoelectrically converts visible light in the first wavelength region and the second photoelectric conversion unit that photoelectrically converts visible light in the second wavelength region have different depths when viewed from the cross-sectional direction. Formed pixels; and A drive unit that drives to read out a pixel signal of a level corresponding to a charge generated in each of the first photoelectric conversion unit and the second photoelectric conversion unit from the pixel;
  • the pixel is configured by dividing at least one of the first photoelectric conversion unit and the second photoelectric conversion unit as viewed in a planar direction.
  • a conversion unit that converts the charge photoelectrically converted by the first photoelectric conversion unit into a first pixel signal, and a charge that is photoelectrically converted by the second photoelectric conversion unit is a second pixel. It is used in common with a conversion unit that converts to a signal,
  • a conversion unit that converts the charge photoelectrically converted by the first photoelectric conversion unit into a first pixel signal; and a charge that is photoelectrically converted by the second photoelectric conversion unit It is used in common with a conversion unit that converts to a pixel signal,
  • Both said 1st photoelectric conversion part and said 2nd photoelectric conversion part are each divided
  • the first photoelectric conversion unit photoelectrically converts light in a red wavelength range
  • the second photoelectric conversion unit photoelectrically converts light in a blue wavelength range
  • the first photoelectric conversion unit and the second photoelectric conversion unit The solid-state imaging device according to (4), wherein the photoelectric conversion unit is divided in a direction substantially orthogonal to each other when seen in a plan view.
  • a common transfer transistor is used for transfer of charge from the first photoelectric conversion unit and transfer of charge from the second photoelectric conversion unit, According to the voltage applied to the vertical gate electrode of the transfer transistor, the transfer of charge from the first photoelectric conversion unit and the transfer of charge from the second photoelectric conversion unit are switched (1) To (5).
  • the structure is such that light is irradiated to the back surface facing the opposite side to the surface on which the wiring layer is laminated on the semiconductor substrate on which the first photoelectric conversion unit and the second photoelectric conversion unit are formed.
  • a photoelectric conversion film for photoelectrically converting visible light in the third wavelength range is stacked on a light receiving surface side of a semiconductor substrate on which the first photoelectric conversion unit and the second photoelectric conversion unit are formed.
  • the first photoelectric conversion unit that photoelectrically converts visible light in the first wavelength region and the second photoelectric conversion unit that photoelectrically converts visible light in the second wavelength region have different depths when viewed from the cross-sectional direction.
  • a drive unit that drives to read out a pixel signal of a level corresponding to a charge generated in each of the first photoelectric conversion unit and the second photoelectric conversion unit from the pixel;
  • the pixel is configured such that at least one of the first photoelectric conversion unit and the second photoelectric conversion unit is divided as viewed from the plane direction.
  • a conversion unit that converts the charge photoelectrically converted by the first photoelectric conversion unit into a first pixel signal, and a charge that is photoelectrically converted by the second photoelectric conversion unit is a second pixel. It is used in common with a conversion unit that converts to a signal,
  • the driving unit performs driving for simultaneously reading out the first pixel signal and the second pixel signal from one certain pixel.
  • the first photoelectric conversion unit that photoelectrically converts visible light in the first wavelength region and the second photoelectric conversion unit that photoelectrically converts visible light in the second wavelength region have different depths when viewed from the cross-sectional direction. Formed pixels; and A drive unit that drives to read out a pixel signal of a level corresponding to the charge generated in each of the first photoelectric conversion unit and the second photoelectric conversion unit from the pixel;
  • the electronic device includes a solid-state imaging device in which at least one of the first photoelectric conversion unit and the second photoelectric conversion unit is divided when viewed from a planar direction.

Abstract

 本開示は、位相差検出用信号の撮像用信号への混色を抑制することができるようにする固体撮像素子、駆動方法、および電子機器に関する。 第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、その画素から第1の光電変換部および第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を読み出す駆動を行う駆動部とを備える。そして、画素は、第1の光電変換部および第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される。本技術は、例えば、像面位相差を検出可能な固体撮像素子に適用できる。

Description

固体撮像素子、駆動方法、および電子機器
 本開示は、固体撮像素子、駆動方法、および電子機器に関し、特に、位相差検出用信号の撮像用信号への混色を抑制することができるようにした固体撮像素子、駆動方法、および電子機器に関する。
 従来、デジタルスチルカメラやデジタルビデオカメラなどの撮像機能を備えた電子機器においては、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子が使用されている。固体撮像素子は、光電変換を行うPD(photodiode:フォトダイオード)と複数のトランジスタとが組み合わされた画素を有しており、被写体の像が結像する像面に配置された複数の画素から出力される画素信号に基づいて画像が構築される。
 また、近年、1画素内のPDを2つに分離させた構成により、像面における位相差を検出することができる位相差検出画素を搭載した固体撮像素子が開発されている。このような固体撮像素子では、オートフォーカス時において、位相差検出画素の2つのPDそれぞれで発生した電荷を独立に読み出し、入射光の位相差を検出するための位相差検出用信号として合焦を制御するのに用いることができる。一方、撮像時において、位相差検出画素の2つのPDそれぞれで発生した電荷を同時に読み出し、ひとつの画素として信号を出力することで、撮像用信号として画像の構築に用いることができる。
 このように、位相差検出画素は、位相差検出用信号と撮像用信号とを出力することができ、2つの役割を果たすことができる。従って、オートフォーカス時と撮像時とで位相差検出画素の役割を切り替えることで、固体撮像素子の一部のみならず全画素を、位相差検出画素として活用することができる。
 また、特許文献1には、撮像に用いる波長域の光を受光するPDは分割させず、このPDよりも深い位置に形成されたPDを瞳分割して位相差検出に用い、半導体基板の深い領域で光電変換される赤外光を用いて合焦を行う固体撮像素子が開示されている。
特開2008-28105号公報
 ところで、特許文献1に開示されている固体撮像素子では、位相差検出に赤外光を用いているため、赤外光を光電変換した位相差検出用信号が、撮像用信号へ混色することが懸念される。
 本開示は、このような状況に鑑みてなされたものであり、位相差検出用信号の撮像用信号への混色を抑制することができるようにするものである。
 第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部とを備え、前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される。
 本開示の一側面の駆動方法は、第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部とを備え、前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成され、複数の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、前記駆動部は、ある1つの前記画素から前記第1の画素信号と前記第2の画素信号とを同時に読み出す駆動を行う。
 本開示の一側面の電子機器は、第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部とを有し、前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される固体撮像素子を備える。
 本開示の一側面においては、第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、第1の光電変換部および第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、画素から読み出す駆動を行う駆動部とが備えられる。そして、画素が、第1の光電変換部および第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成されている。
 本開示の一側面によれば、位相差検出用信号の撮像用信号への混色を抑制することができる。
本技術を適用した撮像素子の一実施の形態の構成例を示すブロック図である。 赤色および青色の画素信号を出力可能な画素の第1の構成例を示す図である。 画素領域の第1のレイアウトの例を示す図である。 画素領域の第2のレイアウトの例を示す図である。 画素領域の第3のレイアウトの例を示す図である。 赤色および青色の画素信号を出力可能な画素の第2の構成例を示す図である。 赤色および青色の画素信号を出力可能な画素の第3の構成例を示す図である。 赤色および青色の画素信号を出力可能な画素の第4の構成例を示す図である。 赤色および青色の画素信号を出力可能な画素の第5の構成例を示す図である。 赤色、緑色、および青色の画素信号を出力可能な画素の構成例を示す図である。 本技術を適用した撮像装置の一実施の形態の構成例を示すブロック図である。 イメージセンサを使用する使用例を示す図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 図1は、本技術を適用した撮像素子の一実施の形態の構成例を示すブロック図である。
 図1に示すように、撮像素子11は、画素領域12、垂直駆動回路13、カラム信号処理回路14、水平駆動回路15、出力回路16、および制御回路17を備えて構成される。
 画素領域12は、図示しない光学系により集光される光を受光する受光面である。画素領域12には、複数の画素21が行列状に配置されており、それぞれの画素21は、水平信号線22を介して行ごとに垂直駆動回路13に接続されるとともに、垂直信号線23を介して列ごとにカラム信号処理回路14に接続される。複数の画素21は、それぞれ受光する光の光量に応じたレベルの画素信号をそれぞれ出力し、それらの画素信号から、画素領域12に結像する被写体の画像が構築される。
 垂直駆動回路13は、画素領域12に配置される複数の画素21の行ごとに順次、それぞれの画素21を駆動(転送や、選択、リセットなど)するための駆動信号を、水平信号線22を介して画素21に供給する。カラム信号処理回路14は、複数の画素21から垂直信号線23を介して出力される画素信号に対してCDS(Correlated Double Sampling:相関2重サンプリング)処理を施すことにより、画素信号のAD変換を行うとともにリセットノイズを除去する。
 水平駆動回路15は、画素領域12に配置される複数の画素21の列ごとに順次、カラム信号処理回路14から画素信号をデータ出力信号線24に出力させるための駆動信号を、カラム信号処理回路14に供給する。出力回路16は、水平駆動回路15の駆動信号に従ったタイミングでカラム信号処理回路14からデータ出力信号線24を介して供給される画素信号を増幅し、後段の信号処理回路に出力する。制御回路17は、撮像素子11の内部の各ブロックの駆動を制御する。例えば、制御回路17は、各ブロックの駆動周期に従ったクロック信号を生成して、それぞれのブロックに供給する。
 また、画素21は、PD31、転送トランジスタ32、FD部33、増幅トランジスタ34、選択トランジスタ35、およびリセットトランジスタ36を備えて構成される。
 PD31は、入射した光を光電変換により電荷に変換して蓄積する光電変換部であり、アノード端子が接地されているとともに、カソード端子が転送トランジスタ32に接続されている。転送トランジスタ32は、垂直駆動回路13から供給される転送信号TRGに従って駆動し、転送トランジスタ32がオンになると、PD31に蓄積されている電荷がFD部33に転送される。FD部33は、増幅トランジスタ34のゲート電極に接続された所定の蓄積容量を有する浮遊拡散領域であり、PD31から転送される電荷を蓄積する。
 増幅トランジスタ34は、FD部33に蓄積されている電荷に応じたレベル(即ち、FD部33の電位)の画素信号を、選択トランジスタ35を介して垂直信号線23に出力する。つまり、FD部33が増幅トランジスタ34のゲート電極に接続される構成により、FD部33および増幅トランジスタ34は、PD31において発生した電荷を、その電荷に応じたレベルの画素信号に変換する変換部として機能する。
 選択トランジスタ35は、垂直駆動回路13から供給される選択信号SELに従って駆動し、選択トランジスタ35がオンになると、増幅トランジスタ34から出力される画素信号が垂直信号線23に出力可能な状態となる。リセットトランジスタ36は、垂直駆動回路13から供給されるリセット信号RSTに従って駆動し、リセットトランジスタ36がオンになると、FD部33に蓄積されている電荷がドレイン電源Vddに排出されて、FD部33がリセットされる。
 このように構成される撮像素子11において、1つの画素21のPD31を平面方向から見て2つに分割して配置することで、その画素21を、被写体の像が結像する像面における位相差を検出する位相差検出画素として利用することができる。
 また、撮像素子11は、画素領域12の受光面側に、画素21が受光する色の光を透過するカラーフィルタが画素21ごとに平面的に配置されたフィルタ層が積層されて構成される。従って、赤色の光を透過するカラーフィルタが配置された画素21からは、赤色の画素信号(以下適宜、R信号と称する)が出力される。同様に、緑色の光を透過するカラーフィルタが配置された画素21からは、緑色の画素信号(以下適宜、G信号と称する)が出力され、青色の光を透過するカラーフィルタが配置された画素21からは、青色の画素信号(以下適宜、B信号と称する)が出力される。
 さらに、撮像素子11は、例えば、1つの画素21において、複数の色を分光するように断面方向から見て異なる深さに複数のPD31を配置することで、1つの画素21から複数の色の画素信号を出力することができる。例えば、赤色および青色の光を透過するマゼンタ色のカラーフィルタが配置された画素21において、赤色の光を受光するPD31と、青色の光を受光するPD31とを断面方向から見て異なる深さに配置することで、R信号およびB信号を出力することができる。
 次に、図2を参照して、R信号およびB信号を出力可能な画素21RBの第1の構成例について説明する。図2のAには、画素21RBの平面的な構成例が示されており、図2のBには、図2のAに示す一点鎖線A-A’に沿った画素21RBの断面的な構成例が示されている。
 図2のAに示すように、画素21RBは、赤色の光を光電変換するPD31R-1および31R-2、並びに、青色の光を光電変換するPD31B-1および31B-2を有する。
 また、図2のBに示すように、画素21RBは、半導体基板41、配線層42、フィルタ層43、およびオンチップレンズ層44が積層されて構成され、フィルタ層43には、赤色および青色の光を透過するマゼンタ色のカラーフィルタ51が配置される。そして、画素21RBでは、PD31R-1および31R-2は、光が入射される側から見て半導体基板41の深い領域に形成され、PD31B-1および31B-2は、光が入射される側から見て半導体基板41の浅い領域に形成される。このように、画素21RBは、半導体基板41の深さ方向で赤色および青色を分光する構造(以下、適宜、縦分光構造と称する)を採用している。
 即ち、画素21RBに入射する光は、オンチップレンズ層44により集光されて、フィルタ層43のマゼンタ色のカラーフィルタ51により緑色の波長がカットされ、半導体基板41に照射される。そして、半導体基板41の浅い領域で、波長の短い青色の光がPD31B-1および31B-2において光電変換され、半導体基板41の深い領域で、波長の長い赤色の光がPD31R-1および31R-2において光電変換される。
 また、図2のAに示すように、画素21RBでは、PD31R-1および31R-2は、図の左右に分割された配置となっており、PD31B-1および31B-2は、図の上下に分割された配置となっている。即ち、画素21RBにおいて、PD31R-1および31R-2とPD31B-1および31B-2とが、平面的に見て、互いに略直交する方向(異なる方向)に分割されている。
 従って、画素21RBは、PD31R-1および31R-2と、PD31B-1および31B-2とにより、それぞれ略直交する方向の位相差を検出することができる。例えば、PD31R-1および31R-2それぞれから独立して読み出されるR信号は、画像の左右方向の位相差の検出に用いられ、PD31B-1および31B-2それぞれから独立して読み出されるB信号が、画像の上下方向の位相差の検出に用いられる。
 なお、画素21RBを撮像画素として用いる場合には、PD31R-1および31R-2から同時にR信号が読み出されるとともに、PD31B-1および31B-2から同時にB信号が読み出される。
 このように構成される画素21RBは、赤色および青色の可視光の波長域の光を光電変換して位相差検出用信号とするため、例えば、特許文献1に開示されている固体撮像素子のように、位相差検出に赤外光を用いる構成と比較して、混色の発生を抑制することができる。さらに、画素21RBは、可視光の中でも波長域が離れている赤色および青色について、PD31R-1および31R-2とPD31B-1および31B-2とを異なる深さに形成することで、混色が発生する懸念を最小限に抑制することができる。
 また、従来、1画素で1方向の位相差を検出することしかできなかったのに対し、画素21RBは、2方向の位相差を検出することができる。即ち、従来、2方向の位相差を検出するには、左右方向の位相差を検出する位相差検出画素と、上下方向の位相差を検出する位相差検出画素とを、物理的に異なる箇所に配置しなければならなかった。このため、位相差を検出する位置にズレが発生していたのに対し、画素21RBは、物理的に1箇所で左右方向および上下方向の位相差を検出することができるので、このような位置のズレが発生することを回避することができる。
 さらに、ローリングシャッター方式で駆動するCMOSイメージセンサでは、位置のズレがサンプリング時刻のズレとなるため、被写体への合焦精度に懸念が生じるのに対し、画素21RBでは、位置ズレが発生しないため、サンプリング時刻のズレも発生することはない。従って、画素21RBを採用した撮像素子11は、被写体への合焦精度の向上を図ることができる。
 また、特許文献1に開示されている固体撮像素子のように、位相差検出用と撮像用とで用途をそれぞれ使い分ける構造では、ある位置の画素では、一方向の位相差のみしか検出することができず、サンプリング位置および時刻のズレは解消されない。これに対し、画素21RBは、可視光を用いて位相差検出用および撮像用の信号を取得することができ、1画素で位相差検出用素と撮像画素との両方の機能を備えることができる。
 なお、画素21RBは、赤色の光を検出するPD31と青色の光を検出するPD31を用いた構成とされているが、この他、例えば、赤色の光を検出するPD31と緑色の光を検出するPD31を用いた構成や、緑色の光を検出するPD31と青色の光を検出するPD31を用いた構成を採用してもよい。
 次に、図3は、画素領域12の第1のレイアウトの例を示す図である。
 図3に示すように、画素領域12には、R信号およびB信号を出力可能な画素21RBと、G信号を出力可能な画素21Gとが、水平方向および垂直方向に交互に配置される。そして、例えば、図3の左下において二点鎖線で囲われた画素21RBから出力されるR信号およびB信号と、画素21Gから出力されるG信号とが、この画素21RBおよび画素21Gをサブピクセルとした一組の画素信号(RGB信号)として用いられる。
 画素21Gは、緑色の光を光電変換するPD31Gと、PD31Gの電荷を転送する転送トランジスタ32Gとを有する。図示するように、画素21RBのPD31R-1および31R-2と、画素21GのPD31Gとは、1つのFD部33RGを共有して使用する。即ち、画素21RBのPD31R-1および31R-2が、転送トランジスタ32R-1および32R-2をそれぞれ介してFD部33RGに接続されるとともに、画素21GのPD31Gが、転送トランジスタ32Gを介してFD部33RGに接続されている。また、画素領域12は、単一の画素21RBにおいて、R信号を変換する増幅トランジスタ34と、B信号を変換する増幅トランジスタ34とが共有して用いられる配線構造とされている。
 また、画素領域12では、垂直方向に並ぶ画素21RBおよび画素21Gの一列に対して、2本の垂直信号線23-1および23-2が配置されている。そして、画素領域12では、一組として用いられる画素信号(RGB信号)を出力する画素21RBおよび画素21Gが、垂直方向に交互に、垂直信号線23-1および23-2にそれぞれ接続される配線構造となっている。これにより、撮像素子11は、垂直信号線23-1および23-2を介して、二組の画素信号を並列的に読み出すことができる。
 このような画素領域12の配線構造では、複数の画素21RBおよび画素21Gそれぞれから、同じ色の画素信号を同時に読み出すことができ、色ごとの同時性を優先する場合には、このような配線構造が採用される。
 ここで、図3では、二点鎖線で囲われている画素21RBおよび画素21Gについて、画素21RBから垂直信号線23-1にR信号を読み出す経路と、画素21RBから垂直信号線23-1にB信号を読み出す経路とが、白抜きの矢印で示されている。図示するように、画素領域12では、FD部33RGおよびFD部33Bが、共通の増幅トランジスタ34のゲート電極に接続される配線構造であることより、R信号およびB信号は、どちらも共通の増幅トランジスタ34を介して垂直信号線23-1に読み出される。つまり、画素21RBにおいて、PD31R-1および31R-2とPD31B-1および31B-2とが、増幅トランジスタ34を共有して用いている。このため、画素領域12の配線構造では、R信号およびB信号を同時に読み出すことはできず、R信号およびB信号を順次読み出すような駆動が行われることになる。
 そこで、画素21RBからR信号およびB信号を同時に読み出すことを優先する場合には、1つの画素21RBから、それぞれ異なる増幅トランジスタ34を介してR信号およびB信号を読み出すような配線構造が採用される。
 次に、図4は、画素領域12の第2のレイアウトの例を示す図である。
 図4に示されている画素領域12-aでは、図3の画素領域12と同様に、R信号およびB信号を出力可能な画素21RBと、G信号を出力可能な画素21Gとが、水平方向および垂直方向に交互に配置される。但し、画素領域12-aでは、画素21RBおよび画素21Gから、それぞれ垂直信号線23-1および23-2に画素信号を読み出すための配線構造が、図3の画素領域12と異なるものとなっている。
 例えば、画素領域12-aでは、二点鎖線で囲われている2つの画素21RBと1つの画素21Gとが、一組の画素信号として用いられるR信号、G信号、およびB信号を出力するような配線構造となっている。図示するように、二点鎖線で囲われている2つの画素21RBと1つの画素21Gが共有して用いる増幅トランジスタ34には、増幅トランジスタ34の上側の画素21RBのFD部33Bと、増幅トランジスタ34の下側のFD部33RGとが接続されている。
 従って、この増幅トランジスタ34が選択トランジスタ35を介して接続される垂直信号線23-1には、上側の画素21RBから出力されるB信号、画素21Gから出力されるG信号、および、下側の画素21RBから出力されるR信号が一組の画素信号(RGB信号)として出力される。
 また、画素領域12-aの配線構造では、左下の1つの画素21RBに注目してみると、この画素21RBから出力されるR信号とB信号とは、それぞれ異なる経路を介して読み出されることになる。つまり、白抜きの矢印で図示されているように、画素21RBから出力されるR信号は、画素21RBの上側にある増幅トランジスタ34を介して垂直信号線23-1に出力され、画素21RBから出力されるB信号は、画素21RBの下側にある増幅トランジスタ34を介して垂直信号線23-2に出力される。
 このように、画素領域12-aでは、画素21RBにおいて赤色の光を光電変換した電荷をR信号に変換する増幅トランジスタ34は、その画素21RBの上側に配置される画素21Gおよび画素21RBと共有して用いられる。また、画素領域12-aでは、画素21RBにおいて青色の光を光電変換した電荷をB信号に変換する増幅トランジスタ34は、その画素21RBの下側に配置される図示しない画素21Gおよび画素21RBと共有して用いられる。
 つまり、画素領域12-aは、2つの(複数の)画素21RBにおいて、一方の画素21RBから出力されるR信号を変換する増幅トランジスタ34と、他方の画素21RBから出力されるB信号を変換する増幅トランジスタ34とが共有して用いられる配線構造とされている。このようにR信号およびB信号を異なる経路で読み出すことができる配線構造を採用することで、画素領域12-aでは、1つの画素21RBからR信号およびB信号を同時に読み出すことができる。即ち、図1の垂直駆動回路13は、1つの画素21RBからR信号およびB信号を同時に(同一のタイミングで)読み出す駆動を行う。
 従って、画素領域12-aでは、1つの画素21RBからR信号およびB信号を同時に読み出すことで、例えば、図3の画素領域12よりも動被写体への合焦精度を向上させることができる。
 次に、図5は、画素領域12の第3のレイアウトの例を示す図である。
 図5に示されている画素領域12-bでは、図4の画素領域12-aと同様に、二点鎖線で囲われた2つの画素21RBと1つの画素21Gとが、1組の画素信号(RGB信号)を出力するような配線構造となっている。また、画素領域12-bでは、図4の画素領域12-aと同様に、1つの画素21RBからR信号およびB信号を同時に読み出すことができる配線構造となっている。
 そして、画素領域12-bでは、垂直方向の1列ごとに、画素21RBの構造が異なるものとなっている。つまり、図5の左側の列(例えば、奇数列)に配置される画素21RBは、図2に示した画素21RBと同様に、PD31R-1および31R-2は、図の左右に分割され、PD31B-1および31B-2は、図の上下に分割された構成となっている。これに対し、図5の右側の列(例えば、偶数列)に配置される画素21RB’は、図2に示した画素21RBと異なり、PD31R-1および31R-2は、図の上下に分割され、PD31B-1および31B-2は、図の左右に分割された構成となっている。
 つまり、画素21RBのR信号は左右方向の位相差検出に用いられるとともに、画素21RBのB信号は上下方向の位相差検出に用いられる。これに対し、画素21RB’のR信号は上下方向の位相差検出に用いられるとともに、画素21RB’のB信号は左右方向の位相差検出に用いられる。
 このように、画素領域12-bでは、1列ごとに交互に画素21RBおよび画素21RB’を配置する構造によって、それぞれの色ごとに左右方向および上下方向の位相差を検出することができ、合焦精度の向上を図ることができる。
 次に、図6を参照して、画素21RBの第2の構成例について説明する。図6のAには、画素21RB-aの平面的な構成例が示されており、図6のBには、図6のAに示す一点鎖線A-A’に沿った画素21RB-aの断面的な構成例が示されている。
 図6に示す画素21RB-aにおいて、図2の画素21RBと共通する構成については、同一の符号を付し、その詳細な説明は省略する。即ち、画素21RB-aは、PD31R-1および31R-2が、図の左右に分割された配置となっている点で、図2の画素21RBと共通する構成となっている。
 但し、画素21RB-aは、1つのPD31B-aが配置されている点で、図2の画素21RBと異なる構成となっている。つまり、図2の画素21RBでは、青色の光を光電変換するPD31B-1および31B-2が分割されて配置されるのに対し、画素21RB-aでは、分割されずに1つのPD31B-aが配置される。
 即ち、画素21RB-aでは、R信号が、位相差検出に用いられる一方、B信号は、位相差検出には用いられずに、画像の構築に用いられる。このように、画素21RB-aは、2方向の位相差を検出する構成とするのではなく、少なくともR信号およびB信号の一方が位相差検出に用いられるように構成されていればよい。
 また、画素21RB-aは、半導体基板41に対して配線層42が積層される表面に光が照射される表面照射型の構造とされており、半導体基板41の浅い領域に形成されるPD31B-aからの電荷が読み出しやすい構成となっている。
 次に、図7を参照して、画素21RBの第3の構成例について説明する。図7のAには、画素21RB-bの平面的な構成例が示されており、図7のBには、図7のAに示す一点鎖線A-A’に沿った画素21RB-bの断面的な構成例が示されている。
 図7に示す画素21RB-bにおいて、図6の画素21RB-aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。即ち、画素21RB-bは、PD31R-1および31R-2が、図の左右に分割された配置となっており、PD31B-bが分割されずに配置されている点で、図6の画素21RB-aと共通する構成となっている。
 但し、画素21RB-bは、半導体基板41に対して配線層42が積層される表面に対して反対側を向く裏面に光が照射される裏面照射型の構造である点で、図6の画素21RB-aと異なる構成となっている。このような裏面照射型の構造では、半導体基板41の裏面側に、絶縁層45を介してフィルタ層43およびオンチップレンズ層44が積層される構成となっており、表面照射型の構造と比較して、半導体基板41に照射される光の量を増加させることができる。
 このように構成される画素21RB-bは、図6の画素21RB-aのPD31B-aよりもPD31B-bの面積を広げることができ、PD31B-bの受光量の増加を図ることができる。さらに、画素21RB-bは、半導体基板41を薄膜化することができ、半導体基板41において赤外光を光電変換する領域を確保することができない。このため、例えば、上述の特許文献1のように位相差検出に赤外光を用いる構成を、裏面照射型の構造に適用することは困難であった。これに対し、画素21RB-bは、可視光の光を位相差検出に用いるため、このような困難性を排除することができる。
 また、画素21RB-bは、半導体基板41の深い領域に形成されるPD31R-1および31R-2からの電荷が読み出しやすい構成となっている。例えば、位相差検出に用いられるPD31R-1および31R-2は、電荷の転送特性が低いため、電荷が読み出しやすい構成を採用することで、より確実に電荷を転送することができる。
 次に、図8を参照して、画素21RBの第4の構成例について説明する。図8のAには、画素21RB-cの平面的な構成例が示されており、図8のBには、図8のAに示す一点鎖線A-A’に沿った画素21RB-cの断面的な構成例が示されている。
 図8に示す画素21RB-cにおいて、図6の画素21RB-aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。即ち、画素21RB-cは、表面照射型の構造である点で、図6の画素21RB-aと共通する構成となっている。
 但し、画素21RB-cは、PD31B-1および31B-2が、図の上下に分割された配置となっており、PD31R-cが分割されずに配置されている点で、図6の画素21RB-aと異なる構成となっている。つまり、図6の画素21RB-aでは、赤色の光を光電変換するPD31R-1および31R-2を位相差検出に用いていたのに対し、画素21RB-cは、青色の光を光電変換するPD31B-1および31B-2を位相差検出に用いている。
 このように、画素21RB-cと図6の画素21RB-aとを比較するに、赤色および青色の光の少なくともいずれか一方を、位相差検出に用いることができるように、PD31RおよびPD31Bのいずれか一方が分割されて配置される構成を採用していればよい。
 次に、図9を参照して、画素21RBの第5の構成例について説明する。図9のAには、画素21RB-dの平面的な構成例が示されており、図9のBには、図9のAに示す一点鎖線A-A’に沿った画素21RB-dの断面的な構成例が示されている。
 図9に示す画素21RB-dにおいて、図6の画素21RB-aと共通する構成については、同一の符号を付し、その詳細な説明は省略する。即ち、画素21RB-dは、表面照射型の構造である点で、図6の画素21RB-aと共通する構成となっている。
 また、画素21RB-dは、PD31R-1dおよび31R-2dが、図の上下に分割された配置となっており、PD31B-dが分割されずに配置されている。さらに、画素21RB-dは、PD31R-1dおよび31R-2dからの電荷の読み出しと、PD31B-dからの電荷の読み出しとが、共通の転送トランジスタ32RB-1および32RB-2により行われる。また、画素21RB-dでは、PD31R-1dおよび31R-2dとPD31B-dとの間、および、PD31R-1dおよび31R-2dと転送トランジスタ32RB-1および32RB-2との間に、P型の不純物濃度の高い高濃度P型領域61が形成される。
 転送トランジスタ32RB-1および32RB-2は、PD31R-1dおよび31R-2dが配置される深さと同程度まで掘り込んだ縦型のゲート電極により構成されており、この縦型のゲート電極に印加する電圧を切り替えることで、PD31R-1dおよび31R-2dからの電荷の読み出しと、PD31B-dからの電荷の読み出しとを切り替えて行うことができる。例えば、画素21RB-dは、高濃度P型領域61を設けることにより、まず、低い電圧を印加することでPD31B-dに蓄積されている電荷を読み出し、その後に、高い電圧を印加することでPD31R-1dおよび31R-2dに印加されている電圧を読み出すことができるように、読み出し電圧の閾値が設定されている。
 このように構成される画素21RB-dは、転送トランジスタ32RB-1および32RB-2を共用して用いることにより、例えば、図6の画素21RB-aよりも小面積化を図ることができる。
 次に、図10を参照して、R信号、G信号、およびB信号を出力可能な画素21RGBの構成例について説明する。図10のAには、画素21RGBの平面的な構成例が示されており、図10のBには、図10のAに示す一点鎖線A-A’に沿った画素21RGBの断面的な構成例が示されている。
 図10に示す画素21RGBにおいて、図9の画素21RB-dと共通する構成については、同一の符号を付し、その詳細な説明は省略する。即ち、画素21RGBは、PD31R-1および31R-2とPD31B-dとにより転送トランジスタ32RB-1および32RB-2を共用して用いる構成となっている点で、図9の画素21RB-dと共通する構成となっている。
 但し、画素21RGBは、図9のマゼンタ色のカラーフィルタ51に替えて、緑色光電変換膜52が積層される点で、図9の画素21RB-dと異なる構成となっている。即ち、画素21RGBは、緑色光電変換膜52において、照射される光のうち緑色の光が光電変換され、赤色および青色の光が半導体基板41に入射するように構成されている。
 このような構成により、1つの画素21RGBは、PD31R-1および31R-2において赤色の光を光電変換し、緑色光電変換膜52において緑色の光を光電変換し、PD31B-dにおいて青色の光を光電変換することができる。即ち、1つの画素21RGBから、R信号、G信号、およびB信号を出力することができるとともに、PD31R-1および31R-2それぞれから独立して信号を読み出すことで位相差検出に用いることができる。
 なお、上述したような撮像素子11は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像システム、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図11は、電子機器に搭載される撮像装置の構成例を示すブロック図である。
 図11に示すように、撮像装置101は、光学系102、撮像素子103、信号処理回路104、モニタ105、およびメモリ106を備えて構成され、静止画像および動画像を撮像可能である。
 光学系102は、1枚または複数枚のレンズを有して構成され、被写体からの像光(入射光)を撮像素子103に導き、撮像素子103の受光面(センサ部)に結像させる。
 撮像素子103としては、上述した撮像素子11が適用される。撮像素子103には、光学系102を介して受光面に結像される像に応じて、一定期間、電子が蓄積される。そして、撮像素子103に蓄積された電子に応じた信号が信号処理回路104に供給される。
 信号処理回路104は、撮像素子103から出力された画素信号に対して各種の信号処理を施す。信号処理回路104が信号処理を施すことにより得られた画像(画像データ)は、モニタ105に供給されて表示されたり、メモリ106に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置101では、上述した撮像素子11を適用することで、被写体への合焦精度を向上させることができ、確実にフォーカスの合った画像を撮像することができる。
 図12は、上述のイメージセンサを使用する使用例を示す図である。
 上述したイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素と、
 前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部と
 を備え、
 前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される
 固体撮像素子。
(2)
 複数の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、
 前記駆動部は、ある1つの前記画素から前記第1の画素信号と前記第2の画素信号とを同時に読み出す駆動を行う
 上記(1)に記載の固体撮像素子。
(3)
 単一の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、
 前記駆動部は、前記画素から前記第1の画素信号と前記第2の画素信号とを順次読み出す駆動を行う
 上記(1)に記載の固体撮像素子。
(4)
 前記第1の光電変換部および前記第2の光電変換部の両方が、平面的に見て、それぞれ異なる方向に分割されて構成されている
 上記(1)から(3)までのいずれかに記載の固体撮像素子。
(5)
 前記第1の光電変換部が赤色の波長域の光を光電変換するとともに、前記第2の光電変換部が青色の波長域の光を光電変換し、前記第1の光電変換部および前記第2の光電変換部が、平面的に見て、互いに略直交する方向に分割されている
 上記(4)に記載の固体撮像素子。
(6)
 前記第1の光電変換部からの電荷の転送と、前記第2の光電変換部からの電荷の転送とで共通の転送トランジスタが用いられ、
 前記転送トランジスタの縦型のゲート電極に印加される電圧に従って、前記第1の光電変換部からの電荷の転送と、前記第2の光電変換部からの電荷の転送とが切り替えられる
 上記(1)から(5)までのいずれかに記載の固体撮像素子。
(7)
 前記第1の光電変換部および前記第2の光電変換部が形成される半導体基板に配線層が積層される表面に対して反対側を向く裏面に光が照射される構造である
 上記(1)から(6)までのいずれかに記載の固体撮像素子。
(8)
 前記第1の光電変換部および前記第2の光電変換部が形成される半導体基板の受光面側に、第3の波長域の可視光を光電変換する光電変換膜が積層される
 上記(1)から(7)までのいずれかに記載の固体撮像素子。
(9)
 第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素と、
 前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部と
 を備え、
 前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成され、
 複数の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、
 前記駆動部は、ある1つの前記画素から前記第1の画素信号と前記第2の画素信号とを同時に読み出す駆動を行う
 固体撮像素子の駆動方法。
(10)
 第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素と、
 前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部と
 を有し、
 前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される
 固体撮像素子を備える電子機器。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。
 11 撮像素子, 12 画素領域, 13 垂直駆動回路, 14 カラム信号処理回路, 15 水平駆動回路, 16 出力回路, 17 制御回路, 21 画素, 31 PD, 32 転送トランジスタ, 33 FD部, 34 増幅トランジスタ, 35 選択トランジスタ, 36 リセットトランジスタ, 41 半導体基板, 42 配線層, 43 フィルタ層, 44 オンチップレンズ層, 45 絶縁層, 51 カラーフィルタ, 52 緑色光電変換膜

Claims (10)

  1.  第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、
     前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部と
     を備え、
     前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される
     固体撮像素子。
  2.  複数の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、
     前記駆動部は、ある1つの前記画素から前記第1の画素信号と前記第2の画素信号とを同時に読み出す駆動を行う
     請求項1に記載の固体撮像素子。
  3.  単一の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、
     前記駆動部は、前記画素から前記第1の画素信号と前記第2の画素信号とを順次読み出す駆動を行う
     請求項1に記載の固体撮像素子。
  4.  前記第1の光電変換部および前記第2の光電変換部の両方が、平面的に見て、それぞれ異なる方向に分割されて構成されている
     請求項1に記載の固体撮像素子。
  5.  前記第1の光電変換部が赤色の波長域の光を光電変換するとともに、前記第2の光電変換部が青色の波長域の光を光電変換し、前記第1の光電変換部および前記第2の光電変換部が、平面的に見て、互いに略直交する方向に分割されている
     請求項4に記載の固体撮像素子。
  6.  前記第1の光電変換部からの電荷の転送と、前記第2の光電変換部からの電荷の転送とで共通の転送トランジスタが用いられ、
     前記転送トランジスタの縦型のゲート電極に印加される電圧に従って、前記第1の光電変換部からの電荷の転送と、前記第2の光電変換部からの電荷の転送とが切り替えられる
     請求項1に記載の固体撮像素子。
  7.  前記第1の光電変換部および前記第2の光電変換部が形成される半導体基板に配線層が積層される表面に対して反対側を向く裏面に光が照射される構造である
     請求項1に記載の固体撮像素子。
  8.  前記第1の光電変換部および前記第2の光電変換部が形成される半導体基板の受光面側に、第3の波長域の可視光を光電変換する光電変換膜が積層される
     請求項1に記載の固体撮像素子。
  9.  第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、
     前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部と
     を備え、
     前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成され、
     複数の前記画素において、前記第1の光電変換部で光電変換された電荷を第1の画素信号に変換する変換部と、前記第2の光電変換部で光電変換された電荷を第2の画素信号に変換する変換部とが共有して用いられ、
     前記駆動部は、ある1つの前記画素から前記第1の画素信号と前記第2の画素信号とを同時に読み出す駆動を行う
     固体撮像素子の駆動方法。
  10.  第1の波長域の可視光を光電変換する第1の光電変換部、および、第2の波長域の可視光を光電変換する第2の光電変換部が、断面方向から見て異なる深さに形成された画素が複数配置された画素領域と、
     前記第1の光電変換部および前記第2の光電変換部それぞれで発生した電荷に応じたレベルの画素信号を、前記画素から読み出す駆動を行う駆動部と
     を有し、
     前記画素は、前記第1の光電変換部および前記第2の光電変換部のうちの少なくとも一方が、平面方向から見て分割されて構成される
     固体撮像素子を備える電子機器。
PCT/JP2016/055796 2015-03-13 2016-02-26 固体撮像素子、駆動方法、および電子機器 WO2016147837A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2017506175A JP6732730B2 (ja) 2015-03-13 2016-02-26 固体撮像素子、駆動方法、および電子機器
US15/554,543 US10249657B2 (en) 2015-03-13 2016-02-26 Solid-state image sensing device, drive method, and electronic apparatus
CN201680013785.3A CN107409184B (zh) 2015-03-13 2016-02-26 固态成像元件、驱动方法以及电子设备
US16/281,674 US10692904B2 (en) 2015-03-13 2019-02-21 Solid-state image sensing device, drive method, and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015050257 2015-03-13
JP2015-050257 2015-03-13

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US15/554,543 A-371-Of-International US10249657B2 (en) 2015-03-13 2016-02-26 Solid-state image sensing device, drive method, and electronic apparatus
US16/281,674 Continuation US10692904B2 (en) 2015-03-13 2019-02-21 Solid-state image sensing device, drive method, and electronic apparatus

Publications (1)

Publication Number Publication Date
WO2016147837A1 true WO2016147837A1 (ja) 2016-09-22

Family

ID=56919025

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/055796 WO2016147837A1 (ja) 2015-03-13 2016-02-26 固体撮像素子、駆動方法、および電子機器

Country Status (4)

Country Link
US (2) US10249657B2 (ja)
JP (1) JP6732730B2 (ja)
CN (1) CN107409184B (ja)
WO (1) WO2016147837A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085645A (ja) * 2016-11-24 2018-05-31 キヤノン株式会社 撮像装置、撮像システム、および、移動体
WO2020050195A1 (ja) * 2018-09-04 2020-03-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子装置
WO2020262131A1 (ja) * 2019-06-26 2020-12-30 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP7474129B2 (ja) 2020-06-22 2024-04-24 キヤノン株式会社 撮像素子、撮像装置、及び焦点検出方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017057291A1 (ja) * 2015-10-01 2017-04-06 オリンパス株式会社 撮像素子、内視鏡、及び内視鏡システム
CN108389870A (zh) * 2017-02-03 2018-08-10 松下知识产权经营株式会社 摄像装置
DE102018202514A1 (de) * 2018-02-20 2019-08-22 Bayerische Motoren Werke Aktiengesellschaft System und Verfahren zur automatischen Erstellung eines Videos einer Fahrt
KR102520487B1 (ko) * 2018-02-21 2023-04-12 에스케이하이닉스 주식회사 이미지 센싱 장치
JP2022002229A (ja) * 2018-09-05 2022-01-06 ソニーセミコンダクタソリューションズ株式会社 撮像装置、および撮像素子
KR20210071149A (ko) 2019-12-05 2021-06-16 삼성전자주식회사 이미지 센서

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015215A (ja) * 2006-07-06 2008-01-24 Nikon Corp 固体撮像素子及びこれを用いた撮像装置
JP2013145292A (ja) * 2012-01-13 2013-07-25 Nikon Corp 固体撮像装置および電子カメラ
WO2013147198A1 (ja) * 2012-03-30 2013-10-03 株式会社ニコン 撮像装置および撮像素子
JP2014520397A (ja) * 2011-06-24 2014-08-21 ボリーメディアコミュニケーションズ(シンチェン)カンパニーリミテッド マルチ被写界深度感光デバイス、システム、被写界深度拡大方法及び光学イメージングシステム
WO2015029425A1 (en) * 2013-09-02 2015-03-05 Sony Corporation Solid-state imaging element, production method thereof, and electronic device

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7355641B2 (en) * 2003-01-10 2008-04-08 Matsushita Electric Industrial Co., Ltd. Solid state imaging device reading non-adjacent pixels of the same color
JP5045012B2 (ja) 2006-07-20 2012-10-10 株式会社ニコン 固体撮像素子及びこれを用いた撮像装置
JP5566093B2 (ja) * 2009-12-18 2014-08-06 キヤノン株式会社 固体撮像装置
JP2014039159A (ja) * 2012-08-16 2014-02-27 Sony Corp 固体撮像装置および駆動方法、並びに電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015215A (ja) * 2006-07-06 2008-01-24 Nikon Corp 固体撮像素子及びこれを用いた撮像装置
JP2014520397A (ja) * 2011-06-24 2014-08-21 ボリーメディアコミュニケーションズ(シンチェン)カンパニーリミテッド マルチ被写界深度感光デバイス、システム、被写界深度拡大方法及び光学イメージングシステム
JP2013145292A (ja) * 2012-01-13 2013-07-25 Nikon Corp 固体撮像装置および電子カメラ
WO2013147198A1 (ja) * 2012-03-30 2013-10-03 株式会社ニコン 撮像装置および撮像素子
WO2015029425A1 (en) * 2013-09-02 2015-03-05 Sony Corporation Solid-state imaging element, production method thereof, and electronic device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018085645A (ja) * 2016-11-24 2018-05-31 キヤノン株式会社 撮像装置、撮像システム、および、移動体
WO2020050195A1 (ja) * 2018-09-04 2020-03-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子装置
US11855108B2 (en) 2018-09-04 2023-12-26 Sony Semiconductor Solutions Corporation Solid-state imaging element and electronic device
WO2020262131A1 (ja) * 2019-06-26 2020-12-30 ソニーセミコンダクタソリューションズ株式会社 撮像装置
JP7474129B2 (ja) 2020-06-22 2024-04-24 キヤノン株式会社 撮像素子、撮像装置、及び焦点検出方法

Also Published As

Publication number Publication date
JPWO2016147837A1 (ja) 2017-12-21
CN107409184B (zh) 2020-09-18
US10692904B2 (en) 2020-06-23
JP6732730B2 (ja) 2020-07-29
US10249657B2 (en) 2019-04-02
CN107409184A (zh) 2017-11-28
US20180076243A1 (en) 2018-03-15
US20190181165A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
JP7264187B2 (ja) 固体撮像装置およびその駆動方法、並びに電子機器
WO2016147837A1 (ja) 固体撮像素子、駆動方法、および電子機器
JP7472952B2 (ja) 撮像装置
US10741605B2 (en) Solid-state image sensor, imaging device, and electronic equipment
US10535687B2 (en) Solid-state imaging device and electronic apparatus
JP2013187475A (ja) 固体撮像装置およびカメラシステム
JP6706482B2 (ja) 固体撮像装置および電子機器
JP2016127043A (ja) 固体撮像素子及び電子機器
JP2022002331A (ja) 固体撮像素子、および電子機器
WO2022149488A1 (ja) 光検出装置および電子機器
WO2022254773A1 (ja) 光検出装置及び電子機器
CN107431078B (zh) 固体摄像元件和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16764667

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2017506175

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15554543

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16764667

Country of ref document: EP

Kind code of ref document: A1