WO2019026606A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2019026606A1
WO2019026606A1 PCT/JP2018/026711 JP2018026711W WO2019026606A1 WO 2019026606 A1 WO2019026606 A1 WO 2019026606A1 JP 2018026711 W JP2018026711 W JP 2018026711W WO 2019026606 A1 WO2019026606 A1 WO 2019026606A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging device
semiconductor region
setting means
potential setting
conductivity type
Prior art date
Application number
PCT/JP2018/026711
Other languages
English (en)
French (fr)
Inventor
克紀 中澤
後藤 浩成
Original Assignee
スタンレー電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スタンレー電気株式会社 filed Critical スタンレー電気株式会社
Priority to EP18840307.5A priority Critical patent/EP3664438B1/en
Publication of WO2019026606A1 publication Critical patent/WO2019026606A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/491Details of non-pulse systems
    • G01S7/4912Receivers
    • G01S7/4913Circuits for detection, sampling, integration or read-out
    • G01S7/4914Circuits for detection, sampling, integration or read-out of detector arrays, e.g. charge-transfer gates
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures

Definitions

  • the present invention relates to an imaging device that performs distance measurement using an imaging element.
  • the modulated light is preferably infrared light rather than visible light. Because the modulated infrared light is easier to distinguish from the visible light of background light than the modulated visible light, and the modulated infrared light is unnecessary even if it is irradiated to a person. It is because they do not give anxiety.
  • Patent Document 1 discloses an imaging device having a structure that is advantageous for performing distance measurement in a TOF method using near infrared light.
  • the imaging device includes an epitaxial layer in a charge generation region, a surface embedded region immediately above (surface side) the epitaxial layer, and an insulating film further on the surface side of the surface embedded region.
  • a central light receiving gate electrode and first and second transfer gate electrodes on both sides thereof are provided on the surface side of the insulating film.
  • Patent Document 2 discloses a photoelectric conversion device which applies a reverse bias to a photodiode.
  • the opening is formed in the central portion of the upper semiconductor region of the two semiconductor regions constituting the photodiode. Then, the central portion of the lower semiconductor region is exposed to the opening, and a reverse bias application wiring is connected to the exposed portion. By applying the reverse bias, the lower semiconductor region is fully depleted and its capacity is reduced.
  • the generation position of the photoelectric effect by the infrared light is deep from the light receiving surface (surface on the light incident side of the imaging device).
  • Conventional imaging devices are often manufactured for visible light, so the generation position of the photoelectric effect of infrared light is within the depletion layer of the photodiode and outside the depletion layer but relatively close to the end of the depletion layer It is limited to the area. In this case, one of the positive and negative charges generated outside the depletion layer enters the depletion layer by diffusion, and then starts to drift due to the electric field of the depletion layer.
  • the diffusion speed is slow, the whole moving speed until the charge reaches the corresponding semiconductor region is slow, and there is a problem that the shutter speed (the number of times of distance measurement per unit time) is slow. Also, the fact that the diffusion rate is slow increases the possibility that one charge recombines with the other charge during diffusion, which causes a problem that the amount of collected signal charges decreases and the sensitivity decreases.
  • the imaging device of Patent Document 1 relates to the improvement in transferring the signal charge generated and collected by the photoelectric effect from the photodiode to the storage unit, the collection speed and the collection amount of the signal charge in the photodiode before the storage of the signal charge. It does not improve.
  • the photoelectric conversion device of Patent Document 2 applies a reverse bias to the photodiode, a region for potential setting is formed at the center of the upper semiconductor region for the application of the reverse bias. This is because the region for setting the potential does not normally contribute to photoelectric conversion, leading to a decrease in the light receiving area, and when the lower semiconductor region is thick, reverse bias is applied over the entire thickness of the lower semiconductor region. Therefore, the depth of the depletion layer can not be sufficiently increased.
  • An object of the present invention is to provide an imaging device capable of efficiently collecting charges generated by photoelectric effect at positions deep from a light receiving surface in a semiconductor region.
  • the imaging device of the present invention is An imaging device comprising: an imaging device having a plurality of photodiodes; and a control device that controls the imaging device,
  • Each of the plurality of photodiodes is A first semiconductor region of a first conductivity type formed commonly to the plurality of photodiodes;
  • First potential setting means for setting a potential in the first semiconductor region;
  • Second potential setting means for setting a potential in the third semiconductor region;
  • the control device supplies different voltages to the first potential setting means and the second potential setting means to accelerate one of the positive and negative charges generated in the first semiconductor region to the second semiconductor region. It generates an accelerating electric field to
  • the present invention different voltages are applied to the first potential setting means and the second potential setting means, and an acceleration electric field is generated in the first semiconductor region to accelerate one charge toward the second semiconductor region. Let This accelerating electric field can be generated over the entire thickness of the first semiconductor region even if the thickness of the first semiconductor region is increased. Thus, the charge generated by the photoelectric effect at a position deep from the light receiving surface can be efficiently collected in the corresponding semiconductor region.
  • the third semiconductor region is separated from the adjacent photodiode by the channel stopper, and the impurity concentration is higher than the impurity concentration of the channel stopper and the first semiconductor region and the thickness is It is smaller than the second semiconductor region.
  • the imaging element has a light receiving surface that is a surface side of the second semiconductor region.
  • the image pickup element of the image pickup apparatus there are two ways: when the light incident side is on the front side (FSI: Front Side Illumination), and when the light incident side is on the back side (BSI: Back Side Illumination).
  • FSI Front Side Illumination
  • BSI Back Side Illumination
  • the imaging device has the light receiving surface side as the back surface side of the first semiconductor region.
  • the distance between the light receiving surface and the depletion layer can be increased, so that light having a long wavelength can be selectively detected.
  • the imaging device has a semiconductor substrate layer of a first conductivity type formed commonly to a plurality of photodiodes,
  • the first semiconductor region is an epitaxial layer formed on the surface side of the semiconductor substrate layer,
  • the first potential setting means is the semiconductor substrate layer,
  • the second potential setting means is the channel stopper or the third semiconductor region,
  • the control device applies a voltage to the first potential setting means and the second potential setting means to generate the accelerating electric field.
  • the epitaxial layer as the first semiconductor region can be smoothly generated by providing the semiconductor substrate layer.
  • the imaging device has a semiconductor substrate layer of a first conductivity type formed commonly to a plurality of photodiodes,
  • the first semiconductor region is an epitaxial layer formed on the surface side of the semiconductor substrate layer,
  • the first potential setting means is a conductive transparent thin film layer,
  • the second potential setting means is the third semiconductor region,
  • the control device applies a voltage to the first potential setting means and the second potential setting means to generate the accelerating electric field.
  • the support substrate in the imaging device of BSI, can be provided on the surface side of the first semiconductor region, and the imaging device can be highly reliable.
  • the impurity concentration of the epitaxial layer is lower than the impurity concentration of the channel stopper to an extent that overlapping between depletion layers of adjacent photodiodes is avoided.
  • the different voltages supplied to the first potential setting means and the second potential setting means have a depth from the light receiving surface on the surface side of the second semiconductor region to the depletion layer end of the photodiode.
  • the voltage that secures the length of the infrared light wavelength The impurity concentration of the epitaxial layer is set to an impurity concentration which avoids overlapping between the depletion layers of adjacent photodiodes when the voltages different from each other are supplied to the first potential setting means and the second potential setting means. It is done.
  • the first conductivity type and the second conductivity type are p-type and n-type, respectively.
  • FIG. 7 is a timing chart of emission modulation light and reflection modulation light.
  • FIG. 7 is a cross-sectional view when the sub-pixels of the imaging element are cut along the column direction of the pixel array portion.
  • FIG. 10 is a cross-sectional view when the sub-pixels of the imaging device of the comparative example are cut along the column direction of the pixel array unit.
  • FIG. 6 is a cross-sectional view when the sub-pixels of the imaging element are cut along the row direction.
  • Sectional drawing when the sub pixel of the image pick-up element of a comparative example is cut along row direction.
  • Sectional drawing of a sub pixel when the BSI type image pick-up element is cut along the vertical direction.
  • Sectional drawing of a sub pixel when the BSI type image pick-up element is cut along the horizontal direction.
  • FIG. 1 is an overall configuration diagram of the imaging device 1.
  • the imaging device 1 includes the modulated light emitting unit 2, the camera 4, and the control device 5, and for each pixel G (FIG. 2), the distance D from the imaging device 1 to the ranging object 7 present in the imaging range 6 of the camera 4 measure.
  • the modulated light emitting unit 2 is controlled to be turned on and off by a control signal from the control device 5, and blinks at, for example, 10 MHz (FIG. 4) to generate modulated light whose intensity is modulated.
  • the modulated light is subjected to light distribution adjustment by the lens 2 a mounted on the light emitting portion of the modulated light emitting portion 2 and emitted as an outgoing modulated light La.
  • the outgoing modulated light La irradiates the entire imaging range 6 at one time. Near-infrared light is used as the outgoing modulation light La.
  • the outgoing modulation light La is reflected to the ranging object 7, and after reflection, it becomes reflected modulation light Lb derived from the outgoing modulation light La. It returns to the imaging device 1.
  • the lens 4 a is attached to the incident part of the camera 4, collects the light incident from the imaging range 6, and makes the light enter the imaging device 400 (FIG. 2) in the camera 4 as imaged image light.
  • the captured image light includes background light and reflection modulated light Lb.
  • the reflection modulated light Lb is incident on the corresponding pixel G (FIG. 2) in the imaging device 400 according to the position occupied by the distance measurement target 7 derived therefrom in the imaging range 6.
  • the control device 5 includes a phase difference detection unit 51, a distance measurement unit 52, and a voltage application unit 53.
  • the imaging device 400 (FIG. 2) of the camera 4 makes it possible to read the accumulated charge amount of the charge generated in relation to the intensity of the incident light for each pixel from the outside.
  • the charge includes holes as a positive charge and electrons as a negative charge.
  • the amount of electricity corresponding to the number of electrons is stored as the amount of charge stored.
  • the phase difference detection unit 51 detects the phase difference ⁇ between the outgoing modulated light La emitted from the modulated light emitting unit 2 and the reflected modulated light Lb based on the accumulated charge amount read from the imaging device 400 for each pixel.
  • the distance measuring unit 52 measures the distance D based on the phase difference detected by the phase difference detecting unit 51.
  • FIG. 2 is a block diagram of an imaging element 400 provided in the camera 4. Note that, for convenience of the description of the structure of the pixel array unit 401 after FIG. 2, a three-axis orthogonal coordinate system is defined.
  • the direction view in which the light receiving surface of the pixel array unit 401 can be viewed is a front view
  • the row direction and the column direction of the grid array of the pixels G in the pixel array unit 401 are an X axis direction and a Y axis direction in a front view.
  • the positive direction of the X-axis is from left to right in front view of the pixel array unit 401
  • the positive direction of the Y-axis is from bottom to top in front view of the pixel array unit 401.
  • the Z axis (FIG. 5A etc.) is a direction perpendicular to the light receiving surface of the pixel array unit 401, and the positive direction is the direction from the opposite side to the light receiving surface of the pixel array unit 401 to the light receiving surface).
  • the imaging device 400 includes a pixel array unit 401, a row control unit 406, a column control unit 407, and an image processor 408 as main components.
  • the image sensor 400 is a CMOS type.
  • the pixel array unit 401 in FIG. 2 has a plurality of pixels G (n, m) distributed with uniform density longitudinally (direction of Y axis) and sideways (direction of X axis) in a lattice array on a plane in front view Have.
  • the pixel G in the pixel array unit 401 is expressed by row number n and column number m.
  • the pixel G (n, m) is the n-th pixel from the top in the front view of the pixel array unit 401 and the m-th pixel G from the left.
  • the pixel array unit 401 includes, for example, 126 ⁇ 126 pixels G.
  • the pixel G (n, m) is generically referred to as a pixel G, and (n, m) is omitted.
  • Each pixel G has a left sub-pixel Po (index “o” means an odd number in a front view, and the sub-pixel Po has an odd column number when defining the column number of the grid array including the sub-pixel And the right side sub-pixel Pe (with the suffix “e” means an even number).
  • the row control unit 406 applies a control signal to the row control line 409 to control the pixels G of the pixel array unit 401 row by row.
  • the column control unit 407 applies a control signal to the column control line 410 so that the pixels G of the pixel array unit 401 can be controlled for each column.
  • the image processor 408 controls the row control unit 406 and the column control unit 407 based on the control signal (control voltage) from the control device 5 (FIG. 1).
  • FIG. 3 is a detailed block diagram of the pixel G. As shown in FIG.
  • the pixel G is composed of a pair of two sub-pixels of the sub-pixel Po and the sub-pixel Pe.
  • the sub-pixel Po includes PD, M1, M3, Fd1, Fd3, and two BMs.
  • the sub-pixel Pe includes PD, M2, M4, Fd2, Fd4, and two BMs.
  • PD represents a photodiode
  • M represents a distribution switch
  • Fd represents a floating diffusion as a charge storage portion
  • BM represents a transfer switch.
  • M1 to M4 and BM consist of FETs (field effect transistors).
  • Control signals for controlling on / off of M1 to M4 are supplied from the row control unit 406 to Tx1 to Tx4.
  • a control signal for controlling on / off of the BM is supplied from the row control unit 406 to Bi.
  • a set of Tx1-Tx4 and Bi lines are included in each row control line 409 (FIG. 2).
  • Ro is connected to the drains of all the BMs of the corresponding column (in which each column of Fd1 to Fd4 is distinguished).
  • the column control unit 407 reads C1 to C4 as readout values of charge amounts of charges accumulated in Fd1 to Fd4 of each pixel G via Ro.
  • Ro is included in each column control line 410 (FIG. 2).
  • the sub-pixel Po and the sub-pixel Pe have the same overall operation except that the operation timings of M1 to M4 and BM as gates in the sub-pixel are different. Therefore, only the operation of the sub-pixel Po will be described.
  • the PD generates a larger number of electrons as the intensity of incident light (this incident light includes background light and reflection modulated light Lb) incident on the pixel G is larger.
  • the amount of charge increases as the number of electrons increases.
  • M1 and M3 are turned on and off in opposite phases by the voltages applied to Tx1 and Tx3. That is, in each on-off cycle, the on-period of M1 is an off-period of M3 and the off-period of M1 is an on-period of M3 in each on-off cycle, where one on-off cycle and one on-off cycle are one cycle.
  • FIG. 4 is a timing chart of the outgoing modulated light La and the reflected modulated light Lb.
  • the scale on the horizontal axis is a value representing time lapse by the phase of the outgoing modulation light La.
  • the outgoing modulated light La is light derived from the laser beam emitted by the modulated light emitting part 2, and the level of the outgoing modulated light La is Low when the modulated light emitting part 2 is off, and the modulated light emitting part 2 At the time of lighting, it is High.
  • the light intensity corresponding to the high level at the time of lighting is increased or decreased by the increase or decrease of the feeding current of the modulated light emitting unit 2.
  • the reflected modulated light Lb is such that the outgoing modulated light La emitted from the imaging device 1 reaches the distance measuring object 7 (FIG. 1), is reflected by the distance measuring object 7, and returns to the imaging device 1.
  • the phase of the reflected modulated light Lb is delayed in phase from the outgoing modulated light La by the time to fly twice the length of the distance D to the distance measurement object 7, and the outgoing modulated light La and the reflected modulated light Lb And a phase difference ⁇ occurs. From the phase difference ⁇ , the distance D between the imaging device 1 and the ranging object 7 can be measured.
  • the image processor 408 (FIG. 2) can read out the charge amount of Fd1 to Fd4 for each pixel G via Bi and Ro.
  • the image processor 408 can read out the accumulated charge amount related to the incident intensity Ii of the reflected modulated light Lb incident on the pixel G from Fd1 to Fd4 of each pixel G.
  • T 1 to T 4 indicate accumulation periods of charge amounts that the image processor 408 reads out from Fd 1 to Fd 4 in each pixel G.
  • T1 is set to a period of phase 0 ° to 180 °.
  • T2 is set to a phase of 90 ° to 270 °.
  • T3 is set to a phase of 180 ° to 360 °.
  • T4 is set to a phase of 270 ° to 360 ° and a phase of 0 ° to 90 ° of the next period, that is, to a phase of 270 ° to 450 °.
  • the control device 5 calculates the phase difference ⁇ by the following equation (1).
  • phase difference ⁇ tan-1 ⁇ (C1-C3) / (C2-C4) ⁇
  • tan means tangent.
  • Tean-1 means arctangent.
  • FIGS. 5A and 6B compare the imaging device 400 with the imaging device 400b or the imaging device 400c of the comparative example.
  • the elements corresponding to the elements of the imaging device 400 have the same reference numerals as the reference numerals of the elements of the imaging device 400.
  • the sub-pixel Pc is used as a generic name of the sub-pixels Po and Pe.
  • FIGS. 5A and 5B are cross-sectional views of the sub-pixel Pc taken along the column direction (Y-axis direction) of the pixel array section 401.
  • FIG. FIG. 5A is a cross-sectional view of the sub-pixel Pc of the imaging device 400
  • FIG. 5B is a cross-sectional view of the sub-pixel Pc of the imaging device 400b of the comparative example.
  • the imaging device 400 b is, for example, a conventional imaging device for visible light.
  • FIG. 6 is a cross-sectional view when the sub-pixel Pc is cut along the row direction (X-axis direction)
  • FIG. 6A is a cross-sectional view of the sub-pixel Pc of the imaging device 400
  • FIG. It is sectional drawing of the sub-pixel Pc of the element 400c.
  • the imaging device 400c is, for example, a device in which the impurity concentration of the p-epi (p-type epitaxial layer) 112 is lower than that of the imaging device 400b by a predetermined amount (low concentration).
  • a new semiconductor region is formed by laminating on a previously manufactured semiconductor region.
  • the laminating side at this time is the surface side, and the opposite side is the back side. It is defined as
  • the imaging device 400 is of FSI type. That is, the front surface side is the light receiving surface side, and the back surface side is the opposite side to the light receiving surface.
  • the front surface side is the opposite side to the light receiving surface
  • the back surface side is the light receiving surface side.
  • the dimension in the Z-axis direction from the light receiving surface to the depletion layer 150 can be shorter than when the imaging device 400 is BSI. This is advantageous because the charge generated by the photoelectric effect at a position (shallow position) close to the light receiving surface can be taken into the depletion layer 150.
  • the light shield 101 is disposed between the surface of the pixel array unit 401 and the surface of the pixel array unit 401 so as to cover the surface of the pixel array unit 401 from the light incident side (positive side in the Z-axis direction) of the imaging device 400. It is disposed at a predetermined interval in the axial direction.
  • the light shield 101 has a window 102 of approximately the same size as the light receiving surface of the PD, at a position facing the PD (the same photodiode as the PD in FIG. 2) of each sub-pixel Pc.
  • first conductivity type and the second conductivity type will be described as p type and n type, respectively.
  • the first conductivity type and the second conductivity type are defined as opposite conductivity types.
  • the first conductivity type and the second conductivity type may be n-type and p-type, respectively.
  • the imaging device 400 has a p-sub (p-type semiconductor substrate layer) 111 and a p-epi 112 formed on the surface side of the p-sub.
  • the thickness of p-epi 112, ie, the dimension in the Z-axis direction, is Ha.
  • an n-type semiconductor region 117 and a p-type well 119 are formed in different ranges in each sub-pixel Pc so as to be embedded from the surface side.
  • the range of the n-type semiconductor region 117 corresponds to the range occupied by PD in FIG. 3, and the range of the p-type well 119 is a range occupied by Fd1 and Fd3 (in the case where the sub pixel Pc is the sub pixel Po) etc. It corresponds to
  • the p-type channel stopper 115 functions as separation between pixels or separation between PDs, and is formed commonly to a plurality of PDs.
  • the channel stopper 115 extends from the surface of the p-epi 112 to a depth below the back surface of the n-type semiconductor region 117 (negative side in the Z-axis direction), and the n-type semiconductor region 117 and the p + region 123 are adjacent to each other It is separated from
  • the channel stoppers 115 are formed in a grid shape so as to separate the boundary lines between the sub-pixels Pc, and each of the sub-pixels Pc is surrounded by a rectangular frame in a front view of the pixel array portion 401.
  • the p + region 123 has a function of suppressing dark current and afterimage.
  • the impurity concentration of the p + region 123 is higher than the impurity concentration of the p-sub 111 of the same conductivity type and the channel stopper 115.
  • the thickness (dimension in the Z-axis direction) of the p + region 123 is smaller than the thickness of the n-type semiconductor region 117.
  • the oxide film (silicon dioxide film) 131 is formed to cover the surface side of the sub-pixel Pc except for the n + region 126 and the n + region 127.
  • the polysilicon film 135 is formed at a predetermined portion on the surface side of the oxide film 131.
  • connection point 141 is connected to any one of M1 to M4.
  • connection point 142 is connected to any one of Fd1 to Fd4.
  • connection point 143 is connected to Bi.
  • connection point 144 is connected to Ro.
  • connection point 142 is connected to the n + region 126.
  • connection point 144 is connected to the n + region 127.
  • the positive voltage applied to connection point 141 is applied to polysilicon film 135 connected to connection point 141 to control the n-channel between n-type semiconductor region 117 and n + region 126.
  • the voltage applied to the connection point 143 is applied to the polysilicon film 135 to which the connection point 143 is connected to control the n channel between the n + region 126 and the n + region 127.
  • connection point 145 is connected to the rear surface side of the p-sub 111 and is supplied with a negative voltage Vsub from the voltage application unit 53 of the control device 5.
  • the potential of the n-type semiconductor region 117 is set such that the pn junction with the channel stopper 115 and the p + region 123 is in a reverse bias state.
  • the p-sub 111 is held at Vsub as a negative potential by the supply of Vsub from the connection point 145.
  • the p-epi 112 and the n-type semiconductor region 117 constitute one PD as a pair of anode and cathode in each sub-pixel Pc.
  • a depletion layer 150 is formed in the boundary region between the p-epi 112 and the n-type semiconductor region 117. As the connection point 145 and the channel stopper 115 are supplied with Vsub and GND as mutually different voltages, the spread of the depletion layer also changes somewhat.
  • Ha is the thickness of p-epi 112 (dimension in the Z-axis direction). Ha is set to a value sufficiently larger than the thickness Hb of the p-epi 112 of the imaging device 400b without reverse bias application to the PD to cope with the thickness increase of the depletion layer 150 due to reverse bias application of PD. As the absolute value of the negative voltage of Vsub is increased, the end face on the back side of depletion layer 150 approaches the end face on the front side of p-sub 111 and eventually reaches the end face on the front side of p-sub 111 . The depletion layer 150 at this time is called a "completely depleted state". Note that electrons generated over the entire area of the p-epi 112 can be collected in the n-type semiconductor region 117 by the accelerating electric field without being in the “completely depleted state”.
  • the upper limit of the absolute value of Vsub is equal to or less than a value that does not cause breakdown of the junction between p-epi 112 and n-type semiconductor region 117.
  • Vsub generally has a minimum value (note: for negative values, the larger the absolute value is, the smaller the value is), for example, -12V. Since the wavelength of infrared light is 830 to 960 nm, Vsub is set so that the depth from the light receiving surface of PD to the lowermost surface of depletion layer 150 is substantially equal to the wavelength of infrared light. Be done.
  • the thickness Hb of the p-epi 112 is Hb ⁇ Ha with respect to the thickness Ha of the p-epi 112 in the imaging device 400.
  • GND is supplied from the voltage application unit 53 of the control device 5 to both the p-sub 111 and the channel stopper 115. Since no reverse bias is applied to the PD of the imaging device 400 b, the thickness of the depletion layer 150 is smaller than the thickness of the depletion layer 150 of the imaging device 400.
  • the imaging device 400 (FIG. 5A) and the imaging device 400b (FIG. 5B) are compared.
  • the wavelength of the reflected modulated light Lb is long.
  • the photoelectric effect due to the incidence of the reflection modulated light Lb on the PD is likely to occur at a deep position from the light receiving surface of the PD.
  • + and ⁇ with ⁇ respectively indicate holes and electrons generated by the photoelectric effect. Holes and electrons occur in pairs.
  • the illustrated photoelectric effect means that they all occur at a deeper position than the depletion layer 150.
  • the depletion layer 150 since the depletion layer 150 has a sufficient depth, even when the reflected modulated light Lb is infrared light, the generation position of electrons due to the photoelectric effect can be made in the depletion layer 150. .
  • the thickness of the depletion layer 150 is small, and no accelerating electric field exists in the portion other than the depletion layer 150.
  • the reflected modulated light Lb is infrared light
  • a large number of electrons are generated at a position deeper than the depletion layer 150 due to the photoelectric effect, and the time for generated electrons to reach the n-type semiconductor region 117 is prolonged.
  • the number of n-type semiconductor regions 117 reaching the n-type semiconductor region 117 is reduced due to recombination with holes.
  • the depletion layer 150 is expanded by reducing the impurity concentration of the p-epi 112 to be lower than the impurity concentration of the p-epi 112 of the imaging device 400b.
  • the electric field in the depletion layer 150 near the boundary of the depletion layer 150 is often insufficient to cause a drift, and not only in the depth direction but also in the plane direction (direction of X axis and Y axis) Expand.
  • the depletion layers 150 of adjacent subpixels Pc overlap in the surface direction. This is because the electrons generated below the depletion layer 150 and in the vicinity of the boundary of the adjacent depletion layer 150 are not the sub-pixel Pc on which the reflected modulated light Lb that is the cause is incident, but the adjacent sub-pixel Pc. It diffuses into the depletion layer 150 and moves to the n-type semiconductor region 117 of the adjacent sub-pixel Pc. This causes cross talk.
  • a directional acceleration electric field exists not only in the depletion layer 150 but also in the p-epi 112 not incorporated into the depletion layer, thereby causing crosstalk. It can be prevented.
  • the imaging device 400 when a voltage is applied between the channel stopper 115 and the connection point 145, current may flow to increase the current consumption of the imaging device 400.
  • the reduction of the impurity concentration of p-epi 112 leads not only to the increase of the resistance of p-epi 112 but also to the expansion of the depletion layer 150. Therefore, the concentration of the impurity in p-epi 112 needs to be reduced to such an extent that crosstalk can be avoided, that is, the depletion layers 150 of adjacent subpixels Pc do not overlap in the surface direction.
  • the concentration of the impurity of the p-epi 112 is lower than the concentration of the impurity of the p-sub 111 and the channel stopper 115 of the same conductivity type. Further, the concentration of the impurity of p-epi 112 in the imaging device 400 is lower than the concentration of the impurity of p-epi 112 in the imaging device 400 b. As an example, the concentration of the impurity of p-epi 112 in the imaging device 400 is 10 12 to 10 13 / cm 3.
  • the intensity of the reflected modulated light Lb becomes sufficiently large. For this reason, even if the sensitivity of the imaging device 1 is slightly lowered, the distance measurement of the distance measurement target 7 can be performed with an accuracy equal to or higher than the allowable value. Thus, when the imaging device 1 measures the distance measurement target 7 with a relatively short distance, the absolute value of the negative potential of Vsub is reduced accordingly to save power consumption.
  • the imaging device 1 thins out distance measurement processing when the distance measurement target 7 does not exist in the imaging range 6.
  • the voltage application unit 53 does not supply Vsub to the connection point 145.
  • the power consumption of the imaging element 400 can be saved by stopping the supply of Vsub when unnecessary.
  • the p-epi 112 corresponds to a first semiconductor region.
  • the n-type semiconductor region 117 corresponds to a second semiconductor region.
  • the n-type semiconductor region 117 corresponds to a third semiconductor region.
  • p-sub 111 or p-epi 112 corresponds to the first potential setting means.
  • the channel stopper 115 or the n-type semiconductor region 117 corresponds to a second potential setting unit.
  • FIG. 7A relates to an application example of the present invention to a BSI type imaging device 400d
  • FIG. 7A is a cross-sectional view of the sub-pixel Pc when cut along the vertical direction (Y-axis direction); Cross-sectional view of the sub-pixel Pc when it is cut along the axial direction).
  • the support substrate corresponding to the p-sub 111 in the FSI imaging device 400 is not shown.
  • the same reference numerals as those in FIG. 5A and FIG. 6A denote the same elements as those illustrated in the cross-sectional view of the sub-pixel Pc of the imaging element 400 of FSI in FIGS. Indicated by the same reference numerals as in FIG. Only the structural differences of the imaging device 400d with respect to the FSI imaging device 400 (FIGS. 5A and 6A) will be described.
  • the orientation of the front and back of the p-epi 112 of the imaging device 400 with respect to the light shield 101 is reversed from that of the FSI imaging device 400, and the back side of the p-epi 112 is the light receiving surface. Therefore, the channel stopper 115, the n-type semiconductor region 117, the p-type well 119, the p + region 123, the oxide film 131 and the like formed on the surface side of the p-epi 112 are located on the opposite side to the light shield 101.
  • the conductive transparent thin film layer 155 is formed on the back surface side (the light shield 101 side) of the p-epi 112.
  • the Vsub supplied to the p-sub 111 in the FSI imaging device 400 is supplied to the conductive transparent thin film layer 155 in the BSI imaging device 400d.
  • p-epi 112 corresponds to a first semiconductor region.
  • the n-type semiconductor region 117 corresponds to a second semiconductor region.
  • the n-type semiconductor region 117 corresponds to a third semiconductor region.
  • the conductive transparent thin film layer 155 corresponds to a first potential setting unit.
  • the channel stopper 115 or the n-type semiconductor region 117 corresponds to a second potential setting unit.
  • a light shield also referred to as "light shielding film” 101 is provided to avoid color mixing of light.
  • the light shield 101 can be omitted from the imaging device 400d.
  • the p-epi 112, the p-type well 119 and the p + region 123 are examples of the first semiconductor region, the second semiconductor region and the third semiconductor region of the present invention, respectively.
  • the p-epi 112 and the channel stopper 115 are formed commonly to a plurality of PDs.
  • the n-type semiconductor region 117 and the p + region 123 which are constituent elements of the PD are formed for each sub-pixel Pc separately from the adjacent sub-pixel Pc (also the adjacent PD).
  • the control signal for controlling on / off of M1 to M4 and the control signal for controlling on / off of BM described in FIG. 3 are examples of the voltage supplied to the imaging device by the control device in the present invention.
  • Vsub and GND in FIGS. 5 and 6 also correspond to voltages supplied to the imaging device by the control device in the present invention.
  • the imaging device may be an imaging device in which the pixel G does not have the sub-pixel Pc, that is, each pixel G includes only one pixel.
  • DESCRIPTION OF SYMBOLS 1 ... Imaging device, 5 ... Control device, 6 ... Photography range, 7 ... Distance-measurement object, 53 ... Voltage application part, 111 ... p-sub (semiconductor substrate layer), 112 ... p-epi (first semiconductor region or p-type epitaxial layer), 115 ... channel stopper, 117 ... n-type semiconductor region (second semiconductor region), 123 ... p + region (first 3 Semiconductor regions), 150: Depletion layer, 400: Imaging device, PD: Photodiode.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Light Receiving Elements (AREA)

Abstract

撮像素子400は、p-epi112と、チャンネルストッパ115により隣接のPDから分離された表面側のn型半導体領域117と、さらに表面側のp+領域123とを有する。チャンネルストッパ115又はp+領域123とp-epi112とに相互に異なる電圧が印加される。該電圧は、光電効果によりp-epi112に生成される電子をn型半導体領域11に加速する加速電界を生成する。

Description

撮像装置
 本発明は、撮像素子を用いて測距を行う撮像装置に関する。
 撮像素子を用いてTOF(Time Of Flight:光飛行時間)方式で測距を行う撮像装置が知られている。このような撮像装置では、変調光を撮影範囲に出射してから、該変調光が撮影範囲内の対象物に反射して各画素に戻って来るまでに要した時間を画素ごとに計測し、該計測した時間に基づいて撮影範囲内の各対象物までの距離を画素ごとに測定する。
 変調光は、可視光よりも赤外光の方が望ましい。なぜなら、赤外光の変調光は、可視光の変調光よりも背景光の可視光との区別が容易であり、また、赤外光の変調光は、人に照射しても、不必要な不安感を与えることがないためである。
 特許文献1は、近赤外光を用いてTOF方式で測距を行うことに有利な構造の撮像素子を開示する。該撮像素子は、電荷生成領域のエピタキシャル層と、エピタキシャル層の直上(表面側)の表面埋込領域と、表面埋込領域のさらに表面側の絶縁膜とを備える。絶縁膜の表面側には、中心の受光ゲート電極とその両側の第1及び第2転送ゲート電極とが設けられる。第1及び第2転送ゲート電極に負及び正の電圧を印加すると、信号電荷は、n型の第1浮遊ドレイン領域に転送される。また、第1及び第2転送ゲート電極に正及び負の電圧を印加すると、信号電荷は、n型の第2浮遊ドレイン領域に転送される。この信号電荷は、表面から深い位置のエピタキシャル層を経て第1及び第2浮遊ドレイン領域に転送されるので、近赤外光による信号電荷の転送時の消滅を抑制することができる。
 特許文献2は、フォトダイオードに逆バイアスを印加する光電変換装置を開示する。該光電変換装置では、開口部が、フォトダイオードを構成する2層の半導体領域のうちの上層の半導体領域の中心部に形成される。そして、下層の半導体領域の中心部が開口部に露出し、逆バイアス印加用の配線が露出部に接続されている。逆バイアスの印加により、下側半導体領域が、完全空乏化し、その容量が低減する。
国際公開第2007/026777号 特開2000-312024号公報
 赤外光は、可視光に比べて波長が長いので、赤外光による光電効果の発生位置は、受光面(撮像素子の光入射側の面)から深い位置になる。従来の撮像装置は、可視光用に製造されていることが多いので、赤外光の光電効果の発生位置がフォトダイオードの空乏層内及び空乏層外であるが比較的に空乏層端に近い領域に限定される。この場合、空乏層外で発生した正負一方の電荷は、拡散で空乏層に進入してから、空乏層の電界によりドリフトを開始する。拡散速度は遅いので、電荷が対応の半導体領域に到達するまでの全体の移動速度が遅くなってしまい、シャッタ速度(単位時間当たりの測距回数)が遅いという問題がある。また、拡散速度が遅いということは、一方の電荷が拡散時に他方の電荷と再結合する可能性が高まり、信号電荷の収集量が低下して、感度が低下するという問題もある。
 特許文献1の撮像装置は、光電効果により生成されて収集した信号電荷をフォトダイオ
ードから蓄積部に転送する際の改善に関し、信号電荷の蓄積前のフォトダイオードにおける信号電荷の収集速度や収集量を改善するものではない。
 特許文献2の光電変換装置は、フォトダイオードに逆バイアスを印加するものの、逆バイアスの印加のために、上側の半導体領域の中心部に電位設定のための領域が形成される。これは、該電位設定のための領域は通常光電に寄与しないので、受光面積の減少につながるとともに、下側の半導体領域が厚いときに、下側の半導体領域の厚み全体にわたり逆バイアスが印加されず、空乏層の深さを十分に増大することができない。
 本発明の目的は、受光面から深い位置に光電効果により生成された電荷を効率的に半導体領域に収集することができる撮像装置を提供することである。
 本発明の撮像装置は、
 複数のフォトダイオードを有する撮像素子と、前記撮像素子を制御する制御装置と、を備える撮像装置であって、
 前記複数のフォトダイオードの各々は、
 前記複数のフォトダイオードに共通に形成された第1導電型の第1半導体領域と、
 前記複数のフォトダイオードに共通に形成された第1導電型のチャンネルストッパにより隣接のフォトダイオードから分離されて、前記第1半導体領域の表面側に形成され、第1導電型とは反対の導電型としての第2導電型である第2半導体領域と、
 前記第1半導体領域の表面側に形成され、第1導電型の第3半導体領域と、
 前記第1半導体領域に電位を設定する第1電位設定手段と、
 前記第3半導体領域に電位を設定する第2電位設定手段と、
を有し、
 前記制御装置は、第1電位設定手段と第2電位設定手段とに相互に異なる電圧を供給して、前記第1半導体領域に生成された正負一方の電荷を前記第2半導体領域に加速して移動させる加速電界を生成することを特徴とする。
 本発明によれば、第1電位設定手段と第2電位設定手段とに相互に異なる電圧を印加して、一方の電荷を第2半導体領域に向かって加速する加速電界を第1半導体領域に発生させる。この加速電界は、第1半導体領域の厚みを増大しても、第1半導体領域の厚み全体にわたり生じせしめることができる。こうして、受光面から深い位置に光電効果により生成された電荷を効率的に対応の半導体領域に収集することができる。
 好ましくは、本発明の撮像装置において、前記第3半導体領域は、前記チャンネルストッパにより隣接のフォトダイオードから分離されて、不純物濃度が前記チャンネルストッパ及び前記第1半導体領域の不純物濃度より高くかつ厚みが前記第2半導体領域より小さい。
 この構成によれば、一方の電荷を第2半導体領域に向かって加速する加速電界を第1半導体領域に発生させても、第3半導体領域により暗電流及び残像を効果的に抑制することができる。
 好ましくは、本発明の撮像装置において、前記撮像素子は、前記第2半導体領域の表面側を受光面としている。
 撮像装置の撮像素子では、光入射側を表面側にする場合(FSI:Front Side Illumination)と、光入射側を裏面側にする場合(BSI:Back Side Illumination)との2通
りがある。上記構成によれば、第2半導体領域の表面側を受光面とすることにより受光面と空乏層との距離を短くできるので、受光面から浅い位置で生成された電荷を空乏層に適切に取り込むことができる。
 好ましくは、本発明の撮像装置において、前記撮像素子は、前記第1半導体領域の裏面側を受光面側としている。
 この構成によれば、第2半導体領域の表面側を受光面とすることにより受光面と空乏層との距離を長くできるので、波長の長い光を選択的に検出することができる。
 好ましくは、本発明の撮像装置において、
 前記撮像素子は、複数のフォトダイオードに共通に形成された第1導電型の半導体基板層を有し、
 前記第1半導体領域は、前記半導体基板層の表面側に形成されたエピタキシャル層であり、
 前記第1電位設定手段は前記半導体基板層であり、
 前記第2電位設定手段は前記チャンネルストッパ又は前記第3半導体領域であり、
 前記制御装置は、前記第1電位設定手段と前記第2電位設定手段とに電圧を印加して、前記加速電界を生成する。
 この構成によれば、FSIの撮像素子において、半導体基板層を設けることにより第1半導体領域してのエピタキシャル層を円滑に生成することができる。
 好ましくは、本発明の撮像装置において、
 前記撮像素子は、複数のフォトダイオードに共通に形成された第1導電型の半導体基板層を有し、
 前記第1半導体領域は、前記半導体基板層の表面側に形成されたエピタキシャル層であり、
 前記第1電位設定手段は、導電型透明薄膜層であり、
 前記第2電位設定手段は、前記第3半導体領域であり、
 前記制御装置は、前記第1電位設定手段と前記第2電位設定手段に電圧を印加して、前記加速電界を生成する。
 この構成によれば、BSIの撮像素子において、支持基板を第1半導体領域の表面側に設けることができて信頼性の高い撮像装置とすることができる。
 好ましくは、本発明の撮像装置において、前記エピタキシャル層の不純物濃度は、隣接するフォトダイオードの空乏層間の重なりを回避する程度で、前記チャンネルストッパの不純物濃度より低くされている。
 この構成によれば、隣接する画素間のクロストークを回避しつつ、逆バイアス用の電圧印加に因る消費電力を抑制することができる。
 好ましくは、本発明の撮像装置において、
 前記第1電位設定手段と前記第2電位設定手段とに供給される前記相互に異なる電圧は、前記第2半導体領域の表面側の前記受光面から前記フォトダイオードの空乏層端までの深さが赤外光の波長の長さを確保する電圧とされ、
 前記エピタキシャル層の不純物濃度は、前記第1電位設定手段と前記第2電位設定手段とに前記相互に異なる電圧が供給されている時に、隣接するフォトダイオードの空乏層間の重なりを回避する不純物濃度にされている。
 この構成によれば、赤外光の受光を高精度で検出することができる。
 好ましくは、本発明の撮像装置は、前記第1導電型及び前記第2導電型は、それぞれp型及びn型である。
撮像装置の全体構成図。 カメラが備える撮像素子の構成図。 画素の詳細な構成図。 出射変調光及び反射変調光のタイミングチャート。 撮像素子の副画素を画素配列部の列方向に沿って切ったときの断面図。 比較例の撮像素子の副画素を画素配列部の列方向に沿って切ったときの断面図。 撮像素子の副画素を行方向に沿って切ったときの断面図。 比較例の撮像素子の副画素を行方向に沿って切ったときの断面図。 BSI型の撮像素子を縦方向に沿って切ったときの副画素の断面図。 BSI型の撮像素子を横方向に沿って切ったときの副画素の断面図。
 (撮像装置の全体)
 図1は、撮像装置1の全体構成図である。撮像装置1は、変調光出射部2、カメラ4及び制御装置5を備え、撮像装置1からカメラ4の撮影範囲6に存在する測距対象7までの距離Dを画素G(図2)ごとに計測する。
 変調光出射部2は、制御装置5からの制御信号により点灯及び消灯を制御され、例えば10MHz(図4)で点滅して、強度を変調された変調光を生成する。該変調光は、変調光出射部2の光出射部に装着されたレンズ2aにより配光調整されて、出射変調光Laとして出射される。これにより、出射変調光Laは、撮影範囲6の全体を一度に照射する。出射変調光Laは、近赤外光が使用される。
 撮影範囲6内に1以上の測距対象7が存在するときは、出射変調光Laは、測距対象7に反射し、反射後は、出射変調光La由来の反射変調光Lbとなって、撮像装置1へ戻る。レンズ4aは、カメラ4の入射部に装着されて、撮影範囲6から入射する光を集めて、撮像画像光としてカメラ4内の撮像素子400(図2)に入射させる。撮像画像光には、背景光と反射変調光Lbとが含まれている。反射変調光Lbは、それが由来する測距対象7が撮影範囲6で占める位置に応じて、撮像素子400における対応の画素G(図2)に入射する。
 制御装置5は、位相差検出部51、測距部52及び電圧印加部53を備える。
 撮像装置1がTOF方式で測距対象7までの距離Dを計測する処理の詳細は、後述するので、ここでは撮像装置1について概略的に説明する。カメラ4の撮像素子400(図2)は、各画素ごとに入射光の強度に関係して生成した電荷の蓄積電荷量を外部から読出し可能にしている。なお、電荷には、正の電荷としての正孔(ホール)と、負の電荷としての電子がある。撮像装置1では、電子の個数に応じた電気量を電荷の蓄積電荷量として蓄積している。
 位相差検出部51は、変調光出射部2が出射した出射変調光Laと反射変調光Lbとの位相差φを、各画素について撮像素子400から読出した蓄積電荷量に基づいて検出する。測距部52は、位相差検出部51が検出した位相差に基づいて距離Dを測定する。
 図2は、カメラ4が備える撮像素子400の構成図である。なお、図2以降、画素配列部401の構造についての説明の便宜上、3軸直交座標系を定義する。画素配列部401の受光面が見える方向視を正面視とし、正面視で画素配列部401の画素Gの格子配列の
行方向及び列方向をそれぞれX軸方向及びY軸方向とする。X軸の正の向きは、画素配列部401の正面視で左から右への向きとし、Y軸の正の向きは、画素配列部401の正面視で下から上への向きとする。Z軸(図5A等)は、画素配列部401の受光面に直角な方向で、正の向きは、画素配列部401の受光面とは反対側から受光面の側)への向きとする。
 撮像素子400は、主要構成要素として、画素配列部401、行制御部406、列制御部407及び画像プロセッサ408を備えている。なお、この撮像素子400はCMOS型である。
 図2の画素配列部401は、正面視で平面上に格子配列で縦(Y軸の方向)及び横(X軸の方向)に均一な密度で分布した複数の画素G(n,m)を有している。
 なお、画素配列部401における画素Gを行番号nと列番号mとで表現する。画素G(n,m)とは、画素配列部401の正面視において上からn番目で、左からm番目の画素Gを指すものとする。画素配列部401は、例えば126×126個の画素Gから成る。以降、個々の画素を特に区別する必要がないときは、画素G(n,m)を画素Gと総称し、(n,m)は、省略する。
 各画素Gは、正面視で左側の副画素Po(添え字「o」は、奇数を意味し、副画素Poは、副画素を含めて格子配列の列番号を定義したときに列番号が奇数になることを意味する)と右側の副画素Pe(添え字「e」は、偶数を意味する)とを有している。
 行制御部406は、行制御ライン409に制御信号を印加し、画素配列部401の画素Gを行ごとに制御できるようになっている。列制御部407は、列制御ライン410に制御信号を印加し、画素配列部401の画素Gを列ごとに制御できるようになっている。画像プロセッサ408は、制御装置5(図1)からの制御信号(制御電圧)に基づいて行制御部406及び列制御部407を制御する。
 図3は、画素Gの詳細な構成図である。画素Gは、副画素Poと副画素Peとの2つの副画素の対から成る。
 副画素Poは、PD、M1,M3、Fd1,Fd3、及び2つのBMを備える。副画素Peは、PD、M2,M4、Fd2,Fd4、及び2つのBMを備える。なお、PDは、フォトダイオードを意味し、Mは、振分けスイッチを意味し、Fdは、電荷蓄積部としてのフローティングディフュージョンを意味し、BMは、転送スイッチを意味するものとする。M1~M4及びBMは、FET(電界効果トランジスタ)から成る。
 Tx1~Tx4には、M1~M4のオンオフを制御する制御信号が行制御部406から供給される。Biには、BMのオンオフを制御する制御信号が行制御部406から供給される。Tx1~Tx4及びBiのラインの組は、各行制御ライン409(図2)に含まれる。
 Roは、対応列(該対応列ではFd1~Fd4の各列は区別される)の全部のBMのドレインに接続されている。列制御部407は、Roを介して各画素GのFd1~Fd4に蓄積されている電荷の電荷量の読出し値としてのC1~C4を読出す。Roは、各列制御ライン410(図2)に含まれる。
 副画素Poと副画素Peとは、副画素内のゲートとしてのM1~M4及びBMの作動タイミングが異なるのみで、全体の作動は、同一である。したがって、副画素Poの作動のみを説明する。
 PDは、画素Gに入射する入射光(この入射光は、背景光と反射変調光Lbとを含む。)の強度が大きいほど、多数の電子を生成する。なお、電子の数の増大に連れて、電荷量は増大する。M1とM3とは、Tx1,Tx3の印加電圧により逆位相でオンオフされる。すなわち、オン、オフの1回ずつを1回のオンオフサイクルとして、各オンオフサイクルにおいて、M1のオン期間は、M3のオフ期間とされ、M1のオフ期間は、M3のオン期間とされる。
 M1,M3のオン期間では、PDが生成した電子が、Fd1,Fd3に供給され、蓄積される。Fd1,Fd3には、画素G(厳密には副画素Po又はPe)に入射した入射光の強さに関係する電荷量の電荷が蓄積される。Roは、所定の読出しタイミングで列制御部407内のスイッチの作動により通電状態になり、この時にオンになっているBMが属する副画素PoのFd1,Fd3の電荷量が列制御部407を介して画像プロセッサ408により読出し値C1,C3として読出される。C1,C3は、さらに、画像プロセッサ408から制御装置5(図1)に送られる。
 図4は、出射変調光La及び反射変調光Lbのタイミングチャートである。横軸の目盛は、時間経過を出射変調光Laの位相で表現した値となっている。出射変調光Laは、変調光出射部2が出射するレーザ光由来の光であり、出射変調光Laのレベルは、変調光出射部2の消灯時ではLow(ロー)、変調光出射部2の点灯時ではHigh(ハイ)となっている。点灯時のHighレベルに対応する光強度は、変調光出射部2の給電電流の増減により増減される。
 出射変調光Laは、周期パルス波形の光であり、周期=100ns(周波数=10MHz)で、デューティ比=50%の矩形波となっている。図4では、出射変調光Laの立ち上がり時刻を位相=0°で表わしている。反射変調光Lbは、撮像装置1から出射した出射変調光Laが測距対象7(図1)に到達し、測距対象7に反射して撮像装置1に戻る。この結果、反射変調光Lbの位相は、測距対象7までの距離Dの2倍の長さを飛行する時間分だけ、出射変調光Laより位相が遅れ、出射変調光Laと反射変調光Lbとの間に位相差φが生じる。位相差φより、撮像装置1-測距対象7間の距離Dを計測することができる。
 前述したように、画像プロセッサ408(図2)は、Bi及びRoを介して画素GごとのFd1~Fd4の電荷量を読出すことができるようになっている。画像プロセッサ408は、各画素GのFd1~Fd4から該画素Gに入射した反射変調光Lbの入射強度Iiに関係する蓄積電荷量を読出すことができる。図4において、T1~T4は、画像プロセッサ408が各画素GにおいてFd1~Fd4からそれぞれ読出す電荷量の蓄積期間を示している。
 T1~T4の期間は、開始位相が異なるものの、期間の長さは、出射変調光Laの周期の1/2(=半周期)に等しく設定されている。T1は、位相0°~180°の期間に設定される。T2は、位相90°~270°の期間に設定される。T3は、位相180°~360°の期間に設定される。T4は、位相270°~360°とその次の周期の位相0°~90°との期間、換言すれば位相270°~450°に設定される。この結果、Fd1~Fd4には、T1~T4に対応副画素に入射した反射変調光Lbの入射強度Iiに対応する電荷量で電荷が蓄積される。画像プロセッサ408は、各画素GにおいてT1~T4に蓄積された電荷の電荷量を読出し値C1~C4として読出す。
 制御装置5は、位相差φを次の式(1)により算出する。
式(1):位相差φ=tan-1{(C1-C3)/(C2-C4)}
 上式において、「tan」は、正接(タンジェント)を意味する。「tan-1」は、逆正接(アークタンジェント)を意味する。C1~C4の個々には、背景光由来の入射光に因る蓄積電荷量が含まれるが、差分C1-C3、及び差分C2-C4からは、背景光由来の入射光に因る影響が除去されている。
 (撮像素子の半導体構造)
 図5A-図6Bを参照して、撮像素子400の構造について説明する。なお、撮像素子400の構造を理解し易くするために、図5A-図6Bでは、撮像素子400と比較例の撮像素子400b又は撮像素子400cとを対比している。比較例の撮像素子400b,400cにおいて、撮像素子400の要素と対応する要素には、撮像素子400の要素に付けた符号と同一の符号を付けている。また、副画素Po,Peの総称として副画素Pcを用いる。
 図5A及び図5Bは、副画素Pcを画素配列部401の列方向(Y軸方向)に沿って切ったときの断面図である。図5Aは、撮像素子400の副画素Pcの断面図、図5Bは、比較例の撮像素子400bの副画素Pcの断面図である。撮像素子400bは、例えば、従来の可視光用の撮像素子である。
 図6は、副画素Pcを行方向(X軸方向)に沿って切ったときの断面図であり、図6Aは、撮像素子400の副画素Pcの断面図、図6Bは、比較例の撮像素子400cの副画素Pcの断面図である。撮像素子400cは、例えば、撮像素子400bに対してp-epi(p型のエピタキシャル層)112の不純物濃度を所定量低くしたもの(低濃度のもの)である。
 図5及び図6では、1つの副画素Pcしか記載されていないが、画素配列部401の実際の断面では、図5及び図6と同一の断面構造が列方向又は行方向の副画素Pcの総数だけ連続することになる。
 半導体の製造では、先に作り込んだ製造済みの半導体領域の上に新たな半導体領域を積層して形成していくが、このときの積層していく側が表面側であり、その反対側が背面側であると定義する。
 撮像素子(イメージセンサ)には、周知のように、FSI(Front Side Illumination
)型と、BSI(Back Side Illumination)型とがある。この撮像素子400は、FSI型である。すなわち、表面側を受光面側とし、裏面側を受光面とは反対側としている。これに対し、後述の図7A及び図7BのBSI型の撮像素子400dでは、表面側を受光面とは反対側とし、裏面側を受光面側としている。
 撮像素子400をFSI型とするときは、撮像素子400をBSIとするときよりも、受光面から空乏層150(図5等)までのZ軸方向の寸法を短くすることができる。このことは、受光面に近い位置(浅い位置)の光電効果により生成された電荷を空乏層150に取り込めるので有利である。
 図5A及び図6Aにおいて、光シールド101は、画素配列部401の表面を撮像素子400の光入射側(Z軸方向の正側)から覆うように、画素配列部401の表面との間にZ軸方向に所定の間隔を空けて、配設される。光シールド101は、各副画素PcのPD(図2のPDと同一のフォトダイオード)に対峙する部位に、PDの受光面にほぼ等しい
大きさの窓102を有する。
 以降、第1導電型及び第2導電型をそれぞれp型及びn型として、説明する。第1導電型と第2導電型とは、相互に反対の導電型と定義される。本発明では、第1導電型及び第2導電型は、それぞれn型及びp型とすることもできる。
 撮像素子400は、p-sub(p型の半導体基板層)111と、p-subの表面側に形成されたp-epi112とを有する。p-epi112の厚み、すなわちZ軸方向の寸法は、Haである。
 p-epi112には、各副画素Pcにおける異なる範囲に、n型半導体領域117と、p型ウェル119とが、表面側から埋め込まれるように、形成される。n型半導体領域117の範囲は、図3においてPDが占める範囲に相当し、p型ウェル119の範囲は、図3においてFd1,Fd3(副画素Pcが副画素Poである場合)等が占める範囲に相当する。
 p型のチャンネルストッパ115は、画素間の分離又はPD間の分離として機能するもので、複数のPDに共通に形成されている。チャンネルストッパ115は、p-epi112の表面からn型半導体領域117の裏面よりさらに下(Z軸方向の負側)の深さに達し、n型半導体領域117及びp+領域123を隣接の副画素Pcから分離している。チャンネルストッパ115は、副画素Pc間の境界線を区切るように、格子状に形成され、画素配列部401の正面視では各副画素Pcを矩形枠で包囲している。
 p+領域123は、暗電流及び残像を抑制する機能を有する。p+領域123の不純物濃度は、同一の導電型のp-sub111及びチャンネルストッパ115の不純物濃度より高い。また、p+領域123の厚み(Z軸方向の寸法)は、n型半導体領域117の厚みより小さい。
 酸化膜(二酸化ケイ素膜)131は、n+領域126及びn+領域127を除いて、副画素Pcの表面側を覆うように、形成されている。ポリシリコン膜135は、酸化膜131の表面側の所定部位に形成される。
 図5において、M1~M4,Fd1~Fd4,Bi,Roは、図3で説明したとおりである。接続点141は、M1~M4のいずれかと接続される。接続点142は、Fd1~Fd4のいずれかと接続される。接続点143は、Biと接続される。接続点144は、Roと接続される。
 接続点142は、n+領域126に接続されている。接続点144は、n+領域127に接続されている。接続点141への正の印加電圧は、接続点141が接続されているポリシリコン膜135に印加されて、n型半導体領域117とn+領域126との間のnチャネルを制御する。接続点143への印加電圧は、接続点143が接続されているポリシリコン膜135に印加されて、n+領域126とn+領域127との間のnチャネルを制御する。
 接続点145は、p-sub111の裏面側に接続されるとともに、制御装置5の電圧印加部53から負の電圧であるVsubを供給される。チャンネルストッパ115は、制御装置5の電圧印加部53から表面側に0VのGND(=0V)を供給される。n型半導体領域117の電位は、チャンネルストッパ115及びp+領域123とのpn接合が逆バイアス状態となるように設定される。p-sub111は、接続点145からのVsubの供給により負の電位としてのVsubに保持される。
 p-epi112とn型半導体領域117とは、各副画素Pcにおいてそれぞれアノード及びカソードの対として1つのPDを構成する。p-epi112とn型半導体領域117との境界領域には、空乏層150が形成される。接続点145及びチャンネルストッパ115に、相互に異なる電圧としてのVsub及びGNDが供給される結果、空乏層の広がりも多少変わる。
 Haは、p-epi112の厚み(Z軸方向の寸法)である。Haは、PDの逆バイアス印加に因る空乏層150の厚み増大に対処して、PDに逆バイアス印加のない撮像素子400bのp-epi112の厚みHbより十分に大きな値に設定されている。なお、Vsubの負電圧の絶対値を増大するに連れて、空乏層150の裏面側の端面は、p-sub111の表面側の端面に近付いて行き、やがてp-sub111の表面側の端面に達する。この時の空乏層150を「完全空乏状態」と呼ぶ。なお、「完全空乏状態」にならなくとも加速電界によりp-epi112全域にわたり発生した電子をn型半導体領域117に収集できる。
 なお、Vsubの絶対値の上限は、p-epi112とn型半導体領域117間の接合のブレークダウン(break down:絶縁破壊)を起こさない値以下にされる。例えば、Vsubは、一般的には、最小値(注:負の値については、絶対値の大きい方が小である。)は、例えば-12Vとなる。赤外光の波長が830~960nmであるので、PDの受光面から空乏層150の最下面までの深さが、赤外光の波長にほぼ等しい長さが確保されるように、Vsubが設定される。
 図5Bにおいて、撮像素子400bについて、撮像素子400との相違点のみを説明する。p-epi112の厚みHbは、撮像素子400におけるp-epi112の厚みHaに対し、Hb<Haとなっている。撮像素子400bでは、p-sub111及びチャンネルストッパ115の両方に制御装置5の電圧印加部53からGNDが供給される。撮像素子400bのPDには、逆バイアスが印加されないので、空乏層150の厚みは、撮像素子400の空乏層150の厚みより小さい。
 撮像素子400(図5A)と撮像素子400b(図5B)とを対比する。反射変調光Lbが赤外光であるとき、反射変調光Lbの波長は長い。この結果、PDへの反射変調光Lbの入射に因る光電効果は、PDの受光面から深い位置に生じ易くなる。図5及び図6において、○付きの+,-は、それぞれ光電効果で生じた正孔及び電子を示している。正孔及び電子は、対で生じる。図示の光電効果は、いずれも空乏層150よりさらに深い位置で生じたことを意味している。
 光電効果の発生する位置が空乏層150内であるときは、正孔及び電子は、空乏層150内の電界によりZ軸方向に空乏層150の外のn型半導体領域117内及びp-epi112にドリフトする。なお、ドリフト速度は、拡散速度より十分に速い。さらに、光電効果の[発生する]位置が空乏層150外であるときは、正孔及び電子は、加速電界によりZ軸方向に空乏層150の外のn型半導体領域117内及びp-epi112にドリフトする。
 撮像素子400では、空乏層150が十分の深さを有するので、反射変調光Lbが赤外光である場合にも、光電効果に因る電子の発生位置を空乏層150内にすることができる。
 光電効果が生じる位置が、図示のように空乏層150よりさらに下(Z軸方向の負側)であったとしても、電子(正負一方の電荷の一例)は、加速電界により加速されつつ、ドリフトで空乏層150の端に達し、その後、空乏層150内の電界によりZ軸方向に空乏層150の外のn型半導体領域117内及びp-epi112にドリフトする。したがって、該電子が正孔と再結合して、消滅する可能性が低下し、n型半導体領域117は、十分に多数の電子を収集することができる。
 これに対し、撮像素子400bでは、空乏層150の厚みが小さくかつ空乏層150以外の部分には加速電界が存在しない。この結果、反射変調光Lbが赤外光である場合は、光電効果に因る多数の電子が空乏層150より深い位置で発生し、発生電子が、n型半導体領域117に到達する時間が長引いたり、正孔との再結合のために、n型半導体領域117に到達する個数が低下してしまう。
 図6Bの撮像素子400cについて説明する。撮像素子400cでは、p-epi112の不純物濃度を撮像素子400bのp-epi112の不純物濃度より低下させることより、空乏層150の拡張を図っている。しかしながら、空乏層150全体にわたり方向性を持った電界を発生させることは、困難である。特に空乏層150の境界付近での空乏層150内の電界は、ドリフトを発生するには不十分なことが多く、深さ方向だけでなく、面方向(X軸及びY軸の方向)にも拡張する。
 この結果、隣接する副画素Pcの空乏層150同士が、面方向に重なってしまう。これは、空乏層150より下でかつ隣接する空乏層150の境界近辺で生じた電子が、その発生原因になった反射変調光Lbが入射した副画素Pcではなく、それに隣接する副画素Pcの空乏層150に拡散して、隣接する副画素Pcのn型半導体領域117に移動することになる。これは、クロストークの原因になる。
 これに対し、撮像素子400では、PDに逆バイアスを印加することにより空乏層150のみならず空乏層に編入されていないp-epi112にも方向性のある加速電界が存在するので、クロストークを防止することができる。
 一方、撮像素子400では、チャンネルストッパ115-接続点145間に電圧が印加されることにより、電流が流れて、撮像素子400の消費電流を増大させることがある。この対策として、p-epi112の不純物の濃度を低下させて、p-epi112の抵抗を増大させることが望ましい。
 前述したように、p-epi112の不純物の濃度の低下は、p-epi112の抵抗の増大だけでなく、空乏層150の拡張にもつながる。したがって、p-epi112の不純物の濃度の低下は、クロストークを回避できる程度、すなわち隣接する副画素Pc同士の空乏層150が面方向に重ならない程度で行う必要がある。
 撮像素子400では、p-epi112の不純物の濃度は、同じ導電型のp-sub111及びチャンネルストッパ115の不純物の濃度より低い。また、撮像素子400におけるp-epi112の不純物の濃度は、撮像素子400bにおけるp-epi112の不純物の濃度より低い。一例を述べると、撮像素子400におけるp-epi112の不純物の濃度は、1012~ 1013/cm3である。
 撮像素子400の消費電力の抑制対策としては、撮像素子400におけるp-epi112の不純物の濃度を低下させる以外も次の方法がある。
 撮像装置1の用途が、比較的短距離の測距対象7の測距に用いる場合には、反射変調光Lbの強度が十分に大きくなる。このため、撮像装置1の感度を少し下げても、許容値以上の精度で測距対象7の測距を行うことができる。こうして、撮像装置1が比較的短距離
の測距対象7を測定する場合には、それに応じて、Vsubの負電位の絶対値を下げて、消費電力を節約する。
 撮像装置1は、撮影範囲6に測距対象7が存在しないときは、測距処理を間引きする。間引きしたときは、電圧印加部53は、接続点145にVsubを供給しない。こうして、不必要時のVsubの供給が中止されることにより、撮像素子400の消費電力の節約が図られる。
 撮像素子400では、p-epi112は、第1半導体領域に相当する。n型半導体領域117は、第2半導体領域に相当する。n型半導体領域117は、第3半導体領域に相当する。p-sub111又はp-epi112は、第1電位設定手段に相当する。チャンネルストッパ115又はn型半導体領域117は、第2電位設定手段に相当する。
 以上説明したように、p-epi112(第1半導体領域)の裏面側とチャンネルストッパ115又はp+領域123の表面側とに電圧を印加して空乏層150の厚みの拡大を図るが、必ずしも完全空乏状態を実現する必要がないために、PDのブレークダウンは、十分回避できる。さらに、空乏層端で電界が弱くなることによるクロストークもp-epi112(第1半導体領域)の裏面側とチャンネルストッパ115又はp+領域123の表面側とに電圧を印加してp-epi112全域にわたって加速電界を発生させるために防止することができる。
 図7Aは、BSI型の撮像素子400dへの本発明の適用例に関し、図7Aは縦方向(Y軸方向)に沿って切ったときの副画素Pcの断面図、図7Bは横方向(X軸方向)に沿って切ったときの副画素Pcの断面図である。図7A及び図7Bでは、支持基板(FSI型の撮像素子400におけるp-sub111に相当するもの)の図示は省略している。
 撮像素子400dの副画素Pcにおいて、図5A及び図6AのFSIの撮像素子400の副画素Pcの断面図に図示されている各要素と同一の要素について、図5A及び図6Aで付けた各符号と同一の符号で指示し、説明は省略する。FSIの撮像素子400(図5A及び図6A)に対する撮像素子400dの構造上の相違点についてのみ説明する。
 BSI型の撮像素子400dでは、光シールド101に対する撮像素子400のp-epi112の表裏の向きがFSI型の撮像素子400の場合とは逆転され、p-epi112の裏面側が受光面の側となる。したがって、p-epi112の表面側に形成されているチャンネルストッパ115、n型半導体領域117、p型ウェル119、p+領域123、及び酸化膜131等は、光シールド101とは反対側に位置する。
 p-epi112の裏面側(光シールド101の側)には、導電型透明薄膜層155が形成される。FSI型の撮像素子400におけるp-sub111に供給していたVsubは、BSI型の撮像素子400dでは、導電型透明薄膜層155に供給される。
 撮像素子400dでは、p-epi112は、第1半導体領域に相当する。n型半導体領域117は、第2半導体領域に相当する。n型半導体領域117は、第3半導体領域に相当する。導電型透明薄膜層155は第1電位設定手段に相当する。チャンネルストッパ115又はn型半導体領域117は第2電位設定手段に相当する。
 BSIとしての撮像素子400dでは、光の混色を避けるために光シールド(「遮光膜」ともいう。)101を設けている。しかしながら、混色の虞がないときは、撮像素子400dから光シールド101を省略することができる。
 (変形例)
 実施形態において、p-epi112、p型ウェル119及びp+領域123は、それぞれ本発明の第1半導体領域、第2半導体領域及び第3半導体領域の一例である。p-epi112及びチャンネルストッパ115は、複数のPDに共通に形成されている。PDの構成要素であるn型半導体領域117及びp+領域123は、隣接の副画素Pc(隣接のPDでもある。)から分離されて副画素Pcごとに形成されている。
 図3で説明したM1~M4のオンオフを制御する制御信号、及びBMのオンオフを制御する制御信号等は、本発明において、制御装置が撮像素子に供給する電圧の一例である。図5及び図6のVsub及びGNDも、本発明において制御装置が撮像素子に供給する電圧に相当する。
 実施形態では、画素Gが2つの副画素Pcを有する撮像素子400について説明した。しかしながら、本発明では、撮像素子は、画素Gが副画素Pcを有しない、すなわち各画素Gが1つの画素のみから成る撮像素子であってもよい。
 1・・・撮像装置、5・・・制御装置、6・・・撮影範囲、7・・・測距対象、53・・・電圧印加部、111・・・p-sub(半導体基板層)、112・・・p-epi(第1半導体領域又はp型のエピタキシャル層)、115・・・チャンネルストッパ、117・・・n型半導体領域(第2半導体領域)、123・・・p+領域(第3半導体領域)、150・・・空乏層、400・・・撮像素子、PD・・・フォトダイオード。

Claims (9)

  1.  複数のフォトダイオードを有する撮像素子と、前記撮像素子を制御する制御装置と、を備える撮像装置であって、
     前記複数のフォトダイオードの各々は、
     前記複数のフォトダイオードに共通に形成された第1導電型の第1半導体領域と、
     前記複数のフォトダイオードに共通に形成された第1導電型のチャンネルストッパにより隣接のフォトダイオードから分離されて、前記第1半導体領域の表面側に形成され、第1導電型とは反対の導電型としての第2導電型である第2半導体領域と、
     前記第1半導体領域の表面側に形成され、第1導電型の第3半導体領域と、
     前記第1半導体領域に電位を設定する第1電位設定手段と、
     前記第3半導体領域に電位を設定する第2電位設定手段と、
    を有し、
     前記制御装置は、第1電位設定手段と第2電位設定手段とに相互に異なる電圧を供給して、前記第1半導体領域に生成された正負一方の電荷を前記第2半導体領域に加速して移動させる加速電界を生成することを特徴とする撮像装置。
  2.  請求項1に記載の撮像装置において、
     前記第3半導体領域は、前記チャンネルストッパにより隣接のフォトダイオードから分離されて、不純物濃度が前記チャンネルストッパ及び前記第1半導体領域の不純物濃度より高くかつ厚みが前記第2半導体領域より小さいことを特徴とする撮像装置。
  3.  請求項1又は2に記載の撮像装置において、
     前記撮像素子は、前記第2半導体領域の表面側を受光面としていることを特徴とする撮像装置。
  4.  請求項1又は2に記載の撮像装置において、
     前記撮像素子は、前記第1半導体領域の裏面側を受光面側としていることを特徴とする撮像装置。
  5.  請求項3に記載の撮像装置において、
     前記撮像素子は、前記複数のフォトダイオードに共通に形成された第1導電型の半導体基板層を有し、
     前記第1半導体領域は、前記半導体基板層の表面側に形成されたエピタキシャル層であり、
     前記第1電位設定手段は前記半導体基板層であり、
     前記第2電位設定手段は前記チャンネルストッパ又は前記第3半導体領域であり、
     前記制御装置は、前記第1電位設定手段と前記第2電位設定手段とに電圧を印加して、前記加速電界を生成することを特徴とする撮像装置。
  6.  請求項4に記載の撮像装置において、
     前記撮像素子は、前記複数のフォトダイオードに共通に形成された第1導電型の半導体基板層を有し、
     前記第1半導体領域は、前記半導体基板層の表面側に形成されたエピタキシャル層であり、
     前記第1電位設定手段は、導電型透明薄膜層であり、
     前記第2電位設定手段は、前記第3半導体領域であり、
     前記制御装置は、前記第1電位設定手段と前記第2電位設定手段に電圧を印加して、前記加速電界を生成することを特徴とする撮像装置。
  7.  請求項5又は6に記載の撮像装置において、
     前記エピタキシャル層の不純物濃度は、隣接するフォトダイオードの空乏層間の重なりを回避する程度で、前記チャンネルストッパの不純物濃度より低くされていることを特徴とする撮像装置。
  8.  請求項5又は6に記載の撮像装置において、
     前記第1電位設定手段と前記第2電位設定手段とに供給される前記相互に異なる電圧は、前記第2半導体領域の表面側の受光面から前記フォトダイオードの空乏層端までの深さが赤外光の波長の長さを確保する電圧とされ、
     前記エピタキシャル層の不純物濃度は、前記第1電位設定手段と前記第2電位設定手段とに前記相互に異なる電圧が供給されている時に、隣接する前記フォトダイオードの空乏層間の重なりを回避する不純物濃度にされていることを特徴とする撮像装置。
  9.  請求項1~8のいずれか1項に記載の撮像装置において、
     前記第1導電型及び前記第2導電型は、それぞれp型及びn型であることを特徴とする撮像装置。
PCT/JP2018/026711 2017-08-01 2018-07-17 撮像装置 WO2019026606A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18840307.5A EP3664438B1 (en) 2017-08-01 2018-07-17 Imaging device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017149402A JP6985054B2 (ja) 2017-08-01 2017-08-01 撮像装置
JP2017-149402 2017-08-01

Publications (1)

Publication Number Publication Date
WO2019026606A1 true WO2019026606A1 (ja) 2019-02-07

Family

ID=65232724

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/026711 WO2019026606A1 (ja) 2017-08-01 2018-07-17 撮像装置

Country Status (3)

Country Link
EP (1) EP3664438B1 (ja)
JP (1) JP6985054B2 (ja)
WO (1) WO2019026606A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088291A (ja) * 2018-11-29 2020-06-04 キヤノン株式会社 光電変換装置、光電変換システム、移動体
US20200408690A1 (en) * 2019-06-28 2020-12-31 Quantum-Si Incorporated Optical and electrical secondary path rejection

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7536757B2 (ja) 2019-05-24 2024-08-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び測距装置
JP2021111892A (ja) * 2020-01-14 2021-08-02 ソニーセミコンダクタソリューションズ株式会社 画像生成装置、画像生成方法
DE102021127038A1 (de) * 2021-10-19 2023-04-20 OSRAM Opto Semiconductors Gesellschaft mit beschränkter Haftung Detektorelement, lidar modul und verfahren zum betrieb eines lidar moduls

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000312024A (ja) 1999-02-25 2000-11-07 Canon Inc 受光素子及びそれを有する光電変換装置
JP2004294420A (ja) * 2003-02-03 2004-10-21 Shoji Kawahito 距離画像センサ
WO2007026777A1 (ja) 2005-08-30 2007-03-08 National University Corporation Shizuoka University 半導体測距素子及び固体撮像装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8804021B2 (en) * 2011-11-03 2014-08-12 Omnivision Technologies, Inc. Method, apparatus and system for providing improved full well capacity in an image sensor pixel
FR3046495B1 (fr) * 2015-12-30 2018-02-16 Stmicroelectronics (Crolles 2) Sas Pixel de detection de temps de vol

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000312024A (ja) 1999-02-25 2000-11-07 Canon Inc 受光素子及びそれを有する光電変換装置
JP2004294420A (ja) * 2003-02-03 2004-10-21 Shoji Kawahito 距離画像センサ
WO2007026777A1 (ja) 2005-08-30 2007-03-08 National University Corporation Shizuoka University 半導体測距素子及び固体撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3664438A4

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020088291A (ja) * 2018-11-29 2020-06-04 キヤノン株式会社 光電変換装置、光電変換システム、移動体
US20200408690A1 (en) * 2019-06-28 2020-12-31 Quantum-Si Incorporated Optical and electrical secondary path rejection
US11804499B2 (en) * 2019-06-28 2023-10-31 Quantum-Si Incorporated Optical and electrical secondary path rejection

Also Published As

Publication number Publication date
JP2019029906A (ja) 2019-02-21
EP3664438A4 (en) 2021-04-28
JP6985054B2 (ja) 2021-12-22
EP3664438A1 (en) 2020-06-10
EP3664438B1 (en) 2024-07-03

Similar Documents

Publication Publication Date Title
RU2666525C2 (ru) Устройство фотоэлектрического преобразования, аппарат измерения дальности и система обработки информации
WO2019026606A1 (ja) 撮像装置
KR102025522B1 (ko) 3차원 센서, 시스템, 및 관련 방법
KR101508410B1 (ko) 거리 화상 센서, 및 촬상 신호를 비행시간법에 의해 생성하는 방법
JP5283216B2 (ja) 高速電荷転送フォトダイオード、ロックインピクセル及び固体撮像装置
JP5898692B2 (ja) 同じフレーム内同じ感光面上におけるゲーテッド光及びアンゲーテッド光の取り込み
KR102311615B1 (ko) 다수 전류 및 분리 수단을 갖는 검출기 디바이스
US20110198481A1 (en) Image sensor and operating method
WO2011043339A1 (ja) 半導体素子及び固体撮像装置
JP2005235893A (ja) 光飛行時間型距離センサ
JP2011133464A (ja) 距離センサ及び距離画像センサ
WO2007055375A1 (ja) 空間情報検出装置および同装置に好適な光検出素子
JP2002368205A (ja) 距離情報入力装置
US8884394B2 (en) Range sensor and range image sensor
US10403677B2 (en) Linear image sensor
WO2019087596A1 (ja) 撮像装置及び撮像素子

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18840307

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018840307

Country of ref document: EP

Effective date: 20200302