WO2021039954A1 - 光電変換素子、撮像素子、および撮像システム - Google Patents

光電変換素子、撮像素子、および撮像システム Download PDF

Info

Publication number
WO2021039954A1
WO2021039954A1 PCT/JP2020/032568 JP2020032568W WO2021039954A1 WO 2021039954 A1 WO2021039954 A1 WO 2021039954A1 JP 2020032568 W JP2020032568 W JP 2020032568W WO 2021039954 A1 WO2021039954 A1 WO 2021039954A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
photoelectric conversion
region
reflected light
conversion element
Prior art date
Application number
PCT/JP2020/032568
Other languages
English (en)
French (fr)
Inventor
優 大久保
友洋 中込
Original Assignee
凸版印刷株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 凸版印刷株式会社 filed Critical 凸版印刷株式会社
Priority to CN202080050057.6A priority Critical patent/CN114097085A/zh
Priority to JP2021543032A priority patent/JPWO2021039954A1/ja
Publication of WO2021039954A1 publication Critical patent/WO2021039954A1/ja
Priority to US17/678,304 priority patent/US20220278155A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0004Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed
    • G02B19/0009Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed having refractive surfaces only
    • G02B19/0014Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed having refractive surfaces only at least one surface having optical power
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0033Condensers, e.g. light collectors or similar non-imaging optics characterised by the use
    • G02B19/0076Condensers, e.g. light collectors or similar non-imaging optics characterised by the use for use with a detector
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B3/00Simple or compound lenses
    • G02B3/0006Arrays
    • G02B3/0037Arrays characterized by the distribution or form of lenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14649Infrared imagers

Definitions

  • the present invention relates to a photoelectric conversion element, an imaging element in which the photoelectric conversion element is arranged, and an imaging system including the imaging element.
  • the present application claims priority based on Japanese Patent Application No. 2019-157643 filed in Japan on August 30, 2019, the contents of which are incorporated herein by reference.
  • the object is irradiated with an optical pulse in the near infrared region, and the time when the light pulse is irradiated and the reflected light reflected by the irradiated light pulse are measured.
  • There is a technique for measuring the time difference from the detected time that is, measuring the flight time of the optical pulse.
  • a technique for measuring the distance to an object based on the flight time of such an optical pulse is called a time of flight (TOF).
  • TOF time of flight
  • a configuration has been developed in which a photoelectric conversion element is used to measure the distance to an object by a time-of-flight technology, and not only the distance to the object but also a two-dimensional image including the object can be obtained.
  • a distance measuring sensor that can obtain three-dimensional information about an object has also been put into practical use.
  • Such a distance measuring sensor is also called a distance image sensor.
  • a plurality of pixels including a photodiode which is a light receiving unit that receives the reflected light of the light pulse reflected by the object, are arranged in a two-dimensional matrix on a silicon substrate.
  • the distance image sensor outputs a photoelectric conversion signal for one image based on the amount of reflected light of the light pulse received by each of the plurality of pixels, thereby outputting a two-dimensional image including an object and this image.
  • Information on the distances of each of the plurality of constituent pixels can be obtained.
  • the distance image sensor can obtain three-dimensional information by combining the information of the distances of each of the plurality of pixels with the two-dimensional image including the object.
  • the accuracy of the distance that can be measured by the distance image sensor depends on the amount of reflected light of the light pulse that each of the plurality of pixels can receive at the same time. That is, in the distance image sensor, if each of the plurality of pixels can receive more reflected light at the same time, the distance can be measured with high accuracy. Therefore, in the distance image sensor, the amount of reflected light of the light pulse that can be received by each of the plurality of pixels is increased, that is, the sensitivity of each of the plurality of pixels to the light in the near infrared region is improved. Is desired.
  • the sensitivity of each of the plurality of pixels is related to the structure of the photodiode which is the light receiving part, particularly the distance in the optical axis direction. That is, the sensitivity of each of the plurality of pixels in the distance image sensor is also related to the depth (thickness) of the diffusion layer when the photodiode is formed on the silicon substrate.
  • the reason for this is that in the range image sensor, as described above, the light pulse in the near-infrared region receives the reflected light reflected by the object, but since this reflected light is also the light pulse in the near-infrared region, silicon. This is because more photoelectric conversion is performed at a deep position on the substrate.
  • the technique disclosed in Patent Document 1 is a technique for forming a microlens at each position of a plurality of pixels in an image sensor. Therefore, by applying the technique disclosed in Patent Document 1, it is possible to form a microlens corresponding to each of a plurality of pixels even in a distance image sensor, but the formed microlens is not necessarily a distance. Not always suitable for image sensors. The reason for this is that the focal position of the microlens formed in the technique disclosed in Patent Document 1 is the light receiving surface of the photogate pair, that is, the surface on the incident side where light is incident on the semiconductor substrate on which the photogate is formed. Because it is near.
  • the present invention has been made based on the above problems, and is a structure capable of improving the sensitivity of a plurality of pixels to light in a distance image sensor in which a microlens corresponding to each of the plurality of pixels is formed. It is an object of the present invention to provide a photoelectric conversion element of the above, an image pickup element in which the photoelectric conversion element is arranged, and an image pickup system provided with this image pickup element.
  • the photoelectric conversion element is a photoelectric conversion element that receives the reflected light reflected by an object using a light source that emits light in a predetermined wavelength band. is there.
  • the first surface which is the surface on which the reflected light is incident, the first semiconductor region composed of the first conductive semiconductor, and the second conductive semiconductor having different conductive types from the first conductive semiconductor.
  • the absorption coefficient of the reflected light on the substrate is ⁇ ( ⁇ ) when the incident energy of the reflected light incident on the photoelectric conversion element is I and the average wavelength of the light source is ⁇ , which is predetermined on the first surface.
  • the incident energy of the reflected light in the region is A1
  • the incident energy of the reflected light in the predetermined region on the first surface when the photoelectric conversion element does not have the optical element is A2.
  • the photoelectric conversion element is a photoelectric conversion element that receives the reflected light reflected by an object using a light source that emits light in a predetermined wavelength band. is there.
  • the first surface which is the surface on which the reflected light is incident, the first semiconductor region composed of the first conductive semiconductor, and the second conductive semiconductor having different conductive types from the first conductive semiconductor.
  • the absorption coefficient of the reflected light on the substrate is ⁇ ( ⁇ ) when the incident energy of the reflected light incident on the photoelectric conversion element is I and the average wavelength of the light source is ⁇ , which is predetermined on the first surface.
  • the incident energy of the reflected light in the region is A1
  • the incident energy of the reflected light in the predetermined region on the first surface when the photoelectric conversion element does not have the optical element is A2.
  • the predetermined region may be a region in which the second semiconductor region is projected perpendicularly to the first surface.
  • the wavelength band may be a near infrared wavelength band.
  • the near-infrared wavelength band may be a wavelength band of 850 nm to 940 nm.
  • the image pickup device is an image pickup device that receives the reflected light reflected by an object using a light source that emits light in a predetermined wavelength band, and has a plurality of pixels in two dimensions. It has a plurality of photoelectric conversion elements according to the above-described embodiment, which include light receiving regions arranged in a matrix. In the light receiving region, the plurality of pixels are arranged along the first direction and the second direction orthogonal to each other. When the optical element is cut along the first direction and the second direction, the height of the valley portion of the two optical elements adjacent to each other is defined as the first height. When the optical element is cut along the diagonal direction of the pixel, the height of the valley portion of the two optical elements adjacent to each other is defined as the second height. The first height and the second height are different from each other.
  • the image pickup system includes a light source unit that emits light in a predetermined wavelength band, an image pickup device according to the above aspect, and a light receiving unit that receives reflected light reflected by an object. Has.
  • photoelectric conversion having a structure capable of improving the sensitivity of each of the plurality of pixels to light. It is possible to obtain an effect that an element, an image pickup element in which the photoelectric conversion element is arranged, and an image pickup system provided with the image pickup element can be provided.
  • the photoelectric conversion element according to the embodiment of the present invention is a pixel including a silicon substrate (substrate), a wiring layer W, and a microlens (optical element).
  • a photodiode that functions as a photoelectric conversion unit is provided inside the silicon substrate.
  • the photoelectric conversion element (pixel) is mounted on the imaging system according to the embodiment of the present invention, which measures the distance to an object by the technology of Time of Flight (TOF). Further, the photoelectric conversion element (pixel) is formed in the distance image sensor which is the image pickup element according to the embodiment of the present invention.
  • the photoelectric conversion element according to the embodiment of the present invention emits light in the near infrared wavelength band having a long wavelength emitted by the imaging system according to the embodiment of the present invention (for example, the wavelength is 850 nm to 940 nm). (Light in the wavelength band of) receives the reflected light reflected by the object and outputs a signal for measuring the distance to the object.
  • the photoelectric conversion element (distance image sensor) according to the embodiment of the present invention is formed. ing.
  • FIG. 1 is a block diagram showing a schematic configuration of the entire image sensor according to the embodiment of the present invention.
  • the distance image sensor 10 includes a light receiving region 100 in which a plurality of pixels 101 (pixel arrays) are arranged, a control circuit 200, a vertical drive circuit 300, a horizontal drive circuit 400, an AD conversion circuit 500, and the like. It includes an output circuit 600.
  • the distance image sensor 10 shown in FIG. 1 an example of a light receiving region 100 in which a plurality of pixels 101 are arranged in a two-dimensional matrix in 6 rows and 8 columns so as to form a plurality of pixel rows is shown. ing.
  • the plurality of pixels 101 constituting the pixel array constituting the distance image sensor 10 are arranged along the first direction and the second direction orthogonal to each other.
  • the control circuit 200 controls the components provided in the distance image sensor 10 such as the vertical drive circuit 300, the horizontal drive circuit 400, and the AD conversion circuit 500.
  • the control circuit 200 controls the operation of the components provided in the distance image sensor 10 in response to control from, for example, a control device (not shown) provided in the imaging system.
  • the vertical drive circuit 300 is a drive circuit that controls each of the plurality of pixels 101 arranged in the light receiving region 100 according to the control from the control circuit 200. By driving the vertical drive circuit 300, each of the plurality of pixels 101 photoelectrically converts the light (incident light) incident on the pixel 101 to generate a signal charge. The vertical drive circuit 300 outputs (reads) a pixel signal corresponding to each signal charge of the plurality of pixels 101 to the corresponding vertical signal line. The vertical drive circuit 300 outputs a drive signal for driving (controlling) the pixel 101 for each line of the pixel 101 arranged in the light receiving region 100. As a result, the pixel signal output by the pixel 101 is read out to the vertical signal line line by line and output to the AD conversion circuit 500.
  • Each pixel 101 arranged in the light receiving region 100 outputs a pixel signal obtained by converting the incident light into an electric signal.
  • the pixel 101 is configured to include a component such as a photodiode (photoelectric conversion unit) that converts incident light into an electric signal by generating and accumulating a signal charge corresponding to the amount of incident light (light amount).
  • a component such as a photodiode (photoelectric conversion unit) that converts incident light into an electric signal by generating and accumulating a signal charge corresponding to the amount of incident light (light amount).
  • Each of the plurality of pixels 101 outputs a pixel signal corresponding to the amount of incident light (light amount) to the corresponding vertical signal line according to the drive signal input from the vertical drive circuit 300.
  • the AD conversion circuit 500 converts analog / digital conversion into a digital value representing the magnitude of the analog pixel signal output from the pixel 101 of the corresponding column to the corresponding vertical signal line according to the control from the control circuit 200. It is a circuit.
  • the AD conversion circuit 500 may be a group of AD conversion circuits including a plurality of AD conversion circuits corresponding to each of a plurality of rows in which the pixels 101 are arranged in the light receiving region 100.
  • the AD conversion circuit 500 outputs the pixel signal after analog / digital conversion according to the control from the horizontal drive circuit 400 to the horizontal signal line as an output signal.
  • the horizontal drive circuit 400 is a drive circuit that sequentially outputs (reads) a pixel signal (output signal) after analog / digital conversion to a horizontal signal line. That is, by driving the horizontal drive circuit 400, it corresponds to each row (pixel row) of the pixels 101 arranged in the light receiving region 100 output from the AD conversion circuit 500 in response to the control from the control circuit 200.
  • the pixel signals after analog / digital conversion are sequentially output to the horizontal signal line.
  • the horizontal drive circuit 400 sequentially outputs a control signal for outputting an output signal corresponding to the pixel 101 in each of the plurality of rows to the AD conversion circuit 500.
  • the output signals output by the AD conversion circuit 500 are sequentially output to the output circuit 600 via the horizontal signal line.
  • the output circuit 600 is a circuit that outputs the output signal from the AD conversion circuit 500 output to the horizontal signal line by the horizontal drive circuit 400 to the outside of the distance image sensor 10.
  • the output circuit 600 is, for example, an output amplifier.
  • FIG. 2 is a cross-sectional view schematically showing a schematic configuration of a cross section of an image pickup device (distance image sensor 10) forming the photoelectric conversion element according to the embodiment of the present invention.
  • a plurality of pixels 101 including the photoelectric conversion element of the present invention are arranged in a two-dimensional matrix in the light receiving region 100 formed on the semiconductor substrate of the distance image sensor 10.
  • the pixel 101 includes at least a photodiode PD, a floating diffusion FD, and a gate electrode G.
  • the photodiode PD is an embedded photodiode that generates and stores a signal charge according to the amount of incident light (light amount).
  • the gate electrode G is an electrode for applying a potential required for transferring the signal charge generated and accumulated by the photodiode PD to the floating diffusion FD from the outside of the pixel 101.
  • the gate electrode G functions as a shutter for the photodiode PD that receives the incident light.
  • the floating diffusion FD is a charge storage capacity that stores the signal charge transferred by the gate electrode G. In the distance image sensor 10, the signal charge accumulated in the floating diffusion FD provided in each of the plurality of pixels 101 is read out to the AD conversion circuit 500 as a pixel signal.
  • the configuration of the distance image sensor 10 shown in FIG. 2 has a structure corresponding to a surface irradiation (Front Side Illumination: FSI) type image sensor, when compared to a general image sensor. Therefore, the distance image sensor 10 shown in FIG. 2 includes a silicon substrate Si (base) which is a semiconductor substrate composed of a first conductive type semiconductor (P-type semiconductor) serving as the distance image sensor 10. A plurality of components including the photodiode PD constituting the pixel 101 are formed on the incident side where light is incident on the silicon substrate Si, that is, on the surface side of the silicon substrate Si.
  • a photodiode PD (photoelectric conversion unit) constituting the pixel 101 is formed from the surface of the silicon substrate Si (hereinafter referred to as “first surface”).
  • the silicon substrate Si has a first surface which is a surface on which reflected light is incident, a first semiconductor region composed of a first conductive semiconductor (P + type semiconductor), and a first conductive type. It has a second semiconductor region composed of a second conductive semiconductor (N-type semiconductor) having a different conductive type from the semiconductor.
  • a photodiode PD having a configuration in which electrons corresponding to the amount of incident light (light amount) are generated as signal charges and accumulated is formed.
  • the photodiode PD having the configuration shown in FIG. 2 is doped with an impurity that becomes a second conductive semiconductor (N-type semiconductor) into a silicon substrate Si to form an N-type semiconductor region (second semiconductor region), and then This can be realized by doping the silicon substrate Si with an impurity that becomes the first conductive type semiconductor (P + type semiconductor) to form a P + type semiconductor region. That is, the second semiconductor region is formed so as to expand toward the inside of the silicon substrate Si in the direction perpendicular to the first surface. Inside the silicon substrate Si, the second semiconductor region is surrounded by the first semiconductor region.
  • the floating diffusion FD shown in FIG. 2 is formed when the photodiode PD is formed.
  • a floating diffusion FD of an N + type semiconductor is formed on the first surface of a silicon substrate Si.
  • FIG. 2 shows a wiring layer W in which wiring is formed over four layers.
  • Each of the plurality of wirings formed in the wiring layer W is formed of polysilicon (poly-Si) or aluminum (Al).
  • the gate electrode G shown in FIG. 2 is, for example, a polysilicon gate electrode formed of polysilicon.
  • the other wiring shown in FIG. 2 is, for example, a wiring formed of aluminum and connected to other components forming the pixel 101 or a circuit element (not shown) formed in the distance image sensor 10. ..
  • the light incident on the surface side of the wiring layer W that is, the microlens layer L formed on the incident surface (surface, first surface) on which the light is incident on the distance image sensor 10.
  • a microlens ML which is an optical element for condensing light on a photodiode PD, is formed.
  • the microlens ML is formed at a position corresponding to the photodiode PD constituting each of the plurality of pixels 101.
  • two pixels 101 adjacent to each other, that is, the first pixel and the second pixel are shown.
  • a microlens ML is formed in each of the first pixel and the second pixel.
  • two microlenses ML adjacent to each other that is, a first microlens and a second microlens are formed.
  • a plurality of micros are provided so that there is no gap between the microlens MLs corresponding to adjacent pixels, so-called lens gap becomes 0.
  • Each of the lenses ML is formed.
  • the microlens ML is formed by a method in which the lens gap cannot be made zero in the range image sensor 10, the height of the valley portion between the two microlens MLs adjacent to each other is made different.
  • the height of the valley is the distance from the surface between the wiring layer W and the microlens ML to the lowest position in the valley.
  • the height of the valley between the two microlenses ML adjacent to each other is defined as the height H1 (first height).
  • the microlens ML is cut along the direction inclined by 45 ° with respect to the first direction and the second direction in which the plurality of pixels 101 are arranged, that is, the diagonal direction of the pixels 101, the two microlenses adjacent to each other.
  • the height of the valley between the MLs is defined as the height H2 (second height). In this case, the heights H1 and H2 are made different from each other, and the height H1 is made higher than the height H2.
  • the above-described configuration regarding the pixel 101 is the same as that of a general surface-illuminated image sensor. That is, the pixel 101 can be manufactured by the same process as a general surface-illuminated image sensor.
  • the light incident on the photodiode PD constituting each of the plurality of pixels 101 is light in the near-infrared wavelength band having a long wavelength. Therefore, in the distance image sensor 10, the light in the near-infrared wavelength band incident on each of the plurality of pixels 101 is at a deep position on the silicon substrate Si, that is, the near-infrared wavelength band focused by the microlens ML.
  • FIG. 3 shows the inside of the silicon substrate Si when parallel light (so-called collimated light) in the near infrared wavelength band is incident on the microlens ML in one pixel 101 arranged in the distance image sensor 10.
  • the state in which electrons e- corresponding to light in the near-infrared wavelength band are generated is schematically shown in.
  • the structure of the photodiode PD constituting the pixel 101 is made a structure suitable for light in the near infrared wavelength band. More specifically, a general N-type semiconductor region extending in the depth direction of the N-type semiconductor region in the silicon substrate Si, that is, in the thickness direction D from the front surface (first surface) of the silicon substrate Si to the back surface.
  • FIG. 3 shows how the range R1 in which the N-type semiconductor region extends is expanded in the thickness direction D to form the range R2. Note that FIG. 3 shows that the range R2 of the N-type semiconductor region extends in the horizontal direction (horizontal direction X).
  • each of the plurality of pixels 101 also includes an electron e- in which the photodiode PD is generated at a deep position on the silicon substrate Si in response to the light in the near-infrared wavelength band incident on the pixel.
  • the signal charge generated by the photodiode PD can be transferred to the floating diffusion FD and stored.
  • the distance image sensor 10 can improve the sensitivity of each pixel 101 to light in the near-infrared wavelength band. That is, the distance image sensor 10 can output a pixel signal having a larger value.
  • the distance image sensor 10 differs from a general surface-illuminated image sensor in controlling the doping of impurities that become N-type semiconductors when forming the photodiode PDs constituting each of the plurality of pixels 101. Take control.
  • FIG. 4 is a cross-sectional view of the pixel 101 schematically showing a concept when forming the photoelectric conversion element (pixel 101) according to the embodiment of the present invention.
  • the intensity A of light in a predetermined region (first region) on the first surface where light is incident on the silicon substrate Si and the thickness from the first surface Based on the ratio B / A to the light intensity B in the predetermined region (second region) at a position separated by a predetermined distance in the vertical direction D (the depth direction of the silicon substrate Si), the N-type semiconductor Controls the doping of impurities.
  • the incident energy (intensity) of the reflected light in the region (second region) translated by a predetermined distance z in the thickness direction of the silicon substrate Si from the predetermined region (first region) is set to B (intensity). It is defined as z).
  • the doping of impurities that become N-type semiconductors is controlled based on the ratio B (z) / A of the light intensity A and the light intensity B (z). That is, in the idea of forming the photodiode PD in the distance image sensor 10, the depth of the N-type semiconductor region in the photodiode PD is controlled based on the attenuation rate of the light incident on the photodiode PD. Further, the "predetermined region" is a region in which the second semiconductor region is projected perpendicularly to the first surface.
  • the absorption coefficient of the reflected light on the silicon substrate Si when the incident energy of the reflected light incident on the photodiode PD is I and the average wavelength of the light source (not shown) is ⁇ .
  • ⁇ ( ⁇ ) the incident energy of the reflected light in the predetermined region on the first surface is A, and the silicon substrate Si is separated from the first surface by a predetermined distance z in the thickness direction D in advance.
  • B (z) be the incident energy of the reflected light in the defined region.
  • the average wavelength of the light source is defined by the following equation (4).
  • I ( ⁇ ) represents the intensity distribution of the light source.
  • ⁇ 0 represents the peak wavelength of the light source intensity.
  • represents a wavelength range for calculating the average value, and is set to, for example, 10 nm.
  • the light of incident energy I incident on the pixel 101 is collected by the microlens ML, transmitted through the wiring layer W, and incident on the silicon substrate Si.
  • A be the incident energy of light incident on the predetermined region 110a on the first surface FS of the silicon substrate Si.
  • the predetermined region 110a is a region in which the opening (light transmission region) of the wiring Wi formed in the wiring layer W is projected perpendicularly to the silicon substrate Si.
  • B (z) be the incident energy in the predetermined region 110b inside the silicon substrate Si separated by the distance z in the thickness direction D (depth direction) from the first surface FS.
  • the thickness of the microlens ML and the wiring layer W and the width of the wiring Wi are determined so as to satisfy the above equation (2).
  • the microlens ML needs to be set to an appropriate thickness (aspect ratio) that satisfies the above equation (2).
  • the absorption coefficient of the silicon substrate Si is ⁇ ( ⁇ ) when the average wavelength of the light source (not shown) is ⁇ .
  • FIG. 5 is a graph showing the attenuation of the incident energy of the light (light in the near-infrared wavelength band) incident on the image sensor (distance image sensor 10) forming the photoelectric conversion element (pixel 101) of the embodiment of the present invention.
  • the incident energy B (z) / A does not exceed exp ( ⁇ ( ⁇ ) * z).
  • the incident energy B (z) / A becomes exp ( ⁇ ( ⁇ ) * z) when the incident light does not leak from the side surface 120a and the side surface 120b of the predetermined region at all.
  • the incident energy B (z) / A draws a graph of an exponential function as shown by the solid line (a) shown in FIG.
  • the photoelectric conversion element (pixel 101) It is desirable to design the photoelectric conversion element (pixel 101) so as to ride on a).
  • the solid line (a) shown in FIG. 5 shows an ideal case.
  • the characteristics of the actual photodiode PD are the characteristics obtained by simulation due to variations in the thickness of the microlens ML and wiring layer W constituting the pixel 101, the width of the wiring Wi, and the optical constants in the microlens ML. It rarely exactly coincides with the solid line (a). Therefore, for example, as shown in FIG. 5, it is assumed that an error of 5% between the characteristics of the actual photodiode PD and the characteristics of the photodiode PD required for simulation occurs.
  • the incident energy B (z) / A 0.95 * exp ( ⁇ ( ⁇ ) * z) shown by the solid line (a') in FIG. 5 is set as an acceptable lower limit value, and the solid line (a) in FIG.
  • the incident energy B (z) / A 1.05 * exp ( ⁇ ( ⁇ ) * z) indicated by “) is set as an acceptable upper limit value. That is, the above equation (3) is an actual photodiode. This formula is based on the assumption that an error of 5% between the PD characteristics and the photodiode PD characteristics required for simulation occurs.
  • the theoretical value taken by the incident energy B (z) / A is exp ( ⁇ ( ⁇ )) when the incident light does not leak from the side surface 120a and the side surface 120b of the predetermined region at all. * Z).
  • this theoretical value is a numerical value in the case of parallel light rays in which the incident light in the predetermined regions 110a to 110c is vertically incident on the pixel 101. Therefore, when the light focused by the microlens ML as the incident light is used as the incident light as in the pixel 101, the incident energy B (z) / A is smaller than exp ( ⁇ ( ⁇ ) * z).
  • the difference in theoretical values due to the reasons described above is small.
  • the incident energy B (z) in the region 110b separated by the distance z in the thickness direction D (depth direction) from the first surface FS is set to be the incident energy B (z0). ..
  • the distance image sensor 10 forms an N-type semiconductor region in the photodiode PD that constitutes each of the plurality of pixels 101.
  • the depth of the N-type semiconductor region constituting the photodiode PD in each of the plurality of pixels 101 is particularly N-type in the photodiode formed in a general surface-illuminated image sensor. It becomes deeper than the depth of the semiconductor region.
  • the sensitivity of the photodiode PD constituting each of the plurality of pixels 101 to light in the near infrared wavelength band can be improved.
  • the light in the near-infrared wavelength band incident on each of the plurality of pixels 101 reaches the N-type semiconductor region formed deep in the silicon substrate Si, that is, that is, The thickness (aspect ratio) of the microlens ML is set so as to satisfy the above equation (2) in order to generate electrons corresponding to light in the near-infrared wavelength band in the N-type semiconductor region.
  • the distance (depth) in the optical axis direction reached by the light in the near-infrared wavelength band focused by the microlens ML can be confirmed by simulation.
  • the aspect ratio of the microlens ML formed in each pixel 101 of the distance image sensor 10 is an appropriate thickness (aspect ratio) that satisfies the above equation (2) by simulating a general optical lens. ) Can be determined.
  • parameters such as the structure of the pixel 101, the shape of the microlens ML, and the characteristics of the material forming the pixel 101 and the microlens ML with respect to light are set.
  • Parameters related to the structure of the pixel 101 and the shape of the microlens ML set in the simulation of the optical lens include, for example, the pixel size of the pixel 101, the height of the microlens ML, and the thickness of the wiring layer W in the pixel 101.
  • parameters related to the characteristics of the material set in the simulation of the optical lens include, for example, the refractive index of each material such as the microlens ML, the wiring layer W, and the wiring Wi, and the extinction coefficient.
  • the aspect ratio of the microlens ML can be determined.
  • 6, 7A, and 7B describe the parameters of the simulation performed when the microlens ML is formed on the image sensor (distance image sensor 10) on which the photoelectric conversion element (pixel 101) of the embodiment of the present invention is formed. It is a figure to do. 6, 7A, and 7B show one pixel 101 arranged on the distance image sensor 10.
  • FIG. 6 shows a top view of the pixel 101 as viewed from the incident direction in which the light is incident.
  • FIGS. 7A and 7B show a cross-sectional view of the pixel 101 shown in FIG. 6 as viewed from the side.
  • FIG. 7A shows a cross-sectional view of the AA'cross section in the top view of the pixel 101 shown in FIG.
  • FIG. 7B shows a cross-sectional view of a BB'cross section in the top view of the pixel 101 shown in FIG.
  • FIGS. 6, 7A, and 7B are examples of pixels 101 having a pixel size of 16 ⁇ m square and an opening of 8.5 ⁇ m square.
  • the region other than the opening shows the case where the wiring Wi exists as a lump of aluminum (Al) in the entire depth direction. ..
  • a microlens ML having a diameter of 20 ⁇ m ( ⁇ 20 ⁇ m) is formed in a pixel 101 having such a configuration. As shown in FIGS.
  • the pixel 101 is flattened on the surface side of the wiring layer W on which the wiring Wi is formed, that is, on the surface of the wiring layer W on the incident side where light is incident on the pixel 101.
  • the layer FL is formed, and the microlens ML is formed on the flattening layer FL, that is, on the incident side where light is incident on the pixel 101.
  • the flattening layer FL is a layer (base layer) that serves as a base for the microlens ML in the microlens layer L, and is a part of the microlens ML.
  • the thickness of the flattening layer FL is constant, but the distance (depth) in the optical axis direction reached by the light in the near-infrared wavelength band focused by the microlens ML is the thickness of the wiring layer W. It depends on the height (thickness) of the microlens ML itself from the surface side and the flattening layer FL in the optical axis direction.
  • the shape of the microlens ML can be considered as part of an ellipse.
  • 7A and 7B show a case where a part of an ellipse having a diameter of 20 ⁇ m, that is, a minor axis of 20 ⁇ m and a major axis of 26 ⁇ m is in the shape of a microlens ML.
  • FIGS. 7A and 7B show a case where a part of an ellipse having a diameter of 20 ⁇ m, that is, a minor axis of 20 ⁇ m and a major axis of 26 ⁇ m is in the shape of a microlens ML.
  • the height of the microlens ML is the height from the surface on the surface side where light is incident on the flattening layer FL.
  • the minor axis of the ellipse is along the surface side surface of the flattening layer FL. In the case of the pixel 101 shown in FIGS.
  • the height of the microlens ML is the length of the semimajor axis, that is, 13 ⁇ m.
  • the aspect ratio of the microlens ML can be calculated by the following equation (6) from each value representing the ellipse.
  • a microlens ML having a diameter of 20 ⁇ m is formed on a 16 ⁇ m square pixel 101, the sides of the pixel 101 in the vertical direction (vertical direction in FIG. 6) and in the horizontal direction (horizontal direction in FIG. 6) as shown in FIG. In, a part of the microlens ML protrudes. A part of the region of the microlens ML that protrudes from the region of the pixel 101 overlaps with a part of the region of the microlens ML formed on the adjacent pixel 101 that protrudes from the region of the pixel 101. Further, as shown in FIG. 6, in the diagonal direction of the pixel 101 (the direction at an angle of 45 ° in FIG.
  • the microlens ML there is a region in which the microlens ML is not formed in a part of the pixel 101.
  • the region where the microlens ML is not formed is only the flattening layer FL.
  • the height (thickness) of the flattening layer FL which is the base of the microlens ML, in the optical axis direction is 2 ⁇ m.
  • the thickness of the flattening layer FL is a constant thickness (here, 2 ⁇ m) regardless of the height of the microlens ML.
  • the thickness of the wiring layer W constituting the pixel 101 that is, the height of the region other than the opening is set to 3 ⁇ m.
  • the microlens ML may be formed so that a region overlapping a part of the microlens ML formed in the adjacent pixel 101 is enlarged so that the region where the microlens ML is not formed disappears. That is, the diameter of the microlens ML may be increased so that the region where only the flattening layer FL is formed disappears.
  • FIG. 8 simulates the attenuation of the incident energy of the light (light in the near-infrared wavelength band) incident on the image sensor (distance image sensor 10) forming the photoelectric conversion element (pixel 101) of the embodiment of the present invention. It is a graph which shows an example of a result. The graph of the simulation result shown in FIG.
  • FIGS. 6, 7A, and 7B shows near-infrared light having a wavelength of 940 nm depending on the depth of the silicon substrate Si in the structure of the pixel 101 and the shape of the microlens ML shown in FIGS. 6, 7A, and 7B. It is a graph which simulated the state where the intensity of the lens is attenuated, and expressed the change in the intensity of near-infrared light as a relative value.
  • the refractive index of light on the silicon substrate Si that is, silicon (Si) is set to 3.59.
  • the refractive index of light in the material of the microlens ML (including the flattening layer FL) is 1.6.
  • the refractive index of light in aluminum (Al) formed as wiring Wi is 1.66.
  • the refractive index of light in carbon dioxide silicon (SiO 2 ) formed in the wiring layer W including an opening or the like as an insulating material in the pixel 101 is 1.46.
  • the extinction coefficient of light in silicon (Si) is 0.01, and the extinction coefficient of light in aluminum is 8.71.
  • the height of the microlens ML itself changes as the aspect ratio of the microlens ML changes
  • the height of the microlens ML that overlaps the region of the microlens ML formed in the adjacent pixel 101 in the optical axis direction ( Thickness), that is, the height (thickness) in the optical axis direction other than the flattening layer FL changes.
  • the simulation result shown in FIG. 8 shows the height (thickness) in the optical axis direction of the microlens ML that overlaps the region of the microlens ML formed in the adjacent pixel 101 due to the change in the aspect ratio of the microlens ML. This is the result of adding the amount of light leakage. That is, the simulation result shown in FIG. 8 is a result of reflecting each parameter that changes with the change of the height of the microlens ML itself (the aspect ratio of the microlens ML).
  • the intensity of near-infrared light having a wavelength of 940 nm is an index with respect to the depth of the silicon substrate Si. It is functionally reduced.
  • the intensity of the near infrared light is such that the depth of the silicon substrate Si is, for example, the distance z0 shown in FIG.
  • the cause of the sharp decrease in the intensity of near-infrared light is that if the aspect ratio of the microlens ML is made too high, the focusing point of the microlens ML That is, it means that the amount of near-infrared light diffused past the focal position increases.
  • 9A and 8B are graphs showing an example of the result of a simulation comparing the attenuation of the incident energy of the light incident on the image sensor.
  • the graphs of the simulation results shown in FIGS. 9A and 8B show the simulation results shown in FIG. 8 and the case where the height of the microlens ML is the height of the microlens formed in the pixels of a general image sensor. The simulation results are also shown.
  • FIGS. 9A and 8B are the results of simulating a state in which the intensity of near-infrared light having a wavelength of 940 nm is attenuated by the depth of the silicon substrate Si.
  • FIG. 9A shows a graph showing the change in the intensity of near-infrared light with respect to the depth of the silicon substrate Si as a relative value
  • FIG. 9B shows the change in the intensity of near-infrared light with respect to the depth of the silicon substrate Si. Is shown in the graph showing the absolute value of.
  • the parameters other than the height of the microlens ML are the same as the simulation results shown in FIG.
  • the intensity of the near-infrared light when the height of the microlens is 3 ⁇ m is the height of the microlens ML. Is lower than the intensity of near-infrared light when is 13 ⁇ m as a whole. More specifically, when the intensity of the near-infrared light incident on the pixel 101 is 100%, the intensity of the near-infrared light on the surface (first surface) where the light is incident on the silicon substrate Si is the microlens ML.
  • the height of the microlens When the height of the microlens is 13 ⁇ m, it is 70% or more, whereas when the height of the microlens is 3 ⁇ m, it is 40%.
  • the reason for this is that when the height of the microlens is 3 ⁇ m, the light focusing by the microlens ML is weak (the focusing characteristics are low) due to the low aspect ratio of the microlens ML, and the first silicon substrate Si. This is because a large amount of near-infrared light is attenuated in the region of the wiring layer W that is transmitted before reaching the surface. Therefore, when the height of the microlens is 3 ⁇ m, the amount of near-infrared light reaching the first surface of the silicon substrate Si is smaller than that when the height of the microlens is 13 ⁇ m. The strength of the lens becomes low.
  • the N-type semiconductor region of the photodiode PD is formed to a deep position on the silicon substrate Si, and the microlens ML has a thickness (aspect ratio) that satisfies the above equation (2). Need to decide. That is, in the pixel 101, the incident energy A of the light incident on the predetermined region (here, the region of the opening) on the first surface of the silicon substrate Si is set to 50 of the incident energy I of the light incident on the pixel 101. Must be at least%. Therefore, from the simulation results shown in FIGS.
  • the microlens ML having a small aspect ratio such that the height formed in the pixels of a general image sensor is 3 ⁇ m does not satisfy the above equation (2). It can be confirmed that the microlens ML has an appropriate thickness (aspect ratio) in the structure of the pixel 101.
  • the thickness of the microlens ML is an appropriate thickness (aspect ratio) for the pixel 101. That is, in the distance image sensor 10, the microlens ML formed in each of the plurality of pixels 101 forms the depth of the N-type semiconductor region in a general surface-illuminated image sensor. The N-type semiconductor region in the photodiode. In the photodiode PD deeper than the depth of, it can be confirmed whether or not the thickness (aspect ratio) is appropriate for improving the sensitivity to light in the near infrared wavelength band.
  • the near-infrared wavelength at each of the plurality of pixels 101 depends on the depth of the N-type semiconductor region constituting the photodiode PD and the appropriate thickness (aspect ratio) of the microlens ML.
  • the sensitivity to light in the band can be improved.
  • the distance to the object can be measured with higher accuracy by using the time of flight (TOF) technique. ..
  • TOF time of flight
  • FIG. 10 is a block diagram showing a schematic configuration of an image pickup system according to an embodiment of the present invention equipped with an image pickup device (distance image sensor 10) according to the embodiment of the present invention.
  • the TOF sensor module 1 which is the imaging system of the embodiment of the present invention shown in FIG. 10, includes a light source unit 2 and a light receiving unit 3. Further, the light source unit 2 includes a light source device 21 and a diffuser plate 22. Further, the light receiving unit 3 includes a distance image sensor 10 and a lens 31. Note that FIG. 10 also shows an object O for measuring a distance in the TOF sensor module 1 which is an imaging system according to the embodiment of the present invention.
  • the object O is irradiated with an optical pulse PL in the near infrared wavelength band from the light source unit 2. Then, in the TOF sensor module 1, the light receiving unit 3 receives the reflected light RL of the light pulse PL reflected by the object O, and a signal for measuring the distance to the object O (hereinafter, referred to as “measurement signal”). Is output.
  • the light source unit 2 irradiates the object O whose distance is to be measured in the TOF sensor module 1 with an optical pulse PL.
  • the light source unit 2 is, for example, a surface emitting type semiconductor laser module such as a vertical cavity surface emitting laser (VCSEL: Vertical Cavity Surface Emitting Laser).
  • the light source device 21 is a light source that emits laser light in a near-infrared wavelength band (for example, a wavelength band having a wavelength of 850 nm to 940 nm) that becomes a light pulse PL to irradiate the object O.
  • the light source device 21 is, for example, a semiconductor laser light emitting element.
  • the light source device 21 emits a pulsed laser beam in response to control from a light source control unit (not shown).
  • the diffuser plate 22 is an optical lens that diffuses the laser light in the near-infrared wavelength band emitted by the light source device 21 over the width of the surface that irradiates the object O.
  • the pulsed laser beam diffused by the diffuser plate 22 is emitted from the light source unit 2 as an optical pulse PL to irradiate the object O.
  • the light receiving unit 3 receives the reflected light RL of the light pulse PL reflected by the object O whose distance is to be measured in the TOF sensor module 1, and outputs a measurement signal corresponding to the received reflected light RL.
  • the lens 31 is an optical lens that guides the incident reflected light RL to the distance image sensor 10.
  • the lens 31 emits the incident reflected light RL to the distance image sensor 10 side, and receives light on the entire surface of the light receiving region 100 provided in the distance image sensor 10, that is, on each of the plurality of pixels 101 arranged in the light receiving region 100. (Incident).
  • the light receiving unit 3 receives the reflected light RL reflected by the object O by the light pulse PL in the near infrared wavelength band irradiated by the light source unit 2 on the object O.
  • the distance image sensor 10 provided in the unit 3 outputs a measurement signal for measuring the distance to the object O.
  • the light source unit 2 irradiates the light pulse PL and the light receiving unit 3 receives the reflected light RL, for example, by a module control unit (not shown) provided outside or inside the TOF sensor module 1. Will be done. More specifically, the period of the light pulse PL that the light source unit 2 irradiates the object O and the timing at which the distance image sensor 10 provided in the light receiving unit 3 receives the reflected light RL are not shown in the module control unit. Is done by. Further, the measurement signal output by the TOF sensor module 1 (more specifically, the distance image sensor 10) is processed by, for example, a distance image processing unit (not shown) provided outside or inside the TOF sensor module 1, and is an object.
  • a distance image processing unit not shown
  • the distance image processing unit may generate, for example, a two-dimensional image (distance image) including the object O, which shows the information of the distance to the object O in different colors.
  • the photoelectric conversion element (pixel) of the present invention constituting the pixel arranged in the light receiving region in the silicon substrate serving as the image sensor (distance image sensor) of the present invention.
  • the structure of is suitable for light in the near-infrared wavelength band. More specifically, when the photoelectric conversion element is formed, the depth (thickness) at which the N-type semiconductor region constituting the photoelectric conversion element spreads over the silicon substrate is determined in the pixels of a general surface-illuminated image sensor. It is formed so as to extend deeper than the N-type semiconductor region in the photoelectric conversion element to be formed.
  • the image pickup device of the embodiment of the present invention it is possible to improve the sensitivity of the photoelectric conversion element constituting each of the plurality of pixels to light in the near infrared wavelength band. That is, the image sensor according to the embodiment of the present invention can output a signal that more accurately represents the amount of light (light amount) in the incident near-infrared wavelength band.
  • the image pickup system (TOF sensor module 1) of the present invention equipped with the image pickup device of the present invention determines the amount of light (light amount) in the near infrared wavelength band output by the image pickup device. Outputs an accurately represented signal.
  • the image pickup system of the present invention equipped with the image pickup device of the present invention uses the time of flight (TOF) technology to output a measurement signal capable of measuring the distance to an object with higher accuracy. Can be done.
  • TOF time of flight
  • the structure of the image pickup device of the present invention is not limited to the structure corresponding to the surface-illuminated image sensor shown in the embodiment of the present invention. That is, as a general image sensor, in addition to the front-illuminated image sensor, there is also a back-illuminated (BSI: Back Side illumination) type image sensor. Therefore, the structure of the image pickup device of the present invention can also be a structure corresponding to a back-illuminated image sensor.
  • BSI Back Side illumination
  • the idea of forming the photoelectric conversion element of the present invention is the same as the idea shown in the embodiment of the present invention.
  • the structure of the image sensor of the present invention in this case can be easily considered from the structure of a general back-illuminated image sensor. Therefore, detailed description of the case where the image pickup device of the present invention has a structure corresponding to a back-illuminated image sensor will be omitted.
  • the photoelectric conversion element of the present invention is generated by the configuration of the pixels arranged in the light receiving region in the image pickup device of the present invention by the combination of one gate electrode G and one floating diffusion FD.
  • the case where the signal charge accumulated is transferred and accumulated has been described.
  • the set of the gate electrode G and the floating diffusion FD provided in the pixels arranged in the light receiving region in the image pickup device of the present invention is not limited to the one set shown in the embodiment of the present invention. That is, in the image pickup device of the present invention, the pixels arranged in the light receiving region may be configured to include two or more sets of gate electrodes G and a floating diffusion FD.
  • the signal charges generated and accumulated by the photoelectric conversion element of the present invention are transferred to each of them. It can be distributed to a floating diffusion FD, transferred, and stored. That is, in the image pickup device of the present invention in which pixels having a pair of two or more sets of gate electrodes G and a floating diffusion FD are arranged, the highly sensitive signal charge generated and accumulated by the photoelectric conversion element of the present invention is generated. It can be used more effectively.
  • the image pickup system of the present invention equipped with the image pickup device of the present invention in which pixels having a pair of two or more sets of gate electrodes G and a floating diffusion FD are arranged, the time of flight (TOF)
  • TOF time of flight
  • the photoelectric conversion element of the present invention constituting the pixels arranged in the light receiving region in the image pickup device of the present invention generates electrons corresponding to the amount of incident light (light amount) as signal charges.
  • the photoelectric conversion element is of the type of accumulating is described.
  • the photoelectric conversion element of the present invention is not limited to the form in which the electrons shown in the embodiment of the present invention are generated and stored as signal charges. That is, the photoelectric conversion element constituting the pixels arranged in a general image sensor is not limited to the form in which electrons are used as signal charges, but also holes (so-called holes) corresponding to the amount of incident light (light amount).
  • the photoelectric conversion element of the present invention can also be in the form of generating and accumulating holes as signal charges. Even when the photoelectric conversion element of the present invention is in the form of generating and accumulating holes as signal charges, the concept of forming the photoelectric conversion element of the present invention is in the embodiment of the present invention. It is similar to the idea shown.
  • the structure of the photoelectric conversion element of the present invention in this case includes the conductive type of the semiconductor in the silicon substrate Si and the photodiode PD by replacing the electrons with holes in the description of the embodiment of the present invention. , Can be easily considered. Therefore, detailed description of the case where the photoelectric conversion element of the present invention is in the form of generating and accumulating holes as signal charges will be omitted.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本発明の光電変換素子は、基板と、光学素子とを有し、光を出射する光源を用いて前記光が物体で反射された反射光を受光する光電変換素子である。前記光電変換素子に入射する前記反射光の入射エネルギーをI、前記光源の平均波長をλとしたときの前記基板における前記反射光の吸収係数をα(λ)、前記第一面上の予め定めた領域における前記反射光の入射エネルギーをA1、前記光電変換素子が前記光学素子を有さない場合における前記第一面上の前記予め定めた領域における前記反射光の入射エネルギーをA2、前記予め定めた領域から前記基板の厚さ方向に所定の距離zだけ平行移動した領域における前記反射光の入射エネルギーをB(z)、としたとき、A1≧A2を満たし、かつ、距離z0=ln(2)/α(λ)としたとき、z=z0において、0.95*exp(-α(λ)*z)≦B(z)/A≦1.05*exp(-α(λ)*z)の関係式が成り立つ。

Description

光電変換素子、撮像素子、および撮像システム
 本発明は、光電変換素子、この光電変換素子が配置された撮像素子、およびこの撮像素子を備えた撮像システムに関する。
 本願は、2019年8月30日に日本に出願された特願2019-157643号に基づき優先権を主張し、その内容をここに援用する。
 従来から、物体との距離を計測するための技術として、物体に近赤外領域の光パルスを照射し、この光パルスを照射した時刻と、照射した光パルスが物体によって反射してきた反射光を検出した時刻との時間差を計測する、すなわち、光パルスの飛行時間を計測する技術がある。このような光パルスの飛行時間によって物体との距離を計測する技術は、タイム・オブ・フライト(Time of Flight:TOF)と呼ばれる。そして、タイム・オブ・フライトの技術による物体との距離の計測を、光電変換素子を用いて行う測距センサも実用化されている。
 そして、近年では、光電変換素子を用いてタイム・オブ・フライトの技術による物体との距離の計測を行う構成を発展させ、物体との距離のみではなく、物体を含む二次元の画像も得ることができる、つまり、物体に対する三次元の情報を得ることができる測距センサも実用化されている。このような測距センサは、距離画像センサとも言われている。距離画像センサでは、物体によって反射してきた光パルスの反射光を受光する受光部であるフォトダイオードを含む画素が、シリコン基板に二次元の行列状に複数配置されている。そして、距離画像センサでは、複数の画素のそれぞれが受光した光パルスの反射光の光量に基づいた光電変換信号を1つの画像分出力することによって、物体を含む二次元の画像と、この画像を構成する複数の画素のそれぞれの距離の情報とを得ることができる。これにより、距離画像センサでは、物体を含む二次元の画像に複数の画素のそれぞれの距離の情報を合わせた三次元の情報を得ることができる。
 ところで、距離画像センサにおいて計測することができる距離の精度は、複数の画素のそれぞれが同じ時間において受光することができる光パルスの反射光の光量によって変わってくる。つまり、距離画像センサでは、複数の画素のそれぞれが同じ時間でより多くの反射光を受光することができれば、高精度に距離を計測することができる。このため、距離画像センサでは、複数の画素のそれぞれが受光することができる光パルスの反射光の光量を多くする、つまり、複数の画素のそれぞれにおける近赤外領域の光に対する感度を向上させることが望まれている。
 なお、画像を取得する画像センサにおいては、例えば、特許文献1に開示された技術のように、光に対する感度を向上させるための様々な技術が提案されている。特許文献1に開示された技術では、センサ系の半導体基板上に形成されるそれぞれのセンサユニット(画素)を構成する複数のフォトゲート対のそれぞれの上に、複数のマイクロレンズを形成している。これにより、特許文献1に開示されたような技術を適用したセンサ系では、アレイの受光面積が増加し、センサ系の感度を増加させている。そこで、距離画像センサにおいても、複数の画素のそれぞれにおける近赤外領域の光に対する感度を向上させるために、特許文献1に開示されたようなマイクロレンズを形成する技術を適用することが考えられる。
日本国特許第6001236号公報
 ところで、距離画像センサでは、複数の画素のそれぞれの感度が、光の受光部であるフォトダイオードの構造、特に、光軸方向の距離に関係している。つまり、距離画像センサにおける複数の画素のそれぞれの感度は、シリコン基板にフォトダイオードを形成する際の拡散層の深さ(厚さ)も関係している。この理由は、距離画像センサでは、上述したように、近赤外領域の光パルスが物体によって反射してきた反射光を受光するが、この反射光も近赤外領域の光パルスであるため、シリコン基板の深い位置でより多く光電変換されるからである。
 しかしながら、特許文献1に開示された技術は、画像センサにおいて、複数の画素のそれぞれの位置にマイクロレンズを形成する技術である。このため、特許文献1に開示された技術を適用することによって、距離画像センサにおいても、複数の画素のそれぞれに対応するマイクロレンズを形成することができるものの、形成されたマイクロレンズは、必ずしも距離画像センサに適しているとは限らない。この理由は、特許文献1に開示された技術において形成されるマイクロレンズの焦点位置は、フォトゲート対の受光面、つまり、フォトゲートが形成された半導体基板に光が入射する入射側の表面の近くであるからである。そして、距離画像センサに関する技術として、複数の画素のそれぞれに対応するマイクロレンズを形成する際に、マイクロレンズが光を集光する位置、つまり、マイクロレンズの焦点位置と、複数の画素のそれぞれにおける受光部であるフォトダイオードを形成する際の拡散層の深さ(厚さ)との関係に関して規定している技術は開示されていない。
 本発明は、上記の課題に基づいてなされたものであり、複数の画素のそれぞれに対応するマイクロレンズを形成した距離画像センサにおいて、複数の画素のそれぞれの光に対する感度を向上させることができる構造の光電変換素子、この光電変換素子が配置された撮像素子、およびこの撮像素子を備えた撮像システムを提供することを目的としている。
 上記の課題を解決するため、本発明の一態様に係る光電変換素子は、所定の波長帯域の光を出射する光源を用いて前記光が物体で反射された反射光を受光する光電変換素子である。前記反射光が入射する表面である第一面と、第一導電型半導体で構成された第一半導体領域と、前記第一導電型半導体とは導電型が異なる第二導電型半導体で構成されかつ前記第一面に垂直な方向において前記第一面から内部に向けて広がるように形成された第二半導体領域と、を有する基板と、前記基板の前記第一面側に配置されて前記反射光を前記第二半導体領域に集光させる光学素子と、を有する。前記光電変換素子に入射する前記反射光の入射エネルギーをI、前記光源の平均波長をλとしたときの前記基板における前記反射光の吸収係数をα(λ)、前記第一面上の予め定めた領域における前記反射光の入射エネルギーをA1、前記光電変換素子が前記光学素子を有さない場合における前記第一面上の前記予め定めた領域における前記反射光の入射エネルギーをA2、前記予め定めた領域から前記基板の厚さ方向に所定の距離zだけ平行移動した領域における前記反射光の入射エネルギーをB(z)、としたとき、A1≧A2を満たし、かつ、距離z0=ln(2)/α(λ)としたとき、z=z0において、0.95*exp(-α(λ)*z)≦B(z)/A≦1.05*exp(-α(λ)*z)の関係式が成り立つ。
 上記の課題を解決するため、本発明の一態様に係る光電変換素子は、所定の波長帯域の光を出射する光源を用いて前記光が物体で反射された反射光を受光する光電変換素子である。前記反射光が入射する表面である第一面と、第一導電型半導体で構成された第一半導体領域と、前記第一導電型半導体とは導電型が異なる第二導電型半導体で構成されかつ前記第一面に垂直な方向において前記第一面から内部に向けて広がるように形成された第二半導体領域と、を有する基板と、前記基板の前記第一面側に配置されて前記反射光を前記第二半導体領域に集光させる光学素子と、を有する。前記光電変換素子に入射する前記反射光の入射エネルギーをI、前記光源の平均波長をλとしたときの前記基板における前記反射光の吸収係数をα(λ)、前記第一面上の予め定めた領域における前記反射光の入射エネルギーをA1、前記光電変換素子が前記光学素子を有さない場合における前記第一面上の前記予め定めた領域における前記反射光の入射エネルギーをA2、前記予め定めた領域から前記基板の厚さ方向に所定の距離zだけ平行移動した領域における前記反射光の入射エネルギーをB(z)、としたとき、A1≧A2を満たし、かつ、距離z0=ln(2)/α(λ)としたとき、0≦z≦z0を満たす全てのzにおいて、0.95*exp(-α(λ)*z)≦B(z)/A≦1.05*exp(-α(λ)*z)の関係式が成り立つ。
 本発明の一態様に係る光電変換素子においては、前記予め定めた領域は、前記第二半導体領域を前記第一面に対して垂直に投影した領域であってもよい。
 本発明の一態様に係る光電変換素子においては、前記波長帯域は、近赤外の波長帯域であってもよい。
 本発明の一態様に係る光電変換素子においては、前記近赤外の波長帯域は、850nm~940nmの波長帯域であってもよい。
 本発明の一態様に係る撮像素子は、所定の波長帯域の光を出射する光源を用いて前記光が物体で反射された反射光を受光する撮像素子であって、複数の画素が二次元の行列状に配置された受光領域を備える上述の態様に係る複数の光電変換素子を有する。前記受光領域において、複数の画素は、互いに直交する第1方向及び第2方向に沿って配列されている。前記第1方向及び前記第2方向に沿って前記光学素子を切断したとき、互いに隣接する2つの前記光学素子の谷部の高さを第1高さとする。前記画素の対角線方向に沿って前記光学素子を切断したとき、互いに隣接する2つの前記光学素子の谷部の高さを第2高さとする。前記第1高さ及び前記第2高さは、互いに異なる。
 本発明の一態様に係る撮像システムは、所定の波長帯域の光を出射する光源部と、上述の態様に係る撮像素子と、前記光が物体で反射された反射光を受光する受光部と、を有する。
 本発明の一態様に係る撮像システムによれば、複数の画素のそれぞれに対応するマイクロレンズを形成した距離画像センサにおいて、複数の画素のそれぞれの光に対する感度を向上させることができる構造の光電変換素子、この光電変換素子が配置された撮像素子、およびこの撮像素子を備えた撮像システムを提供することができるという効果が得られる。
本発明の実施形態の撮像素子の全体の概略構成を示したブロック図である。 本発明の実施形態の光電変換素子を形成した撮像素子の断面の概略構成を模式的に示した断面図である。 本発明の実施形態の光電変換素子を形成した撮像素子に入射した光に応じた電子が発生している様子を示した画素の断面図である。 本発明の実施形態の光電変換素子を形成する際の考え方を模式的に示した画素の断面図である。 本発明の実施形態の光電変換素子を形成した撮像素子に入射した光の入射エネルギーの減衰を表すグラフである。 本発明の実施形態の光電変換素子を形成した撮像素子にマイクロレンズを形成する際に行うシミュレーションのパラメータを説明する図である。 本発明の実施形態の光電変換素子を形成した撮像素子にマイクロレンズを形成する際に行うシミュレーションのパラメータを説明する図である。 本発明の実施形態の光電変換素子を形成した撮像素子にマイクロレンズを形成する際に行うシミュレーションのパラメータを説明する図である。 本発明の実施形態の光電変換素子を形成した撮像素子に入射した光の入射エネルギーの減衰をシミュレーションした結果の一例を表すグラフである。 撮像素子に入射した光の入射エネルギーの減衰を比較するシミュレーションの結果の一例を表すグラフである。 撮像素子に入射した光の入射エネルギーの減衰を比較するシミュレーションの結果の一例を表すグラフである。 本発明の実施形態の撮像素子を搭載した本発明の実施形態の撮像システムの概略構成を示したブロック図である。
 以下、本発明の実施形態について、図面を参照して説明する。
 本発明の実施形態に係る光電変換素子は、シリコン基板(基板)と、配線層Wと、マイクロレンズ(光学素子)とを備える画素である。シリコン基板の内部には、光電変換部として機能するフォトダイオードが設けられている。
 光電変換素子(画素)は、タイム・オブ・フライト(Time of Flight:TOF)の技術によって物体との距離を計測する本発明の実施形態に係る撮像システムに搭載される。さらに、光電変換素子(画素)は、本発明の実施形態に係る撮像素子である距離画像センサに形成されている。つまり、以下の説明では、本発明の実施形態に係る光電変換素子が、本発明の実施形態に係る撮像システムが出射した波長が長い近赤外の波長帯域の光(例えば、波長が850nm~940nmの波長帯域の光)が物体で反射された反射光を受光して、物体との距離を計測するための信号を出力する本発明の実施形態に係る光電変換素子(距離画像センサ)に形成されている。
 図1は、本発明の実施形態の撮像素子の全体の概略構成を示したブロック図である。図1において、距離画像センサ10は、複数の画素101(画素アレイ)が配置された受光領域100と、制御回路200と、垂直駆動回路300と、水平駆動回路400と、AD変換回路500と、出力回路600とを備えている。なお、図1に示した距離画像センサ10では、複数の画素列を形成するように、複数の画素101が、6行8列に二次元の行列状に配置された受光領域100の一例を示している。換言すると、距離画像センサ10を構成する画素アレイを構成する複数の画素101は、互いに直交する第1方向及び第2方向に沿って、配列されている。
 制御回路200は、垂直駆動回路300、水平駆動回路400、およびAD変換回路500などの距離画像センサ10に備えた構成要素を制御する。制御回路200は、例えば、撮像システムに備えた不図示の制御装置からの制御に応じて、距離画像センサ10に備えた構成要素の動作を制御する。
 垂直駆動回路300は、制御回路200からの制御に応じて、受光領域100内に配置された複数の画素101のそれぞれを制御する駆動回路である。垂直駆動回路300の駆動により、複数の画素101のそれぞれは、画素101に入射した光(入射光)を光電変換し、信号電荷を発生する。垂直駆動回路300は、複数の画素101のそれぞれの信号電荷に応じた画素信号を、対応する垂直信号線に出力させる(読み出させる)。垂直駆動回路300は、画素101を駆動(制御)するための駆動信号を、受光領域100に配置された画素101の行ごとに出力する。これにより、画素101が出力した画素信号が行ごとに垂直信号線に読み出され、AD変換回路500に出力される。
 受光領域100内に配置されたそれぞれの画素101は、入射した光を電気信号に変換した画素信号を出力する。画素101は、入射した光の量(光量)に応じた信号電荷を発生して蓄積することによって入射した光を電気信号に変換するフォトダイオード(光電変換部)などの構成要素を含んで構成される。複数の画素101のそれぞれは、垂直駆動回路300から入力された駆動信号に応じて、入射した光の量(光量)に応じた画素信号を、対応する垂直信号線に出力する。なお、画素101の構造に関する詳細な説明は、後述する。
 AD変換回路500は、制御回路200からの制御に応じて、対応する列の画素101から対応する垂直信号線に出力されたアナログの画素信号の大きさを表すデジタル値に変換するアナログ/デジタル変換回路である。なお、AD変換回路500は、受光領域100において画素101が配置されている複数の列のそれぞれに対応した複数のAD変換回路からなるAD変換回路群であってもよい。AD変換回路500は、水平駆動回路400からの制御に応じてアナログ/デジタル変換をした後の画素信号を、出力信号として水平信号線に出力する。
 水平駆動回路400は、アナログ/デジタル変換をした後の画素信号(出力信号)を、水平信号線に順次出力させる(読み出させる)駆動回路である。つまり、水平駆動回路400の駆動により、制御回路200からの制御に応じて、AD変換回路500から出力される、受光領域100内に配置された画素101のそれぞれの列(画素列)に対応するアナログ/デジタル変換をした後の画素信号は、水平信号線に順次出力される。水平駆動回路400は、複数の列のそれぞれにおける画素101に対応する出力信号を出力させるための制御信号を、AD変換回路500に順次出力する。これにより、AD変換回路500が出力した出力信号が水平信号線を経由して出力回路600に順次出力される。
 出力回路600は、水平駆動回路400によって水平信号線に出力されたAD変換回路500からの出力信号を、距離画像センサ10の外部に出力する回路である。出力回路600は、例えば、出力アンプなどである。
 次に、距離画像センサ10に備える受光領域100に配置された画素101を構成する半導体基板における構造について説明する。図2は、本発明の実施形態の光電変換素子を形成した撮像素子(距離画像センサ10)の断面の概略構成を模式的に示した断面図である。なお、距離画像センサ10では、本発明の光電変換素子を含む画素101が、距離画像センサ10の半導体基板に形成する受光領域100内に二次元の行列状に複数配置されている。図2には、距離画像センサ10の受光領域100を光が入射する入射方向から見た場合に、横幅の方向(水平方向H)に隣接する2画素分の領域の半導体基板の断面の一例を模式的に示している。画素101は、少なくとも、フォトダイオードPDと、フローティングディフュージョンFDと、ゲート電極Gとを含んで構成される。
 フォトダイオードPDは、入射した光の量(光量)に応じた信号電荷を発生して蓄積する埋め込み型のフォトダイオードである。ゲート電極Gは、フォトダイオードPDが発生して蓄積した信号電荷をフローティングディフュージョンFDに転送するのに必要な電位を画素101の外部から印加するための電極である。ゲート電極Gは、入射した光を受光しているフォトダイオードPDに対するシャッターとして機能している。フローティングディフュージョンFDは、ゲート電極Gによって転送された信号電荷を蓄積する電荷蓄積容量である。距離画像センサ10では、複数の画素101のそれぞれに備えたフローティングディフュージョンFDに蓄積された信号電荷が、画素信号としてAD変換回路500に読み出される。
 なお、図2に示した距離画像センサ10の構成は、一般的な画像センサに例えると、表面照射(FrontSide Illumination:FSI)型の画像センサに相当する構造となっている。このため、図2に示した距離画像センサ10は、距離画像センサ10となる第一導電型半導体(P型半導体)で構成された半導体基板であるシリコン基板Si(基板)を備える。シリコン基板Siに光が入射する入射側、つまり、シリコン基板Siの表面側に、画素101を構成するフォトダイオードPDを含む複数の構成要素が形成されている。
 より具体的には、図2に示したように、シリコン基板Siの表面(以下、「第一面」という)から、画素101を構成するフォトダイオードPD(光電変換部)を形成する。図2に示すように、シリコン基板Siは、反射光が入射する表面である第一面と、第一導電型半導体(P+型半導体)で構成されている第一半導体領域と、第一導電型半導体とは導電型が異なる第二導電型半導体(N型半導体)で構成されている第二半導体領域とを有する。これによって、入射した光の量(光量)に応じた電子を信号電荷として発生して蓄積する構成を有するフォトダイオードPDが形成されている。図2に示した構成を有するフォトダイオードPDは、第二導電型半導体(N型半導体)となる不純物をシリコン基板SiにドープしてN型半導体領域(第二半導体領域)を形成させ、その後、第一導電型半導体(P+型半導体)となる不純物をシリコン基板SiにドープしてP+型半導体領域を形成させることによって実現することができる。すなわち、第二半導体領域は、第一面に垂直な方向において、シリコン基板Siの内部に向けて広がるように形成されている。シリコン基板Siの内部においては、第二半導体領域は、第一半導体領域で囲まれている。
 なお、図2に示したフローティングディフュージョンFDは、フォトダイオードPDを形成するときに形成する。図2では、N+型半導体のフローティングディフュージョンFDを、シリコン基板Siの第一面に形成している。
 その後、図2に示したように、フォトダイオードPDを形成したシリコン基板Siの第一面に、ゲート電極Gを含む配線層Wを形成する。図2には、配線が4層にわたって形成されている配線層Wを示している。配線層Wに形成される複数の配線のそれぞれは、ポリシリコン(poly-Si)やアルミニウム(Al)によって形成する。なお、図2に示したゲート電極Gは、例えば、ポリシリコンによって形成されるポリシリコンゲート電極である。また、図2に示したその他の配線は、例えば、アルミニウムによって形成され、画素101を構成するその他の構成要素や、距離画像センサ10に形成される不図示の回路要素に接続される配線である。
 その後、図2に示したように、配線層Wの表面側、つまり、距離画像センサ10に光が入射する入射面(表面、第一面)に形成されたマイクロレンズ層Lに、入射した光をフォトダイオードPDに集光させる光学素子であるマイクロレンズMLを形成する。なお、距離画像センサ10では、複数の画素101のそれぞれを構成するフォトダイオードPDに対応する位置に、マイクロレンズMLを形成する。
 図2に示す例では、互いに隣接する2つの画素101、つまり、第1画素と第2画素とが示されている。第1画素及び第2画素のそれぞれには、マイクロレンズMLが形成されている。この構造においては、互いに隣接する2つのマイクロレンズML、つまり、第1マイクロレンズと第2マイクロレンズとが形成されている。
 このとき、距離画像センサ10では、図2に示したように、隣接する画素に対応するマイクロレンズML同士の間に隙間がないように、いわゆる、レンズギャップが0となるように、複数のマイクロレンズMLのそれぞれを形成する。ただし、マイクロレンズMLの形成方法には、レンズギャップを0にすることができない方法もある。距離画像センサ10においてレンズギャップを0にすることができない方法でマイクロレンズMLを形成する場合には、互いに隣接する2つのマイクロレンズMLの間における谷部の高さが異なるようにする。
 谷部の高さとは、配線層WとマイクロレンズMLとの間の面から、谷部において最も低い位置にある部分までの距離である。
 具体的には、図1に示す画素アレイにおける複数の画素101が配列する第1方向及び第2方向(互いに直交する方向、垂直方向Vおよび水平方向H)に沿ってマイクロレンズMLを切断したとき、互いに隣接する2つのマイクロレンズMLの間の谷部高さを高さH1(第1高さ)とする。
 一方、複数の画素101が配列する第1方向及び第2方向に対して45°傾斜する方向、すなわち、画素101の対角線方向に沿ってマイクロレンズMLを切断したとき、互いに隣接する2つのマイクロレンズMLの間の谷部の高さを高さH2(第2高さ)とする。この場合、高さH1、H2を互いに異ならせ、高さH2よりも高さH1を高くする。
 画素101に関する上述した構成は、一般的な表面照射型の画像センサと同様の構成であるといえる。つまり、画素101は、一般的な表面照射型の画像センサと同様の工程によって製造することができる。ただし、距離画像センサ10では、複数の画素101のそれぞれを構成するフォトダイオードPDに入射する光が、波長が長い近赤外の波長帯域の光である。このため、距離画像センサ10では、複数の画素101のそれぞれに入射した近赤外の波長帯域の光が、シリコン基板Siにおける深い位置、つまり、マイクロレンズMLが集光する近赤外の波長帯域の光における光軸方向の距離が長い(遠い)位置まで到達する。従って、距離画像センサ10では、複数の画素101のそれぞれを構成するフォトダイオードPDでは、深い位置の領域でも、近赤外の波長帯域の光に応じた電子が発生する。
 図3は、本発明の実施形態の光電変換素子(画素101)を形成した撮像素子(距離画像センサ10)に入射した光(近赤外の波長帯域の光)に応じた電子が発生している様子を示した画素101の断面図である。図3には、距離画像センサ10に配置された1つの画素101において、マイクロレンズMLに近赤外の波長帯域の平行な光(いわゆる、コリメート光)が入射した場合に、シリコン基板Siの内部で近赤外の波長帯域の光に応じた電子e-が発生している様子を模式的に示している。
 距離画像センサ10では、複数の画素101のそれぞれにおいて、図3に示したように、シリコン基板Siにおける深い位置の領域でも、近赤外の波長帯域の光に応じた電子e-が発生する。このため、距離画像センサ10では、画素101を構成するフォトダイオードPDの構造を、近赤外の波長帯域の光に適した構造にする。より具体的には、シリコン基板SiにおけるN型半導体領域の深さ方向、つまり、シリコン基板Siの表面(第一面)から裏面に向かう厚さ方向Dに広がるN型半導体領域を、一般的な表面照射型の画像センサの画素において形成するフォトダイオードPDのN型半導体領域よりも深くまで広がるように形成する。換言すると、シリコン基板Siの表面に垂直な方向において、N型半導体領域は、その表面からシリコン基板Siの内部に向けて広がるように、シリコン基板Siの一部に形成されている。
 図3には、N型半導体領域が広がっている範囲R1を、厚さ方向Dに広げて範囲R2としている様子を示している。なお、図3では、N型半導体領域の範囲R2が、横幅の方向(水平方向X)にも広がっている様子を示している。これにより、距離画像センサ10では、複数の画素101のそれぞれは、画素に入射した近赤外の波長帯域の光に応じてフォトダイオードPDがシリコン基板Siの深い位置で発生した電子e-も、フォトダイオードPDが発生した信号電荷としてフローティングディフュージョンFDに転送して蓄積させることができる。このことにより、距離画像センサ10では、近赤外の波長帯域の光に対するそれぞれの画素101の感度を向上させることができる。つまり、距離画像センサ10では、より大きな値の画素信号を出力することができる。
 このため、距離画像センサ10では、複数の画素101のそれぞれを構成するフォトダイオードPDを形成する際に行うN型半導体となる不純物のドープの制御を、一般的な表面照射型の画像センサと異なる制御にする。
<考え方>
 ここで、距離画像センサ10において複数の画素101のそれぞれを構成するフォトダイオードPDを形成するときの考え方について説明する。より具体的には、距離画像センサ10において複数の画素101のそれぞれを構成するフォトダイオードPDを形成するときにN型半導体となる不純物のドープを制御する際の考え方について説明する。図4は、本発明の実施形態の光電変換素子(画素101)を形成する際の考え方を模式的に示した画素101の断面図である。
 距離画像センサ10におけるフォトダイオードPDを形成する際の考え方では、シリコン基板Siに光が入射する第一面上の予め定めた領域(第一領域)における光の強度Aと、第一面から厚さ方向D(シリコン基板Siの深さ方向)に予め定めた距離だけ離れた位置の予め定めた領域(第二領域)における光の強度Bとの比B/Aに基づいて、N型半導体となる不純物のドープを制御する。
 具体的には、前記予め定めた領域(第一領域)からシリコン基板Siの厚さ方向に所定の距離zだけ平行移動した領域(第二領域)における反射光の入射エネルギー(強度)をB(z)と定義する。そして、光の強度Aと光の強度B(z)との比B(z)/Aに基づいて、N型半導体となる不純物のドープを制御する。
 つまり、距離画像センサ10におけるフォトダイオードPDを形成する際の考え方では、フォトダイオードPDに入射した光の減衰率に基づいて、フォトダイオードPDにおけるN型半導体領域の深さを制御する。
 さらに、「予め定めた領域」は、第二半導体領域を第一面に対して垂直に投影した領域である。
 より具体的には、図4に示したように、フォトダイオードPDに入射する反射光の入射エネルギーをI、不図示の光源の平均波長をλとしたときのシリコン基板Siにおける反射光の吸収係数をα(λ)、第一面上の予め定めた領域における反射光の入射エネルギーをA、シリコン基板Siの厚さ方向Dにおいて第一面から所定の距離zだけ厚さ方向Dに離れた予め定めた領域における反射光の入射エネルギーをB(z)とする。そして、下式(1)の通り、シリコン基板Siの厚さ方向Dにおいて第一面から所定の距離z0を定義したとき、下式(2)および下式(3)の関係式が成り立つように、N型半導体となる不純物のドープを制御する。
 z0=ln(2)/α(λ)   ・・・(1)
 A≧0.5*I   ・・・(2)
 ∀z[0≦z≦z0⇒0.95*exp(-α(λ)*z)≦B(z)/A≦1.05*exp(-α(λ)*z)]   ・・・(3)
 なお、光源の平均波長は、以下の式(4)により定義される。
Figure JPOXMLDOC01-appb-M000001
 ここで、
 I(λ)は、光源の強度分布を表す。
 λは、光源強度のピーク波長を表す。
 Λは、平均値を計算するための波長範囲を表しており、例えば、10nmに設定される。
 次に、上述した条件について説明する。図4において、画素101に入射した入射エネルギーIの光は、マイクロレンズMLによって集光され、配線層Wを透過し、シリコン基板Siに入射する。ここで、シリコン基板Siの第一面FS上の予め定めた領域110aに入射する光の入射エネルギーをAとする。図4では、予め定めた領域110aは、配線層Wに形成された配線Wiの開口部(光透過領域)をシリコン基板Siに垂直に投影した領域としている。
 第一面FSから厚さ方向D(深さ方向)に距離zだけ離れたシリコン基板Siの内部の予め定めた領域110bにおける入射エネルギーをB(z)とする。このとき、上式(2)を満たすように、マイクロレンズMLと配線層Wの厚み、配線Wiの幅が決定される。例えば、マイクロレンズMLの厚み、すなわち、マイクロレンズMLのアスペクト比が小さい場合、入射光が配線Wiによって反射され、入射する光の入射エネルギーAが上式(2)を満たさなくなる。このため、マイクロレンズMLは、上式(2)を満足する適切な厚み(アスペクト比)に設定する必要がある。
 ここで、不図示の光源の平均波長をλとしたときのシリコン基板Siの吸収係数をα(λ)とする。このとき、上式(1)の通り距離z0を定義したとき、上式(3)を満足するようにする。なお、距離z0は、exp(-α(λ)*z)=0.5の解であり、シリコン基板Siの表面に垂直に入射した光が半分に減衰する深さを表す。このため、第一面FSから厚さ方向D(深さ方向)に距離z0だけ離れたシリコン基板Siの内部の予め定めた領域110cにおける入射エネルギーは、B(z0)で表される。
 図5は、本発明の実施形態の光電変換素子(画素101)を形成した撮像素子(距離画像センサ10)に入射した光(近赤外の波長帯域の光)の入射エネルギーの減衰を表すグラフである。入射光のシリコン基板Siでの吸収を考えた場合、理論上、入射エネルギーB(z)/Aがexp(-α(λ)*z)を超えることはない。入射エネルギーB(z)/Aがexp(-α(λ)*z)となるのは、入射光が予め定めた領域の側面120aと側面120bから全く漏れ出ることがない場合である。この場合は、入射エネルギーB(z)/Aは、図5に示した実線(a)に示すような指数関数のグラフを描く。
 第一導電型半導体(P型半導体)で構成された半導体基板であるシリコン基板Siに形成される第二導電型半導体(N型半導体)で構成された半導体領域は、予め定めた領域110a~領域110cを含むような領域に形成されることが一般的である。つまり、予め定めた領域110a~領域110cには、第一導電型半導体(P型半導体)の第一半導体領域と第二導電型半導体(N型半導体)の第二半導体領域の接合による高いビルトイン電界が形成されている。そのため、光電変換後の電子を高速で転送するためには、予め定めた領域110a~領域110cに入射する光量が最大となる、入射エネルギーB(z)/Aが、図5に示した実線(a)に乗るように光電変換素子(画素101)を設計するのが望ましい。ただし、図5に示した実線(a)は、理想的な場合を示している。画素101を構成するマイクロレンズMLや配線層Wの厚み、配線Wiの幅などの寸法、マイクロレンズMLにおける光学定数などのばらつきによって、実際のフォトダイオードPDの特性が、シミュレーションによって求めた特性である実線(a)と完全に一致することは少ない。このため、例えば、図5に示したように、実際のフォトダイオードPDの特性と、シミュレーションに求めるフォトダイオードPDの特性の誤差が5%発生すると仮定する。そして、図5において実線(a’)で示した、入射エネルギーB(z)/A=0.95*exp(-α(λ)*z)を許容できる下限値とし、図5において実線(a”)で示した、入射エネルギーB(z)/A=1.05*exp(-α(λ)*z)を許容できる上限値とする。つまり、上式(3)は、実際のフォトダイオードPDの特性とシミュレーションに求めるフォトダイオードPDの特性の誤差が5%発生すると仮定した場合の式である。
 なお、上述した説明では、入射光が予め定めた領域の側面120aと側面120bから全く漏れ出ることが無い場合において、入射エネルギーB(z)/Aがとる理論値をexp(-α(λ)*z)としていた。しかしながら、より厳密には、この理論値は、予め定めた領域110a~領域110cにおける入射光が画素101に対して垂直に入射する平行光線の場合の数値である。従って、画素101のようにマイクロレンズMLで集光した光を入射光とする場合、入射エネルギーB(z)/Aは、exp(-α(λ)*z)よりも小さくなる。ただし、上述した理由による理論値の差異は、僅かである。このため、フォトダイオードPDの特性をシミュレーションによって求める際に、入射する光線の差による入射エネルギーB(z)/Aの差を無視しても、求められるフォトダイオードPDの特性への影響はないと考えられる。
 なお、それぞれのフォトダイオードPDでは、第一面FSから厚さ方向D(深さ方向)に距離zだけ離れた領域110bにおける入射エネルギーB(z)が入射エネルギーB(z0)となるようにする。言い換えれば、フォトダイオードPDでは、領域110bの深さが、シリコン基板Siの表面に垂直に入射した光が半分に減衰する深さとなるようにする。つまり、距離zが距離z0となる(距離z=距離z0である)ようにする。この場合、上式(3)は、上式(1)、つまり、exp(-α(λ)*z0)=0.5を代入することにより、下式(5)のように表すことができる。
 ∀z[z=z0⇒0.475≦B(ln(2)/α(λ))/A≦0.525]
                              ・・・(5)
 従って、それぞれの画素101を構成するフォトダイオードPDを形成する際には、上式(2)および上式(5)の関係式が成り立つように、N型半導体となる不純物のドープを制御する。
 このような考え方によって、距離画像センサ10では、複数の画素101のそれぞれを構成するフォトダイオードPDにおけるN型半導体領域を形成する。これにより、距離画像センサ10では、特に、複数の画素101のそれぞれにおけるフォトダイオードPDを構成するN型半導体領域の深さが、一般的な表面照射型の画像センサに形成するフォトダイオードにおけるN型半導体領域の深さよりも深くなる。これにより、距離画像センサ10では、複数の画素101のそれぞれを構成するフォトダイオードPDにおいて、近赤外の波長帯域の光に対する感度を向上させることができる。
<マイクロレンズMLのアスペクト比>
 また、上述したように、距離画像センサ10では、複数の画素101のそれぞれに入射した近赤外の波長帯域の光をシリコン基板Siにおいて深い位置まで形成したN型半導体領域に到達させる、つまり、N型半導体領域において近赤外の波長帯域の光に応じた電子を発生させるために、マイクロレンズMLの厚み(アスペクト比)を、上式(2)を満足するように設定する。マイクロレンズMLが集光した近赤外の波長帯域の光が到達する光軸方向の距離(深さ)は、シミュレーションによって確認することができる。そして、距離画像センサ10においてそれぞれの画素101に形成するマイクロレンズMLのアスペクト比は、一般的な光学レンズのシミュレーションを行うことによって、上式(2)を満足するような適切な厚み(アスペクト比)を決定することができる。
 光学レンズのシミュレーションでは、画素101の構造や、マイクロレンズMLの形状、画素101及びマイクロレンズMLのそれぞれを形成する材料における光に対する特性など、種々のパラメータを設定する。光学レンズのシミュレーションにおいて設定する画素101の構造やマイクロレンズMLの形状に関するパラメータとしては、例えば、画素101の画素サイズ、マイクロレンズMLの高さ、画素101における配線層Wの厚みなどがある。また、光学レンズのシミュレーションにおいて設定する材料の特性に関するパラメータとしては、例えば、マイクロレンズML、配線層W、配線Wiなどのそれぞれの材料における光に対する屈折率や、消衰係数などがある。これらのパラメータを設定して光学レンズのシミュレーションを行うことによって、シリコン基板Siの厚さ方向(深さ方向)における入射した光(近赤外の波長帯域の光)の強度の変化を確認し、マイクロレンズMLのアスペクト比を決定することができる。
 ここで、マイクロレンズMLの厚み(アスペクト比)を変更した場合のシミュレーションの一例について説明する。まず、シミュレーションを行う際のそれぞれのパラメータについて説明する。図6、図7A、及び図7Bは、本発明の実施形態の光電変換素子(画素101)を形成した撮像素子(距離画像センサ10)にマイクロレンズMLを形成する際に行うシミュレーションのパラメータを説明する図である。図6、図7A、及び図7Bは、距離画像センサ10に配置された1つの画素101を示している。そして、図6は、画素101を光が入射する入射方向から見た上面図を示している。また、図7A及び図7Bは、図6に示した画素101を横から見た断面図を示している。より具体的には、図7Aは、図6に示した画素101の上面図におけるA-A’断面の断面図を示している。図7Bは、図6に示した画素101の上面図におけるB-B’断面の断面図を示している。
 図6、図7A、及び図7Bは、画素サイズが16μm角、開口部が8.5μm角である画素101の一例である。なお、図6、図7A、及び図7Bでは、シミュレーションを容易にするため、開口部以外の領域は、深さ方向の全体にアルミニウム(Al)が塊として配線Wiが存在する場合を示している。このような構成の画素101において直径が20μm(φ20μm)のマイクロレンズMLを形成する場合を考える。なお、画素101では、図7A及び図7Bに示したように、配線Wiが形成される配線層Wの表面側、つまり、画素101に光が入射する入射側の配線層Wの面に平坦化層FLを形成し、平坦化層FLの上、つまり、画素101に光が入射する入射側にマイクロレンズMLを形成する。平坦化層FLは、マイクロレンズ層LにおいてマイクロレンズMLの下地となる層(下地層)であり、マイクロレンズMLの一部である。このため、平坦化層FLの厚みは一定の厚みであるが、マイクロレンズMLが集光した近赤外の波長帯域の光が到達する光軸方向の距離(深さ)は、配線層Wの表面側からのマイクロレンズML自体と平坦化層FLとを合わせた光軸方向の高さ(厚み)に依存することになる。
 図7Aおよび図7Bに示したように、マイクロレンズMLの形状は、楕円の一部として考えることができる。図7Aおよび図7Bでは、φ20μm、つまり、短軸が20μmで、長軸が26μmの楕円の一部がマイクロレンズMLの形状である場合を示している。なお、図7Aおよび図7Bでは、マイクロレンズMLとして考えることができる楕円における短軸の半分の長さ(短半径)の10μmと、長軸の半分の長さ(長半径)の13μmとの値を示している。マイクロレンズMLの高さは、平坦化層FLに光が入射する表面側の面からの高さである。そして、図7Aおよび図7Bでは、楕円の短軸が、平坦化層FLの表面側の面に沿っている。図7A及び図7Bに示した画素101の場合、マイクロレンズMLの高さは、長半径の長さ、つまり、13μmである。そして、マイクロレンズMLのアスペクト比は、楕円を表すそれぞれの値から、下式(6)によって計算することができる。
 マイクロレンズMLのアスペクト比
 =マイクロレンズMLの高さ/マイクロレンズMLの直径
 =長半径/短軸
 =13μm/20μm
 =0.65          ・・・(6)
 なお、16μm角の画素101にφ20μmのマイクロレンズMLを形成する場合、図6に示したように、画素101の垂直方向(図6の上下方向)および水平方向(図6の左右方向)の辺においてマイクロレンズMLの一部の領域がはみ出す。マイクロレンズMLにおいて画素101の領域からはみ出した一部の領域は、隣接する画素101に形成するマイクロレンズMLにおいて画素101の領域からはみ出した一部の領域と重複することになる。また、図6に示したように、画素101の対角線方向(図6の斜め45°の方向)には、画素101の一部にマイクロレンズMLが形成されない領域が存在する。このマイクロレンズMLが形成されない領域は、平坦化層FLのみとなる。図7A及び図7Bでは、マイクロレンズMLの下地となる平坦化層FLの光軸方向の高さ(厚み)を、2μmとしている。なお、平坦化層FLの厚みは、マイクロレンズMLの高さにかかわらず一定の厚み(ここでは、2μm)である。また、図7A及び図7Bでは、画素101を構成する配線層Wの厚み、つまり、開口部以外の領域の高さを3μmとしている。なお、マイクロレンズMLは、隣接する画素101に形成するマイクロレンズMLの一部の領域と重複する領域を大きくして、マイクロレンズMLが形成されない領域がなくなるように形成してもよい。つまり、マイクロレンズMLの直径を長くして、平坦化層FLのみが形成される領域がなくなるように形成してもよい。
 このような構成を有するマイクロレンズMLを形成した画素101において、シリコン基板Siの厚さ方向(深さ方向)における入射した近赤外の波長帯域の光の強度の変化をシミュレーションした結果の一例について説明する。図8は、本発明の実施形態の光電変換素子(画素101)を形成した撮像素子(距離画像センサ10)に入射した光(近赤外の波長帯域の光)の入射エネルギーの減衰をシミュレーションした結果の一例を表すグラフである。図8に示したシミュレーション結果のグラフは、図6、図7A、及び図7Bに示した画素101の構造およびマイクロレンズMLの形状において、シリコン基板Siの深さによって940nmの波長の近赤外光の強度が減衰する状態をシミュレーションし、近赤外光の強度の変化を相対値で表したグラフである。
 なお、シミュレーションをするにあたって、シリコン基板Si、つまり、シリコン(Si)における光の屈折率を3.59としている。マイクロレンズML(平坦化層FLを含む)の材料における光の屈折率を1.6としている。配線Wiとして形成されるアルミニウム(Al)における光の屈折率を1.66としている。画素101において絶縁材料として開口部などを含む配線層Wに形成される二酸化炭素シリコン(SiO)における光の屈折率を1.46としている。また、シミュレーションをするにあたって、シリコン(Si)における光の消衰係数を0.01、アルミニウムにおける光の消衰係数を8.71としている。
 また、図8には、比較のため、マイクロレンズMLの高さが15μm(アスペクト比=0.75)である場合と、19μm(アスペクト比=0.95)である場合とを併せて示している。なお、マイクロレンズMLのアスペクト比の変更に伴ってマイクロレンズML自体の高さが変わると、隣接する画素101に形成するマイクロレンズMLの領域と重複するマイクロレンズMLの光軸方向の高さ(厚み)、つまり、平坦化層FL以外の光軸方向の高さ(厚み)が変わる。また、隣接する画素101に形成するマイクロレンズMLの領域と重複するマイクロレンズMLの光軸方向の高さ(厚み)が変わると、隣接する画素101からの光の漏れ込み量、つまり、シミュレーションする対象の画素101の周辺に位置する画素101(図1に示す画素アレイにおける上下方向及び左右方向(つまり、垂直方向Vおよび水平方向H)において隣りに位置する画素)からの光の漏れ込み量も変わる。図8に示したシミュレーション結果は、マイクロレンズMLのアスペクト比の変更に伴う、隣接する画素101に形成するマイクロレンズMLの領域と重複するマイクロレンズMLの光軸方向の高さ(厚み)や、光の漏れ込み量を加味した結果である。つまり、図8に示したシミュレーション結果は、マイクロレンズML自体の高さ(マイクロレンズMLのアスペクト比)の変更に伴って変化するそれぞれのパラメータを反映させた結果である。
 マイクロレンズMLの高さが13μm(アスペクト比=0.65)である場合、図8に示したように、940nmの波長の近赤外光の強度は、シリコン基板Siの深さに対して指数関数的に低下している。これに対して、マイクロレンズMLの高さが15μm(アスペクト比=0.75)である場合、近赤外光の強度は、シリコン基板Siの深さが、例えば、図4に示した距離z0に相当する20μm位まではマイクロレンズMLの高さが13μmである場合と同様にシリコン基板Siの深さに対して指数関数的に低下する。さらに、この場合において、近赤外光の強度は、シリコン基板Siの深さが20μm位を超えた辺りから急激に低下する。また、マイクロレンズMLの高さが19μm(アスペクト比=0.95)である場合、近赤外光の強度は、シリコン基板Siの深さが6~7μm付近から急激に低下する。
 ここで、マイクロレンズMLの高さが15μmおよび19μmである場合において近赤外光の強度に急激に低下する原因は、マイクロレンズMLのアスペクト比を高くしすぎると、マイクロレンズMLの集光点、つまり、焦点位置を過ぎて拡散する近赤外光が多くなることを表している。この集光点を過ぎた後の近赤外光の拡散は、シリコン基板Siにおいて深い位置まで形成したN型半導体領域における電子の発生の効率が低下する、つまり、フォトダイオードPDにおける近赤外の波長帯域の光に対する感度が低下する要因となる。このため、図8に示したシミュレーション結果の一例では、図6、図7A、及び図7Bに示した画素101の構造における適切なマイクロレンズMLの厚み(アスペクト比)は、高さ13μm(アスペクト比=0.65)であるということができる。
 なお、実際に上式(2)を満足するようなマイクロレンズMLの厚み(アスペクト比)を決定する際には、シミュレーションにおいて設定するそれぞれのパラメータの精度を高くすることが考えられる。しかし、図8に示したように、シミュレーションのパラメータを簡易的に設定した場合でも、シリコン基板Siの深さに対する近赤外光の強度が減衰する状態、つまり、強度の変化を確認することはできる。
 次に、比較のため、一般的な表面照射型の画像センサの画素に形成するマイクロレンズと、本実施形態の距離画像センサ10の画素101に形成するマイクロレンズMLとの高さの違いによるシリコン基板Siの厚さ方向(深さ方向)の光の強度の変化の違いの一例について説明する。図9A及び図8Bは、撮像素子に入射した光の入射エネルギーの減衰を比較するシミュレーションの結果の一例を表すグラフである。図9A及び図8Bに示したシミュレーション結果のグラフには、図8に示したシミュレーション結果と、マイクロレンズMLの高さを、一般的な画像センサの画素に形成するマイクロレンズの高さとした場合におけるシミュレーション結果とを併せて示している。つまり、図9A及び図8Bに示したシミュレーション結果は、シリコン基板Siの深さによって940nmの波長の近赤外光の強度が減衰する状態をシミュレーションした結果である。図9Aには、シリコン基板Siの深さに対する近赤外光の強度の変化を相対値で表したグラフを示し、図9Bには、シリコン基板Siの深さに対する近赤外光の強度の変化を絶対値で表したグラフを示している。
 図9Aおよび図9Bに示したシミュレーション結果では、画素101に形成するマイクロレンズMLの高さを13μm(アスペクト比=0.65)とし、一般的な画像センサの画素に形成するマイクロレンズの高さを3μm(アスペクト比=0.15)としている。なお、図9Aおよび図9Bに示したシミュレーション結果も、マイクロレンズMLの高さ以外のパラメータは、図8に示したシミュレーション結果と同じにしている。
 図9Aに示したように、近赤外光の強度の変化を相対値で表すと、マイクロレンズMLの高さが13μm(アスペクト比=0.65)である場合と、マイクロレンズの高さが3μm(アスペクト比=0.15)である場合とで、シリコン基板Siの深さに対する近赤外光の強度の変化は類似している。つまり、マイクロレンズMLの高さが13μmであっても3μmであっても、940nmの波長の近赤外光の強度は、シリコン基板Siの深さに対して同様に指数関数的に低下している。
 しかしながら、図9Bに示したように、近赤外光の強度の変化を絶対値で表すと、マイクロレンズの高さが3μmである場合における近赤外光の強度は、マイクロレンズMLの高さが13μmである場合における近赤外光の強度よりも、全体的に低下している。より具体的には、画素101に入射する近赤外光の強度を100%とした場合、シリコン基板Siに光が入射する表面(第一面)における近赤外光の強度は、マイクロレンズMLの高さが13μmである場合には70%以上であるのに対して、マイクロレンズの高さが3μmである場合には40%である。この理由は、マイクロレンズの高さが3μmである場合、マイクロレンズMLのアスペクト比が低いことにより、マイクロレンズMLによる光の集光が弱く(集光特性が低く)、シリコン基板Siの第一面に到達するまでに透過する配線層Wの領域で、近赤外光が多く減衰するからである。このため、マイクロレンズの高さが3μmである場合にシリコン基板Siの第一面に到達する近赤外光の光量は、マイクロレンズの高さが13μmである場合に比べて少なくなり、その分の強度が低くなる。
 なお、上述したように、画素101では、フォトダイオードPDのN型半導体領域をシリコン基板Siにおける深い位置まで形成し、マイクロレンズMLを、上式(2)を満足するような厚み(アスペクト比)に決定する必要がある。つまり、画素101では、シリコン基板Siの第一面上の予め定めた領域(ここでは、開口部の領域)に入射する光の入射エネルギーAを、画素101に入射する光の入射エネルギーIの50%以上にする必要がある。このため、図9A及び図9Bに示したシミュレーション結果から、一般的な画像センサの画素に形成する高さが3μmであるようなアスペクト比が小さいマイクロレンズMLは、上式(2)を満たさず、画素101の構造における適切な厚み(アスペクト比)のマイクロレンズMLではないことを確認することができる。
 このように、距離画像センサ10では、シミュレーションによって、マイクロレンズMLの厚みが画素101に適切な厚み(アスペクト比)であるか否かを確認することができる。つまり、距離画像センサ10では、複数の画素101のそれぞれに形成されるマイクロレンズMLが、N型半導体領域の深さを一般的な表面照射型の画像センサに形成するフォトダイオードにおけるN型半導体領域の深さよりも深くしたフォトダイオードPDにおいて、近赤外の波長帯域の光に対する感度を向上させるために適切な厚み(アスペクト比)であるか否かを確認することができる。
 このように、距離画像センサ10では、フォトダイオードPDを構成するN型半導体領域の深さと、マイクロレンズMLの適切な厚み(アスペクト比)とによって、複数の画素101のそれぞれにおける近赤外の波長帯域の光に対する感度を向上させることができる。
 これにより、距離画像センサ10を搭載した本発明の実施形態に係る撮像システムでは、タイム・オブ・フライト(TOF)の技術を用いた物体との距離の計測を、より高精度に行うことができる。ここで、本発明の実施形態に係る撮像システムについて説明する。
 図10は、本発明の実施形態の撮像素子(距離画像センサ10)を搭載した本発明の実施形態の撮像システムの概略構成を示したブロック図である。図10に示した本発明の実施形態の撮像システムであるTOFセンサモジュール1は、光源部2と、受光部3とを備えている。また、光源部2は、光源装置21と、拡散板22とを備えている。また、受光部3は、距離画像センサ10と、レンズ31とを備えている。なお、図10には、本発明の実施形態の撮像システムであるTOFセンサモジュール1において距離を計測する物体Oも併せて示している。
 図10に示した構成を有するTOFセンサモジュール1では、光源部2から近赤外の波長帯域の光パルスPLを物体Oに照射する。そして、TOFセンサモジュール1では、受光部3が、物体Oによって反射された光パルスPLの反射光RLを受光し、物体Oとの距離を計測するための信号(以下、「計測信号」という)を出力する。
 光源部2は、TOFセンサモジュール1において距離を計測する対象の物体Oに光パルスPLを照射する。光源部2は、例えば、垂直共振器面発光レーザー(VCSEL:Vertical Cavity Surface Emitting Laser)などの面発光型の半導体レーザーモジュールである。光源装置21は、物体Oに照射する光パルスPLとなる近赤外の波長帯域(例えば、波長が850nm~940nmの波長帯域)のレーザー光を発光する光源である。光源装置21は、例えば、半導体レーザー発光素子である。光源装置21は、不図示の光源制御部からの制御に応じて、パルス状のレーザー光を発光する。拡散板22は、光源装置21が発光した近赤外の波長帯域のレーザー光を、物体Oに照射する面の広さに拡散する光学レンズである。拡散板22が拡散したパルス状のレーザー光が、光パルスPLとして光源部2から出射されて、物体Oに照射される。
 受光部3は、TOFセンサモジュール1において距離を計測する対象の物体Oによって反射された光パルスPLの反射光RLを受光し、受光した反射光RLに応じた計測信号を出力する。レンズ31は、入射した反射光RLを距離画像センサ10に導く光学レンズである。レンズ31は、入射した反射光RLを距離画像センサ10側に出射して、距離画像センサ10に備えた受光領域100の全面、つまり、受光領域100に配置された複数の画素101のそれぞれに受光(入射)させる。
 このような構成によって、TOFセンサモジュール1では、光源部2が物体Oに照射した近赤外の波長帯域の光パルスPLが物体Oによって反射された反射光RLを受光部3が受光し、受光部3に備えた距離画像センサ10が、物体Oとの距離を計測するための計測信号を出力する。
 なお、TOFセンサモジュール1では、光源部2による光パルスPLの照射や、受光部3による反射光RLの受光が、例えば、TOFセンサモジュール1の外部または内部に備えた不図示のモジュール制御部によって行われる。より具体的には、光源部2が物体Oに照射する光パルスPLのパルスの周期や、受光部3に備えた距離画像センサ10が反射光RLを受光するタイミングが、不図示のモジュール制御部によって行われる。また、TOFセンサモジュール1(より具体的には、距離画像センサ10)が出力した計測信号は、例えば、TOFセンサモジュール1の外部または内部に備えた不図示の距離画像処理部によって処理され、物体Oを含む二次元の画像と、物体Oとの距離の情報が生成される。なお、不図示の距離画像処理部は、例えば、物体Oとの距離の情報を色分けして示した、物体Oを含む二次元の画像(距離画像)を生成してもよい。
 上記に述べたように、本発明の実施形態によれば、本発明の撮像素子(距離画像センサ)となるシリコン基板において、受光領域に配置する画素を構成する本発明の光電変換素子(画素)の構造を、近赤外の波長帯域の光に適した構造にする。より具体的には、光電変換素子を形成する際に、光電変換素子を構成するN型半導体領域がシリコン基板に広がる深さ(厚さ)を、一般的な表面照射型の画像センサの画素において形成する光電変換素子におけるN型半導体領域よりも深くまで広がるように形成する。これにより、本発明の実施形態の撮像素子では、複数の画素のそれぞれを構成する光電変換素子において、近赤外の波長帯域の光に対する感度を向上させることができる。つまり、本発明の実施形態の撮像素子では、入射した近赤外の波長帯域の光の量(光量)をより正確に表した信号を出力することができる。
 また、本発明の実施形態では、本発明の撮像素子を搭載した本発明の撮像システム(TOFセンサモジュール1)が、撮像素子が出力した近赤外の波長帯域の光の量(光量)をより正確に表した信号を出力する。これにより、本発明の撮像素子を搭載した本発明の撮像システムでは、タイム・オブ・フライト(TOF)の技術を用いて、より高精度に物体との距離の計測が行える計測信号を出力することができる。
 なお、本発明の実施形態では、本発明の撮像素子が、表面照射型の画像センサに相当する構造である場合について説明した。しかし、本発明の撮像素子の構造は、本発明の実施形態において示した表面照射型の画像センサに相当する構造に限定されない。つまり、一般的な画像センサには、表面照射型の画像センサの他に、裏面照射(BSI:BackSide illumination)型の画像センサもある。従って、本発明の撮像素子の構造も、裏面照射型の画像センサに相当する構造にすることもできる。なお、本発明の撮像素子の構造が裏面照射型の画像センサに相当する構造である場合においても、本発明の光電変換素子を形成する際の考え方は、本発明の実施形態において示した考え方と同様である。そして、この場合の本発明の撮像素子の構造は、一般的な裏面照射型の画像センサの構造から容易に考えることができる。このため、本発明の撮像素子が裏面照射型の画像センサに相当する構造である場合における詳細な説明は省略する。
 また、本発明の実施形態では、本発明の撮像素子において受光領域に配置する画素の構成が、1つのゲート電極Gと1つのフローティングディフュージョンFDとの組によって、本発明の光電変換素子が発生して蓄積した信号電荷を転送して蓄積する構成である場合について説明した。しかし、本発明の撮像素子において受光領域に配置した画素に備えるゲート電極GとフローティングディフュージョンFDとの組は、本発明の実施形態において示した1組に限定されない。つまり、本発明の撮像素子において受光領域に配置する画素を、2組以上のゲート電極GとフローティングディフュージョンFDとの組を備える構成にすることもできる。これにより、2組以上のゲート電極GとフローティングディフュージョンFDとの組を備えた画素が配置された本発明の撮像素子では、本発明の光電変換素子が発生して蓄積した信号電荷を、それぞれのフローティングディフュージョンFDに振り分けて転送して蓄積させることができる。つまり、2組以上のゲート電極GとフローティングディフュージョンFDとの組を備えた画素が配置された本発明の撮像素子では、本発明の光電変換素子が発生して蓄積した高感度の信号電荷を、より有効に活用することができる。このことにより、2組以上のゲート電極GとフローティングディフュージョンFDとの組を備えた画素が配置された本発明の撮像素子を搭載した本発明の撮像システムでは、タイム・オブ・フライト(TOF)の技術を用いた距離の計測の精度を、より向上させることができる。
 また、本発明の実施形態では、本発明の撮像素子において受光領域に配置する画素を構成する本発明の光電変換素子が、入射した光の量(光量)に応じた電子を信号電荷として発生して蓄積する形式の光電変換素子である場合について説明した。しかし、本発明の光電変換素子は、本発明の実施形態において示した電子を信号電荷として発生して蓄積する形式に限定されない。つまり、一般的な画像センサにおいて配置される画素を構成する光電変換素子は、電子を信号電荷とする形式のみではなく、入射した光の量(光量)に応じた正孔(いわゆる、ホール)を信号電荷として発生して蓄積する形式の光電変換素子もある。従って、本発明の光電変換素子も、正孔(ホール)を信号電荷として発生して蓄積する形式にすることもできる。なお、本発明の光電変換素子が正孔(ホール)を信号電荷として発生して蓄積する形式である場合においても、本発明の光電変換素子を形成する際の考え方は、本発明の実施形態において示した考え方と同様である。そして、この場合の本発明の光電変換素子の構造は、本発明の実施形態の説明において電子を正孔(ホール)に置き換えることによって、シリコン基板SiやフォトダイオードPDにおける半導体の導電型を含めて、容易に考えることができる。このため、本発明の光電変換素子が正孔(ホール)を信号電荷として発生して蓄積する形式である場合における詳細な説明は省略する。
 以上、本発明の実施形態について、図面を参照して説明してきたが、具体的な構成はこの実施形態に限定されるものではなく、本発明の趣旨を逸脱しない範囲においての種々の変更も含まれる。
1・・・TOFセンサモジュール
2・・・光源部
21・・・光源装置
22・・・拡散板
3・・・受光部
31・・・レンズ
10・・・距離画像センサ
101・・・画素(光電変換素子)
Si・・・シリコン基板
PD・・・フォトダイオード(光電変換部)
FD・・・フローティングディフュージョン
G・・・ゲート電極
W・・・配線層
Wi・・・配線
FS・・・第一面
L・・・マイクロレンズ層
ML・・・マイクロレンズ
FL・・・平坦化層
e-・・・電子
PL・・・光パルス
RL・・・反射光
O・・・物体
110a,110b,110c・・・領域
120a,120b・・・側面
I,A,B(z),B(z0)・・・入射エネルギー

Claims (7)

  1.  所定の波長帯域の光を出射する光源を用いて前記光が物体で反射された反射光を受光する光電変換素子であって、
     前記反射光が入射する表面である第一面と、第一導電型半導体で構成された第一半導体領域と、前記第一導電型半導体とは導電型が異なる第二導電型半導体で構成されかつ前記第一面に垂直な方向において前記第一面から内部に向けて広がるように形成された第二半導体領域と、を有する基板と、
     前記基板の前記第一面側に配置されて前記反射光を前記第二半導体領域に集光させる光学素子と、
     を有し、
     前記光電変換素子に入射する前記反射光の入射エネルギーをI、
     前記光源の平均波長をλとしたときの前記基板における前記反射光の吸収係数をα(λ)、
     前記第一面上の予め定めた領域における前記反射光の入射エネルギーをA1、
     前記光電変換素子が前記光学素子を有さない場合における前記第一面上の前記予め定めた領域における前記反射光の入射エネルギーをA2、
     前記予め定めた領域から前記基板の厚さ方向に所定の距離zだけ平行移動した領域における前記反射光の入射エネルギーをB(z)、
     としたとき、
      A1≧A2を満たし、かつ、距離z0=ln(2)/α(λ)としたとき、z=z0において、
      0.95*exp(-α(λ)*z)≦B(z)/A≦1.05*exp(-α(λ)*z)の関係式が成り立つ、
     光電変換素子。
  2.  所定の波長帯域の光を出射する光源を用いて前記光が物体で反射された反射光を受光する光電変換素子であって、
     前記反射光が入射する表面である第一面と、第一導電型半導体で構成された第一半導体領域と、前記第一導電型半導体とは導電型が異なる第二導電型半導体で構成されかつ前記第一面に垂直な方向において前記第一面から内部に向けて広がるように形成された第二半導体領域と、を有する基板と、
     前記基板の前記第一面側に配置されて前記反射光を前記第二半導体領域に集光させる光学素子と、
     を有し、
     前記光電変換素子に入射する前記反射光の入射エネルギーをI、
     前記光源の平均波長をλとしたときの前記基板における前記反射光の吸収係数をα(λ)、
     前記第一面上の予め定めた領域における前記反射光の入射エネルギーをA1、
     前記光電変換素子が前記光学素子を有さない場合における前記第一面上の前記予め定めた領域における前記反射光の入射エネルギーをA2、
     前記予め定めた領域から前記基板の厚さ方向に所定の距離zだけ平行移動した領域における前記反射光の入射エネルギーをB(z)、
     としたとき、
      A1≧A2を満たし、かつ、距離z0=ln(2)/α(λ)としたとき、0≦z≦z0を満たす全てのzにおいて、
      0.95*exp(-α(λ)*z)≦B(z)/A≦1.05*exp(-α(λ)*z)の関係式が成り立つ、
     光電変換素子。
  3.  前記予め定めた領域は、前記第二半導体領域を前記第一面に対して垂直に投影した領域である、
     請求項1または請求項2に記載の光電変換素子。
  4.  前記波長帯域は、
     近赤外の波長帯域である、
     請求項1から請求項3のいずれか1項に記載の光電変換素子。
  5.  前記近赤外の波長帯域は、
     850nm~940nmの波長帯域である、
     請求項4に記載の光電変換素子。
  6.  所定の波長帯域の光を出射する光源を用いて前記光が物体で反射された反射光を受光する撮像素子であって、
     複数の画素が二次元の行列状に配置された受光領域を備える請求項1から請求項5のいずれか1項に記載の光電変換素子を有し、
     前記受光領域において、複数の画素は、互いに直交する第1方向及び第2方向に沿って配列されており、
     前記第1方向及び前記第2方向に沿って前記光学素子を切断したとき、互いに隣接する2つの前記光学素子の谷部の高さを第1高さとし、
     前記画素の対角線方向に沿って前記光学素子を切断したとき、互いに隣接する2つの前記光学素子の谷部の高さを第2高さとし、
     前記第1高さ及び前記第2高さは、互いに異なる、
     撮像素子。
  7.  所定の波長帯域の光を出射する光源部と、
     請求項6に記載の撮像素子と、
     前記光が物体で反射された反射光を受光する受光部と、
     を有する、
     撮像システム。
PCT/JP2020/032568 2019-08-30 2020-08-28 光電変換素子、撮像素子、および撮像システム WO2021039954A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080050057.6A CN114097085A (zh) 2019-08-30 2020-08-28 光电转换元件、摄像元件以及摄像系统
JP2021543032A JPWO2021039954A1 (ja) 2019-08-30 2020-08-28
US17/678,304 US20220278155A1 (en) 2019-08-30 2022-02-23 Photoelectric conversion element, image sensing device, and imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019157643 2019-08-30
JP2019-157643 2019-08-30

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/678,304 Continuation US20220278155A1 (en) 2019-08-30 2022-02-23 Photoelectric conversion element, image sensing device, and imaging system

Publications (1)

Publication Number Publication Date
WO2021039954A1 true WO2021039954A1 (ja) 2021-03-04

Family

ID=74685085

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/032568 WO2021039954A1 (ja) 2019-08-30 2020-08-28 光電変換素子、撮像素子、および撮像システム

Country Status (5)

Country Link
US (1) US20220278155A1 (ja)
JP (1) JPWO2021039954A1 (ja)
CN (1) CN114097085A (ja)
TW (1) TW202118034A (ja)
WO (1) WO2021039954A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7488946B2 (ja) 2022-07-18 2024-05-22 采▲ぎょく▼科技股▲ふん▼有限公司 イメージセンサ及びその製造方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064370A1 (ja) * 2008-12-01 2010-06-10 日本電気株式会社 半導体装置及びその製造方法
JP2011082329A (ja) * 2009-10-07 2011-04-21 Sony Corp 固体撮像装置、撮像装置および固体撮像装置の製造方法
JP2017120829A (ja) * 2015-12-28 2017-07-06 ルネサスエレクトロニクス株式会社 半導体装置およびその製造方法
WO2018191539A1 (en) * 2017-04-13 2018-10-18 Artilux Corporation Germanium-silicon light sensing apparatus ii

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010064370A1 (ja) * 2008-12-01 2010-06-10 日本電気株式会社 半導体装置及びその製造方法
JP2011082329A (ja) * 2009-10-07 2011-04-21 Sony Corp 固体撮像装置、撮像装置および固体撮像装置の製造方法
JP2017120829A (ja) * 2015-12-28 2017-07-06 ルネサスエレクトロニクス株式会社 半導体装置およびその製造方法
WO2018191539A1 (en) * 2017-04-13 2018-10-18 Artilux Corporation Germanium-silicon light sensing apparatus ii

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7488946B2 (ja) 2022-07-18 2024-05-22 采▲ぎょく▼科技股▲ふん▼有限公司 イメージセンサ及びその製造方法

Also Published As

Publication number Publication date
JPWO2021039954A1 (ja) 2021-03-04
US20220278155A1 (en) 2022-09-01
CN114097085A (zh) 2022-02-25
TW202118034A (zh) 2021-05-01

Similar Documents

Publication Publication Date Title
EP3896746B1 (en) Single-photon avalanche diode and manufacturing method, detector array, and image sensor
JP7039411B2 (ja) 光検出器、光検出システム、ライダー装置及び車
US20200029047A1 (en) Three-dimensional image sensor based on time of flight and electronic apparatus including the image sensor
WO2017104486A1 (en) Image sensor, image capturing system, and production method of image sensor
KR20210068585A (ko) 고감도 광자 혼합 구조물들 및 그 어레이들을 포함하는 고 양자 효율 가이거 모드 애벌란치 다이오드들
US11652176B2 (en) Semiconductor devices with single-photon avalanche diodes and light scattering structures with different densities
JP2016171308A (ja) 固体撮像素子およびそれを備える撮像装置
US20240105753A1 (en) Semiconductor devices with single-photon avalanche diodes and light spreading lenses
JP2015230950A (ja) アレイ型受光素子
WO2021039954A1 (ja) 光電変換素子、撮像素子、および撮像システム
CN114586160A (zh) 光接收元件和距离测量装置
JP2014022649A (ja) 固体撮像素子、撮像装置、及び電子機器
JP6862386B2 (ja) 光検出器、ライダー装置、及び光検出器の製造方法
US20220268697A1 (en) Electro-optical semi-transparent photonic up-converter
JP2018508998A (ja) センサ装置
US20190088812A1 (en) Photodetection element, photodetector and laser imaging detection and ranging apparatus
US11984519B2 (en) Semiconductor devices with single-photon avalanche diodes and hybrid isolation structures
US11336851B2 (en) Image sensing device
US20220367534A1 (en) Semiconductor devices with single-photon avalanche diodes and isolation structures
US20240055537A1 (en) Semiconductor Devices with Single-Photon Avalanche Diodes, Light Scattering Structures, and Multiple Isolation Structures
US20230197750A1 (en) Single-photon avalanche diode covered by multiple microlenses
US20210242263A1 (en) Image sensing device
TW202310378A (zh) 光檢測器、光檢測器之製造方法及電子機器
US20190157479A1 (en) Photodetection element, photodetector, photodetection system and laser imaging detection and ranging apparatus

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20858673

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021543032

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20858673

Country of ref document: EP

Kind code of ref document: A1