WO2023002592A1 - 固体撮像素子およびその製造方法、並びに電子機器 - Google Patents

固体撮像素子およびその製造方法、並びに電子機器 Download PDF

Info

Publication number
WO2023002592A1
WO2023002592A1 PCT/JP2021/027268 JP2021027268W WO2023002592A1 WO 2023002592 A1 WO2023002592 A1 WO 2023002592A1 JP 2021027268 W JP2021027268 W JP 2021027268W WO 2023002592 A1 WO2023002592 A1 WO 2023002592A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
solid
state imaging
imaging device
photoelectric conversion
Prior art date
Application number
PCT/JP2021/027268
Other languages
English (en)
French (fr)
Inventor
博 馬
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to PCT/JP2021/027268 priority Critical patent/WO2023002592A1/ja
Priority to JP2023536283A priority patent/JPWO2023002592A1/ja
Publication of WO2023002592A1 publication Critical patent/WO2023002592A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors

Definitions

  • the present disclosure relates to a solid-state imaging device, a manufacturing method thereof, and an electronic device, and in particular, a solid-state imaging device capable of suppressing dark current in a solid-state imaging device using a compound semiconductor, a manufacturing method thereof, and an electronic device. Regarding.
  • a solid-state imaging device using a compound semiconductor such as InGaAs as a photoelectric conversion layer is known (see Patent Document 1, for example).
  • a P-type diffusion region in which a P-type impurity such as Zn (zinc) is diffused is formed for each pixel as a pixel electrode for reading signal charges generated in the photoelectric conversion unit.
  • the present disclosure has been made in view of such circumstances, and is intended to suppress dark current in a solid-state imaging device using a compound semiconductor.
  • a solid-state imaging device is arranged between a photoelectric conversion layer containing a compound semiconductor, a pixel electrode for extracting an electric charge generated in the photoelectric conversion layer for each pixel, and the pixel electrode of each pixel. and a pixel separator.
  • a method for manufacturing a solid-state imaging device includes forming a pixel separation portion at a pixel boundary on a surface opposite to a light incident surface of a photoelectric conversion layer containing a compound semiconductor, and forming a pixel separation portion inside the pixel separation portion. and forming a pixel electrode for extracting the charge generated in the photoelectric conversion layer for each pixel.
  • An electronic device includes a photoelectric conversion layer containing a compound semiconductor, a pixel electrode for extracting electric charges generated in the photoelectric conversion layer for each pixel, and the pixel electrode disposed between each pixel. and a solid-state imaging device having a pixel separation section.
  • a photoelectric conversion layer containing a compound semiconductor, a pixel electrode for extracting electric charges generated in the photoelectric conversion layer for each pixel, and disposed between the pixel electrode of each pixel and a pixel separation section are provided.
  • a pixel separation portion is formed at a pixel boundary on a surface opposite to a light incident surface of a photoelectric conversion layer containing a compound semiconductor, and the photoelectric conversion layer is formed inside the pixel separation portion.
  • a pixel electrode is formed for extracting the generated charge for each pixel.
  • the solid-state imaging device and electronic equipment may be independent devices, or may be modules incorporated into other devices.
  • FIG. 1 is a cross-sectional view of a first embodiment of a pixel array region according to the present disclosure
  • FIG. FIG. 2 is a diagram for explaining the potential of a pixel in FIG. 1
  • FIG. 2A and 2B are diagrams illustrating a method of manufacturing the pixel of FIG. 1
  • FIG. FIG. 4 is a cross-sectional view of a second embodiment of a pixel array region according to the present disclosure
  • 6 is a diagram showing the pixel circuit of FIG. 5
  • FIG. It is a block diagram showing a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system
  • FIG. FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit;
  • the definitions of directions such as up and down in the following description are merely definitions for convenience of description, and do not limit the technical idea of the present disclosure. For example, if an object is observed after being rotated by 90°, the upper and lower sides are converted to the left and right when read, and if the object is observed after being rotated by 180°, the upper and lower sides are reversed and read.
  • FIG. 1 is a cross-sectional view of a first embodiment of a pixel array region according to the present disclosure.
  • the pixel array region 1 is configured by arranging pixels Px two-dimensionally in a matrix.
  • the pixel array region 1 shown in FIG. 1 shows a cross-sectional view of two pixels Px arranged horizontally or vertically. ing.
  • the pixel array region 1 is employed as a pixel array region of a solid-state imaging device that photoelectrically converts light in the visible region (eg, 380 nm to less than 780 nm) and short infrared region (eg, 780 nm to less than 2400 nm).
  • the pixel array region 1 is configured by laminating the element substrate 10 and the circuit substrate 30 .
  • a dashed line in FIG. 1 indicates a joint surface between the element substrate 10 and the circuit substrate 30 .
  • the element substrate 10 is a substrate that generates signal charges by photoelectrically converting light incident from the upper surface of FIG. 1 (the surface opposite to the circuit board 30 side).
  • the circuit board 30 is a board on which a readout circuit for reading signal charges generated in the element substrate 10 is formed.
  • the element substrate 10 has a semiconductor layer 11 .
  • the semiconductor layer 11 is configured by stacking, for example, a pixel electrode (pixel electrode layer) 12, a photoelectric conversion layer 13, and a barrier layer 14 from the circuit board 30 side.
  • the pixel electrode 12 functions as a lower electrode (first electrode) of two electrodes sandwiching the photoelectric conversion layer 13 from above and below, and transfers signal charges generated by the photoelectric conversion layer 13 to the circuit board 30 for each pixel Px. It is a semiconductor layer for reading out.
  • the upper surface, which is one surface of the pixel electrode 12 is connected to the photoelectric conversion layer 13
  • the lower surface, which is the other surface on the opposite side, is connected to the contact electrode 17 .
  • the pixel electrode 12 is made of the same compound semiconductor material as that of the photoelectric conversion layer 13, or a compound semiconductor material having a larger bandgap than the same compound semiconductor material, and is formed by diffusing a P-type impurity such as Zn (zinc).
  • InGaAs indium gallium arsenide
  • InP indium phosphide
  • the compound semiconductor material having a bandgap larger than that of the compound semiconductor material of the photoelectric conversion layer 13 can be used as the compound semiconductor material having a bandgap larger than that of the compound semiconductor material of the photoelectric conversion layer 13 .
  • the impurity concentration of the pixel electrode 12 formed of the P-type diffusion region is formed so as to gradually decrease from the contact electrode 17 side toward the photoelectric conversion layer 13 side.
  • the impurity concentration of the pixel electrode 12 is, from the side near the contact electrode 17, a high concentration region 21 having a first concentration (P++), which is the highest concentration, and a second concentration (P+), which is an intermediate concentration.
  • the region 22 is a low concentration region 23 having a third concentration (P-) lower than the second concentration.
  • the thickness of the pixel electrode 12 is, for example, about 100 nm to 500 nm.
  • a pixel separation portion 24 is formed in the pixel boundary portion of the same layer as the pixel electrode 12, and the pixel electrode 12 is electrically separated for each pixel Px. Although illustration is omitted, when the pixel array region 1 is viewed from above, the pixel separation section 24 is formed in a grid pattern and arranged so as to surround the rectangular pixel region. This makes it possible to read the signal charges generated in the photoelectric conversion layer 13 on a pixel-by-pixel basis.
  • the pixel separation section 24 can be formed of, for example, a metal film such as titanium (Ti), tungsten (W), or titanium nitride (TiN), or an oxide film such as silicon oxide (SiO 2 ).
  • the photoelectric conversion layer 13 is a layer that absorbs light of a predetermined wavelength to generate signal charges, and is made of a compound semiconductor material such as a III-V group semiconductor, for example. This photoelectric conversion layer 13 is provided on the entire surface of the pixel array region 1 in common to all the pixels Px, as shown in FIG.
  • Compound semiconductor materials constituting the photoelectric conversion layer 13 include, for example, InGaAs (indium gallium arsenide), InAsSb (indium arsenide antimony), InAs (indium arsenide), InSb (indium antimony), PbS (lead sulfide), PbSe ( lead selenide), GeAu (germanium gold) and HgCdTe (mercury cadmium telluride).
  • the photoelectric conversion layer 13 may be made of Ge (germanium).
  • photoelectric conversion of light with wavelengths from the visible region to the short infrared region is performed.
  • the thickness of the photoelectric conversion layer 13 is, for example, about 3000 nm to 10000 nm.
  • the barrier layer 14 is a semiconductor layer that is connected to the upper electrode 15 on the light incident surface side and arranged to prevent backflow of signal charges generated in the photoelectric conversion layer 13.
  • the barrier layer 14 is common to all the pixels Px. , are provided over the entire surface of the pixel array region 1 .
  • the barrier layer 14 is provided between the photoelectric conversion layer 13 and the upper electrode 15 and is in contact with them.
  • the barrier layer 14 is a region where electric charges discharged from the upper electrode 15 move, and is made of, for example, a compound semiconductor containing N-type impurities. For example, when holes are read from the pixel electrode 12 as signal charges, electrons move to the barrier layer 14 .
  • N-type InP indium phosphide
  • the thickness of the barrier layer 14 can be, for example, about 10 nm to 400 nm, preferably 100 nm or less.
  • An upper electrode 15 is provided on the upper side of the barrier layer 14 (light incident surface side) as an electrode common to each pixel Px, for example.
  • the upper electrode 15 is the upper electrode (second electrode) of the two electrodes sandwiching the photoelectric conversion layer 13 from above and below.
  • the upper electrode 15 discharges the charge that is not used as the signal charge among the charges generated in the photoelectric conversion layer 13 (cathode). For example, when holes are read from the pixel electrode 12 as signal charges, electrons can be discharged through the upper electrode 15 .
  • a predetermined bias voltage Va for example, is applied to the upper electrode 15 .
  • the upper electrode 15 is composed of a conductive film capable of transmitting incident light such as infrared rays, and can be made of, for example, ITO (Indium Tin Oxide) or ITiO (In 2 O 3 —TiO 2 ).
  • a passivation film 16 is formed on the upper side of the upper electrode 15 .
  • Materials for the passivation film 16 include, for example, silicon nitride (SiN), hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), zirconium oxide (ZrO 2 ), tantalum oxide (Ta 2 Ta 5 ), and titanium oxide. (TiO 2 ) or the like can be used.
  • the passivation film 16 also functions as an antireflection film.
  • a contact electrode 17 and a passivation film 18 are formed in the same layer on the circuit board 30 side of the semiconductor layer 11 .
  • the contact electrode 17 is connected to at least the high-concentration region 21 of the pixel electrode 12 on the upper surface on the semiconductor layer 11 side, and is connected to the pad electrode 19 on the lower surface on the circuit board 30 side.
  • the passivation film 18 is made of silicon nitride (SiN), hafnium oxide (HfO 2 ), aluminum oxide (Al 2 O 3 ), zirconium oxide (ZrO 2 ), tantalum oxide (Ta 2 Ta 5 ), similar to the passivation film 16 described above. ), titanium oxide (TiO 2 ), or the like.
  • the pad electrode 19 is made of copper (Cu), for example, in the interlayer insulating film 20 .
  • the pad electrodes 19 are electrically connected to the pad electrodes 32 of the circuit board 30 by metal bonding such as Cu--Cu bonding.
  • the interlayer insulating film 20 is also connected to the interlayer insulating film 34 on the circuit board 30 side by oxide film bonding in a planar region other than the CuCu bonding region.
  • the contact electrode 17 is made of, for example, titanium (Ti), tungsten (W), titanium nitride (TiN), platinum (Pt), gold (Au), germanium (Ge), palladium (Pd), zinc (Zn), nickel ( Ni) and aluminum (Al), or an alloy containing at least one of them.
  • the contact electrode 17 may be a single film of such constituent materials, or may be a laminated film in which two or more kinds are combined.
  • the contact electrode 17 is composed of a laminated film of titanium and tungsten.
  • the interlayer insulating film 20 is made of, for example, an inorganic insulating material.
  • inorganic insulating materials that can be used include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and hafnium oxide (HfO 2 ).
  • the circuit board 30 has a semiconductor substrate 31 made of a single crystal material such as single crystal silicon (Si).
  • a semiconductor substrate 31 is formed with a readout circuit for the pixel Px, specifically, a capacitive element, a reset transistor, an amplification transistor, a selection transistor, and the like. Details of the pixel circuit will be described later with reference to FIG. A part of the readout circuit for the pixel Px may be formed on the element substrate 10 side.
  • a pad electrode 32 and a contact electrode 33 for electrically connecting the pad electrode 32 and the semiconductor substrate 31 are formed on the semiconductor substrate 31 on the device substrate 10 side. Layers other than the electrodes 32 are filled with an interlayer insulating film 34 .
  • the interlayer insulating film 34 is made of, for example, an inorganic insulating material.
  • inorganic insulating materials that can be used include silicon nitride (SiN), aluminum oxide (Al 2 O 3 ), silicon oxide (SiO 2 ) and hafnium oxide (HfO 2 ).
  • the pixel Px for example, when light with wavelengths in the visible region and the infrared region is incident on the photoelectric conversion layer 13 via the passivation film 16 and the upper electrode 15, the light is photoelectrically converted in the photoelectric conversion layer 13. .
  • a predetermined voltage is applied to the contact electrode 17
  • a potential gradient is generated in the photoelectric conversion layer 13
  • one of the pairs of holes and electrons generated by photoelectric conversion moves to the pixel electrode 12 as a signal charge and is collected from the pixel electrode 12 to the contact electrode 17 .
  • This signal charge moves to the pixel circuit of the semiconductor substrate 31 through the pad electrodes 19 and 32 and is read out for each pixel Px.
  • Each pixel Px of the pixel array region 1 having the above pixel structure outputs a signal obtained by receiving light with wavelengths in the visible region and the short infrared region, for example.
  • the P-type impurity concentration of the pixel electrode 12 formed separately for each pixel is formed so as to gradually decrease from the contact electrode 17 side toward the photoelectric conversion layer 13 side. It is As a result, as shown in the potential diagram of FIG. 2, the electric field of the pixel electrode 12 is gently formed, so that the dark current can be suppressed. In other words, when the P-type diffusion region of the pixel electrode 12 is uniformly formed with a high impurity concentration, a strong electric field is generated, which causes deterioration of dark current. Current can be prevented.
  • the pixel electrode 12 is electrically isolated for each pixel Px by arranging the pixel isolation portion 24 at the pixel boundary in the same layer as the pixel electrode 12 . Thereby, the electrical characteristics of each pixel Px can be separated, and the pixel separability can be improved.
  • the P-type impurity of the pixel electrode 12 is diffused not only in the depth direction (the vertical direction in the drawing) of the element substrate 10 but also in the horizontal direction.
  • a pixel separation plane that is part of the pixel separation section 24 and spreads in the plane direction is formed. Portions 24A are patterned around pixel boundaries.
  • the material of the pixel separation plane portion 24A is, for example, an oxide film of silicon oxide (SiO 2 ), but may also be a metal film such as titanium (Ti) or tungsten (W).
  • a compound semiconductor layer 51 is formed by crystal growth on the upper surface of the pixel separation plane portion 24A and the upper surface of the photoelectric conversion layer 13 where the pixel separation plane portion 24A is not patterned. be done.
  • the material of the compound semiconductor layer 51 can be the same compound semiconductor material as that of the photoelectric conversion layer 13, such as InGaAs (indium gallium arsenide). Formation of the compound semiconductor layer 51 can be achieved by using, for example, a combination of metalorganic vapor phase epitaxy (MOVPE) and micro-area selective epitaxy (MCE).
  • MOVPE metalorganic vapor phase epitaxy
  • MCE micro-area selective epitaxy
  • a compound semiconductor layer 52 having a larger bandgap than the compound semiconductor material of the photoelectric conversion layer 13 is formed on the upper surface of the compound semiconductor layer 51 by crystal growth.
  • N-type InP indium phosphide
  • the material of the compound semiconductor layer 52 can be used as the material of the compound semiconductor layer 52 .
  • trenches 53 are formed by opening the pixel boundary portions of the compound semiconductor layers 51 and 52 until the pixel isolation plane portions 24A are exposed.
  • a pixel separation wall 24B separating the compound semiconductor layers 51 and 52 of each pixel Px is formed.
  • a pixel separation section 24 is constituted by the pixel separation wall 24B and the previously formed pixel separation plane section 24A.
  • a passivation film 18 is formed in a region other than the region where the contact electrode 17 (FIG. 1) is to be formed, and a mask 54 made of an oxide film or the like is formed on the upper surface of the passivation film 18. It is formed. Then, the compound semiconductor layers 51 and 52 are doped with P-type impurities such as Zn (zinc) through the opening regions of the mask 54 by thermal diffusion. As a result, the pixel electrode 12 is formed in the pixel region inside the pixel separation portion 24 in the plane direction.
  • P-type impurities such as Zn (zinc)
  • the high-concentration region 21, the medium-concentration region 22, and the low-concentration region 23 are formed from the side closer to the opening region of the mask 54.
  • FIG. Thereby, the semiconductor layer 11 including the pixel electrode 12, the photoelectric conversion layer 13, and the barrier layer 14 is completed.
  • F in FIG. 3 corresponds to the state in which FIG. 1 is reversed.
  • the semiconductor layer 11 of the element substrate 10 can be formed in the manner described above, and the impurity concentration of the pixel electrode 12 is formed so as to decrease stepwise from the contact electrode 17 toward the photoelectric conversion layer 13 .
  • the P-type impurity is diffused thickly in the depth direction by thermal diffusion, the P-type impurity is diffused widely in the lateral direction. prevented. That is, by arranging the pixel separating portion 24 at the pixel boundary, it is possible to prevent excessive diffusion in the horizontal direction and prevent leaks with adjacent pixels.
  • the pixel separation portion 24 by forming the pixel separation portion 24 with a substantially T-shaped cross-sectional structure composed of the pixel separation plane portion 24A and the pixel separation wall 24B, the low-concentration region 23 in the region opened by the pixel separation plane portion 24A is formed.
  • the uniformity of the impurity concentration is improved, and the flatness of the surface of the pixel electrode 12 in contact with the photoelectric conversion layer 13 is improved. As a result, variations in dark current characteristics can be reduced.
  • FIG. 4 is a cross-sectional view of a second embodiment of a pixel array region according to the present disclosure.
  • the pixel array region 1 of the second embodiment shown in FIG. 4 is different in that pixels Px and pixels Py are alternately arranged in the horizontal direction and the vertical direction, and is common in other respects.
  • the pixel array region 1 of the second embodiment is configured by arranging pixels Px and pixels Py in a checkered pattern.
  • the pixel Px has the same configuration as in the first embodiment.
  • the pixel Px reads signal charges (for example, holes) generated in the photoelectric conversion layer 13 and collected to the contact electrode 17 via the pixel electrode 12, and outputs them as pixel signals.
  • the pixel Py discharges signal charges (for example, holes) generated in the photoelectric conversion layer 13 and collected to the contact electrode 17 via the pixel electrode 12 as unnecessary charges without outputting them as pixel signals. Drain pixels.
  • the pixel separating portion 24 is formed larger in the planar direction, and as a result, the planar area of the pixel electrode 12 is larger than that of the pixel electrode 12 of the pixel Px. is also smaller. In other words, the pixel electrode 12 and the pixel separating portion 24 are formed in different areas in the plane direction between the pixel Px and the pixel Py.
  • the pixel separation section 24 is provided as in the first embodiment, and the impurity concentration of the pixel electrode 12 is set at the contact electrode 17 side. It is formed so that the thickness gradually decreases from the top toward the photoelectric conversion layer 13 side. As a result, the electric field of the pixel electrode 12 is gradually formed in the depth direction of the substrate, so that dark current can be suppressed.
  • the pixel separation section 24 improves the separation of pixels. Furthermore, in the second embodiment, crosstalk can be reduced by alternately arranging pixels Py, which are drain pixels that do not output pixel signals, and pixels Px, which are normal pixels that output pixel signals.
  • the pixel array region 1 of the second embodiment can be manufactured by a method similar to that of the first embodiment described with reference to FIG.
  • the pixel isolation portion 24 since the pixel isolation portion 24 is provided, the lateral diffusion of the P-type impurity can be prevented by the pixel isolation portion 24, so that the P-type impurity There is no need to care about the difference in the degree of diffusion of impurities in the lateral direction, and the process can be performed in a single process (diffusion process). That is, according to the pixel array region 1 of the second embodiment, the steps can be reduced and the diffusion controllability in the process is improved.
  • the pixel separation portion 24 is formed with a substantially T-shaped cross-sectional structure including the pixel separation plane portion 24A and the pixel separation wall 24B.
  • the pixel separation plane portion 24A extending in the plane direction may be omitted, and the pixel separation portion 24 may be formed only by the pixel separation wall 24B in the depth direction (vertical direction).
  • the depth (height) of the pixel separation wall 24B is the same as or deeper than the depth of the pixel electrode 12 .
  • the pixel electrode 12 of each pixel (pixel Px or pixel Py) can be separated, so that the above-described effect can be obtained.
  • the passivation film 16 is formed on the upper side of the upper electrode 15, which is the light incident surface side.
  • a color filter layer that transmits this light (wavelength light) may be arranged in a predetermined arrangement such as a Bayer arrangement.
  • an on-chip lens may be formed on the upper surface of the passivation film 16 or the color filter layer.
  • FIG. 5 shows a schematic configuration of a solid-state imaging device to which the technique of the present disclosure is applied.
  • the solid-state imaging device 100 in FIG. 5 is configured with a pixel array region 103 having a plurality of pixels 102 and a peripheral circuit region therearound.
  • the peripheral circuit area includes a vertical drive circuit 104, a column signal processing circuit 105, a horizontal drive circuit 106, an output circuit 107, a control circuit 108, and the like.
  • the configuration of the pixel array region 103 in which a plurality of pixels 102 are two-dimensionally arranged in a matrix the configuration of the pixel array region 1 according to the first embodiment shown in FIG. 1 and the configuration of the second embodiment shown in FIG.
  • the configuration of the pixel array region 1 according to is adopted.
  • the pixel array region 103 has the pixels Px in FIG.
  • the pixel array region 103 has the pixels Px and the pixels Py of FIG. 4 alternately arranged in the horizontal direction and the vertical direction.
  • a pixel 102 is provided. A specific circuit configuration of the pixel 102 will be described later with reference to FIG.
  • the control circuit 108 receives an input clock and data instructing the operation mode, etc., and outputs data such as internal information of the solid-state imaging device 100 . That is, the control circuit 108 generates clock signals and control signals that serve as references for the operations of the vertical drive circuit 104, the column signal processing circuit 105, the horizontal drive circuit 106, and the like, based on the vertical synchronization signal, horizontal synchronization signal, and master clock. do. The control circuit 108 outputs the generated clock signal and control signal to the vertical drive circuit 104, the column signal processing circuit 105, the horizontal drive circuit 106, and the like.
  • the vertical drive circuit 104 is composed of, for example, a shift register, selects a predetermined pixel drive wiring 110, supplies a pulse for driving the pixels 102 to the selected pixel drive wiring 110, and drives the pixels 102 row by row. do. That is, the vertical driving circuit 104 sequentially selectively scans each pixel 102 in the pixel array region 103 in the vertical direction row by row, and generates a pixel signal based on the signal charge generated by the photoelectric conversion unit of each pixel 102 according to the amount of light received. is supplied to the column signal processing circuit 105 through the vertical signal line 109 .
  • the column signal processing circuit 105 is arranged for each column of the pixels 102, and performs signal processing such as noise removal on the signals output from the pixels 102 of one row for each column.
  • the column signal processing circuit 105 performs signal processing such as CDS (Correlated Double Sampling) for removing pixel-specific fixed pattern noise and AD conversion.
  • the horizontal driving circuit 106 is composed of, for example, a shift register, and sequentially outputs horizontal scanning pulses to select each of the column signal processing circuits 105 in turn, and outputs pixel signals from each of the column signal processing circuits 105 to the horizontal signal line. 111 to output.
  • the output circuit 107 performs signal processing on signals sequentially supplied from each of the column signal processing circuits 105 through the horizontal signal line 111 and outputs the processed signals.
  • the output circuit 107 may perform only buffering, or may perform black level adjustment, column variation correction, various digital signal processing, and the like.
  • the input/output terminal 113 exchanges signals with the outside.
  • the solid-state imaging device 100 configured as described above is a CMOS image sensor called a column AD system in which column signal processing circuits 105 that perform CDS processing and AD conversion processing are arranged for each column. Further, the solid-state imaging device 100 having the configuration of the pixel array region 1 described above as the pixel array region 103 is, for example, a CMOS image sensor that outputs a captured image obtained by receiving light with wavelengths in the visible region and the short infrared region. sensor.
  • the solid-state imaging device 100 that employs the configuration of the pixel array region 1 described above can suppress dark current in each pixel 102 and can generate a high-quality captured image.
  • FIG. 6 shows a pixel circuit of each pixel 102 of the solid-state imaging device 100.
  • Each pixel 102 has a photoelectric conversion unit 121 , a capacitive element 122 , a reset transistor 123 , an amplification transistor 124 and a selection transistor 125 .
  • the photoelectric conversion unit 121 is made of a semiconductor thin film using a compound semiconductor such as InGaAs, and generates charges (signal charges) according to the amount of light received.
  • a predetermined bias voltage Va is applied to the photoelectric conversion unit 121 .
  • the photoelectric conversion section 121 corresponds to the photoelectric conversion layer 13 in FIG. 1, for example.
  • the photoelectric conversion unit 121 is formed, for example, on the element substrate 10 in FIG. 1, and the capacitive element 122, reset transistor 123, amplification transistor 124, and selection transistor 125 are formed on the circuit substrate 30 in FIG.
  • Capacitive element 122 accumulates charges generated by the photoelectric conversion unit 121 .
  • Capacitive element 122 can be configured to include at least one of PN junction capacitance, MOS capacitance, and wiring capacitance, for example.
  • the reset transistor 123 When the reset transistor 123 is turned on by the reset signal RST, the charge accumulated in the capacitor 122 is discharged to the source (ground), thereby resetting the potential of the capacitor 122 .
  • the amplification transistor 124 outputs a pixel signal corresponding to the accumulated potential of the capacitive element 122 . That is, the amplification transistor 124 constitutes a source follower circuit together with a load MOS (not shown) as a constant current source connected via the vertical signal line 109, and the level corresponding to the charge accumulated in the capacitive element 122 is increased. is output from the amplification transistor 124 to the column signal processing circuit 105 via the selection transistor 125 .
  • the selection transistor 125 is turned on when the pixel 102 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 102 to the column signal processing circuit 105 via the vertical signal line 109 .
  • Each signal line through which the selection signal SEL and the reset signal RST are transmitted corresponds to the pixel drive wiring 110 in FIG.
  • the technology of the present disclosure is not limited to application to solid-state imaging devices. That is, the present technology can be applied to an image capture unit (photoelectric conversion unit) such as an imaging device such as a digital still camera or a video camera, a mobile terminal device having an imaging function, or a copying machine using a solid-state imaging device as an image reading unit. It is applicable to general electronic equipment using a solid-state imaging device.
  • the solid-state imaging device may be formed as a single chip, or may be in the form of a module having an imaging function in which an imaging section and a signal processing section or an optical system are packaged together.
  • FIG. 7 is a block diagram showing a configuration example of an imaging device as an electronic device to which this technology is applied.
  • An imaging apparatus 200 in FIG. 7 includes an optical unit 201 including a lens group, a solid-state imaging device (imaging device) 202 adopting the configuration of the solid-state imaging device 100 in FIG. Processor) circuit 203 .
  • the imaging device 200 also includes a frame memory 204 , a display section 205 , a recording section 206 , an operation section 207 and a power supply section 208 .
  • DSP circuit 203 , frame memory 204 , display unit 205 , recording unit 206 , operation unit 207 and power supply unit 208 are interconnected via bus line 209 .
  • the optical unit 201 captures incident light (image light) from a subject and forms an image on the imaging surface of the solid-state imaging device 202 .
  • the solid-state imaging device 202 converts the amount of incident light imaged on the imaging surface by the optical unit 201 into an electric signal on a pixel-by-pixel basis, and outputs the electric signal as a pixel signal.
  • the solid-state imaging device 202 it is possible to use the solid-state imaging device 100 of FIG. 5, that is, the solid-state imaging device having the configuration of the pixel array region 1 of FIG. 1 or 4 as the pixel array region 103 and suppressing the dark current. can.
  • the display unit 205 is, for example, a panel type display device such as a liquid crystal panel or an organic EL (Electro Luminescence) panel, and displays moving images or still images captured by the solid-state imaging device 202 .
  • a recording unit 206 records a moving image or still image captured by the solid-state imaging device 202 in a recording medium such as a hard disk or a semiconductor memory.
  • the operation unit 207 issues operation commands for various functions of the imaging device 200 under the user's operation.
  • the power supply unit 208 appropriately supplies various power supplies as operating power supplies for the DSP circuit 203, the frame memory 204, the display unit 205, the recording unit 206, and the operation unit 207 to these supply targets.
  • the solid-state imaging device 100 having the structure of the pixel array region 1 described above as the solid-state imaging device 202 for example, dark current can be suppressed and image quality deterioration can be suppressed. Also, it is possible to improve the S/N ratio and achieve a high dynamic range. Therefore, even in the imaging device 200 such as a video camera, a digital still camera, and a camera module for a mobile device such as a mobile phone, it is possible to improve the image quality of the captured image.
  • FIG. 8 is a diagram showing a usage example of an image sensor using the solid-state imaging device 100 described above.
  • An image sensor using the solid-state imaging device 100 described above can be used, for example, in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as follows.
  • ⁇ Devices that capture images for viewing purposes, such as digital cameras and mobile devices with camera functions.
  • Devices used for transportation such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles.
  • Devices used in home appliances such as TVs, refrigerators, air conditioners, etc., to take pictures and operate devices according to gestures ⁇ Endoscopes, devices that perform angiography by receiving infrared light, etc.
  • Equipment used for medical and healthcare purposes such as surveillance cameras for crime prevention and cameras for personal authentication
  • microscopes used for beauty such as microscopes used for beauty
  • Sports such as action cameras and wearable cameras for use in sports ⁇ Cameras, etc. for monitoring the condition of fields and crops , agricultural equipment
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 9 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an exterior information detection unit 12030, an interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the information detection unit 12030 outside the vehicle.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 10 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • Forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 10 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the traveling path of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic braking control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle autonomously travels without depending on the operation of the driver.
  • automatic braking control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • an image sensor for example, the solid-state imaging device 100
  • the technology according to the present disclosure can be applied to the imaging unit 12031.
  • the technology according to the present disclosure is not limited to application to a solid-state imaging device that detects the distribution of the incident light amount of light with a wavelength in the visible region or the short infrared region and captures an image.
  • a solid-state imaging device that captures the distribution of the amount of incident light as an image, or in a broader sense, a solid-state imaging device such as a fingerprint detection sensor that detects the distribution of other physical quantities such as pressure and capacitance and captures the image as an image ( Physical quantity distribution detection device) can be applied to the whole.
  • the technology according to the present disclosure can also be applied to a solid-state imaging device that uses electrons as signal charges. can.
  • the conductivity types of the semiconductor layer 11, the semiconductor substrate 31, etc. are reversed, or the polarity of the applied bias voltage is reversed.
  • the technique of this disclosure can take the following configurations.
  • a photoelectric conversion layer containing a compound semiconductor a pixel electrode for extracting the charge generated in the photoelectric conversion layer for each pixel;
  • a solid-state imaging device comprising: a pixel separation section arranged between the pixel electrodes of each pixel.
  • the pixel electrode has an impurity concentration gradually reduced toward the photoelectric conversion layer.
  • the pixel separation section has a substantially T-shaped cross-sectional structure including a separation wall separating the pixel electrodes of each pixel and a planar section extending in a plane direction. .
  • a method for manufacturing a solid-state imaging device comprising: forming a pixel electrode for extracting electric charges generated in the photoelectric conversion layer for each pixel in a pixel region inside the pixel separation portion in a plane direction. (11) a photoelectric conversion layer containing a compound semiconductor; a pixel electrode for extracting the charge generated in the photoelectric conversion layer for each pixel; An electronic device, comprising: a solid-state image pickup device having a pixel separating portion disposed between the pixel electrodes of each pixel.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Electromagnetism (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本開示は、化合物半導体を用いた固体撮像素子において暗電流を抑制することができるようにする固体撮像素子およびその製造方法、並びに電子機器に関する。 固体撮像素子が、化合物半導体を含む光電変換層と、光電変換層で生成された電荷を画素毎に取り出す画素電極と、各画素の画素電極の間に配置された画素分離部とを備える。本開示の技術は、例えば、可視領域および短赤外領域の波長の光を光電変換する固体撮像素子等に適用できる。

Description

固体撮像素子およびその製造方法、並びに電子機器
 本開示は、固体撮像素子およびその製造方法、並びに電子機器に関し、特に、化合物半導体を用いた固体撮像素子において暗電流を抑制することができるようにした固体撮像素子およびその製造方法、並びに電子機器に関する。
 従来、光電変換層としてInGaAsなどの化合物半導体を用いた固体撮像素子が知られている(例えば、特許文献1参照)。このような固体撮像素子では、光電変換部で生成された信号電荷を読み出す画素電極として、例えばZn(亜鉛)等のP型不純物を拡散させたP型拡散領域が画素毎に形成される。
国際公開第2017/150167号
 しかしながら、画素電極としてのP型拡散領域により生じる強電界により、暗電流の悪化が懸念される。
 本開示は、このような状況に鑑みてなされたものであり、化合物半導体を用いた固体撮像素子において暗電流を抑制することができるようにするものである。
 本開示の第1の側面の固体撮像素子は、化合物半導体を含む光電変換層と、前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、各画素の前記画素電極の間に配置された画素分離部とを備える。
 本開示の第2の側面の固体撮像素子の製造方法は、化合物半導体を含む光電変換層の光入射面と反対側の面の画素境界に画素分離部を形成し、前記画素分離部の内側に、前記光電変換層で生成された電荷を画素毎に取り出す画素電極を形成する。
 本開示の第3の側面の電子機器は、化合物半導体を含む光電変換層と、前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、各画素の前記画素電極の間に配置された画素分離部を備える固体撮像素子を備える。
 本開示の第1および第3の側面においては、化合物半導体を含む光電変換層と、前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、各画素の前記画素電極の間に配置された画素分離部とが設けられる。
 本開示の第2の側面においては、化合物半導体を含む光電変換層の光入射面と反対側の面の画素境界に画素分離部が形成され、前記画素分離部の内側に、前記光電変換層で生成された電荷を画素毎に取り出す画素電極が形成される。
 固体撮像素子及び電子機器は、独立した装置であっても良いし、他の装置に組み込まれるモジュールであっても良い。
本開示に係る画素アレイ領域の第1実施の形態の断面図である。 図1の画素のポテンシャルを説明する図である。 図1の画素の製造方法を説明する図である。 本開示に係る画素アレイ領域の第2実施の形態の断面図である。 本開示の技術を適用した固体撮像素子の概略構成を示す図である。 図5の画素回路を示す図である。 本技術を適用した電子機器としての、撮像装置の構成例を示すブロック図である。 イメージセンサの使用例を示す図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、添付図面を参照しながら、本開示の技術を実施するための形態(以下、実施の形態という)について説明する。説明は以下の順序で行う。
1.画素アレイ領域の第1実施の形態
2.画素の製造方法
3.画素アレイ領域の第2実施の形態
4.固体撮像素子の全体構成例
5.電子機器への適用例
6.移動体への応用例
 なお、以下の説明で参照する図面において、同一又は類似の部分には同一又は類似の符号を付すことにより重複説明を適宜省略する。図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は実際のものとは異なる。また、図面相互間においても、互いの寸法の関係や比率が異なる部分が含まれている場合がある。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれる。
<1.画素アレイ領域の第1実施の形態>
 図1は、本開示に係る画素アレイ領域の第1実施の形態の断面図である。
 画素アレイ領域1は、画素Pxが行列状に2次元配置されて構成されており、図1に示される画素アレイ領域1は、水平方向または垂直方向に並んだ2つの画素Pxの断面図を示している。この画素アレイ領域1は、例えば、可視領域(例えば380nm以上780nm未満)および短赤外領域(例えば780nm以上2400nm未満)の波長の光を光電変換する固体撮像素子の画素アレイ領域として採用される。
 画素アレイ領域1は、素子基板10と回路基板30を積層して構成されている。図1の一点鎖線は、素子基板10と回路基板30との接合面を示している。
 素子基板10は、図1の上側の面(回路基板30側と反対の面)から入射される光を光電変換することにより信号電荷を生成する基板である。回路基板30は、素子基板10で生成された信号電荷を読み出す読み出し回路が形成される基板である。
 素子基板10は、半導体層11を有している。半導体層11は、回路基板30側から、例えば、画素電極(画素電極層)12、光電変換層13、および、バリア層14を積層して構成されている。
 画素電極12は、光電変換層13を上下に挟む2つの電極のうちの下側の電極(第1電極)として機能し、光電変換層13で生成された信号電荷を画素Px毎に回路基板30へ読み出すための半導体層である。画素電極12の一方の面である上面は、光電変換層13に接続され、反対側の他方の面である下面は、コンタクト電極17に接続されている。画素電極12は、光電変換層13と同一の化合物半導体材料、または、それよりもバンドギャップの大きい化合物半導体材料に、例えばZn(亜鉛)等のP型不純物を拡散して形成されたP型不純物の拡散領域で形成されている。光電変換層13と同一の化合物半導体材料としては、後述するように例えばInGaAs(インジウムガリウム砒素)等を用いることができる。また、光電変換層13の化合物半導体材料よりもバンドギャップの大きい化合物半導体材料としては、例えばInP(インジウムリン)を用いることができる。
 P型拡散領域で形成された画素電極12の不純物濃度は、コンタクト電極17側から光電変換層13側へ向かうに従って徐々に薄くなるように形成されている。例えば、画素電極12の不純物濃度は、コンタクト電極17に近い側から、最も高濃度である第1濃度(P++)の高濃度領域21、第1濃度よりも低い第2濃度(P+)の中濃度領域22、第2濃度よりも低い第3濃度(P-)の低濃度領域23となっている。画素電極12の厚みは、例えば、100nmないし500nm程度とされる。
 また、画素電極12と同一層の画素境界部分には画素分離部24が形成されており、画素電極12が画素Px毎に電気的に分離されている。図示は省略するが、画素アレイ領域1を平面視でみた場合、画素分離部24は、格子状に形成され、矩形の画素領域を囲むように配置されている。これにより、光電変換層13で生成された信号電荷を、画素単位に読み出すことが可能となる。画素分離部24は、例えば、チタン(Ti),タングステン(W),窒化チタン(TiN)等の金属膜、または、酸化ケイ素(SiO)等の酸化膜で形成することができる。
 光電変換層13は、所定の波長の光を吸収して、信号電荷を発生させる層であり、例えば、III-V族半導体などの化合物半導体材料により構成されている。この光電変換層13は、図1に示されるように、全ての画素Pxに共通して、画素アレイ領域1の全面に設けられている。光電変換層13を構成する化合物半導体材料としては、例えば、InGaAs(インジウムガリウム砒素),InAsSb(インジウム砒素アンチモン),InAs(インジウム砒素),InSb(インジムアンチモン),PbS(硫化鉛),PbSe(セレン化鉛),GeAu(ゲルマニウム金)およびHgCdTe(水銀カドミウムテルル)等が挙げられる。Ge(ゲルマニウム)により光電変換層13を構成するようにしてもよい。光電変換層13では、例えば、可視領域から短赤外領域の波長の光の光電変換がなされるようになっている。光電変換層13の厚みは、例えば、3000nmないし10000nm程度とされる。
 バリア層14は、光入射面側の上部電極15に接続して配置され、光電変換層13で生成された信号電荷の逆流を防止する半導体層であり、例えば、全ての画素Pxに共通して、画素アレイ領域1の全面に設けられている。バリア層14は、光電変換層13と上部電極15との間に設けられ、これらに接している。バリア層14は、上部電極15から排出される電荷が移動する領域であり、例えば、N型の不純物を含む化合物半導体により構成されている。例えば、正孔が、信号電荷として画素電極12から読み出される場合には、このバリア層14に電子が移動する。バリア層14の化合物半導体材料には、例えば、N型のInP(インジウムリン)を用いることができる。バリア層14の厚みは、例えば10nmないし400nm程度とすることができるが、100nm以下であることが好ましい。バリア層14の厚みを小さくすることにより、バリア層14に吸収される光が減り、光電変換層13の感度を向上させることが可能となる。
 バリア層14の上側(光入射面側)には、上部電極15が、例えば各画素Pxに共通の電極として設けられている。上部電極15は、光電変換層13を上下に挟む2つの電極のうちの上側の電極(第2電極)である。上部電極15は、光電変換層13で発生した電荷のうち、信号電荷として用いられない電荷を排出する(カソード)。例えば、正孔が、信号電荷として画素電極12から読み出される場合には、この上部電極15を通じて電子を排出することができる。この上部電極15には、例えば、所定のバイアス電圧Vaが印加されるようになっている。上部電極15は、例えば赤外線などの入射光を透過可能な導電膜により構成され、例えば、ITO(Indium Tin Oxide)またはITiO(In-TiO)等を用いることができる。
 上部電極15の上側には、パッシベーション膜16が形成されている。パッシベーション膜16の材料には、例えば、窒化シリコン(SiN)、酸化ハフニウム(HfO)、酸化アルミニウム(Al)、酸化ジルコニウム(ZrO)、酸化タンタル(TaTa)、酸化チタン(TiO)などを用いることができる。パッシベーション膜16は、反射防止膜としての機能も有する。
 半導体層11の回路基板30側には、コンタクト電極17とパッシベーション膜18が同一層に形成されている。コンタクト電極17は、半導体層11側の上面で画素電極12の高濃度領域21と少なくとも接続され、回路基板30側の下面でパッド電極19と接続されている。パッシベーション膜18は、上述したパッシベーション膜16と同様に、窒化シリコン(SiN)、酸化ハフニウム(HfO)、酸化アルミニウム(Al)、酸化ジルコニウム(ZrO)、酸化タンタル(TaTa)、酸化チタン(TiO)などで形成されている。パッド電極19は、層間絶縁膜20中に、例えば銅(Cu)により形成されている。パッド電極19は、回路基板30のパッド電極32と、Cu-Cu接合等の金属接合により電気的に接続されている。層間絶縁膜20も、CuCu接合領域以外の平面領域で、回路基板30側の層間絶縁膜34と、酸化膜接合により接続されている。
 コンタクト電極17は、例えば、チタン(Ti),タングステン(W),窒化チタン(TiN),白金(Pt),金(Au),ゲルマニウム(Ge),パラジウム(Pd),亜鉛(Zn),ニッケル(Ni)およびアルミニウム(Al)のうちのいずれかの単体、またはそれらのうちの少なくとも1種を含む合金により構成されている。コンタクト電極17は、このような構成材料の単膜であってもよく、あるいは、2種以上を組み合わせた積層膜であってもよい。例えば、コンタクト電極17は、チタンおよびタングステンの積層膜により構成されている。
 層間絶縁膜20は、例えば、無機絶縁材料により構成されている。この無機絶縁材料としては、例えば、窒化シリコン(SiN),酸化アルミニウム(Al),酸化ケイ素(SiO)および酸化ハフニウム(HfO)等を用いることができる。
 回路基板30は、例えば単結晶シリコン(Si)などの単結晶材料からなる半導体基板31を有している。半導体基板31には、画素Pxの読み出し回路、具体的には、容量素子、リセットトランジスタ、増幅トランジスタ、選択トランジスタ等が形成されている。画素回路の詳細については、図6を参照して後述する。なお、画素Pxの読み出し回路の一部は、素子基板10側に形成されてもよい。
 半導体基板31の素子基板10側には、パッド電極32と、パッド電極32と半導体基板31とを電気的に接続するコンタクト電極33が形成され、接合面から半導体基板31までのパッド電極32とパッド電極32以外の層は、層間絶縁膜34で埋められている。
 コンタクト電極33の材料は、上述したコンタクト電極17と同種の材料を用いることができる。ただし、コンタクト電極33とコンタクト電極17の材料は異なってもよい。層間絶縁膜34は、例えば、無機絶縁材料により構成されている。この無機絶縁材料としては、例えば、窒化シリコン(SiN),酸化アルミニウム(Al),酸化ケイ素(SiO)および酸化ハフニウム(HfO)等を用いることができる。
 画素Pxの動作を説明する。画素Pxでは、例えば可視領域および赤外領域の波長の光が、パッシベーション膜16および上部電極15等を介して光電変換層13へ入射されると、この光が光電変換層13において光電変換される。このとき、例えばコンタクト電極17に所定の電圧が印加されると、光電変換層13に電位勾配が生じ、光電変換により発生した正孔(ホール)および電子の対のうち一方の電荷(例えば正孔)が、信号電荷として画素電極12に移動し、画素電極12からコンタクト電極17へ収集される。この信号電荷が、パッド電極19,32を通じて半導体基板31の画素回路に移動し、画素Px毎に読み出される。
 以上の画素構造を有する画素アレイ領域1の各画素Pxは、例えば、可視領域および短赤外領域の波長の光を受光して得られる信号を出力する。
 画素アレイ領域1の画素Pxにおいては、画素毎に分離して形成された画素電極12のP型不純物濃度が、コンタクト電極17側から光電変換層13側へ向かうに従って段階的に薄くなるように形成されている。これにより、図2のポテンシャル図に示されるように、画素電極12の電界が緩やかに形成されるので、暗電流を抑制することができる。換言すれば、画素電極12のP型拡散領域を、高い不純物濃度で均一に形成した場合には強電界が発生し、暗電流悪化の要因となっていたが、そのような強電界起因の暗電流を防止することができる。
 また、画素Pxにおいては、画素電極12と同層の画素境界に画素分離部24を配置することにより、画素電極12が画素Px毎に電気的に分離されている。これにより、各画素Pxの電気特性を分離することができ、画素分離性を向上させることができる。
 また、後述するように、画素電極12のP型不純物拡散工程では、素子基板10の深さ方向(図中の縦方向)だけでなく、横方向にもP型不純物が拡散されるが、画素境界に画素分離部24が配置されたことにより、横方向の過剰拡散を防止する効果を奏し、隣接画素とのリークを防止することができる。
<2.画素の製造方法>
 図3を参照して、図1の画素Pxの製造方法について説明する。
 初めに、図3のAに示されるように、光電変換層13のバリア層14が形成された面と反対側の面に、画素分離部24の一部であって平面方向に拡がる画素分離平面部24Aが、画素境界を中心にパターニングされる。画素分離平面部24Aの材料は、例えば、酸化ケイ素(SiO)の酸化膜とするが、その他、チタン(Ti),タングステン(W)等の金属膜でもよい。
 次に、図3のBに示されるように、画素分離平面部24Aの上面と、画素分離平面部24Aがパターニングされていない光電変換層13の上面に、結晶成長により、化合物半導体層51が形成される。化合物半導体層51の材料は、光電変換層13と同じ化合物半導体材料とすることができ、例えば、InGaAs(インジウムガリウム砒素)とされる。化合物半導体層51の形成は、例えば、有機金属気相成長(MOVPE)と微小領域選択成長(MCE)を組み合わせて用いることで実現することができる。
 次に、図3のCに示されるように、化合物半導体層51の上面に、光電変換層13の化合物半導体材料よりもバンドギャップの大きい化合物半導体層52が、結晶成長により形成される。化合物半導体層52の材料には、例えば、N型のInP(インジウムリン)を用いることができる。
 次に、図3のDに示されるように、化合物半導体層51および52の画素境界部分を、画素分離平面部24Aが露出するまで開口することにより、トレンチ53が形成される。
 そして、図3のEに示されるように、形成されたトレンチ53に、画素分離平面部24Aと同一材料である酸化膜(SiO)を埋め込むことにより、画素分離部24の一部であって、各画素Pxの化合物半導体層51および52を隔てる画素分離壁24Bが形成される。この画素分離壁24Bと、先に形成された画素分離平面部24Aとにより、画素分離部24が構成される。
 次に、図3のFに示されるように、コンタクト電極17(図1)を形成する領域以外の領域に、パッシベーション膜18が形成され、パッシベーション膜18の上面に、酸化膜等によるマスク54が形成される。そして、マスク54の開口領域から、熱拡散を用いて、Zn(亜鉛)等のP型不純物が、化合物半導体層51および52にドーピングされる。その結果、画素分離部24の平面方向内側の画素領域に、画素電極12が形成される。熱拡散ではP型不純物は等方的に拡散されるため、マスク54の開口領域に近い側から、高濃度領域21、中濃度領域22、および、低濃度領域23が形成される。これにより、画素電極12、光電変換層13、および、バリア層14からなる半導体層11が完成する。図3のFは、図1を反転した状態に対応する。
 以上のようにして素子基板10の半導体層11を形成することができ、画素電極12の不純物濃度は、コンタクト電極17から光電変換層13へ向かうに従い、段階的に薄くなるように形成される。
 画素電極12の形成工程において、熱拡散によりP型不純物を深さ方向に厚く拡散させようとすると、P型不純物が横方向にも広く拡散されるが、横方向の拡散は画素分離部24により防止される。すなわち、画素境界に画素分離部24を配置したことにより、横方向の過剰拡散を防止し、隣接画素とのリークを防止することができる。
 また、画素分離部24を、画素分離平面部24Aと画素分離壁24Bとからなる略T字状の断面構造で形成されることにより、画素分離平面部24Aで開口された領域の低濃度領域23の不純物濃度の均一性が向上し、光電変換層13と接触する画素電極12の面の平坦性が改善される。これにより暗電流の特性バラツキを低減することができる。
<3.画素アレイ領域の第2実施の形態>
 図4は、本開示に係る画素アレイ領域の第2実施の形態の断面図である。
 図4において、上述した第1実施の形態と対応する部分については同一の符号を付してあり、その部分の説明は適宜省略する。
 図4に示される第2実施の形態の画素アレイ領域1は、画素Pxと画素Pyが、水平方向および垂直方向それぞれに交互に配置されている点で異なり、それ以外の点で共通する。第2実施の形態の画素アレイ領域1は、画素Pxと画素Pyそれぞれを市松状に配置して構成されている。
 画素Pxは、第1実施の形態と同様の構成である。画素Pxは、光電変換層13で生成され、画素電極12を介してコンタクト電極17へ収集された信号電荷(例えば正孔)を読み出し、画素信号として出力する。一方、画素Pyは、光電変換層13で生成され、画素電極12を介してコンタクト電極17へ収集された信号電荷(例えば正孔)を、画素信号として出力せずに、不要な電荷として排出するドレイン画素である。
 ドレイン画素としての画素Pyを画素Pxと比較すると、画素Pyでは、画素分離部24が、平面方向に大きく形成されており、その結果、画素電極12の平面領域が、画素Pxの画素電極12よりも小さくなっている。つまり、画素Pxと画素Pyとでは、画素電極12および画素分離部24の平面方向の形成領域が異なる。
 以上のように構成される第2実施の形態の画素アレイ領域1によれば、第1実施の形態と同様に、画素分離部24を備えるとともに、画素電極12の不純物濃度は、コンタクト電極17側から光電変換層13側へ向かうに従って徐々に薄くなるように形成されている。これにより、画素電極12の電界が基板深さ方向に緩やかに形成されるので、暗電流を抑制することができる。また、画素分離部24により、画素分離性が向上する。さらに第2実施の形態では、画素信号を出力しないドレイン画素である画素Pyと、画素信号を出力する通常画素である画素Pxとを交互に配置することで、クロストークを低減することができる。
 第2実施の形態の画素アレイ領域1は、図3で説明した第1実施の形態と同様の方法で製造することができる。
 ここで、仮に、画素分離部24を設けない場合の画素Pyと画素Pxを交互に配置した画素アレイ領域の製造方法について考える。画素分離部24を設けない場合には、画素Pyと画素Pxで画素電極12の平面領域が異なるので、開口領域を作り分けるとともに、画素Pyと画素Pxとで拡散度合いを異ならせる必要があるので2回の加工(拡散工程)が必要であった。
 これに対して、第2実施の形態の画素アレイ領域1では、画素分離部24を設けたことにより、P型不純物の横方向の拡散を画素分離部24で阻止することができるので、P型不純物の横方向の拡散度合いの違いを気にする必要がなく、1回の加工(拡散工程)で行うことができる。すなわち、第2実施の形態の画素アレイ領域1によれば、工程を削減することができ、プロセス上の拡散制御性も向上する。
<変形例>
 上述した画素Pxおよび画素Pyにおいては、画素分離部24が、画素分離平面部24Aと画素分離壁24Bとからなる略T字状の断面構造で形成されていた。しかしながら、平面方向に拡がる画素分離平面部24Aを省略して、深さ方向(縦方向)の画素分離壁24Bのみで、画素分離部24を形成してもよい。画素分離壁24Bの深さ(高さ)は、画素電極12の深さと同じか、それより深く形成される。この場合にも、各画素(画素Pxまたは画素Py)の画素電極12を分離することができるので、上述した効果を奏することができる。
 上述した画素Pxおよび画素Pyにおいては、光入射面側である上部電極15の上側には、パッシベーション膜16しか形成されていないが、R(赤)、G(緑)、またはB(青)いずれかの光(波長光)を透過させるカラーフィルタ層を、例えばベイヤ配列等の所定の配列で配置してもよい。さらに、パッシベーション膜16またはカラーフィルタ層の上面に、オンチップレンズを形成してもよい。
<4.固体撮像素子の全体構成例>
 図5は、本開示の技術を適用した固体撮像素子の概略構成を示している。
 図5の固体撮像素子100は、複数の画素102を有する画素アレイ領域103と、その周辺の周辺回路領域とを有して構成される。周辺回路領域には、垂直駆動回路104、カラム信号処理回路105、水平駆動回路106、出力回路107、制御回路108などが含まれる。
 複数の画素102を行列状に2次元配置した画素アレイ領域103の構成として、図1に示した第1実施の形態に係る画素アレイ領域1の構成や、図4に示した第2実施の形態に係る画素アレイ領域1の構成が採用される。画素アレイ領域103が画素アレイ領域1の第1実施の形態により構成される場合、画素アレイ領域103は、図1の画素Pxを画素102として有する。一方、画素アレイ領域103が画素アレイ領域1の第2実施の形態により構成される場合、画素アレイ領域103は、図4の画素Pxと画素Pyを水平方向および垂直方向それぞれに交互に配置して画素102とされている。画素102の具体的回路構成は、図6を参照して後述する。
 制御回路108は、入力クロックと、動作モードなどを指令するデータを受け取り、また固体撮像素子100の内部情報などのデータを出力する。すなわち、制御回路108は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路104、カラム信号処理回路105及び水平駆動回路106などの動作の基準となるクロック信号や制御信号を生成する。そして、制御回路108は、生成したクロック信号や制御信号を、垂直駆動回路104、カラム信号処理回路105及び水平駆動回路106等に出力する。
 垂直駆動回路104は、例えばシフトレジスタによって構成され、所定の画素駆動配線110を選択し、選択された画素駆動配線110に画素102を駆動するためのパルスを供給し、行単位で画素102を駆動する。すなわち、垂直駆動回路104は、画素アレイ領域103の各画素102を行単位で順次垂直方向に選択走査し、各画素102の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線109を通してカラム信号処理回路105に供給させる。
 カラム信号処理回路105は、画素102の列ごとに配置されており、1行分の画素102から出力される信号を列ごとにノイズ除去などの信号処理を行う。例えば、カラム信号処理回路105は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)およびAD変換等の信号処理を行う。
 水平駆動回路106は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路105の各々を順番に選択し、カラム信号処理回路105の各々から画素信号を水平信号線111に出力させる。
 出力回路107は、カラム信号処理回路105の各々から水平信号線111を通して順次に供給される信号に対し、信号処理を行って出力する。出力回路107は、例えば、バファリングだけする場合もあるし、黒レベル調整、列ばらつき補正、各種デジタル信号処理などが行われる場合もある。入出力端子113は、外部と信号のやりとりをする。
 以上のように構成される固体撮像素子100は、CDS処理とAD変換処理を行うカラム信号処理回路105が列ごとに配置されたカラムAD方式と呼ばれるCMOSイメージセンサである。また、画素アレイ領域103として、上述した画素アレイ領域1の構成を有する固体撮像素子100は、例えば、可視領域および短赤外領域の波長の光を受光して得られる撮像画像を出力するCMOSイメージセンサである。
 上述した画素アレイ領域1の構成を採用した固体撮像素子100は、各画素102において暗電流を抑制することができ、高画質の撮像画像を生成することができる。
 図6は、固体撮像素子100の各画素102の画素回路を示している。
 各画素102は、光電変換部121、容量素子122、リセットトランジスタ123、増幅トランジスタ124、及び、選択トランジスタ125を有する。
 光電変換部121は、例えばInGaAsなどの化合物半導体を用いた半導体薄膜からなり、受光した光量に応じた電荷(信号電荷)を生成する。光電変換部121には、所定のバイアス電圧Vaが印加されている。この光電変換部121は、例えば図1の光電変換層13に対応する。光電変換部121は、例えば、図1の素子基板10に形成され、容量素子122、リセットトランジスタ123、増幅トランジスタ124、及び、選択トランジスタ125は、図1の回路基板30に形成される。
 容量素子122は、光電変換部121で生成された電荷を蓄積する。容量素子122は、例えば、PN接合容量、MOS容量、または配線容量のいずれか1つを少なくとも含んで構成することができる。
 リセットトランジスタ123は、リセット信号RSTによりオンされたとき、容量素子122に蓄積されている電荷がソース(グランド)に排出されることで、容量素子122の電位をリセットする。
 増幅トランジスタ124は、容量素子122の蓄積電位に応じた画素信号を出力する。すなわち、増幅トランジスタ124は、垂直信号線109を介して接続されている定電流源としての負荷MOS(不図示)とソースフォロワ回路を構成し、容量素子122に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ124から選択トランジスタ125を介してカラム信号処理回路105に出力される。
 選択トランジスタ125は、選択信号SELにより画素102が選択されたときオンされ、画素102の画素信号を、垂直信号線109を介してカラム信号処理回路105に出力する。選択信号SEL、及びリセット信号RSTが伝送される各信号線は、図5の画素駆動配線110に対応する。
<5.電子機器への適用例>
 本開示の技術(本技術)は、固体撮像素子への適用に限られるものではない。即ち、本技術は、デジタルスチルカメラやビデオカメラ等の撮像装置や、撮像機能を有する携帯端末装置や、画像読取部に固体撮像素子を用いる複写機など、画像取込部(光電変換部)に固体撮像素子を用いる電子機器全般に対して適用可能である。固体撮像素子は、ワンチップとして形成された形態であってもよいし、撮像部と信号処理部または光学系とがまとめてパッケージングされた撮像機能を有するモジュール状の形態であってもよい。
 図7は、本技術を適用した電子機器としての、撮像装置の構成例を示すブロック図である。
 図7の撮像装置200は、レンズ群などからなる光学部201、図5の固体撮像素子100の構成が採用される固体撮像素子(撮像デバイス)202、およびカメラ信号処理回路であるDSP(Digital Signal Processor)回路203を備える。また、撮像装置200は、フレームメモリ204、表示部205、記録部206、操作部207、および電源部208も備える。DSP回路203、フレームメモリ204、表示部205、記録部206、操作部207および電源部208は、バスライン209を介して相互に接続されている。
 光学部201は、被写体からの入射光(像光)を取り込んで固体撮像素子202の撮像面上に結像する。固体撮像素子202は、光学部201によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。この固体撮像素子202として、図5の固体撮像素子100、すなわち、画素アレイ領域103として図1または図4の画素アレイ領域1の構成を有し、暗電流を抑制した固体撮像素子を用いることができる。
 表示部205は、例えば、液晶パネルや有機EL(Electro Luminescence)パネル等のパネル型表示装置からなり、固体撮像素子202で撮像された動画または静止画を表示する。記録部206は、固体撮像素子202で撮像された動画または静止画を、ハードディスクや半導体メモリ等の記録媒体に記録する。
 操作部207は、ユーザによる操作の下に、撮像装置200が持つ様々な機能について操作指令を発する。電源部208は、DSP回路203、フレームメモリ204、表示部205、記録部206および操作部207の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述したように、固体撮像素子202として、上述した画素アレイ領域1の構造を有する固体撮像素子100を用いることで、例えば、暗電流を抑制し、画質劣化を抑制することができる。また、S/N比の向上と高ダイナミックレンジを実現することができる。従って、ビデオカメラやデジタルスチルカメラ、さらには携帯電話機等のモバイル機器向けカメラモジュールなどの撮像装置200においても、撮像画像の高画質化を図ることができる。
<イメージセンサの使用例>
 図8は、上述の固体撮像素子100を用いたイメージセンサの使用例を示す図である。
 上述の固体撮像素子100を用いたイメージセンサは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
<6.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図9は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図9に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図9の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図10は、撮像部12031の設置位置の例を示す図である。
 図10では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図10には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、撮像部12031として、上述した画素アレイ領域1の構造を有するイメージセンサ(例えば固体撮像素子100)を適用することができる。撮像部12031に本開示に係る技術を適用することにより、小型化しつつも、より見やすい撮影画像を得ることができたり、距離情報を取得することができる。また、得られた撮影画像や距離情報を用いて、ドライバの疲労を軽減したり、ドライバや車両の安全度を高めることが可能になる。
 また、本開示に係る技術は、可視領域ないし短赤外領域の波長の光の入射光量の分布を検知して画像として撮像する固体撮像素子への適用に限らず、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像する固体撮像素子や、広義の意味として、圧力や静電容量など、他の物理量の分布を検知して画像として撮像する指紋検出センサ等の固体撮像素子(物理量分布検知装置)全般に対して適用可能である。
 本開示の実施の形態は、上述した実施の形態に限定されるものではなく、本開示の技術の要旨を逸脱しない範囲において種々の変更が可能である。
 上述した例では、光電変換層13において信号として扱う電荷(信号電荷)が正孔である場合について説明したが、本開示に係る技術は電子を信号電荷とする固体撮像素子にも適用することができる。この場合、半導体層11や半導体基板31等の各導電型を逆の導電型としたり、印加するバイアス電圧の正負が逆となる。
 例えば、上述した複数の実施の形態の全てまたは一部を組み合わせた形態を採用することができる。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、本明細書に記載されたもの以外の効果があってもよい。
 なお、本開示の技術は、以下の構成を取ることができる。
(1)
 化合物半導体を含む光電変換層と、
 前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、
 各画素の前記画素電極の間に配置された画素分離部と
 を備える固体撮像素子。
(2)
 前記画素電極は、前記光電変換層の方向へ向かって不純物濃度が徐々に薄く形成されている
 前記(1)に記載の固体撮像素子。
(3)
 前記画素分離部は、各画素の前記画素電極を隔てる分離壁と、平面方向に拡がる平面部とからなる略T字状の断面構造を有する
 前記(1)または(2)に記載の固体撮像素子。
(4)
 前記画素電極は、P型不純物の拡散領域で形成されている
 前記(1)乃至(3)のいずれかに記載の固体撮像素子。
(5)
 前記画素電極は、前記画素分離部と同一層に形成されている
 前記(1)乃至(4)のいずれかに記載の固体撮像素子。
(6)
 前記画素分離部は、酸化膜または金属膜で構成される
 前記(1)乃至(5)のいずれかに記載の固体撮像素子。
(7)
 前記画素電極から取り出した電荷を信号として出力する第1の画素と、
 前記画素電極から取り出した電荷を排出する第2の画素と
 を少なくとも有する画素アレイ領域を備える
 前記(1)乃至(6)のいずれかに記載の固体撮像素子。
(8)
 前記第2の画素の前記画素電極の平面領域は、前記第1の画素の前記画素電極の平面領域よりも小さく形成されている
 前記(7)に記載の固体撮像素子。
(9)
 前記第2の画素の前記画素分離部の平面領域は、前記第1の画素の前記画素分離部の平面領域よりも大きく形成されている
 前記(7)または(8)に記載の固体撮像素子。
(10)
 化合物半導体を含む光電変換層の光入射面と反対側の面の画素境界に画素分離部を形成し、
 前記画素分離部の平面方向内側の画素領域に、前記光電変換層で生成された電荷を画素毎に取り出す画素電極を形成する
 固体撮像素子の製造方法。
(11)
 化合物半導体を含む光電変換層と、
 前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、
 各画素の前記画素電極の間に配置された画素分離部 を備える固体撮像素子
 を備える電子機器。
 1 画素アレイ領域, 10 素子基板, 11 半導体層, 12 画素電極, 13 光電変換層, 14 バリア層, 15 上部電極, 16 パッシベーション膜, 17 コンタクト電極, 18 パッシベーション膜, 19 パッド電極, 20 層間絶縁膜, 21 高濃度領域, 22 中濃度領域, 23 低濃度領域, 24 画素分離部, 24A 画素分離平面部, 24B 画素分離壁, 30 回路基板, 31 半導体基板, 32 パッド電極, 33 コンタクト電極, 34 層間絶縁膜, 100 固体撮像素子, 102 画素, 103 画素アレイ領域, 200 撮像装置, 202 固体撮像素子, Px 画素, Py 画素

Claims (11)

  1.  化合物半導体を含む光電変換層と、
     前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、
     各画素の前記画素電極の間に配置された画素分離部と
     を備える固体撮像素子。
  2.  前記画素電極の不純物濃度は、前記光電変換層の方向へ向かって徐々に薄く形成されている
     請求項1に記載の固体撮像素子。
  3.  前記画素分離部は、各画素の前記画素電極を隔てる分離壁と、平面方向に拡がる平面部とからなる略T字状の断面構造を有する
     請求項1に記載の固体撮像素子。
  4.  前記画素電極は、P型不純物の拡散領域で形成されている
     請求項1に記載の固体撮像素子。
  5.  前記画素電極は、前記画素分離部と同一層に形成されている
     請求項1に記載の固体撮像素子。
  6.  前記画素分離部は、酸化膜または金属膜で構成される
     請求項1に記載の固体撮像素子。
  7.  前記画素電極から取り出した電荷を信号として出力する第1の画素と、
     前記画素電極から取り出した電荷を排出する第2の画素と
     を少なくとも有する画素アレイ領域を備える
     請求項1に記載の固体撮像素子。
  8.  前記第2の画素の前記画素電極の平面領域は、前記第1の画素の前記画素電極の平面領域よりも小さく形成されている
     請求項7に記載の固体撮像素子。
  9.  前記第2の画素の前記画素分離部の平面領域は、前記第1の画素の前記画素分離部の平面領域よりも大きく形成されている
     請求項7に記載の固体撮像素子。
  10.  化合物半導体を含む光電変換層の光入射面と反対側の面の画素境界に画素分離部を形成し、
     前記画素分離部の平面方向内側の画素領域に、前記光電変換層で生成された電荷を画素毎に取り出す画素電極を形成する
     固体撮像素子の製造方法。
  11.  化合物半導体を含む光電変換層と、
     前記光電変換層で生成された電荷を画素毎に取り出す画素電極と、
     各画素の前記画素電極の間に配置された画素分離部
     を備える固体撮像素子
     を備える電子機器。
PCT/JP2021/027268 2021-07-21 2021-07-21 固体撮像素子およびその製造方法、並びに電子機器 WO2023002592A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/027268 WO2023002592A1 (ja) 2021-07-21 2021-07-21 固体撮像素子およびその製造方法、並びに電子機器
JP2023536283A JPWO2023002592A1 (ja) 2021-07-21 2021-07-21

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/027268 WO2023002592A1 (ja) 2021-07-21 2021-07-21 固体撮像素子およびその製造方法、並びに電子機器

Publications (1)

Publication Number Publication Date
WO2023002592A1 true WO2023002592A1 (ja) 2023-01-26

Family

ID=84979034

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027268 WO2023002592A1 (ja) 2021-07-21 2021-07-21 固体撮像素子およびその製造方法、並びに電子機器

Country Status (2)

Country Link
JP (1) JPWO2023002592A1 (ja)
WO (1) WO2023002592A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011146602A (ja) * 2010-01-15 2011-07-28 Sumitomo Electric Ind Ltd 検出装置、受光素子アレイ、および、これらの製造方法
WO2013111637A1 (ja) * 2012-01-23 2013-08-01 ソニー株式会社 固体撮像装置、及び、固体撮像装置の製造方法、電子機器
JP2014138036A (ja) * 2013-01-15 2014-07-28 Sumitomo Electric Ind Ltd 受光デバイス、その製造方法、およびセンシング装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011146602A (ja) * 2010-01-15 2011-07-28 Sumitomo Electric Ind Ltd 検出装置、受光素子アレイ、および、これらの製造方法
WO2013111637A1 (ja) * 2012-01-23 2013-08-01 ソニー株式会社 固体撮像装置、及び、固体撮像装置の製造方法、電子機器
JP2014138036A (ja) * 2013-01-15 2014-07-28 Sumitomo Electric Ind Ltd 受光デバイス、その製造方法、およびセンシング装置

Also Published As

Publication number Publication date
JPWO2023002592A1 (ja) 2023-01-26

Similar Documents

Publication Publication Date Title
US11456325B2 (en) Imaging device, method for manufacturing imaging device, and electronic device
US20210313362A1 (en) Solid-state imaging device and electronic apparatus
US11509842B2 (en) Solid-state imaging element, method of driving solid-state imaging element, and electronic apparatus
US11240452B2 (en) Solid-state imaging device and electronic device including light-shielding film for suppression of light leakage to memory
KR102400664B1 (ko) 수광 소자, 수광 소자의 제조 방법, 촬상 소자 및 전자 기기
US11336860B2 (en) Solid-state image capturing device, method of driving solid-state image capturing device, and electronic apparatus
WO2019093150A1 (ja) 撮像素子、電子機器
WO2018088083A1 (ja) 受光素子、受光素子の製造方法および電子機器
CN116962905A (zh) 固态成像装置和电子设备
US11456323B2 (en) Imaging unit
WO2020045142A1 (ja) 撮像装置および電子機器
WO2022113757A1 (ja) 固体撮像装置及びその製造方法
WO2023002592A1 (ja) 固体撮像素子およびその製造方法、並びに電子機器
WO2023127110A1 (ja) 光検出装置及び電子機器
US20240014230A1 (en) Solid-state imaging element, method of manufacturing the same, and electronic device
US20230335656A1 (en) Photodetector
US10985202B2 (en) Solid-state imaging apparatus, electronic device, and driving method
WO2023090053A1 (ja) 光検出装置及び電子機器
WO2021145257A1 (ja) 撮像装置及び電子機器
CN117223105A (zh) 固态成像装置和电子设备
JP2020115516A (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2023536283

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18576852

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE