WO2023233873A1 - 光検出装置及び電子機器 - Google Patents

光検出装置及び電子機器 Download PDF

Info

Publication number
WO2023233873A1
WO2023233873A1 PCT/JP2023/016304 JP2023016304W WO2023233873A1 WO 2023233873 A1 WO2023233873 A1 WO 2023233873A1 JP 2023016304 W JP2023016304 W JP 2023016304W WO 2023233873 A1 WO2023233873 A1 WO 2023233873A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor layer
pixel
section
inter
light incident
Prior art date
Application number
PCT/JP2023/016304
Other languages
English (en)
French (fr)
Inventor
善敬 中山
匡 水本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023233873A1 publication Critical patent/WO2023233873A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/62Detection or reduction of noise due to excess charges produced by the exposure, e.g. smear, blooming, ghost image, crosstalk or leakage between pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the technology according to the present disclosure (present technology) relates to a photodetection device and an electronic device including the photodetection device.
  • the photodetector has pixels that are a combination of photodiodes (photoelectric conversion elements) and transistors that perform photoelectric conversion, and images are generated based on pixel signals output from a plurality of pixels arranged in a plane. Constructed.
  • the wiring layer is arranged on the opposite surface to the surface of the photoelectric conversion layer containing the photoelectric conversion element that is irradiated with light from the outside.
  • a portion of the light transmitted through the photoelectric conversion layer reaches the wiring layer and is reflected there, so that the reflected light enters adjacent pixels, causing color mixture.
  • NIR near-infrared
  • Si silicon
  • the solid-state imaging device of Patent Document 1 employs a moth-eye structure or an in-pixel STI structure, which promotes diffusion of incident light in the cross direction.
  • the present disclosure has been made in view of these circumstances, and provides a photodetection device and electronic equipment that can suppress the occurrence of diamond color mixing while leaving the moth-eye structure, element isolation structure within pixels, and wiring layout as they are.
  • the purpose is to
  • One aspect of the present disclosure includes a semiconductor layer in which a plurality of pixels capable of generating electrical signals in response to light incident from the outside are arranged in a matrix, and a semiconductor layer formed in the semiconductor layer to separate adjacent pixels.
  • an inter-pixel separation section the inter-pixel separation section includes a slit section extending in the row direction and a column direction, the slit section extending in the row direction and the slit section extending in the column direction. and an intersection where the two intersect with each other, the intersection has a first material embedded in the thickness direction of the semiconductor layer, and the slit is embedded in the thickness direction of the semiconductor layer.
  • a photodetecting device including a second material having a higher light reflectance than the first material.
  • Another aspect of the present disclosure includes a semiconductor layer in which a plurality of pixels capable of generating electrical signals in response to light incident from the outside are arranged in a matrix, and a semiconductor layer formed in the semiconductor layer to provide a connection between the adjacent pixels.
  • an inter-pixel separation section for separating the inter-pixel separation section including a slit section extending in the row direction and a column direction, the slit section extending in the row direction and the slit extending in the column direction.
  • the slit has a first material embedded in the thickness direction of the semiconductor layer, and the intersection has a first material embedded in the thickness direction of the semiconductor layer.
  • the present invention is an electronic device including a photodetecting device including a second material having a higher light reflectance than the first material.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of a photodetection device according to a first embodiment of the present disclosure.
  • 2 is a circuit configuration diagram of a pixel shown in FIG. 1.
  • FIG. FIG. 1 is a partial vertical cross-sectional view showing an example of a semiconductor structure of a photodetection device according to a first embodiment of the present disclosure.
  • FIG. 7 is a diagram for explaining, for each wavelength, how color mixture occurs in a pixel according to a comparative example.
  • FIG. 7 is a plan view showing a moth-eye structure of an interlayer film of a photodetector according to a comparative example.
  • FIG. 7 is a plan view showing an inter-pixel separation section of a photodetection device according to a comparative example.
  • FIG. 7 is a plan view showing an intra-pixel separation section of a photodetection device according to a comparative example.
  • FIG. 7 is a plan view showing a wiring layer of a photodetection device according to a comparative example.
  • FIG. 2 is a plan view showing how a plurality of pixels are separated by an inter-pixel separation section in the first embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (part 1) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 1 cross-sectional view showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (part 2) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (part 3) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 4 is a cross-sectional view (part 4) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 5 is a cross-sectional view (part 5) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 6 is a cross-sectional view (part 6) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (No. 7) illustrating the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 8 is a cross-sectional view (No. 8) showing the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 9 is a cross-sectional view (No. 9) illustrating the process steps of the method for manufacturing a photodetection device according to the second embodiment of the present disclosure.
  • FIG. 10 is a cross-sectional view (No.
  • FIG. 7 is a cross-sectional view (No. 11) showing the process steps of the method for manufacturing a photodetecting device according to the second embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (part 1) showing the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (part 2) showing the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (Part 3) showing the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 4 is a cross-sectional view (Part 4) showing the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 5 is a cross-sectional view (Part 5) showing the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 6 is a cross-sectional view (Part 6) showing the process steps of the method for manufacturing a photodetecting device according to the third embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (No.
  • FIG. 8 is a cross-sectional view (No. 8) showing the process steps of the method for manufacturing a photodetecting device according to the third embodiment of the present disclosure.
  • FIG. 9 is a cross-sectional view (No. 9) illustrating the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view (No. 10) showing the process steps of the method for manufacturing a photodetection device according to the third embodiment of the present disclosure.
  • FIG. 7 is a cross-sectional view (No.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • 1 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • 11 is a diagram showing an example of the installation position of the imaging unit shown in FIG. 10.
  • the "first conductivity type” is either p-type or n-type
  • the “second conductivity type” means one of p-type or n-type, which is different from the “first conductivity type”.
  • “+” and “-” appended to "n” and “p” refer to semiconductors with relatively high or low impurity density, respectively, compared to semiconductor regions without "+” and “-”. It means a region. However, even if semiconductor regions are given the same "n” and "n”, this does not mean that the impurity density of each semiconductor region is strictly the same.
  • FIG. 1 is a block diagram illustrating an example of a schematic configuration of a photodetection device according to a first embodiment of the present disclosure.
  • the photodetector 1 uses a photoelectric conversion element such as a photodiode constituting each pixel to convert the amount of charge corresponding to the intensity of light imaged onto the pixel into an electrical signal, and outputs this as image data. It is a semiconductor device configured as a CMOS image sensor, for example.
  • the photodetector 1 may be configured integrally as a system-on-chip (SoC) such as a CMOS LSI, but the following components may also be configured as separate LSIs, for example. .
  • SoC system-on-chip
  • the photodetection device 1 includes, for example, a pixel array section 11, a vertical drive section 12, a column processing section 13, a horizontal drive section 14, a system control section 15, and a signal processing section 16. , and includes components such as a data storage section 17.
  • the pixel array section 11 includes a group of photoelectric conversion elements such as photodiodes that constitute the pixels 110 arranged in an array in the horizontal direction (row direction) and the vertical direction (column direction).
  • the pixel array section 11 converts the amount of charge corresponding to the intensity of the incident light imaged onto each pixel 110 into an electrical signal, and outputs it as a pixel signal.
  • the pixel array section 11 may include, for example, effective pixels arranged in a region that can receive actual light and dummy pixels arranged outside the region and shielded by metal or the like. Note that optical system elements such as a micro-on-chip lens and a color filter for condensing incident light are formed on each pixel 110 of the pixel array section 11 (not shown).
  • the vertical drive section 12 includes a shift register, an address decoder, etc.
  • the vertical drive section 12 drives each pixel 110 of the pixel array section 11, for example, simultaneously or in row units by supplying drive signals and the like to each pixel 110 via a plurality of pixel drive lines 18.
  • the column processing section 13 reads out pixel signals from each pixel via the vertical signal line (VSL) 19 for each pixel row (column) of the pixel array section 11, and performs noise removal processing, correlated double sampling (CDS) processing, and A/D (Analog-to-Digital) conversion processing.
  • the pixel signals processed by the column processing section 13 are output to the signal processing section 16.
  • the horizontal drive section 14 includes a shift register, an address decoder, etc.
  • the horizontal drive unit 14 sequentially selects pixels 110 corresponding to the pixel columns of the column processing unit 13. By this selective scanning by the horizontal driving section 14, pixel signals subjected to signal processing for each pixel 110 in the column processing section 13 are sequentially output to the signal processing section 16.
  • the system control unit 15 includes a timing generator and the like that generate various timing signals.
  • the system control unit 15 controls the vertical drive unit 12, the column processing unit 13, and the horizontal drive unit 14 based on a timing signal generated by a timing generator (not shown), for example.
  • the signal processing unit 16 performs signal processing such as arithmetic processing on the pixel signals supplied from the column processing unit 13 while temporarily storing data in the data storage unit 17 as necessary, and adds data to each pixel signal. Outputs an image signal based on the Further, the signal processing unit 16 performs signal processing according to the flag output from the column processing unit 13.
  • the photodetection device 1 to which the present technology is applied is not limited to the configuration described above.
  • the data storage section 17 is arranged after the column processing section 13, and the pixel signal output from the column processing section 13 is supplied to the signal processing section 16 via the data storage section 17. It may be configured as follows.
  • the photodetecting device 1 may be configured such that the column processing section 13, data storage section 17, and signal processing section 16 connected in series process each pixel signal in parallel.
  • FIG. 2 is a circuit diagram of the pixel 110.
  • each of the plurality of pixels 110 includes a photoelectric conversion region 21 and a pixel circuit (readout circuit) 22.
  • the photoelectric conversion region 21 includes a photoelectric conversion section 23, a transfer transistor TR, and a charge retention region (floating diffusion) FD.
  • the pixel circuit 22 is electrically connected to the charge retention region FD of the photoelectric conversion region 21.
  • one pixel circuit 22 is allocated to one pixel 110 as an example, but the circuit configuration is not limited to this, and one pixel circuit 22 is shared by a plurality of pixels 110. It is also possible to have a circuit configuration in which: For example, a circuit configuration may be adopted in which one pixel circuit 22 is shared by four pixels 110 (one pixel block) in a 2 ⁇ 2 arrangement, two in each of the horizontal and vertical directions.
  • the photoelectric conversion unit 23 is composed of, for example, a pn junction photodiode (PD), and generates signal charges according to the amount of received light.
  • the photoelectric conversion unit 23 has a cathode side electrically connected to the source region of the transfer transistor TR, and an anode side electrically connected to a reference potential line (for example, ground).
  • the transfer transistor TR transfers the signal charge photoelectrically converted by the photoelectric conversion unit 23 to the charge holding region FD.
  • the source region of the transfer transistor TR is electrically connected to the cathode side of the photoelectric conversion section 23, and the drain region of the transfer transistor TR is electrically connected to the charge retention region FD.
  • the gate electrode of the transfer transistor TR is electrically connected to a transfer transistor drive line among the pixel drive lines 18 (see FIG. 1).
  • the charge holding region FD temporarily holds (accumulates) the signal charge transferred from the photoelectric conversion unit 23 via the transfer transistor TR.
  • the pixel circuit 22 reads the signal charge held in the charge holding region FD, converts the read signal charge into a pixel signal, and outputs the pixel signal. In other words, the pixel circuit 22 converts the signal charge photoelectrically converted by the photoelectric conversion element PD into a pixel signal based on this signal charge, and outputs the pixel signal.
  • the pixel circuit 22 includes, for example, an amplification transistor AMP, a selection transistor SEL, a reset transistor RST, and a switching transistor FDG as pixel transistors, although the pixel circuit 22 is not limited thereto.
  • Each of these pixel transistors (AMP, SEL, RST, FDG) and the above-mentioned transfer transistor TR are configured with, for example, a MOSFET as a field effect transistor. Moreover, MISFETs may be used as these transistors.
  • the selection transistor SEL, the reset transistor RST, and the switching transistor FDG each function as a switching element, and the amplification transistor AMP functions as an amplification element. Note that the selection transistor SEL and the switching transistor FDG may be omitted if necessary.
  • the amplification transistor AMP has a source region electrically connected to the drain region of the selection transistor SEL, and a drain region electrically connected to the power supply line Vdd and the drain region of the reset transistor RST.
  • the gate electrode of the amplification transistor AMP is electrically connected to the charge holding region FD and the source region of the switching transistor FDG.
  • the selection transistor SEL has a source region electrically connected to the vertical signal line 19 (VSL), and a drain region electrically connected to the source region of the amplification transistor AMP.
  • the gate electrode of the selection transistor SEL is electrically connected to a selection transistor drive line among the pixel drive lines 18 (see FIG. 1).
  • the reset transistor RST has a source region electrically connected to the drain region of the switching transistor FDG, and a drain region electrically connected to the power supply line Vdd and the drain region of the amplification transistor AMP.
  • the gate electrode of the reset transistor RST is electrically connected to a reset transistor drive line among the pixel drive lines 18 (see FIG. 1).
  • the switching transistor FDG has a source region electrically connected to the charge holding region FD and the gate electrode of the amplification transistor AMP, and a drain region electrically connected to the power supply line Vdd and the drain region of the amplification transistor AMP.
  • the gate electrode of the switching transistor FDG is electrically connected to a switching transistor drive line among the pixel drive lines 18 (see FIG. 1).
  • the source region of the amplification transistor AMP is electrically connected to the vertical signal line 19 (VSL). Furthermore, when the switching transistor FDG is omitted, the source region of the reset transistor RST is electrically connected to the gate electrode of the amplification transistor AMP and the charge holding region FD.
  • the transfer transistor TR When the transfer transistor TR is turned on, the transfer transistor TR transfers the signal charge generated in the photoelectric conversion section 23 to the charge holding region FD.
  • the reset transistor RST When the reset transistor RST is turned on, the reset transistor RST resets the potential (signal charge) of the charge holding region FD to the potential of the power supply line Vdd.
  • the selection transistor SEL controls the output timing of pixel signals from the pixel circuit 22.
  • the amplification transistor AMP generates, as a pixel signal, a voltage signal corresponding to the level of the signal charge held in the charge holding region FD.
  • the amplification transistor AMP constitutes a source follower type amplifier, and outputs a pixel signal of a voltage corresponding to the level of the signal charge generated by the photoelectric conversion section 23.
  • the selection transistor SEL is turned on, the amplification transistor AMP amplifies the potential of the charge holding region FD and outputs a voltage corresponding to the potential to the column signal processing circuit 5 via the vertical signal line 19 (VSL). do.
  • the switching transistor FDG controls charge retention by the charge retention region FD, and also adjusts the voltage multiplication factor according to the potential amplified by the amplification transistor AMP.
  • FIG. 3 is a partial vertical cross-sectional view showing an example of the semiconductor structure of the photodetecting device 1 according to the first embodiment of the present disclosure.
  • the semiconductor structure 30 schematically includes, for example, a wiring layer 31, a semiconductor layer 32, an interlayer film 33, and an on-chip lens 35.
  • Such a semiconductor structure 30 is constructed by, for example, integrally bonding a first silicon substrate including a wiring layer 31 and various logic circuits (not shown) and a second silicon substrate including a semiconductor layer 32. can be done.
  • the on-chip lens 35 is an optical lens that efficiently condenses light that enters the photodetector 1 from the outside and forms an image on the corresponding pixel 110 of the semiconductor layer 32.
  • on-chip lens 35 is typically arranged for each pixel 110.
  • the on-chip lens 35 is formed of, for example, silicon oxide, silicon nitride, silicon oxynitride, organic SOG, polyimide resin, fluorine resin, or the like.
  • the semiconductor layer 32 is a functional layer in which a pixel circuit group including a photoelectric conversion unit 23 such as a photodiode PD and various electronic elements such as transistors forming each pixel 110 is formed.
  • the photoelectric conversion unit 23 generates an amount of charge according to the intensity of light incident through the on-chip lens 35, converts this into an electric signal, and outputs it as a pixel signal.
  • the photoelectric conversion section 23 is formed by an n-type region 231 and a p-type region 232. Note that a part of the light (for example, near-infrared light, etc.) that has entered the incident surface of the semiconductor layer 32 may pass through the surface (that is, the front surface) opposite to the incident surface (that is, the back surface).
  • the semiconductor layer 32 is manufactured on a silicon substrate by a semiconductor manufacturing process.
  • the photoelectric conversion unit 23 and various electronic elements are electrically connected to predetermined metal wiring in the wiring layer 31.
  • an inter-pixel isolation section 36 that isolates each pixel 110 from each other may be formed in the semiconductor layer 32.
  • the inter-pixel isolation section 36 has a trench structure formed by etching, for example.
  • the inter-pixel separation unit 36 prevents light incident on a pixel 110 from entering an adjacent pixel 110.
  • an STI (Shallow Trench Isolation) 37 (element isolation structure) that isolates the elements of the pixel 110 may be formed in the semiconductor layer 32.
  • the STI 37 has a trench structure formed by etching, for example.
  • the wiring layer 31 is a layer in which a metal wiring pattern 311 is formed to transmit power and various drive signals to each pixel 110 in the semiconductor layer 32, and also to transmit pixel signals read out from each pixel 110.
  • the wiring layer 31 may typically be configured by stacking a plurality of layers of metal wiring patterns 311 with an interlayer insulating film interposed therebetween. Further, the laminated metal wiring patterns 311 are electrically connected, for example, by vias, as necessary.
  • the wiring layer 31 is made of metal such as aluminum (Al) or copper (Cu), for example.
  • a light shielding wall 38 is provided on the back surface side (light incident surface side) of the semiconductor layer 32.
  • the light shielding wall 38 is formed in a lattice shape so as to open the photoelectric conversion section 23 . That is, the light shielding wall 38 is formed at a position corresponding to the inter-pixel separation section 36.
  • the light blocking wall 38 may be made of any material that blocks light, such as tungsten (W), aluminum (Al), or copper (Cu).
  • the interlayer film 33 is provided with a pyramid-shaped moth-eye structure (uneven structure) on the back surface side (light incident surface side) of the semiconductor layer 32.
  • FIG. 4 is a diagram for explaining, for each wavelength, how color mixture occurs in a pixel according to a comparative example.
  • 5A to 5D are plan views showing the moth-eye structure portion of the interlayer film 33, the inter-pixel isolation portion B36, the STI 37, and the wiring layer 31 of the photodetector B1 according to the comparative example.
  • the photodetector B1 which uses light with a wavelength in the near-infrared region of a silicon thick film, the light with a wavelength of 850 nm or more passes through the wiring layer 31 and waits for anisotropy along the wiring layout, and is detected by the light source (not shown).
  • Diamond color mixing occurs in a diamond shape (cross direction) with respect to a round shape (Fig. 4 (1), (2)). Note that when visible light (red, green, blue) is used, color mixing occurs in the round shape of the light source (Fig. 4 (3), (4), (5)).
  • the cause of the anisotropy of color mixture is assumed to be the moth-eye structure of the interlayer film 33 provided on the back side of the semiconductor layer 32, the STI 37, and the wiring layout of the wiring layer 31.
  • the moth-eye structure shown in FIG. 5A diffracts and diffuses light in the horizontal and vertical directions.
  • the inter-pixel separation section B36 shown in FIG. 5B diffuses light in the horizontal and vertical directions, it is difficult to mix colors.
  • the STI 37 shown in FIG. 5C diffuses light in the vertical direction.
  • the wiring pattern 311 diffuses light in the horizontal and vertical directions.
  • the plurality of pixels 110 are each separated by an inter-pixel isolation section 36 having a trench isolation structure. That is, one adjacent pixel 110 and the other pixel 110 are separated by the inter-pixel separation section 36.
  • adjoining means adjoining in the horizontal direction (column direction) or vertical direction (row direction) in plan view.
  • the inter-pixel separation section 36 includes a slit section 361 extending in the horizontal direction and a vertical direction, and a cross section 362 where the slit section 361 extending in the horizontal direction intersects with the slit section 361 extending in the vertical direction.
  • a metal film with high reflectance for example, aluminum (Al)
  • Al aluminum
  • the cross portion 362 is filled with silicon oxide (SiO2) as in the conventional case.
  • the moth-eye structure of the interlayer film 33 provided on the back side of the semiconductor layer 32, the STI 37, and the wiring layout of the wiring layer 31 are left as they are, and only the trench filling material in the cross direction has a reflectance.
  • the material By changing the material to a material with a high value, the light transmission component in the horizontal and vertical directions of the semiconductor layer 32 is reduced, and light passes through more easily in the diagonal direction than in the cross direction, thereby alleviating the anisotropy of color mixture. .
  • the first embodiment by changing the filling material of the slit portion 361 corresponding to the cross direction of color mixing to a material with high light reflectance, By reducing the light transmission component of , and making it easier for light to escape in the diagonal direction than in the cross direction, the moth-eye structure provided on the back side of the semiconductor layer 32, the STI 37, and the wiring layout of the wiring layer 31 can be left unchanged. , it is possible to suppress the occurrence of diamond color mixture. In addition, by intentionally giving diagonal anisotropy to the color mixture components generated in the semiconductor layer 32, the moth-eye structure, the STI 37, and the wiring layout can maintain flexibility.
  • the light reflected by the semiconductor layer 32 is reflected by aluminum in the cross direction more than the conventional silicon oxide, and color mixture between adjacent pixels 110 can be suppressed only in the cross direction.
  • the cross section of the cross section 362 is rectangular has been described, but it may be circular.
  • aluminum is embedded in the slit portion 361 has been described, but a metal other than aluminum may be embedded in the slit portion 361.
  • silicon oxide is embedded in the cross portion 362 has been described, other materials may be used.
  • the inter-pixel separation section 36 is formed to penetrate from the light incident surface of the semiconductor layer 32 to the surface opposite to the light incident surface, thereby preventing color mixture in the adjacent pixels 110. It can be suppressed.
  • ⁇ Second embodiment> a method for manufacturing the photodetecting device 1 including processing the back surface of the cross section 362 of the inter-pixel isolation section 36 and embedding silicon oxide will be described.
  • 7A to 7K are cross-sectional views showing the process steps of the method for manufacturing the photodetecting device 1 in the second embodiment.
  • FIG. 7A (1) is a plan view seen from the element formation surface S1 side, which is the front surface of the photodetector 1.
  • FIG. 7A(1) is a partial vertical cross-sectional view showing an example of the semiconductor structure of the photodetecting device 1 taken along line A-A' in FIG. 7A(2).
  • the line A-A' is a virtual line passing through the slit section 361 and the photoelectric conversion section 23 in plan view.
  • polysilicon 44 is buried in the opening 43 and planarized by CMP (chemical mechanical polishing), etch back, etc. (FIG. 7B).
  • CMP chemical mechanical polishing
  • the polysilicon 44 is dug using a known etching technique to form a trench 45 (FIG. 7C).
  • HDP High Density Plasma
  • the trench 45 is filled with, for example, silicon oxide to form a film 46 (FIG. 7D).
  • the resist film 42 is removed and the exposed surface is planarized, for example, by a known etch-back technique, CMP method, or the like. As a result, a portion of the film 46 buried in the groove 45 remains. Thereafter, a gate electrode TRG is formed on the element formation surface S1, and a wiring layer 31 is formed on the exposed surface. Furthermore, a support substrate (not shown) is bonded to the wiring layer 31.
  • the silicon substrate 41 provided with the wiring layer 31 and the support substrate is turned upside down, and the surface of the silicon substrate 41 opposite to the element formation surface S1 is ground by, for example, CMP. , the silicon substrate 41 is made thinner. This leaves a portion corresponding to the semiconductor layer 32.
  • a moth-eye portion 47 is formed on the light incident surface S2 of the semiconductor layer 32 by wet etching, and as shown in FIG. 7H, a film 48 having an opening 48a is formed as a hard mask.
  • the opening 48a is provided at a position overlapping the polysilicon 44 in plan view.
  • polysilicon 44 is etched through opening 48a using a known etching technique. As a result, the polysilicon 44 buried in the opening 43 is removed.
  • the slit portion 361 is formed by filling the opening 43 with aluminum (Al).
  • Al aluminum
  • the plurality of pixels 110 are separated by the slit portions 361, respectively.
  • a fixed charge film may be embedded in the opening 43 before the aluminum is embedded.
  • FIG. 7J(2) is a plan view of the photodetector 1 viewed from the light incidence surface S2 side, which is the back surface.
  • FIG. 7J(1) is a partial vertical cross-sectional view showing an example of the semiconductor structure of the photodetecting device 1 taken along line B-B' in FIG. 7J(2).
  • the line B-B' is an imaginary line passing through the cross section 362 and the photoelectric conversion section 23 in plan view.
  • the opening 49 is filled with silicon oxide to form the cross portion 362 of the inter-pixel isolation portion 36 (FIG. 7K(1)).
  • the plurality of pixels 110 are separated by the slit portion 361 and the cross portion 362, respectively.
  • a fixed charge film may be buried in the opening 49 before silicon oxide is buried.
  • ⁇ Third embodiment> a method for manufacturing the photodetecting device 1 including silicon nitride embedding into the cross portion 362 of the inter-pixel isolation portion 36 will be described.
  • 8A to 8K are cross-sectional views showing the process steps of the method for manufacturing the photodetecting device 1 in the third embodiment.
  • FIG. 8A(1) is a plan view seen from the element formation surface S1 side, which is the front surface of the photodetector 1.
  • FIG. 8A(1) is a partial vertical cross-sectional view showing an example of the semiconductor structure of the photodetecting device 1 taken along line CC' in FIG. 8A(2).
  • the line C-C' is an imaginary line passing through the cross section 362 and the photoelectric conversion section 23 of the pixel 110 in plan view.
  • polysilicon 54 is buried in the opening 53 and planarized by CMP (chemical mechanical polishing), etch back, etc. (FIG. 8B).
  • CMP chemical mechanical polishing
  • FIG. 8C the polysilicon 54 at the location where the cross portion 362 will be formed is etched using a known etching technique.
  • the polysilicon 44 buried in the opening 53 is removed.
  • a film 55 is formed by filling silicon nitride (SiN) into the opening 53, and a groove 56 is formed by digging the film 55 using a known etching technique.
  • HDP or the like for example, silicon oxide is buried in the trench 56 to form a film 57 (FIG. 8D).
  • the resist film 52 is removed and the exposed surface is planarized, for example, by a known etch-back technique, CMP method, or the like. As a result, a portion of the film 57 buried in the groove 45 remains. Thereafter, a gate electrode TRG is formed on the element formation surface S1, and a wiring layer 31 is formed on the exposed surface. Furthermore, a support substrate (not shown) is bonded to the wiring layer 31.
  • the silicon substrate 51 provided with the wiring layer 31 and the support substrate is turned upside down.
  • the surface of the silicon substrate 51 opposite to the element forming surface S1 is ground by, for example, a CMP method to thin the silicon substrate 51. This leaves a portion corresponding to the semiconductor layer 32.
  • an oxide film 58 and an organic film 59 are applied to the light incident surface S2 of the semiconductor layer 32. Then, the organic film 59 is removed by wet etching (FIG. 8I (2)), and then the polysilicon 54 embedded in the slit portion 361 is removed to form the opening 53 (FIG. 8I (1)).
  • the oxide film 58 is removed (FIG. 8J(2)), and aluminum (Al) is filled in the opening 53 to form the slit portion 361 (FIG. 8J(1)). Note that a fixed charge film may be embedded in the opening 53 before the aluminum is embedded.
  • the silicon nitride (SiN) film 55 is removed by WHP to form an opening, and silicon oxide is buried in the opening to form the cross section 362 of the pixel isolation section 36 ( Figure 8K(2)).
  • the plurality of pixels 110 are separated by the slit portion 361 and the cross portion 362, respectively.
  • a fixed charge film may be buried in the opening before the silicon oxide is buried.
  • FIG. 9 is a block diagram showing a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • the imaging device 2201 shown in FIG. 9 includes an optical system 2202, a shutter device 2203, a solid-state imaging device 2204 as a photodetecting device, a control circuit 2205, a signal processing circuit 2206, a monitor 2207, and two memories 2208. Capable of capturing still images and moving images.
  • the optical system 2202 includes one or more lenses, guides light (incident light) from a subject to the solid-state image sensor 2204, and forms an image on the light-receiving surface of the solid-state image sensor 2204.
  • the shutter device 2203 is disposed between the optical system 2202 and the solid-state image sensor 2204, and controls the light irradiation period and the light shielding period to the solid-state image sensor 2204 under the control of the control circuit 2205.
  • the solid-state image sensor 2204 is configured by a package containing the above-described solid-state image sensor.
  • the solid-state image sensor 2204 accumulates signal charges for a certain period of time according to the light that is imaged on the light receiving surface via the optical system 2202 and the shutter device 2203.
  • the signal charge accumulated in the solid-state image sensor 2204 is transferred according to a drive signal (timing signal) supplied from the control circuit 2205.
  • the control circuit 2205 outputs a drive signal that controls the transfer operation of the solid-state image sensor 2204 and the shutter operation of the shutter device 2203, and drives the solid-state image sensor 2204 and the shutter device 2203.
  • the signal processing circuit 2206 performs various signal processing on the signal charges output from the solid-state image sensor 2204.
  • An image (image data) obtained by signal processing by the signal processing circuit 2206 is supplied to a monitor 2207 and displayed, or supplied to a memory 2208 and stored (recorded). Also in the imaging device 2201 configured in this manner, the photodetecting device 1 can be applied instead of the solid-state imaging device 2204 described above.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. It's okay.
  • FIG. 10 is a block diagram illustrating a schematic configuration example of a vehicle control system, which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 11 is a diagram showing an example of the installation position of the imaging section 12031.
  • vehicle 12100 includes imaging units 12101 , 12102 , 12103 , 12104 , and 12105 as imaging unit 12031 .
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle 12100.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 11 shows an example of the imaging range of the imaging units 12101 to 12104.
  • An imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • an imaging range 12114 shows the imaging range of the imaging unit 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. In particular, by determining the three-dimensional object that is closest to the vehicle 12100 on its path and that is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as the vehicle 12100, it is possible to extract the three-dimensional object as the preceding vehicle. can.
  • a predetermined speed for example, 0 km/h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceed
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the audio image output unit 12052 creates a rectangular outline for emphasis on the recognized pedestrian.
  • the display unit 12062 is controlled to display the .
  • the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the present disclosure can also have the following configuration.
  • a semiconductor layer in which a plurality of pixels capable of generating electrical signals in response to light incident from the outside are arranged in a matrix; an inter-pixel isolation section formed in the semiconductor layer and separating the adjacent pixels,
  • the inter-pixel separation section has a slit section extending in the row direction and a column direction, and an intersection section where the slit section extending in the row direction and the slit section extending in the column direction intersect.
  • the intersection portion has a first material buried in the thickness direction of the semiconductor layer, and the slit portion has a first material buried in the thickness direction of the semiconductor layer and has a lower light content than the first material.
  • a photodetecting device comprising a second material having a high reflectance.
  • the semiconductor layer has an element isolation structure that isolates elements inside the pixel.
  • the intersection portion has a first material buried in the thickness direction of the semiconductor layer, and the slit portion has a first material buried in the thickness direction of the semiconductor layer and has a lower light content than the first material.
  • An electronic device comprising a photodetection device, the second material having a high reflectance.
  • the electronic device according to (9) above, wherein the intersection portion has a round or rectangular shape in plan view.
  • the electronic device according to (9), wherein the inter-pixel separation section is formed to penetrate from the light incident surface of the semiconductor layer to the surface opposite to the light incident surface.
  • the second material is metal.
  • the first material is silicon oxide
  • the electronic device according to (9) above, wherein the second material is aluminum.
  • Photodetector 5 Column signal processing circuit 11 Pixel array section 12 Vertical drive section 13 Column processing section 14 Horizontal drive section 15 System control section 16 Signal processing section 17 Data storage section 18 Pixel drive line 19 Vertical signal line 21 Photoelectric conversion region 22 Pixel circuit 23 Photoelectric conversion section 30 Semiconductor structure 31 Wiring layer 32 Semiconductor layer 33 Interlayer film 35 On-chip lens 36 Inter-pixel isolation section 37 STI (Shallow Trench Isolation) 38 Light shielding walls 41, 51 Silicon substrates 42, 52 Resist films 43, 53 Openings 44, 54 Polysilicon 45, 56 Grooves 46, 48, 55 Film 47 Moth eye portion 48a Opening 49 Opening 58 Oxide film 59 Organic film 110 Pixel 231 N-type region 232 P-type region 311 Wiring pattern 361 Slit section 362 Cross section 2201 Imaging device 2202 Optical system 2203 Shutter device 2204 Solid-state image sensor 2205 Control circuit 2206 Signal processing circuit 2207 Monitor 2208 Memory 12000 Vehicle control system 12001 Communication network 12010 Drive system Control unit 12020 Body system control unit 12030 External information detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

ダイヤモンド混色の発生を抑えることが可能な光検出装置を提供する。光検出装置は、半導体層と、画素間分離部とを備える。半導体層は、外部から入射した光に応じて電気信号を生成可能な複数の画素を行列状に配置する。画素間分離部は、半導体層に形成され、隣接する前記画素の間を分離する。画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、行方向に延伸されるスリット部と列方向に延伸されるスリット部とが交差する交差部とを有する。交差部は、半導体層の厚さ方向に埋め込まれた第1の材料を有する。スリット部は、第1の材料に比して光の反射率の高い第2の材料を有する。

Description

光検出装置及び電子機器
 本開示に係る技術(本技術)は、光検出装置、及び光検出装置を備える電子機器に関する。
 従来、デジタルスチルカメラやデジタルビデオカメラなどの撮像機能を備えた電子機器においては、光検出装置として、例えば、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの固体撮像素子が使用されている。光検出装置は、光電変換を行うフォトダイオード(光電変換素子)とトランジスタとが組み合わされた画素を有しており、平面的に配置された複数の画素から出力される画素信号に基づいて画像が構築される。
 ところで、画素に強い光が入射された場合、その画素のフォトダイオードに蓄積されている電荷が飽和してあふれ出し、隣接画素に漏れ込む、混色と呼ばれる現象が発生することがある。そこで、画素間を分離する画素分離領域を備える固体撮像装置が提案されている(例えば、特許文献1)。
特開2018-148116号公報
 ところで、上記特許文献1の固体撮像装置では、配線層が、外部からの光が照射される光電変換素子を含む光電変換層の面と反対側の面に配置されている。この固体撮像装置では、光電変換層を透過した光の一部が、配線層まで到達し、そこで反射することで、反射光が隣接する画素に進入し、混色を発生する。例えば850nm以上の波長を有する近赤外線(NIR)光は、シリコン(Si)を主材料とする光電変換層を透過し易く、配線層で反射して混色といった画質劣化を招く。特に、配線層に到達する長波長の光が配線レイアウトに沿って異方性を持つことが分かっており、光源の丸形に対して菱形(十字方向)の混色(ダイヤモンド混色)を起こす。
 また、特許文献1の固体撮像装置では、モスアイ構造や画素内STI構造を採用しており、入射光の十字方向の拡散を助長している。
 本開示はこのような事情に鑑みてなされたもので、モスアイ構造や画素内の素子分離構造、配線レイアウトをそのままにして、ダイヤモンド混色の発生を抑えることが可能な光検出装置及び電子機器を提供することを目的とする。
 本開示の一態様は、外部から入射した光に応じて電気信号を生成可能な複数の画素が行列状に配置された半導体層と、前記半導体層に形成され、隣接する前記画素の間を分離する画素間分離部と、を備え、前記画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、前記行方向に延伸されるスリット部と前記列方向に延伸されるスリット部とが交差する交差部とを有し、前記交差部は、前記半導体層の厚さ方向に埋め込まれた第1の材料を有し、前記スリット部は、前記半導体層の厚さ方向に埋め込まれ、前記第1の材料に比して光の反射率の高い第2の材料を有する、光検出装置である。
 本開示の他の態様は、外部から入射した光に応じて電気信号を生成可能な複数の画素が行列状に配置された半導体層と、前記半導体層に形成され、隣接する前記画素の間を分離する画素間分離部と、を備え、前記画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、前記行方向に延伸されるスリット部と前記列方向に延伸されるスリット部とが交差する交差部とを有し、前記交差部は、前記半導体層の厚さ方向に埋め込まれた第1の材料を有し、前記スリット部は、前記半導体層の厚さ方向に埋め込まれ、前記第1の材料に比して光の反射率の高い第2の材料を有する、光検出装置を備えた、電子機器である。
本開示の第1の実施形態に係る光検出装置の概略的構成の一例を示すブロック図である。 図1に示した画素の回路構成図である。 本開示の第1の実施形態に係る光検出装置の半導体構造の一例を示す部分縦断面図である。 比較例に係る画素に発生する混色の様子を波長ごとに説明するための図である。 比較例に係る光検出装置の層間膜のモスアイ構造部、を示す平面図である。 比較例に係る光検出装置の画素間分離部を示す平面図である。 比較例に係る光検出装置の画素内分離部を示す平面図である。 比較例に係る光検出装置の配線層を示す平面図である。 本開示の第1の実施形態における複数の画素がそれぞれ画素間分離部で分離されている様子を示す平面図である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その1)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その2)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その3)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その4)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その5)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その6)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その7)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その8)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その9)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その10)である。 本開示の第2の実施形態における光検出装置の製造方法の工程手順を示す断面図(その11)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その1)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その2)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その3)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その4)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その5)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その6)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その7)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その8)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その9)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その10)である。 本開示の第3の実施形態における光検出装置の製造方法の工程手順を示す断面図(その11)である。 本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 図10に示した撮像部の設置位置の例を示す図である。
 以下において、図面を参照して本開示の実施形態を説明する。以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。但し、図面は模式的なものであり、厚みと平面寸法との関係、各装置や各部材の厚みの比率等は現実のものと異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判定すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
 本明細書において、「第1導電型」はp型又はn型の一方であり、「第2導電型」はp型又はn型のうちの「第1導電型」とは異なる一方を意味する。また、「n」や「p」に付す「+」や「-」は、「+」及び「-」が付記されていない半導体領域に比して、それぞれ相対的に不純物密度が高い又は低い半導体領域であることを意味する。但し、同じ「n」と「n」とが付された半導体領域であっても、それぞれの半導体領域の不純物密度が厳密に同じであることを意味するものではない。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 なお、本明細書中に記載される効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 <第1の実施形態>
 (光検出装置の全体構成)
 図1は、本開示の第1の実施形態に係る光検出装置の概略的構成の一例を示すブロック図である。光検出装置1は、各画素を構成するフォトダイオード等の光電変換素子を用いて、該画素上に結像した光の強弱に応じた電荷量を電気信号に変換し、これを画像データとして出力する半導体装置であり、例えばCMOSイメージセンサとして構成される。光検出装置1は、例えば、CMOS LSIのようなシステム・オン・チップ(SoC)として一体的に構成され得るが、例えば、以下に示すいくつかのコンポーネントが別体のLSIとして構成されても良い。
 同図に示すように、光検出装置1は、例えば、画素アレイ部11と、垂直駆動部12と、カラム処理部13と、水平駆動部14と、システム制御部15と、信号処理部16と、データ格納部17といったコンポーネントを含み構成される。
 画素アレイ部11は、水平方向(行方向)及び垂直方向(列方向)にアレイ配列された画素110を構成するフォトダイオード等の光電変換素子群を含み構成される。画素アレイ部11は、各画素110上に結像した入射光の強さに応じた電荷量を電気信号に変換し、画素信号として出力する。画素アレイ部11は、例えば、実際の光を受光可能な領域に配置された有効画素と該領域の外側に配置されメタル等により遮蔽されたダミー画素とを含み得る。なお、画素アレイ部11の各画素110上には入射光を集光するマイクロオンチップレンズやカラーフィルタといった光学系素子が形成される(図示せず)。
 垂直駆動部12は、シフトレジスタやアドレスデコーダ等を含み構成される。垂直駆動部12は、複数の画素駆動線18を介して各画素110に駆動信号等を供給することにより、画素アレイ部11の各画素110を例えば同時に又は行単位等で駆動する。
 カラム処理部13は、画素アレイ部11の画素列(カラム)ごとに垂直信号線(VSL)19を介して各画素から画素信号を読み出して、ノイズ除去処理、相関二重サンプリング(CDS)処理、及びA/D(Analog-to-Digital)変換処理等を行う。カラム処理部13により処理された画素信号は、信号処理部16に出力される。
 水平駆動部14は、シフトレジスタやアドレスデコーダ等を含み構成される。水平駆動部14は、カラム処理部13の画素列に対応する画素110を順番に選択する。この水平駆動部14による選択走査により、カラム処理部13において画素110ごとに信号処理された画素信号が順番に信号処理部16に出力される。
 システム制御部15は、各種のタイミング信号を生成するタイミングジェネレータ等を含み構成される。システム制御部15は、例えば図示しないタイミングジェネレータにより生成されたタイミング信号に基づいて、垂直駆動部12、カラム処理部13、及び水平駆動部14の駆動制御を行なう。
 信号処理部16は、必要に応じてデータ格納部17にデータを一時的に格納しながら、カラム処理部13から供給された画素信号に対して演算処理等の信号処理を行ない、各画素信号に基づく画像信号を出力する。また、信号処理部16は、カラム処理部13から出力されるフラグに従って、信号処理を行う。
 なお、本技術が適用される光検出装置1は、上述したような構成に限られるものではない。例えば、光検出装置1は、データ格納部17がカラム処理部13の後段に配置され、カラム処理部13から出力される画素信号を、データ格納部17を経由して信号処理部16に供給するように構成されても良い。或いは、光検出装置1は、縦続的に接続されたカラム処理部13とデータ格納部17と信号処理部16とが各画素信号を並列的に処理するように構成されても良い。
 (画素の回路構成)
 図2は、画素110の回路構成図である。
 図2に示すように、複数の画素110の各々は、光電変換領域21及び画素回路(読出し回路)22を備えている。光電変換領域21は、光電変換部23と、転送トランジスタTRと、電荷保持領域(フローティングディフュージョン:Floating Diffusion)FDとを備えている。画素回路22は、光電変換領域21の電荷保持領域FDと電気的に接続されている。この第1実施形態では、一例として1つの画素110に1つの画素回路22を割り与えた回路構成としているが、これに限定されるものではなく、1つの画素回路22を複数の画素110で共有する回路構成としてもよい。例えば、水平方向及び垂直方向の各々の方向に2つずつ配置された2×2配置の4つの画素110(1つの画素ブロック)で1つの画素回路22を共有する回路構成としてもよい。
 光電変換部23は、例えばpn接合型のフォトダイオード(PD)で構成され、受光量に応じた信号電荷を生成する。光電変換部23は、カソード側が転送トランジスタTRのソース領域と電気的に接続され、アノード側が基準電位線(例えばグランド)と電気的に接続されている。
 転送トランジスタTRは、光電変換部23で光電変換された信号電荷を電荷保持領域FDに転送する。転送トランジスタTRのソース領域は光電変換部23のカソード側と電気的に接続され、転送トランジスタTRのドレイン領域は電荷保持領域FDと電気的に接続されている。そして、転送トランジスタTRのゲート電極は、画素駆動線18(図1参照)のうちの転送トランジスタ駆動線と電気的に接続されている。
 電荷保持領域FDは、光電変換部23から転送トランジスタTRを介して転送された信号電荷を一時的に保持(蓄積)する。
 画素回路22は、電荷保持領域FDに保持された信号電荷を読み出し、読み出した信号電荷を画素信号に変換して出力する。換言すれば、画素回路22は、光電変換素子PDで光電変換された信号電荷を、この信号電荷に基づく画素信号に変換して出力する。画素回路22は、これに限定されないが、画素トランジスタとして、例えば、増幅トランジスタAMPと、選択トランジスタSELと、リセットトランジスタRSTと、切替トランジスタFDGと、を備えている。これらの画素トランジスタ(AMP,SEL,RST,FDG)、及び上述の転送トランジスタTRの各々は、電界効果トランジスタとして、例えば、MOSFETで構成されている。また、これらのトランジスタとしては、MISFETでも構わない。
 画素回路22に含まれる画素トランジスタのうち、選択トランジスタSEL、リセットトランジスタRST、及び切替トランジスタFDGの各々は、スイッチング素子として機能し、増幅トランジスタAMPは、増幅素子として機能する。
 なお、選択トランジスタSEL及び切替トランジスタFDGは、必要に応じて省略してもよい。
 増幅トランジスタAMPは、ソース領域が選択トランジスタSELのドレイン領域と電気的に接続され、ドレイン領域が電源線Vdd及びリセットトランジスタRSTのドレイン領域と電気的に接続されている。そして、増幅トランジスタAMPのゲート電極は、電荷保持領域FD及び切替トランジスタFDGのソース領域と電気的に接続されている。
 選択トランジスタSELは、ソース領域が垂直信号線19(VSL)と電気的に接続され、ドレイン領域が増幅トランジスタAMPのソース領域と電気的に接続されている。そして、選択トランジスタSELのゲート電極は、画素駆動線18(図1参照)のうちの選択トランジスタ駆動線と電気的に接続されている。
 リセットトランジスタRSTは、ソース領域が切替トランジスタFDGのドレイン領域と電気的に接続され、ドレイン領域が電源線Vdd及び増幅トランジスタAMPのドレイン領域と電気的に接続されている。そして、リセットトランジスタRSTのゲート電極は、画素駆動線18(図1参照)のうちのリセットトランジスタ駆動線と電気的に接続されている。
 切替トランジスタFDGは、ソース領域が電荷保持領域FD及び増幅トランジスタAMPのゲート電極と電気的に接続され、ドレイン領域が電源線Vdd及び増幅トランジスタAMPのドレイン領域と電気的に接続されている。そして、切替トランジスタFDGのゲート電極は、画素駆動線18(図1参照)のうちの切替トランジスタ駆動線と電気的に接続されている。
 なお、選択トランジスタSELを省略する場合は、増幅トランジスタAMPのソース領域が垂直信号線19(VSL)と電気的に接続される。また、切替トランジスタFDGを省略する場合は、リセットトランジスタRSTのソース領域が増幅トランジスタAMPのゲート電極及び電荷保持領域FDと電気的に接続される。
 転送トランジスタTRは、転送トランジスタTRがオン状態となると、光電変換部23で生成された信号電荷を電荷保持領域FDに転送する。
 リセットトランジスタRSTは、リセットトランジスタRSTがオン状態となると、電荷保持領域FDの電位(信号電荷)を電源線Vddの電位にリセットする。選択トランジスタSELは、画素回路22からの画素信号の出力タイミングを制御する。
 増幅トランジスタAMPは、画素信号として、電荷保持領域FDに保持された信号電荷のレベルに応じた電圧の信号を生成する。増幅トランジスタAMPは、ソースフォロア型のアンプを構成しており、光電変換部23で生成された信号電荷のレベルに応じた電圧の画素信号を出力するものである。増幅トランジスタAMPは、選択トランジスタSELがオン状態となると、電荷保持領域FDの電位を増幅して、その電位に応じた電圧を、垂直信号線19(VSL)を介してカラム信号処理回路5に出力する。
 切替トランジスタFDGは、電荷保持領域FDによる電荷保持を制御すると共に、増幅トランジスタAMPで増幅される電位に応じた電圧の増倍率を調整する。
 (光検出装置の半導体構造)
 図3は、本開示の第1の実施形態に係る光検出装置1の半導体構造の一例を示す部分縦断面図である。同図に示すように、半導体構造30は、概略的には、例えば、配線層31と、半導体層32と、層間膜33と、オンチップレンズ35とを含み構成される。このような半導体構造30は、例えば、配線層31及び各種のロジック回路(図示せず)を含む第1シリコン基板と、半導体層32を含む第2シリコン基板とを一体的に接合することにより構成され得る。
 オンチップレンズ35は、外部から光検出装置1に入射する光を、効率的に集光して半導体層32の対応する画素110に結像するための光学レンズである。本例では、オンチップレンズ35は、典型的には、画素110ごとに配置される。なお、オンチップレンズ35は、例えば、酸化シリコン、窒化シリコン、酸窒化シリコン、有機SOG、ポリイミド系樹脂、又はフッ素系樹脂等から形成される。
 半導体層32は、各画素110を構成するフォトダイオードPD等の光電変換部23及び各種のトランジスタ等の電子素子を含む画素回路群が形成された機能層である。光電変換部23は、オンチップレンズ35を介して入射した光の強さに応じた電荷量を生成し、これを電気信号に変換し、画素信号として出力する。
 光電変換部23は、n型領域231と、p型領域232とにより形成される。なお、半導体層32の入射面に入射した光の一部(例えば近赤外光等)は、入射面(すなわち裏面)とは反対側の面(すなわち、おもて面)に通過し得る。半導体層32は、半導体製造プロセスによりシリコン基板に作製される。光電変換部23及び各種の電子素子は、配線層31における所定の金属配線に電気的に接続される。
 また、半導体層32には、各画素110同士を分離する画素間分離部36が形成され得る。画素間分離部36は、例えばエッチング処理により形成されたトレンチ構造からなる。画素間分離部36は、画素110に入射した光が隣接する画素110へ入り込むことを防止する。さらに、半導体層32には、画素110の素子を分離するSTI(Shallow Trench Isolation)37(素子分離構造)が形成され得る。STI37は、例えばエッチング処理により形成されたトレンチ構造からなる。
 配線層31は、半導体層32における各画素110へ電力及び各種の駆動信号を伝達し、また、各画素110から読み出される画素信号を伝達するための金属配線パターン311が形成された層である。配線層31は、典型的には、複数の金属配線パターン311の層が層間絶縁膜を挟み積層されて構成され得る。また、積層された金属配線パターン311は、必要に応じて例えばビアにより電気的に接続される。配線層31は、例えば、アルミニウム(Al)や銅(Cu)等の金属により形成される。
 半導体層32の裏面側(光入射面側)には、遮光壁38が設けられる。遮光壁38は、光電変換部23を開口するように格子状に形成されている。すなわち、遮光壁38は、画素間分離部36に対応する位置に形成されている。遮光壁38を構成する材料としては、光を遮光する材料であればよく、例えば、タングステン(W)、アルミニウム(Al)又は銅(Cu)を用いることができる。
 層間膜33には、半導体層32の裏面側(光入射面側)に、ピラミッド形状のモスアイ構造部(凹凸構造)が設けられている。
 <実施形態の比較例>
 図4は、比較例に係る画素に発生する混色の様子を波長ごとに説明するための図である。図5A乃至図5Dは、比較例に係る光検出装置B1の層間膜33のモスアイ構造部、画素間分離部B36、STI37、配線層31を示す平面図である。
 シリコン厚膜の近赤外領域の波長の光を使う光検出装置B1では、配線層31に抜ける850nm以上の波長の光が配線レイアウトに沿って異方性を待ち、光源(図示せず)の丸形に対して菱形状(十字方向)のダイヤモンド混色を起こす(図4(1)、(2))。なお、可視光(赤、緑、青)を使う場合、光源の丸形に対して丸形の混色を起こす(図4(3)、(4)、(5))。
 混色の異方性の原因として、半導体層32の裏面側に設けられる層間膜33のモスアイ構造部やSTI37、配線層31の配線レイアウトが想定される。図5Aに示すモスアイ構造部では、水平方向及び垂直方向に光を回折、拡散させることになる。図5Bに示す画素間分離部B36では、水平方向及び垂直方向に光を拡散させてしまうが、混色し難い。図5Cに示すSTI37では、垂直方向に光を拡散させることになる。図5Dに示す配線層31では、配線パターン311で水平方向及び垂直方向に光を拡散させることになる。
 <第1の実施形態の解決手段>
 本開示の第1の実施形態では、図6に示すように、複数の画素110がそれぞれ、トレンチアイソレーション構造を有する画素間分離部36で分離されている。つまり、隣接する一方の画素110と他方の画素110との間が、画素間分離部36で分離されている。なお、隣接するとは、平面視で水平方向(列方向)又は垂直方向(行方向)で隣接することを意味する。
 画素間分離部36は、水平方向及び垂直方向にそれぞれ延伸されるスリット部361と、水平方向に延伸されるスリット部361と垂直方向に延伸されるスリット部361とが交差するクロス部362とを備えている。スリット部361には、半導体層32の厚さ方向に延伸するように、反射率の高い金属膜、例えば、アルミニウム(Al)が埋め込まれる。クロス部362には、従来と同じ、酸化シリコン(SiO2)が埋め込まれる。
 本開示の第1の実施形態では、半導体層32の裏面側に設けられる層間膜33のモスアイ構造部やSTI37、配線層31の配線レイアウトはそのままにして、十字方向のトレンチ埋め込み材のみを反射率の高い材料に変更することで、半導体層32の水平方向及び垂直方向への光透過成分を減らし、斜め方向は十字方向に比べて光が抜けやすいようにして、混色の異方性を緩和する。
 <第1の実施形態による作用効果>
 以上のように第1の実施形態によれば、混色の十字方向に対応するスリット部361の埋め込み材料には光の反射率の高い材料に変更することで半導体層32の水平方向及び垂直方向への光透過成分を減らし、斜め方向は十字方向に比べて光が抜けやすいようにすることで、半導体層32の裏面側に設けられるモスアイ構造部やSTI37、配線層31の配線レイアウトをそのままにして、ダイヤモンド混色の発生を抑えることができる。また、半導体層32で発生する混色成分にあえて斜め方向の異方性を持たせることで、モスアイ構造部やSTI37、配線レイアウトは自由度を保つことができる。
 また、第1の実施形態によれば、半導体層32で反射する光は十字方向のアルミニウムで従来の酸化シリコンに比して反射し、隣接する画素110間における混色を十字方向のみ抑えることができる。
 なお、第1の実施形態において、クロス部362の断面が矩形状である例について説明したが、円形であってもよい。また、上記第1の実施形態では、スリット部361にアルミニウムを埋め込む例について説明したが、アルミニウム以外の金属を埋め込むようにしてもよい。さらに、クロス部362に酸化シリコンを埋め込む例について説明したが、他の部材であってもよい。この場合、スリット部361に銀を埋め込む場合に、クロス部362に窒化シリコンを埋め込む。
 また、第1の実施形態では、画素間分離部36が、半導体層32の光入射面から光入射面の反対側の面に至り貫通して形成されることにより、隣接する画素110における混色を抑えることができる。
 <第2の実施形態>
 本開示の第2の実施形態では、画素間分離部36のクロス部362の裏面加工及び酸化シリコン埋め込み加工を含む光検出装置1の製造方法について説明する。
 図7A乃至図7Kは、第2の実施形態における光検出装置1の製造方法の工程手順を示す断面図である。
 先ず、シリコン基板41を用意し、シリコン基板41の上面となる素子形成面S1にレジスト膜42を成膜した後、シリコン基板41上のスリット部361の形成部分をドライエッチングにより開口し、開口部43を形成する(図7A(1))。図7A(2)は、光検出装置1のおもて面となる素子形成面S1側から見た平面図である。図7A(1)は、図7A(2)のA-A’線で切断した光検出装置1の半導体構造の一例を示す部分縦断面図である。A-A’線は、平面視で、スリット部361及び光電変換部23を通る仮想線である。
 そして、開口部43にポリシリコン44を埋め込み、CMP(chemical mechanical polishing)やエッチバック等で平坦化する(図7B)。次に、ポリシリコン44を公知のエッチング技術を用いて掘り込み、溝45を形成する(図7C)。そして、HDP(High Density Plasma)等を用いて、溝45に、例えば酸化シリコンを埋め込んで膜46を形成する(図7D)。
 その後、図7Eに示すように、例えば、公知のエッチバック技術、CMP法等により、レジスト膜42を除去し、露出面を平坦化する。これにより、膜46のうち溝45内に埋め込まれた部分が残る。その後、素子形成面S1にゲート電極TRGを形成し、そして露出面に配線層31を形成する。さらに、配線層31に支持基板(図示せず)を接合する。
 次に、図7Fに示すように、配線層31及び支持基板が設けられたシリコン基板41の上下を反転し、例えばCMP法によりシリコン基板41の素子形成面S1とは反対側の面を研削し、シリコン基板41を薄くする。これにより、半導体層32に相当する部分を残している。
 そして、図7Gに示すように、半導体層32の光入射面S2に対し、ウエットエッチングによりモスアイ部47を形成し、図7Hに示すように、開口48aを有する膜48をハードマスクとして形成する。開口48aは、平面視でポリシリコン44と重なる位置に設けられている。その後、公知のエッチング技術を用いて、開口48aを通してポリシリコン44をエッチングする。これにより、開口部43内に埋め込まれたポリシリコン44を除去する。
 その後、図7I(1)に示すように、開口部43内にアルミニウム(Al)を埋め込むことで、スリット部361を形成する。これにより、図7I(2)に示すように、複数の画素110がそれぞれ、スリット部361で分離されている。なお、アルミニウムを埋め込む前に、固定電荷膜を開口部43内に埋め込むようにしてもよい。
 続いて、半導体層32上のクロス部362の形成部分を公知のエッチング技術を用いて、アルミニウム(Al)を除去し、開口部49を形成する(図7J(1))。図7J(2)は、光検出装置1の裏面となる光入射面S2側から見た平面図である。図7J(1)は、図7J(2)のB-B’線で切断した光検出装置1の半導体構造の一例を示す部分縦断面図である。B-B’線は、平面視で、クロス部362及び光電変換部23を通る仮想線である。
 そして、開口部49に酸化シリコンを埋め込み、画素間分離部36のクロス部362を形成する(図7K(1))。これにより、図7K(2)に示すように、複数の画素110がそれぞれ、スリット部361及びクロス部362で分離されている。なお、酸化シリコンを埋め込む前に、固定電荷膜を開口部49に埋め込むようにしてもよい。
 <第3の実施形態>
 本開示の第3の実施形態では、画素間分離部36のクロス部362に対する窒化シリコン埋め込み加工を含む光検出装置1の製造方法について説明する。
 図8A乃至図8Kは、第3の実施形態における光検出装置1の製造方法の工程手順を示す断面図である。
 先ず、シリコン基板51を用意し、シリコン基板51の上面となる素子形成面S1にレジスト膜52を成膜した後、シリコン基板51上のクロス部362の形成部分をドライエッチングにより開口し、開口部53を形成する(図8A(1))。図8A(2)は、光検出装置1のおもて面となる素子形成面S1側から見た平面図である。図8A(1)は、図8A(2)のC-C’線で切断した光検出装置1の半導体構造の一例を示す部分縦断面図である。C-C’線は、平面視で、クロス部362及び画素110の光電変換部23を通る仮想線である。
 そして、開口部53にポリシリコン54を埋め込み、CMP(chemical mechanical polishing)やエッチバック等で平坦化する(図8B)。次に、図8Cに示すように、公知のエッチング技術を用いて、クロス部362の形成位置のポリシリコン54をエッチングする。これにより、開口部53内に埋め込まれたポリシリコン44を除去する。そして、開口部53内に窒化シリコン(SiN)を埋め込むことで膜55を形成し、膜55を公知のエッチング技術を用いて掘り込み、溝56を形成する。そして、HDP等を用いて、溝56に、例えば酸化シリコンを埋め込んで膜57を形成する(図8D)。
 その後、図8Eに示すように、例えば、公知のエッチバック技術、CMP法等により、レジスト膜52を除去し、露出面を平坦化する。これにより、膜57のうち溝45内に埋め込まれた部分が残る。その後、素子形成面S1にゲート電極TRGを形成し、そして露出面に配線層31を形成する。さらに、配線層31に支持基板(図示せず)を接合する。
 次に、図8Fに示すように、配線層31及び支持基板が設けられたシリコン基板51の上下を反転する。そして、図8Gに示すように、例えばCMP法によりシリコン基板51の素子形成面S1とは反対側の面を研削し、シリコン基板51を薄くする。これにより、半導体層32に相当する部分を残している。
 次に、図8Hに示すように、半導体層32の光入射面S2に対し、酸化膜58及び有機膜59を塗布する。そして、ウエットエッチングにより有機膜59を除去し(図8I(2)、その後に、スリット部361に埋め込まれたポリシリコン54を除去して開口部53を形成する(図8I(1))。
 次に、酸化膜58を除去し(図8J(2))、開口部53内にアルミニウム(Al)を埋め込むことで、スリット部361を形成する(図8J(1))。なお、アルミニウムを埋め込む前に、固定電荷膜を開口部53内に埋め込むようにしてもよい。
 そして、図8Kに示すように、WHPで窒化シリコン(SiN)の膜55を除去して開口部を形成し、開口部に酸化シリコンを埋め込み、画素間分離部36のクロス部362を形成する(図8K(2))。これにより、図8K(1)に示すように、複数の画素110がそれぞれ、スリット部361及びクロス部362で分離されている。なお、酸化シリコンを埋め込む前に、固定電荷膜を開口部に埋め込むようにしてもよい。
 <その他の実施形態>
 上記のように、本技術は第1から第3の実施形態によって記載したが、この開示の一部をなす論述及び図面は本技術を限定するものであると理解すべきではない。上記の第1から第3の実施形態が開示する技術内容の趣旨を理解すれば、当業者には様々な代替実施形態、実施例及び運用技術が本技術に含まれ得ることが明らかとなろう。また、第1から第3の実施形態がそれぞれ開示する構成を、矛盾の生じない範囲で適宜組み合わせることができる。例えば、複数の異なる実施形態がそれぞれ開示する構成を組み合わせてもよく、同一の実施形態の複数の異なる変形例がそれぞれ開示する構成を組み合わせてもよい。
 <電子機器への応用例>
 上述した光検出装置は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図9は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図9に示される撮像装置2201は、光学系2202、シャッタ装置2203、光検出装置としての固体撮像素子2204、制御回路2205、信号処理回路2206、モニタ2207、および2メモリ2208を備えて構成され、静止画像および動画像を撮像可能である。
 光学系2202は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子2204に導き、固体撮像素子2204の受光面に結像させる。
 シャッタ装置2203は、光学系2202および固体撮像素子2204の間に配置され、制御回路2205の制御に従って、固体撮像素子2204への光照射期間および遮光期間を制御する。
 固体撮像素子2204は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子2204は、光学系2202およびシャッタ装置2203を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子2204に蓄積された信号電荷は、制御回路2205から供給される駆動信号(タイミング信号)に従って転送される。
 制御回路2205は、固体撮像素子2204の転送動作、および、シャッタ装置2203のシャッタ動作を制御する駆動信号を出力して、固体撮像素子2204およびシャッタ装置2203を駆動する。
 信号処理回路2206は、固体撮像素子2204から出力された信号電荷に対して各種の信号処理を施す。信号処理回路2206が信号処理を施すことにより得られた画像(画像データ)は、モニタ2207に供給されて表示されたり、メモリ2208に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置2201においても、上述した固体撮像素子2204に代えて、光検出装置1を適用することが可能となる。
 <移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図10は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図10に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図10の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図11は、撮像部12031の設置位置の例を示す図である。
 図11では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図11には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 なお、本開示は以下のような構成も取ることができる。 
(1)
 外部から入射した光に応じて電気信号を生成可能な複数の画素が行列状に配置された半導体層と、
 前記半導体層に形成され、隣接する前記画素の間を分離する画素間分離部と、を備え、
 前記画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、前記行方向に延伸されるスリット部と前記列方向に延伸されるスリット部とが交差する交差部とを有し、
 前記交差部は、前記半導体層の厚さ方向に埋め込まれた第1の材料を有し、前記スリット部は、前記半導体層の厚さ方向に埋め込まれ、前記第1の材料に比して光の反射率の高い第2の材料を有する、光検出装置。
(2)
 前記交差部は、平面視において、丸形または矩形状である、上記(1)に記載の光検出装置。
(3)
 前記画素間分離部は、前記半導体層の光入射面から前記光入射面とは反対側の面に至り貫通して形成される、上記(1)に記載の光検出装置。
(4)
 前記第2の材料は、金属である、上記(1)に記載の光検出装置。
(5)
 前記第1の材料は、酸化シリコンであり、
 前記第2の材料は、アルミニウムである、上記(1)に記載の光検出装置。
(6)
 前記半導体層の光入射面は、凹凸構造を有する、上記(1)に記載の光検出装置。
(7)
 前記半導体層の光入射面とは反対側の面側に配線層を有する、上記(1)に記載の光検出装置。
(8)
 前記半導体層は、前記画素の内部の素子を分離する素子分離構造を有する、上記(1)に記載の光検出装置。
(9)
 外部から入射した光に応じて電気信号を生成可能な複数の画素が行列状に配置された半導体層と、
 前記半導体層に形成され、隣接する前記画素の間を分離する画素間分離部と、を備え、
 前記画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、前記行方向に延伸されるスリット部と前記列方向に延伸されるスリット部とが交差する交差部とを有し、
 前記交差部は、前記半導体層の厚さ方向に埋め込まれた第1の材料を有し、前記スリット部は、前記半導体層の厚さ方向に埋め込まれ、前記第1の材料に比して光の反射率の高い第2の材料を有する、光検出装置を備えた、電子機器。
(10)
 前記交差部は、平面視において、丸形または矩形状である、上記(9)に記載の電子機器。
(11)
 前記画素間分離部は、前記半導体層の光入射面から前記光入射面とは反対側の面に至り貫通して形成される、上記(9)に記載の電子機器。
(12)
 前記第2の材料は、金属である、上記(9)に記載の電子機器。
(13)
 前記第1の材料は、酸化シリコンであり、
 前記第2の材料は、アルミニウムである、上記(9)に記載の電子機器。
(14)
 前記半導体層の光入射面は、凹凸構造を有する、上記(9)に記載の電子機器。
(15)
 前記半導体層の光入射面とは反対側の面側に配線層を有する、上記(9)に記載の電子機器。
(16)
 前記半導体層は、前記画素の内部の素子を分離する素子分離構造を有する、上記(9)に記載の電子機器。
1 光検出装置
5 カラム信号処理回路
11 画素アレイ部
12 垂直駆動部
13 カラム処理部
14 水平駆動部
15 システム制御部
16 信号処理部
17 データ格納部
18 画素駆動線
19 垂直信号線
21 光電変換領域
22 画素回路
23 光電変換部
30 半導体構造
31 配線層
32 半導体層
33 層間膜
35 オンチップレンズ
36 画素間分離部
37 STI(Shallow Trench Isolation)
38 遮光壁
41,51 シリコン基板
42,52 レジスト膜
43,53 開口部
44,54 ポリシリコン
45,56 溝
46,48,55 膜
47 モスアイ部
48a 開口
49 開口部
58 酸化膜
59 有機膜
110 画素
231 n型領域
232 p型領域
311 配線パターン
361 スリット部
362 クロス部
2201 撮像装置
2202 光学系
2203 シャッタ装置
2204 固体撮像素子
2205 制御回路
2206 信号処理回路
2207 モニタ
2208 メモリ
12000 車両制御システム
12001 通信ネットワーク
12010 駆動系制御ユニット
12020 ボディ系制御ユニット
12030 車外情報検出ユニット
12031 撮像部
12040 車内情報検出ユニット
12041 運転者状態検出部
12050 統合制御ユニット
12051 マイクロコンピュータ
12052 音声画像出力部
12061 オーディオスピーカ
12062 表示部
12063 インストルメントパネル
12100 車両
12101~12105 撮像部
12111~12114 撮像範囲

Claims (16)

  1.  外部から入射した光に応じて電気信号を生成可能な複数の画素が行列状に配置された半導体層と、
     前記半導体層に形成され、隣接する前記画素の間を分離する画素間分離部と、を備え、
     前記画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、前記行方向に延伸されるスリット部と前記列方向に延伸されるスリット部とが交差する交差部とを有し、
     前記交差部は、前記半導体層の厚さ方向に埋め込まれた第1の材料を有し、前記スリット部は、前記半導体層の厚さ方向に埋め込まれ、前記第1の材料に比して光の反射率の高い第2の材料を有する、光検出装置。
  2.  前記交差部は、平面視において、丸形または矩形状である、請求項1に記載の光検出装置。
  3.  前記画素間分離部は、前記半導体層の光入射面から前記光入射面とは反対側の面に至り貫通して形成される、請求項1に記載の光検出装置。
  4.  前記第2の材料は、金属である、請求項1に記載の光検出装置。
  5.  前記第1の材料は、酸化シリコンであり、
     前記第2の材料は、アルミニウムである、請求項1に記載の光検出装置。
  6.  前記半導体層の光入射面は、凹凸構造を有する、請求項1に記載の光検出装置。
  7.  前記半導体層の光入射面とは反対側の面側に配線層を有する、請求項1に記載の光検出装置。
  8.  前記半導体層は、前記画素の内部の素子を分離する素子分離構造を有する、請求項1に記載の光検出装置。
  9.  外部から入射した光に応じて電気信号を生成可能な複数の画素が行列状に配置された半導体層と、
     前記半導体層に形成され、隣接する前記画素の間を分離する画素間分離部と、を備え、
     前記画素間分離部は、行方向及び列方向にそれぞれ延伸されるスリット部と、前記行方向に延伸されるスリット部と前記列方向に延伸されるスリット部とが交差する交差部とを有し、
     前記交差部は、前記半導体層の厚さ方向に埋め込まれた第1の材料を有し、前記スリット部は、前記半導体層の厚さ方向に埋め込まれ、前記第1の材料に比して光の反射率の高い第2の材料を有する、光検出装置を備えた、電子機器。
  10.  前記交差部は、平面視において、丸形または矩形状である、請求項9に記載の電子機器。
  11.  前記画素間分離部は、前記半導体層の光入射面から前記光入射面とは反対側の面に至り貫通して形成される、請求項9に記載の電子機器。
  12.  前記第2の材料は、金属である、請求項9に記載の電子機器。
  13.  前記第1の材料は、酸化シリコンであり、
     前記第2の材料は、アルミニウムである、請求項9に記載の電子機器。
  14.  前記半導体層の光入射面は、凹凸構造を有する、請求項9に記載の電子機器。
  15.  前記半導体層の光入射面とは反対側の面側に配線層を有する、請求項9に記載の電子機器。
  16.  前記半導体層は、前記画素の内部の素子を分離する素子分離構造を有する、請求項9に記載の電子機器。
PCT/JP2023/016304 2022-06-02 2023-04-25 光検出装置及び電子機器 WO2023233873A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-090129 2022-06-02
JP2022090129 2022-06-02

Publications (1)

Publication Number Publication Date
WO2023233873A1 true WO2023233873A1 (ja) 2023-12-07

Family

ID=89026256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/016304 WO2023233873A1 (ja) 2022-06-02 2023-04-25 光検出装置及び電子機器

Country Status (1)

Country Link
WO (1) WO2023233873A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206356A (ja) * 2008-02-28 2009-09-10 Toshiba Corp 固体撮像装置およびその製造方法
JP2015026708A (ja) * 2013-07-26 2015-02-05 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
US20180286896A1 (en) * 2017-03-29 2018-10-04 Samsung Electronics Co., Ltd. Image sensor
WO2020095674A1 (ja) * 2018-11-05 2020-05-14 ソニーセミコンダクタソリューションズ株式会社 撮像素子および製造方法、並びに電子機器
WO2021085172A1 (ja) * 2019-10-30 2021-05-06 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
WO2021149556A1 (ja) * 2020-01-20 2021-07-29 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および撮像装置
WO2021215303A1 (ja) * 2020-04-20 2021-10-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子機器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009206356A (ja) * 2008-02-28 2009-09-10 Toshiba Corp 固体撮像装置およびその製造方法
JP2015026708A (ja) * 2013-07-26 2015-02-05 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
US20180286896A1 (en) * 2017-03-29 2018-10-04 Samsung Electronics Co., Ltd. Image sensor
WO2020095674A1 (ja) * 2018-11-05 2020-05-14 ソニーセミコンダクタソリューションズ株式会社 撮像素子および製造方法、並びに電子機器
WO2021085172A1 (ja) * 2019-10-30 2021-05-06 ソニーセミコンダクタソリューションズ株式会社 受光素子、測距モジュール、および、電子機器
WO2021149556A1 (ja) * 2020-01-20 2021-07-29 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および撮像装置
WO2021215303A1 (ja) * 2020-04-20 2021-10-28 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および電子機器

Similar Documents

Publication Publication Date Title
JP7125345B2 (ja) 撮像素子、撮像素子の製造方法、及び、電子機器
WO2021044807A1 (en) Solid-state imaging device and imaging device with shared circuit elements
WO2020085265A1 (en) Solid-state imaging device and imaging device
US11521998B2 (en) Solid-state imaging device and imaging device
US20240145507A1 (en) Imaging device
US20230013149A1 (en) Solid-state image pickup device and electronic apparatus
WO2019078291A1 (ja) 撮像装置
JP7531272B2 (ja) 撮像装置
TW202137528A (zh) 固體攝像裝置及其製造方法
WO2023013554A1 (ja) 光検出器及び電子機器
WO2023233873A1 (ja) 光検出装置及び電子機器
WO2023233872A1 (ja) 光検出装置及び電子機器
WO2023181657A1 (ja) 光検出装置及び電子機器
WO2024057739A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2023248388A1 (ja) 光検出装置及び電子機器
WO2023189130A1 (ja) 光検出装置及び電子機器
WO2024057724A1 (ja) 撮像装置、及び電子機器
WO2020149181A1 (ja) 撮像装置
WO2023171147A1 (ja) 半導体装置、光検出装置、及び電子機器
WO2021153030A1 (ja) 固体撮像装置およびその製造方法
WO2024128103A1 (en) Light sensing device
US20220415952A1 (en) Imaging devices and imaging apparatuses, and methods for the same
JP2024094103A (ja) 光検出装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23815634

Country of ref document: EP

Kind code of ref document: A1