WO2023007797A1 - 固体撮像素子、撮像装置、および電子機器 - Google Patents

固体撮像素子、撮像装置、および電子機器 Download PDF

Info

Publication number
WO2023007797A1
WO2023007797A1 PCT/JP2022/008491 JP2022008491W WO2023007797A1 WO 2023007797 A1 WO2023007797 A1 WO 2023007797A1 JP 2022008491 W JP2022008491 W JP 2022008491W WO 2023007797 A1 WO2023007797 A1 WO 2023007797A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor element
imaging device
solid
state imaging
pad electrode
Prior art date
Application number
PCT/JP2022/008491
Other languages
English (en)
French (fr)
Inventor
恭輔 山田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to CN202280048904.4A priority Critical patent/CN117652029A/zh
Priority to DE112022003725.3T priority patent/DE112022003725T5/de
Priority to JP2023538233A priority patent/JPWO2023007797A1/ja
Priority to KR1020247000816A priority patent/KR20240035449A/ko
Publication of WO2023007797A1 publication Critical patent/WO2023007797A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14665Imagers using a photoconductor layer
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • H01L27/1469Assemblies, i.e. hybrid integration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors

Definitions

  • the present disclosure relates to a solid-state imaging device, an imaging device, and electronic equipment, and more particularly to a solid-state imaging device, an imaging device, and an electronic device that are capable of reducing the effects of forming PAD electrodes.
  • the present disclosure has been made in view of such circumstances, and in particular, enables the reduction of the influence when the PAD electrodes are formed.
  • a solid-state imaging device, an imaging device, and an electronic device have a first semiconductor device having an imaging device that photoelectrically converts incident light, and a signal processing circuit that processes pixel signals of the imaging device.
  • a second semiconductor element that is smaller than the first semiconductor element, the periphery of the second semiconductor element is embedded with an embedding member, and a PAD electrode is formed in the embedding member
  • They are an imaging device, an imaging device, and an electronic device.
  • a first semiconductor element having an imaging element that photoelectrically converts incident light, and a signal processing circuit that performs signal processing on pixel signals of the imaging element.
  • 2 semiconductor elements are provided, the periphery of the second semiconductor element is embedded with an embedding member, and a PAD electrode is formed in the embedding member.
  • FIG. 1 is a top view of a configuration example of a first embodiment of a solid-state imaging device of the present disclosure
  • FIG. It is AB sectional drawing of FIG.
  • FIG. 3 is a diagram for explaining a first step of a method for manufacturing the solid-state imaging device of FIGS. 1 and 2
  • FIG. 3 is a diagram for explaining a second step of the method for manufacturing the solid-state imaging device of FIGS. 1 and 2
  • FIG. 3 is a view for explaining a third step of the method for manufacturing the solid-state imaging device of FIGS. 1 and 2
  • FIG. 10 is a diagram illustrating a fourth step of the method for manufacturing the solid-state imaging device of FIGS.
  • FIG. 7 is a cross-sectional view of a configuration example of a second embodiment of the solid-state imaging device of the present disclosure
  • 12A and 12B are diagrams for explaining a first step of a method for manufacturing the solid-state imaging device of FIG. 11;
  • FIG. 11 is a cross-sectional view of a second application example of the second embodiment of the solid-state imaging device of the present disclosure
  • FIG. 12 is a cross-sectional view of a third application example of the second embodiment of the solid-state imaging device of the present disclosure
  • FIG. 11 is a top view of a configuration example of a solid-state imaging device according to a third embodiment of the present disclosure
  • FIG. 23 is a diagram for explaining a first step of a method for manufacturing the solid-state imaging device of FIGS. 21 and 22
  • FIG. 23 is a view for explaining a second step of the method for manufacturing the solid-state imaging device of FIGS. 21 and 22
  • FIG. 23 is a view for explaining a third step of the method for manufacturing the solid-state imaging device of FIGS. 21 and 22;
  • FIG. 23 is a view for explaining a fourth step of the method for manufacturing the solid-state imaging device of FIGS. 21 and 22;
  • FIG. FIG. 23 is a view for explaining a fifth step of the manufacturing method of the solid-state imaging device of FIGS. 21 and 22;
  • FIG. 23 is a view for explaining a sixth step of the method for manufacturing the solid-state imaging device of FIGS. 21 and 22;
  • FIG. FIG. 23 is a view for explaining a seventh step of the manufacturing method of the solid-state imaging device of FIGS. 21 and 22;
  • FIG. 23 is a view for explaining an eighth step of the method for manufacturing the solid-state imaging device of FIGS.
  • FIG. 23 is a view for explaining a ninth step of the method for manufacturing the solid-state imaging device of FIGS. 21 and 22;
  • FIG. It is a figure explaining the example of application to an electronic device. It is a figure explaining the usage example of a solid-state image sensor.
  • 1 is a block diagram showing an example of a schematic configuration of a vehicle control system;
  • FIG. 4 is an explanatory diagram showing an example of installation positions of an outside information detection unit and an imaging unit;
  • Embodiments for implementing the present technology will be described below. The explanation is given in the following order. 1. First Embodiment 2. Second embodiment 3. 4. First application example of the second embodiment. Second application example of the second embodiment5. Third application example of the second embodiment6. Third embodiment7. Application example to electronic equipment 8 . Usage example of solid-state imaging device 9 . Example of application to mobile objects
  • First Embodiment>> 1 and 2 show configuration examples of a first embodiment of a solid-state imaging device of the present disclosure.
  • FIG. 1 shows a top view of the solid-state imaging device 11 when viewed from the incident direction of incident light
  • FIG. 2 is an AB cross-sectional view of the solid-state imaging device 11 in FIG.
  • the solid-state imaging device 11 is laminated in the order of a layer made up of the support substrate 55, a layer made up of the logic substrate 34, a layer made up of the oxide film 53, and a layer made up of the image sensor 31 from the bottom.
  • the image sensor 31 is composed of a photoelectric conversion layer 31a and a wiring layer 31b.
  • the wiring layer 31b is electrically CuCu-bonded at positions facing the terminals 53a-1 to 53a-4 formed on the oxide film 53. Terminals 31c-1 to 31c-4 are formed.
  • an on-chip filter 51 that transmits incident light according to the wavelengths of RGB from below and an on-chip lens 52 that collects the incident light on the photoelectric conversion layer 31a are formed.
  • the logic board 34 is composed of a circuit that executes various signal processing and the like on pixel signals that form an image picked up by the image sensor 31, is manufactured on a wafer, and among the individualized ones, the electrical Those which have been confirmed to be non-defective products by various inspections are selected and stacked on the support substrate 55 .
  • a silicon layer 34a is formed in the lower part of the drawing, and a wiring layer 34b is formed in the upper part.
  • the logic board 34 has a rectangular configuration smaller than the image sensor 31 when viewed from above, so that when the image sensor 31 is stacked on the logic board 34, the logic board 34 is surrounded by Thus, a gap is formed between the image sensor 31 and the support substrate 55 . An embedding member 54 is embedded in this gap portion.
  • the embedding member 54 is formed with rectangular recessed portions 54a at predetermined intervals so as to surround the logic substrate 34.
  • a rectangular PAD electrode 33 is formed in each of the portions 54a.
  • the image sensor 31 is formed with a rectangular through-hole 32 passing through the image sensor 31 above the PAD electrode 33 and smaller than the PAD electrode 33 .
  • a wire (metal wiring) (not shown) connected to an external signal processing unit is bonded (connected) to the PAD electrode 33 by passing through the through hole 32 .
  • the image sensor 31 is electrically connected to the logic board .
  • the PAD electrodes 33 are formed outside the wiring layer of the logic substrate 34, which is a small semiconductor element, and layout becomes possible, so that the area efficiency related to the arrangement of the PAD electrodes 33 can be improved. .
  • the metal part such as aluminum that constitutes the PAD electrode 33 is formed in the recessed part 54a in the embedded member 54, so that the HDP (High Density Plasma) film is unnecessary, and the hydrogen effect caused by HDP is reduced. It is possible to
  • the PAD electrode 33 is embedded in the embedded member 54, it is possible to reduce the parasitic capacitance more than when the PAD electrode 33 is formed in a semiconductor element such as the logic substrate 34. . Furthermore, by using a material with a lower dielectric constant for the embedded member 54, it is possible to further reduce the parasitic capacitance that occurs when the PAD electrode 33 is formed.
  • the configuration as shown in FIGS. 1 and 2 makes it possible to reduce various effects caused when the PAD electrodes 33 are formed.
  • FIG. 3 shows that the logic boards 34-1 and 34-2 are separated into individual pieces by a cutter 101 and manufactured.
  • non-defective products are selected by electrical inspection from among the individualized logic boards 34 and temporarily bonded onto the rearrangement board 71 .
  • the wiring layer 34b of the logic board 34 and the rearrangement board 71 are temporarily joined so as to face each other.
  • the logic substrate 34 temporarily bonded to the rearrangement substrate 71 is bonded by bonding such that the silicon layer 34a faces the support substrate 55. As shown in FIG. be.
  • the terminals 53a-1 to 53a-4 are connected to the PAD electrode 33 and the wiring layer 34b of the logic substrate 34, respectively, and the oxide film 53 is connected to the trench 54a. and the embedded member 54 including the PAD electrode 33 and the logic substrate 34 .
  • the terminals 31c-1 to 31c-4 of the wiring layer 31b of the image sensor 31 and the terminals 53a-1 to 53a-4 of the oxide film 53 face each other.
  • CuCu is bonded.
  • the photoelectric conversion layer 31a of the image sensor 31 is thinned, and after the on-chip filter 51 and the on-chip lens 52 are laminated on the image sensor 31, the PAD electrodes are formed.
  • a rectangular through-hole 32 which is located at a position corresponding to 33 and is smaller than the PAD electrode 33 when viewed from above is formed so as to penetrate the image sensor 31 to complete the solid-state imaging device 11 .
  • FIG. 11 shows a configuration example of a solid-state imaging device 11A in which two Logic boards 34 are laminated on a support board 55. As shown in FIG. 11
  • the structure having the function corresponding to the structure of the solid-state imaging device 11 of FIGS. do.
  • the solid-state imaging device 11A of FIG. 11 differs from the solid-state imaging device 11 of FIGS. 1 and 2 in that two logic boards 34A-1 and 34A-2 are laminated.
  • Logic substrates 34A-1 and 34A-2 have silicon layers 34Aa-1 and 34Aa-2 formed at the bottom in the drawing, and wiring layers 34Ab-1 and 34Ab-2 formed thereon.
  • three terminals 53Aa are formed at positions facing the terminals 34Ac-2 of the logic board 34A-2 and are electrically connected.
  • the terminals 53Aa-1 to 53Aa-3 at positions facing the terminals 34Ac-2-1 to 34Ac-2-3 of the three logic substrates 34A-2 in FIG. It is
  • Electrodes 61A-1 and 61A-2 penetrating through the silicon layer 34Aa-1 are formed on the logic substrate 34A-1.
  • Logic boards 34A-1 and 34A-2 are electrically connected to each other.
  • terminal 34Ac-2-3 of the logic substrate 34A-2 is CuCu-bonded to the terminal 53Aa-3 of the oxide film 53A, which is provided at the opposite position. It is connected to the PAD electrode 33A via the internal wiring 53Ab. Thereby, the logic board 34A-2 is electrically connected to the PAD electrode 33.
  • the PAD electrode 33A is formed in a recessed portion 54Aa recessed upward in the drawing, which is formed in the embedding member 54A-1 of the logic board 34A-1.
  • a through hole 32A penetrating through the image sensor 31A and the logic substrate 34A-1 is formed directly above the PAD electrode 33A in the figure.
  • the individualized Logic board 34A-1 and the image sensor 31A are joined.
  • the terminals 34Ac-1-1 to 34Ac-1-3 of the wiring layer 34Ab-1 of the logic board 34A-1 are provided at opposing positions, respectively, and the terminals 31Ac-1 of the wiring layer 31Ab of the image sensor 31 to 31Ac-3 and CuCu bonding.
  • an embedding member 54A-1 is embedded in the peripheral portion surrounding the logic substrate 34A-1 with the same thickness as the logic substrate 34A-1, and further, Square-shaped recesses 54Aa-1 are formed in the embedded member 54A-1 at predetermined intervals so as to surround the logic substrate 34A-1.
  • the PAD electrode 33A is formed in the recessed portion 54Aa-1, and the through electrode 61A is formed.
  • an oxide film 53 is formed, and terminals 53Aa-1 to 53Aa-3 are formed. Further, the terminals 53Aa-1 to 53Aa-3 and the terminals 34Ac-2-1 to 34Ac-2-3 are CuCu-bonded while facing each other, thereby bonding the oxide film 53 and the logic substrate 34-2. .
  • an embedding member 54A-2 is embedded so as to surround the logic substrate 34-2 and to have the same thickness as the logic substrate 34-2.
  • a support substrate 55A is layered on and bonded to the embedded member 54A-2.
  • the configuration shown in FIG. 16 is turned upside down, and the photoelectric conversion layer 31Aa of the image sensor 31A is thinned to form an on-chip layer on the image sensor 31A.
  • a filter 51A and an on-chip lens 52A are stacked.
  • a rectangular through-hole 32A which is located at a position corresponding to the PAD electrode 33A and is smaller than the PAD electrode 33 when viewed from above, penetrates the on-chip filter 51A, the image sensor 31A, and the embedded member 54A-2. Thus, the solid-state imaging device 11A is completed.
  • the silicon layers and wiring layers of the two Logic boards do not have to be laminated in the same direction.
  • FIG. 18 shows a configuration example of a solid-state imaging device in which the silicon layer and the wiring layer of two Logic substrates are stacked upside down.
  • the logic board 34B-1 has a silicon layer 34Ba-1 at the top and a wiring layer 34Bb-1 at the bottom.
  • the silicon layer 34Aa-1 of -1 and the wiring layer 34Ab-1 are upside down.
  • the oxide film 53B is formed between the logic substrates 34A-1 and 34A-2, the oxide film 53B is formed between the image sensor 31B and the logic substrate 34B-1. is formed between
  • a logic board 34B-2 is provided at a position facing the terminals 34Bc-1-1 and 34Bc-1-2 of the logic board 34B-1. terminals 34Ac-2-1 and 34Ac-2-2 are formed and connected by CuCu bonding.
  • the terminals 31Bc-1 to 31Bc-4 of the image sensor 31B which are provided at positions facing the terminals 53Ba-1 to 53Ba-4 of the oxide film 53B, are connected to each other by CuCu bonding. It is
  • the through electrodes 61B-1 to 61B-1 penetrating the silicon layer 34Ba-1 of the logic substrate 34B-1. 61B-3, thereby electrically connecting the logic boards 34B-1 and 34B-2.
  • terminals 31Bc-3 and 31Bc-4 of the image sensor 31B are connected via wiring 31Bd inside the image sensor 31B.
  • the terminal 31Bc-4 is CuCu-bonded to the terminal 53Ba-4 of the oxide film 53B, and the terminal 53Ba-4 is connected to the PAD electrode 33B.
  • the logic board 34B-1 is electrically connected to the PAD electrode 33B through the image sensor 31B.
  • the PAD electrode 33B is formed in a recessed portion 54Ba-1 recessed downward in the drawing, which is formed in the embedded member 54B-1 of the logic board 34B-1.
  • an image sensor 31B corresponding to the PAD electrode 33B and a through hole 32B penetrating through the oxide film 53B are formed.
  • the method of manufacturing the solid-state imaging device 11B is basically the same as that of the solid-state imaging device 11A, so the description thereof will be omitted.
  • Second application example of the second embodiment An example of the solid-state imaging device 11B in which the two logic boards 34B-1 and 34B-2 are sandwiched and laminated between the image sensor 31B and the support board 55B has been described above.
  • the logic board that is not in contact with the image sensor 31 may be made to have the same size as the image sensor 31 and function as a support board, thereby omitting the support board. .
  • FIG. 19 shows a configuration example of a solid-state imaging device in which two Logic boards and an image sensor are laminated and a support board is omitted.
  • the solid-state imaging device 11C of FIG. 19 differs from the solid-state imaging device 11B of FIG. 18 in that the logic board 34C-2 corresponding to the logic board 34B-2 has the same size as the image sensor 31C, and the supporting board 55B The point is that the configuration corresponding to is omitted.
  • the logic substrate 34C-2 has the same size as the image sensor 31, so that it can function as a support substrate. It is possible to have a configuration consisting of three layers, a layer consisting of the sensor 31C, a layer consisting of the logic board 34C-1 and the embedded member 54C, and a layer consisting of the logic board 34C-2.
  • the manufacturing method of the solid-state imaging device 11C is basically the same as that of the solid-state imaging device 11A, but only the step of stacking the supporting substrate is omitted, so the explanation thereof will be omitted.
  • the step of laminating the supporting substrate is not required, the cost can be reduced by simplifying the manufacturing process. .
  • FIG. 20 shows a configuration example of a solid-state imaging device in which two logic boards and an image sensor are stacked, and a through hole is provided on the back side of the imaging surface of the image sensor so that a back electrode is provided. showing.
  • the solid-state imaging device 11D of FIG. 20 differs from the solid-state imaging device 11A of FIG. 11 in that, when viewed from the back side of the imaging surface of the image sensor 31D, a support substrate 55D and The difference is that a through hole 81 is formed to penetrate the embedded member 54D-2.
  • a wiring 82 is formed that is connected to the wiring 53Db in the oxide film 53D that is connected to the PAD electrode 33.
  • a back surface electrode 83 is formed on the back surface side of the solid-state imaging device 11D connected to the wiring 82.
  • the through hole 32D on the image sensor 31 side is filled with an insulating material, so that wire bonding cannot be performed from the imaging surface side.
  • each layer includes an image sensor, a logic substrate, a support substrate, and the like has been described.
  • 21 and 22 show a configuration example of a third embodiment of a solid-state imaging device in which a plurality of logic boards are arranged on the same layer.
  • FIG. 21 shows a top view of the solid-state imaging device 111 viewed from the incident direction of incident light
  • FIG. 22 is an AB cross-sectional view of the solid-state imaging device 111 in FIG.
  • the solid-state imaging device 111 includes, from the bottom, a layer made up of a support substrate 155, logic substrates 134-2-1 and 134-2-2, a layer made up of an embedded member 154-2, an oxide film.
  • a layer of 153-2, a layer of logic substrate 134-1 and embedded member 154-1, a layer of oxide film 153-1, and a layer of image sensor 131 are stacked in this order.
  • the image sensor 131 is composed of a photoelectric conversion layer 131a and a wiring layer 131b.
  • the wiring layer 131b faces three terminals 153a-1-1 to 153a-1-3 formed on the oxide film 153-1.
  • Three terminals 131c-1 to 131c-3 electrically CuCu-bonded are formed at respective positions.
  • an on-chip filter 151 that transmits incident light corresponding to RGB wavelengths from below and an on-chip lens 152 that collects the incident light on the photoelectric conversion layer 131a are formed.
  • Logic substrates 134-2-1 and 134-2-2 are selected as being electrically non-defective and stacked on support substrate 155. At this time, silicon layer 134a-2 is laminated on support substrate 155. -1 and 134a-2-2 are at the bottom in the drawing, and wiring layers 134b-2-1 and 134b-2-2 are at the top.
  • the logic boards 134-2-1 and 134-2-2 each have a rectangular shape smaller than both the image sensor 131 and the logic board 134-1 when viewed from above. Due to the configuration, the embedding member 154-2 is embedded in the range surrounding both including between the logic boards 134-2-1 and 134-2-2.
  • Logic boards 134-1 are selected from those that have been confirmed to be electrically non-defective, and are laminated so as to extend over the Logic boards 134-2-1 and 134-2-2. , the silicon layer 134a-1 is at the bottom and the wiring layer 134b-1 is at the top.
  • the logic board 134-1 has a rectangular configuration smaller than the image sensor 131 when viewed from above, so that the embedding member 154-1 is embedded.
  • the embedding member 154-1 is formed with square recessed portions 154a at predetermined intervals so as to surround the logic substrate 134-1. , and a rectangular PAD electrode 133 are formed in each of the recessed portions 154a.
  • the oxide film 153-1 is provided with terminals 153a-1-1 to 153a-1-3 which are connected to the terminals 131c-1 to 131c-3 of the image sensor 131 by CuCu bonding, respectively. 21, terminals 131c-1 to 131c-3 and terminals 153a-1-1 to 153a-1-3 are provided, which are provided at opposite positions and are CuCu-bonded to each other. .
  • terminal 131c-3 and the terminal 153a-1-3 on the left side in FIG. 2-2 it is electrically connected to the logic board 134-2-1.
  • the through electrode 161-1 electrically connected to the PAD electrode 133 is provided in the embedded member 154-1, and the wiring in the oxide film 153-2 is provided. It is electrically connected to the logic board 134-2-1 via 153a-2-3.
  • logic substrates 134-2-1 and 134-2-2 are electrically connected to each other via wiring 153a-2-1 in the oxide film 153.
  • the image sensor 131 and the oxide film 153 are provided with a rectangular through-hole 132 above the PAD electrode 133 and smaller than the PAD electrode 133 .
  • a wire (not shown) connected to an external signal processing unit is bonded to the PAD electrode 133 by passing through the through hole 132 .
  • wires are connected through the PAD electrode 133, the through electrode 161-1, and the wiring 153a-2-3 of the oxide film 153-2. are connected to the Logic board 134-2-1.
  • the logic board 134-2-1 is connected to the image sensor 131 via the through electrodes 161-2 and the terminals 153a-1-3 and 131c-3. Therefore, the PAD electrode 133 is also connected to the image sensor 131 via the Logic board 134-2-1.
  • the logic substrate 134-1 is also connected to the image sensor 131, the PAD electrode 133 is connected through the through electrode 161-1, the logic substrate 134-2-1, the through electrode 161-2, and the image sensor 131. Logic 134-1 is also connected.
  • the PAD electrodes 133 are formed outside the wiring layer of the logic substrate 134-1, which is a small semiconductor element, and layout is possible, so that the area efficiency related to the arrangement of the PAD electrodes 133 can be improved. becomes.
  • solder connection is performed with heating, so if wiring or the like exists directly under the PAD electrode 133, there is a risk of damage due to heating.
  • the metal part such as aluminum that constitutes the PAD electrode 133 is formed in the recessed part 154a in the embedded member 154-1, so that the HDP (High Density Plasma) film is unnecessary, and the hydrogen influence caused by HDP can be reduced.
  • HDP High Density Plasma
  • the PAD electrode 133 is embedded in the embedded member 154-1, it is possible to reduce the parasitic capacitance more than when the PAD electrode 133 is formed in a semiconductor element such as the logic substrate 134. becomes. Furthermore, by using a material with a lower dielectric constant for the embedded member 154-1, it is possible to further reduce the parasitic capacitance that occurs when the PAD electrode 133 is formed.
  • the configuration shown in FIGS. 21 and 22 makes it possible to reduce various effects caused when the PAD electrodes 133 are formed.
  • a plurality of logic substrates 134-1 and 134-2 are formed on a wafer, thinned, and singulated. Then, as shown in FIG. 23, from among the individualized logic boards 134-1 and 134-2, non-defective products are selected by electrical inspection and transferred to rearrangement boards 201-1 and 201-2, respectively. Temporarily join on top.
  • the wiring layer 134b-1 of the logic board 134-1 and the rearrangement board 201-1 are temporarily joined so as to face each other, and the logic boards 134-2-1 and 134
  • the wiring layers 134b-2-1 and 134b-2-2 of -2-2 and the rearrangement substrate 201-2 are temporarily joined so as to face each other.
  • the logic substrates 134-2-1 and 134-2-2 temporarily bonded to the rearrangement substrate 201-2 are placed on the silicon layer 134a-2-1. , 134 a - 2 - 2 are adhered and bonded in a direction facing the support substrate 155 .
  • the embedding member 154-2 is embedded with the same thickness as that of 2-2.
  • an oxide film 153-2 including wiring 153a-2 is formed on the logic substrates 134-2-1 and 134-2-2 and the embedded member 154-2. It is formed.
  • the logic substrate 134-1 temporarily bonded to the rearrangement substrate 201-1 is placed so that the silicon layer 134a-1 faces the oxide film 153-2. Oriented and pasted together.
  • embedded members 154-1 are formed so as to surround the logic substrate 134-1, and are square-shaped when viewed from above at predetermined intervals, and A recessed portion 154a is formed downward from the side surface.
  • an oxide film 153-1 having terminals 153a-1-1 to 153a-1-3 is formed. be. Furthermore, the terminals 131c-1 to 131c-3 of the wiring layer 131b of the image sensor 131 and the terminals 153a-1-1 to 153a-1-3 of the oxide film 153-1 are joined to face each other.
  • the photoelectric conversion layer 131a of the image sensor 131 is thinned, and after the on-chip filter 151 and the on-chip lens 152 are laminated on the image sensor 131, the PAD electrode is formed.
  • a rectangular through-hole 132 which is located at a position corresponding to 133 and is smaller than the PAD electrode 133 when viewed from above, is formed to penetrate the image sensor 131 and the oxide film 153-1, completing the solid-state imaging device 111. do.
  • the solid-state imaging device described above can be applied to various electronic devices such as imaging devices such as digital still cameras and digital video cameras, mobile phones with imaging functions, and other devices with imaging functions. .
  • FIG. 32 is a block diagram showing a configuration example of an imaging device as an electronic device to which this technology is applied.
  • the imaging device 501 shown in FIG. 32 comprises an optical system 502, a shutter device 503, a solid-state imaging device 504, a driving circuit 505, a signal processing circuit 506, a monitor 507, and a memory 508, and captures still images and moving images. Imaging is possible.
  • the optical system 502 is configured with one or more lenses, guides the light (incident light) from the subject to the solid-state imaging device 504, and forms an image on the light-receiving surface of the solid-state imaging device 504.
  • the shutter device 503 is arranged between the optical system 502 and the solid-state image sensor 504 and controls the light irradiation period and the light shielding period for the solid-state image sensor 504 according to the control of the drive circuit 505 .
  • the solid-state image sensor 504 is configured by a package including the solid-state image sensor described above.
  • the solid-state imaging device 504 accumulates signal charges for a certain period of time according to the light imaged on the light receiving surface via the optical system 502 and the shutter device 503 .
  • the signal charges accumulated in the solid-state imaging device 504 are transferred according to the drive signal (timing signal) supplied from the drive circuit 505 .
  • a drive circuit 505 drives the solid-state image sensor 504 and the shutter device 503 by outputting drive signals for controlling the transfer operation of the solid-state image sensor 504 and the shutter operation of the shutter device 503 .
  • a signal processing circuit 506 performs various signal processing on the signal charges output from the solid-state imaging device 504 .
  • An image (image data) obtained by the signal processing performed by the signal processing circuit 506 is supplied to the monitor 507 to be displayed, or supplied to the memory 508 to be stored (recorded).
  • the imaging device 501 configured in this way, by applying the above-described solid-state imaging elements 11, 11A to 11D, 111, it is possible to improve the area efficiency related to the arrangement of the PAD electrodes. Also, in wire bonding, it is possible to suppress damage to wiring. Furthermore, since the PAD electrode is configured within the embedding member, an HDP (High Density Plasma) film becomes unnecessary, and it is possible to reduce the influence of hydrogen caused by HDP. Also, it is possible to reduce the parasitic capacitance generated in the wiring connected to the PAD electrode.
  • HDP High Density Plasma
  • FIG. 33 is a diagram showing a usage example using the solid-state imaging devices 11, 11A to 11D, 111 described above.
  • the solid-state imaging device described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays, for example, as follows.
  • ⁇ Devices that capture images for viewing purposes such as digital cameras and mobile devices with camera functions
  • Devices used for transportation such as in-vehicle sensors that capture images behind, around, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles.
  • Equipment used for medical and health care ⁇ Equipment used for security purposes such as surveillance cameras for crime prevention and cameras for personal authentication ⁇ Skin measuring instruments for photographing the skin and photographing the scalp
  • Devices used for beauty such as microscopes used for sports, devices used for sports such as action cameras and wearable cameras for sports
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be realized as a device mounted on any type of moving body such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, and robots. may
  • FIG. 34 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • a vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output unit 12052, and an in-vehicle network I/F (Interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • the body system control unit 12020 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • the body system control unit 12020 receives the input of these radio waves or signals and controls the door lock device, power window device, lamps, etc. of the vehicle.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle in which the vehicle control system 12000 is installed.
  • the vehicle exterior information detection unit 12030 is connected with an imaging section 12031 .
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image, and can also output it as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver state detection section 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing off.
  • the microcomputer 12051 calculates control target values for the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and controls the drive system control unit.
  • a control command can be output to 12010 .
  • the microcomputer 12051 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control can be performed for the purpose of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation of vehicles, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, etc. based on the information about the vehicle surroundings acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver's Cooperative control can be performed for the purpose of autonomous driving, etc., in which vehicles autonomously travel without depending on operation.
  • the microcomputer 12051 can output a control command to the vehicle exterior information detection unit 12030 based on the vehicle exterior information acquired by the vehicle exterior information detection unit 12030 .
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control aimed at anti-glare such as switching from high beam to low beam. It can be carried out.
  • the audio/image output unit 12052 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an on-board display and a head-up display, for example.
  • FIG. 35 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 has imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 12100, for example.
  • An image pickup unit 12101 provided in the front nose and an image pickup unit 12105 provided above the windshield in the passenger compartment mainly acquire images in front of the vehicle 12100 .
  • Imaging units 12102 and 12103 provided in the side mirrors mainly acquire side images of the vehicle 12100 .
  • An imaging unit 12104 provided in the rear bumper or back door mainly acquires an image behind the vehicle 12100 .
  • the imaging unit 12105 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 35 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided in the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided in the side mirrors, respectively
  • the imaging range 12114 The imaging range of an imaging unit 12104 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera composed of a plurality of imaging elements, or may be an imaging element having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and changes in this distance over time (relative velocity with respect to the vehicle 12100). , it is possible to extract, as the preceding vehicle, the closest three-dimensional object on the traveling path of the vehicle 12100, which runs at a predetermined speed (for example, 0 km/h or more) in substantially the same direction as the vehicle 12100. can. Furthermore, the microcomputer 12051 can set the inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including following stop control) and automatic acceleration control (including following start control). In this way, cooperative control can be performed for the purpose of automatic driving in which the vehicle runs autonomously without relying on the operation of the driver.
  • automatic brake control including following stop control
  • automatic acceleration control including following start control
  • the microcomputer 12051 converts three-dimensional object data related to three-dimensional objects to other three-dimensional objects such as motorcycles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into those that are visible to the driver of the vehicle 12100 and those that are difficult to see. Then, the microcomputer 12051 judges the collision risk indicating the degree of danger of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, an audio speaker 12061 and a display unit 12062 are displayed. By outputting an alarm to the driver via the drive system control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not the pedestrian exists in the captured images of the imaging units 12101 to 12104 .
  • recognition of a pedestrian is performed by, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and performing pattern matching processing on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular outline for emphasis to the recognized pedestrian. is superimposed on the display unit 12062 . Also, the audio/image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the solid-state imaging devices 11, 11A to 11D, 111 can be applied to the imaging unit 12031.
  • FIG. By applying the technology according to the present disclosure to the imaging unit 12031, the area efficiency related to the arrangement of the PAD electrodes can be improved, the damage to the wiring can be suppressed, the influence of hydrogen caused by HDP can be reduced, and the parasitic capacitance can be reduced. becomes possible.
  • a first semiconductor device having an imaging device that photoelectrically converts incident light;
  • a second semiconductor element smaller than the first semiconductor element having a signal processing circuit for signal processing pixel signals of the imaging device,
  • a solid-state imaging device wherein the periphery of the second semiconductor element is embedded with an embedding member, and a PAD electrode is formed in the embedding member.
  • the embedding member is made of a material with a low dielectric constant.
  • a through hole is formed right above the PAD electrode in a direction opposite to the incident direction of the incident light, penetrating the first semiconductor element and reaching the PAD electrode ⁇ 1> to ⁇ 3>.
  • ⁇ 5> The solid-state imaging device according to ⁇ 4>, wherein the through-hole is formed so as to penetrate the embedding member in addition to the first semiconductor element and reach the PAD electrode.
  • ⁇ 6> The solid-state imaging device according to ⁇ 4>, wherein a wire connected to an external signal processing device is inserted through the through hole and bonded to the PAD electrode.
  • ⁇ 7> Further comprising a third semiconductor element different from the second semiconductor element, having a signal processing circuit for signal processing of pixel signals of the imaging element,
  • the first semiconductor element, the second semiconductor element, and the third semiconductor element are arranged in the order of the first semiconductor element, the second semiconductor element, and the third semiconductor element from the incident direction of the incident light.
  • the third semiconductor element has the same size as the first semiconductor element.
  • the third semiconductor element is smaller than the first semiconductor element
  • the solid-state imaging device according to ⁇ 7> wherein the layer including the third semiconductor element is embedded with an embedding member different from the embedding member around the third semiconductor element.
  • ⁇ 10> further comprising a support substrate having the same size as the first semiconductor element, From the incident direction of the incident light, the first semiconductor element, the second semiconductor element, the third semiconductor element, and the supporting substrate are arranged in this order: the first semiconductor element, the second semiconductor element, and the second semiconductor element.
  • the solid-state imaging device according to ⁇ 9> wherein layers each including a semiconductor element, the third semiconductor element, and the support substrate are laminated.
  • ⁇ 11> a through hole penetrating through the supporting substrate and the third semiconductor element from a direction opposite to the incident direction of the incident light; an inner wall wiring electrically connected to the PAD electrode on the inner wall of the through hole; a back surface electrode is formed near the through hole on the back surface side of the support substrate when the incident direction of the incident light is the front surface;
  • the second semiconductor element and the third semiconductor element each include a silicon layer and a wiring layer, and the silicon layer and the wiring layer are the same with respect to the incident direction of the incident light.
  • the solid-state imaging device according to ⁇ 9> which is laminated in order.
  • the second semiconductor element and the third semiconductor element each include a silicon layer and a wiring layer, and the order in which the silicon layer and the wiring layer differ with respect to the incident direction of the incident light.
  • the solid-state imaging device according to ⁇ 9> which is laminated with.
  • the second semiconductor element includes a silicon layer and a wiring layer, and a through electrode formed to penetrate the silicon layer.
  • a plurality of the third semiconductor elements are arranged in the same layer.
  • ⁇ 16> The solid-state imaging device according to ⁇ 9>, in which a through-electrode that penetrates the embedding member is formed.
  • a first semiconductor device having an imaging device that photoelectrically converts incident light;
  • a second semiconductor element smaller than the first semiconductor element having a signal processing circuit for signal processing pixel signals of the imaging device,
  • An electronic device comprising a solid-state imaging device, wherein the second semiconductor element is surrounded by an embedding member, and PAD electrodes are formed in the embedding member.
  • 11A to 11D solid-state imaging device 31, 31A to 31D image sensor, 32, 32A to 32D through hole, 33, 33A to 33D PAD electrode, 34, 34A-1 to 34D-1, 34A-2 to 34D-2 Logic substrate, 51, 51A to 51D On-chip filter, 52, 52A to 52D On-chip lens, 53, 53A to 53D Oxide film, 54, 54A to 54D Embedded member, 55, 55A to 55D Support substrate, 111 Solid-state imaging device , 131 image sensor, 132 through hole, 133 PAD electrode, 134-1, 134-2 logic substrate, 151 on-chip filter, 152 on-chip lens, 153-1, 153-2 oxide film, 154-1, 154-2 embedded member, 155 support substrate

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)

Abstract

本開示は、PAD電極が形成されることにより生じる影響を低減できるようにする固体撮像素子、撮像装置、および電子機器に関する。 イメージセンサよりも小さなLogic基板を積層する際、Logic基板の周囲に埋め込まれる埋込部材中にPAD電極が形成されるようにして、イメージセンサに貫通孔を形成する。本開示は、撮像装置に適用することができる。

Description

固体撮像素子、撮像装置、および電子機器
 本開示は、固体撮像素子、撮像装置、および電子機器に関し、特に、PAD電極が形成される際の影響を低減できるようにした固体撮像素子、撮像装置、および電子機器に関する。
 複数の半導体素子を積層して1つの半導体装置を構成する際、良品のチップのみを集めて配置し、積層することで、小型化と、理収の向上を実現させる技術が提案されている(特許文献1参照)。
国際公開第2019/087764号
 しかしながら、特許文献1に記載の技術により構成される半導体装置においては、小型化した半導体装置の配線層にPAD電極を配置しようとすると、PAD電極の配置面積により、回路の配置面積が縮小してしまう。
 また、大きい半導体素子にPAD電極が形成されると、小さな半導体素子からPAD電極までの配線距離が長くなり、配線に生じる寄生容量が増大してしまう。
 本開示は、このような状況に鑑みてなされたものであり、特に、PAD電極が形成される際の影響を低減できるようにする。
 本開示の一側面の固体撮像素子、撮像装置、および電子機器は、入射光を光電変換する撮像素子を有する第1の半導体素子と、前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている固体撮像素子、撮像装置、および電子機器である。
 本開示の一側面においては、入射光を光電変換する撮像素子を有する第1の半導体素子と、前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とが設けられ、前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成される。
本開示の固体撮像装置の第1の実施の形態の構成例の上面図である。 図1のAB断面図である。 図1,図2の固体撮像装置の製造方法の第1の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第2の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第3の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第4の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第5の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第6の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第7の工程を説明する図である。 図1,図2の固体撮像装置の製造方法の第8の工程を説明する図である。 本開示の固体撮像装置の第2の実施の形態の構成例の断面図である。 図11の固体撮像装置の製造方法の第1の工程を説明する図である。 図11の固体撮像装置の製造方法の第2の工程を説明する図である。 図11の固体撮像装置の製造方法の第3の工程を説明する図である。 図11の固体撮像装置の製造方法の第4の工程を説明する図である。 図11の固体撮像装置の製造方法の第5の工程を説明する図である。 図11の固体撮像装置の製造方法の第6の工程を説明する図である。 本開示の固体撮像装置の第2の実施の形態の第1の応用例の断面図である。 本開示の固体撮像装置の第2の実施の形態の第2の応用例の断面図である。 本開示の固体撮像装置の第2の実施の形態の第3の応用例の断面図である。 本開示の固体撮像装置の第3の実施の形態の構成例の上面図である。 図21のAB断面図である。 図21,図22の固体撮像装置の製造方法の第1の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第2の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第3の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第4の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第5の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第6の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第7の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第8の工程を説明する図である。 図21,図22の固体撮像装置の製造方法の第9の工程を説明する図である。 電子機器への適用例を説明する図である。 固体撮像素子の使用例を説明する図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、本技術を実施するための形態について説明する。説明は以下の順序で行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第2の実施の形態の第1の応用例
 4.第2の実施の形態の第2の応用例
 5.第2の実施の形態の第3の応用例
 6.第3の実施の形態
 7.電子機器への適用例
 8.固体撮像素子の使用例
 9.移動体への応用例
 <<1.第1の実施の形態>>
 図1,図2は、本開示の固体撮像素子の第1の実施の形態の構成例を示している。
 図1は、固体撮像素子11を入射光の入射方向から見たときの上面図を示しており、図2は、図1の固体撮像素子11のAB断面図である。
 固体撮像素子11は、図2で示されるように、下から支持基板55からなる層、Logic基板34からなる層、酸化膜53からなる層、イメージセンサ31からなる層の順に積層されている。
 イメージセンサ31は、光電変換層31aと配線層31bとからなり、配線層31bには、酸化膜53に形成された端子53a-1乃至53a-4と対向する位置に、電気的にCuCu接合される端子31c-1乃至31c-4が形成されている。
 また、イメージセンサ(Sensor基板)31の上面には、下からRGBの波長に応じた入射光を透過させるオンチップフィルタ51、および光電変換層31aにおいて入射光を集光するオンチップレンズ52が形成されている。
 Logic基板34は、イメージセンサ31により撮像された画像を構成する画素信号に対して各種の信号処理等を実行する回路から構成され、ウェハにて製造され、個片化されたもののうち、電気的な検査により良品であることが確認されたものが選択されて、支持基板55上に積層されている。また、Logic基板43は、シリコン層34aが図中の下部に形成され、配線層34bが上部に形成されている。
 図1で示されるように、Logic基板34は、上面から見てイメージセンサ31よりも小さな方形状の構成であるため、Logic基板34上にイメージセンサ31が積層されると、Logic基板34を取り囲むように、イメージセンサ31と支持基板55との間に、隙間が形成されることになる。この隙間部分には、埋込部材54が埋め込まれている。
 さらに、図1,図2で示されるように、埋込部材54には、Logic基板34を取り囲むように、方形状で、かつ、凹状の堀込部54aが所定の間隔で形成され、さらに、堀込部54aのそれぞれに方形状のPAD電極33が形成されている。
 また、図1で示されるように、イメージセンサ31には、PAD電極33上であって、PAD電極33よりも小さな方形状の、イメージセンサ31を貫通する貫通孔32が形成されている。
 このため、外部の信号処理部に接続される、図示せぬワイヤ(金属配線)は、貫通孔32を挿通することで、PAD電極33とボンディング(接続)される。
 このような構成により、図1,図2の固体撮像素子11においては、図示せぬワイヤは、PAD電極33を介して、端子53a-4,31c-4、配線31b-1、端子31c-3,53a-3を介して、イメージセンサ31を経由して、Logic基板34と電気的に接続される。
 これにより、小さい半導体素子であるLogic基板34の配線層外にPAD電極33が形成されて、レイアウトすることが可能となるので、PAD電極33の配置に係る面積効率を向上させることが可能となる。
 また、ワイヤボンドにおいては、加熱を伴ったはんだ接続がなされるため、PAD電極33の直下に配線等が存在すると、加熱によりダメージが発生する恐れがある。
 しかしながら、図2で示されるように、本開示の固体撮像素子11においては、PAD電極33が埋込部材54の堀込部54aに形成されるため、PAD電極33の直下には配線が存在しないので、加熱を伴ったはんだ接続に係る配線へのダメージを抑制することが可能となる。
 さらに、PAD電極33を構成するアルミ等の金属部位は、埋込部材54内の堀込部54aに構成されることにより、HDP(High Density Plasma)膜が不要となり、HDPに起因する水素影響を低減させることが可能となる。
 また、PAD電極33が、埋込部材54の中に埋め込まれる構成であるため、Logic基板34等の半導体素子内にPAD電極33が形成される場合よりも寄生容量を低減させることが可能となる。さらに、埋込部材54の材質を、より低誘電率な材質とすることにより、PAD電極33が形成される場合に生じる寄生容量をより低減させることが可能となる。
 すなわち、本開示の固体撮像素子11においては、図1,図2で示されるような構成により、PAD電極33が形成される際に生じる各種の影響を低減させることが可能となる。
 <図1,図2の固体撮像素子の製造方法>
 次に、図3乃至図10を参照して、図1,図2の固体撮像素子11の製造方法について説明する。
 第1の工程として、図3で示されるように、図示せぬウェハに複数のLogic基板34が形成され、薄肉化されて、カッタ101により個片化される。図3においては、Logic基板34-1,34-2がカッタ101により個片化されて製造されていることが示されている。
 第2の工程として、図4で示されるように、個片化されたLogic基板34の内、電気的な検査により良品が選択されて、再配置基板71上に仮接合される。この際、Logic基板34の配線層34bと再配置基板71とが対向するように仮接合される。
 第3の工程として、図5で示されるように、再配置基板71上に仮接合された状態のLogic基板34を、シリコン層34aが、支持基板55と対向する向きで貼り合わせられて接合される。
 第4の工程として、図6で示されるように、図1を参照して説明したように、Logic基板34を取り囲む外周部で、かつ、Logic基板34と同一の厚さで埋込部材54が埋め込まれる。
 第5の工程として、図7で示されるように、図1を参照して説明したように、Logic基板34を取り囲むように、所定の間隔で上面から見て方形状で、かつ、側面から凹状の堀込部54aが形成され、さらに、堀込部54aにPAD電極33が形成される。
 第6の工程として、図8で示されるように、端子53a-1乃至53a-4が、それぞれPAD電極33、およびLogic基板34の配線層34bに接続されて、酸化膜53が、堀込部54aとPAD電極33を含む埋込部材54、およびLogic基板34上に形成される。
 第7の工程として、図9で示されるように、イメージセンサ31の配線層31bの端子31c-1乃至31c-4と、酸化膜53の端子53a-1乃至53a-4とが対向した状態でCuCu接合される。
 第8の工程として、図10で示されるように、イメージセンサ31の光電変換層31aが薄肉化されて、イメージセンサ31上にオンチップフィルタ51およびオンチップレンズ52が積層された後、PAD電極33に対応する位置であって、PAD電極33よりも上面からみて小さな方形状の貫通孔32が、イメージセンサ31を貫通するように形成されて、固体撮像素子11が完成する。
 <<2.第2の実施の形態>>
 以上においては、支持基板55上に1枚のLogic基板34を積層して、さらに、イメージセンサ31が積層される例について説明してきたが、支持基板55上に2枚のLogic基板34を積層したうえで、イメージセンサ31が積層されるようにしてもよい。
 図11は、支持基板55上に2枚のLogic基板34が積層された固体撮像素子11Aの構成例を示している。
 尚、図11の固体撮像素子11Aにおいて、図1,図2の固体撮像素子11における構成と対応する機能を備えた構成については、符号に「A」を付しており、その説明は適宜省略する。
 図11の固体撮像素子11Aにおいて、図1,図2の固体撮像素子11と異なる点は、2枚のLogic基板34A-1,34A-2が積層されている点である。
 Logic基板34A-1,34A-2は、いずれも図中の下部にシリコン層34Aa-1,34Aa-2が形成され、その上に配線層34Ab-1,34Ab-2が形成されている。
 Logic基板34A-1,34A-2の間には、Logic基板34A-2の端子34Ac-2と対向する位置に端子53Aaが、それぞれ3個形成されて、電気的に接続されている。
 さらに、固体撮像素子11Aにおいては、図11における3組のLogic基板34A-2の端子34Ac-2-1乃至34Ac-2-3と対向する位置の端子53Aa-1乃至53Aa-3とがCuCu接合されている。
 Logic基板34A-1には、シリコン層34Aa-1を貫通する貫通電極61A-1,61A-2が形成されており、貫通電極61A-1,61A-2は、それぞれ端子53Aa-153Aa-2と接続されており、これにより、Logic基板34A-1,34A-2が相互に電気的に接続されている。
 また、Logic基板34A-2の端子34Ac-2-3は、対向する位置に設けられた、酸化膜53Aの端子53Aa-3とCuCu接合されており、さらに、端子53Aa-3が、酸化膜53A内の配線53Abを介して、PAD電極33Aと接続されている。これにより、Logic基板34A-2がPAD電極33と電気的に接続されている。
 さらに、PAD電極33Aは、Logic基板34A-1の埋込部材54A-1に形成された、図中の上方向に凹んだ堀込部54Aa内に形成される。
 また、PAD電極33Aの図中の直上には、イメージセンサ31A、およびLogic基板34A-1を貫通する貫通孔32Aが形成されている。
 このような構成により、図11の固体撮像素子11Aにおいても、図1,図2の固体撮像素子11と同様に、PAD電極33が形成される際に生じる各種の影響を低減させることが可能となる。
 <図11の固体撮像素子の製造方法>
 次に、図12乃至図17を参照して、図11の固体撮像素子11Aの製造方法について説明する。
 第1の工程として、図12で示されるように、個片化されたLogic基板34A-1と、イメージセンサ31Aとが接合される。この際、Logic基板34A-1の配線層34Ab-1の端子34Ac-1-1乃至34Ac-1-3が、それぞれ対向する位置に設けられているイメージセンサ31の配線層31Abの端子31Ac-1乃至31Ac-3とCuCu接合される。
 第2の工程として、図13で示されるように、Logic基板34A-1を取り囲む外周部で、かつ、Logic基板34A-1と同一の厚さで埋込部材54A-1が埋め込まれ、さらに、埋込部材54A-1に、Logic基板34A-1を取り囲むように、所定の間隔で方形状の堀込部54Aa-1が形成される。
 第3の工程として、図14で示されるように、堀込部54Aa-1にPAD電極33Aが形成されると共に、貫通電極61Aが形成される。
 第4の工程として、図15で示されるように、酸化膜53が形成されて、さらに、端子53Aa-1乃至53Aa-3が形成される。さらに、端子53Aa-1乃至53Aa-3と、端子34Ac-2-1乃至34Ac-2-3とがそれぞれ対向した状態でCuCu結合されて、酸化膜53とLogic基板34-2とが接合される。
 第5の工程として、図16で示されるように、Logic基板34-2を取り囲むように、かつ、同一の厚さで、埋込部材54A-2が埋め込まれ、さらに、Logic基板34-2と埋込部材54A-2の上に支持基板55Aが積層されて接合される。
 第6の工程として、図17で示されるように、図16で示されてきた構成の上下が反転されて、イメージセンサ31Aの光電変換層31Aaが薄肉化されて、イメージセンサ31A上にオンチップフィルタ51Aおよびオンチップレンズ52Aが積層される。
 そして、PAD電極33Aに対応する位置であって、PAD電極33よりも上面からみて小さな方形状の貫通孔32Aが、オンチップフィルタ51A、イメージセンサ31Aおよび埋込部材54A-2を貫通するように形成されて、固体撮像素子11Aが完成される。
 <<3.第2の実施の形態の第1の応用例>>
 以上においては、2枚のLogic基板34A-1,34A-2が積層され、その際、シリコン層34Aa-1,34Aa-2が、イメージセンサ31A側にあり、配線層34Ab-1,34Ab-2が支持基板55A側となるように同一方向で積層された固体撮像素子11Aの例について説明してきた。
 しかしながら、2枚のLogic基板のシリコン層と配線層とは、同一方向で積層されなくてもよい。
 図18は、2枚のLogic基板のシリコン層と配線層との上下が反転した状態で積層された固体撮像素子の構成例を示している。
 尚、図18の固体撮像素子11Bにおいて、図11の固体撮像素子11Aにおける構成と対応する機能を備えた構成については、符号に「B」を付しており、その説明は適宜省略する。
 図18の固体撮像素子11Bにおいて、Logic基板34B-1については、シリコン層34Ba-1が図中の上部とされ、配線層34Bb-1が下部とされており、対応する図11のLogic基板34A-1のシリコン層34Aa-1および配線層34Ab-1との上下が反転されている。
 また、酸化膜53Bと対応する図11の酸化膜53Aは、Logic基板34A-1,34A-2との間に形成されていたが、酸化膜53Bは、イメージセンサ31Bと、Logic基板34B-1との間に形成されている。
 さらに、図18においては、Logic基板34B-1,34B-2の間には、Logic基板34B-1の端子34Bc-1-1,34Bc-1-2と対向する位置に、Logic基板34B-2の端子34Ac-2-1,34Ac-2-2が形成されて、それぞれCuCu接合により接続されている。
 また、固体撮像素子11Bにおいては、酸化膜53Bの端子53Ba-1乃至53Ba-4と対向する位置に設けられた、イメージセンサ31Bの端子31Bc-1乃至31Bc-4とが相互にCuCu接合により接続されている。
 さらに、相互にCuCu接合されている、端子53Ba-2乃至53Ba-4と端子31Bc-2乃至31Bc-4については、Logic基板34B-1のシリコン層34Ba-1を貫通する貫通電極61B-1乃至61B-3と接続されており、これにより、Logic基板34B-1,34B-2が電気的に接続されている。
 また、イメージセンサ31Bの端子31Bc-3,31Bc-4については、イメージセンサ31B内の配線31Bdを介して接続されている。また、端子31Bc-4は、酸化膜53Bの端子53Ba-4とCuCu接合されており、さらに、端子53Ba-4は、PAD電極33Bと接続されている。これにより、Logic基板34B-1は、イメージセンサ31Bを介してPAD電極33Bと電気的に接続されている。
 さらに、PAD電極33Bは、Logic基板34B-1の埋込部材54B-1に形成された、図中の下方向に凹んだ堀込部54Ba-1内に形成される。
 また、PAD電極33Bに対応するイメージセンサ31B、および酸化膜53Bを貫通する貫通孔32Bが形成されている。
 このような構成により、図18の固体撮像素子11Bにおいても、図1,図2の固体撮像素子11と同様に、PAD電極33が形成される際に生じる各種の影響を低減させることが可能となる。
 尚、固体撮像素子11Bの製造方法については、基本的に、固体撮像素子11Aと同様であるので、その説明は省略する。
 <<4.第2の実施の形態の第2の応用例>>
 以上においては、2枚のLogic基板34B-1,34B-2が、イメージセンサ31Bと支持基板55Bとに挟まれて積層された固体撮像素子11Bの例について説明してきた。
 しかしながら、イメージセンサ31と接していないLogic基板が、イメージセンサ31と同様の大きされるようにして、支持基板としての機能を備えるようにすることで、支持基板を省略するような構成としてもよい。
 図19は、2枚のLogic基板とイメージセンサとが積層され、支持基板が省略された固体撮像素子の構成例を示している。
 尚、図19の固体撮像素子11Cにおいて、図18の固体撮像素子11Bにおける構成と対応する機能を備えた構成については、符号に「C」を付しており、その説明は適宜省略する。
 図19の固体撮像素子11Cにおいて、図18の固体撮像素子11Bと異なる点は、Logic基板34B-2に対応する、Logic基板34C-2が、イメージセンサ31Cと同一のサイズとされ、支持基板55Bに対応する構成が省略されている点である。
 すなわち、図19の固体撮像素子11Cで示されるような構成により、Logic基板34C-2が、イメージセンサ31と同一のサイズとされることで、支持基板としての機能を備えることが可能となり、イメージセンサ31Cからなる層、Logic基板34C-1および埋込部材54Cからなる層、およびLogic基板34C-2からなる層の3層からなる構成にすることが可能となる。
 尚、固体撮像素子11Cの製造方法については、基本的に、固体撮像素子11Aと同様であるが、支持基板が積層される工程が省略されるのみであるので、その説明は省略する。
 このような構成により、図19の固体撮像素子11Cにおいても、図1,図2の固体撮像素子11と同様に、PAD電極33が形成される際に生じる各種の影響を低減させることが可能となる。
 さらに、支持基板を積層する工程が不要となるので、製造工程を簡略化することでコストを低減させることが可能となると共に、支持基板が省略された分だけ、薄型化することが可能となる。
 <<5.第2の実施の形態の第3の応用例>>
 以上においては、2枚のLogic基板と、イメージセンサとが積層され、イメージセンサの撮像面側から貫通孔を形成し、埋込部材の内部に設けられたPAD電極に対して、直接ワイヤボンディングを可能とした固体撮像素子の構成例について説明してきた。
 しかしながら、イメージセンサの撮像面に対して、裏面側に貫通孔を設けて、裏面電極を設けるような構成としてもよい。
 図20は、2枚のLogic基板とイメージセンサとが積層され、イメージセンサの撮像面に対して、裏面側に貫通孔を設けて、裏面電極が設けられるようにした固体撮像素子の構成例を示している。
 尚、図20の固体撮像素子11Dにおいて、図11の固体撮像素子11Aにおける構成と対応する機能を備えた構成については、符号に「D」を付しており、その説明は適宜省略する。
 図20の固体撮像素子11Dにおいて、図11の固体撮像素子11Aと異なる点は、イメージセンサ31Dの撮像面に対して裏面側から見て、PAD電極33Dに対応する位置に、支持基板55D、および埋込部材54D-2を貫通する貫通孔81が形成されている点である。
 また、貫通孔81の内面に、PAD電極33と接続された酸化膜53D内の配線53Dbに接続された配線82が形成されている。
 さらに、配線82に接続された、固体撮像素子11Dの裏面側に裏面電極83が形成されている。
 また、イメージセンサ31側の貫通孔32Dには、絶縁物質が埋め込まれており、撮像面側からは、ワイヤボンディングができない状態とされている。
 このような構成により、裏面側に配線基板を接続することが可能となる。この際、Logic基板34-2や、イメージセンサ31の内部に配線が形成されないので、不要な寄生容量を抑制することが可能となる。
 <<6.第3の実施の形態>>
 以上においては、各層にイメージセンサ、Logic基板、および支持基板等が1つずつ構成される例について説明してきたが、例えば、同一の層に、複数のLogic基板が配置されるような構成であってもよい。
 図21,図22は、同一の層に、複数のLogic基板が配置されるようにした、固体撮像素子の第3の実施の形態の構成例を示している。
 図21は、固体撮像素子111の入射光の入射方向から見た上面図を示しており、図22は、図21の固体撮像素子111のAB断面図である。
 固体撮像素子111は、図21で示されるように、下から支持基板155からなる層、Logic基板134-2-1,134-2-2、および埋込部材154-2からなる層、酸化膜153-2からなる層、Logic基板134-1および埋込部材154-1からなる層、酸化膜153-1からなる層、およびイメージセンサ131からなる層の順に積層されている。
 イメージセンサ131は、光電変換層131aと配線層131bとからなり、配線層131bには、酸化膜153-1に形成された3個の端子153a-1-1乃至153a-1-3と対向するそれぞれの位置に、電気的にCuCu接合される3個の端子131c-1乃至131c-3が形成されている。
 また、イメージセンサ131の上面には、下からRGBの波長に応じた入射光を透過させるオンチップフィルタ151、および光電変換層131aにおいて入射光を集光するオンチップレンズ152が形成されている。
 Logic基板134-2-1,134-2-2は、電気的に良品であることが確認されたものが選択されて、支持基板155上に積層されており、この際、シリコン層134a-2-1,134a-2-2が図中の下部となり、配線層134b-2-1,134b-2-2が上部となるように積層される。
 図21で示されるように、Logic基板134-2-1,134-2-2は、上面から見て、それぞれが、イメージセンサ131、および、Logic基板134-1のいずれよりも小さな方形状の構成であるため、Logic基板134-2-1,134-2-2の間を含む、双方を取り囲む範囲において、埋込部材154-2が埋め込まれる。
 Logic基板134-1は、電気的に良品であることが確認されたものが選択されて、Logic基板134-2-1,134-2-2上を跨ぐように、積層されており、この際、シリコン層134a-1が図中の下部となり、配線層134b-1が上部となるように積層される。
 図21で示されるように、Logic基板134-1は、上面から見て、イメージセンサ131よりも小さな方形状の構成であるため、Logic基板134-1を取り囲む範囲において、埋込部材154-1が埋め込まれる。
 さらに、図21,図22で示されるように、埋込部材154-1には、Logic基板134-1を取り囲むように、方形状に、凹状の堀込部154aが所定の間隔で形成され、さらに、堀込部154aのそれぞれに方形状のPAD電極133が形成されている。
 また、酸化膜153-1には、イメージセンサ131の端子131c-1乃至131c-3のそれぞれとCuCu接合により接続される端子153a-1-1乃至153a-1-3が設けられており、図21においては、端子131c-1乃至131c-3と、端子153a-1-1乃至153a-1-3とが設けられており、それぞれが対向する位置に設けられて、相互にCuCu接合されている。
 このうち、図22中の左側の2個の端子131c-2,131c-3は、イメージセンサ131の配線層131b内の配線131dにより接続されている。
 さらに、図22中の左側の端子131c-3と端子153a-1-3とは、埋込部材154-1内に形成された貫通電極161-2により、酸化膜153-2内の配線153a-2-2を介して、Logic基板134-2-1と電気的に接続されている。
 また、埋込部材154-1内には、貫通電極161-2とは異なり、PAD電極133と電気的に接続された貫通電極161-1が設けられており、酸化膜153-2内の配線153a-2-3を介して、Logic基板134-2-1と電気的に接続されている。
 さらに、Logic基板134-2-1,134-2-2は、酸化膜153内における配線153a-2-1を介して、相互に電気的に接続されている。
 また、図21で示されるように、イメージセンサ131および酸化膜153には、PAD電極133上であって、PAD電極133よりも小さな方形状の貫通孔132が形成されている。
 このため、外部の信号処理部に接続される、図示せぬワイヤは、貫通孔132を挿通することで、PAD電極133とボンディングされる。
 このような構成により、図21,図22の固体撮像素子111においては、図示せぬワイヤは、PAD電極133、貫通電極161-1、および酸化膜153-2の配線153a-2-3を介して、Logic基板134-2-1と接続されている。
 また、Logic基板134-2-1は、貫通電極161-2、および端子153a-1-3,131c-3を介して、イメージセンサ131と接続されている。このため、PAD電極133は、Logic基板134-2-1を介して、イメージセンサ131とも接続されている。
 さらに、Logic基板134-1は、イメージセンサ131とも接続されているため、PAD電極133は、貫通電極161-1、Logic基板134-2-1、貫通電極161-2、およびイメージセンサ131を介して、Logic134-1とも接続されている。
 これにより、小さい半導体素子であるLogic基板134-1の配線層外にPAD電極133が形成されて、レイアウトすることが可能となるので、PAD電極133の配置に係る面積効率を向上させることが可能となる。
 また、ワイヤボンドにおいては、加熱を伴ったはんだ接続がなされるため、PAD電極133の直下に配線等が存在すると、加熱によりダメージが発生する恐れがある。
 しかしながら、図22で示されるように、PAD電極133は、埋込部材154-1の堀込部154aに形成されるため、PAD電極133の直下には配線が存在しないので、配線へのダメージを抑制することが可能となる。
 さらに、PAD電極133を構成するアルミ等の金属部位は、埋込部材154-1内の堀込部154aに構成されることにより、HDP(High Density Plasma)膜が不要となり、HDPに起因する水素影響を低減させることが可能となる。
 また、PAD電極133が、埋込部材154-1の中に埋め込まれる構成であるため、Logic基板134等の半導体素子内にPAD電極133が形成される場合よりも寄生容量を低減させることが可能となる。さらに、埋込部材154-1の材質を、より低誘電率な材質とすることにより、PAD電極133が形成される場合に生じる寄生容量をより低減させることが可能となる。
 すなわち、本開示の固体撮像素子111においては、図21,図22で示されるような構成により、PAD電極133が形成される際に生じる各種の影響を低減させることが可能となる。
 <図21,図22の固体撮像素子の製造方法>
 次に、図23乃至図31を参照して、図21,図22の固体撮像素子111の製造方法について説明する。
 第1の工程として、ウェハに複数のLogic基板134-1,134-2を形成し、薄肉化して、個片化する。そして、図23で示されるように、個片化されたLogic基板134-1,134-2の内、電気的な検査により良品を選択して、それぞれを再配置基板201-1,201-2上に仮接合する。
 より詳細には、図23で示されるように、Logic基板134-1の配線層134b-1と再配置基板201-1とが対向するように仮接合され、Logic基板134-2-1,134-2-2の配線層134b-2-1,134b-2-2と再配置基板201-2とが対向するように仮接合される。
 第2の工程として、図24で示されるように、再配置基板201-2上に仮接合された状態のLogic基板134-2-1,134-2-2を、シリコン層134a-2-1,134a-2-2が、支持基板155と対向する向きで貼り合わせられて接合される。
 第3の工程として、図25で示されるように、Logic基板134-2-1,134-2-2の間を含み、それらを取り囲む外周部で、かつ、Logic基板134-2-1,134-2-2と同一の厚さで埋込部材154-2が埋め込まれる。
 第4の工程として、図26で示されるように、Logic基板134-2-1,134-2-2、および埋込部材154-2上に、配線153a-2を含む酸化膜153-2が形成される。
 第5の工程として、図27で示されるように、再配置基板201-1上に仮接合された状態のLogic基板134-1を、シリコン層134a-1が、酸化膜153-2と対向する向きで貼り合わせられて接合される。
 第6の工程として、図28で示されるように、Logic基板134-1を取り囲むように、埋込部材154-1が形成され、さらに、所定の間隔で上面から見て方形状で、かつ、側面から下向きに凹状の堀込部154aが形成される。
 第7の工程として、図29で示されるように、埋込部材154-1に貫通電極161-1,161-2が形成されて、それぞれ酸化膜153-2の配線153a-2-3,153a-2-2に接続される。この際、図28においては、貫通電極161-1が、堀込部154aの一部に形成されて、酸化膜153-2の配線153a-2-3に接続される。
 第8の工程として、図30で示されるように、堀込部54aにPAD電極33が形成された後、端子153a-1-1乃至153a-1-3を備えた酸化膜153-1が形成される。さらに、イメージセンサ131の配線層131bの端子131c-1乃至131c-3と、酸化膜153-1の端子153a-1-1乃至153a-1-3とが対向した状態で接合される。
 第9の工程として、図31で示されるように、イメージセンサ131の光電変換層131aが薄肉化されて、イメージセンサ131上にオンチップフィルタ151およびオンチップレンズ152が積層された後、PAD電極133に対応する位置であって、PAD電極133よりも上面からみて小さな方形状の貫通孔132が、イメージセンサ131および酸化膜153-1を貫通するように形成されて、固体撮像素子111が完成する。
<<7.電子機器への適用例>>
 上述した固体撮像素子は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図32は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図32に示される撮像装置501は、光学系502、シャッタ装置503、固体撮像素子504、駆動回路505、信号処理回路506、モニタ507、およびメモリ508を備えて構成され、静止画像および動画像を撮像可能である。
 光学系502は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子504に導き、固体撮像素子504の受光面に結像させる。
 シャッタ装置503は、光学系502および固体撮像素子504の間に配置され、駆動回路505の制御に従って、固体撮像素子504への光照射期間および遮光期間を制御する。
 固体撮像素子504は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子504は、光学系502およびシャッタ装置503を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子504に蓄積された信号電荷は、駆動回路505から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路505は、固体撮像素子504の転送動作、および、シャッタ装置503のシャッタ動作を制御する駆動信号を出力して、固体撮像素子504およびシャッタ装置503を駆動する。
 信号処理回路506は、固体撮像素子504から出力された信号電荷に対して各種の信号処理を施す。信号処理回路506が信号処理を施すことにより得られた画像(画像データ)は、モニタ507に供給されて表示されたり、メモリ508に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置501においても、上述した固体撮像素子11,11A乃至11D,111を適用することにより、PAD電極の配置に係る面積効率を向上させることが可能となる。また、ワイヤボンドにおいて、配線へのダメージを抑制することが可能となる。さらに、PAD電極が埋込部材内に構成されることにより、HDP(High Density Plasma)膜が不要となり、HDPに起因する水素影響を低減させることが可能となる。また、PAD電極に接続される配線に生じる寄生容量を低減させることが可能となる。
 <<8.固体撮像素子の使用例>>
 図33は、上述の固体撮像素子11,11A乃至11D,111を使用する使用例を示す図である。上述した固体撮像素子は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 <<9.移動体への応用例>>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図34は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図34に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、車外情報検出ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図34の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図35は、撮像部12031の設置位置の例を示す図である。
 図35では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図35には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、固体撮像素子11,11A乃至11D,111は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、PAD電極の配置に係る面積効率を向上、配線へのダメージの抑制、HDPに起因する水素影響の低減、および、寄生容量を低減させることが可能となる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 入射光を光電変換する撮像素子を有する第1の半導体素子と、
 前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、
 前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている
 固体撮像素子。
<2> 前記埋込部材中には堀込部が形成され、前記PAD電極は、前記堀込部に形成される
 <1>に記載の固体撮像素子。
<3> 前記埋込部材は、低誘電率の材質である
 <1>または<2>に記載の固体撮像素子。
<4> 前記入射光の入射方向と逆方向であって、前記PAD電極の直上には、前記第1の半導体素子を貫通し、前記PAD電極に達する貫通孔が形成される
 <1>乃至<3>のいずれかに記載の固体撮像素子。
<5> 前記貫通孔は、前記第1の半導体素子に加えて、前記埋込部材を貫通し、前記PAD電極に達するように形成される
 <4>に記載の固体撮像素子。
<6> 外部の信号処理装置と接続されるワイヤは、前記貫通孔を挿通し、前記PAD電極とボンディングされる
 <4>に記載の固体撮像素子。
<7> 前記撮像素子の画素信号を信号処理する信号処理回路を有する、前記第2の半導体素子とは異なる第3の半導体素子をさらに備え、
 前記入射光の入射方向から、前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子の順序で、前記前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子のそれぞれを備えた層が積層されている
 <1>に記載の固体撮像素子。
<8> 前記第3の半導体素子は、前記第1の半導体素子と同一の大きさである
 <7>に記載の固体撮像素子。
<9> 前記第3の半導体素子は、前記第1の半導体素子よりも小さく、
 前記第3の半導体素子を備えた層は、前記第3の半導体素子の周囲が、前記埋込部材とは異なる他の埋込部材で埋め込まれている
 <7>に記載の固体撮像素子。
<10> 前記第1の半導体素子と同一の大きさの支持基板をさらに含み、
 前記入射光の入射方向から、前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子、並びに、前記支持基板の順序で、前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子、並びに、前記支持基板のそれぞれを備えた層が積層されている
 <9>に記載の固体撮像素子。
<11> 前記入射光の入射方向に対し逆方向から、前記支持基板および前記第3の半導体素子を貫通する貫通孔と、
 前記貫通孔の内壁に、前記PAD電極と電気的に接続された内壁配線と、
 前記支持基板の、前記入射光の入射方向を正面としたときの裏面側であって、前記貫通孔のそばに裏面電極とが形成され、
 前記裏面電極は、前記内壁配線を介して、前記PAD電極と電気的に接続されている
 <10>に記載の固体撮像素子。
<12> 前記第2の半導体素子、および前記第3の半導体素子は、それぞれシリコン層および配線層を備えており、前記入射光の入射方向に対して、前記シリコン層および前記配線層が同一の順序で積層される
 <9>に記載の固体撮像素子。
<13> 前記第2の半導体素子、および前記第3の半導体素子は、それぞれシリコン層および配線層を備えており、前記入射光の入射方向に対して、前記シリコン層および前記配線層が異なる順序で積層される
 <9>に記載の固体撮像素子。
<14> 前記第2の半導体素子は、シリコン層および配線層を備えており、前記シリコン層を貫通して形成される貫通電極を備える
 <9>に記載の固体撮像素子。
<15> 前記第3の半導体素子は、同一の層に複数配置されている
 <9>に記載の固体撮像素子。
<16> 前記埋込部材を貫通する貫通電極が形成されている
 <9>に記載の固体撮像素子。
<17> 前記貫通電極は、前記第1の半導体素子と、前記第3の半導体素子とを電気的に接続する
 <16>に記載の固体撮像素子。
<18> 前記貫通電極は、前記PAD電極と、前記第3の半導体素子とを電気的に接続する
 <16>に記載の固体撮像素子。
<19> 入射光を光電変換する撮像素子を有する第1の半導体素子と、
 前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、
 前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている固体撮像素子
 を備えた撮像装置。
<20> 入射光を光電変換する撮像素子を有する第1の半導体素子と、
 前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、
 前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている固体撮像素子
 を備えた電子機器。
 11,11A乃至11D 固体撮像装置, 31,31A乃至31D イメージセンサ, 32,32A乃至32D 貫通孔, 33,33A乃至33D PAD電極, 34,34A-1乃至34D-1,34A-2乃至34D-2 Logic基板, 51,51A乃至51D オンチップフィルタ, 52,52A乃至52D オンチップレンズ, 53、53A乃至53D 酸化膜, 54,54A乃至54D 埋込部材, 55,55A乃至55D 支持基板, 111 固体撮像装置, 131 イメージセンサ, 132 貫通孔, 133 PAD電極, 134-1,134-2 Logic基板, 151 オンチップフィルタ, 152 オンチップレンズ, 153-1,153-2 酸化膜, 154-1,154-2 埋込部材, 155 支持基板

Claims (20)

  1.  入射光を光電変換する撮像素子を有する第1の半導体素子と、
     前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、
     前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている
     固体撮像素子。
  2.  前記埋込部材中には堀込部が形成され、前記PAD電極は、前記堀込部に形成される
     請求項1に記載の固体撮像素子。
  3.  前記埋込部材は、低誘電率の材質である
     請求項1に記載の固体撮像素子。
  4.  前記入射光の入射方向と逆方向であって、前記PAD電極の直上には、前記第1の半導体素子を貫通し、前記PAD電極に達する貫通孔が形成される
     請求項1に記載の固体撮像素子。
  5.  前記貫通孔は、前記第1の半導体素子に加えて、前記埋込部材を貫通し、前記PAD電極に達するように形成される
     請求項4に記載の固体撮像素子。
  6.  外部の信号処理装置と接続されるワイヤは、前記貫通孔を挿通し、前記PAD電極とボンディングされる
     請求項4に記載の固体撮像素子。
  7.  前記撮像素子の画素信号を信号処理する信号処理回路を有する、前記第2の半導体素子とは異なる第3の半導体素子をさらに備え、
     前記入射光の入射方向から、前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子の順序で、前記前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子のそれぞれを備えた層が積層されている
     請求項1に記載の固体撮像素子。
  8.  前記第3の半導体素子は、前記第1の半導体素子と同一の大きさである
     請求項7に記載の固体撮像素子。
  9.  前記第3の半導体素子は、前記第1の半導体素子よりも小さく、
     前記第3の半導体素子を備えた層は、前記第3の半導体素子の周囲が、前記埋込部材とは異なる他の埋込部材で埋め込まれている
     請求項7に記載の固体撮像素子。
  10.  前記第1の半導体素子と同一の大きさの支持基板をさらに含み、
     前記入射光の入射方向から、前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子、並びに、前記支持基板の順序で、前記第1の半導体素子、前記第2の半導体素子、および前記第3の半導体素子、並びに、前記支持基板のそれぞれを備えた層が積層されている
     請求項9に記載の固体撮像素子。
  11.  前記入射光の入射方向に対し逆方向から、前記支持基板および前記第3の半導体素子を貫通する貫通孔と、
     前記貫通孔の内壁に、前記PAD電極と電気的に接続された内壁配線と、
     前記支持基板の、前記入射光の入射方向を正面としたときの裏面側であって、前記貫通孔のそばに裏面電極とが形成され、
     前記裏面電極は、前記内壁配線を介して、前記PAD電極と電気的に接続されている
     請求項10に記載の固体撮像素子。
  12.  前記第2の半導体素子、および前記第3の半導体素子は、それぞれシリコン層および配線層を備えており、前記入射光の入射方向に対して、前記シリコン層および前記配線層が同一の順序で積層される
     請求項9に記載の固体撮像素子。
  13.  前記第2の半導体素子、および前記第3の半導体素子は、それぞれシリコン層および配線層を備えており、前記入射光の入射方向に対して、前記シリコン層および前記配線層が異なる順序で積層される
     請求項9に記載の固体撮像素子。
  14.  前記第2の半導体素子は、シリコン層および配線層を備えており、前記シリコン層を貫通して形成される貫通電極を備える
     請求項9に記載の固体撮像素子。
  15.  前記第3の半導体素子は、同一の層に複数配置されている
     請求項9に記載の固体撮像素子。
  16.  前記埋込部材を貫通する貫通電極が形成されている
     請求項9に記載の固体撮像素子。
  17.  前記貫通電極は、前記第1の半導体素子と、前記第3の半導体素子とを電気的に接続する
     請求項16に記載の固体撮像素子。
  18.  前記貫通電極は、前記PAD電極と、前記第3の半導体素子とを電気的に接続する
     請求項16に記載の固体撮像素子。
  19.  入射光を光電変換する撮像素子を有する第1の半導体素子と、
     前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、
     前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている固体撮像素子
     を備えた撮像装置。
  20.  入射光を光電変換する撮像素子を有する第1の半導体素子と、
     前記撮像素子の画素信号を信号処理する信号処理回路を有する前記第1の半導体素子よりも小さい第2の半導体素子とを備え、
     前記第2の半導体素子の周囲は埋込部材で埋め込まれており、前記埋込部材中にPAD電極が形成されている固体撮像素子
     を備えた電子機器。
PCT/JP2022/008491 2021-07-27 2022-03-01 固体撮像素子、撮像装置、および電子機器 WO2023007797A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202280048904.4A CN117652029A (zh) 2021-07-27 2022-03-01 固体摄像元件、摄像装置和电子设备
DE112022003725.3T DE112022003725T5 (de) 2021-07-27 2022-03-01 Festkörperbildgebungselement, bildgebungseinrichtung und elektronische vorrichtung
JP2023538233A JPWO2023007797A1 (ja) 2021-07-27 2022-03-01
KR1020247000816A KR20240035449A (ko) 2021-07-27 2022-03-01 고체 촬상 소자, 촬상 장치 및 전자 기기

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-122123 2021-07-27
JP2021122123 2021-07-27

Publications (1)

Publication Number Publication Date
WO2023007797A1 true WO2023007797A1 (ja) 2023-02-02

Family

ID=85086578

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008491 WO2023007797A1 (ja) 2021-07-27 2022-03-01 固体撮像素子、撮像装置、および電子機器

Country Status (5)

Country Link
JP (1) JPWO2023007797A1 (ja)
KR (1) KR20240035449A (ja)
CN (1) CN117652029A (ja)
DE (1) DE112022003725T5 (ja)
WO (1) WO2023007797A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014083750A1 (ja) * 2012-11-30 2014-06-05 パナソニック株式会社 光学装置及びその製造方法
WO2019017147A1 (ja) * 2017-07-18 2019-01-24 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像装置の製造方法
WO2019087764A1 (ja) * 2017-10-30 2019-05-09 ソニーセミコンダクタソリューションズ株式会社 裏面照射型の固体撮像装置、および裏面照射型の固体撮像装置の製造方法、撮像装置、並びに電子機器
WO2020184027A1 (ja) * 2019-03-13 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 半導体装置、撮像装置および半導体装置の製造方法
JP2021089979A (ja) * 2019-12-04 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 半導体素子および電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014083750A1 (ja) * 2012-11-30 2014-06-05 パナソニック株式会社 光学装置及びその製造方法
WO2019017147A1 (ja) * 2017-07-18 2019-01-24 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像装置の製造方法
WO2019087764A1 (ja) * 2017-10-30 2019-05-09 ソニーセミコンダクタソリューションズ株式会社 裏面照射型の固体撮像装置、および裏面照射型の固体撮像装置の製造方法、撮像装置、並びに電子機器
WO2020184027A1 (ja) * 2019-03-13 2020-09-17 ソニーセミコンダクタソリューションズ株式会社 半導体装置、撮像装置および半導体装置の製造方法
JP2021089979A (ja) * 2019-12-04 2021-06-10 ソニーセミコンダクタソリューションズ株式会社 半導体素子および電子機器

Also Published As

Publication number Publication date
KR20240035449A (ko) 2024-03-15
DE112022003725T5 (de) 2024-05-16
JPWO2023007797A1 (ja) 2023-02-02
CN117652029A (zh) 2024-03-05

Similar Documents

Publication Publication Date Title
US10720459B2 (en) Imaging element package and camera module having a slit formed in an adhesive connecting a flexible substrate and another member to address differences in linear expansion coefficients
JP7445397B2 (ja) 受光素子および電子機器
JP2018117027A (ja) 固体撮像素子、電子装置、および、固体撮像素子の製造方法
US20220262841A1 (en) Semiconductor package, electronic device, and method of manufacturing semiconductor package
US20230107566A1 (en) Imaging unit, method for manufacturing the same, and electronic apparatus
CN111886855B (zh) 摄像装置和电子设备
US11605625B2 (en) Semiconductor device and manufacturing method therefor, solid-state imaging element, and electronic equipment
WO2023007797A1 (ja) 固体撮像素子、撮像装置、および電子機器
WO2020230404A1 (ja) 半導体パッケージ、半導体パッケージの製造方法、および、電子装置
WO2019176454A1 (ja) 半導体装置、撮像装置、および電子機器
WO2024038757A1 (ja) 半導体装置および電子機器
WO2020071103A1 (ja) 半導体装置およびその製造方法、撮像素子
WO2022196188A1 (ja) 撮像装置、撮像装置の製造方法、および電子機器
WO2022239325A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
WO2023145445A1 (ja) 半導体装置およびその製造方法、並びに電子機器
WO2024111248A1 (ja) 半導体パッケージ、光学装置、および、半導体パッケージの製造方法
US20220208718A1 (en) Semiconductor package, electronic apparatus, and method for manufacturing semiconductor package
WO2024024278A1 (ja) パッケージおよびパッケージの製造方法
WO2024043068A1 (ja) 固体撮像素子および電子機器
WO2023238924A1 (ja) 半導体装置および撮像装置
WO2022209128A1 (ja) 半導体装置
WO2018155195A1 (ja) 撮像装置、電子機器、及び、撮像装置の製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22848881

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023538233

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202280048904.4

Country of ref document: CN