WO2022044804A1 - センサデバイスおよび電子機器 - Google Patents

センサデバイスおよび電子機器 Download PDF

Info

Publication number
WO2022044804A1
WO2022044804A1 PCT/JP2021/029622 JP2021029622W WO2022044804A1 WO 2022044804 A1 WO2022044804 A1 WO 2022044804A1 JP 2021029622 W JP2021029622 W JP 2021029622W WO 2022044804 A1 WO2022044804 A1 WO 2022044804A1
Authority
WO
WIPO (PCT)
Prior art keywords
substrate
film
insulating film
layer
image pickup
Prior art date
Application number
PCT/JP2021/029622
Other languages
English (en)
French (fr)
Inventor
明久 坂本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US18/041,384 priority Critical patent/US20230299110A1/en
Publication of WO2022044804A1 publication Critical patent/WO2022044804A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L25/00Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof
    • H01L25/03Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes
    • H01L25/04Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers
    • H01L25/065Assemblies consisting of a plurality of individual semiconductor or other solid state devices ; Multistep manufacturing processes thereof all the devices being of a type provided for in the same subgroup of groups H01L27/00 - H01L33/00, or in a single subclass of H10K, H10N, e.g. assemblies of rectifier diodes the devices not having separate containers the devices being of a type provided for in group H01L27/00
    • H01L25/0657Stacked arrangements of devices
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14632Wafer-level processed structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • This disclosure relates to sensor devices and electronic devices.
  • Patent Document 1 describes a method for manufacturing an image pickup apparatus, in which a logic chip having a logic circuit determined to be a non-defective product is bonded to the surface of a wafer, an insulating film is deposited on the surface of the wafer, and then insulation is performed. A technique for flattening the surface of a film is disclosed.
  • a step corresponding to the thickness of the semiconductor chip is generated between the semiconductor chip and the wafer surface.
  • the thickness thereof is about 10 ⁇ m to 200 ⁇ m, so that the above-mentioned step is large.
  • an insulating film is deposited on the surface of the wafer so as to cover the semiconductor chip, unevenness reflecting the step between the semiconductor chip and the wafer surface is formed on the surface of the insulating film. In order to flatten these irregularities, the surface of the insulating film is subjected to CMP (Chemical Mechanical Polishing) treatment.
  • CMP Chemical Mechanical Polishing
  • the surface of the insulating film may not be sufficiently flattened. For example, dents called voids or dishing may occur between a plurality of semiconductor chips bonded to the surface of the wafer or in the outer peripheral portion of the wafer. Due to this dent, poor bonding may occur between the insulating film and another substrate (for example, a supporting substrate).
  • stress is generated in the semiconductor chip due to the difference in the thermal expansion coefficient between the semiconductor chip and the insulating film.
  • a load is applied to the transistor mounted on the semiconductor chip, and the transistor characteristics (for example, mobility) may change.
  • the transistor characteristics for example, mobility
  • a positional shift may occur between the semiconductor chip and the color filter provided on the insulating film covering the semiconductor chip.
  • the transistor characteristics change or the position shifts from the color filter, the characteristics of the image pickup apparatus may deteriorate.
  • Patent Document 2 a conductive pattern is formed on the semiconductor substrate, a first polishing stop layer is formed on the conductive pattern, and layers are formed on the semiconductor substrate so as to cover the conductive pattern and the first polishing stop layer. An insulating film is formed, a second polishing stop layer is formed on the interlayer insulation, and then the first polishing stop layer and the interlayer insulating film located above the conductive pattern are polished to obtain the upper surface of the semiconductor substrate.
  • the technique for flattening is disclosed. However, the technique disclosed in Patent Document 2 does not flatten a large step between a semiconductor chip and a wafer, which occurs in CoW. The technique disclosed in Patent Document 2 flattens a small step in a semiconductor chip that occurs in a pre-process of a semiconductor process.
  • the thickness of the conductive pattern (wiring layer) in the semiconductor chip is assumed to be less than 1 ⁇ m at the maximum, which is an order of magnitude smaller than the step (about 10 ⁇ m to 200 ⁇ m) that occurs in CoW.
  • Patent Document 2 does not describe the improvement of the flatness of the insulating film covering the semiconductor chip and the relaxation of the stress generated in the semiconductor chip.
  • the present disclosure has been made in view of such circumstances, and an object of the present disclosure is to provide a sensor device and an electronic device capable of suppressing the occurrence of defects.
  • the sensor device includes a first substrate, a second substrate provided on one surface side of the first substrate, and an insulation provided on one surface side of the first substrate to cover the second substrate. It has a sex first film and a second film which is made of a material different from the first film and is provided at a position facing the first substrate with the first film interposed therebetween. There is a first layer in which the second substrate and the first film are mixed, and a second layer in which the first film and the second film are mixed. The second film exists on the outside of the second substrate in a plan view from the normal direction of one of the surfaces.
  • the first film when manufacturing a sensor device, the first film can be polished by using the second film as a stopper layer. As a result, it is possible to flatten the second layer in which the first film and the second film coexist, while suppressing the formation of dents called voids and dishes in the first film. Thereby, the occurrence of defects (for example, the occurrence of bonding defects between the second layer and the support substrate) can be suppressed.
  • the second film shrinks due to cooling after film formation. This shrinkage creates an inward stress on the second membrane. Further, the reaction force of the stress generated in the second film is generated in the first film in contact with the second film. The force of this reaction relieves the stress generated in the second substrate. As a result, for example, a load is applied to the transistor mounted on the second substrate to change the transistor characteristics (for example, mobility), or the second substrate and the color filter on the second layer covering the second substrate can be used. It is possible to suppress the occurrence of positional deviation between the two. It is possible to suppress the occurrence of defects due to changes in characteristics and misalignment.
  • the transistor characteristics for example, mobility
  • the electronic device includes an optical component and the above-mentioned sensor device into which light transmitted through the optical component is incident.
  • FIG. 1 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 2 is an enlarged cross-sectional view showing a part of a joint region between a CIS substrate and a logic substrate in the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 3 is a plan view of the first insulating film and the second insulating film of the image pickup apparatus according to the first embodiment of the present disclosure as viewed from the side of the support substrate.
  • FIG. 4 is a diagram schematically showing CoW applicable to the manufacturing method of the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 5 is a cross-sectional view showing the manufacturing method of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 6 is a cross-sectional view showing the manufacturing method of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 7 is a cross-sectional view showing the manufacturing method of the image pickup apparatus according to the first embodiment of the present disclosure in the order of processes.
  • FIG. 8 is a cross-sectional view for explaining the flattening process in more detail.
  • FIG. 9 is a plan view schematically showing one side of the wafer after performing step ST5 (CMP processing) of FIG.
  • FIG. 10 is a diagram schematically showing a mechanism of stress relaxation in the image pickup apparatus according to the first embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the second embodiment of the present disclosure.
  • FIG. 12 is a plan view of the first insulating film and the second insulating film as viewed from the side of the support substrate in the image pickup apparatus according to the second embodiment of the present disclosure.
  • FIG. 13 is a cross-sectional view showing the manufacturing method of the image pickup apparatus according to the second embodiment of the present disclosure in the order of processes.
  • FIG. 14 is a cross-sectional view showing the manufacturing method of the image pickup apparatus according to the second embodiment of the present disclosure in the order of processes.
  • FIG. 15 is a plan view schematically showing one side of the wafer after performing step ST25 (CMP processing) of FIG.
  • FIG. 16 is a diagram showing a modified example of the image pickup apparatus according to the second embodiment of the present disclosure.
  • FIG. 17 is a cross-sectional view showing a configuration example of the image pickup apparatus according to the third embodiment of the present disclosure.
  • FIG. 18 is a block diagram showing a configuration example of an image pickup device as an electronic device to which the present technology is applied.
  • FIG. 19 is a diagram showing a usage example using the above-mentioned imaging device.
  • FIG. 20 is a diagram showing an example of a schematic configuration of an endoscopic surgery system.
  • FIG. 21 is a block diagram showing an example of the functional configuration of the camera head and the CCU.
  • FIG. 22 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 23 is an explanatory diagram showing an example of the installation positions of the vehicle exterior information detection unit and the image pickup unit.
  • the direction may be explained using the words in the X-axis direction, the Y-axis direction, and the Z-axis direction.
  • the X-axis direction and the Y-axis direction are directions parallel to one surface 2a of the CIS substrate 2.
  • the X-axis direction and the Y-axis direction are also referred to as horizontal directions.
  • the Z-axis direction is a direction that intersects one surface 2a perpendicularly.
  • the X-axis direction, the Y-axis direction, and the Z-axis direction are orthogonal to each other.
  • plan view means viewing from the normal direction (for example, the Z-axis direction) of one surface 2a of the CIS substrate 2.
  • FIG. 1 is a cross-sectional view showing a configuration example of the image pickup apparatus 1 according to the first embodiment of the present disclosure.
  • the image pickup apparatus 1 (an example of the "sensor device” of the present disclosure) according to the first embodiment is one of a CIS substrate 2 (an example of the "first substrate” of the present disclosure) and a CIS substrate 2.
  • the logic chip 3 (an example of the "second substrate” of the present disclosure) provided on the surface 2a (lower surface in FIG. 1) side and the CIS substrate 2 provided on one surface 2a side to cover the logic chip 3.
  • a first insulating film 11 (an example of the "first film” of the present disclosure) and a second insulating film 12 (an example of the “second film” of the present disclosure) facing the CIS substrate 2 with the first insulating film 11 interposed therebetween.
  • a support substrate 13 provided at a position facing the CIS substrate 2 with the first insulating film 11 and the second insulating film 12 interposed therebetween and in contact with the first insulating film 11 and the second insulating film 12, respectively, and one of the CIS substrates 2.
  • a color filter CF provided on the other surface 2b (upper surface in FIG. 1) opposite to the surface 2a, and an on-chip lens OCL provided at a position facing the CIS substrate 2 with the color filter CF interposed therebetween.
  • the image pickup apparatus 1 includes a first layer L1, a second layer L2, and a third layer L3 between the CIS substrate 2 and the support substrate 13.
  • the first layer L1 is a layer in which the logic chip 3 and the first insulating film 11 coexist.
  • the second layer L2 is a layer in which the first insulating film 11 and the second insulating film 12 coexist.
  • the third layer L3 is located between the first layer L1 and the second layer L2, and is a layer composed of only the first insulating film 11.
  • the thickness of the first layer L1 is, for example, 10 ⁇ m or more and 200 ⁇ m or less.
  • the thickness of the second layer L2 is, for example, 10 ⁇ m or less.
  • the thickness of the third layer L3 is, for example, 0.1 ⁇ m or more and 100 ⁇ m or less.
  • the CIS substrate 2 is a substrate on which a CMOS (Complementary Metal Oxide Semiconductor) image sensor is formed.
  • CMOS Complementary Metal Oxide Semiconductor
  • the CMOS image sensor has, for example, a plurality of photodiodes and a readout circuit for reading out an electric signal obtained by photoelectric conversion with the photodiode.
  • the logic chip 3 is a semiconductor chip on which a logic circuit is formed.
  • the logic chip 3 is electrically connected to the CIS board 2.
  • the logic circuit included in the logic chip 3 performs various signal processing related to the operation of the image pickup apparatus 1, such as performing predetermined processing on the electric signal output from the CIS board 2.
  • the CIS board 2 may have a circuit for performing signal processing related to the operation of the image pickup apparatus 1.
  • FIG. 2 is an enlarged cross-sectional view showing a part of the junction region R23 between the CIS substrate 2 and the logic chip 3 in the image pickup apparatus according to the first embodiment of the present disclosure.
  • the CIS substrate 2 includes a substrate portion 21 made of a semiconductor such as silicon (Si) and a wiring portion 22 provided on the surface surface (lower surface side in FIG. 2) of the substrate portion 21. Have.
  • the wiring portion 22 is connected to the insulating film 221 and the wiring layer 222 provided inside the insulating film 221 and the electrode layer exposed on the surface 221a (lower surface in FIG. 2) of the insulating film 221 connected to the wiring layer 222. 223 and.
  • a plurality of wiring layers 222 may be provided in the thickness direction (for example, the Z-axis direction) of the insulating film 221.
  • the electrode layer 223 may be connected to the wiring layer located on the side closest to the surface 221a among the plurality of wiring layers 222.
  • the surface 221a of the insulating film 221 corresponds to, for example, one surface 2a of the CIS substrate 2 shown in FIG.
  • the insulating film 221 is composed of, for example, a silicon oxide film (SiO 2 film) or a silicon nitride film (SiN film), or a laminated film in which a SiO 2 film and a SiN film are laminated.
  • the wiring layer 222 is made of, for example, aluminum (Al), an Al alloy containing Al as a main component, copper (Cu), or a Cu alloy containing Cu as a main component.
  • the electrode layer 223 is made of, for example, Cu or a Cu alloy containing Cu as a main component.
  • the logic chip 3 has a substrate portion 31 made of a semiconductor such as silicon (Si), and a wiring portion 32 provided on the surface (upper surface in FIG. 2) side of the substrate portion 31.
  • the wiring portion 32 is connected to the insulating film 321 and the wiring layer 322 provided inside the insulating film 321 and the electrode layer exposed on the surface 321a (upper surface in FIG. 2) of the insulating film 321 connected to the wiring layer 322. 323 and.
  • a plurality of wiring layers 322 may be provided in the thickness direction (for example, the Z-axis direction) of the insulating film 321.
  • the electrode layer 323 may be connected to the wiring layer located on the side closest to the surface 321a among the plurality of wiring layers 322.
  • the insulating film 321 is composed of, for example, a SiO 2 film or a SiN film, or a laminated film in which a SiO 2 film and a SiN film are laminated.
  • the wiring layer 322 is composed of, for example, Al, an Al alloy containing Al as a main component, Cu, or a Cu alloy containing Cu as a main component.
  • the electrode layer 323 is made of, for example, Cu or a Cu alloy containing Cu as a main component.
  • the insulating films 221 and 321 are bonded in close contact with each other.
  • the electrode layers 223 and 323 are also bonded in a state of being in close contact with each other (for example, Cu—Cu bonding).
  • the CIS substrate 2 and the logic chip 3 are integrated with each other, and the wiring layers 222 and 322 are electrically connected to each other via the electrode layers 223 and 323.
  • the first insulating film 11 shown in FIG. 1 is made of a material having a smaller thermal expansion rate than the semiconductor (for example, Si) constituting the substrate portion 31 of the logic chip 3, and is made of, for example, a SiO 2 film. ..
  • the second insulating film 12 is made of a material having a composition different from that of the first insulating film 11.
  • the second insulating film 12 is preferably made of a material having a larger thermal expansion rate than the semiconductor (for example, Si) constituting the substrate portion 31 of the logic chip 3.
  • the second insulating film 12 is preferably made of a material having a smaller thermal expansion rate than the first insulating film 11.
  • the second insulating film 12 is composed of aluminum oxide (Al 2 O 3 ), silicon carbide (SiC), aluminum nitride (AlN) or SiN film, or a laminated film containing at least one of these. .. Table 1 shows the approximate values of the coefficient of thermal expansion (CTE) of each of these materials. In Table 1, " ⁇ 3" means 3 or less.
  • the surface 11a (lower surface in FIG. 1) of the first insulating film 11 and the surface 12a (lower surface in FIG. 1) of the second insulating film 12 are flush with or substantially flush with each other. There is.
  • the surface 11a of the first insulating film 11 and the surface 12a of the second insulating film 12 are flattened, and the step between the surfaces 11a and 21a is zero (0) or almost zero.
  • the surface 11a of the first insulating film 11 and the surface 12a of the second insulating film 12 are in contact with the support substrate 13, respectively.
  • the support substrate 13 is, for example, a Si substrate covered with a SiO 2 film.
  • FIG. 3 is a plan view of the first insulating film 11 and the second insulating film 12 of the image pickup apparatus 1 according to the first embodiment of the present disclosure as viewed from the side of the support substrate 13.
  • the first insulating film 11 is arranged so as to cover the entire area of the logic chip 3.
  • the second insulating film 12 is arranged on the outside of the logic chip 3 (that is, a region that does not overlap with the logic chip 3). In a plan view, the second insulating film 12 does not exist in the region overlapping the logic chip 3.
  • the second insulating film 12 and the logic chip 3 are separated by a distance S, and the second insulating film 12 is arranged so as to surround the logic chip 3.
  • the distance S is, for example, 0.1 ⁇ m or more and 300 ⁇ m or less.
  • the image pickup device 1 includes various devices such as a film forming device (including a CVD (Chemical Vapor Deposition) device and a coating device), an exposure device, an etching device, a CMP (Chemical Vapor Deposition) device, a grinder device, a bonding device, and a dicing device. Manufactured using. Hereinafter, these devices are collectively referred to as manufacturing devices.
  • FIG. 4 is a diagram schematically showing CoW applicable to the manufacturing method of the image pickup apparatus 1 according to the first embodiment of the present disclosure.
  • 5 to 7 are cross-sectional views showing the manufacturing method of the image pickup apparatus 1 according to the first embodiment of the present disclosure in the order of processes.
  • the manufacturing apparatus joins the logic chip 3 to the CIS substrate 2 on which the CMOS image sensor is formed. This joining is performed by CoW (Chip on Wafer).
  • the manufacturing apparatus manufactures a wafer W on which a plurality of CMOS image sensors 2'are formed, and performs a probe inspection or the like on the plurality of CMOS image sensors 2'formed on the wafer W.
  • Each CMOS image sensor is judged to be non-defective or defective.
  • the manufacturing apparatus manufactures a wafer (not shown) on which a plurality of logic circuits are formed, and performs a probe inspection or the like on the plurality of logic circuits formed on the wafer to perform logic. Judgment of non-defective product and defective product is performed for each circuit.
  • the manufacturing apparatus separates the wafer on which the plurality of logic circuits are formed into individual pieces for each logic circuit to form the plurality of logic chips 3. After that, the manufacturing apparatus joins the logic chip 3 which is determined to be a non-defective product and is separated into pieces to the CMOS image sensor 2'which is determined to be a non-defective product in the wafer W. The manufacturing apparatus performs joining by CoW in this way.
  • the logic chip 3 determined to be a non-defective product is bonded to the CMOS image sensor 2'determined to be defective, or the logic chip 3 determined to be defective is bonded to the CMOS image sensor 2'determined to be non-defective. This can be prevented, so that the manufacturing cost of the image pickup apparatus 1 can be suppressed.
  • step ST2 of FIG. 5 the manufacturing apparatus grinds the surface 3a (upper surface in FIG. 5) of the logic chip 3 to form the logic chip 3 into foil (reduce the thickness).
  • step ST3 of FIG. 5 the manufacturing apparatus deposits the first insulating film 11 on one surface Wa side of the wafer W by the CVD method to cover the plurality of logic chips 3 and to cover each other. Embed the space between adjacent logic chips 3.
  • step ST4 of FIG. 6 the manufacturing apparatus deposits the second insulating film 12 on the first insulating film 11 by the CVD method. Since the CVD method reflects the shape of the substrate to form a film, the first insulating film 11 and the second insulating film 12 are formed in an uneven shape.
  • the first insulating film 11 and the second insulating film 12 are formed in a convex shape in the region where the logic chip 3 is arranged, and the first insulating film 11 and the second insulating film 12 and the second insulating film 12 are formed in a region where the logic chip 3 is not arranged.
  • the insulating film 12 is formed in a concave shape.
  • the manufacturing apparatus applies CMP treatment to the second insulating film 12 and the first insulating film 11 from the second insulating film 12 side, and one surface Wa of the wafer W is applied. Flatten the side.
  • FIG. 8 is a cross-sectional view for explaining the flattening process in more detail.
  • the first insulating film 11 formed by the CVD method has a convex portion 111 and a concave portion 112.
  • the convex portion 111 is formed in the region where the logic chip 3 is arranged, and the concave portion 112 is formed in the region where the logic chip 3 is not arranged.
  • the second insulating film 12 includes a first flat surface portion 121 that covers the upper surface of the convex portion 111 of the first insulating film 11, a side wall portion 122 that covers the side surface of the convex portion 111, and a second flat surface portion 123 that covers the upper surface of the concave portion 112. And have.
  • the first flat surface portion 121 of the second insulating film 12 is polished.
  • the first flat surface portion 121 of the second insulating film 12 is located at the tip of the convex portion 111, and the force applied from the polishing pad is concentrated in the initial stage of the CMP processing. Therefore, the first flat surface portion 121 is easily polished and is removed in the initial stage of the CMP treatment.
  • step ST12 of FIG. 8 when the first flat surface portion 121 is removed by polishing and the convex portion 111 of the first insulating film 11 is exposed, the convex portion 111 of the first insulating film 11 and the second insulating film 12 The side wall portion 122 is polished. At this stage, the side wall portion 122 of the second insulating film 12 serves as a guide (protective film) for suppressing the progress of polishing. The side wall portion 122 suppresses excessive polishing of the corner portion of the convex portion 111.
  • step ST13 of FIG. 8 when the side wall portion 122 is removed by polishing, the convex portion 111 of the first insulating film 11 and the second flat surface portion 123 of the second insulating film 12 are polished.
  • the CMP treatment proceeds to the second flat surface portion 123, the surface 11a of the first insulating film 11 and the surface 12a of the second insulating film 12 are in a state of being flattened flush with each other.
  • the second insulating film 12 is made of a material having a lower polishing rate by CMP treatment than the first insulating film 11.
  • the first insulating film 11 is made of SiO 2
  • the second insulating film 12 is made of Al 2 O 3 , SiC, AlN, SiN or Si.
  • the second flat surface portion 123 of the second insulating film 12 functions as a stopper film for CMP processing on the first insulating film 11.
  • the first insulating film 11 is formed to reflect the shape of the logic chip 3.
  • the convex portion 111 of the first insulating film 11 is formed in a shape bulging in the horizontal direction (X-axis direction, Y-axis direction) with respect to the logic circuit 3.
  • the second insulating film 12 is deposited on the first insulating film 11 by the CVD method, the side wall portion 122 and the second flat surface portion 123 of the second insulating film 12 are formed in a region that does not overlap with the logic circuit 3. .
  • the second plane portion 123 is formed at a distance S from the logic chip 3. The distance S between the logic chip 3 and the second plane portion 123 remains even after the CMP processing.
  • FIG. 9 is a plan view schematically showing one surface Wa side of the wafer W after performing step ST5 (CMP processing) of FIG.
  • the second insulating film 12 is formed in a shape surrounding the logic chip 3 in a plan view. Further, as shown in FIG. 3, the second insulating film 12 and the logic chip 3 are formed in a state of being separated by a distance S in a plan view.
  • step ST6 of FIG. 6 the manufacturing apparatus joins the support substrate 13 to the flattened first insulating film 11 and the second insulating film 12.
  • step ST6 of FIG. 6 it is shown upside down with respect to step ST5 of FIG.
  • step ST7 of FIG. 7 the manufacturing apparatus grinds the other surface Wb (upper surface in FIG. 7) of the wafer W to form the wafer W into foil.
  • the manufacturing apparatus forms a color filter CF on the other surface Wb side of the wafer W, and mounts the on-chip lens OCL on the color filter CF.
  • the manufacturing apparatus dices the wafer W and the support substrate 13 along the dicing line DL to separate them into individual pieces.
  • the first layer L1, the second layer L2, and the third layer L3 are also diced together with the wafer W and the support substrate 13.
  • the stress generated in the logic chip 3 can be relieved by arranging the second flat surface portion 123 of the second insulating film 12 on the recess 112 of the first insulating film 11.
  • FIG. 10 is a diagram schematically showing the mechanism of stress relaxation in the image pickup apparatus 1 according to the first embodiment of the present disclosure.
  • Step ST21 in FIG. 10 shows a state in which the logic chip 3 is bonded to the wafer W (room temperature: 25 ° C.). From this state, when the first insulating film 11 is formed by the CVD method, the wafer W is heated in advance before the film formation. By this heating, the wafer W and the logic chip 3 bonded to the wafer W are heated to, for example, 350 ° C. Then, as shown in step ST22 of FIG. 10, the logic chip 3 expands according to the thermal expansion rate of the material constituting the logic chip 3.
  • the substrate portion 31 shown in FIG. 2 is made of Si or the like, and the wiring portion 32 is made of SiO 2 , Cu or the like. Due to this expansion, an outward stress F1 is generated in the logic chip 3.
  • Step ST23 in FIG. 10 shows a state (350 ° C.) in which the first insulating film is formed.
  • the logic chip 3 is fixed by the first insulating film 11 in an expanded state. After the film formation of the first insulating film 11, the first insulating film 11, the wafer W, and the logic chip 3 are cooled to room temperature. Due to this cooling, the expanded logic chip 3 contracts. As shown in step ST24 of FIG. 10, this contraction causes an inward stress F2 on the logic chip 3.
  • the logic chip 3 since the logic chip 3 is fixed from the surroundings by the first insulating film 11, it cannot sufficiently shrink. As a result, the inward stress F2 remains on the logic chip 3 even after cooling.
  • the second insulating film 12 is formed after the first insulating film 11 is formed by the CVD method. Then, the second insulating film 12 is subjected to CMP treatment. As a result, as shown in step ST25 of FIG. 10, the second insulating film 12 is formed in a self-aligned manner so as to exist only between the logic chips 3.
  • the second insulating film 12 also shrinks due to cooling after film formation. Due to this shrinkage, an inward stress F3 is generated in the second insulating film 12. Further, a reaction force of the stress F3 (a force in the direction opposite to the stress F3) is generated in the first insulating film 11 in contact with the second insulating film 12. The reaction force of the stress F3 relaxes the stress F2 generated in the logic chip 3.
  • the image pickup apparatus 1 is provided on the CIS substrate 2, the logic chip 3 provided on one surface 2a side of the CIS substrate 2, and the one surface 2a side.
  • the second insulating film 12 exists outside the logic chip 3 in a plan view from the normal direction (for example, the Z-axis direction) of one surface 2a.
  • the first insulating film 11 can be polished by using the second insulating film 12 as the stopper layer.
  • the second layer L2 in which the first insulating film 11 and the second insulating film 12 coexist can be flattened while suppressing the formation of dents called voids and dishing in the first insulating film 11. This makes it easy to bring the surface of the second layer L2 into close contact with the support substrate 13, and it is possible to suppress the occurrence of poor bonding between the second layer L2 and the support substrate 13.
  • the second insulating film 12 shrinks due to cooling after the film formation. Due to this shrinkage, an inward stress F3 is generated in the second insulating film 12. Further, a reaction force of stress F3 is generated on the first insulating film 11 in contact with the second insulating film 12. The reaction force of the stress F3 relaxes the stress F2 generated in the logic chip 3. As a result, for example, a load is applied to the transistor mounted on the logic chip 3 to change the transistor characteristics (for example, mobility), or the position shift occurs between the logic chip 3 and the color filter CF. It can be suppressed. It is possible to suppress the occurrence of defects due to changes in characteristics and misalignment.
  • the image pickup apparatus 1 has been described as an example of the sensor device of the present disclosure. It has been described that the image pickup apparatus 1 has a structure (that is, a single chip structure) in which one logic chip 3 is bonded to the CIS substrate 2. However, the embodiments of the present disclosure are not limited to this.
  • the image pickup apparatus according to the embodiment of the present disclosure may have a structure (that is, a multi-chip structure) in which a plurality of semiconductor chips are bonded to the CIS substrate 2.
  • FIG. 11 is a cross-sectional view showing a configuration example of the image pickup apparatus 1A according to the second embodiment of the present disclosure.
  • the image pickup apparatus 1A has a logic chip 3 provided on one surface 2a (lower surface in FIG. 11) of the CIS substrate 2 and one surface 2a of the CIS substrate 2. It includes a memory chip 4 (as an example of the "third substrate” of the present disclosure) provided on the side and arranged at a certain distance from the logic chip 3.
  • the first insulating film 11 is provided on one surface 2a side of the CIS substrate 2 and covers the logic chip 3 and the memory chip 4, respectively.
  • FIG. 12 is a plan view of the first insulating film 11 and the second insulating film 12 as viewed from the side of the support substrate 13 in the image pickup apparatus 1A according to the second embodiment of the present disclosure.
  • the first insulating film 11 is arranged so as to cover the entire area of the logic chip 3 in a plan view from the Z-axis direction.
  • the second insulating film 12 exists outside the logic chip 3 (that is, an area that does not overlap with the logic chip 3) and outside the memory chip 4 (that is, an area that does not overlap with the memory chip 4). do.
  • the second insulating film 12 does not exist in the area overlapping the logic chip 3 and does not exist in the area overlapping the memory chip 4.
  • the second insulating film 12 and the logic chip 3 are separated by a distance S.
  • the second insulating film 12 and the memory chip 4 are also separated by a distance S.
  • the second insulating film 12 is arranged so as to surround the logic chip 3 and the memory chip 4, respectively.
  • 13 and 14 are cross-sectional views showing the manufacturing method of the image pickup apparatus 1A according to the second embodiment of the present disclosure in the order of processes.
  • the manufacturing apparatus joins the logic chip 3 and the memory chip 4 to the CIS substrate 2 on which the CMOS image sensor is formed. This joining is performed by CoW (Chip on Wafer).
  • CoW Chip on Wafer
  • the logic chip 3 determined to be a non-defective product and the memory chip 4 determined to be a non-defective product are bonded to the CMOS image sensor 2'(see FIG. 15) determined to be a non-defective product.
  • the manufacturing apparatus grinds the surface 3a of the logic chip 3 and the surface 4a of the memory chip 4 to form the logic chip 3 and the memory chip 4 into foils, respectively.
  • the manufacturing apparatus deposits the first insulating film 11 on one surface Wa side of the wafer W by the CVD method, and a plurality of logic chips 3 and a plurality of memory chips. While covering 4, the space between the logic chips 3 adjacent to each other, the space between the memory chips 4 adjacent to each other, and the space between the logic chips 3 and the memory chips 4 adjacent to each other are embedded.
  • the manufacturing apparatus deposits the second insulating film 12 on the first insulating film 11 by the CVD method. Since the first insulating film 11 and the second insulating film 12 are formed to reflect the shape of the substrate, they are formed in an uneven shape reflecting the shapes of the logic chip 3 and the memory chip 4. In the wafer W, in the region where the logic chip 3 is arranged and the region where the memory chip 4 is arranged, the first insulating film 11 and the second insulating film 12 are formed in a convex shape, and the logic chip 3 is not arranged. In the region and the region where the memory chip 4 is not arranged, the first insulating film 11 and the second insulating film 12 are formed in a concave shape.
  • the manufacturing apparatus applies CMP treatment to the second insulating film 12 and the first insulating film 11 from the second insulating film 12 side, and one surface Wa of the wafer W is applied. Flatten the side.
  • the second insulating film 12 is a stopper film for CMP treatment with respect to the first insulating film 11. Functions as.
  • FIG. 15 is a plan view schematically showing one surface Wa side of the wafer W after performing step ST25 (CMP processing) of FIG.
  • the second insulating film 12 is formed in a shape that surrounds the logic chip 3 and the memory chip 4 in a plan view. Further, as shown in FIG. 12, a state in which the second insulating film 12 and the logic chip 3 and the second insulating film 12 and the memory chip 4 are separated by a distance S in a plan view, respectively. Is formed in.
  • the subsequent steps are the same as in the first embodiment.
  • the manufacturing apparatus grinds the other surface Wb of the wafer W to form the wafer W into foil.
  • the manufacturing apparatus forms a color filter CF (see FIG. 11) on the other surface Wb side of the wafer W, and mounts the on-chip lens OCL (see FIG. 11) on the color filter CF.
  • the manufacturing apparatus dices the wafer W and the support substrate 13 along the dicing line to separate them into individual pieces.
  • the image pickup apparatus 1A shown in FIG. 11 is completed.
  • the image pickup apparatus 1A according to the second embodiment of the present disclosure has the same effect as the image pickup apparatus 1 according to the first embodiment. That is, when manufacturing the image pickup apparatus 1A, the first insulating film 11 can be polished by using the second insulating film 12 as the stopper layer. As a result, the second layer L2 in which the first insulating film 11 and the second insulating film 12 coexist can be flattened while suppressing the formation of dents called voids and dishing in the first insulating film 11. This makes it easy to bring the surface of the second layer L2 into close contact with the support substrate 13, and it is possible to suppress the occurrence of poor bonding between the second layer L2 and the support substrate 13.
  • the second insulating film 12 shrinks due to cooling after the film formation. Due to this shrinkage, an inward stress F3 (see FIG. 10) is generated in the second insulating film 12. Further, a reaction force of stress F3 is generated on the first insulating film 11 in contact with the second insulating film 12. The reaction force of the stress F3 relaxes the stress F2 generated in the logic chip 3 and the stress F2 generated in the memory chip 4. As a result, for example, it is possible to prevent the transistor mounted on the logic chip 3 and the transistor mounted on the memory chip 4 from being loaded and the characteristics of each transistor (for example, mobility) changed. ..
  • the number of logic chips 3 and the number of memory chips 4 bonded to the CIS substrate 2 are not limited to one each.
  • the number of logic chips 3 bonded to the CIS board 2 may be two or more, and the number of memory chips 4 bonded to the CIS board 2 may be two or more. Further, other semiconductor chips other than the logic chip 3 and the memory chip 4 may be bonded to the CIS substrate 2.
  • FIG. 16 is a diagram showing a modified example of the image pickup apparatus 1A according to the second embodiment of the present disclosure.
  • the logic chip 3, the memory chip 4, and the AI (artificial intelligence) chip 5 may be bonded to the CIS substrate 2.
  • the AI chip 5 is an example of the above-mentioned "other semiconductor chip”. Even with such a configuration, the image pickup apparatus 1A has the same defects as described above due to poor bonding between the second layer L2 and the support substrate 13, changes in transistor characteristics, and misalignment of the color filter CF. The occurrence can be suppressed.
  • the logic chip 3 is bonded to the CIS substrate 2 by CoW. Further, in the second embodiment, it has been described that the logic chip 3, the memory chip 4, and the AI chip 5 are bonded to the CIS substrate 2 by CoW.
  • the object to which the semiconductor chip is bonded by CoW is not limited to the CIS substrate 2.
  • the target to which the semiconductor chip is bonded by CoW may be a logic substrate or a laminated substrate of a CIS substrate and a logic substrate.
  • the laminated substrate of the CIS substrate and the logic substrate may be formed of WoW (Wafer on Wafer).
  • FIG. 17 is a cross-sectional view showing a configuration example of the image pickup apparatus 1B according to the third embodiment of the present disclosure.
  • the image pickup apparatus 1B according to the third embodiment is one of a laminated substrate 10 (an example of the "first substrate” of the present disclosure) in which a logic substrate 3A is laminated on a CIS substrate 2 and one of the laminated substrates 10.
  • the memory chip 4 provided on the surface 10a (lower surface in FIG.
  • the AI chip 5 provided on one surface 10a side of the laminated substrate 10 and arranged away from the memory chip 4, and the laminated substrate 10
  • a first insulating film 11 provided on one surface 10a side and covering the memory chip 4 and the AI chip, a second insulating film 12 facing the laminated substrate 10 with the first insulating film 11 interposed therebetween, and a first insulating film 11.
  • the support substrate 13 is provided at a position facing the laminated substrate 10 with the second insulating film 12 interposed therebetween, and is in contact with the first insulating film 11 and the second insulating film 12, respectively, and on the opposite side of one surface 10a of the laminated substrate 10. It includes a color filter CF provided on the other surface 10b (upper surface in FIG. 17) side, and an on-chip lens OCL provided at a position facing the laminated substrate 10 with the color filter CF interposed therebetween.
  • the laminated substrate 10 is an example of the "first substrate” of the present disclosure.
  • Each of the memory chip 4 and the AI chip 5 is an example of the "second substrate” of the present disclosure.
  • the image pickup apparatus 1 includes a first layer L1, a second layer L2, and a third layer L3 between the laminated substrate 10 and the support substrate 13.
  • the first layer L1 is a layer in which the memory chip 4, the AI chip 5, and the first insulating film 11 coexist.
  • the second layer L2 is a layer in which the first insulating film 11 and the second insulating film 12 coexist.
  • the third layer L3 is located between the first layer L1 and the second layer L2, and is a layer composed of only the first insulating film 11.
  • the logic board 3A is a semiconductor board on which a logic circuit is formed.
  • the logic board 3A is electrically connected to the CIS board 2.
  • the logic circuit included in the logic board 3A performs various signal processing related to the operation of the image pickup apparatus 1B, such as performing predetermined processing on the electric signal output from the CIS board 2.
  • the CIS board 2 may have a circuit for performing signal processing related to the operation of the image pickup apparatus 1.
  • the CIS substrate 2 and the logic substrate 3A are joined by, for example, WoW to form a laminated substrate 10.
  • WoW wafers are joined to each other to obtain a laminated wafer, and then the laminated wafer is cut along a dicing line to be individualized. Therefore, the outer peripheral side surface 2c of the CIS substrate 2 joined by WoW and the outer peripheral side surface 3Ac of the logic substrate 3A are arranged so as to be aligned on the same surface.
  • the image pickup apparatus 1B suppresses the occurrence of defects due to poor bonding between the second layer L2 and the support substrate 13, changes in transistor characteristics, and misalignment of the color filter CF. Can be done.
  • the above-mentioned image pickup devices 1, 1A and 1B are applied to various electronic devices such as an image pickup device such as a digital still camera or a digital video camera, a mobile phone having an image pickup function, or another device having an image pickup function. can do.
  • an image pickup device such as a digital still camera or a digital video camera
  • a mobile phone having an image pickup function or another device having an image pickup function. can do.
  • FIG. 18 is a block diagram showing a configuration example of an image pickup device as an electronic device to which the present technology is applied.
  • the image pickup device 501 shown in FIG. 18 includes an optical system 502 (an example of the “optical component” of the present disclosure), a shutter device 503, a solid-state image pickup device 504, a drive circuit 505, a signal processing circuit 506, a monitor 507, and a memory 508. It is configured to be capable of capturing still and moving images.
  • the optical system 502 is configured to have one or a plurality of lenses, transmit light (incident light) from a subject, incident on the solid-state image sensor 504, and form an image on the light receiving surface of the solid-state image sensor 504. ..
  • the shutter device 503 is arranged between the optical system 502 and the solid-state image pickup element 504, and controls the light irradiation period and the light-shielding period to the solid-state image pickup element 504 according to the control of the drive circuit 505.
  • the solid-state image sensor 504 is composed of a package including the above-mentioned image pickup devices 1, 1A, and 1B.
  • the solid-state image sensor 504 accumulates signal charges for a certain period of time according to the light imaged on the light receiving surface via the optical system 502 and the shutter device 503.
  • the signal charge stored in the solid-state image sensor 504 is transferred according to the drive signal (timing signal) supplied from the drive circuit 505.
  • the drive circuit 505 outputs a drive signal for controlling the transfer operation of the solid-state image sensor 504 and the shutter operation of the shutter device 503 to drive the solid-state image sensor 504 and the shutter device 503.
  • the signal processing circuit 506 performs various signal processing on the signal charge output from the solid-state image sensor 504.
  • the image (image data) obtained by performing signal processing by the signal processing circuit 506 is supplied to the monitor 507 and displayed, or supplied to the memory 508 and stored (recorded).
  • FIG. 19 is a diagram showing a usage example using the above-mentioned imaging devices 1, 1A and 1B.
  • the image pickup devices 1, 1A, and 1B described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below.
  • Devices that take images for viewing such as digital cameras and portable devices with camera functions.
  • Devices and user gestures used for traffic such as in-vehicle sensors that capture images of the rear, surroundings, and interior of vehicles, surveillance cameras that monitor traveling vehicles and roads, and distance measuring sensors that measure distance between vehicles.
  • Devices and endoscopes used in home appliances such as TVs, refrigerators, and air conditioners to take pictures and operate the equipment according to the gesture, and devices that take blood vessels by receiving infrared light.
  • Equipment used for medical and healthcare surveillance cameras for crime prevention, cameras for person authentication, etc., equipment used for security, skin measuring instruments for taking pictures of the skin, and taking pictures of the scalp
  • Devices used for beauty such as microscopes, action cameras and wearable cameras for sports applications, devices used for sports, cameras for monitoring the condition of fields and crops, etc.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the techniques according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 20 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 20 illustrates how the surgeon (doctor) 11131 is performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (light emitting diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 11100.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator. Is sent.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the observation target is irradiated with the laser light from each of the RGB laser light sources in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image pickup device.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue, the surface layer of the mucous membrane is irradiated with light in a narrower band than the irradiation light (that is, white light) during normal observation.
  • a so-called narrow band light observation is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating the excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 21 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 20.
  • the camera head 11102 includes a lens unit 11401, an image pickup unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup element constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to the 3D (dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the living tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the image pickup unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the image pickup conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques.
  • the control unit 11413 detects a surgical tool such as forceps, a specific biological part, bleeding, mist when using the energy treatment tool 11112, etc. by detecting the shape, color, etc. of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can surely proceed with the surgery.
  • the transmission cable 11400 connecting the camera head 11102 and CCU11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100, the camera head 11102 (imaging unit 11402), the CCU 11201 (image processing unit 11412), and the like, among the configurations described above.
  • the image pickup device 1 shown in FIG. 1, the image pickup device 1A shown in FIG. 11, a modified example of the image pickup device 1A shown in FIG. 16, and the image pickup device 1B shown in FIG. 17 are applied to the image pickup unit 10402. can do.
  • the image pickup unit 11402 of the camera head 11102 By applying the technique according to the present disclosure to the endoscope 11100, the image pickup unit 11402 of the camera head 11102, the image processing unit 11412 of the CCU 11201, and the like, it is possible to suppress the occurrence of defects in the image pickup apparatus, for example, and it is clearer. Since it is possible to obtain an image of the surgical site, the operator can surely confirm the surgical site.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 22 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 has a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, turn signals or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle outside information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the image pickup unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the outside information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a head-up display.
  • FIG. 23 is a diagram showing an example of the installation position of the image pickup unit 12031.
  • the image pickup unit 12031 has image pickup units 12101, 12102, 12103, 12104, and 12105.
  • the image pickup units 12101, 12102, 12103, 12104, and 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the image pickup unit 12101 provided in the front nose and the image pickup section 12105 provided in the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the image pickup units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the image pickup unit 12104 provided in the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the image pickup unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 23 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging range of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the image pickup units 12101 to 12104, a bird's-eye view image of the vehicle 12100 can be obtained.
  • At least one of the image pickup units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera including a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the image pickup range 12111 to 12114 based on the distance information obtained from the image pickup unit 12101 to 12104, and a temporal change of this distance (relative speed with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the image pickup units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the image pickup units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging unit 12101 to 12104.
  • pedestrian recognition is, for example, a procedure for extracting feature points in an image captured by an image pickup unit 12101 to 12104 as an infrared camera, and pattern matching processing is performed on a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 receives a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the image pickup unit 12031 or the like among the configurations described above. Specifically, the image pickup device 1 shown in FIG. 1, the image pickup device 1A shown in FIG. 11, a modified example of the image pickup device 1A shown in FIG. 16, and the image pickup device 1B shown in FIG. 17 are applied to the image pickup unit 12031. can do.
  • the technique according to the present disclosure to the image pickup unit 12031, for example, it is possible to suppress the occurrence of defects in the image pickup apparatus and obtain a photographed image that is easier to see, so that the driver's fatigue can be reduced. become.
  • the present disclosure may also have the following structure.
  • (1) With the first board A second substrate provided on one surface side of the first substrate and An insulating first film provided on one of the surfaces and covering the second substrate, It has a second film that is made of a material different from that of the first film and is provided at a position facing the first substrate with the first film interposed therebetween.
  • the sensor device according to (1) or (2) further comprising a support substrate provided at a position facing the first substrate with the first layer and the second layer interposed therebetween, and in contact with the second layer.
  • a third substrate arranged on one of the surfaces and included in the first layer is further provided.
  • the first film covers the third substrate, and the first film covers the third substrate.
  • Optical parts and A sensor device in which light transmitted through the optical component is incident is provided.
  • the sensor device is With the first board A second substrate provided on one surface side of the first substrate and An insulating first film provided on one surface side and covering at least the side surface of the second substrate, It has a second film that is made of a material different from that of the first film and faces the first substrate with the first film interposed therebetween.
  • An electronic device in which the second film exists outside the second substrate in a plan view from the normal direction of one of the surfaces.

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Electromagnetism (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

不良の発生を抑制できるようにしたセンサデバイスおよび電子機器を提供する。センサデバイスは、第1基板と、第1基板の一方の面側に設けられた第2基板と、一方の面側に設けられ、第2基板を覆う絶縁性の第1膜と、第1膜とは異なる材料で構成され、第1膜を挟んで第1基板と向かい合う位置に設けられた第2膜と、を有する。第2基板と第1膜とが混在する第1層と、第1膜と第2膜とが混在する第2層とがある。一方の面の法線方向からの平面視で、第2膜は、第2基板の外側に存在する。

Description

センサデバイスおよび電子機器
 本開示は、センサデバイスおよび電子機器に関する。
 半導体チップをウェハの表面に接合するCoW(Chip on Wafer)が知られている。例えば、特許文献1には、撮像装置の製造方法であって、良品と判定されたロジック回路を有するロジックチップをウェハの表面に接合し、ウェハの表面上に絶縁膜を堆積し、その後、絶縁膜の表面を平坦化する技術が開示されている。
国際公開第2019/087764号 特開2011-18710号公報
 CoWでは、半導体チップとウェハ表面との間に、半導体チップの厚さに相当する段差が生じる。半導体チップを箔肉化した場合でも、その厚さは10μmから200μm程度となるため、上記の段差は大きい。半導体チップを覆うようにウェハの表面上に絶縁膜を堆積すると、半導体チップとウェハ表面との段差を反映した凹凸が絶縁膜の表面に形成される。この凹凸を平坦化するため、絶縁膜の表面にCMP(Chemical Mechanical Polishing)処理が施される。しかし、上記の凹凸は、半導体チップとウェハ表面との段差を反映したものであり、この段差は10μmから200μm程度大きい。このため、CMP処理を施した場合でも、絶縁膜の表面は十分に平坦化されない可能性がある。例えば、ウェハの表面に接合された複数の半導体チップ間やウェハ外周部にボイドやディッシングと呼ばれる凹みが生じる可能性がある。この凹みが原因で、絶縁膜と他の基板(例えば、支持基板)との間に接合不良が生じる可能性がある。
 また、半導体チップと絶縁膜との熱膨張率の違いが原因で、半導体チップに応力が生じる。この応力が大きいと、半導体チップに搭載されるトランジスタに負荷がかかってトランジスタ特性(例えば、移動度)が変化する可能性がある。また、この応力が大きいと、半導体チップと、半導体チップを覆う絶縁膜上に設けられたカラーフィルタとの間に位置ズレが生じる可能性がある。半導体チップに関して、トランジスタ特性に変化が生じたり、カラーフィルタとの間で位置ズレが生じたりすると、撮像装置の特性が低下する可能性がある。
 なお、特許文献2には、半導体基板上に導電パターンを形成し、導電パターン上に第1の研磨停止層を形成し、導電パターン及び第1の研磨停止層を覆うように半導体基板上に層間絶縁膜を形成し、層間絶縁上に第2の研磨停止層を形成し、その後、導電パターンの上方に位置する第1の研磨停止層及び層間絶縁膜を研磨して、半導体基板の上側表面を平坦化する技術が開示されている。しかし、特許文献2に開示されている技術は、CoWで生じるような半導体チップとウェハとの間の大きな段差を平坦化するものではない。特許文献2に開示されている技術は、半導体プロセスの前工程で生じる、半導体チップ内の小さな段差を平坦化するものである。半導体チップ内の導電パターン(配線層)の厚さは最大でも1μm未満と想定され、CoWで生じるような段差(10μmから200μm程度)と比べて桁違いに小さい。特許文献2には、半導体チップを覆う絶縁膜の平坦性の向上や、半導体チップに生じる応力の緩和について、何ら記載されていない。
 本開示はこのような事情に鑑みてなされたものであり、不良の発生を抑制できるようにしたセンサデバイスおよび電子機器を提供することを目的とする。
 本開示の一態様に係るセンサデバイスは、第1基板と、前記第1基板の一方の面側に設けられた第2基板と、前記一方の面側に設けられ、前記第2基板を覆う絶縁性の第1膜と、前記第1膜とは異なる材料で構成され、前記第1膜を挟んで前記第1基板と向かい合う位置に設けられた第2膜と、を有する。前記第2基板と前記第1膜とが混在する第1層と、前記第1膜と前記第2膜とが混在する第2層とがある。前記一方の面の法線方向からの平面視で、前記第2膜は、前記第2基板の外側に存在する。
 これによれば、センサデバイスを製造する際に、第2膜をストッパー層に用いて第1膜を研磨することができる。これにより、第1膜にボイドやディッシングと呼ばれる凹みが生じることを抑制しつつ、第1膜と第2膜とが混在する第2層を平坦化することができる。これにより、不良の発生(例えば、第2層と支持基板との間で接合不良が生じること)を抑制することができる。
 また、第2膜は、成膜後の冷却により収縮する。この収縮により、第2膜には内側に向かう応力が生じる。また、第2膜と接する第1膜には、第2膜に生じる応力の反作用の力が生じる。この反作用の力が、第2基板に生じる応力を緩和する。これにより、例えば、第2基板に搭載されるトランジスタに負荷がかかってトランジスタ特性(例えば、移動度)が変化したり、第2基板と、第2基板を覆う第2層上のカラーフィルタとの間で位置ズレが生じたりすることを抑制することができる。特性の変化や位置ズレを原因とする不良の発生を抑制することができる。
 本開示の一態様に係る電子機器は、光学部品と、前記光学部品を透過した光が入射する上記のセンサデバイスと、を備える。
 これによれば、上記のセンサデバイスが適用されるため、不良の発生を抑制できるようにした電子機器を提供することができる。
図1は、本開示の実施形態1に係る撮像装置の構成例を示す断面図である。 図2は、本開示の実施形態1に係る撮像装置において、CIS基板とロジック基板との接合領域の一部を拡大して示す断面図である。 図3は、本開示の実施形態1に係る撮像装置の第1絶縁膜及び第2絶縁膜を、支持基板の側から見た平面図である。 図4は、本開示の実施形態1に係る撮像装置の製造方法に適用可能なCoWを模式的に示す図である。 図5は、本開示の実施形態1に係る撮像装置の製造方法を工程順に示す断面図である。 図6は、本開示の実施形態1に係る撮像装置の製造方法を工程順に示す断面図である。 図7は、本開示の実施形態1に係る撮像装置の製造方法を工程順に示す断面図である。 図8は、平坦化の工程をより詳しく説明するための断面図である。 図9は、図6のステップST5(CMP処理)を行った後のウェハの一方の面側を模式的に示す平面図である。 図10は、本開示の実施形態1に係る撮像装置における、応力緩和のメカニズムを模式的に示す図である。 図11は、本開示の実施形態2に係る撮像装置の構成例を示す断面図である。 図12は、本開示の実施形態2に係る撮像装置において、第1絶縁膜及び第2絶縁膜を、支持基板の側から見た平面図である。 図13は、本開示の実施形態2に係る撮像装置の製造方法を工程順に示す断面図である。 図14は、本開示の実施形態2に係る撮像装置の製造方法を工程順に示す断面図である。 図15は、図14のステップST25(CMP処理)を行った後のウェハの一方の面側を模式的に示す平面図である。 図16は、本開示の実施形態2に係る撮像装置の変形例を示す図である。 図17は、本開示の実施形態3に係る撮像装置の構成例を示す断面図である。 図18は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。 図19は、上述の撮像装置を使用する使用例を示す図である。 図20は、内視鏡手術システムの概略的な構成の一例を示す図である。 図21は、カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 図22は、車両制御システムの概略的な構成の一例を示すブロック図である。 図23は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下において、図面を参照して本開示の実施形態を説明する。以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付している。ただし、図面は模式的なものであり、厚みと平面寸法との関係、各層の厚みの比率等は現実のものとは異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判断すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。
 以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 以下の説明では、X軸方向、Y軸方向及びZ軸方向の文言を用いて、方向を説明する場合がある。例えば、X軸方向及びY軸方向は、CIS基板2の一方の面2aに平行な方向である。X軸方向及びY軸方向を水平方向ともいう。Z軸方向は、一方の面2aと垂直に交わる方向である。X軸方向、Y軸方向及びZ軸方向は、互いに直交する。
 以下の説明で、平面視とは、CIS基板2の一方の面2aの法線方向(例えば、Z軸方向)から見ることを意味する。
<実施形態1>
 図1は、本開示の実施形態1に係る撮像装置1の構成例を示す断面図である。図1に示すように、実施形態1に係る撮像装置1(本開示の「センサデバイス」の一例)は、CIS基板2(本開示の「第1基板」の一例)と、CIS基板2の一方の面2a(図1では、下面)側に設けられたロジックチップ3(本開示の「第2基板」の一例)と、CIS基板2の一方の面2a側に設けられ、ロジックチップ3を覆う第1絶縁膜11(本開示の「第1膜」の一例)と、第1絶縁膜11を挟んでCIS基板2と向かい合う第2絶縁膜12(本開示の「第2膜」の一例)と、第1絶縁膜11及び第2絶縁膜12を挟んでCIS基板2と向かい合う位置に設けられ、第1絶縁膜11及び第2絶縁膜12とそれぞれ接する支持基板13と、CIS基板2の一方の面2aの反対側である他方の面2b(図1では、上面)側に設けられたカラーフィルタCFと、カラーフィルタCFを挟んでCIS基板2と向かい合う位置に設けられたオンチップレンズOCLと、を備える。
 撮像装置1は、CIS基板2と支持基板13との間に、第1層L1、第2層L2及び第3層L3を備える。第1層L1は、ロジックチップ3と第1絶縁膜11とが混在する層である。第2層L2は、第1絶縁膜11と第2絶縁膜12とが混在する層である。第3層L3は、第1層L1と第2層L2との間に位置し、第1絶縁膜11のみで構成される層である。第1層L1の厚さは、例えば10μm以上200μm以下である。第2層L2の厚さは、例えば10μm以下である。第3層L3の厚さは、例えば0.1μm以上100μm以下である。
 CIS基板2は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサが形成された基板である。CMOSイメージセンサは、例えば、複数のフォトダイオードと、フォトダイオードで光電変換により得られた電気信号を読み出すための読出し回路と、を有する。
 ロジックチップ3は、ロジック回路が形成された半導体チップである。ロジックチップ3はCIS基板2と電気的に接続している。ロジックチップ3が有するロジック回路は、CIS基板2から出力される電気信号に対して所定の処理を行うなど、撮像装置1の動作に関する各種の信号処理を行う。なお、ロジックチップ3だけでなく、CIS基板2も、撮像装置1の動作に関する信号処理を行う回路を有してもよい。
 図2は、本開示の実施形態1に係る撮像装置において、CIS基板2とロジックチップ3との接合領域R23の一部を拡大して示す断面図である。図2に示すように、CIS基板2は、シリコン(Si)等の半導体で構成される基板部21と、基板部21の表面(図2では、下面側)に設けられた配線部22とを有する。配線部22は、絶縁膜221と、絶縁膜221の内部に設けられた配線層222と、配線層222に接続し絶縁膜221の表面221a(図2では、下面)に露出している電極層223と、を有する。図示しないが、配線層222は、絶縁膜221の厚さ方向(例えば、Z軸方向)に複数設けられていてもよい。この場合、電極層223は、複数の配線層222のうち、表面221aに最も近い側に位置する配線層に接続していてもよい。
 絶縁膜221の表面221aは、例えば、図1に示したCIS基板2の一方の面2aに相当する。絶縁膜221は、例えばシリコン酸化膜(SiO膜)又はシリコン窒化膜(SiN膜)、若しくは、SiO膜及びSiN膜を積層した積層膜で構成されている。配線層222は、例えばアルミニウム(Al)、Alを主成分とするAl合金、銅(Cu)、又は、Cuを主成分とするCu合金で構成されている。電極層223は、例えばCu、又は、Cuを主成分とするCu合金で構成されている。
 ロジックチップ3は、シリコン(Si)等の半導体で構成される基板部31と、基板部31の表面(図2では、上面)側に設けられた配線部32とを有する。配線部32は、絶縁膜321と、絶縁膜321の内部に設けられた配線層322と、配線層322に接続し絶縁膜321の表面321a(図2では、上面)に露出している電極層323と、を有する。図示しないが、配線層322は、絶縁膜321の厚さ方向(例えば、Z軸方向)に複数設けられていてもよい。この場合、電極層323は、複数の配線層322のうち、表面321aに最も近い側に位置する配線層に接続していてもよい。
 絶縁膜321は、例えばSiO膜又はSiN膜、若しくは、SiO膜及びSiN膜を積層した積層膜で構成されている。配線層322は、例えばAl、Alを主成分とするAl合金、Cu、又は、Cuを主成分とするCu合金で構成されている。電極層323は、例えばCu、又は、Cuを主成分とするCu合金で構成されている。
 図1及び図2に示すように、接合領域R23では、絶縁膜221、321が互いに密着した状態で接合されている。また、電極層223、323も互いに密着した状態で接合(例えばCu-Cu接合)されている。これにより、CIS基板2とロジックチップ3とが互いに一体化するとともに、電極層223、323を介して、配線層222、322が互いに電気的に接続されている。
 図1に示す第1絶縁膜11は、ロジックチップ3の基板部31を構成する半導体(例えば、Si)よりも熱膨張率が小さい材料で構成されており、例えばSiO膜で構成されている。
 第2絶縁膜12は、第1絶縁膜11とは組成が異なる材料で構成されている。第2絶縁膜12は、ロジックチップ3の基板部31を構成する半導体(例えば、Si)よりも熱膨張率が大きい材料で構成されていることが好ましい。また、第2絶縁膜12は、第1絶縁膜11よりも熱膨張率が小さい材料で構成されていることが好ましい。例えば、第2絶縁膜12は、酸化アルミニウム(Al)、炭化シリコン(SiC)、窒化アルミニウム(AlN)又はSiN膜、若しくは、これらの少なくとも1つ以上を含む積層膜で構成されている。これら各材料の熱膨張率(CTE)の概略値を表1に示す。表1において、「~3」は、3以下を意味する。
Figure JPOXMLDOC01-appb-T000001
 図1に示すように、第1絶縁膜11の表面11a(図1では、下面)と、第2絶縁膜12の表面12a(図1では、下面)は、面一又はほぼ面一となっている。第1絶縁膜11の表面11a及び第2絶縁膜12の表面12aは平坦化されており、表面11a、21a間の段差は、ゼロ(0)又はほぼゼロとなっている。第1絶縁膜11の表面11aと第2絶縁膜12の表面12aは、それぞれ支持基板13に接している。支持基板13は、例えば、SiO膜で覆われたSi基板である。
 図3は、本開示の実施形態1に係る撮像装置1の第1絶縁膜11及び第2絶縁膜12を、支持基板13の側から見た平面図である。図3に示すように、平面視で、第1絶縁膜11はロジックチップ3の全域を覆うように配置されている。また、平面視で、第2絶縁膜12は、ロジックチップ3の外側(すなわち、ロジックチップ3と重ならない領域)に配置されている。平面視で、第2絶縁膜12は、ロジックチップ3と重なる領域には存在しない。平面視で、第2絶縁膜12とロジックチップ3との間は距離Sだけ離れており、第2絶縁膜12はロジックチップ3を囲むように配置されている。距離Sは、例えば0.1μm以上300μm以下である。
(製造方法)
 次に、本開示の実施形態1に係る撮像装置1の製造方法の一例を説明する。撮像装置1は、成膜装置(CVD(Chemical Vapor Deposition)装置、塗布装置を含む)、露光装置、エッチング装置、CMP(Chemical Mechanical Polishing)装置、グラインダ装置、ボンディング装置、ダイシング装置など、各種の装置を用いて製造される。以下、これらの装置を、製造装置と総称する。
 図4は、本開示の実施形態1に係る撮像装置1の製造方法に適用可能なCoWを模式的に示す図である。図5から図7は、本開示の実施形態1に係る撮像装置1の製造方法を工程順に示す断面図である。図5のステップST1に示すように、製造装置は、CMOSイメージセンサが形成されたCIS基板2にロジックチップ3を接合する。この接合は、CoW(Chip on Wafer)で行う。
 例えば図4に示すように、製造装置は、複数のCMOSイメージセンサ2´が形成されたウェハWを製造し、ウェハWに形成された複数のCMOSイメージセンサ2´にプローブ検査等を行って、CMOSイメージセンサ毎に良品、不良品の判定を行う。また、この工程と前後して、製造装置は、複数のロジック回路が形成されたウェハ(図示せず)を製造し、このウェハに形成された複数のロジック回路にプローブ検査等を行って、ロジック回路毎に良品、不良品の判定を行う。次に、製造装置は、複数のロジック回路が形成されたウェハをロジック回路毎に個片化して、複数個のロジックチップ3を形成する。その後、製造装置は、ウェハWにおいて良品と判定されたCMOSイメージセンサ2´に、良品と判定され個片化されたロジックチップ3を接合する。製造装置は、このようにしてCoWによる接合を行う。
 CoWによる接合では、良品同士が接合される。不良品と判定されたCMOSイメージセンサ2´に良品と判定されたロジックチップ3を接合したり、良品と判定されたCMOSイメージセンサ2´に不良品と判定されたロジックチップ3を接合したりすることを防ぐことができるので、撮像装置1の製造コストを抑制することが可能である。
 次に、図5のステップST2に示すように、製造装置は、ロジックチップ3の表面3a(図5では上面)を研削して、ロジックチップ3を箔肉化する(厚みを小さくする)。次に、図5のステップST3に示すように、製造装置は、CVD法により、ウェハWの一方の面Wa側に第1絶縁膜11を堆積して、複数のロジックチップ3を覆うとともに、互いに隣り合うロジックチップ3間のスペースを埋め込む。次に、図6のステップST4に示すように、製造装置は、CVD法により、第1絶縁膜11上に第2絶縁膜12を堆積する。CVD法は下地の形状を反映して成膜するため、第1絶縁膜11及び第2絶縁膜12は凹凸状に形成される。ウェハWにおいて、ロジックチップ3が配置されている領域では第1絶縁膜11及び第2絶縁膜12は凸状に形成され、ロジックチップ3が配置されていない領域では第1絶縁膜11及び第2絶縁膜12は凹状に形成される。
 次に、図6のステップST5に示すように、製造装置は、第2絶縁膜12側から、第2絶縁膜12及び第1絶縁膜11にCMP処理を施して、ウェハWの一方の面Wa側を平坦化する。
 図8は、平坦化の工程をより詳しく説明するための断面図である。図8のステップST11に示すように、CVD法で成膜された第1絶縁膜11は、凸部111と凹部112とを有する。凸部111はロジックチップ3が配置されている領域に形成され、凹部112はロジックチップ3が配置されていない領域に形成される。第2絶縁膜12は、第1絶縁膜11の凸部111の上面を覆う第1平面部121と、凸部111の側面を覆う側壁部122と、凹部112の上面を覆う第2平面部123とを有する。
 CMP処理では、始めに、第2絶縁膜12の第1平面部121が研磨される。第2絶縁膜12の第1平面部121は、凸部111の先端に位置し、CMP処理の初期段階では研磨パッドから加えられる力が集中する。このため、第1平面部121は、研磨され易く、CMP処理の初期段階で除去される。
 図8のステップST12に示すように、第1平面部121が研磨により除去されて第1絶縁膜11の凸部111が露出すると、第1絶縁膜11の凸部111と第2絶縁膜12の側壁部122とが研磨される。この段階では、第2絶縁膜12の側壁部122が、研磨の進行を抑制するガイド(保護膜)となる。側壁部122は、凸部111の角部が過度に研磨されることを抑制する。
 図8のステップST13に示すように、側壁部122が研磨により除去されると、第1絶縁膜11の凸部111と第2絶縁膜12の第2平面部123とが研磨される。CMP処理が第2平面部123まで進行すると、第1絶縁膜11の表面11aと第2絶縁膜12の表面12aは、面一で平坦化された状態となる。
 第2絶縁膜12は第1絶縁膜11よりもCMP処理による研磨レートが低い材料で構成されている。例えば、第1絶縁膜11はSiOで構成され、第2絶縁膜12はAl、SiC、AlN、SiN又はSiで構成されている。これにより、第2絶縁膜12の第2平面部123は、第1絶縁膜11に対するCMP処理のストッパー膜として機能する。
 なお、上述したように、第1絶縁膜11はロジックチップ3の形状を反映して形成される。これにより、第1絶縁膜11の凸部111は、ロジック回路3よりも水平方向(X軸方向、Y軸方向)に膨らんだ形状に形成される。第2絶縁膜12は、CVD法で第1絶縁膜11上に堆積されるため、第2絶縁膜12の側壁部122及び第2平面部123は、ロジック回路3と重ならない領域に形成される。例えば、第2平面部123は、ロジックチップ3から距離Sだけ間を置いて形成される。ロジックチップ3と第2平面部123との間の距離Sは、CMP処理後も残される。
 図9は、図6のステップST5(CMP処理)を行った後のウェハWの一方の面Wa側を模式的に示す平面図である。CMP処理によって、第2絶縁膜12は、平面視でロジックチップ3を囲む形状に形成される。また、図3に示したように、第2絶縁膜12とロジックチップ3との間は、平面視で距離Sだけ離れた状態に形成される。
 次に、図6のステップST6に示すように、製造装置は、平坦化された第1絶縁膜11及び第2絶縁膜12に支持基板13を接合する。なお、図6のステップST6以降では、図6のステップST5に対して、上下を逆にして示している。
 次に、図7のステップST7に示すように、製造装置は、ウェハWの他方の面Wb(図7では、上面)を研削して、ウェハWを箔肉化する。
 次に、図7のステップST8に示すように、製造装置は、ウェハWの他方の面Wb側に、カラーフィルタCFを形成し、カラーフィルタCF上にオンチップレンズOCLを取り付ける。
 その後、図7のステップST9に示すように、製造装置は、ダイシングラインDLに沿って、ウェハW及び支持基板13をダイシングして個片化する。この工程では、ウェハW及び支持基板13と共に、第1層L1、第2層L2及び第3層L3(図1参照)もダイシングする。以上の工程を経て、図1に示した撮像装置1が完成する。
(応力緩和のメカニズム)
 撮像装置1の製造工程では、第1絶縁膜11の凹部112上に第2絶縁膜12の第2平面部123が配置されることによって、ロジックチップ3に生じる応力を緩和することができる。
 図10は、本開示の実施形態1に係る撮像装置1における、応力緩和のメカニズムを模式的に示す図である。図10のステップST21は、ウェハWにロジックチップ3が接合された状態(室温:25℃)を示している。この状態から、CVD法で第1絶縁膜11を成膜する場合は、成膜前に予めウェハWが加熱される。この加熱により、ウェハWと、ウェハWに接合されたロジックチップ3は、例えば350℃まで昇温する。すると、図10のステップST22に示すように、ロジックチップ3は、ロジックチップ3を構成する材料の熱膨張率にしたがって膨張する。例えば、図2に示した基板部31はSi等で構成されており、配線部32はSiO、Cu等で構成されている。この膨張により、ロジックチップ3には、外側に向かう応力F1が生じる。
 図10のステップST23は、第1絶縁膜が成膜された状態(350℃)を示している。ロジックチップ3は、膨張した状態のまま第1絶縁膜11によって固定される。第1絶縁膜11の成膜後、第1絶縁膜11と、ウェハW及びロジックチップ3は室温まで冷却される。この冷却により、膨張したロジックチップ3は収縮する。図10のステップST24に示すように、この収縮により、ロジックチップ3には内側に向かう応力F2が生じる。
 ここで、ロジックチップ3は第1絶縁膜11によって周囲から固定されているため、十分に収縮することができない。その結果、ロジックチップ3には、冷却後も、内側に向かう応力F2が残留することになる。
 しかしながら、本開示の実施形態1では、CVD法によって、第1絶縁膜11の成膜後に第2絶縁膜12が成膜される。そして、第2絶縁膜12にCMP処理が施される。これにより、図10のステップST25に示すように、ロジックチップ3間にのみ存在するように、第2絶縁膜12は自己整合的に形成される。
 第1絶縁膜11と同様に、第2絶縁膜12も、成膜後の冷却により収縮する。この収縮により、第2絶縁膜12には内側に向かう応力F3が生じる。また、第2絶縁膜12と接する第1絶縁膜11には、応力F3の反作用の力(応力F3とは逆方向に向かう力)が生じる。この応力F3の反作用の力が、ロジックチップ3に生じる応力F2を緩和する。
 一方、本開示の比較例では、ステップST25がなく、第2絶縁膜は形成されない。このため、比較例では、ロジックチップに働く応力F2は、緩和されずにそのまま残留する。
(実施形態1の効果)
 以上説明したように、本開示の実施形態に係る撮像装置1は、CIS基板2と、CIS基板2の一方の面2a側に設けられたロジックチップ3と、一方の面2a側に設けられ、ロジックチップ3を覆う第1絶縁膜11と、第1絶縁膜11とは異なる材料で構成され、第1絶縁膜11を挟んでCIS基板2と向かい合う位置に設けられた第2絶縁膜12と、を有する。ロジックチップ3と第1絶縁膜11とが混在する第1層L1と、第1絶縁膜11と第2絶縁膜12とが混在する第2層L2とがある。一方の面2aの法線方向(例えば、Z軸方向)からの平面視で、第2絶縁膜12は、ロジックチップ3の外側に存在する。
 これによれば、撮像装置1を製造する際に、第2絶縁膜12をストッパー層に用いて第1絶縁膜11を研磨することができる。これにより、第1絶縁膜11にボイドやディッシングと呼ばれる凹みが生じることを抑制しつつ、第1絶縁膜11と第2絶縁膜12とが混在する第2層L2を平坦化することができる。これにより、第2層L2の表面を支持基板13に密着させることが容易となり、第2層L2と支持基板13との間で接合不良が生じることを抑制することができる。
 また、第2絶縁膜12は、成膜後の冷却により収縮する。この収縮により、第2絶縁膜12には内側に向かう応力F3が生じる。また、第2絶縁膜12と接する第1絶縁膜11には、応力F3の反作用の力が生じる。この応力F3の反作用の力が、ロジックチップ3に生じている応力F2を緩和する。これにより、例えば、ロジックチップ3に搭載されるトランジスタに負荷がかかってトランジスタ特性(例えば、移動度)が変化したり、ロジックチップ3とカラーフィルタCFとの間で位置ズレが生じたりすることを抑制することができる。特性の変化や位置ズレを原因とする不良の発生を抑制することができる。
<実施形態2>
 上記の実施形態1では、本開示のセンサデバイスの一例として、撮像装置1を説明した。撮像装置1は、CIS基板2に1個のロジックチップ3が接合された構造(すなわち、シングルチップ構造)を有すること説明した。しかしながら、本開示の実施形態は、これに限定されない。本開示の実施形態に係る撮像装置は、CIS基板2に複数個の半導体チップが接合された構造(すなわち、マルチチップ構造)を有してもよい。
 図11は、本開示の実施形態2に係る撮像装置1Aの構成例を示す断面図である。
 図11に示すように、実施形態1に係る撮像装置1Aは、CIS基板2の一方の面2a(図11では、下面)側に設けられたロジックチップ3と、CIS基板2の一方の面2a側に設けられ、ロジックチップ3から一定の距離だけ離れて配置されたメモリチップ4(本開示の「第3基板」の一例と)と、を備える。第1絶縁膜11は、CIS基板2の一方の面2a側に設けられ、ロジックチップ3及びメモリチップ4をそれぞれ覆っている。
 図12は、本開示の実施形態2に係る撮像装置1Aにおいて、第1絶縁膜11及び第2絶縁膜12を、支持基板13の側から見た平面図である。図12に示すように、Z軸方向からの平面視で、第1絶縁膜11はロジックチップ3の全域を覆うように配置されている。また、平面視で、第2絶縁膜12は、ロジックチップ3の外側(すなわち、ロジックチップ3と重ならない領域)、かつ、メモリチップ4の外側(すなわち、メモリチップ4と重ならない領域)に存在する。平面視で、第2絶縁膜12は、ロジックチップ3と重なる領域には存在せず、メモリチップ4と重なる領域にも存在しない。
 平面視で、第2絶縁膜12とロジックチップ3との間は距離Sだけ離れている。同様に、第2絶縁膜12とメモリチップ4との間も距離Sだけ離れている。第2絶縁膜12はロジックチップ3とメモリチップ4とをそれぞれ囲むように配置されている。
 次に、本開示の実施形態2に係る撮像装置1Aの製造方法の一例を説明する。図13及び図14は、本開示の実施形態2に係る撮像装置1Aの製造方法を工程順に示す断面図である。図13のステップST21に示すように、製造装置は、CMOSイメージセンサが形成されたCIS基板2にロジックチップ3とメモリチップ4とを接合する。この接合は、CoW(Chip on Wafer)で行う。CoWによる接合では、良品と判定されたCMOSイメージセンサ2´(図15参照)に、良品と判断されたロジックチップ3と、良品と判断されたメモリチップ4とが接合される。
 次に、図13のステップST22に示すように、製造装置は、ロジックチップ3の表面3a及びメモリチップ4の表面4aを研削して、ロジックチップ3及びメモリチップ4をそれぞれ箔肉化する。次に、図13のステップST23に示すように、製造装置は、CVD法により、ウェハWの一方の面Wa側に第1絶縁膜11を堆積して、複数のロジックチップ3及び複数のメモリチップ4を覆うとともに、互いに隣り合うロジックチップ3間のスペースと、互いに隣り合うメモリチップ4間のスペースと、互いに隣り合うロジックチップ3とメモリチップ4との間のスペースとを埋め込む。
 次に、図14のステップST24に示すように、製造装置は、CVD法により、第1絶縁膜11上に第2絶縁膜12を堆積する。第1絶縁膜11及び第2絶縁膜12は、下地の形状を反映して成膜されるため、ロジックチップ3及びメモリチップ4の形状を反映して凹凸状に形成される。ウェハWにおいて、ロジックチップ3が配置されている領域及びメモリチップ4が配置されている領域では第1絶縁膜11及び第2絶縁膜12は凸状に形成され、ロジックチップ3が配置されていない領域及びメモリチップ4が配置されていない領域では第1絶縁膜11及び第2絶縁膜12は凹状に形成される。
 次に、図14のステップST25に示すように、製造装置は、第2絶縁膜12側から、第2絶縁膜12及び第1絶縁膜11にCMP処理を施して、ウェハWの一方の面Wa側を平坦化する。第1実施形態で説明した撮像装置1の製造方法と同様に、第2実施形態に係る撮像装置1Aの製造方法においても、第2絶縁膜12は、第1絶縁膜11に対するCMP処理のストッパー膜として機能する。
 図15は、図14のステップST25(CMP処理)を行った後のウェハWの一方の面Wa側を模式的に示す平面図である。CMP処理によって、第2絶縁膜12は、平面視でロジックチップ3及びメモリチップ4をそれぞれ囲む形状に形成される。また、図12に示したように、第2絶縁膜12とロジックチップ3との間、及び、第2絶縁膜12とメモリチップ4との間は、それぞれ、平面視で距離Sだけ離れた状態に形成される。
 これ以降の工程は、実施形態1と同様である。製造装置は、ウェハWの他方の面Wbを研削して、ウェハWを箔肉化する。次に、製造装置は、ウェハWの他方の面Wb側に、カラーフィルタCF(図11参照)を形成し、カラーフィルタCF上にオンチップレンズOCL(図11参照)を取り付ける。その後、製造装置は、ダイシングラインに沿って、ウェハW及び支持基板13をダイシングして個片化する。以上の工程を経て、図11に示した撮像装置1Aが完成する。
 本開示の実施形態2に係る撮像装置1Aは、実施形態1に係る撮像装置1と同様の効果を奏する。すなわち、撮像装置1Aを製造する際に、第2絶縁膜12をストッパー層に用いて第1絶縁膜11を研磨することができる。これにより、第1絶縁膜11にボイドやディッシングと呼ばれる凹みが生じることを抑制しつつ、第1絶縁膜11と第2絶縁膜12とが混在する第2層L2を平坦化することができる。これにより、第2層L2の表面を支持基板13に密着させることが容易となり、第2層L2と支持基板13との間で接合不良が生じることを抑制することができる。
 また、第2絶縁膜12は、成膜後の冷却により収縮する。この収縮により、第2絶縁膜12には内側に向かう応力F3(図10参照)が生じる。また、第2絶縁膜12と接する第1絶縁膜11には、応力F3の反作用の力が生じる。この応力F3の反作用の力が、ロジックチップ3に生じている応力F2や、メモリチップ4に生じている応力F2を緩和する。これにより、例えば、ロジックチップ3に搭載されているトランジスタや、メモリチップ4に搭載されるトランジスタに負荷がかかって、各々のトランジスタ特性(例えば、移動度)が変化することを抑制することができる。また、ロジックチップ3とカラーフィルタCFとの間や、メモリチップ4とカラーフィルタCFとの間で位置ズレが生じることを抑制することができる。これにより、特性の変化や位置ズレを原因とする不良の発生を抑制することができる。
(変形例)
 なお、撮像装置1Aにおいて、CIS基板2に接合されるロジックチップ3の個数とメモリチップ4の個数はそれぞれ1個ずつに限定されない。CIS基板2に接合されるロジックチップ3の個数は2個以上でもよいし、CIS基板2に接合されるメモリチップ4の個数も2個以上であってもよい。また、CIS基板2には、ロジックチップ3及びメモリチップ4以外の、他の半導体チップが接合されてもよい。
 図16は、本開示の実施形態2に係る撮像装置1Aの変形例を示す図である。図16に示すように、撮像装置1Aにおいて、CIS基板2には、ロジックチップ3と、メモリチップ4と、AI(人工知能)チップ5とが接合されてもよい。AIチップ5は、上記「他の半導体チップ」の一例である。このような構成であっても、撮像装置1Aは、上記と同様に、第2層L2と支持基板13との接合不良や、トランジスタ特性の変化、カラーフィルタCFの位置ズレを原因とする不良の発生を抑制することができる。
<実施形態3>
 上記の実施形態1では、CoWにて、CIS基板2にロジックチップ3を接合することを説明した。また、上記の実施形態2では、CoWにて、CIS基板2にロジックチップ3やメモリチップ4、AIチップ5を接合することを説明した。しかしながら、本開示の実施形態において、CoWにて半導体チップが接合される対象は、CIS基板2に限定されない。CoWにて半導体チップが接合される対象は、ロジック基板でもよいし、CIS基板とロジック基板との積層基板であってもよい。CIS基板とロジック基板との積層基板は、WoW(Wafer on Wafer)で形成してもよい。
 図17は、本開示の実施形態3に係る撮像装置1Bの構成例を示す断面図である。図17に示すように、実施形態3に係る撮像装置1Bは、CIS基板2にロジック基板3Aが積層された積層基板10(本開示の「第1基板」の一例)と、積層基板10の一方の面10a(図17では、下面)側に設けられたメモリチップ4と、積層基板10の一方の面10a側に設けられ、メモリチップ4から離して配置されたAIチップ5と、積層基板10の一方の面10a側に設けられ、メモリチップ4及びAIチップを覆う第1絶縁膜11と、第1絶縁膜11を挟んで積層基板10と向かい合う第2絶縁膜12と、第1絶縁膜11及び第2絶縁膜12を挟んで積層基板10と向かい合う位置に設けられ、第1絶縁膜11及び第2絶縁膜12とそれぞれ接する支持基板13と、積層基板10の一方の面10aの反対側である他方の面10b(図17では、上面)側に設けられたカラーフィルタCFと、カラーフィルタCFを挟んで積層基板10と向かい合う位置に設けられたオンチップレンズOCLと、を備える。
 この例では、積層基板10が、本開示の「第1基板」の一例となる。メモリチップ4及びAIチップ5の各々が、本開示の「第2基板」の一例となる。
 また、撮像装置1は、積層基板10と支持基板13との間に、第1層L1、第2層L2及び第3層L3を備える。第1層L1は、メモリチップ4と、AIチップ5及び第1絶縁膜11が混在する層である。第2層L2は、第1絶縁膜11と第2絶縁膜12とが混在する層である。第3層L3は、第1層L1と第2層L2との間に位置し、第1絶縁膜11のみで構成される層である。
 ロジック基板3Aは、ロジック回路が形成された半導体基板である。ロジック基板3AはCIS基板2と電気的に接続している。ロジック基板3Aが有するロジック回路は、CIS基板2から出力される電気信号に対して所定の処理を行うなど、撮像装置1Bの動作に関する各種の信号処理を行う。なお、ロジック基板3Aだけでなく、CIS基板2も、撮像装置1の動作に関する信号処理を行う回路を有してもよい。
 CIS基板2とロジック基板3Aは、例えばWoWにより接合されて積層基板10を構成している。WoWでは、ウェハ同士を接合して積層ウェハを得た後、積層ウェハをダイシングラインに沿って切断し、個片化する。このため、WoWにより接合されたCIS基板2の外周の側面2cとロジック基板3Aの外周の側面3Acは、同一面で揃うように配置されている。
 撮像装置1Bは、撮像装置1、1Aと同様に、第2層L2と支持基板13との接合不良や、トランジスタ特性の変化、カラーフィルタCFの位置ズレを原因とする不良の発生を抑制することができる。
<その他の実施形態>
 上記のように、本開示は実施形態及び変形例によって記載したが、この開示の一部をなす論述及び図面は本開示を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。本技術はここでは記載していない様々な実施形態等を含むことは勿論である。上述した実施形態及び変形例の要旨を逸脱しない範囲で、構成要素の種々の省略、置換及び変更のうち少なくとも1つを行うことができる。また、本明細書に記載された効果はあくまでも例示であって限定されるものでは無く、また他の効果があってもよい。
(電子機器への適用例)
 上述した撮像装置1、1A、1Bは、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図18は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。図18に示される撮像装置501は、光学系502(本開示の「光学部品」の一例)、シャッタ装置503、固体撮像素子504、駆動回路505、信号処理回路506、モニタ507、およびメモリ508を備えて構成され、静止画像および動画像を撮像可能である。
 光学系502は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を透過させて固体撮像素子504に入射させ、固体撮像素子504の受光面に結像させる。シャッタ装置503は、光学系502および固体撮像素子504の間に配置され、駆動回路505の制御に従って、固体撮像素子504への光照射期間および遮光期間を制御する。
 固体撮像素子504は、上述した撮像装置1、1A、1Bを含むパッケージにより構成される。固体撮像素子504は、光学系502およびシャッタ装置503を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子504に蓄積された信号電荷は、駆動回路505から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路505は、固体撮像素子504の転送動作、および、シャッタ装置503のシャッタ動作を制御する駆動信号を出力して、固体撮像素子504およびシャッタ装置503を駆動する。
 信号処理回路506は、固体撮像素子504から出力された信号電荷に対して各種の信号処理を施す。信号処理回路506が信号処理を施すことにより得られた画像(画像データ)は、モニタ507に供給されて表示されたり、メモリ508に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置501においても、固体撮像素子504に、上述した撮像装置1、1A、1Bを適用することにより、不良の発生を抑制することが可能となる。
(撮像素子の使用例)
 図19は、上述の撮像装置1、1A、1Bを使用する使用例を示す図である。
 上述した撮像装置1、1A、1Bは、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
(内視鏡手術システムへの応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図20は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図20では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図21は、図20に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等に適用され得る。具体的には、図1に示した撮像装置1、図11に示した撮像装置1A、図16に示した撮像装置1Aの変形例、図17に示した撮像装置1Bは、撮像部10402に適用することができる。内視鏡11100や、カメラヘッド11102の撮像部11402、CCU11201の画像処理部11412等に本開示に係る技術を適用することにより、例えば、撮像装置において不良の発生を抑制することができ、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(移動体への応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図22は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図22に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図22の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図23は、撮像部12031の設置位置の例を示す図である。
 図23では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図23には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031等に適用され得る。具体的には、図1に示した撮像装置1、図11に示した撮像装置1A、図16に示した撮像装置1Aの変形例、図17に示した撮像装置1Bは、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、例えば、撮像装置において不良の発生を抑制することができ、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 なお、本開示は以下のような構成も取ることができる。
(1)
 第1基板と、
 前記第1基板の一方の面側に設けられた第2基板と、
 前記一方の面側に設けられ、前記第2基板を覆う絶縁性の第1膜と、
 前記第1膜とは異なる材料で構成され、前記第1膜を挟んで前記第1基板と向かい合う位置に設けられた第2膜と、を有し、
 前記第2基板と前記第1膜とが混在する第1層と、
 前記第1膜と前記第2膜とが混在する第2層とがあり、
 前記一方の面の法線方向からの平面視で、前記第2膜は、前記第2基板の外側に存在する、センサデバイス。
(2)
 前記第1層と前記第2層との間に位置し、前記第1膜のみで構成される第3層、をさらに備える前記(1)に記載のセンサデバイス。
(3)
 前記第1層及び前記第2層を挟んで前記第1基板と向かい合い位置に設けられ、前記第2層と接する支持基板、をさらに備える前記(1)又は(2)に記載のセンサデバイス。
(4)
 前記一方の面側に配置され、前記第1層に含まれる第3基板をさらに備え、
 前記第1膜は前記第3基板を覆い、
 前記平面視で、前記第2膜は、前記第3基板の外側に存在する、前記(1)から(3)のいずれか1項に記載のセンサデバイス。
(5)
 前記第1基板は、複数の基板が厚さ方向に積層された積層基板である、前記(1)から(4)のいずれか1項に記載のセンサデバイス。
(6)
 前記第1基板の前記一方の面の反対側である他方の面側に設けられたカラーフィルタ、をさらに備える前記(1)から(5)のいずれか1項に記載のセンサデバイス。
(7)
 前記第1層の厚さは、10μm以上200μm以下である、前記(1)から(6)のいずれか1項に記載のセンサデバイス。
(8)
 前記第2層の厚さは、10μm以下である、前記(1)から(7)のいずれか1項に記載のセンサデバイス。
(9)
 光学部品と、
 前記光学部品を透過した光が入射するセンサデバイスと、を備え、
 前記センサデバイスは、
 第1基板と、
 前記第1基板の一方の面側に設けられた第2基板と、
 前記一方の面側に設けられ、少なくとも前記第2基板の側面を覆う絶縁性の第1膜と、
 前記第1膜とは異なる材料で構成され、前記第1膜を挟んで前記第1基板と向かい合う第2膜と、を有し、
 前記第2基板と前記第1膜とが混在する第1層と、
 前記第1膜と前記第2膜とが混在する第2層とがあり、
 前記一方の面の法線方向からの平面視で、前記第2膜は、前記第2基板の外側に存在する、電子機器。
1、1A、1B 撮像装置
2 CIS基板
2´ CMOSイメージセンサ
2a、10a、Wa 一方の面
2b、10b、Wb 他方の面
2c、3Ac 側面
3 ロジックチップ
3´ ロジック回路
3a、4a、11a、12a、21a、221a、321a 表面
3A ロジック基板
4 メモリチップ
5 AIチップ
10 積層基板
11 第1絶縁膜
12 第2絶縁膜
13 支持基板
21、31 基板部
22、32 配線部
111 凸部
112 凹部
121 第1平面部
122 側壁部
123 第2平面部
204 固体撮像素子
221、321 絶縁膜
222、322 配線層
223、323 電極層
501 撮像装置
502 光学系
503 シャッタ装置
504 固体撮像素子
505 駆動回路
506 信号処理回路
507 モニタ
508 メモリ
10402 撮像部
11000 内視鏡手術システム
11100 内視鏡
11101 鏡筒
11102 カメラヘッド
11110 術具
11111 気腹チューブ
11112 エネルギー処置具
11120 支持アーム装置
11131 術者(医師)
11132 患者
11133 患者ベッド
11200 カート
11201 カメラコントロールユニット(CCU: Camera Control Unit)
11202 表示装置
11203 光源装置
11204 入力装置
11205 処置具制御装置
11206 気腹装置
11207 レコーダ
11208 プリンタ
11400 伝送ケーブル
11401 レンズユニット
11402 撮像部
11403 駆動部
11404 通信部
11405 カメラヘッド制御部
11411 通信部
11412 画像処理部
11413 制御部
12000 車両制御システム
12001 通信ネットワーク
12010 駆動系制御ユニット
12020 ボディ系制御ユニット
12030 車外情報検出ユニット
12031 撮像部
12040 車内情報検出ユニット
12041 運転者状態検出部
12050 統合制御ユニット
12051 マイクロコンピュータ
12052 音声画像出力部
12061 オーディオスピーカ
12062 表示部
12063 インストルメントパネル
12100 車両
12101、12102、12103、12104、12105 撮像部
12111、12112、12113、12114 撮像範囲
DL ダイシングライン
F1、F2、F3 応力
I 車載ネットワーク
ICG インドシアニングリーン
L1 第1層
L2 第2層
L3 第3層
OCL オンチップレンズ
R23 接合領域
W ウェハ

Claims (9)

  1.  第1基板と、
     前記第1基板の一方の面側に設けられた第2基板と、
     前記一方の面側に設けられ、前記第2基板を覆う絶縁性の第1膜と、
     前記第1膜とは異なる材料で構成され、前記第1膜を挟んで前記第1基板と向かい合う位置に設けられた第2膜と、を有し、
     前記第2基板と前記第1膜とが混在する第1層と、
     前記第1膜と前記第2膜とが混在する第2層とがあり、
     前記一方の面の法線方向からの平面視で、前記第2膜は、前記第2基板の外側に存在する、センサデバイス。
  2.  前記第1層と前記第2層との間に位置し、前記第1膜のみで構成される第3層、をさらに備える請求項1に記載のセンサデバイス。
  3.  前記第1層及び前記第2層を挟んで前記第1基板と向かい合い位置に設けられ、前記第2層と接する支持基板、をさらに備える請求項1に記載のセンサデバイス。
  4.  前記一方の面側に配置され、前記第1層に含まれる第3基板をさらに備え、
     前記第1膜は前記第3基板を覆い、
     前記平面視で、前記第2膜は、前記第3基板の外側に存在する、請求項1に記載のセンサデバイス。
  5.  前記第1基板は、複数の基板が厚さ方向に積層された積層基板である、請求項1に記載のセンサデバイス。
  6.  前記第1基板の前記一方の面の反対側である他方の面側に設けられたカラーフィルタ、をさらに備える請求項1に記載のセンサデバイス。
  7.  前記第1層の厚さは、10μm以上200μm以下である、請求項1に記載のセンサデバイス。
  8.  前記第2層の厚さは、10μm以下である、請求項1に記載のセンサデバイス。
  9.  光学部品と、
     前記光学部品を透過した光が入射するセンサデバイスと、を備え、
     前記センサデバイスは、
     第1基板と、
     前記第1基板の一方の面側に設けられた第2基板と、
     前記一方の面側に設けられ、少なくとも前記第2基板の側面を覆う絶縁性の第1膜と、
     前記第1膜とは異なる材料で構成され、前記第1膜を挟んで前記第1基板と向かい合う第2膜と、を有し、
     前記第2基板と前記第1膜とが混在する第1層と、
     前記第1膜と前記第2膜とが混在する第2層とがあり、
     前記一方の面の法線方向からの平面視で、前記第2膜は、前記第2基板の外側に存在する、電子機器。
PCT/JP2021/029622 2020-08-24 2021-08-11 センサデバイスおよび電子機器 WO2022044804A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/041,384 US20230299110A1 (en) 2020-08-24 2021-08-11 Sensor device and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020141235A JP2022036828A (ja) 2020-08-24 2020-08-24 センサデバイスおよび電子機器
JP2020-141235 2020-08-24

Publications (1)

Publication Number Publication Date
WO2022044804A1 true WO2022044804A1 (ja) 2022-03-03

Family

ID=80352257

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/029622 WO2022044804A1 (ja) 2020-08-24 2021-08-11 センサデバイスおよび電子機器

Country Status (3)

Country Link
US (1) US20230299110A1 (ja)
JP (1) JP2022036828A (ja)
WO (1) WO2022044804A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024111532A1 (ja) * 2022-11-22 2024-05-30 ソニーセミコンダクタソリューションズ株式会社 半導体デバイスおよび製造方法、並びに、電子機器

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009038266A (ja) * 2007-08-03 2009-02-19 Spansion Llc 半導体装置及びその製造方法
JP2012160572A (ja) * 2011-01-31 2012-08-23 Tdk Corp 電子回路モジュール部品及び電子回路モジュール部品の製造方法
JP2020053654A (ja) * 2018-09-28 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および製造方法、並びに、電子機器

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009038266A (ja) * 2007-08-03 2009-02-19 Spansion Llc 半導体装置及びその製造方法
JP2012160572A (ja) * 2011-01-31 2012-08-23 Tdk Corp 電子回路モジュール部品及び電子回路モジュール部品の製造方法
JP2020053654A (ja) * 2018-09-28 2020-04-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子および製造方法、並びに、電子機器

Also Published As

Publication number Publication date
JP2022036828A (ja) 2022-03-08
US20230299110A1 (en) 2023-09-21

Similar Documents

Publication Publication Date Title
US20220310680A1 (en) Backside illumination type solid-state imaging device, manufacturing method for backside illumination type solid-state imaging device, imaging apparatus and electronic equipment
WO2021131388A1 (ja) 固体撮像装置及び固体撮像装置の製造方法、並びに電子機器
US11837616B2 (en) Wafer level lens
JP2023164552A (ja) 固体撮像装置及び電子機器
WO2022044804A1 (ja) センサデバイスおよび電子機器
WO2022102278A1 (ja) 固体撮像装置及び電子機器
WO2021240982A1 (ja) 半導体装置とその製造方法、及び電子機器
WO2021049302A1 (ja) 撮像装置、電子機器、製造方法
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
WO2020235148A1 (ja) 半導体装置及び電子機器
TWI825178B (zh) 攝像裝置
WO2023100492A1 (ja) 半導体装置及び電子機器
WO2021049142A1 (ja) 固体撮像装置
WO2023074179A1 (ja) 半導体装置、電子機器、及び半導体装置の製造方法
US20230048188A1 (en) Light-receiving device
JP2020088063A (ja) 固体撮像装置及び電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21861232

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21861232

Country of ref document: EP

Kind code of ref document: A1