WO2020246323A1 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
WO2020246323A1
WO2020246323A1 PCT/JP2020/020846 JP2020020846W WO2020246323A1 WO 2020246323 A1 WO2020246323 A1 WO 2020246323A1 JP 2020020846 W JP2020020846 W JP 2020020846W WO 2020246323 A1 WO2020246323 A1 WO 2020246323A1
Authority
WO
WIPO (PCT)
Prior art keywords
film
embedded
semiconductor substrate
imaging device
unit
Prior art date
Application number
PCT/JP2020/020846
Other languages
English (en)
French (fr)
Inventor
啓介 畑野
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/614,080 priority Critical patent/US20220231057A1/en
Priority to CN202080033088.0A priority patent/CN113785399A/zh
Publication of WO2020246323A1 publication Critical patent/WO2020246323A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/31Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to form insulating layers thereon, e.g. for masking or by using photolithographic techniques; After treatment of these layers; Selection of materials for these layers
    • H01L21/3205Deposition of non-insulating-, e.g. conductive- or resistive-, layers on insulating layers; After-treatment of these layers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/70Manufacture or treatment of devices consisting of a plurality of solid state components formed in or on a common substrate or of parts thereof; Manufacture of integrated circuit devices or of parts thereof
    • H01L21/71Manufacture of specific parts of devices defined in group H01L21/70
    • H01L21/768Applying interconnections to be used for carrying current between separate components within a device comprising conductors and dielectrics
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/52Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames
    • H01L23/522Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames including external interconnections consisting of a multilayer structure of conductive and insulating layers inseparably formed on the semiconductor body
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to an image pickup apparatus having a semiconductor substrate.
  • This imaging device has, for example, a semiconductor substrate provided with a photoelectric conversion unit such as a photodiode (Photo Diode), and a protective member facing the semiconductor substrate.
  • the protective member is attached to the semiconductor substrate by, for example, a joining member made of a resin material.
  • the image pickup apparatus has a first semiconductor substrate having a light incident surface and provided with a photoelectric conversion unit, and a second semiconductor substrate provided on the side opposite to the light incident surface of the first semiconductor substrate.
  • an embedded film containing a constituent material different from the constituent material of the joining member is embedded in at least a part of at least one of the notch and the hole in the depth direction.
  • FIG. 2 It is a block diagram which shows an example of the functional structure of the image pickup apparatus which concerns on 1st Embodiment of this disclosure. It is a schematic diagram which shows the cross-sectional structure of the main part of the image pickup apparatus shown in FIG. It is a schematic diagram showing another example (1) of the cross-sectional structure of the image pickup apparatus shown in FIG. It is a schematic diagram showing another example (2) of the cross-sectional structure of the image pickup apparatus shown in FIG. It is a schematic diagram which shows the plane structure of the notch part shown in FIG. 2 and the like. It is sectional drawing which shows one process of the manufacturing method of the image pickup apparatus shown in FIG. It is sectional drawing which shows the process following FIG. 6A. It is sectional drawing which shows the process following FIG. 6B.
  • FIG. 6C It is sectional drawing which shows the process following FIG. 6C. It is sectional drawing which shows the process following FIG. 6D. It is sectional drawing which shows the process following FIG. 6E. It is sectional drawing which shows the process following FIG. 6F. It is sectional drawing which shows the process following FIG. 6G. It is sectional drawing which shows one process of the manufacturing method of the image pickup apparatus shown in FIG. It is sectional drawing which shows one process of the manufacturing method of the image pickup apparatus shown in FIG. It is a schematic diagram which shows the cross-sectional structure of the main part of the image pickup apparatus which concerns on a comparative example. It is a schematic diagram for demonstrating the reflected light generated by the image pickup apparatus shown in FIG.
  • FIG. 14A It is a schematic diagram for demonstrating the reflected light generated by the image pickup apparatus shown in FIG. 14B. It is a schematic diagram which shows the cross-sectional structure of the main part of the image pickup apparatus which concerns on modification 1.
  • FIG. 12A It is sectional drawing which shows one process of the manufacturing method of the image pickup apparatus shown in FIG.
  • FIG. 12A It is a schematic diagram which shows the cross-sectional structure of the main part of the image pickup apparatus which concerns on modification 2.
  • FIG. 14A It is sectional drawing which shows one process of the manufacturing method of the image pickup apparatus shown in FIG.
  • FIG. 14B It is sectional drawing which shows the process following FIG. 14C.
  • FIG. 1 shows an example of the functional configuration of the image pickup apparatus (imaging apparatus 1) according to the embodiment of the present disclosure.
  • the image pickup device 1 has a pixel unit 200P and a circuit unit 200C for driving the pixel unit 200P.
  • the pixel unit 200P has, for example, a plurality of light receiving unit regions (pixels P) arranged two-dimensionally.
  • the circuit unit 200C includes, for example, a row scanning unit 201, a horizontal selection unit 203, a column scanning unit 204, and a system control unit 202.
  • a pixel drive line Lread (for example, a line selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading a signal from the pixel unit 200P.
  • One end of the pixel drive line Lread is connected to the output end corresponding to each row of the row scanning unit 201.
  • the pixel unit 200P has, for example, a pixel circuit provided for each pixel P.
  • the row scanning unit 201 is a pixel driving unit that is composed of a shift register, an address decoder, and the like, and drives each pixel P of the pixel unit 200P, for example, in row units.
  • the signal output from each pixel P of the pixel row selected and scanned by the row scanning unit 201 is supplied to the horizontal selection unit 203 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 203 is composed of an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 204 is composed of a shift register, an address decoder, etc., and drives each horizontal selection switch of the horizontal selection unit 203 in order while scanning.
  • the signals of each pixel P transmitted through each of the vertical signal lines Lsig are sequentially output to the horizontal signal line 205 and input to a signal processing unit or the like (not shown) through the horizontal signal line 205. Will be done.
  • FIG. 2 is a schematic cross-sectional view showing the configuration of a main part of the image pickup apparatus 1. A specific configuration of the image pickup apparatus 1 will be described with reference to FIG.
  • the image pickup apparatus 1 is a CSP, and has, for example, a logic chip 10, a sensor chip 20, and a protective member 40 in this order.
  • a joint surface S is formed between the logic chip 10 and the sensor chip 20.
  • an insulating film 31, a microlens 32, a flattening film 33, and a joining member 34 are provided in this order from the sensor chip 20 side.
  • the image pickup device 1 is configured so that, for example, the logic chip 10 side is mounted on a printed circuit board such as a motherboard, and the logic chip 10 side has a rewiring 51, a solder bump 52, and a protective resin layer 53. ..
  • the logic chip 10 and the sensor chip 20 are electrically connected by, for example, through electrodes (not shown). Instead of the through electrode, the logic chip 10 and the sensor chip 10 may be electrically connected by direct metal bonding such as CuCu bonding.
  • the microlens 32 corresponds to a specific example of the "lens" of the present disclosure
  • the solder bump 52 corresponds to a specific example of the "external connection terminal" of the present disclosure.
  • the semiconductor substrate 11 faces the protective member 40 with the multilayer wiring layer 12 and the sensor chip 20 in between.
  • a multilayer wiring layer 12 is provided on one main surface (XY plane) of the semiconductor substrate 11, and a rewiring 51 or the like is provided on the other main surface.
  • the semiconductor substrate 11 is made of, for example, a silicon (Si) substrate.
  • the thickness (size in the Z-axis direction) of the semiconductor substrate 11 is, for example, 50 ⁇ m to 150 ⁇ m.
  • Hole H is provided at a predetermined position on the semiconductor substrate 11.
  • the hole H is for electrically connecting the pad electrode 12M and the rewiring 51.
  • the hole H penetrates from the other main surface of the semiconductor substrate 11 to one main surface and reaches the pad electrode 12M of the multilayer wiring layer 12.
  • the rewiring 51 is provided in the vicinity of the hole H and covers the side wall and the bottom surface of the hole H. On the bottom surface of the hole H, the rewiring 51 is in contact with the pad electrode 12M of the multilayer wiring layer 12.
  • the rewiring 51 extends from the hole H to the other main surface of the semiconductor substrate 11 and is drawn out to the formation region of the solder bump 52.
  • the rewiring 51 is arranged in a selective region of the other main surface of the semiconductor substrate 11.
  • the rewiring 51 is made of, for example, copper (Cu), tungsten (W), titanium (Ti), tantalum (Ta), titanium-tungsten alloy (TiW), polysilicon, or the like.
  • the thickness of the rewiring 51 is, for example, about several ⁇ m to several tens of ⁇ m.
  • An insulating film (not shown) is provided between the rewiring 51 and the semiconductor substrate 11. This insulating film covers the side wall of the hole H from the other main surface of the semiconductor substrate 11.
  • the insulating film is made of, for example, a silicon oxide film (SiO) or a silicon nitride film (SiN).
  • the solder bump 52 is connected to the rewiring 51 drawn out on the other main surface of the semiconductor substrate 11.
  • the solder bump 52 functions as an external connection terminal for mounting on a printed circuit board, and is made of, for example, lead-free high melting point solder such as tin (Sn) -silver (Ag) -copper (Cu).
  • a plurality of solder bumps 52 are regularly arranged at a predetermined pitch on the other main surface of the semiconductor substrate 11.
  • the arrangement of the solder bumps 52 is appropriately set according to the position of the bonding pad on the printed circuit board (not shown) side to be mounted.
  • the solder bump 52 is electrically connected to the pad electrode 12M of the multilayer wiring layer 12 via the rewiring 51.
  • another external connection terminal may be used.
  • the external connection terminal may be formed of a metal film such as copper (Cu) or nickel (Ni) formed by a plating method.
  • the protective resin layer 53 provided on the other main surface of the semiconductor substrate 11 is for protecting the rewiring 51.
  • the protective resin layer 53 has an opening that exposes a part of the rewiring 51, and a solder bump 52 is arranged in the opening of the protective resin layer 53. That is, the solder bump 52 is connected to the rewiring 51 of the portion exposed from the protective resin layer 53.
  • the protective resin layer 53 is, for example, a solder resist and contains an epoxy-based, polyimide-based, silicon-based or acrylic-based resin or the like.
  • the sensor chip 20 provided between the logic chip 10 and the protective member 40 has, for example, a multilayer wiring layer (not shown) and a semiconductor substrate 21 in this order from the logic chip 10 side.
  • the semiconductor substrate 21 corresponds to a specific example of the "first semiconductor substrate" of the present disclosure.
  • the semiconductor substrate 21 is made of, for example, a silicon (Si) substrate.
  • the semiconductor substrate 21 is provided with a light incident surface 21S.
  • one main surface of the semiconductor substrate 21 constitutes the light incident surface 21S, and the other main surface is provided with a multilayer wiring layer.
  • the semiconductor substrate 21 of the sensor chip 20 is provided with a photodiode (PD) 211 for each pixel P.
  • the PD211 is provided near the light incident surface 21S of the semiconductor substrate 21.
  • PD211 corresponds to a specific example of the "photoelectric conversion unit" of the present disclosure.
  • the insulating film 31 provided between the semiconductor substrate 21 and the microlens 32 plays a role of flattening the light incident surface 21S of the semiconductor substrate 21.
  • the insulating film 31 is made of, for example, silicon oxide (SiO) or the like.
  • the insulating film 31 corresponds to a specific example of the "insulating film" of the present disclosure.
  • the microlens 32 on the insulating film 31 is provided at a position facing the PD211 of the sensor chip 20 for each pixel P.
  • the light incident on the microlens 32 is focused on the PD211 for each pixel P.
  • the lens system of the microlens 32 is set to a value corresponding to the size of the pixel P.
  • Examples of the lens material of the microlens 32 include a silicon oxide film (SiO) and a silicon nitride film (SiN).
  • the microlens 32 may be constructed by using an organic material.
  • the material constituting the microlens 32 is, for example, provided in a film shape on the outside of the pixel portion 200P.
  • a color filter may be provided between the microlens 32 and the insulating film 31.
  • the flattening film 33 is provided between the microlens 32 and the joining member 34.
  • the flattening film 33 is provided over substantially the entire surface of the light incident surface 21S of the semiconductor substrate 21 so as to cover the microlens 32.
  • the light incident surface 21S of the semiconductor substrate 21 provided with the microlens 32 is flattened.
  • the flattening film 33 is made of, for example, a silicon oxide film (SiO) or a resin material.
  • the resin material include an epoxy resin, a polyimide resin, a silicon resin, and an acrylic resin.
  • the flattening film 33 is provided with a notch C along the thickness direction.
  • the cutout portion C is provided, for example, extending from the flattening film 33 in the stacking direction (Z-axis direction) of the image pickup apparatus 1.
  • the cutout portion C is provided in, for example, the flattening film 33, the insulating film 31, the sensor chip 20, and the logic chip 10. That is, the notch portion C penetrates the flattening film 33, the insulating film 31, the semiconductor substrate 21, and the multilayer wiring layer 12.
  • the cutout portion C is formed by, for example, digging from the flattening film 33 to the middle of the semiconductor substrate 11 in the thickness direction (groove V in FIG. 6B described later), and the bottom surface of the cutout portion C is, for example, , Is provided in the semiconductor substrate 11 of the logic chip 10.
  • the notch C of the image pickup apparatus 1 may have a cross-sectional shape other than the rectangular shape.
  • the notch C may have a tapered shape.
  • the width of the notch portion C gradually decreases from the flattening film 33 toward the semiconductor substrate 11.
  • the notch portion C may have a step. Specifically, in the notch C, the width of the notch C gradually decreases from the flattening film 33 toward the semiconductor substrate 11.
  • the embedding membrane 35 is embedded in the notch C.
  • the embedding film 35 is different from the joining member 34, and contains a material different from the constituent materials of the joining member 34. Details will be described later, but this makes it possible to form the joint member 34 thinner than when the cutout portion C is filled with the joint member 34.
  • the embedding film 35 is embedded, for example, from the bottom surface of the notch portion C to the entire depth direction of the notch portion C, and is the surface of the flattening film 33 (the surface on the joining member 34 side) and the surface of the embedding film 35. Is provided on substantially the same plane.
  • the embedded film 35 is made of, for example, an insulating material having low water permeability.
  • the embedded film 35 is made of, for example, an inorganic insulating material such as silicon nitride (SiN) and silicon oxynitride (SiON).
  • the embedding film 35 may be made of an organic insulating material such as siloxane. In this way, by providing the notch C on the peripheral edge of the image pickup device 1 and embedding the embedded film 35 having low water permeability in the notch C, the infiltration of water into the image pickup device 1 through the end portion is suppressed. Be done.
  • the joining member 34 provided between the protective member 40 and the microlens 32 has, for example, substantially the same refractive index as the refractive index of the protective member 40.
  • the joining member 34 is preferably made of a material having a refractive index of about 1.51.
  • the joining member 34 is provided so as to fill the space between the protective member 40 and the sensor chip 20. That is, the image pickup apparatus 1 has a so-called cavityless structure.
  • the joining member 34 is made of, for example, a light-transmitting resin material.
  • the thickness of the joining member 34 is, for example, 10 ⁇ m to 50 ⁇ m.
  • the logic wafer 10W including the semiconductor substrate 11 and the multilayer wiring layer 12 and the sensor wafer 20W including the semiconductor substrate 21 and the multilayer wiring layer (not shown) are joined to form a bonding surface S.
  • Form. PD211 is formed on the semiconductor substrate 21.
  • an insulating film 31, a microlens 32, and a flattening film 33 are formed on the light incident surface 21S of the semiconductor substrate 21.
  • Each of the logic wafer 10W and the sensor wafer 20W is provided with a plurality of chip regions A.
  • the logic chip 10 is formed by fragmenting the logic wafer 10W into each chip region A
  • the sensor chip 20 is formed by fragmenting the sensor wafer 20W into each chip region A.
  • the flattening film 33 and the embedding film 35 are flattened as shown in FIG. 6D. Specifically, by performing CMP (Chemical Mechanical Polishing) or etch back from the surface on the embedding film 35 side, the surface of the embedding film 35 is formed so as to be substantially flush with the surface of the flattening film 33. To do.
  • CMP Chemical Mechanical Polishing
  • the rewiring 51 electrically connected to the pad electrode 12M is formed.
  • the rewiring 51 is formed, for example, as follows. First, a resist material is formed on the other main surface of the semiconductor substrate 11, and then an opening is formed in a selective region of the resist film. The opening is formed in the vicinity of the hole H. Next, the resist film having the openings formed is used as a mask to form a copper (Cu) film by an electrolytic plating method. In this way, the rewiring 51 can be formed in the selective region near the hole H.
  • Cu copper
  • the protective resin layer 53 is formed so as to cover the rewiring 51 as shown in FIG. 6H.
  • the protective resin layer 53 is formed with an opening for connecting the solder bump 52 to the rewiring 51.
  • the solder bump 52 is formed (see FIG. 2).
  • the solder bump 52 can be formed by forming the solder material into a bump shape by providing a ball-shaped solder material in the opening of the protective resin layer 53 and then applying a heat treatment. After this, dicing is performed along the scribe line. As a result, each chip region A is separated into individual pieces, and the image pickup apparatus 1 is formed.
  • the embedded film 35 is embedded in the notch C.
  • the thickness of the joining member 34 is reduced as compared with the case where the joining member 34 is embedded in the notch portion C.
  • FIG. 9 shows a schematic cross-sectional configuration of a main part of the imaging device (imaging device 100) according to the comparative example.
  • the image pickup device 100 includes a logic chip 10, a sensor chip 20, and a protective member 40.
  • An insulating film 31, a microlens 32, a flattening film 33, and a joining member 34 are provided between the protective member 40 and the sensor chip 20 in this order from the sensor chip 20 side.
  • a notch C is provided on the peripheral edge of the image pickup apparatus 100 from the flattening film 33 to the semiconductor substrate 11.
  • the joining member 34 is embedded in the notch C.
  • the image pickup apparatus 100 is different from the image pickup apparatus 1.
  • FIG. 10A the reflected light L R shown in FIG. 10B, in which the light L traveling from the light source to the sensor chip 20 is reflected between the sensor chip 20 and the protective member 40.
  • Figure 10A represents the reflected light L R of the imaging device 100
  • Fig. 10B represents the reflected light L R of the imaging device 1.
  • the imaging device 100 has a joining member 34 having a thickness t1
  • the imaging device 1 has a joining member 34 having a thickness t2.
  • the thickness t1 is larger than the thickness t2 (t1> t2).
  • the space between the protective member 40 and the sensor chip 20 is filled with a joining member 34 having a refractive index similar to that of the protective member 40. Therefore, when the light L is reflected on the surface of the sensor chip 20 and is incident on the protective member 40 at an angle equal to or higher than the critical angle, total reflection occurs.
  • the reflected light LR is incident on the pixel portion 200P (FIG. 1). Flare is less likely to be recognized by reducing the distance (distances d1 and d2 described later) between the position where the light L is directly incident on the pixel portion 200P and the position where the reflected light LR is incident on the pixel portion 200P. .. In an imaging device having a cavity structure, it is unlikely that the reflected light is incident on the pixel portion.
  • the distance d1 between the position where the light L is directly incident on the pixel portion 200P and the position where the reflected light LR is incident on the pixel portion 200P is reduced to some extent. It is possible. However, since the thickness t1 of the joining member 34 is large, it is difficult to sufficiently reduce the distance d1 (FIG. 10A). On the other hand, in the image pickup apparatus 1, in addition to the thickness of the protective member 40, the thickness t2 of the joining member 34 can be easily reduced (FIG. 10B).
  • the distance d2 (d1> d2) between the position where the light L is directly incident on the pixel portion 200P and the position where the reflected light LR is incident on the pixel portion 200P is sufficiently reduced, and the flare visibility is suppressed. It becomes possible.
  • the bonding is performed as compared with the case where the notch portion C is filled with the joining member 34.
  • the thickness (thickness t2) of the member 34 can be reduced. Therefore, the spread of the light (reflected light LR ) reflected between the semiconductor substrate 21 (sensor chip 20) and the protective member 40 can be reduced. Therefore, it is possible to suppress deterioration of image quality due to flare or the like.
  • the thickness t2 of the joining member 34 can be reduced more effectively.
  • the chip end face is covered with the embedding film 35 having low water permeability, it is possible to suppress the infiltration of water through the end face.
  • FIG. 11 shows a schematic cross-sectional configuration of a main part of the image pickup apparatus (imaging apparatus 1A) according to the first modification of the first embodiment.
  • the embedding film 35 is embedded in a part of the notch C in the depth direction.
  • the image pickup apparatus 1A according to the first modification has the same configuration as the image pickup apparatus 1 of the first embodiment, and its action and effect are also the same.
  • the notch C is provided in, for example, the flattening film 33, the insulating film 31, the sensor chip 20, and the logic chip 10.
  • the bottom surface of the notch C is provided, for example, in the middle of the semiconductor substrate 11 in the thickness direction.
  • the cross-sectional shape of the notch C is, for example, a rectangle (FIG. 11).
  • the cutout portion C may have a cross-sectional shape other than a rectangle (see FIGS. 3 and 4).
  • the height of the embedding film 35 (the size in the Z-axis direction) is smaller than the depth of the notch C, and the surface of the embedding film 35 is provided in, for example, the semiconductor substrate 21.
  • the surface of the embedding film 35 is arranged at a position closer to the bottom surface of the notch C than the surface of the flattening film 33.
  • the embedding film 35 and the joining member 34 are embedded in the cutout portion C in this order from the bottom surface side.
  • Such an imaging device 1A can be manufactured, for example, as follows (FIGS. 12A and 12B).
  • a groove V is formed by digging from the flattening film 33 to the semiconductor substrate 11 in the same manner as described in the first embodiment (FIG. 6B). For example, a groove V having a rectangular cross-sectional shape is formed. Similar to that described in the first embodiment, the groove V having a shape having a shape that gradually or gradually decreases in width is formed from the insulating film 31 toward the semiconductor substrate 11. It may be good (FIGS. 7 and 8).
  • the embedding film 35 is formed so as to fill a part of the groove V in the depth direction.
  • the embedded film 35 is formed by forming an organic insulating material such as a resin into a film by using, for example, a coating method.
  • the organic insulating material include siloxane and epoxy resin.
  • the protective member 40 is attached to the sensor wafer 20W as shown in FIG. 12B.
  • the protective member 40 is bonded using the joining member 34.
  • the thickness of the joining member 34 is smaller than that in the case where the joining member 34 is embedded in the entire depth direction of the groove V. Become.
  • the embedded film 35 is embedded in a part of the notch C in the depth direction, when the joining member 34 is embedded in the entire depth direction of the notch C, In comparison, the thickness of the joining member 34 is reduced. Therefore, it is possible to suppress deterioration of image quality due to flare or the like.
  • the embedding film 35 may be formed on a part of the groove V in the depth direction (FIG. 12A)
  • the flattening step of the embedding film 35 and the flattening film 33 (for example, imaging)
  • the process of FIG. 6D of the device 1) becomes unnecessary. Therefore, the manufacturing cost caused by the flattening process can be suppressed.
  • the deterioration of the pixel portion 200P due to the flattening step is suppressed, it is possible to suppress the generation of noise and the like, and further improve the image quality.
  • FIG. 13 schematically shows a cross-sectional configuration of a main part of the image pickup apparatus (imaging apparatus 1B) according to the second modification of the first embodiment.
  • the flattening film 33 is embedded in the notch C.
  • the image pickup apparatus 1B according to the second modification has the same configuration as the image pickup apparatus 1 of the first embodiment, and its action and effect are also the same.
  • the flattening film 33 covers the microlens 32 and is embedded, for example, over the entire depth direction of the notch C.
  • the cross-sectional shape of the notch C is, for example, a rectangle (FIG. 13).
  • the cutout portion C may have a cross-sectional shape other than a rectangle (see FIGS. 3 and 4).
  • the flattening film 33 is continuously provided, for example, from above the microlens 32 to the inside of the notch C. That is, the flattening film 33 has a function of flattening the light incident surface 21S of the semiconductor substrate 21 and also functions as an embedding film of the notch portion C.
  • the constituent material of the flattening membrane 33 is the same as the constituent material of the embedded membrane.
  • the flattening film 33 corresponds to a specific example of the embedded film of the present disclosure.
  • the refractive index of the constituent material of the flattening film 33 is lower than the refractive index of the constituent material of the microlens 32.
  • the light incident on the microlens 32 is efficiently focused on the PD211.
  • the constituent material of the microlens 32 is a silicon nitride film (refractive index 1.8)
  • siloxane reffractive index 1.4
  • Such an imaging device 1B can be manufactured, for example, as follows (FIGS. 14A to 14D).
  • the logic wafer 10W including the semiconductor substrate 11 and the multilayer wiring layer 12 and the sensor wafer 20W including the semiconductor substrate 21 and the multilayer wiring layer (not shown) are joined to form a bonding surface S.
  • PD211 is formed on the semiconductor substrate 21.
  • an insulating film 31 and a microlens 32 are formed on the light incident surface 21S of the semiconductor substrate 21.
  • a groove V is formed in the scribe line between the adjacent chip regions A.
  • the groove V is formed, for example, by penetrating the sensor wafer 20W and the multilayer wiring layer 12 from the surface of the insulating film 31 and then digging halfway in the thickness direction of the semiconductor substrate 11.
  • a groove V having a rectangular cross-sectional shape is formed. Similar to that described in the first embodiment, the groove V having a shape having a shape that gradually or gradually decreases in width is formed from the insulating film 31 toward the semiconductor substrate 11. It may be good (see FIGS. 7 and 8).
  • the flattening film 33 is formed from above the microlens 32 so as to embed the groove V.
  • the flattening film 33 is formed, for example, by forming a siloxane film using a CVD method or a coating method.
  • the protective member 40 is attached to the sensor wafer 20W with the flattening film 33 in between, as shown in FIG. 14D.
  • the protective member 40 is attached to the sensor wafer 20W by using the joining member 34.
  • the thickness of the joining member 34 is smaller than that in the case where the joining member 34 is embedded in the groove V.
  • a step of applying CMP or etch back to the flattening film 33 to adjust the thickness of the flattening film 33 may be provided.
  • the image pickup apparatus 1B can be manufactured in the same manner as described in the first embodiment.
  • the thickness of the joining member 34 is smaller than that in the case where the joining member 34 is embedded in the notch portion C. Therefore, it is possible to suppress deterioration of image quality due to flare or the like. Further, in the image pickup apparatus 1B, since the flattening film 33 covers the microlens 32 and is embedded in the groove V, a step of forming the flattening film 33 and a step of forming an embedded film in the groove V (see FIG. 6C). ) And separately, it is possible to reduce the number of steps. Therefore, the manufacturing cost can be suppressed.
  • FIG. 15 schematically shows a cross-sectional configuration of a main part of the image pickup apparatus (imaging apparatus 2) according to the second embodiment of the present disclosure.
  • the image pickup apparatus 2 has a hole M that penetrates the flattening film 33, the insulating film 31, and the sensor chip 20 and reaches the pad electrode 12M, and a conductive embedding film (embedding film) is formed in the hole M. 15) is buried. That is, it has a hole M instead of the notch C (FIG. 1) of the first embodiment. Except for this point, the image pickup device 1 according to the second embodiment has the same configuration as the image pickup device 1 of the first embodiment, and its action and effect are also the same.
  • the hole M is provided in, for example, the flattening film 33, the insulating film 31, the sensor chip 20, and the multilayer wiring layer 12 (logic chip 10).
  • the hole M is formed by digging, for example, from the flattening film 33 to the pad electrode 12M of the multilayer wiring layer 12 (hole M in FIG. 18A described later), and the pad is formed on the bottom surface of the hole M.
  • the electrode 12M is exposed.
  • the hole M has, for example, a rectangular cross-sectional shape.
  • the hole M may have a cross-sectional shape other than a rectangle.
  • the width of the hole M may gradually or gradually decrease from the flattening film 33 toward the multilayer wiring layer 12 (see FIGS. 3 and 4).
  • the hole M is arranged at a position facing the hole H, for example.
  • the embedding film 15 is embedded, for example, over the entire depth direction of the pore portion M, and the surface of the flattening film 33 (the surface on the bonding member 34 side) and the surface of the embedding film 15 are substantially the same. It is provided on a flat surface.
  • the embedding film 15 contains, for example, a conductive metal material. Examples of the conductive metal material include aluminum (Al), copper (Cu), nickel (Ni) and the like.
  • the embedding film 15 is electrically connected to the pad electrode 12M. For example, a wiring connected to the pad electrode 12 may be provided, and the embedded membrane 15 may be connected to this wiring. At this time, the hole portion M may be arranged at a position deviated from the position facing the hole H.
  • FIG. 17 shows another example of the cross-sectional configuration of the main part of the image pickup apparatus 2.
  • the embedding film 15 may be embedded in a part of the hole M in the depth direction.
  • the height of the embedding film 15 is smaller than the depth of the pore M, and the surface of the embedding film 15 is provided in, for example, the semiconductor substrate 21. That is, in the Z-axis direction, the surface of the embedding film 15 is arranged at a position closer to the bottom surface (pad electrode 12M) of the hole M than the surface of the flattening film 33.
  • the embedding film 15 and the joining member 34 are embedded in the hole M in this order from the bottom surface side.
  • Such an imaging device 2 can be manufactured, for example, as follows (FIGS. 18A and 18B).
  • the logic wafer 10W including the semiconductor substrate 11 and the multilayer wiring layer 12 and the sensor wafer 20W including the semiconductor substrate 21 and the multilayer wiring layer (not shown)
  • a joint surface S. PD211 is formed on the semiconductor substrate 21.
  • an insulating film 31 and a microlens 32 are formed on the light incident surface 21S of the semiconductor substrate 21 (FIG. 6A).
  • the embedded film 15 is formed so as to be selectively embedded in the hole M.
  • the embedded film 15 is formed, for example, by forming a metal material into a film using a plating method. As a result, the embedded film 15 electrically connected to the pad electrode 12M is formed.
  • the embedding film 15 is formed so as to fill the entire hole M in the depth direction.
  • the embedding film 15 may be formed so as to fill a part of the pore M in the depth direction.
  • a probe needle is applied to the surface of the embedding film 15 to perform an inspection in a wafer state. This makes it possible to detect malfunctions and the like.
  • the protective member 40 is attached to the sensor wafer 20W.
  • the protective member 40 is bonded using the joining member 34 (see FIG. 6E).
  • the thickness of the joining member 34 is smaller than that in the case where the joining member 34 is embedded in the hole M.
  • the image pickup apparatus 2 can be manufactured in the same manner as described in the first embodiment.
  • the thickness of the joining member 34 is smaller than that in the case where the joining member 34 is embedded in the hole M. Therefore, it is possible to suppress deterioration of image quality due to flare or the like.
  • an embedded film 15 made of a metal material can be embedded in the hole M. This makes it easier to maintain the strength for forming the hole H at the position facing the hole M.
  • a needle is applied to the surface of the embedded film 15. Therefore, the thick embedding film 15 can alleviate the impact caused by the needle contact and suppress the deterioration of each part caused by the needle contact.
  • the cutout portion C is formed by, for example, digging from the flattening film 33 to the middle of the semiconductor substrate 11 in the thickness direction, as described in the first embodiment (described later). Groove V in FIG. 20).
  • the notch C is provided on the peripheral edge of the imaging device 2.
  • the cross-sectional shape of the notch C is, for example, a rectangle (FIG. 19).
  • the cutout portion C may have a cross-sectional shape other than a rectangle (see FIGS. 3 and 4).
  • the embedded film 35 embedded in the notch C is made of, for example, an insulating material having low water permeability, as described in the first embodiment.
  • Such an imaging device 2A can be manufactured, for example, as follows (FIG. 20).
  • a groove V is formed in the scribe line between the adjacent chip regions A.
  • the groove V is formed, for example, by penetrating the insulating film 31, the sensor wafer 20W, and the multilayer wiring layer 12 from the surface of the flattening film 33, and then digging halfway in the thickness direction of the semiconductor substrate 11.
  • the embedding film 35 is formed (see FIG. 6C).
  • the joining member 34 is embedded in the hole M and the notch C.
  • the thickness of the joining member 34 is smaller than in the case.
  • This technology is not limited to application to an image pickup device, and is not limited to an image pickup device such as a digital still camera or a video camera, a portable terminal device having an image pickup function such as a mobile phone, or copying using an image pickup device for an image reading unit. It can be applied to all electronic devices such as machines that use an image pickup device for the image capture unit (photoelectric conversion unit). In some cases, a modular form mounted on an electronic device, that is, a camera module is used as an image pickup device.
  • FIG. 21 is a block diagram showing a configuration example of the electronic device 2000, which is an example of the electronic device of the present disclosure.
  • the electronic device 2000 is, for example, a camera module for mobile devices such as digital still cameras, video cameras and mobile phones.
  • the electronic device 2000 of the present disclosure includes an optical unit including a lens group 2001 and the like, image pickup devices 1, 1A, 1B, 2, 2A (hereinafter collectively referred to as an image pickup device 1), and a camera signal processing unit. It has a DSP circuit 2003, a frame memory 2004, a display unit 2005, a recording unit 2006, an operation unit 2007, a power supply unit 2008, and the like.
  • the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, the operation unit 2007, and the power supply unit 2008 are connected to each other via the bus line 2009.
  • the lens group 2001 captures incident light (image light) from the subject and forms an image on the imaging surface of the imaging device 1.
  • the image pickup apparatus 1 converts the amount of incident light imaged on the image pickup surface by the lens group 2001 into an electric signal in pixel units and outputs it as a pixel signal.
  • the display unit 2005 includes a panel-type display device such as a liquid crystal display device or an organic EL (electroluminescence) display device, and displays a moving image or a still image captured by the image pickup device 1.
  • the recording unit 2006 records a moving image or a still image captured by the solid-state image sensor 2002 on a recording medium such as a DVD (Digital Versatile Disk).
  • the operation unit 2007 issues operation commands for various functions of the imaging device under the operation of the user.
  • the power supply unit 2008 appropriately supplies various power sources for operating the DSP circuit 2003, the frame memory 2004, the display unit 2005, the recording unit 2006, and the operation unit 2007 to these supply targets.
  • the technology according to the present disclosure can be applied to various products.
  • the techniques according to the present disclosure may be applied to endoscopic surgery systems.
  • FIG. 22 is a block diagram showing an example of a schematic configuration of a patient's internal information acquisition system using a capsule endoscope to which the technique according to the present disclosure (the present technique) can be applied.
  • the in-vivo information acquisition system 10001 includes a capsule-type endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside an organ such as the stomach or intestine by peristaltic movement or the like until it is naturally excreted from the patient, and inside the organ.
  • Images (hereinafter, also referred to as internal organ images) are sequentially imaged at predetermined intervals, and information about the internal organ images is sequentially wirelessly transmitted to an external control device 10200 outside the body.
  • the external control device 10200 comprehensively controls the operation of the internal information acquisition system 10001. Further, the external control device 10200 receives information about the internal image transmitted from the capsule endoscope 10100, and based on the information about the received internal image, the internal image is displayed on a display device (not shown). Generate image data to display.
  • the internal information acquisition system 10001 can obtain an internal image of the inside of the patient at any time from the time when the capsule endoscope 10100 is swallowed until it is discharged.
  • the capsule endoscope 10100 has a capsule-shaped housing 10101, and the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, the power feeding unit 10115, and the power supply unit are contained in the housing 10101.
  • the 10116 and the control unit 10117 are housed.
  • the light source unit 10111 is composed of, for example, a light source such as an LED (light emission diode), and irradiates the imaging field of view of the imaging unit 10112 with light.
  • a light source such as an LED (light emission diode)
  • the image pickup unit 10112 is composed of an image pickup element and an optical system including a plurality of lenses provided in front of the image pickup element.
  • the reflected light (hereinafter referred to as observation light) of the light applied to the body tissue to be observed is collected by the optical system and incident on the image sensor.
  • the observation light incident on the image sensor is photoelectrically converted, and an image signal corresponding to the observation light is generated.
  • the image signal generated by the image capturing unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is composed of processors such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the signal-processed image signal to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal that has been signal-processed by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Further, the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A. The wireless communication unit 10114 provides the control unit 10117 with a control signal received from the external control device 10200.
  • the power feeding unit 10115 is composed of an antenna coil for receiving power, a power regeneration circuit that regenerates power from the current generated in the antenna coil, a booster circuit, and the like. In the power feeding unit 10115, electric power is generated using the so-called non-contact charging principle.
  • the power supply unit 10116 is composed of a secondary battery and stores the electric power generated by the power supply unit 10115.
  • FIG. 22 in order to avoid complicating the drawings, illustrations such as arrows indicating the power supply destinations from the power supply unit 10116 are omitted, but the power stored in the power supply unit 10116 is the light source unit 10111. , Image processing unit 10112, image processing unit 10113, wireless communication unit 10114, and control unit 10117, and can be used to drive these.
  • the control unit 10117 is composed of a processor such as a CPU, and is a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the image pickup unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power supply unit 10115. Control as appropriate according to.
  • the external control device 10200 is composed of a processor such as a CPU or GPU, or a microcomputer or a control board on which a processor and a storage element such as a memory are mixedly mounted.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • the capsule endoscope 10100 for example, the light irradiation conditions for the observation target in the light source unit 10111 can be changed by the control signal from the external control device 10200.
  • the imaging conditions for example, the frame rate in the imaging unit 10112, the exposure value, etc.
  • the content of processing in the image processing unit 10113 and the conditions for transmitting the image signal by the wireless communication unit 10114 may be changed by the control signal from the external control device 10200. ..
  • the external control device 10200 performs various image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured internal image on the display device.
  • the image processing includes, for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various signal processing such as electronic zoom processing) can be performed.
  • the external control device 10200 controls the drive of the display device to display an in-vivo image captured based on the generated image data.
  • the external control device 10200 may have the generated image data recorded in a recording device (not shown) or printed out in a printing device (not shown).
  • the above is an example of an internal information acquisition system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. This improves the detection accuracy.
  • FIG. 23 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 23 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as a pneumoperitoneum tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processes on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (light emission diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (light emission diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity to acquire an image in time division and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the mucosal surface layer.
  • Narrow band imaging in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating with excitation light may be performed.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 24 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 23.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the image pickup unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape and color of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the operation support information and presenting it to the operator 11131, it is possible to reduce the burden on the operator 11131 and to allow the operator 11131 to proceed with the operation reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication was performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 11402 among the configurations described above. By applying the technique according to the present disclosure to the imaging unit 11402, the detection accuracy is improved.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure includes any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machines, agricultural machines (tractors), and the like. It may be realized as a device mounted on the body.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or characters on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 26 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the image pickup unit 12031 has image pickup units 12101, 12102, 12103, 12104, 12105.
  • FIG. 26 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above. By applying the technique according to the present disclosure to the imaging unit 12031, it is possible to obtain a photographed image that is easier to see, and thus it is possible to reduce driver fatigue.
  • the configuration of the imaging device described in the above-described embodiment is an example, and other layers may be provided. Further, the material and thickness of each layer are also examples, and are not limited to those described above.
  • the notch portion C is provided from the flattening film 33 to the semiconductor substrate 11
  • the notch portion C is provided at least in the thickness direction of the insulating film 31.
  • the notch C may be provided over the thickness direction of the flattening film 33 and the insulating film 31, and the light incident surface 21S of the semiconductor substrate 21 may be exposed on the bottom surface of the notch C.
  • the notch C may be provided from the flattening film 33 to the semiconductor substrate 21, and the bottom surface of the notch C may be provided in the semiconductor substrate 21.
  • the notch C in order to suppress the infiltration of water from the end face of the chip
  • the hole M in order to perform the inspection in the wafer state.
  • the functions of the notches and holes of the present disclosure are not limited to this.
  • the shapes and arrangements of the cutouts and holes of the present disclosure are not limited to those described in the above embodiments.
  • the rewiring 51 is provided in the hole H of the semiconductor substrate 11 (FIG. 2 and the like) in the hole H of the semiconductor substrate 11 (FIG. 2 and the like) has been described.
  • the hole H is embedded by a conductor different from the rewiring 51, and the conductivity is increased.
  • the body may be connected to the rewiring 51.
  • the image pickup apparatus 1 may have three or more stacked chips.
  • the effect described in the above-described embodiment or the like is an example, and may be another effect, or may further include another effect.
  • the present disclosure may have the following configuration.
  • an embedded film containing a constituent material different from the constituent material of the joining member is embedded in at least a part of the notch and the hole in the depth direction. Therefore, the thickness of the joint member between the protective member and the insulating film can be reduced as compared with the case where the cutout portion or the hole portion is filled with the joint member. Therefore, the spread of the light reflected between the semiconductor substrate and the protective member can be reduced. Therefore, it is possible to suppress deterioration of image quality due to flare or the like.
  • a first semiconductor substrate having a light incident surface and a photoelectric conversion unit A second semiconductor substrate provided on the side opposite to the light incident surface of the first semiconductor substrate, An insulating film provided on the light incident surface side of the first semiconductor substrate and At least one of the notch and the hole extending in the thickness direction of the insulating film, An embedded membrane embedded in at least a part of the notch and at least one of the holes in the depth direction.
  • the imaging device according to any one of (1) to (5), wherein the hole portion penetrates the insulating film and the first semiconductor substrate and reaches the pad electrode.
  • the imaging apparatus further comprising an external connection terminal that is electrically connected to the pad electrode and is provided on a surface of the second semiconductor substrate opposite to the multilayer wiring layer.
  • the imaging apparatus according to any one of (1) to (10), wherein the embedded film is embedded over the entire depth direction of at least one of the notch and the hole. (12) The imaging apparatus according to any one of (1) to (10), wherein the embedded film is embedded in at least one of the cutout portion and the hole portion in the depth direction. (13) The imaging device according to any one of (1) to (12), which has the cutout portion and the hole portion in which the embedded film is embedded. (14) The imaging apparatus according to any one of (1) to (13), wherein at least one of the notch and the hole has a width gradually decreasing in the depth direction. (15) The imaging apparatus according to any one of (1) to (14), wherein at least one of the notch and the hole has a width gradually decreasing in the depth direction.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Electromagnetism (AREA)
  • Manufacturing & Machinery (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)

Abstract

画質の低下を抑えることが可能な撮像装置を提供する。この撮像装置は、光入射面を有するとともに、光電変換部が設けられた第1半導体基板と、前記第1半導体基板の光入射面と反対側に設けられた第2半導体基板と、前記第1半導体基板の光入射面側に設けられた絶縁膜と、少なくとも前記絶縁膜の厚み方向にわたる、切欠部および孔部の少なくとも一方と、前記切欠部および前記孔部の少なくとも一方の深さ方向の少なくとも一部に埋設された埋込膜と、前記絶縁膜を間にして前記第1半導体基板に対向する保護部材と、前記埋込膜の構成材料と異なる材料を含み、かつ、前記保護部材と前記絶縁膜との間に設けられた接合部材とを備える。

Description

撮像装置
 本開示は、半導体基板を有する撮像装置に関する。
 近年、CSP(Chip Size Package)等の撮像装置の開発が進められている(例えば、特許文献1,2参照)。この撮像装置は、例えば、フォトダイオード(Photo Diode)等の光電変換部が設けられた半導体基板と、この半導体基板に対向する保護部材とを有している。保護部材は、例えば、樹脂材料からなる接合部材により半導体基板に貼り合わされている。
特開2015-159275号公報 特開2008-270650号公報
 このような撮像装置では、例えば、フレア等に起因した画質の低下を抑えることが望まれている。
 したがって、画質の低下を抑えることが可能な撮像装置を提供することが望ましい。
 本開示の一実施の形態に係る撮像装置は、光入射面を有するとともに、光電変換部が設けられた第1半導体基板と、第1半導体基板の光入射面と反対側に設けられた第2半導体基板と、第1半導体基板の光入射面側に設けられた絶縁膜と、少なくとも絶縁膜の厚み方向にわたる、切欠部および孔部の少なくとも一方と、切欠部および孔部の少なくとも一方の深さ方向の少なくとも一部に埋設された埋込膜と、絶縁膜を間にして第1半導体基板に対向する保護部材と、埋込膜の構成材料と異なる材料を含み、かつ、保護部材と絶縁膜との間に設けられた接合部材とを備えたものである。
 本開示の一実施の形態に係る撮像装置では、接合部材の構成材料とは異なる構成材料を含む埋込膜が、切欠部および孔部の少なくとも一方の深さ方向の少なくとも一部に埋設されている。これにより、接合部材を用いて切欠部または孔部を埋める場合に比べて、保護部材と絶縁膜との間の接合部材が薄く形成される。
本開示の第1の実施の形態に係る撮像装置の機能構成の一例を表すブロック図である。 図1に示した撮像装置の要部の断面構成を表す模式図である。 図2に示した撮像装置の断面構成の他の例(1)を表す模式図である。 図2に示した撮像装置の断面構成の他の例(2)を表す模式図である。 図2等に示した切欠部の平面構成を表す模式図である。 図2に示した撮像装置の製造方法の一工程を表す断面模式図である。 図6Aに続く工程を表す断面模式図である。 図6Bに続く工程を表す断面模式図である。 図6Cに続く工程を表す断面模式図である。 図6Dに続く工程を表す断面模式図である。 図6Eに続く工程を表す断面模式図である。 図6Fに続く工程を表す断面模式図である。 図6Gに続く工程を表す断面模式図である。 図3に示した撮像装置の製造方法の一工程を表す断面模式図である。 図4に示した撮像装置の製造方法の一工程を表す断面模式図である。 比較例に係る撮像装置の要部の断面構成を表す模式図である。 図9に示した撮像装置で生じる反射光について説明するための模式図である。 図2に示した撮像装置で生じる反射光について説明するための模式図である。 変形例1に係る撮像装置の要部の断面構成を表す模式図である。 図11に示した撮像装置の製造方法の一工程を表す断面模式図である。 図12Aに続く工程を表す断面模式図である。 変形例2に係る撮像装置の要部の断面構成を表す模式図である。 図13に示した撮像装置の製造方法の一工程を表す断面模式図である。 図14Aに続く工程を表す断面模式図である。 図14Bに続く工程を表す断面模式図である。 図14Cに続く工程を表す断面模式図である。 本開示の第2の実施の形態に係る撮像装置の要部の断面構成を表す模式図である。 図15に示した孔部の平面構成を表す模式図である。 図15に示した撮像装置の断面構成の他の例を表す模式図である。 図15に示した撮像装置の製造方法の一工程を表す断面模式図である。 図18Aに続く工程を表す断面模式図である。 変形例3に係る撮像装置の要部の断面構成を表す模式図である。 図19に示した撮像装置の製造方法の一工程を表す断面模式図である。 図1等に示した撮像装置を含む電子機器の一例を表すブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本開示における実施形態について、図面を参照して詳細に説明する。なお、説明する順序は、下記の通りである。
1.第1の実施の形態(切欠部に絶縁材料を含む埋込膜を有する撮像装置)
2.変形例1(埋込膜が切欠部の深さ方向の一部に埋設された例)
3.変形例2(平坦化膜が切欠部に埋設された例)
4.第2の実施の形態(孔部に導電材料を含む埋込膜を有する撮像装置)
5.変形例3(切欠部および孔部を有する例)
6.適用例(電子機器)
7.応用例
<1.第1の実施の形態>
(撮像装置1の機能構成)
 図1は、本開示の一実施の形態に係る撮像装置(撮像装置1)の機能構成の一例を表したものである。この撮像装置1は、画素部200Pと、画素部200Pを駆動するための回路部200Cとを有している。画素部200Pは、例えば、2次元配置された複数の受光単位領域(画素P)を有している。回路部200Cは、例えば行走査部201、水平選択部203、列走査部204およびシステム制御部202を含んでいる。
 画素部200Pには、例えば画素行ごとに画素駆動線Lread(例えば、行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆
動線Lreadは、画素部200Pからの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部201の各行に対応した出力端に接続されている。画素部200Pは、例えば、画素P毎に設けられた画素回路を有している。
 行走査部201は、シフトレジスタやアドレスデコーダ等によって構成され、画素部200Pの各画素Pを、例えば行単位で駆動する画素駆動部である。行走査部201によって選択走査された画素行の各画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部203に供給される。水平選択部203は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部204は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部203の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部204による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素Pの信号が順番に水平信号線205に出力され、当該水平信号線205を通して図示しない信号処理部等へ入力される。
 システム制御部202は、外部から与えられるクロックや、動作モードを指令するデータなどを受け取り、また、撮像装置1の内部情報などのデータを出力するものである。システム制御部202はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部201、水平選択部203および列走査部204などの駆動制御を行う。
(撮像装置1の要部構成)
 図2は、撮像装置1の要部の構成を表す断面模式図である。図2を用いて、撮像装置1の具体的な構成を説明する。
 撮像装置1は、CSPであり、例えば、ロジックチップ10、センサチップ20および保護部材40をこの順に有している。ロジックチップ10とセンサチップ20との間には接合面Sが形成されている。センサチップ20と保護部材40との間には、センサチップ20側から、絶縁膜31、マイクロレンズ32、平坦化膜33および接合部材34がこの順に設けられている。撮像装置1は、例えば、ロジックチップ10側がマザーボード等のプリント基板へ実装されるように構成されており、ロジックチップ10側に、再配線51、半田バンプ52および保護樹脂層53を有している。ロジックチップ10およびセンサチップ20は、例えば、貫通電極(図示せず)により電気的に接続されている。貫通電極に代えて、CuCu接合等の金属直接接合により、ロジックチップ10およびセンサチッ
プ10を電気的に接続するようにしてもよい。ここでは、マイクロレンズ32が、本開示の「レンズ」の一具体例に対応し、半田バンプ52が、本開示の「外部接続端子」の一具体例に対応する。
 ロジックチップ10は、例えば、半導体基板11および多層配線層12を含み、これらの積層構造を有している。ロジックチップ10は、例えば、ロジック回路および制御回路を含んでいる。回路部200C(図1)全てがロジックチップ10に設けられていてもよい。あるいは、回路部200Cの一部をセンサチップ20に設け、残りの回路部200Cをロジックチップ10に設けるようにしてもよい。ここでは、半導体基板11が、本開示の「第2半導体基板」の一具体例に対応し、多層配線層12が、本開示の「多層配線層」の一具体例に対応する。
 半導体基板11は、多層配線層12およびセンサチップ20を間にして保護部材40に対向している。半導体基板11の一方の主面(XY平面)に多層配線層12が設けられ、他方の主面に再配線51等が設けられている。この半導体基板11は、例えば、シリコン(Si)基板により構成されている。半導体基板11の厚み(Z軸方向の大きさ)は、例えば50μm~150μmである。
 多層配線層12は、半導体基板11とセンサチップ20との間に設けられている。多層配線層12は、複数のパッド電極12Mと、この複数のパッド電極12Mを分離する層間絶縁膜122とを含んでいる。パッド電極12Mは、例えば、銅(Cu)またはアルミニウム(Al)等により構成されている。層間絶縁膜122は、例えば、シリコン酸化膜(SiO)またはシリコン窒化膜(SiN)等により構成されている。多層配線層12は、層間絶縁膜122により互いに分離された複数の配線(図示せず)を含んでいる。例えば、多層配線層12センサチップ10との間に、接合面Sが設けられている。
 半導体基板11の所定の位置には、孔Hが設けられている。この孔Hは、パッド電極12Mと再配線51とを電気的に接続するためのものである。孔Hは、半導体基板11の他方の主面から一方の主面まで貫通し、多層配線層12のパッド電極12Mに達している。
 再配線51は、孔H近傍に設けられており、孔Hの側壁および底面を覆っている。孔Hの底面では、再配線51が多層配線層12のパッド電極12Mに接している。再配線51は、孔Hから半導体基板11の他方の主面に延設され、半田バンプ52の形成領域まで引き出されている。半導体基板11の他方の主面の選択的な領域に、再配線51が配置されている。再配線51は、例えば、銅(Cu),タングステン(W),チタン(Ti),タンタル(Ta),チタンタングステン合金(TiW)またはポリシリコン等により構成されている。再配線51の厚みは、例えば、数μm~数十μm程度である。
 再配線51と半導体基板11との間には、絶縁膜(図示せず)が設けられている。この絶縁膜は、半導体基板11の他方の主面から孔Hの側壁を覆っている。絶縁膜は、例えば、シリコン酸化膜(SiO)またはシリコン窒化膜(SiN)等により構成されている。
 半田バンプ52は、半導体基板11の他方の主面に引きだされた再配線51に接続されている。この半田バンプ52は、プリント基板へ実装するための外部接続端子として機能するものであり、例えば錫(Sn)-銀(Ag)-銅(Cu)等の無鉛高融点はんだ等よりなる。例えば、複数の半田バンプ52が、半導体基板11の他方の主面に、所定のピッチで規則的に配列して設けられている。この半田バンプ52の配列は、実装されるプリント基板(図示せず)側の接合パッドの位置に応じて適宜設定されている。この半田バンプ52は、再配線51を介して多層配線層12のパッド電極12Mと電気的に接続されている。半田バンプ52に代えて、他の外部接続端子を用いるようにしてもよい。例えば、めっき法を用いて形成した銅(Cu)またはニッケル(Ni)等の金属膜により、外部接続端子を構成するようにしてもよい。
 半導体基板11の他方の主面に設けられた保護樹脂層53は、再配線51を保護するためのものである。保護樹脂層53は、再配線51の一部を露出させる開口部を有しており、この保護樹脂層53の開口部に半田バンプ52が配置されている。即ち、半田バンプ52は、保護樹脂層53から露出された部分の再配線51に接続されている。保護樹脂層53は、例えばソルダーレジストであり、エポキシ系、ポリイミド系、シリコン系またはアクリル系の樹脂等を含んでいる。
 ロジックチップ10と保護部材40との間に設けられたセンサチップ20は、例えば、ロジックチップ10側から、多層配線層(図示せず)および半導体基板21をこの順に有している。ここでは、半導体基板21が、本開示の「第1半導体基板」の一具体例に対応する。
 センサチップ20の多層配線層は、ロジックチップ10の多層配線層12と接しており、例えば、これらの間にセンサチップ20とロジックチップ10との接合面Sが設けられている。このロジックチップ10の多層配線層は、複数の配線と、この複数の配線を分離する層間絶縁膜とを含んでいる。センサチップ20の多層配線層には、例えば、画素部200P(図1)の画素回路が設けられている。
 半導体基板21は、例えば、シリコン(Si)基板により構成されている。半導体基板21には、光入射面21Sが設けられている。例えば、半導体基板21の一方の主面が、光入射面21Sを構成し、他方の主面に多層配線層が設けられている。このセンサチップ20の半導体基板21には、画素P毎にフォトダイオード(PD)211が設けられている。PD211は、半導体基板21の光入射面21S近傍に設けられている。ここでは、PD211が、本開示の「光電変換部」の一具体例に対応する。
 半導体基板21とマイクロレンズ32との間に設けられた絶縁膜31は、半導体基板21の光入射面21Sを平坦化する役割を担っている。絶縁膜31は、例えば酸化シリコン(SiO)等により構成されている。ここでは、この絶縁膜31が、本開示の「絶縁膜」の一具体例に対応する。
 絶縁膜31上のマイクロレンズ32は、画素P毎に、センサチップ20のPD211に対向する位置に設けられている。このマイクロレンズ32に入射した光は、画素P毎にPD211に集光されるようになっている。このマイクロレンズ32のレンズ系は、画素Pのサイズに応じた値に設定されている。マイクロレンズ32のレンズ材料としては、例えばシリコン酸化膜(SiO)およびシリコン窒化膜(SiN)等が挙げられる。マイクロレンズ32は、有機材料を用いて構成されていてもよい。マイクロレンズ32を構成する材料は、例えば、画素部200Pの外側に膜状に設けられている。マイクロレンズ32と絶縁膜31との間にカラーフィルタを設けるようにしてもよい。
 平坦化膜33は、マイクロレンズ32と接合部材34との間に設けられている。この平坦化膜33は、マイクロレンズ32を覆うように、半導体基板21の光入射面21Sの略全面にわたって設けられている。これにより、マイクロレンズ32が設けられた半導体基板21の光入射面21Sが平坦化される。平坦化膜33は、例えば、シリコン酸化膜(SiO)または樹脂材料により構成されている。樹脂材料としては、例えば、エポキシ系樹脂、ポリイミド系樹脂、シリコン系樹脂およびアクリル系樹脂が挙げられる。例えば、この平坦化膜33には、厚み方向に沿って切欠部Cが設けられている。
 切欠部Cは、例えば、平坦化膜33から撮像装置1の積層方向(Z軸方向)に延在して設けられている。切欠部Cは、例えば、平坦化膜33、絶縁膜31、センサチップ20およびロジックチップ10に設けられている。即ち、切欠部Cは、平坦化膜33、絶縁膜31、半導体基板21および多層配線層12を貫通している。切欠部Cは、例えば、平坦化膜33から半導体基板11の厚み方向の途中までを掘りこむことにより形成されたものであり(後述の図6Bの溝V)、切欠部Cの底面は、例えば、ロジックチップ10の半導体基板11内に設けられている。切欠部Cは、少なくとも絶縁膜31の厚み方向にわたって設けられていればよく、例えば、絶縁膜31から撮像装置1の積層方向に延在して設けられていてもよい。切欠部Cは、例えば矩形の断面形状を有している。
 図3および図4は、撮像装置1の断面構成の他の例を表している。このように、撮像装置1の切欠部Cは、矩形以外の断面形状を有していてもよい。例えば、図3に示したように、切欠部Cはテーパ形状を有していてもよい。具体的には、この切欠部Cでは、平坦化膜33から半導体基板11に向かうに連れて切欠部Cの幅が徐々に小さくなっている。また、図4に示したように、切欠部Cは段差を有していてもよい。具体的には、この切欠部Cでは、平坦化膜33から半導体基板11に向かうに連れて切欠部Cの幅が段階的に小さくなっている。
 図5は、切欠部Cの平面形状の一例を表している。図5に示したII-II’線に沿った断面構成が、図2に対応する。切欠部Cは、例えば、撮像装置1(絶縁膜31)の周縁に設けられており、平面視で画素部200Pを囲んでいる。切欠部Cの平面形状は、例えば、四角形である。
 本実施の形態では、この切欠部Cに埋込膜35が埋設されている。埋込膜35は、接合部材34と異なるものであり、接合部材34の構成材料とは異なる材料を含んでいる。詳細は後述するが、これにより、接合部材34を用いて切欠部Cを埋める場合に比べて、接合部材34を薄く形成することができる。
 埋込膜35は、例えば、切欠部Cの底面から切欠部Cの深さ方向全部にわたって埋設されており、平坦化膜33の表面(接合部材34側の面)と、埋込膜35の表面とは、略同一平面に設けられている。埋込膜35は、例えば透水性の低い絶縁材料により構成されている。埋込膜35は、例えば、窒化シリコン(SiN)および酸窒化シリコン(SiON)等の無機絶縁材料により構成されている。埋込膜35は、シロキサン等の有機絶縁材料により構成されていてもよい。このように、撮像装置1の周縁に切欠部Cを設け、この切欠部Cに透水性の低い埋込膜35を埋設することにより、端部を介した撮像装置1への水分の浸入が抑えられる。
 保護部材40は、絶縁膜31、マイクロレンズ32および平坦化膜33を間にしてセンサチップ20に対向している。この保護部材40は、半導体基板21の光入射面21Sを覆っている。保護部材40は、例えば、ガラス基板等の透光性基板により構成されている。保護部材40の表面(センサチップ20側の面と反対の面)または裏面(センサチップ20側の面)に、例えば、IR(赤外線)カットフィルタなどが設けられていてもよい。保護部材40は、センサチップ20を間にして、ロジックチップ10に対向している。
 保護部材40とマイクロレンズ32との間に設けられた接合部材34は、例えば、保護部材40の屈折率と略同じ屈折率を有している。例えば、保護部材40がガラス基板であるとき、接合部材34は、屈折率1.51程度の材料により構成されていることが好ましい。この接合部材34は、保護部材40とセンサチップ20との間の空間を埋めるように設けられている。即ち、撮像装置1は、いわゆるキャビティレス構造を有している。接合部材34は、例えば、光透過性の樹脂材料により構成されている。接合部材34の厚みは、例えば10μm~50μmである。
(撮像装置1の製造方法)
 次に、図6A~図6Jを用いて撮像装置1の製造方法について説明する。
 まず、図6Aに示したように、半導体基板11および多層配線層12を含むロジックウエハ10Wと、半導体基板21および多層配線層(図示せず)を含むセンサウエハ20Wとを接合して接合面Sを形成する。半導体基板21には、PD211を形成しておく。また、半導体基板21の光入射面21Sには、絶縁膜31、マイクロレンズ32および平坦化膜33を形成しておく。ロジックウエハ10Wおよびセンサウエハ20W各々には、複数のチップ領域Aが設けられている。後の工程で、ロジックウエハ10Wをチップ領域A毎に個片化することによりロジックチップ10が形成され、センサウエハ20Wをチップ領域A毎に個片化することによりセンサチップ20が形成される。
 次に、図6Bに示したように、隣り合うチップ領域Aの間のスクライブラインに、溝Vを形成する。後の工程で、この溝Vにより、撮像装置1の切欠部Cが形成される。溝Vは、例えば、平坦化膜33の表面から絶縁膜31、センサウエハ20Wおよび多層配線層12を貫通させた後、半導体基板11の厚み方向の途中まで掘りこんで形成する。例えば、矩形の断面形状を有する溝Vを形成する。
 図7,図8は、溝Vの形成工程の他の例を表している。図7に示したように、溝Vは、平坦化膜33から半導体基板11に向かうに連れて徐々に幅の小さくなる形状、即ち、テーパ状に形成するようにしてもよい。図7に示した溝Vを形成することにより、後の工程で図3に示した切欠部Cが形成される。あるいは、図8に示したように、溝Vは、平坦化膜33から半導体基板11に向かうに連れて段階的に幅の小さくなる形状に形成するようにしてもよい。図8に示した溝Vを形成することにより、後の工程で図4に示した切欠部Cが形成される。
 溝Vを形成した後、図6Cに示したように、平坦化膜33上から、溝Vを埋め込むように埋込膜35を形成する。埋込膜35は、例えば、CVD(Chemical Vapor Deposition
)法を用いて窒化シリコン(SiN)を成膜することにより形成する。このとき、平坦化膜33から半導体基板11に向かうに連れて幅の小さくなる溝V(図7,図8)には、一定の幅の溝Vよりも容易に底部に埋込膜35を形成することができる。即ち、平坦化膜33から半導体基板11に向かうに連れて幅の小さくなる溝Vを形成しておくことにより、埋込膜35の埋込性を向上させることが可能となる。
 埋込膜35を成膜した後、図6Dに示したように、平坦化膜33および埋込膜35の平坦化を行う。具体的には、埋込膜35側の面からCMP(Chemical Mechanical Polishing)またはエッチバックを行うことにより、平坦化膜33の表面と略同一平面になるよう
に、埋込膜35の表面を形成する。
 続いて、図6Eに示したように、平坦化膜33を間にしてセンサウエハ20Wに、保護部材40を貼り合わせる。保護部材40は、接合部材34を用いてセンサウエハ20Wに貼り合わせる。詳細は後述するが、ここでは、溝Vが埋込膜35で埋められているので、溝Vに接合部材34を埋め込む場合に比べて、接合部材34の厚みが小さくなる。
 保護部材40をセンサウエハ20Wに貼り合わせた後、図6Fに示したように、ロジックウエハ10Wに孔Hを形成する。孔Hは、例えば、半導体基板11を貫通して多層配線層12のパッド電極12Mに達している。
 孔Hを形成した後、図6Gに示したように、パッド電極12Mに電気的に接続された再配線51を形成する。再配線51は、例えば、以下のように形成する。まず、半導体基板11の他方の主面にレジスト材料を成膜した後、このレジスト膜の選択的な領域に開口部を形成する。開口部は、孔H近傍に形成する。次いで、この開口部を形成したレジスト膜をマスクとして用い、電解めっき法により銅(Cu)膜を形成する。このようにして、孔H近傍の選択的な領域に再配線51を形成することができる。
 再配線51を形成した後、図6Hに示したように、再配線51を覆うように保護樹脂層53を形成する。保護樹脂層53には、再配線51に半田バンプ52を接続するための開口部を形成しておく。保護樹脂層53を形成した後、半田バンプ52を形成する(図2参照)。例えば、保護樹脂層53の開口部にボール状の半田材料を設けた後、熱処理を加えることにより、この半田材料をバンプ形状に成形することにより半田バンプ52を形成することができる。この後、スクライブラインに沿ってダイシングを行う。これにより、チップ領域A毎に個片化がなされ、撮像装置1が形成される。
 この撮像装置1の製造方法では、スクライブラインに溝Vを形成しているので、個片化の際に撮像装置1の各膜の界面にかかる応力が緩和される。これにより、膜剥がれおよびクラックの発生を抑えることが可能となる。更に、膜剥がれおよびクラックに起因した撮像装置1への水分の浸入を抑えることが可能となる。加えて、ここでは、溝Vに、透水性の低い埋込膜35が埋設されているので、撮像装置1への水分の浸入を、より効果的に抑えることができる。
(撮像装置1の作用および効果)
 本実施の形態の撮像装置1では、埋込膜35が、切欠部Cに埋設されている。これにより、接合部材34を切欠部Cに埋設する場合に比べて、接合部材34の厚みが小さくなる。以下、この作用効果について、比較例を用いて説明する。
 図9は、比較例に係る撮像装置(撮像装置100)の要部の模式的な断面構成を表している。この撮像装置100は、ロジックチップ10、センサチップ20および保護部材40を有している。保護部材40とセンサチップ20との間には、センサチップ20側から、絶縁膜31、マイクロレンズ32、平坦化膜33および接合部材34がこの順に設けられている。撮像装置100の周縁には、平坦化膜33から半導体基板11にかけて切欠部Cが設けられている。撮像装置100では、この切欠部Cに接合部材34が埋設されている。この点において、撮像装置100は撮像装置1と異なっている。
 このような撮像装置100では、製造する際に、溝V(図6B参照)を接合部材34で埋め込むようにするので、接合部材34の厚みを小さくすることが困難となる。撮像装置100では、例えば、接合部材34の厚みが50μmよりも大きくなっている。撮像装置100の接合部材34の厚みは、例えば、50μmよりも大きく、かつ、200μm以下である。接合部材34の厚みが大きいと、センサチップ20と保護部材40との間で反射された光の広がりが大きくなり、リング状のフレアが認識されやすくなる。
 図10A,図10Bを用いて接合部材34の厚みと、フレアの発生との関係について説明する。図10A,図10Bに示した反射光LRは、光源からセンサチップ20に向かう光Lがセンサチップ20と保護部材40との間で反射されたものである。図10Aは、撮像装置100の反射光LRを表し、図10Bは撮像装置1の反射光LRを表す。撮像装置100は、厚みt1の接合部材34を有し、撮像装置1は、厚みt2の接合部材34を有している。厚みt1は、厚みt2よりも大きくなっている(t1>t2)。
 キャビティレス構造の撮像装置1,100では、保護部材40とセンサチップ20との間が、保護部材40の屈折率と同程度の屈折率を有する接合部材34で埋められている。このため、光Lがセンサチップ20表面で反射され、臨界角以上の角度で保護部材40に入射すると、全反射が生じる。この反射光LRが、画素部200P(図1)に入射する。光Lが直接画素部200Pに入射する位置と、反射光LRが画素部200Pに入射する位置との間の距離(後述の距離d1,d2)を小さくすることにより、フレアが認識されにくくなる。なお、キャビティ構造の撮像装置では、このような画素部への反射光の入射は生じにくい。
 撮像装置100では、保護部材40の厚みを抑えることにより、光Lが直接画素部200Pに入射する位置と、反射光LRが画素部200Pに入射する位置との間の距離d1をある程度小さくすることが可能である。しかし、接合部材34の厚みt1が大きいので、十分に距離d1を小さくすることが困難となる(図10A)。これに対し、撮像装置1では、保護部材40の厚みに加えて、接合部材34の厚みt2も容易に小さくすることができる(図10B)。したがって、光Lが直接画素部200Pに入射する位置と、反射光LRが画素部200Pに入射する位置との間の距離d2(d1>d2)を十分に小さくし、フレアの視認性を抑えることが可能となる。
 以上説明したように、本実施の形態に係る撮像装置1では、切欠部Cに埋込膜35を埋設するようにしたので、接合部材34を用いて切欠部Cを埋める場合に比べて、接合部材34の厚み(厚みt2)を小さくすることができる。したがって、半導体基板21(センサチップ20)と保護部材40との間で反射された光(反射光LR)の広がりを小さくすることができる。よって、フレア等に起因した画質の低下を抑えることが可能となる。
 また、撮像装置1では、埋込膜35が切欠部Cの深さ方向全部にわたって埋設されているので、埋込膜35を切欠部Cの深さ方向の一部に埋設する場合(例えば、後述の図11の撮像装置1A)に比べて、より効果的に接合部材34の厚みt2を小さくすることが可能となる。
 また、撮像装置1では、チップ端面が透水性の低い埋込膜35で覆われているので、端面を介した水分の浸入を抑えることができる。
 以下、上記第1の実施の形態の変形例および他の実施の形態について説明するが、以降の説明において上記実施の形態と同一構成部分については同一符号を付してその説明は適宜省略する。
<変形例1>
 図11は、上記第1の実施の形態の変形例1に係る撮像装置(撮像装置1A)の要部の模式的な断面構成を表したものである。ここでは、埋込膜35が切欠部Cの深さ方向の一部に埋設されている。この点を除き、変形例1に係る撮像装置1Aは、上記第1の実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 切欠部Cは、例えば、平坦化膜33、絶縁膜31、センサチップ20およびロジックチップ10に設けられている。切欠部Cの底面は、例えば、半導体基板11の厚み方向の途中に設けられている。切欠部Cの断面形状は、例えば矩形である(図11)。切欠部Cは、矩形以外の断面形状を有していてもよい(図3,図4参照)。埋込膜35の高さ(Z軸方向の大きさ)は、切欠部Cの深さよりも小さくなっており、埋込膜35の表面は、例えば、半導体基板21内に設けられている。即ち、Z軸方向において、埋込膜35の表面は、平坦化膜33の表面よりも切欠部Cの底面に近い位置に配置されている。切欠部Cには、底面側から埋込膜35および接合部材34がこの順に埋設されている。
 このような撮像装置1Aは、例えば、以下のようにして製造することができる(図12A,図12B)。
 まず、上記第1の実施の形態で説明したのと同様にして、平坦化膜33から半導体基板11まで掘りこむことにより、溝Vを形成する(図6B)。例えば、矩形の断面形状を有する溝Vを形成する。上記第1の実施の形態で説明したのと同様に、絶縁膜31から半導体基板11に向かうに連れて、徐々に、あるいは段階的に幅の小さくなる形状を有する溝Vを形成するようにしてもよい(図7,図8)。
 次いで、図12Aに示したように、溝Vの深さ方向の一部を埋めるようにして埋込膜35を形成する。埋込膜35は、例えば、塗布法を用いて、樹脂等の有機絶縁材料を成膜することにより形成する。有機絶縁材料としては、例えばシロキサンおよびエポキシ樹脂等が挙げられる。
 埋込膜35を形成した後、図12Bに示したように、保護部材40をセンサウエハ20Wに貼り合わせる。保護部材40は、接合部材34を用いて貼り合わせる。ここでは、溝Vの深さ方向の一部が埋込膜35で埋められているので、溝Vの深さ方向の全部に接合部材34を埋め込む場合に比べて、接合部材34の厚みが小さくなる。
 センサウエハ20Wに保護部材40を貼り合わせた後は、上記第1の実施の形態で説明したのと同様にして、撮像装置1Aを製造することができる。
 本変形例に係る撮像装置1Aは、切欠部Cの深さ方向の一部に埋込膜35が埋設されているので、切欠部Cの深さ方向の全部に接合部材34を埋設する場合に比べて、接合部材34の厚みが小さくなる。よって、フレア等に起因した画質の低下を抑えることが可能となる。また、撮像装置1Aでは、溝Vの深さ方向の一部に埋込膜35を成膜すればよいので(図12A)、埋込膜35および平坦化膜33の平坦化工程(例えば、撮像装置1の図6Dの工程)が不要となる。したがって、平坦化工程に起因した製造コストを抑えることができる。加えて、平坦化工程に起因した画素部200Pの劣化が抑えられるので、ノイズの発生等を抑え、画質をより向上させることが可能となる。
<変形例2>
 図13は、上記第1の実施の形態の変形例2に係る撮像装置(撮像装置1B)の要部の断面構成を模式的に表したものである。ここでは、平坦化膜33が、切欠部Cに埋設されている。この点を除き、変形例2に係る撮像装置1Bは、上記第1の実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 平坦化膜33は、マイクロレンズ32を覆うとともに、例えば、切欠部Cの深さ方向の全部にわたって埋設されている。切欠部Cの断面形状は、例えば矩形である(図13)。切欠部Cは、矩形以外の断面形状を有していてもよい(図3,図4参照)。平坦化膜33は、例えば、マイクロレンズ32上から切欠部Cの内部まで連続して設けられている。即ち、この平坦化膜33は、半導体基板21の光入射面21Sを平坦化する機能とともに、切欠部Cの埋込膜としての機能を担っている。換言すれば、平坦化膜33の構成材料が、埋込膜の構成材料と同じになっている。ここでは、平坦化膜33が、本開示の埋込膜の一具体例に対応する。
 平坦化膜33の構成材料の屈折率は、マイクロレンズ32の構成材料の屈折率よりも低くなっていることが好ましい。これにより、マイクロレンズ32に入射した光が、効率的にPD211に集光される。例えば、マイクロレンズ32の構成材料が、シリコン窒化膜(屈折率1.8)であるとき、平坦化膜33の構成材料には、シロキサン(屈折率1.4)を用いることができる。
 このような撮像装置1Bは、例えば、以下のようにして製造することができる(図14A~図14D)。
 まず、図14Aに示したように、半導体基板11および多層配線層12を含むロジックウエハ10Wと、半導体基板21および多層配線層(図示せず)を含むセンサウエハ20Wとを接合して接合面Sを形成する。半導体基板21には、PD211を形成しておく。また、半導体基板21の光入射面21Sには、絶縁膜31およびマイクロレンズ32を形成しておく。
 次に、図14Bに示したように、隣り合うチップ領域Aの間のスクライブラインに、溝Vを形成する。溝Vは、例えば、絶縁膜31の表面からセンサウエハ20Wおよび多層配線層12を貫通させた後、半導体基板11の厚み方向の途中まで掘りこんで形成する。例えば、矩形の断面形状を有する溝Vを形成する。上記第1の実施の形態で説明したのと同様に、絶縁膜31から半導体基板11に向かうに連れて、徐々に、あるいは段階的に幅の小さくなる形状を有する溝Vを形成するようにしてもよい(図7,図8参照)。
 溝Vを形成した後、図14Cに示したように、マイクロレンズ32上から、溝Vを埋め込むように平坦化膜33を形成する。平坦化膜33は、例えば、CVD法または塗布法を用いてシロキサンを成膜することにより形成する。
 平坦化膜33を成膜した後、図14Dに示したように、平坦化膜33を間にしてセンサウエハ20Wに、保護部材40を貼り合わせる。保護部材40は、接合部材34を用いてセンサウエハ20Wに貼り合わせる。ここでは、溝Vが平坦化膜33で埋められているので、溝Vに接合部材34を埋め込む場合に比べて、接合部材34の厚みが小さくなる。センサウエハ20Wに保護部材40を貼り合わせる前に、平坦化膜33にCMPまたはエッチバックを施し、平坦化膜33の厚みを調整する工程を設けるようにしてもよい。
 センサウエハ20Wに保護部材40を貼り合わせた後は、上記第1の実施の形態で説明したのと同様にして、撮像装置1Bを製造することができる。
 本変形例に係る撮像装置1Bは、切欠部Cに平坦化膜33が埋設されているので、切欠部Cに接合部材34を埋設する場合に比べて、接合部材34の厚みが小さくなる。よって、フレア等に起因した画質の低下を抑えることが可能となる。また、撮像装置1Bでは、平坦化膜33がマイクロレンズ32を覆うとともに、溝Vに埋め込まれているので、平坦化膜33の形成工程と溝Vに埋込膜を形成する工程(図6C参照)とを別々に行う場合に比べて、工程数を減らすことが可能となる。したがって、製造コストを抑えることができる。
<第2の実施の形態>
 図15は、本開示の第2の実施の形態に係る撮像装置(撮像装置2)の要部の断面構成を模式的に表したものである。撮像装置2は、平坦化膜33、絶縁膜31およびセンサチップ20を貫通してパッド電極12Mに達する孔部Mを有しており、この孔部Mに導電性の埋込膜(埋込膜15)が埋設されている。即ち、上記第1の実施の形態の切欠部C(図1)に代えて、孔部Mを有している。この点を除き、第2の実施の形態に係る撮像装置1は、上記第1の実施の形態の撮像装置1と同様の構成を有し、その作用および効果も同様である。
 図16は、平坦化膜33とともに、孔部Mの平面構成の一例を模式的に表している。図16に示したXXV-XXV’線に沿った断面構成が、図15に対応する。撮像装置2は、画素部200Pの外側に複数の孔部Mを有している。複数の孔部Mは、互いに離間して配置されている。複数の孔部Mは各々、例えば、四角形の平面形状を有している。例えば、複数の孔部Mは、平面視で画素部200Pを囲むように配置されている。複数の孔部Mは各々、例えば円等、四角形以外の平面形状を有していてもよい。
 詳細は後述するが、孔部Mおよび埋込膜15は、撮像装置2の製造工程中、例えばウエハ状態での針を用いた検査を行うためのものである。孔部Mは、例えば、平坦化膜33、絶縁膜31、センサチップ20および多層配線層12(ロジックチップ10)に設けられている。孔部Mは、例えば、平坦化膜33から多層配線層12のパッド電極12Mまでを掘りこむことにより形成されたものであり(後述の図18Aの孔部M)、孔部Mの底面ではパッド電極12Mが露出されている。孔部Mは、例えば矩形の断面形状を有している。孔部Mは、矩形以外の断面形状を有していてもよい。例えば、孔部Mの幅が、平坦化膜33から多層配線層12に向かうに連れて、徐々に、あるいは段階的に小さくなっていてもよい(図3,図4参照)。孔部Mは、例えば、孔Hに対向する位置に配置されている。
 埋込膜15は、例えば、孔部Mの深さ方向の全部にわたって埋設されており、平坦化膜33の表面(接合部材34側の面)と、埋込膜15の表面とは、略同一平面に設けられている。埋込膜15は、例えば、導電性の金属材料を含んでいる。導電性の金属材料としては、例えば、アルミニウム(Al)、銅(Cu)およびニッケル(Ni)等が挙げられる。埋込膜15は、パッド電極12Mに電気的に接続されている。例えば、パッド電極12に接続された配線を設け、この配線に埋込膜15を接続するようにしてもよい。このとき、孔部Mは、孔Hに対向する位置からずれた位置に配置されていてもよい。
 図17は、撮像装置2の要部の断面構成の他の例を表している。このように、埋込膜15は、孔部Mの深さ方向の一部に埋設されていてもよい。このとき、埋込膜15の高さは、孔部Mの深さよりも小さくなっており、埋込膜15の表面は、例えば、半導体基板21内に設けられている。即ち、Z軸方向において、埋込膜15の表面は、平坦化膜33の表面よりも孔部Mの底面(パッド電極12M)に近い位置に配置されている。孔部Mには、底面側から埋込膜15および接合部材34がこの順に埋設されている。
 このような撮像装置2は、例えば、以下のようにして製造することができる(図18A,図18B)。
 まず、上記第1の実施の形態で説明したのと同様にして、半導体基板11および多層配線層12を含むロジックウエハ10Wと、半導体基板21および多層配線層(図示せず)を含むセンサウエハ20Wとを接合して接合面Sを形成する。半導体基板21には、PD211を形成しておく。また、半導体基板21の光入射面21Sには、絶縁膜31およびマイクロレンズ32を形成しておく(図6A)。
 次いで、図18Aに示したように、平坦化膜33からパッド電極12Mに達する孔部Mを複数形成する。続いて、図18Bに示したように、選択的に孔部Mに埋設されるように、埋込膜15を成膜する。埋込膜15は、例えば、めっき法を用いて金属材料を成膜することにより形成する。これにより、パッド電極12Mに電気的に接続された埋込膜15が形成される。例えば、埋込膜15は、孔部Mの深さ方向の全部を埋めるようにして形成する。埋込膜15は、孔部Mの深さ方向の一部を埋めるようにして形成するようにしてもよい。
 埋込膜15を形成した後、例えば、埋込膜15の表面にプローブ針を当てて、ウエハ状態での検査を行う。これにより、動作不良等の発見が可能となる。
 埋込膜15を形成した後、保護部材40をセンサウエハ20Wに貼り合わせる。保護部材40は、接合部材34を用いて貼り合わせる(図6E参照)。ここでは、孔部Mが埋込膜15で埋められているので、孔部Mに接合部材34を埋め込む場合に比べて、接合部材34の厚みが小さくなる。
 センサウエハ20Wに保護部材40を貼り合わせた後は、上記第1の実施の形態で説明したのと同様にして、撮像装置2を製造することができる。
 本実施の形態に係る撮像装置2は、孔部Mに埋込膜15が埋設されているので、孔部Mに接合部材34を埋設する場合に比べて、接合部材34の厚みが小さくなる。よって、フレア等に起因した画質の低下を抑えることが可能となる。また、撮像装置2では、孔部Mに金属材料からなる埋込膜15を埋設することが可能となる。これにより、孔部Mに対向する位置に孔Hを形成するための強度を維持しやすくなる。更に、ウエハ状態で検査を行う際には、埋込膜15の表面に針が当てられる。このため、厚い埋込膜15が、針当てに起因した衝撃を緩和し、針当てに起因した各部の劣化を抑えることが可能となる。
<変形例3>
 図19は、上記第2の実施の形態の変形例4に係る撮像装置(撮像装置2A)の要部の断面構成を模式的に表したものである。この撮像装置2Aは、画素部200Pの外側に、孔部Mおよび切欠部Cを有している。切欠部Cには、埋込膜35が埋設されている。即ち、この撮像装置2Aは、埋込膜15が埋設された孔部Mと、埋込膜35が埋設された切欠部Cとを有している。この点を除き、変形例3に係る撮像装置2Aは、上記第2の実施の形態の撮像装置2と同様の構成を有し、その作用および効果も同様である。
 切欠部Cは、上記第1の実施の形態で説明したのと同様に、例えば、平坦化膜33から半導体基板11の厚み方向の途中までを掘りこむことにより形成されたものである(後述の図20の溝V)。切欠部Cは、撮像装置2の周縁に設けられている。切欠部Cの断面形状は、例えば矩形である(図19)。切欠部Cは、矩形以外の断面形状を有していてもよい(図3,図4参照)。切欠部Cに埋設された埋込膜35は、上記第1の実施の形態で説明したのと同様に、例えば、透水性の低い絶縁材料により構成されている。
 このような撮像装置2Aは、例えば、以下のようにして製造することができる(図20)。
 まず、上記第2の実施の形態で説明したのと同様にして、埋込膜15までを形成する(図18B)。次いで、図20に示したように、隣り合うチップ領域Aの間のスクライブラインに、溝Vを形成する。溝Vは、例えば、平坦化膜33の表面から絶縁膜31、センサウエハ20Wおよび多層配線層12を貫通させた後、半導体基板11の厚み方向の途中まで掘りこんで形成する。溝Vを形成した後、埋込膜35を形成する(図6C参照)。
 埋込膜35を形成した後は、上記第1の実施の形態で説明したのと同様にして、撮像装置2Aを製造することができる。
 本変形例に係る撮像装置2Aは、孔部Mに埋込膜15が、切欠部Cに埋込膜35が各々埋設されているので、孔部Mおよび切欠部Cに接合部材34を埋設する場合に比べて、接合部材34の厚みが小さくなる。
<適用例>
 本技術は、撮像装置への適用に限られるものではなく、デジタルスチルカメラやビデオカメラ等の撮像装置や、携帯電話機などの撮像機能を有する携帯端末装置や、画像読取部に撮像装置を用いる複写機など、画像取込部(光電変換部)に撮像装置を用いる電子機器全般に対して適用可能である。なお、電子機器に搭載されるモジュール状の形態、即ちカメラモジュールを撮像装置とする場合もある。
 図21は、本開示の電子機器の一例である電子機器2000の構成例を示すブロック図である。電子機器2000は、例えば、デジタルスチルカメラ、ビデオカメラおよび携帯電話機等のモバイル機器向けカメラモジュールである。図21に示すように、本開示の電子機器2000は、レンズ群2001等を含む光学部、撮像装置1,1A,1B,2,2A(以下、まとめて撮像装置1という)、カメラ信号処理部であるDSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007、及び、電源部2008等を有している。
 そして、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、操作部2007、及び、電源部2008がバスライン2009を介して相互に接続された構成となっている。
 レンズ群2001は、被写体からの入射光(像光)を取り込んで撮像装置1の撮像面上に結像する。撮像装置1は、レンズ群2001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。
 表示部2005は、液晶表示装置や有機EL(electro luminescence)表示装置等のパネル型表示装置からなり、撮像装置1で撮像された動画または静止画を表示する。記録部2006は、固体撮像素子2002で撮像された動画または静止画を、DVD(Digital Versatile Disk)等の記録媒体に記録する。
 操作部2007は、ユーザによる操作の下に、本撮像装置が持つ様々な機能について操作指令を発する。電源部2008は、DSP回路2003、フレームメモリ2004、表示部2005、記録部2006、及び、操作部2007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
<体内情報取得システムへの応用例>
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図22は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図22では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更
されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
<内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図23は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図23では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図24は、図23に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<移動体への応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図25は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図25に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図25の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図26は、撮像部12031の設置位置の例を示す図である。
 図26では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図26には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 以上、実施の形態および変形例を挙げて説明したが、本開示内容は上記実施の形態等に限定されるものではなく、種々変形が可能である。例えば、上記実施の形態等において説明した撮像装置の構成は一例であり、更に他の層を備えていてもよい。また、各層の材料や厚みも一例であって、上述のものに限定されるものではない。
 また、上記第1の実施の形態では、切欠部Cが、平坦化膜33から半導体基板11にかけて設けられている場合について説明したが、切欠部Cは少なくとも絶縁膜31の厚み方向にわたって設けられていればよい。例えば、切欠部Cが平坦化膜33および絶縁膜31の厚み方向にわたって設けられており、切欠部Cの底面に半導体基板21の光入射面21Sが露出されていてもよい。あるいは、切欠部Cが平坦化膜33から半導体基板21にかけて設けられており、切欠部Cの底面が半導体基板21内に設けられていてもよい。
 また、上記第1の実施の形態では、チップ端面からの水分の浸入を抑えるために切欠部Cを設ける場合について説明し、上記第2の実施の形態では、ウエハ状態での検査を行うために孔部Mを設ける場合について説明した。しかし、本開示の切欠部および孔部の機能はこれに限定されるものではない。本開示の切欠部および孔部の形状および配置等は、上記実施の形態等で説明したものに限定されない。
 また、上記実施の形態等では、半導体基板11の孔Hに再配線51を設ける場合(図2等)について説明したが、孔Hを、再配線51とは別の導電体により埋め込み、この導電体を再配線51に接続するようにしてもよい。
 また、上記実施の形態等では、撮像装置1が、2つの積層されたチップ(ロジックチップ10およびセンサチップ20)を有する例(図2等)について説明した。この他、撮像装置1は、3つ以上の積層されたチップを有していてもよい。
 上記実施の形態等において説明した効果は一例であり、他の効果であってもよいし、更に他の効果を含んでいてもよい。
 尚、本開示は、以下のような構成であってもよい。以下の構成を有する撮像装置によれば、切欠部および孔部の少なくとも一方の深さ方向の少なくとも一部に、接合部材の構成材料とは異なる構成材料を含む埋込膜を埋設するようにしたので、接合部材を用いて切欠部または孔部を埋める場合に比べて、保護部材と絶縁膜との間の接合部材の厚みを小さくすることができる。したがって、半導体基板と保護部材との間で反射された光の広がりを小さくすることができる。よって、フレア等に起因した画質の低下を抑えることが可能となる。
(1)
 光入射面を有するとともに、光電変換部が設けられた第1半導体基板と、
 前記第1半導体基板の光入射面と反対側に設けられた第2半導体基板と、
 前記第1半導体基板の光入射面側に設けられた絶縁膜と、
 少なくとも前記絶縁膜の厚み方向にわたる、切欠部および孔部の少なくとも一方と、
 前記切欠部および前記孔部の少なくとも一方の深さ方向の少なくとも一部に埋設された埋込膜と、
 前記絶縁膜を間にして前記第1半導体基板に対向する保護部材と、
 前記埋込膜の構成材料と異なる材料を含み、かつ、前記保護部材と前記絶縁膜との間に設けられた接合部材と
 を備えた撮像装置。
(2)
 前記切欠部が、前記絶縁膜の周縁に設けられ、前記絶縁膜および前記第1半導体基板を貫通している
 前記(1)に記載の撮像装置。
(3)
 前記埋込膜が絶縁材料を含む
 前記(2)に記載の撮像装置。
(4)
 更に、前記絶縁膜を間にして前記光電変換部に対向するレンズと、
 前記レンズを覆うとともに、前記埋込膜の材料と同じ材料により構成された平坦化膜とを有する
 前記(1)ないし(3)のうちいずれか1つに記載の撮像装置。
(5)
 前記平坦化膜および前記埋込膜の材料の屈折率は、前記レンズの材料の屈折率よりも低い
 前記(4)に記載の撮像装置。
(6)
 更に、前記第1半導体基板と前記第2半導体基板との間に設けられたパッド電極を有し、
 前記孔部が、前記絶縁膜および前記第1半導体基板を貫通して前記パッド電極に達する
 前記(1)ないし(5)のうちいずれか1つに記載の撮像装置。
(7)
 前記埋込膜が導電性材料を含む
 前記(6)に記載の撮像装置。
(8)
 前記埋込膜が金属材料を含む
 前記(6)または(7)に記載の撮像装置。
(9)
 更に、前記パッド電極が設けられた多層配線層を有する
 前記(6)ないし(8)のうちいずれか1つに記載の撮像装置。
(10)
 更に、前記パッド電極に電気的に接続されるとともに、前記第2半導体基板の前記多層配線層と反対側の面に設けられた外部接続端子を有する
 前記(9)に記載の撮像装置。
(11)
 前記埋込膜が、前記切欠部および前記孔部の少なくとも一方の深さ方向全部にわたって埋設されている
 前記(1)ないし(10)のうちいずれか1つに記載の撮像装置。
(12)
 前記埋込膜が、前記切欠部および前記孔部の少なくとも一方の深さ方向の一部に埋設されている
 前記(1)ないし(10)のうちいずれか1つに記載の撮像装置。
(13)
 前記埋込膜が埋設された前記切欠部および前記孔部を有する
 前記(1)ないし(12)のうちいずれか1つに記載の撮像装置。
(14)
 前記切欠部または前記孔部の少なくとも一方は、前記深さ方向で徐々に幅が小さくなっている
 前記(1)ないし(13)のうちいずれか1つに記載の撮像装置。
(15)
 前記切欠部または前記孔部の少なくとも一方は、前記深さ方向で段階的に幅が小さくなっている
 前記(1)ないし(14)のうちいずれか1つに記載の撮像装置。
 本出願は、日本国特許庁において2019年6月4日に出願された日本特許出願番号2019-104223号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (15)

  1.  光入射面を有するとともに、光電変換部が設けられた第1半導体基板と、
     前記第1半導体基板の光入射面と反対側に設けられた第2半導体基板と、
     前記第1半導体基板の光入射面側に設けられた絶縁膜と、
     少なくとも前記絶縁膜の厚み方向にわたる、切欠部および孔部の少なくとも一方と、
     前記切欠部および前記孔部の少なくとも一方の深さ方向の少なくとも一部に埋設された埋込膜と、
     前記絶縁膜を間にして前記第1半導体基板に対向する保護部材と、
     前記埋込膜の構成材料と異なる材料を含み、かつ、前記保護部材と前記絶縁膜との間に設けられた接合部材と
     を備えた撮像装置。
  2.  前記切欠部が、前記絶縁膜の周縁に設けられ、前記絶縁膜および前記第1半導体基板を貫通している
     請求項1に記載の撮像装置。
  3.  前記埋込膜が絶縁材料を含む
     請求項2に記載の撮像装置。
  4.  更に、前記絶縁膜を間にして前記光電変換部に対向するレンズと、
     前記レンズを覆うとともに、前記埋込膜の材料と同じ材料により構成された平坦化膜とを有する
     請求項1に記載の撮像装置。
  5.  前記平坦化膜および前記埋込膜の材料の屈折率は、前記レンズの材料の屈折率よりも低い
     請求項4に記載の撮像装置。
  6.  更に、前記第1半導体基板と前記第2半導体基板との間に設けられたパッド電極を有し、
     前記孔部が、前記絶縁膜および前記第1半導体基板を貫通して前記パッド電極に達する
     請求項1に記載の撮像装置。
  7.  前記埋込膜が導電性材料を含む
     請求項6に記載の撮像装置。
  8.  前記埋込膜が金属材料を含む
     請求項6に記載の撮像装置。
  9.  更に、前記パッド電極が設けられた多層配線層を有する
     請求項6に記載の撮像装置。
  10.  更に、前記パッド電極に電気的に接続されるとともに、前記第2半導体基板の前記多層配線層と反対側の面に設けられた外部接続端子を有する
     請求項9に記載の撮像装置。
  11.  前記埋込膜が、前記切欠部および前記孔部の少なくとも一方の深さ方向全部にわたって埋設されている
     請求項1に記載の撮像装置。
  12.  前記埋込膜が、前記切欠部および前記孔部の少なくとも一方の深さ方向の一部に埋設されている
     請求項1に記載の撮像装置。
  13.  前記埋込膜が埋設された前記切欠部および前記孔部を有する
     請求項1に記載の撮像装置。
  14.  前記切欠部または前記孔部の少なくとも一方は、前記深さ方向で徐々に幅が小さくなっている
     請求項1に記載の撮像装置。
  15.  前記切欠部または前記孔部の少なくとも一方は、前記深さ方向で段階的に幅が小さくなっている
     請求項1に記載の撮像装置。
PCT/JP2020/020846 2019-06-04 2020-05-27 撮像装置 WO2020246323A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/614,080 US20220231057A1 (en) 2019-06-04 2020-05-27 Imaging device
CN202080033088.0A CN113785399A (zh) 2019-06-04 2020-05-27 摄像装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-104223 2019-06-04
JP2019104223A JP2020198374A (ja) 2019-06-04 2019-06-04 撮像装置

Publications (1)

Publication Number Publication Date
WO2020246323A1 true WO2020246323A1 (ja) 2020-12-10

Family

ID=73649648

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/020846 WO2020246323A1 (ja) 2019-06-04 2020-05-27 撮像装置

Country Status (4)

Country Link
US (1) US20220231057A1 (ja)
JP (1) JP2020198374A (ja)
CN (1) CN113785399A (ja)
WO (1) WO2020246323A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022202015A1 (ja) * 2021-03-24 2022-09-29 ソニーセミコンダクタソリューションズ株式会社 半導体装置、半導体装置製造方法
WO2023007679A1 (ja) * 2021-07-29 2023-02-02 オリンパス株式会社 撮像ユニット、内視鏡、および、撮像ユニットの製造方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009016405A (ja) * 2007-06-30 2009-01-22 Zycube:Kk 固体撮像装置
JP2009064839A (ja) * 2007-09-04 2009-03-26 Panasonic Corp 光学デバイス及びその製造方法
JP2009283902A (ja) * 2008-04-25 2009-12-03 Panasonic Corp 光学デバイスとこれを備えた電子機器
JP2011146633A (ja) * 2010-01-18 2011-07-28 Sony Corp 固体撮像素子の製造方法
JP2013041878A (ja) * 2011-08-11 2013-02-28 Sony Corp 撮像装置およびカメラモジュール
JP2015135938A (ja) * 2013-12-19 2015-07-27 ソニー株式会社 半導体装置、半導体装置の製造方法、及び電子機器
JP2015159275A (ja) * 2014-01-27 2015-09-03 ソニー株式会社 撮像素子、製造装置、製造方法
WO2017014072A1 (ja) * 2015-07-23 2017-01-26 ソニー株式会社 半導体装置およびその製造方法、並びに電子機器
JP2017073436A (ja) * 2015-10-06 2017-04-13 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および電子装置
JP2017130610A (ja) * 2016-01-22 2017-07-27 ソニー株式会社 イメージセンサ、製造方法、及び、電子機器
JP2018061000A (ja) * 2016-09-30 2018-04-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子及び撮像装置

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009016405A (ja) * 2007-06-30 2009-01-22 Zycube:Kk 固体撮像装置
JP2009064839A (ja) * 2007-09-04 2009-03-26 Panasonic Corp 光学デバイス及びその製造方法
JP2009283902A (ja) * 2008-04-25 2009-12-03 Panasonic Corp 光学デバイスとこれを備えた電子機器
JP2011146633A (ja) * 2010-01-18 2011-07-28 Sony Corp 固体撮像素子の製造方法
JP2013041878A (ja) * 2011-08-11 2013-02-28 Sony Corp 撮像装置およびカメラモジュール
JP2015135938A (ja) * 2013-12-19 2015-07-27 ソニー株式会社 半導体装置、半導体装置の製造方法、及び電子機器
JP2015159275A (ja) * 2014-01-27 2015-09-03 ソニー株式会社 撮像素子、製造装置、製造方法
WO2017014072A1 (ja) * 2015-07-23 2017-01-26 ソニー株式会社 半導体装置およびその製造方法、並びに電子機器
JP2017073436A (ja) * 2015-10-06 2017-04-13 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子、および電子装置
JP2017130610A (ja) * 2016-01-22 2017-07-27 ソニー株式会社 イメージセンサ、製造方法、及び、電子機器
JP2018061000A (ja) * 2016-09-30 2018-04-12 ソニーセミコンダクタソリューションズ株式会社 固体撮像素子及び撮像装置

Also Published As

Publication number Publication date
JP2020198374A (ja) 2020-12-10
CN113785399A (zh) 2021-12-10
US20220231057A1 (en) 2022-07-21

Similar Documents

Publication Publication Date Title
WO2017159174A1 (ja) 固体撮像装置、及び、固体撮像装置の製造方法
US11784147B2 (en) Semiconductor device and manufacturing method of semiconductor device
US11715751B2 (en) Solid-state imaging element, electronic apparatus, and semiconductor device
JP2019040893A (ja) 固体撮像装置およびその製造方法、並びに電子機器
JPWO2020137285A1 (ja) 撮像素子および撮像素子の製造方法
WO2020246323A1 (ja) 撮像装置
US20210111213A1 (en) Imaging device
WO2021193266A1 (ja) 固体撮像装置
WO2020195564A1 (ja) 撮像装置
TWI821431B (zh) 半導體元件及其製造方法
WO2019188131A1 (ja) 半導体装置および半導体装置の製造方法
US20220005853A1 (en) Semiconductor device, solid-state imaging device, and electronic equipment
US20230335574A1 (en) Imaging device
JP7136800B2 (ja) 半導体装置および半導体装置の製造方法、並びに撮像装置
WO2021140936A1 (ja) 受光装置
JP7422676B2 (ja) 撮像装置
US20240153982A1 (en) Semiconductor device and imaging device
WO2021049142A1 (ja) 固体撮像装置
WO2019230243A1 (ja) 撮像装置
JPWO2020059495A1 (ja) 撮像素子、半導体素子および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20818840

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20818840

Country of ref document: EP

Kind code of ref document: A1