WO2021010050A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2021010050A1
WO2021010050A1 PCT/JP2020/022281 JP2020022281W WO2021010050A1 WO 2021010050 A1 WO2021010050 A1 WO 2021010050A1 JP 2020022281 W JP2020022281 W JP 2020022281W WO 2021010050 A1 WO2021010050 A1 WO 2021010050A1
Authority
WO
WIPO (PCT)
Prior art keywords
image sensor
glass substrate
solid
region
light
Prior art date
Application number
PCT/JP2020/022281
Other languages
English (en)
French (fr)
Inventor
湯川 昌彦
小野 章吾
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/597,372 priority Critical patent/US20220262839A1/en
Publication of WO2021010050A1 publication Critical patent/WO2021010050A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"

Definitions

  • the present disclosure relates to a solid-state image sensor and an electronic device.
  • the end surface of the glass substrate that protects the light receiving surface of the solid-state image sensor approaches the element forming region of the solid-state image sensor, the light incident from the end surface of the glass substrate is emitted.
  • the image quality deteriorates due to a flare phenomenon (hereinafter referred to as glass end face flare) in which the sharpness of a part or the whole of the image is impaired due to the incident on the light receiving region of the solid-state image sensor. Occurs.
  • the present disclosure proposes a solid-state image sensor and an electronic device capable of suppressing deterioration of image quality.
  • the solid-state image sensor includes a semiconductor substrate having a light receiving element in a first region on a first surface and a glass substrate facing the first surface of the semiconductor substrate.
  • the second region in the glass substrate that surrounds the first region of the semiconductor substrate, and the substrate thickness direction of the semiconductor substrate is provided in the third region, and has a layer having different physical properties with respect to visible light from the glass substrate.
  • FIG. 1 is a block diagram showing a schematic configuration example of an electronic device equipped with the solid-state image sensor according to the first embodiment.
  • the electronic device 1000 includes, for example, an image pickup lens 1020, a solid-state image pickup device 100, a storage unit 1030, and a processor 1040.
  • the image pickup lens 1020 is an example of an optical system that collects incident light and forms an image on the light receiving surface of the solid-state image sensor 100.
  • the light receiving surface may be a surface on which the photoelectric conversion elements in the solid-state image sensor 100 are arranged.
  • the solid-state image sensor 100 generates image data by photoelectrically converting the incident light. Further, the solid-state image sensor 100 executes predetermined signal processing such as noise removal and white balance adjustment on the generated image data.
  • the storage unit 1030 is composed of, for example, a flash memory, a DRAM (Dynamic Random Access Memory), a SRAM (Static Random Access Memory), or the like, and records image data or the like input from the solid-state imaging device 100.
  • the processor 1040 may include, for example, an application processor configured by using a CPU (Central Processing Unit) or the like and executing an operating system, various application software, or the like, a GPU (Graphics Processing Unit), a baseband processor, or the like.
  • the processor 1040 executes various processes as necessary for the image data input from the solid-state image sensor 100, the image data read from the storage unit 1030, and the like, executes display to the user, and performs a predetermined network. It is sent to the outside via.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • FIG. 2 is a block diagram showing a schematic configuration example of a CMOS (Complementary Metal-Oxide-Semiconductor) type solid-state image sensor (hereinafter, simply referred to as an image sensor) according to the first embodiment.
  • CMOS Complementary Metal-Oxide-Semiconductor
  • the CMOS type image sensor is an image sensor created by applying or partially using a CMOS process.
  • the image sensor 100 according to the first embodiment may be a so-called back-illuminated type in which the incident surface is a surface (hereinafter referred to as a back surface) opposite to the element forming surface of the semiconductor substrate, or the front surface side. It may be a so-called surface irradiation type.
  • the image sensor 100 includes, for example, a pixel array unit 101, a vertical drive circuit 102, a column processing circuit 103, a horizontal drive circuit 104, a system control unit 105, and a signal processing unit 108.
  • a data storage unit 109 is provided.
  • the vertical drive circuit 102, the column processing circuit 103, the horizontal drive circuit 104, the system control unit 105, the signal processing unit 108, and the data storage unit 109 are also referred to as peripheral circuits.
  • unit pixels (hereinafter, may be simply referred to as “pixels”) 110 having a photoelectric conversion element that generates and accumulates electric charges according to the amount of received light are arranged in the row direction and the column direction, that is, , Has a configuration in which two-dimensional grids (hereinafter referred to as matrixes) are arranged in a matrix.
  • the row direction means the arrangement direction of the pixels in the pixel row (in the drawing, the horizontal direction)
  • the column direction means the arrangement direction of the pixels in the pixel row (in the drawing, the vertical direction).
  • the pixel drive line LD is wired along the row direction for each pixel row and the vertical signal line VSL is wired along the column direction for each pixel row in the matrix-like pixel array.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the pixel.
  • the pixel drive lines LD are shown as wiring one by one, but the wiring is not limited to one by one.
  • One end of the pixel drive line LD is connected to the output end corresponding to each line of the vertical drive circuit 102.
  • the vertical drive circuit 102 is composed of a shift register, an address decoder, and the like, and drives each pixel of the pixel array unit 101 simultaneously for all pixels or in units of rows. That is, the vertical drive circuit 102, together with the system control unit 105 that controls the vertical drive circuit 102, constitutes a drive unit that controls the operation of each pixel of the pixel array unit 101. Although the specific configuration of the vertical drive circuit 102 is not shown, it generally includes two scanning systems, a read scanning system and a sweep scanning system.
  • the read-out scanning system selectively scans the unit pixels of the pixel array unit 101 row by row in order to read a signal from the unit pixels.
  • the signal read from the unit pixel is an analog signal.
  • the sweep-out scanning system performs sweep-out scanning for the read-out row on which read-out scanning is performed by the read-out scanning system, ahead of the read-out scan by the exposure time.
  • the photoelectric conversion element is reset by sweeping out unnecessary charges from the photoelectric conversion element of the unit pixel of the read line. Then, the so-called electronic shutter operation is performed by sweeping (resetting) unnecessary charges with this sweep scanning system.
  • the electronic shutter operation refers to an operation of discarding the electric charge of the photoelectric conversion element and starting a new exposure (starting the accumulation of electric charge).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light received after the read operation or the electronic shutter operation immediately before that. Then, the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the charge accumulation period (also referred to as the exposure period) in the unit pixel.
  • the signal output from each unit pixel of the pixel row selectively scanned by the vertical drive circuit 102 is input to the column processing circuit 103 through each of the vertical signal lines VSL for each pixel column.
  • the column processing circuit 103 performs predetermined signal processing on the signal output from each pixel in the selected row through the vertical signal line VSL for each pixel column of the pixel array unit 101, and temporarily processes the pixel signal after the signal processing. Hold the target.
  • the column processing circuit 103 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing and DDS (Double Data Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • DDS Double Data Sampling
  • the CDS process removes pixel-specific fixed pattern noise such as reset noise and threshold variation of the amplification transistor in the pixel.
  • the column processing circuit 103 also has, for example, an AD (analog-digital) conversion function, and converts an analog pixel signal read from a photoelectric conversion element into a digital signal and outputs the signal.
  • AD analog-digital
  • the horizontal drive circuit 104 is composed of a shift register, an address decoder, and the like, and reads out circuits (hereinafter, referred to as pixel circuits) corresponding to the pixel strings of the column processing circuit 103 are sequentially selected. By the selective scanning by the horizontal drive circuit 104, the pixel signals that have been signal-processed for each pixel circuit in the column processing circuit 103 are sequentially output.
  • the system control unit 105 is configured by a timing generator or the like that generates various timing signals, and based on the various timings generated by the timing generator, the vertical drive circuit 102, the column processing circuit 103, and the horizontal drive circuit 104. Drive control such as.
  • the signal processing unit 108 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing on the pixel signal output from the column processing circuit 103.
  • the data storage unit 109 temporarily stores the data required for the signal processing in the signal processing unit 108.
  • the image data output from the signal processing unit 108 may be, for example, executed by a processor 1040 or the like in an electronic device 1000 equipped with an image sensor 100, or transmitted to the outside via a predetermined network. You may.
  • FIG. 3 is a circuit diagram showing a schematic configuration example of a unit pixel according to the first embodiment.
  • the unit pixel 110 includes a photodiode PD, a transfer transistor 111, a reset transistor 112, an amplification transistor 113, a selection transistor 114, and a floating diffusion layer FD.
  • the selection transistor drive line LD 114 included in the pixel drive line LD is connected to the gate of the selection transistor 114, and the reset transistor drive line LD 112 included in the pixel drive line LD is connected to the gate of the reset transistor 112.
  • the transfer transistor drive line LD111 included in the pixel drive line LD is connected to the gate of 111.
  • a vertical signal line VSL having one end connected to the column processing circuit 103 is connected to the drain of the amplification transistor 113 via the selection transistor 114.
  • the reset transistor 112, the amplification transistor 113, and the selection transistor 114 are also collectively referred to as a pixel circuit.
  • the pixel circuit may include a floating diffusion layer FD and / or a transfer transistor 111.
  • the photodiode PD may be a light receiving element that photoelectrically converts the incident light.
  • the transfer transistor 111 transfers the electric charge generated in the photodiode PD.
  • the floating diffusion layer FD accumulates the electric charge transferred by the transfer transistor 111.
  • the amplification transistor 113 causes a pixel signal having a voltage value corresponding to the electric charge accumulated in the floating diffusion layer FD to appear on the vertical signal line VSL.
  • the reset transistor 112 releases the electric charge accumulated in the floating diffusion layer FD.
  • the selection transistor 114 selects the unit pixel 110 to be read.
  • the anode of the photodiode PD is grounded, and the cascade is connected to the source of the transfer transistor 111.
  • the drain of the transfer transistor 111 is connected to the source of the reset transistor 112 and the gate of the amplification transistor 113, and the nodes at these connection points form the floating diffusion layer FD.
  • the drain of the reset transistor 112 is connected to a vertical reset input line (not shown).
  • the source of the amplification transistor 113 is connected to a vertical current supply line (not shown).
  • the drain of the amplification transistor 113 is connected to the source of the selection transistor 114, and the drain of the selection transistor 114 is connected to the vertical signal line VSL.
  • the floating diffusion layer FD converts the accumulated electric charge into a voltage having a voltage value corresponding to the amount of the electric charge.
  • the floating diffusion layer FD may have, for example, a grounding capacitance.
  • the present invention is not limited to this, and the floating diffusion layer FD is added by intentionally connecting a capacitor or the like to a node to which the drain of the transfer transistor 111, the source of the reset transistor 112, and the gate of the amplification transistor 113 are connected. It may be a capacity.
  • the reset transistor 112 controls the discharge (reset) of the electric charge stored in the floating diffusion layer FD according to the reset signal RST supplied from the vertical drive circuit 102 via the reset transistor drive line LD112.
  • the transfer transistor 111 By turning on the transfer transistor 111 when the reset transistor 112 is in the ON state, in addition to the electric charge accumulated in the floating diffusion layer FD, the electric charge accumulated in the photodiode PD is discharged (reset). It is also possible to do.
  • the floating diffusion layer FD is electrically disconnected from the vertical reset input line and becomes a floating state.
  • the photodiode PD photoelectrically converts the incident light and generates an electric charge according to the amount of the light.
  • the generated charge is accumulated on the cathode side of the photodiode PD.
  • the transfer transistor 111 controls the transfer of electric charges from the photodiode PD to the floating diffusion layer FD according to the transfer control signal TRG supplied from the vertical drive circuit 102 via the transfer transistor drive line LD111.
  • the floating diffusion layer FD has a function of converting the electric charge transferred from the photodiode PD via the transfer transistor 111 into a voltage having a voltage value corresponding to the amount of the electric charge. Therefore, in the floating state in which the reset transistor 112 is turned off, the potential of the floating diffusion layer FD is modulated according to the amount of electric charge accumulated by each.
  • the amplification transistor 113 functions as an amplifier that uses the potential fluctuation of the floating diffusion layer FD connected to the gate as an input signal, and the output voltage signal appears as a pixel signal on the vertical signal line VSL via the selection transistor 114.
  • the selection transistor 114 controls the appearance of the pixel signal by the amplification transistor 113 on the vertical signal line VSL according to the selection control signal SEL supplied from the vertical drive circuit 102 via the selection transistor drive line LD114. For example, when a high level selection control signal SEL is input to the gate of the selection transistor 114, the pixel signal by the amplification transistor 113 appears on the vertical signal line VSL. On the other hand, when the Low level selection control signal SEL is input to the gate of the selection transistor 114, the appearance of the pixel signal on the vertical signal line VSL is stopped. As a result, in the vertical signal line VSL in which a plurality of unit pixels 110 are connected, it is possible to take out only the output of the selected unit pixel 110.
  • FIG. 4 is a diagram showing an example of a stacked structure of an image sensor according to the first embodiment.
  • the image sensor 100 includes a stack structure in which a light receiving chip 121 and a circuit chip 122 are stacked one above the other.
  • the light receiving chip 121 is, for example, a semiconductor chip including a pixel array unit 101 in which the photodiode PD is arranged
  • the circuit chip 122 is, for example, a semiconductor chip including the pixel circuit shown in FIG. 3 and the peripheral circuit in FIG. is there.
  • so-called direct bonding in which the respective bonding surfaces are flattened and the two are bonded by intermolecular force
  • the present invention is not limited to this, and for example, so-called Cu-Cu bonding in which copper (Cu) electrode pads formed on the bonding surfaces of each other are bonded to each other, or other bump bonding or the like can be used. ..
  • the light receiving chip 121 and the circuit chip 122 are electrically connected via, for example, a connecting portion such as a TSV (Through-Silicon Via) penetrating the semiconductor substrate.
  • Connections using TSVs include, for example, a so-called twin TSV method in which two TSVs, a TSV provided on the light receiving chip 121 and a TSV provided from the light receiving chip 121 to the circuit chip 122, are connected on the outer surface of the chip, or a light receiving method.
  • a so-called shared TSV method or the like in which both are connected by a TSV penetrating from the chip 121 to the circuit chip 122 can be adopted.
  • FIG. 5 is a cross-sectional view showing a cross-sectional structure example of the image sensor according to the first embodiment.
  • the image sensor 100 is a back-illuminated type is illustrated, but as described above, it may be a front-illuminated type.
  • the image sensor 100 includes a semiconductor substrate 131 provided with a plurality of unit pixels 110 and peripheral circuits.
  • the semiconductor substrate 131 may be, for example, a semiconductor substrate having a stack structure in which the light receiving chip 121 and the circuit chip 122 in FIG. 4 are stacked one above the other.
  • the plurality of unit pixels 110 are arranged in a matrix on the semiconductor substrate 131 on the back surface side (upper surface side in the drawing, also referred to as the first surface), for example.
  • the photodiode PD of the unit pixels 110 located at the periphery is also referred to as a light-shielding film (OPB (Optical Black) film) that blocks light in a specific wavelength band such as visible light. ) It is shielded by 135.
  • OPB Optical Black
  • each unit pixel 110 may include an on-chip lens arranged on the back surface of the semiconductor substrate 131.
  • the on-chip lens may be provided for each photodiode PD arranged on the back surface side of the semiconductor substrate 131, for example.
  • the region where the unit pixels 110 in which the photodiode PD is not covered by the OPB film 135 are arranged is defined as an effective pixel region (also referred to as the first region) 141, and the photodiode PD is covered with the OPB film 135.
  • the area where the unit pixels 110 are arranged is defined as a light-shielding area.
  • the region from the side surface of the image sensor 100 to the effective pixel region 141 on the back surface of the semiconductor substrate 131 is referred to as a peripheral region (also referred to as a second region) 142. In that case, the light-shielding region covered with the OPB film 135 is included in the peripheral region 142.
  • the effective pixel area 141 may be a rectangular area in which unit pixels 110 used for generating image data are arranged.
  • a resin layer 132 and a glass substrate 133 are provided on the back surface side (upper surface side in the drawing) of the semiconductor substrate 131. Further, on the front surface side (lower surface side in the drawing) of the semiconductor substrate 131, an electrode pad 136, a ball bump 137, and a passivation 138 are provided.
  • the glass substrate 133 is, for example, a member for protecting the back surface (corresponding to the light receiving surface) of the semiconductor substrate 131 and maintaining the physical strength of the image sensor 100.
  • the resin layer 132 is, for example, an optically transparent epoxy resin, low melting point glass, an ultraviolet curable resin, or the like, and may be an adhesive for bonding the glass substrate 133 and the semiconductor substrate 131.
  • the resin layer 132 may cover the unit pixel 110 in the effective pixel region 141, for example.
  • the junction surface between the light receiving chip 121 and the circuit chip 122 in the semiconductor substrate 131 is composed of an insulating film including wiring for connecting the unit pixel 110 and the peripheral circuit inside, respectively.
  • a wiring layer may be provided.
  • a silicon oxide film (SiO 2 ) or a silicon nitride film (SiN) can be used as the insulating film of the wiring layer.
  • the passivation 138 is a film formed by using, for example, photosensitive polyimide, polybenzoxazole (PBO), a silicone-based resin material, or the like, and has a role of protecting the surface side of the semiconductor substrate 131, the electrode pad 136, and the like. ..
  • the electrode pad 136 is configured by using a conductive material such as metal, and is electrically connected to a peripheral circuit or the like provided on the semiconductor substrate 131.
  • the ball bump 137 is, for example, a solder ball or the like provided on the exposed portion of the electrode pad 136, and is an external terminal for electrically connecting the image sensor 100 and the circuit board or the like.
  • the structure of the external terminal is not limited to the structure using the ball bump 137, and for example, a structure such as a flat pad can be adopted.
  • the peripheral region 142 of the semiconductor substrate 131 and the corresponding region (also referred to as a third region) in the substrate thickness direction of the semiconductor substrate 131 (vertical direction in the drawing; hereinafter, the vertical direction thereof will be described according to the drawing).
  • a region in which the physical properties for visible light are not processed in the glass substrate 133 (hereinafter, plain glass).
  • a layer (hereinafter referred to as a light-shielding layer) 134 different from the above) is provided along the end surface of the glass substrate 133.
  • the physical characteristics in this description may be physical characteristics related to light transmission, such as transmittance (which may be transparency), reflectance, and refractive index for visible light.
  • FIG. 6 is a perspective view for explaining glass end face flare generated in an image sensor not provided with a light-shielding layer according to the first embodiment.
  • FIG. 7 is a perspective view of an image sensor provided with a light-shielding layer according to the first embodiment.
  • the light-shielding layer 134 when the light-shielding layer 134 is not provided near the end surface of the glass substrate 133, the light L1 incident on the end surface of the glass substrate 133 is incident on the effective pixel region 141, thereby forming a part of the image. There is a possibility that the image quality may be deteriorated due to flare on the end face of the glass, which impairs the overall sharpness.
  • a light-shielding layer 134 is provided on the peripheral region 142 of the semiconductor substrate 131 and near the end surface of the glass substrate 133 along the end surface of the glass substrate 133.
  • the light-shielding layer 134a extends along the end surface 133a of the glass substrate 133 extending in the vertical direction (corresponding to the row direction of the image sensors 100 arranged in a matrix on the semiconductor wafer 131A described later) in the drawing.
  • a light-shielding layer 134b is provided along the end surface 133b of the glass substrate 133 extending in the horizontal direction (corresponding to the row direction of the image sensors 100 arranged in a matrix on the semiconductor wafer 131A described later) in the drawing. ..
  • the light-shielding layer 134 By providing the light-shielding layer 134 on the end surface of the glass substrate 133 in this way, the light L1 incident on the end surface of the glass substrate 133 is blocked by the light-shielding layer 134, and the incident on the effective pixel region 141 is reduced. Deterioration of image quality due to flare on the glass end face is suppressed.
  • FIG. 8 is an enlarged view of one corner of the image sensor according to the first embodiment.
  • the light-shielding layer 134 may penetrate the glass substrate 133 so as to reach from the upper surface to the back surface of the glass substrate 133, for example, as illustrated in FIGS. 5 and 7.
  • the end of the light-shielding layer 134 in the direction parallel to the back surface of the semiconductor substrate 131 may reach the end surface of the glass substrate 133.
  • the end of the light-shielding layer 134a may reach the end face 133a.
  • the end of the light-shielding layer 134b may reach the end face 133b.
  • a technique of forming a filament in the glass substrate 133 by irradiating the glass substrate 133 with a laser beam can be used.
  • the region of the glass substrate 133 irradiated with the laser beam L2 is a region in which the physical properties related to light transmission such as the transmittance (or transparency) for visible light, the reflectance, and the refractive index are changed from the physical properties of the raw glass. Therefore, by using the region where the physical properties have changed as the light-shielding layer 134, it is possible to effectively suppress the occurrence of flare on the glass end surface without increasing the size of the image sensor 100.
  • the method is not limited to such a method, and various methods can be adopted as long as the physical properties for visible light can be made different from the area of the raw glass in the glass substrate 133.
  • the light-shielding layer 134 does not have to be provided on all the end faces of the glass substrate 133, and may be provided on at least one end face.
  • FIGS. 9 to 12 are process cross-sectional views showing an example of a manufacturing method of the image sensor according to the first embodiment.
  • the image sensor 100 is shown at a scale different from that in FIG. 5 and the like for the purpose of clarifying the explanation.
  • a plurality of image sensors 100 are formed on a semiconductor substrate (hereinafter referred to as a semiconductor wafer) 131A which is in a wafer state before individualization. Be included. Then, the glass substrate 133A before individualization is bonded to the back surface (upper surface in the drawing) of the semiconductor wafer 131A by using the resin layer 132. As a result, as shown in FIG. 9, a bonded substrate composed of the semiconductor wafer 131A, the resin layer 132, and the glass substrate 133A is produced.
  • WCSP Wafer level Chip Size Package
  • the image sensor 100 is formed in each of the plurality of chip areas 140 arranged in a matrix on the element forming surface of the semiconductor wafer 131A, for example. Between the adjacent chip areas 140, a scribe region 150 that is cut when the image sensor 100 is fragmented is arranged.
  • the scribe region 150 has, for example, a grid-like planar shape when the semiconductor wafer 131A is viewed from above the device forming surface.
  • the electrode pads 136, the ball bumps 137, and the passivation 138 on the front surface side (lower surface side in the drawing) of the semiconductor substrate 131 are omitted for simplification of the description, but these are also before being separated. May be built into the semiconductor wafer 131A.
  • the region of the glass substrate 133 located on the peripheral region 142 of the semiconductor substrate 131A is irradiated with the laser beam L2 along the scribe region 150 to form a part of the glass substrate 133.
  • the light-shielding layer 134 is formed.
  • a pulse laser light having a pulse width of about 300 fs (femtosecond) can be used.
  • the output period of the laser beam L2 may be, for example, about 1 MHz (megahertz).
  • the scribe is performed on the glass substrate 133 on the peripheral region 142.
  • a light-shielding layer 134 composed of a plurality of filaments 1341 arranged along the region 150 is formed.
  • the diameter of each filament 1341 in other words, the spot diameter of the laser beam L2 may be, for example, about 1.5 ⁇ m (micrometer). Further, the pitch of the filaments 1341 arranged in the extending direction A1 may be, for example, about 3 to 4 ⁇ m. However, the value is not limited to these values and may be changed in various ways.
  • each laser beam L2 may be adjusted so that, for example, the filament 1341 reaches the lower surface of the glass substrate 133A (the surface facing the semiconductor wafer 131A). Further, the wavelength of the laser beam L2 may be appropriately set according to the material, the material, and the like of the glass substrate 133A.
  • each image sensor is formed by cutting the bonded substrate on which the light-shielding layer 134 is formed along the scribe region 150 using, for example, a dicing blade 151 such as diamond abrasive grains. Divide into 100 pieces. In that case, the end face of the glass substrate 133 and the end face of the semiconductor substrate 131 are included in the same plane.
  • the dicing blade 151 or the like is not limited to the blade dicing that cuts the wafer, and various dicing methods such as laser full-cut dicing that cuts the wafer with laser light can be used. In addition to these, the glass cut width and the semiconductor wafer cut width may be changed to perform a two-step cut (step cut).
  • an image sensor 100 having a light-shielding layer 134 formed along the end face of the glass substrate 133 as illustrated in FIGS. 5 and 7 is manufactured.
  • the light-shielding layer 134 is provided on the peripheral region 142 of the semiconductor substrate 131 and near the end face of the glass substrate 133 along the end face of the glass substrate 133. Be done. As a result, the light L1 incident on the end surface of the glass substrate 133 is blocked by the light-shielding layer 134, and the incident on the effective pixel region 141 is reduced, so that it is possible to suppress deterioration of image quality due to the occurrence of flare on the glass end surface. Become.
  • the present embodiment since it is not necessary to cover the end surface of the glass substrate 133 with a light-shielding layer or the like, it is possible to suppress the deterioration of the image quality due to the occurrence of flare on the glass end surface while suppressing the increase in size of the image sensor 100. It will be possible.
  • the light-shielding layer 134 of each image sensor 100 can be collectively formed at the wafer level, the glass end face flare occurs while suppressing the decrease in the production efficiency of the image sensor 100. It is also possible to suppress the deterioration of image quality due to the above.
  • the electronic device and the solid-state image sensor according to the present embodiment may be the same as the electronic device 1000 and the image sensor 100 described in the first embodiment.
  • the light-shielding layer 134 formed on the glass substrate 133 is replaced with the light-shielding layer described later.
  • FIG. 13 is an enlarged view of one corner of the image sensor according to the second embodiment.
  • each end surface of the glass substrate 133 the case where a single layer of light-shielding layer 134 is provided on each end surface of the glass substrate 133 is illustrated, but the light-shielding layer 134 provided on each end surface is not limited to one layer, and each end surface is not limited to one layer.
  • a plurality of layers arranged hierarchically with respect to the above may be provided.
  • the light-shielding layer 134a in addition to the light-shielding layer 134a exemplified in the first embodiment, inside the light-shielding layer 134a (closer to the center of the glass substrate 133).
  • the arranged light-shielding layer 134c may be provided.
  • the light-shielding layer is arranged inside the light-shielding layer 134b (closer to the center of the glass substrate 133).
  • Layer 134d may be provided.
  • the light-shielding layers 134c and 134d of the second layer are on the peripheral region 142 of the semiconductor substrate 131, near the end face of the glass substrate 133, and along the end face of the glass substrate 133. It may be provided.
  • the ends of the light-shielding layers 134c and 134d may reach the end faces 133b or 133a of the glass substrate 133, and may further reach from the upper surface to the back surface of the glass substrate 133.
  • the electronic device and the solid-state image sensor according to the present embodiment may be the same as the electronic device 1000 and the image sensor 100 described in the first embodiment.
  • the light-shielding layer 134 formed on the glass substrate 133 is replaced with the light-shielding layer described later.
  • FIG. 14 is an enlarged view of one corner of the image sensor according to the third embodiment.
  • the position of the light-shielding layer 134 depends on the end surface of the glass substrate 133. It may be in close proximity.
  • the distance from the end surface 133a of the glass substrate 133 to the light-shielding layer 134a and / or the distance from the end surface 133b to the light-shielding layer 134b may be 0.2 mm (millimeters) or less.
  • a part or all of the light-shielding layer 134 may form an end face of the glass substrate 133.
  • a part of the end face 133a may be formed by the light-shielding layer 134a.
  • a part of the end face 133b may be formed by the light shielding layer 134b.
  • the electronic device and the solid-state image sensor according to the present embodiment may be the same as the electronic device 1000 and the image sensor 100 described in the first embodiment.
  • the light-shielding layer 134 formed on the glass substrate 133 is replaced with the light-shielding layer described later.
  • FIG. 15 is an enlarged view of one corner of the image sensor according to the fourth embodiment.
  • FIG. 15 illustrates a case where the end of the light-shielding layer 134a and the end of the light-shielding layer 134b coincide with each other, the end of the light-shielding layer 134a and the end of the light-shielding layer 134b do not necessarily have to coincide with each other, and the light-shielding layer 134b does not necessarily coincide with each other.
  • the layer 134a and the light-shielding layer 134b may intersect.
  • the electronic device and the solid-state image sensor according to the present embodiment may be the same as the electronic device 1000 and the image sensor 100 described in the first embodiment.
  • the light-shielding layer 134 formed on the glass substrate 133 is replaced with the light-shielding layer 534 illustrated in FIG.
  • FIG. 16 is a perspective view of the image sensor provided with the light-shielding layer according to the fifth embodiment.
  • the filament 1341 formed by irradiating the glass substrate 133 with the laser beam L2 was used as the light-shielding layer 134, but as described above, the light-shielding layer 134 is formed by laser processing. It is not limited to the formed filament 1341.
  • the light-shielding layer 534 in the glass substrate 133 is ion-implanted with a predetermined dopant into a region (which may be the same as the light-shielding layer 134) in which the light-shielding layer 534 is provided. It may be an ion implantation region formed.
  • the transmittance of the light-shielding layer 534 with respect to visible light is 70% (%) or less, more preferably 50% or less of the plain glass, the light L1 incident from the end face of the glass substrate 133 is sufficiently reduced. Therefore, it is possible to sufficiently suppress the deterioration of the image quality due to the occurrence of flare on the glass end face.
  • the refractive index of the light-shielding layer 534 is lower than the refractive index of the plain glass, it is possible to increase the reflectance of the light L1 incident at an incident angle equal to or higher than a predetermined angle, so that the glass end face flare occurs. It is possible to further suppress the deterioration of image quality.
  • the electronic device according to the present embodiment may be the same as the electronic device 1000 described in the first embodiment. However, in the present embodiment, the image sensor 100 is replaced with the image sensor 600 illustrated in FIG. Note that FIG. 17 is a cross-sectional view showing an example of a cross-sectional structure of the image sensor according to the sixth embodiment.
  • the image sensor 600 is for bonding the semiconductor substrate 131 and the glass substrate 133, for example, in the same cross-sectional structure as the image sensor 100 described with reference to FIG. 5 in the first embodiment.
  • the resin layer 132 is replaced with a resin layer 632 that adheres the semiconductor substrate 131 and the glass substrate 133 in the peripheral region 142 of the semiconductor substrate 131.
  • an air gap 601 is formed between the effective pixel region 141 of the semiconductor substrate 131 and the glass substrate 133.
  • the structure in which the glass substrate 133 is supported by the resin layer 632 in the peripheral region 142 of the semiconductor substrate 131 in other words, the air gap 601 is arranged between the effective pixel region 141 and the glass substrate 133 in the semiconductor substrate 131. Also in the structure, by providing the light-shielding layer 134 on the end surface of the glass substrate 133, the light L1 incident on the end surface of the glass substrate 133 is blocked by the light-shielding layer 134, and the incident on the effective pixel region 141 is reduced. It is possible to suppress deterioration of image quality due to the occurrence of end face flare.
  • the electronic device according to the present embodiment may be the same as the electronic device 1000 described in the first embodiment. However, in this embodiment, the image sensor 100 is replaced with the image sensor 700 illustrated in FIG. Note that FIG. 18 is a cross-sectional view showing an example of a cross-sectional structure of the image sensor according to the seventh embodiment.
  • the position of the light-shielding layer 134 is not limited to the vicinity or the vicinity of the end face of the glass substrate 133.
  • the light-shielding layer 134 may be provided on the OPB film 135 in the peripheral region 142 of the semiconductor substrate 131.
  • the light-shielding layer 134 may be provided on the peripheral region 142 of the semiconductor substrate 131 and at a position close to the effective pixel region 141.
  • the light-shielding layer 134 By bringing the light-shielding layer 134 close to the effective pixel region 141 in this way, in addition to the light L1 incident from the end face of the glass substrate 133, the light obliquely incident from the upper surface near the end face of the glass substrate 133 is the effective pixel region 141. Since it is possible to reduce the amount of light incident on the glass, it is possible to further suppress deterioration in image quality due to the occurrence of a flare phenomenon including flare on the end face of the glass.
  • the light-shielding layer 134 is inclined with respect to the upper surface and the lower surface of the glass substrate 133
  • the electronic device according to the present embodiment may be the same as the electronic device 1000 described in the first embodiment.
  • FIG. 19 is a cross-sectional view showing a cross-sectional structure example of the image sensor according to the first example.
  • the light-shielding layer 134 is a glass substrate. It is replaced with a light-shielding layer 834a inclined with respect to the upper surface and the lower surface of 133.
  • the upper surface side end (hereinafter referred to as the upper end) of the glass substrate 133 is close to the end surface of the glass substrate 133, and the lower surface side end of the glass substrate 133 (hereinafter referred to as the upper end).
  • the lower end) is inclined so as to be close to the effective pixel area 141 of the semiconductor substrate 131.
  • the lower end of the light-shielding layer 834a may be located on the OPB film 135 in the peripheral region 142.
  • FIG. 20 is a cross-sectional view showing a cross-sectional structure example of the image sensor according to the second example.
  • the light-shielding layer 134 is a glass substrate. It is replaced with a light-shielding layer 834b inclined with respect to the upper surface and the lower surface of 133.
  • the light-shielding layer 834b is inclined so that its upper end is close to the effective pixel region 141 of the semiconductor substrate 131 and its lower end is close to the end surface of the glass substrate 133.
  • the upper end of the light-shielding layer 834a may be located on the OPB film 135 in the peripheral region 142.
  • the light-shielding layers 834a and 834b inclined with respect to the upper and lower surfaces of the glass substrate 133 for example, set the stage on which the bonding substrate is placed when forming the light-shielding layer 834a or 834b with respect to the optical axis of the laser beam L2. It can be formed by tilting the laser beam or tilting the optical axis of the laser beam L2 with respect to the stage.
  • the formation region of the light-shielding layer 134 will be described with some examples.
  • the electronic device according to the present embodiment may be the same as the electronic device 1000 described in the first embodiment.
  • FIG. 21 is a cross-sectional view showing a cross-sectional structure example of the image sensor according to the first example.
  • the light-shielding layer 134 is a glass substrate. It is replaced with a light-shielding layer 934a provided from the upper surface of the 133 to the middle of the glass substrate 133. That is, in the first example, the end of the light-shielding layer 934a in the direction perpendicular to the back surface of the semiconductor substrate 131 and the end on the semiconductor substrate 131 side may be separated from the lower surface of the glass substrate 133.
  • FIG. 22 is a cross-sectional view showing a cross-sectional structure example of the image sensor according to the second example.
  • the light-shielding layer 134 is a glass substrate. It is replaced with a light-shielding layer 934b that penetrates 133 and reaches the resin layer 132. That is, in the second example, the end of the light-shielding layer 934b in the direction perpendicular to the back surface of the semiconductor substrate 131 and the end on the semiconductor substrate 131 side reaches the resin layer 132.
  • the light-shielding layer 934a from the upper surface to the middle of the glass substrate 133 and the light-shielding layer 934b that penetrates the glass substrate 133 and reaches the resin layer 132 are, for example, the intensities of the laser beam L2 when forming the light-shielding layer 934a or 934b. It can be formed by adjusting the pulse width and the pulse width.
  • the light-shielding layers 134, 134a, 134b, 134c, 134d, 534, 834a, 834b, 934a or 934b according to the above-described embodiment are formed by laser irradiation, ion implantation or the like, the laser beam at the time of formation is formed. Or ions or the like unintentionally reach the resin layer 132, and as a result, the region of the resin layer 132 where laser irradiation or ion implantation is performed (hereinafter referred to as a alteration deterioration region) is altered or deteriorated. Exists. This altered and deteriorated region may cause reliability problems such as peeling and water intrusion.
  • the altered and deteriorated region formed in the resin layer 132 when the light-shielding layer is formed does not exist in the image sensor after individualization. As a result, it is possible to reduce the occurrence of reliability problems such as peeling and water intrusion caused by the deteriorated area.
  • the upper end thereof is close to the effective pixel region 141 of the semiconductor substrate 131, and the lower end thereof is on the end surface of the glass substrate 133.
  • the light-shielding layer 834b is controlled by controlling the distance from the glass substrate 133 on the upper end side of the light-shielding layer 834b and the inclination angle of the light-shielding layer 834b with respect to the end surface of the glass substrate 133.
  • the resin layer 132 located in the scribe region 150 is removed when the image sensor 100 and the like are separated (see, for example, FIG. 12).
  • the light-shielding layer 834b is provided so that the alteration-deteriorated region formed in the resin layer 132 when the light-shielding layer 834b is formed is within the scribe region 150.
  • the distance from the glass substrate 133 on the upper end side and the inclination angle of the light-shielding layer 834b with respect to the end surface of the glass substrate 133 are controlled. As a result, it is possible to make the structure in which the altered deterioration region formed in the resin layer 132 when the light-shielding layer 834b is formed does not exist in the image sensor after the individualization.
  • FIG. 23 is a process sectional view showing an example of a method for manufacturing an image sensor according to a tenth embodiment, and is for explaining a process corresponding to the process described with reference to FIG. 10 in the first embodiment. It is a figure. That is, in the present embodiment, among the manufacturing methods described with reference to FIGS. 9 to 12 in the first embodiment, the step of forming the light-shielding layer 134 described with reference to FIG. 10 is the step shown in FIG. 23. Will be replaced.
  • the laser beam L2 for forming the light-shielding layer 1034 is the boundary surface (glass substrate) between the chip area 140 and the scribe area 150.
  • the irradiation is performed at a predetermined angle with respect to the surface perpendicular to the upper surface of 133A.
  • the irradiation position of the laser light L2 and its optical axis (irradiation axis) so that the region where the traveling direction of the laser light L2 and the resin layer 132 intersect, that is, the modified deterioration region 1035 is located in the scribe region 150.
  • the tilt of is adjusted.
  • FIG. 24 is a cross-sectional view showing an example of a cross-sectional structure of the image sensor according to the tenth embodiment.
  • the light-shielding layer 1034 extends from the upper surface to the end surface of the glass substrate 133. Therefore, a part of the light-shielding layer 1034 is exposed on the end face of the glass substrate 133 after being individualized.
  • the thickness of the glass substrate 133 (133A) is 130 ⁇ m
  • the thickness of the resin layer 132 is 30 ⁇ m
  • the width of the scribe region 150 is 80 ⁇ m
  • the resin layer 132 is formed by laser irradiation.
  • the width of the quality deterioration region 1035 is 10 ⁇ m, and the irradiation position of the laser beam L2 on the upper surface of the glass substrate 133A (the incident position of the optical axis C2 of the laser beam L2) is 30 ⁇ m from the boundary 152 between the scribe region 150 and the chip area 140.
  • the case where the position is inside is illustrated.
  • the inside from the boundary 152 means the chip area 140 side.
  • the optical axis C2 of the laser beam L2 is placed on the upper surface of the resin layer 132.
  • the incident position needs to be at least 5 ⁇ m outside the boundary 152 between the scribe region 150 and the chip area 140.
  • the outside from the boundary 152 means the scribe region 150 side.
  • the optical axis C2 of the laser beam L2 is incident on the upper surface of the resin layer 132 at a position 5 ⁇ m or more outside the boundary 152 between the scribe region 150 and the chip area 140.
  • FIG. 25 is a cross-sectional view when the inclination angle of the light-shielding layer is minimized in the specific example of the tenth embodiment
  • FIG. 26 is a cross-sectional view in which the inclination angle of the light-shielding layer is the largest in the specific example of the tenth embodiment. It is a cross-sectional view in the case of.
  • the inclination angle of the light-shielding layer 1034 with respect to the end face of the glass substrate 133 can be adjusted in the range of 15 ° or more and 30 ° or less. That is, by adjusting the inclination angle of the light-shielding layer 1034 in the range of 15 ° or more and 30 ° or less, it is possible to suppress the occurrence of glass end face flare while reducing the occurrence of reliability problems such as peeling and moisture intrusion. Is possible.
  • the numerical values illustrated in FIGS. 25 and 26 are merely specific examples, and the upper surface of the laser beam L2 glass substrate 133 is appropriately used according to the thickness of the glass substrate 133, the thickness of the resin layer 132, the width of the scribe region 150, and the like.
  • the position of incidence on the glass and the inclination angle of its optical axis C2 it is possible to suppress the occurrence of flare on the end face of the glass while reducing the occurrence of reliability problems such as peeling and moisture intrusion. ..
  • the present invention is not limited to this, and a part of the modified deterioration region 1035 remains in the image sensor 1000 after chipping. May be good. Even in that case, it is possible to reduce the occurrence of reliability problems such as peeling and water intrusion.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 27 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (Interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the imaging unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 28 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as, for example, the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 28 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the present technology can also have the following configurations.
  • a solid-state image sensor With different layers, A solid-state image sensor.
  • the layer is provided in the third region including a region sandwiched between at least one end face of the end face of the glass substrate and the first region in the above (1) or (2).
  • the solid-state image sensor described.
  • the semiconductor substrate further includes a light-shielding film provided on the second region on the first surface so as to surround the first region.
  • the semiconductor substrate further includes a light-shielding film provided on the second region on the first surface so as to surround the first region.
  • the solid-state image sensor according to any one of (1) to (19), wherein the end face of the semiconductor substrate and the end face of the glass substrate are included in the same plane.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

画質の低下を抑制する。実施形態に係る固体撮像装置は、第1面における第1領域に受光素子を備える半導体基板(131)と、前記半導体基板の前記第1面と対向するガラス基板(133)と、前記第1面に対して前記ガラス基板を支持する樹脂層(132)と、前記ガラス基板内であって、前記半導体基板の前記第1領域を囲む第2領域と前記半導体基板の基板厚方向において対応する第3領域内に設けられ、可視光に対する物性が前記ガラス基板とは異なる層(134)とを備える。

Description

固体撮像装置及び電子機器
 本開示は、固体撮像装置及び電子機器に関する。
 近年、カメラ付き移動体端末装置やデジタルスチルカメラなどの電子機器において、カメラの高画素化、小型化及び薄型化が進んでいる。小型化や薄型化の手法としては、固体撮像装置をCSP(Chip Size Package)型にすることが一般的である。
特開2007-142058号公報 特開2010-40672号公報
 しかしながら、固体撮像装置の小型化により、固体撮像装置の受光面を保護するガラス基板の側面(以下、端面という)が固体撮像装置の素子形成領域に近づくと、ガラス基板の端面から入射した光が固体撮像装置の受光領域に入射してしまい、それにより、画像の一部や全体の鮮明さが損なわれるフレア現象(以下、ガラス端面フレアという)が発生して、画質が低下してしまうという問題が生じる。
 そこで本開示では、画質の低下を抑制することが可能な固体撮像装置及び電子機器を提案する。
 上記の課題を解決するために、本開示に係る一形態の固体撮像装置は、第1面における第1領域に受光素子を備える半導体基板と、前記半導体基板の前記第1面と対向するガラス基板と、前記第1面に対して前記ガラス基板を支持する樹脂層と、前記ガラス基板内であって、前記半導体基板の前記第1領域を囲む第2領域と前記半導体基板の基板厚方向において対応する第3領域内に設けられ、可視光に対する物性が前記ガラス基板とは異なる層とを備える。
第1の実施形態に係る固体撮像装置を搭載した電子機器の概略構成例を示すブロック図である。 第1の実施形態に係る固体撮像装置の概略構成例を示すブロック図である。 第1の実施形態に係る単位画素の概略構成例を示す回路図である。 第1の実施形態に係る固体撮像装置の積層構造例を示す図である。 第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。 第1の実施形態に係る遮光層を備えないイメージセンサにおいて発生するガラス端面フレアを説明するための斜視図である。 第1の実施形態に係る遮光層を備えるイメージセンサの斜視図である。 第1の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。 第1の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図である(その1)。 第1の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図である(その2)。 第1の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図である(その3)。 第1の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図である(その4)。 第2の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。 第3の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。 第4の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。 第5の実施形態に係る遮光層を備えるイメージセンサの斜視図である。 第6の実施形態に係るイメージセンサの断面構造例を示す断面図である。 第7の実施形態に係るイメージセンサの断面構造例を示す断面図である。 第8の実施形態の第1例に係るイメージセンサの断面構造例を示す断面図である。 第8の実施形態の第2例に係るイメージセンサの断面構造例を示す断面図である。 第9の実施形態の第1例に係るイメージセンサの断面構造例を示す断面図である。 第9の実施形態の第2例に係るイメージセンサの断面構造例を示す断面図である。 第10の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図である。 第10の実施形態に係るイメージセンサの断面構造例を示す断面図である。 第10の実施形態の具体例において遮光層の傾斜角を最も小さくした場合の断面図である。 第10の実施形態の具体例において遮光層の傾斜角を最も大きくした場合の断面図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1.1 電子機器の構成例
   1.2 固体撮像装置の構成例
   1.3 単位画素の構成例
   1.4 単位画素の基本機能例
   1.5 固体撮像装置の積層構造例
   1.6 断面構造例
   1.7 ガラス端面フレアの抑制
   1.8 遮光層
   1.9 製造方法
   1.10 作用・効果
  2.第2の実施形態
  3.第3の実施形態
  4.第4の実施形態
  5.第5の実施形態
  6.第6の実施形態
  7.第7の実施形態
  8.第8の実施形態
   8.1 第1例
   8.2 第2例
   8.3 作用・効果
  9.第9の実施形態
   9.1 第1例
   9.2 第2例
   9.3 作用・効果
  10.第10の実施形態
  11.移動体への応用例
 1.第1の実施形態
 まず、第1の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。
 1.1 電子機器の構成例
 図1は、第1の実施形態に係る固体撮像装置を搭載した電子機器の概略構成例を示すブロック図である。図1に示すように、電子機器1000は、例えば、撮像レンズ1020と、固体撮像装置100と、記憶部1030と、プロセッサ1040とを備える。
 撮像レンズ1020は、入射光を集光してその像を固体撮像装置100の受光面に結像する光学系の一例である。受光面とは、固体撮像装置100における光電変換素子が配列する面であってよい。固体撮像装置100は、入射光を光電変換して画像データを生成する。また、固体撮像装置100は、生成した画像データに対し、ノイズ除去やホワイトバランス調整等の所定の信号処理を実行する。
 記憶部1030は、例えば、フラッシュメモリやDRAM(Dynamic Random Access Memory)やSRAM(Static Random Access Memory)等で構成され、固体撮像装置100から入力された画像データ等を記録する。
 プロセッサ1040は、例えば、CPU(Central Processing Unit)等を用いて構成され、オペレーティングシステムや各種アプリケーションソフトウエア等を実行するアプリケーションプロセッサや、GPU(Graphics Processing Unit)やベースバンドプロセッサなどが含まれ得る。プロセッサ1040は、固体撮像装置100から入力された画像データや記憶部1030から読み出した画像データ等に対し、必要に応じた種々処理を実行したり、ユーザへの表示を実行したり、所定のネットワークを介して外部へ送信したりする。
 1.2 固体撮像装置の構成例
 図2は、第1の実施形態に係るCMOS(Complementary Metal-Oxide-Semiconductor)型の固体撮像装置(以下、単にイメージセンサという)の概略構成例を示すブロック図である。ここで、CMOS型のイメージセンサとは、CMOSプロセスを応用して、または、部分的に使用して作成されたイメージセンサである。第1の実施形態に係るイメージセンサ100は、入射面が半導体基板における素子形成面とは反対側の面(以下、裏面という)側である、いわゆる裏面照射型であってもよいし、表面側である、いわゆる表面照射型であってもよい。
 図2に示すように、イメージセンサ100は、例えば、画素アレイ部101と、垂直駆動回路102と、カラム処理回路103と、水平駆動回路104と、システム制御部105と、信号処理部108と、データ格納部109とを備える。以下の説明において、垂直駆動回路102、カラム処理回路103、水平駆動回路104、システム制御部105、信号処理部108及びデータ格納部109は、周辺回路とも称される。
 画素アレイ部101は、受光した光量に応じた電荷を生成しかつ蓄積する光電変換素子を有する単位画素(以下、単に「画素」と記述する場合もある)110が行方向及び列方向に、すなわち、行列状に2次元格子状(以下、行列状という)に配置された構成を有する。ここで、行方向とは画素行の画素の配列方向(図面中、横方向)をいい、列方向とは画素列の画素の配列方向(図面中、縦方向)をいう。単位画素の具体的な回路構成や画素構造の詳細については後述する。
 画素アレイ部101では、行列状の画素配列に対し、画素行ごとに画素駆動線LDが行方向に沿って配線され、画素列ごとに垂直信号線VSLが列方向に沿って配線されている。画素駆動線LDは、画素から信号を読み出す際の駆動を行うための駆動信号を伝送する。図2では、画素駆動線LDが1本ずつの配線として示されているが、1本ずつに限られるものではない。画素駆動線LDの一端は、垂直駆動回路102の各行に対応した出力端に接続されている。
 垂直駆動回路102は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101の各画素を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路102は、当該垂直駆動回路102を制御するシステム制御部105と共に、画素アレイ部101の各画素の動作を制御する駆動部を構成している。この垂直駆動回路102はその具体的な構成については図示を省略するが、一般的に、読出し走査系と掃出し走査系との2つの走査系を備えている。
 読出し走査系は、単位画素から信号を読み出すために、画素アレイ部101の単位画素を行単位で順に選択走査する。単位画素から読み出される信号はアナログ信号である。掃出し走査系は、読出し走査系によって読出し走査が行われる読出し行に対して、その読出し走査よりも露光時間分だけ先行して掃出し走査を行う。
 この掃出し走査系による掃出し走査により、読出し行の単位画素の光電変換素子から不要な電荷が掃き出されることによって当該光電変換素子がリセットされる。そして、この掃出し走査系で不要電荷を掃き出す(リセットする)ことにより、所謂電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換素子の電荷を捨てて、新たに露光を開始する(電荷の蓄積を開始する)動作のことを言う。
 読出し走査系による読出し動作によって読み出される信号は、その直前の読出し動作または電子シャッタ動作以降に受光した光量に対応している。そして、直前の読出し動作による読出しタイミングまたは電子シャッタ動作による掃出しタイミングから、今回の読出し動作による読出しタイミングまでの期間が、単位画素における電荷の蓄積期間(露光期間ともいう)となる。
 垂直駆動回路102によって選択走査された画素行の各単位画素から出力される信号は、画素列ごとに垂直信号線VSLの各々を通してカラム処理回路103に入力される。カラム処理回路103は、画素アレイ部101の画素列ごとに、選択行の各画素から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理回路103は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling:相関二重サンプリング)処理や、DDS(Double Data Sampling)処理を行う。例えば、CDS処理により、リセットノイズや画素内の増幅トランジスタの閾値ばらつき等の画素固有の固定パターンノイズが除去される。カラム処理回路103は、その他にも、例えば、AD(アナログ-デジタル)変換機能を備え、光電変換素子から読み出され得たアナログの画素信号をデジタル信号に変換して出力する。
 水平駆動回路104は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路103の画素列に対応する読出し回路(以下、画素回路という)を順番に選択する。この水平駆動回路104による選択走査により、カラム処理回路103において画素回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部105は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、当該タイミングジェネレータで生成された各種のタイミングを基に、垂直駆動回路102、カラム処理回路103、及び、水平駆動回路104などの駆動制御を行う。
 信号処理部108は、少なくとも演算処理機能を有し、カラム処理回路103から出力される画素信号に対して演算処理等の種々の信号処理を行う。データ格納部109は、信号処理部108での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 なお、信号処理部108から出力された画像データは、例えば、イメージセンサ100を搭載する電子機器1000におけるプロセッサ1040等において所定の処理が実行されたり、所定のネットワークを介して外部へ送信されたりしてもよい。
 1.3 単位画素の構成例
 図3は、第1の実施形態に係る単位画素の概略構成例を示す回路図である。図3に示すように、単位画素110は、フォトダイオードPDと、転送トランジスタ111と、リセットトランジスタ112と、増幅トランジスタ113と、選択トランジスタ114と、浮遊拡散層FDとを備える。
 選択トランジスタ114のゲートには、画素駆動線LDに含まれる選択トランジスタ駆動線LD114が接続され、リセットトランジスタ112のゲートには、画素駆動線LDに含まれるリセットトランジスタ駆動線LD112が接続され、転送トランジスタ111のゲートには、画素駆動線LDに含まれる転送トランジスタ駆動線LD111が接続されている。また、増幅トランジスタ113のドレインには、カラム処理回路103に一端が接続される垂直信号線VSLが選択トランジスタ114を介して接続されている。
 以下の説明において、リセットトランジスタ112、増幅トランジスタ113と及び選択トランジスタ114は、まとめて画素回路とも称される。この画素回路には、浮遊拡散層FD及び/又は転送トランジスタ111が含まれてもよい。
 フォトダイオードPDは、入射した光を光電変換する受光素子であってよい。転送トランジスタ111は、フォトダイオードPDに発生した電荷を転送する。浮遊拡散層FDは、転送トランジスタ111が転送した電荷を蓄積する。増幅トランジスタ113は、浮遊拡散層FDに蓄積された電荷に応じた電圧値の画素信号を垂直信号線VSLに出現させる。リセットトランジスタ112は、浮遊拡散層FDに蓄積された電荷を放出する。選択トランジスタ114は、読出し対象の単位画素110を選択する。
 フォトダイオードPDのアノードは、接地されており、カソ-ドは、転送トランジスタ111のソースに接続されている。転送トランジスタ111のドレインは、リセットトランジスタ112のソースおよび増幅トランジスタ113のゲートに接続されており、これらの接続点であるノードが浮遊拡散層FDを構成する。なお、リセットトランジスタ112のドレインは、不図示の垂直リセット入力線に接続されている。
 増幅トランジスタ113のソースは、不図示の垂直電流供給線に接続されている。増幅トランジスタ113のドレインは、選択トランジスタ114のソースに接続されており、選択トランジスタ114のドレインは、垂直信号線VSLに接続されている。
 浮遊拡散層FDは、蓄積している電荷をその電荷量に応じた電圧値の電圧に変換する。なお、浮遊拡散層FDは、例えば、対接地容量であってもよい。ただし、これに限定されず、浮遊拡散層FDは、転送トランジスタ111のドレインとリセットトランジスタ112のソースと増幅トランジスタ113のゲートとが接続するノードにキャパシタなどを意図的に接続することで付加された容量であってもよい。
 1.4 単位画素の基本機能例
 次に、単位画素110の基本機能について、図3を参照して説明する。リセットトランジスタ112は、垂直駆動回路102からリセットトランジスタ駆動線LD112を介して供給されるリセット信号RSTに従って、浮遊拡散層FDに蓄積されている電荷の排出(リセット)を制御する。なお、リセットトランジスタ112がオン状態であるときに転送トランジスタ111をオン状態とすることで、浮遊拡散層FDに蓄積されている電荷に加え、フォトダイオードPDに蓄積されている電荷を排出(リセット)することも可能である。
 リセットトランジスタ112のゲートにHighレベルのリセット信号RSTが入力されると、浮遊拡散層FDが垂直リセット入力線を通して印加される電圧にクランプされる。これにより、浮遊拡散層FDに蓄積されていた電荷が排出(リセット)される。
 また、リセットトランジスタ112のゲートにLowレベルのリセット信号RSTが入力されると、浮遊拡散層FDは、垂直リセット入力線と電気的に切断され、浮遊状態になる。
 フォトダイオードPDは、入射光を光電変換し、その光量に応じた電荷を生成する。生成された電荷は、フォトダイオードPDのカソード側に蓄積する。転送トランジスタ111は、垂直駆動回路102から転送トランジスタ駆動線LD111を介して供給される転送制御信号TRGに従って、フォトダイオードPDから浮遊拡散層FDへの電荷の転送を制御する。
 例えば、転送トランジスタ111のゲートにHighレベルの転送制御信号TRGが入力されると、フォトダイオードPDに蓄積されている電荷が浮遊拡散層FDに転送される。一方、転送トランジスタ111のゲートにLowレベルの転送制御信号TRGが供給されると、フォトダイオードPDからの電荷の転送が停止する。
 浮遊拡散層FDは、上述したように、フォトダイオードPDから転送トランジスタ111を介して転送された電荷をその電荷量に応じた電圧値の電圧に変換する機能を持つ。したがって、リセットトランジスタ112がオフした浮遊状態では、浮遊拡散層FDの電位は、それぞれが蓄積する電荷量に応じて変調される。
 増幅トランジスタ113は、そのゲートに接続された浮遊拡散層FDの電位変動を入力信号とする増幅器として機能し、その出力電圧信号は選択トランジスタ114を介して垂直信号線VSLに画素信号として出現する。
 選択トランジスタ114は、垂直駆動回路102から選択トランジスタ駆動線LD114を介して供給される選択制御信号SELに従って、増幅トランジスタ113による画素信号の垂直信号線VSLへの出現を制御する。例えば、選択トランジスタ114のゲートにHighレベルの選択制御信号SELが入力されると、増幅トランジスタ113による画素信号が垂直信号線VSLに出現される。一方、選択トランジスタ114のゲートにLowレベルの選択制御信号SELが入力されると、垂直信号線VSLへの画素信号の出現が停止される。これにより、複数の単位画素110が接続された垂直信号線VSLにおいて、選択した単位画素110の出力のみを取り出すことが可能となる。
 1.5 固体撮像装置の積層構造例
 図4は、第1の実施形態に係るイメージセンサの積層構造例を示す図である。図4に示すように、イメージセンサ100は、受光チップ121と回路チップ122とが上下に積層されたスタック構造を備える。受光チップ121は、例えば、フォトダイオードPDが配列する画素アレイ部101を備える半導体チップであり、回路チップ122は、例えば、図3に示す画素回路や、図2における周辺回路等を備える半導体チップである。
 受光チップ121と回路チップ122との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
 また、受光チップ121と回路チップ122とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、受光チップ121に設けられたTSVと受光チップ121から回路チップ122にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、受光チップ121から回路チップ122まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
 ただし、受光チップ121と回路チップ122との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続される。
 1.6 断面構造例
 図5は、第1の実施形態に係るイメージセンサの断面構造例を示す断面図である。なお、本説明では、イメージセンサ100が裏面照射型である場合を例示するが、上述したように、表面照射型であってもよい。
 図5に示すように、イメージセンサ100は、複数の単位画素110及び周辺回路が設けられた半導体基板131を備える。半導体基板131は、例えば、図4における受光チップ121と回路チップ122とが上下に積層されたスタック構造を備える半導体基板であってよい。
 複数の単位画素110は、例えば、半導体基板131に裏面側(図面中、上面側。第1面ともいう)に行列状に配列している。行列状に配列する単位画素110のうち、周縁に位置する単位画素110のフォトダイオードPDは、例えば、可視光などの特定の波長帯の光を遮光する遮光膜(OPB(Optical Black)膜ともいう)135により遮光されている。
 なお、個々の単位画素110は、半導体基板131の裏面上に配列するオンチップレンズを含んでもよい。オンチップレンズは、例えば、半導体基板131の裏面側に配列するフォトダイオードPDごとに設けられていてよい。
 以下の説明では、フォトダイオードPDがOPB膜135で覆われていない単位画素110が配列する領域を有効画素領域(第1領域ともいう)141とし、フォトダイオードPDがOPB膜135で覆われている単位画素110が配列する領域を遮光領域とする。また、半導体基板131の裏面における、イメージセンサ100の側面から有効画素領域141までの間の領域を、周辺領域(第2領域ともいう)142とする。その場合、OPB膜135で覆われた遮光領域は、周辺領域142に含まれることとなる。なお、有効画素領域141とは、画像データの生成に使用する単位画素110が配列する矩形の領域であってよい。
 半導体基板131の裏面側(図面中、上面側)には、樹脂層132と、ガラス基板133とが設けられている。また、半導体基板131の表面側(図面中、下面側)には、電極パッド136と、ボールバンプ137と、パッシベーション138とが設けられている。
 ガラス基板133は、例えば、半導体基板131の裏面(受光面に相当)を保護するとともに、イメージセンサ100の物理的な強度を保つための部材である。
 樹脂層132は、例えば、光学的に透明なエポキシ系樹脂や低融点ガラスあるいは紫外線硬化型樹脂などであり、ガラス基板133と半導体基板131と貼り合わせる接着剤であってよい。この樹脂層132は、例えば、有効画素領域141における単位画素110を覆っていてもよい。
 なお、図5では省略されているが、半導体基板131における受光チップ121と回路チップ122との接合面には、それぞれ内部に単位画素110と周辺回路とを接続する配線を含む絶縁膜より構成された配線層が設けられていてもよい。その場合、配線層の絶縁膜には、例えば、シリコン酸化膜(SiO)やシリコン窒化膜(SiN)などを用いることができる。
 パッシベーション138は、例えば、感光性ポリイミドやポリベンゾオキサゾール(PBO)やシリコーン系の樹脂材料等を用いて形成された膜であり、半導体基板131の表面側や電極パッド136等を保護する役割を持つ。
 電極パッド136は、例えば、金属などの導電材料を用いて構成され、半導体基板131に設けられた周辺回路等と電気的に接続されている。
 ボールバンプ137は、例えば、電極パッド136の露出部分に設けられた半田ボール等であり、イメージセンサ100と回路基板等とを電気的に接続するための外部端子である。ただし、外部端子の構造は、ボールバンプ137を用いた構造に限定されず、例えば、フラットパッドなどの構造を採用することも可能である。
 また、本実施形態において、半導体基板131の周辺領域142と半導体基板131の基板厚方向(図面中、上下方向。以下、図面に従ってその上下を説明する)において対応する領域(第3領域ともいう)であって、ガラス基板133の端面付近(例えば、有効画素領域141よりもガラス基板133の端面に近い領域)には、可視光に対する物性がガラス基板133における加工されていない領域(以下、素ガラスという)とは異なる層(以下、遮光層という)134が、ガラス基板133の端面に沿って設けられている。なお、本説明における物性は、可視光に対する透過率(透明度であってもよい)や反射率や屈折率など、光の透過に関係する物性であってよい。
 1.7 ガラス端面フレアの抑制
 図6は、第1の実施形態に係る遮光層を備えないイメージセンサにおいて発生するガラス端面フレアを説明するための斜視図である。図7は、第1の実施形態に係る遮光層を備えるイメージセンサの斜視図である。
 図6に示すように、ガラス基板133の端面付近に遮光層134が設けられていない場合、ガラス基板133の端面に入射した光L1が有効画素領域141に入射し、これにより、画像の一部や全体の鮮明さが損なわれるガラス端面フレアが発生して、画質が低下してしまう可能性が存在する。
 そこで本実施形態では、図5及び図7に示すように、半導体基板131の周辺領域142上であってガラス基板133の端面付近に、ガラス基板133の端面に沿って遮光層134が設けられている。例えば、図7に示す例では、図面中縦方向(後述する半導体ウエハ131Aに行列状に配列するイメージセンサ100の列方向に相当)に延在するガラス基板133の端面133aに沿って遮光層134aが設けられ、図面中横方向(後述する半導体ウエハ131Aに行列状に配列するイメージセンサ100の行方向に相当)に延在するガラス基板133の端面133bに沿って遮光層134bが設けられている。
 このように、ガラス基板133の端面に遮光層134を設けることで、ガラス基板133の端面に入射した光L1が遮光層134によって遮られて、有効画素領域141への入射が低減されるため、ガラス端面フレアの発生による画質の低下が抑制される。
 1.8 遮光層
 図8は、第1の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。
 本実施形態に係る遮光層134は、例えば、図5及び図7に例示するように、ガラス基板133の上面から裏面にまで達するように、ガラス基板133を貫通していてもよい。
 また、図8に示すように、遮光層134の半導体基板131の裏面と平行な方向における端は、ガラス基板133の端面にまで達していてもよい。例えば、遮光層134aの端は、端面133aにまで達していてもよい。同様に、遮光層134bの端は、端面133bにまで達していてもよい。
 このような遮光層134の形成には、例えば、ガラス基板133に対してレーザ光を照射することで、ガラス基板133中にフィラメントを形成する技術を利用することができる。
 ガラス基板133におけるレーザ光L2が照射された領域は、可視光に対する透過率(又は透明度)や反射率や屈折率などの光の透過に関係する物性が素ガラスの物性から変化した領域となる。そこで、このような物性が変化した領域を遮光層134として利用することで、イメージセンサ100を大型化させることなく、ガラス端面フレアの発生を効果的に抑制することが可能となる。
 ただし、このような方法に限定されず、可視光に対する物性をガラス基板133における素ガラスの領域とは異なる物性とすることが可能であれば、種々の方法を採用することが可能である。
 また、遮光層134は、ガラス基板133の全ての端面に設けられている必要な無く、少なくとも1つの端面に対して設けられていればよい。
 1.9 製造方法
 図9~図12は、第1の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図である。なお、図9~図12では、説明の明確化のため、図5等とは異なる縮尺でイメージセンサ100が示されている。
 本製造方法では、まず、例えば、WCSP(Wafer level Chip Size Package)技術を用いて、個片化前のウエハ状態にある半導体基板(以下、半導体ウエハという)131Aに、複数のイメージセンサ100が作り込まれる。そして、半導体ウエハ131Aの裏面(図面中、上面)に個片化前のガラス基板133Aが樹脂層132を用いて貼り合わされる。これにより、図9に示すように、半導体ウエハ131Aと樹脂層132とガラス基板133Aとからなる貼合せ基板が作製される。
 なお、イメージセンサ100は、例えば、半導体ウエハ131Aの素子形成面に行列状に配列する複数のチップエリア140それぞれに形成される。隣接するチップエリア140間には、イメージセンサ100を個片化する際に切断されるスクライブ領域150が配置される。スクライブ領域150は、例えば、半導体ウエハ131Aを素子形成面の上方から見た場合、格子状の平面形状を有する。
 なお、図9では、説明の簡略化のため、半導体基板131の表面側(図面中、下面側)における電極パッド136、ボールバンプ137及びパッシベーション138が省略されているが、これらも個片化前に半導体ウエハ131Aに作り込まれていてよい。
 次に、図10に示すように、ガラス基板133における半導体基板131Aの周辺領域142上に位置する領域に、スクライブ領域150に沿ってレーザ光L2を照射することで、ガラス基板133の一部に遮光層134を形成する。
 なお、レーザ光L2には、例えば、300fs(フェムト秒)程度のパルス幅のパルスレーザ光を用いることができる。また、レーザ光L2の出力周期は、例えば、1MHz(メガヘルツ)程度であってよい。図11に示すように、半導体ウエハ131Aが載置されたステージをスクライブ領域150の延在方向A1に沿ってスライドさせつつレーザ光L2を出力することで、周辺領域142上のガラス基板133にスクライブ領域150に沿って配列する複数のフィラメント1341よりなる遮光層134が形成される。
 なお、各フィラメント1341の径、言い換えれば、レーザ光L2のスポット径は、例えば、1.5μm(マイクロメートル)程度であってもよい。また、延在方向A1に配列するフィラメント1341のピッチは、例えば、3~4μm程度であってもよい。ただし、これらの数値に限定されず、種々変更されてよい。
 また、各レーザ光L2のパルス強度は、例えば、フィラメント1341がガラス基板133Aの下面(半導体ウエハ131Aと対向する面)に達する程度に調整されてもよい。さらに、レーザ光L2の波長は、ガラス基板133Aの材料や材質等に応じて適宜設定されてよい。
 次に、図12に示すように、遮光層134が形成された貼合せ基板を、例えば、ダイヤモンド砥粒等のダイシングブレード151を用いてスクライブ領域150に沿って切断することで、個々のイメージセンサ100に個片化する。その場合、ガラス基板133の端面と、半導体基板131の端面とは、同一の平面に含まれることとなる。なお、ダイシングブレード151等でウエハを切断するブレードダイシングに限定されず、レーザ光でウエハを切断するレーザフルカットダイシングなど、種々のダイシング手法を用いることが可能である。また、それらとは別に、ガラスカット幅と、半導体ウエハカット幅とを変えて2段カット(ステップカット)としてもよい。
 以上のような工程を経ることで、図5及び図7に例示するような、ガラス基板133の端面に沿って形成された遮光層134を備えるイメージセンサ100が作製される。
 1.10 作用・効果
 以上のように、本実施形態によれば、半導体基板131の周辺領域142上であってガラス基板133の端面付近に、ガラス基板133の端面に沿って遮光層134が設けられる。それにより、ガラス基板133の端面に入射した光L1が遮光層134によって遮られ、有効画素領域141への入射が低減されるため、ガラス端面フレアの発生による画質の低下を抑制することが可能となる。
 また、本実施形態によれば、ガラス基板133の端面を遮光層等で覆う必要がないため、イメージセンサ100の大型化を抑制しつつ、ガラス端面フレアの発生による画質の低下を抑制することが可能となる。
 さらに、本実施形態によれば、各イメージセンサ100の遮光層134をウエハレベルで一括に形成することが可能であるため、イメージセンサ100の生産効率の低下を抑制しつつ、ガラス端面フレアの発生による画質の低下を抑制することも可能となる。
 2.第2の実施形態
 次に、第2の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、第1の実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 本実施形態に係る電子機器及び固体撮像装置は、第1の実施形態において説明した電子機器1000及びイメージセンサ100と同様であってよい。ただし、本実施形態では、ガラス基板133に形成される遮光層134が、後述する遮光層に置き換えられる。
 図13は、第2の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。
 上述した第1の実施形態では、ガラス基板133の各端面に対して一層の遮光層134を設けた場合を例示したが、各端面に対して設ける遮光層134は一層に限定されず、各端面に対して階層的に配置された複数の層が設けられていてもよい。
 例えば、図13に示すように、ガラス基板133の1つの端面133aに対し、第1の実施形態で例示した遮光層134aに加えて、遮光層134aよりも内側(ガラス基板133の中心寄り)に配置された遮光層134cが設けられてもよい。同様に、ガラス基板133の他の1つの端面133bに対し、第1の実施形態で例示した遮光層134bに加えて、遮光層134bよりも内側(ガラス基板133の中心寄り)に配置された遮光層134dが設けられてもよい。
 二層目の遮光層134c及び134dは、一層目の遮光層134a及び134bと同様に、半導体基板131の周辺領域142上であってガラス基板133の端面付近に、ガラス基板133の端面に沿って設けられていてよい。
 また、遮光層134c及び134dの端は、ガラス基板133の端面133b又は133aにまで達していてもよく、さらに、ガラス基板133の上面から裏面にまで達していてもよい。
 このように、ガラス基板133の端面に設ける遮光層134を二重にすることで、ガラス基板133の端面を介して有効画素領域141に入射する光L1をより低減することが可能となるため、ガラス端面フレアの発生による画質の低下をより抑制することが可能となる。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 3.第3の実施形態
 次に、第3の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 本実施形態に係る電子機器及び固体撮像装置は、第1の実施形態において説明した電子機器1000及びイメージセンサ100と同様であってよい。ただし、本実施形態では、ガラス基板133に形成される遮光層134が、後述する遮光層に置き換えられる。
 図14は、第3の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。
 上述した第1の実施形態では、ガラス基板133の端面よりも内側に遮光層134を設けた場合を例示したが、図14に例示するように、遮光層134の位置がガラス基板133の端面により近接していてもよい。例えば、ガラス基板133の端面133aから遮光層134aまでの距離及び/又は端面133bから遮光層134bまでの距離は、0.2mm(ミリメートル)以下であってもよい。
 その際、遮光層134の一部又は全部がガラス基板133の端面を形成していてもよい。例えば、端面133aの一部が遮光層134aにより形成されていてもよい。同様に、端面133bの一部が遮光層134bにより形成されていてもよい。
 以上のように、遮光層134をガラス基板133の端面に近接させることで、イメージセンサ100の大型化をより抑制しつつ、ガラス端面フレアの発生による画質の低下を抑制することが可能となる。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 4.第4の実施形態
 次に、第4の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 本実施形態に係る電子機器及び固体撮像装置は、第1の実施形態において説明した電子機器1000及びイメージセンサ100と同様であってよい。ただし、本実施形態では、ガラス基板133に形成される遮光層134が、後述する遮光層に置き換えられる。
 図15は、第4の実施形態に係るイメージセンサの1つの角部を拡大した拡大図である。
 上述した第1の実施形態では、遮光層134の半導体基板131の裏面と平行な方向における端が、ガラス基板133の端面にまで達している場合を例示したが、図15に例示するように、遮光層134の半導体基板131の裏面と平行な方向における端は、ガラス基板133の端面に達していなくてもよい。
 なお、図15では、遮光層134aの端と遮光層134bの端とが一致する場合を例示しているが、遮光層134aの端と遮光層134bの端とは必ずしも一致する必要はなく、遮光層134aと遮光層134bとが交差していてもよい。
 このように、遮光層134の端がガラス基板133の端面に達しない構造とすることで、ガラス基板133の角部の強度の低下を低減することが可能となる。それにより、ガラス基板133の角部が欠けるなどの不具合の発生を抑制することが可能となる。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 5.第5の実施形態
 次に、第5の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 本実施形態に係る電子機器及び固体撮像装置は、第1の実施形態において説明した電子機器1000及びイメージセンサ100と同様であってよい。ただし、本実施形態では、ガラス基板133に形成される遮光層134が、図16に例示する遮光層534に置き換えられる。なお、図16は、第5の実施形態に係る遮光層を備えるイメージセンサの斜視図である。
 上述した第1の実施形態では、ガラス基板133にレーザ光L2を照射することで形成されたフィラメント1341を遮光層134として使用していたが、上述したように、遮光層134は、レーザ加工により形成されたフィラメント1341に限定されるものではない。
 例えば、図16に例示するイメージセンサ500のように、ガラス基板133における遮光層534は、これを設ける領域(遮光層134と同様であってよい)に対して所定のドーパントをイオン注入することで形成されたイオン注入領域であってもよい。ガラス基板133に対して所定のドーパントを注入することでも、遮光層534の物性をガラス基板133における素ガラスの領域とは異なる物性とすることが可能である。
 その際、例えば、可視光に対する遮光層534の透過率が素ガラスの70%(パーセント)以下、より好ましくは、50%以下であると、ガラス基板133の端面から入射した光L1を十分に低減することが可能であるため、ガラス端面フレアの発生による画質の低下を十分に抑制することが可能となる。
 又は、遮光層534の屈折率を素ガラスの屈折率よりも低くすることで、所定角以上の入射角で入射した光L1の反射率を高めることが可能となるため、ガラス端面フレアの発生による画質の低下をより抑制することが可能となる。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 6.第6の実施形態
 次に、第6の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 本実施形態に係る電子機器は、第1の実施形態において説明した電子機器1000と同様であってよい。ただし、本実施形態では、イメージセンサ100が図17に例示するイメージセンサ600に置き換えられる。なお、図17は、第6の実施形態に係るイメージセンサの断面構造例を示す断面図である。
 図17に示すように、イメージセンサ600は、例えば、第1の実施形態において図5を用いて説明したイメージセンサ100と同様の断面構造において、半導体基板131とガラス基板133とを貼り合わせるための樹脂層132が、半導体基板131の周辺領域142において半導体基板131とガラス基板133とを貼り合わせる樹脂層632に置き換えられている。それにより、半導体基板131における有効画素領域141とガラス基板133との間には、エアギャップ601が形成されている。
 このように、半導体基板131の周辺領域142で樹脂層632によりガラス基板133を支持する構造、言い換えれば、半導体基板131における有効画素領域141とガラス基板133との間にエアギャップ601が配置された構造においても、ガラス基板133の端面に遮光層134を設けることで、ガラス基板133の端面に入射した光L1が遮光層134によって遮られ、有効画素領域141への入射が低減されるため、ガラス端面フレアの発生による画質の低下を抑制することが可能となる。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 7.第7の実施形態
 次に、第7の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 本実施形態に係る電子機器は、第1の実施形態において説明した電子機器1000と同様であってよい。ただし、本実施形態では、イメージセンサ100が図18に例示するイメージセンサ700に置き換えられる。なお、図18は、第7の実施形態に係るイメージセンサの断面構造例を示す断面図である。
 上述した実施形態では、半導体基板131の周辺領域142上であってガラス基板133の端面付近(例えば、図8参照)又は近傍(例えば、図14参照)に遮光層134を設けた場合を例示したが、遮光層134の位置は、ガラス基板133の端面付近又は近傍に限定されるものではない。
 例えば、図18に例示するイメージセンサ700のように、半導体基板131の周辺領域142におけるOPB膜135上に、遮光層134が設けられてもよい。言い換えれば、半導体基板131の周辺領域142上であって有効画素領域141に近接する位置に、遮光層134が設けられてもよい。
 このように、遮光層134を有効画素領域141に近接させることで、ガラス基板133の端面から入射した光L1に加え、ガラス基板133の端面付近の上面から斜めに入射した光が有効画素領域141に入射することも低減できるため、ガラス端面フレアを含むフレア現象の発生による画質の低下をより抑制することが可能となる。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 8.第8の実施形態
 次に、第8の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 上述した実施形態では、ガラス基板133の端面と平行に、言い換えれば、ガラス基板133の上面及び下面に対して垂直に、遮光層134を形成した場合を例示したが、遮光層134は、ガラス基板133の上面及び下面に対して垂直でなくてもよい。
 そこで本実施形態では、遮光層134をガラス基板133の上面及び下面に対して傾斜させた場合について、幾つか例を挙げて説明する。なお、本実施形態に係る電子機器は、第1の実施形態において説明した電子機器1000と同様であってよい。
 8.1 第1例
 図19は、第1例に係るイメージセンサの断面構造例を示す断面図である。図19に示すように、第1例に係るイメージセンサ800Aでは、例えば、第1の実施形態において図5等を用いて説明したイメージセンサ100と同様の断面構造において、遮光層134が、ガラス基板133の上面及び下面に対して傾斜した遮光層834aに置き換えられている。
 より具体的には、本実施形態に係る遮光層834aは、ガラス基板133の上面側の端(以下、上端という)がガラス基板133の端面に近接し、ガラス基板133の下面側の端(以下、下端という)が半導体基板131の有効画素領域141に近接するように、傾斜している。その際、遮光層834aの下端は、周辺領域142におけるOPB膜135上に位置してもよい。
 8.2 第2例
 図20は、第2例に係るイメージセンサの断面構造例を示す断面図である。図20に示すように、第2例に係るイメージセンサ800Bでは、例えば、第1の実施形態において図5等を用いて説明したイメージセンサ100と同様の断面構造において、遮光層134が、ガラス基板133の上面及び下面に対して傾斜した遮光層834bに置き換えられている。
 より具体的には、本実施形態に係る遮光層834bは、その上端が半導体基板131の有効画素領域141に近接し、下端がガラス基板133の端面に近接するように、傾斜している。その際、遮光層834aの上端は、周辺領域142におけるOPB膜135上に位置してもよい。
 8.3 作用・効果
 以上のように、遮光層834a又は834bをガラス基板133の上面及び下面に対して傾斜させた場合でも、ガラス基板133の端面から入射した光L1が有効画素領域141に入射することを低減できるため、ガラス端面フレアの発生による画質の低下を抑制することが可能となる。
 なお、ガラス基板133の上面及び下面に対して傾斜した遮光層834a及び834bは、例えば、遮光層834a又は834bを形成する際に貼合せ基板を載置するステージをレーザ光L2の光軸に対して傾けるか、若しくは、ステージに対してレーザ光L2の光軸を傾けることで形成することが可能である。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 9.第9の実施形態
 次に、第9の実施形態に係る固体撮像装置及び電子機器について、図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成及び動作については、それを引用することで、その重複する説明を省略する。
 上述した実施形態では、ガラス基板133の上面から下端まで、言い換えれば、ガラス基板133を貫通するように、遮光層134を形成した場合を例示したが、遮光層134の形成領域は、上面から下端までに限定されるものではない。
 そこで本実施形態では、遮光層134の形成領域について、幾つか例を挙げて説明する。なお、本実施形態に係る電子機器は、第1の実施形態において説明した電子機器1000と同様であってよい。
 9.1 第1例
 図21は、第1例に係るイメージセンサの断面構造例を示す断面図である。図21に示すように、第1例に係るイメージセンサ900Aでは、例えば、第1の実施形態において図5等を用いて説明したイメージセンサ100と同様の断面構造において、遮光層134が、ガラス基板133の上面からガラス基板133の中腹までに設けられた遮光層934aに置き換えられている。すなわち、第1例では、遮光層934aの半導体基板131の裏面と垂直な方向の端であって半導体基板131側の端は、ガラス基板133の下面から離間していてもよい。
 9.2 第2例
 図22は、第2例に係るイメージセンサの断面構造例を示す断面図である。図22に示すように、第2例に係るイメージセンサ900Bでは、例えば、第1の実施形態において図5等を用いて説明したイメージセンサ100と同様の断面構造において、遮光層134が、ガラス基板133を貫通して樹脂層132まで達する遮光層934bに置き換えられている。すなわち、第2例では、遮光層934bの半導体基板131の裏面と垂直な方向の端であって半導体基板131側の端は、樹脂層132にまで達している。
 9.3 作用・効果
 以上のように、ガラス基板133の上面からその中腹までの遮光層934aやガラス基板133を貫通して樹脂層132まで達する遮光層934bを用いた場合でも、ガラス基板133の端面から入射した光L1が有効画素領域141に入射することを低減できるため、ガラス端面フレアの発生による画質の低下を抑制することが可能となる。
 なお、ガラス基板133の上面からその中腹までの遮光層934aやガラス基板133を貫通して樹脂層132まで達する遮光層934bは、例えば、遮光層934a又は934bを形成する際のレーザ光L2の強度やパルス幅を調整することで形成することが可能である。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 10.第10の実施形態
 上述した実施形態に係る遮光層134、134a、134b、134c、134d、534、834a、834b、934a又は934bをレーザ照射やイオン注入等で形成する場合、この形成時のレーザ光やイオン等が意図せずに樹脂層132にまで達してしまい、それにより、樹脂層132におけるレーザ照射やイオン注入等がされた領域(以下、変質劣化領域という)が変質又は劣化してしまう場合が存在する。この変質劣化領域は、剥離や水分侵入等といった信頼性上の不具合を発生させる可能性がある。
 そこで本実施形態では、遮光層を形成する際に樹脂層132に形成された変質劣化領域が個片化後のイメージセンサには存在しない構成とする。これにより、変質劣化領域を起因とした剥離や水分侵入等といった信頼性上の不具合の発生を低減することが可能となる。
 例えば、上述した第8の実施形態の第2例に係るイメージセンサ800B(図20参照)のように、その上端が半導体基板131の有効画素領域141に近接し、下端がガラス基板133の端面に近接するような傾斜した遮光層834bを設ける場合、遮光層834bの上端側のガラス基板133からの距離と、遮光層834bのガラス基板133の端面に対する傾斜角とを制御することで、遮光層834bを形成する際のレーザ光L2の照射軸又はイオンの注入軸の延長線上に存在する樹脂層132の領域(変質劣化領域に相当)の位置を調節することが可能である。
 また、スクライブ領域150内に位置する樹脂層132は、イメージセンサ100等を個片化する際に除去される(例えば、図12参照)。
 これらのことから、例えば、第8の実施形態の第2例において、遮光層834bを形成する際に樹脂層132に形成される変質劣化領域がスクライブ領域150内になるように、遮光層834bの上端側のガラス基板133からの距離と、遮光層834bのガラス基板133の端面に対する傾斜角とを制御する。これにより、遮光層834bを形成する際に樹脂層132に形成された変質劣化領域が個片化後のイメージセンサには存在しない構成とすることが可能となる。
 図23は、第10の実施形態に係るイメージセンサの製造方法の一例を示すプロセス断面図であって、第1の実施形態において図10を用いて説明した工程と対応する工程を説明するための図である。すなわち、本実施形態では、第1の実施形態において図9~図12を用いて説明した製造方法のうち、図10を用いて説明した遮光層134を形成する工程が、図23に示す工程に置き換えられる。
 図23に示すように、本実施形態では、例えば、遮光層1034(例えば、遮光層834bに相当)を形成するためのレーザ光L2が、チップエリア140とスクライブ領域150との境界面(ガラス基板133Aの上面と垂直な面)に対して所定角度傾いて照射される。その際、レーザ光L2の進行方向と樹脂層132とが交わる領域、すなわち、改質劣化領域1035がスクライブ領域150内に位置するように、レーザ光L2の照射位置及びその光軸(照射軸)の傾きが調整される。
 その後、第1の実施形態において図12を用いて説明したように、スクライブ領域150を切断することで、イメージセンサ1000を個々のチップに個片化する。その際、スクライブ領域150内の改質劣化領域1035も除去されるため、図24に示すように、個片化後のイメージセンサ1000のチップ内に改質劣化領域1035が残存することはない。なお、図24は、第10の実施形態に係るイメージセンサの断面構造例を示す断面図である。
 図24に示すように、個片化後のイメージセンサ1000では、遮光層1034は、ガラス基板133の上面から端面にかけて延在することとなる。したがって、個片化後のガラス基板133の端面には、遮光層1034の一部が露出している。
 ここで、レーザ光L2の照射位置とその光軸(照射軸)の傾きとの具体例について説明する。なお、本具体例では、ガラス基板133(133A)の厚さを130μmとし、樹脂層132の厚さを30μmとし、スクライブ領域150の幅を80μmとし、レーザ照射によって樹脂層132に形成される改質劣化領域1035の幅を10μmとし、ガラス基板133Aの上面におけるレーザ光L2の照射位置(レーザ光L2の光軸C2の入射位置とする)をスクライブ領域150とチップエリア140との境界152から30μm内側の位置とした場合を例示する。なお、境界152から内側とは、チップエリア140側をいう。
 また、上記構成では、スクライブ領域150を除去した際に改質劣化領域1035を個片化後のイメージセンサ1000に残存させないために、例えば、レーザ光L2の光軸C2が樹脂層132の上面に入射する位置は、スクライブ領域150とチップエリア140との境界152から少なくとも5μm外側の位置とする必要がある。なお、境界152から外側とは、スクライブ領域150側をいう。
 そこで本具体例では、樹脂層132の上面において、スクライブ領域150とチップエリア140との境界152から5μm以上外側の位置に、レーザ光L2の光軸C2を入射させることとする。
 図25は、第10の実施形態の具体例において遮光層の傾斜角を最も小さくした場合の断面図であり、図26は、第10の実施形態の具体例において遮光層の傾斜角を最も大きくした場合の断面図である。
 図25及び図26に示すように、本具体例では、遮光層1034のガラス基板133の端面に対する傾斜角を15°以上30°以下の範囲で調整することが可能である。すなわち、遮光層1034の傾斜角を15°以上30°以下の範囲で調整することで、剥離や水分侵入等といった信頼性上の不具合の発生を低減しつつ、ガラス端面フレアの発生を抑制することが可能となる。
 なお、図25及び図26に例示した数値は、単なる具体例に過ぎず、ガラス基板133の厚さや樹脂層132の厚さやスクライブ領域150の幅等に応じて適宜、レーザ光L2ガラス基板133上面への入射位置及びその光軸C2の傾斜角等を調節することで、剥離や水分侵入等といった信頼性上の不具合の発生を低減しつつ、ガラス端面フレアの発生を抑制することが可能である。
 また、上記では、改質劣化領域1035をチップ化後のイメージセンサ1000から完全に除去する場合を例示したが、これに限定されず、一部がチップ化後のイメージセンサ1000に残存していてもよい。その場合でも、剥離や水分侵入等といった信頼性上の不具合の発生を低減することが可能である。
 その他の構成、動作、製造方法及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 11.移動体への応用例
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図27は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図27に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図27の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図28は、撮像部12031の設置位置の例を示す図である。
 図28では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図28には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1面における第1領域に受光素子を備える半導体基板と、
 前記半導体基板の前記第1面と対向するガラス基板と、
 前記第1面に対して前記ガラス基板を支持する樹脂層と、
 前記ガラス基板内であって、前記半導体基板の前記第1領域を囲む第2領域と前記半導体基板の基板厚方向において対応する第3領域内に設けられ、可視光に対する物性が前記ガラス基板とは異なる層と、
 を備える固体撮像装置。
(2)
 前記層は、可視光に対する透過率、反射率及び屈折率のうちの少なくとも1つが、前記ガラス基板の可視光に対する透過率、反射率又は屈折率とは異なる前記(1)に記載の固体撮像装置。
(3)
 前記層は、前記ガラス基板の端面のうちの少なくとも1つの端面と前記第1領域との間に挟まれた領域を含む前記第3領域内に設けられている
 前記(1)又は(2)に記載の固体撮像装置。
(4)
 前記層は、前記第1領域よりも前記ガラス基板の端面に近接している前記(1)~(3)の何れか1項に記載の固体撮像装置。
(5)
 前記層は、前記ガラス基板の前記端面の一部を形成している前記(4)に記載の固体撮像装置。
(6)
 前記半導体基板は、前記第1面における前記第2領域上に、前記第1領域を囲むように設けられた遮光膜をさらに備え、
 前記層は、前記遮光膜と前記基板厚方向において対応する位置に設けられている
 前記(1)~(3)の何れか1項に記載の固体撮像装置。
(7)
 前記層は、前記ガラス基板の端面に対して階層的に配置された複数の層を含む前記(1)~(6)の何れか1項に記載の固体撮像装置。
(8)
 前記層は、前記ガラス基板における前記半導体基板と対向する面に対して傾斜している前記(1)~(3)の何れか1項に記載の固体撮像装置。
(9)
 前記層は、前記ガラス基板における前記半導体基板と対向する前記面と反対側の面から前記ガラス基板の端面にかけて延在している、(8)に記載の固体撮像装置。
(10)
 前記半導体基板は、前記第1面における前記第2領域上に、前記第1領域を囲むように設けられた遮光膜をさらに備え、
 前記層の前記第1面と垂直な方向における端のうちの一方は、前記遮光膜と前記基板厚方向において対応する位置に配置されている
 前記(8)又は(9)に記載の固体撮像装置。
(11)
 前記層の前記第1面と平行な方向における端は、前記ガラス基板の端面に達している前記(1)~(10)の何れか1項に記載の固体撮像装置。
(12)
 前記層の前記第1面と平行な方向における端は、前記ガラス基板の端面から離間している前記(1)~(10)の何れか1項に記載の固体撮像装置。
(13)
 前記層は、前記ガラス基板における前記半導体基板と対向する第2面と反対側の第3面から前記第2面にまで達している前記(1)~(12)の何れか1項に記載の固体撮像装置。
(14)
 前記層の前記第1面と垂直な方向の端であって前記半導体基板側の端は、前記ガラス基板における前記半導体基板と対向する第2面から離間している前記(1)~(12)の何れか1項に記載の固体撮像装置。
(15)
 前記層の前記第1面と垂直な方向の端であって前記半導体基板側の端は、前記樹脂層にまで達している前記(1)~(12)の何れか1項に記載の固体撮像装置。
(16)
 前記層は、前記ガラス基板の一部を改質することで形成されたフィラメントである前記(1)~(15)の何れか1項に記載の固体撮像装置。
(17)
 前記層は、前記ガラス基板の一部にドーパントを注入することで形成されたイオン注入領域である前記(1)~(15)の何れか1項に記載の固体撮像装置。
(18)
 前記樹脂層は、前記半導体基板における前記第1領域を覆う前記(1)~(17)の何れか1項に記載の固体撮像装置。
(19)
 前記半導体基板における前記第1領域と前記ガラス基板との間には、エアギャップが設けられている前記(1)~(17)の何れか1項に記載の固体撮像装置。
(20)
 前記半導体基板の端面と前記ガラス基板の端面とは、同一平面に含まれる前記(1)~(19)の何れか1項に記載の固体撮像装置。
(21)
 固体撮像装置と、
 入射光を前記固体撮像装置の受光面に結像する光学系と、
 前記固体撮像装置を制御するプロセッサと、
 を備え、
 前記固体撮像装置は、
  第1面における第1領域に受光素子を備える半導体基板と、
  前記半導体基板の前記第1面と対向するガラス基板と、
  前記第1面に対して前記ガラス基板を支持する樹脂層と、
  前記ガラス基板内であって、前記半導体基板の前記第1領域を囲む第2領域と前記半導体基板の基板厚方向において対応する第3領域内に設けられ、可視光に対する物性が前記ガラス基板とは異なる層と、
 を備える電子機器。
 100、500、600、700、800A、800B、900A、900B、1000 イメージセンサ(固体撮像装置)
 101 画素アレイ部
 102 垂直駆動回路
 103 カラム処理回路
 104 水平駆動回路
 105 システム制御部
 108 信号処理部
 109 データ格納部
 110 単位画素
 111 転送トランジスタ
 112 リセットトランジスタ
 113 増幅トランジスタ
 114 選択トランジスタ
 121 受光チップ
 122 回路チップ
 131 半導体基板
 131A 半導体ウエハ
 132、632 樹脂層
 133、133A ガラス基板
 133a、133b 端面
 134、134a、134b、134c、134d、534、834a、834b、934a、934b、1034 遮光層
 135 OPB膜
 136 電極パッド
 137 ボールバンプ
 138 パッシベーション
 140 チップエリア
 141 有効画素領域
 142 周辺領域
 150 スクライブ領域
 601 エアギャップ
 1000 電子機器
 1020 撮像レンズ
 1030 記憶部
 1035 改質劣化領域
 1040 プロセッサ
 1341 フィラメント
 L1 光
 L2 レーザ光
 LD 画素駆動線
 LD111 転送トランジスタ駆動線
 LD112 リセットトランジスタ駆動線
 LD114 選択トランジスタ駆動線
 PD フォトダイオード
 VSL 垂直信号線

Claims (20)

  1.  第1面における第1領域に受光素子を備える半導体基板と、
     前記半導体基板の前記第1面と対向するガラス基板と、
     前記第1面に対して前記ガラス基板を支持する樹脂層と、
     前記ガラス基板内であって、前記半導体基板の前記第1領域を囲む第2領域と前記半導体基板の基板厚方向において対応する第3領域内に設けられ、可視光に対する物性が前記ガラス基板とは異なる層と、
     を備える固体撮像装置。
  2.  前記層は、可視光に対する透過率、反射率及び屈折率のうちの少なくとも1つが、前記ガラス基板の可視光に対する透過率、反射率又は屈折率とは異なる請求項1に記載の固体撮像装置。
  3.  前記層は、前記ガラス基板の端面のうちの少なくとも1つの端面と前記第1領域との間に挟まれた領域を含む前記第3領域内に設けられている
     請求項1に記載の固体撮像装置。
  4.  前記層は、前記第1領域よりも前記ガラス基板の端面に近接している請求項1に記載の固体撮像装置。
  5.  前記層は、前記ガラス基板の前記端面の一部を形成している請求項4に記載の固体撮像装置。
  6.  前記半導体基板は、前記第1面における前記第2領域上に、前記第1領域を囲むように設けられた遮光膜をさらに備え、
     前記層は、前記遮光膜と前記基板厚方向において対応する位置に設けられている
     請求項1に記載の固体撮像装置。
  7.  前記層は、前記ガラス基板の端面に対して階層的に配置された複数の層を含む請求項1に記載の固体撮像装置。
  8.  前記層は、前記ガラス基板における前記半導体基板と対向する面に対して傾斜している請求項1に記載の固体撮像装置。
  9.  前記半導体基板は、前記第1面における前記第2領域上に、前記第1領域を囲むように設けられた遮光膜をさらに備え、
     前記層の前記第1面と垂直な方向における端のうちの一方は、前記遮光膜と前記基板厚方向において対応する位置に配置されている
     請求項8に記載の固体撮像装置。
  10.  前記層の前記第1面と平行な方向における端は、前記ガラス基板の端面に達している請求項1に記載の固体撮像装置。
  11.  前記層の前記第1面と平行な方向における端は、前記ガラス基板の端面から離間している請求項1に記載の固体撮像装置。
  12.  前記層は、前記ガラス基板における前記半導体基板と対向する第2面と反対側の第3面から前記第2面にまで達している請求項1に記載の固体撮像装置。
  13.  前記層の前記第1面と垂直な方向の端であって前記半導体基板側の端は、前記ガラス基板における前記半導体基板と対向する第2面から離間している請求項1に記載の固体撮像装置。
  14.  前記層の前記第1面と垂直な方向の端であって前記半導体基板側の端は、前記樹脂層にまで達している請求項1に記載の固体撮像装置。
  15.  前記層は、前記ガラス基板の一部を改質することで形成されたフィラメントである請求項1に記載の固体撮像装置。
  16.  前記層は、前記ガラス基板の一部にドーパントを注入することで形成されたイオン注入領域である請求項1に記載の固体撮像装置。
  17.  前記樹脂層は、前記半導体基板における前記第1領域を覆う請求項1に記載の固体撮像装置。
  18.  前記半導体基板における前記第1領域と前記ガラス基板との間には、エアギャップが設けられている請求項1に記載の固体撮像装置。
  19.  前記半導体基板の端面と前記ガラス基板の端面とは、同一平面に含まれる請求項1に記載の固体撮像装置。
  20.  固体撮像装置と、
     入射光を前記固体撮像装置の受光面に結像する光学系と、
     前記固体撮像装置を制御するプロセッサと、
     を備え、
     前記固体撮像装置は、
      第1面における第1領域に受光素子を備える半導体基板と、
      前記半導体基板の前記第1面と対向するガラス基板と、
      前記第1面に対して前記ガラス基板を支持する樹脂層と、
      前記ガラス基板内であって、前記半導体基板の前記第1領域を囲む第2領域と前記半導体基板の基板厚方向において対応する第3領域内に設けられ、可視光に対する物性が前記ガラス基板とは異なる層と、
     を備える電子機器。
PCT/JP2020/022281 2019-07-17 2020-06-05 固体撮像装置及び電子機器 WO2021010050A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/597,372 US20220262839A1 (en) 2019-07-17 2020-06-05 Solid-state imaging device and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019132269A JP2021019024A (ja) 2019-07-17 2019-07-17 固体撮像装置及び電子機器
JP2019-132269 2019-07-17

Publications (1)

Publication Number Publication Date
WO2021010050A1 true WO2021010050A1 (ja) 2021-01-21

Family

ID=74210575

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/022281 WO2021010050A1 (ja) 2019-07-17 2020-06-05 固体撮像装置及び電子機器

Country Status (3)

Country Link
US (1) US20220262839A1 (ja)
JP (1) JP2021019024A (ja)
WO (1) WO2021010050A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023077169A (ja) * 2021-11-24 2023-06-05 ソニーセミコンダクタソリューションズ株式会社 発光装置および測距装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230161A (ja) * 1994-02-17 1995-08-29 Mitsubishi Electric Corp T型ゲート電極形成用フォトマスク,その製造方法,及びt型ゲート電極を有する半導体装置の製造方法
JPH0888339A (ja) * 1994-09-16 1996-04-02 Fuji Film Micro Device Kk 固体撮像素子
JP2007206396A (ja) * 2006-02-02 2007-08-16 Seiko Epson Corp 基板、電気光学装置および電子機器、基板の製造方法、電気光学装置の製造方法
JP2007203334A (ja) * 2006-02-02 2007-08-16 Seiko Epson Corp 基板、電気光学装置および電子機器、基板の製造方法、電気光学装置の製造方法
JP2012114370A (ja) * 2010-11-26 2012-06-14 Fujikura Ltd 半導体パッケージ
JP2017143092A (ja) * 2016-02-08 2017-08-17 ソニー株式会社 ガラスインタポーザモジュール、撮像装置、および電子機器
US20170317124A1 (en) * 2016-05-02 2017-11-02 Omnivision Technologies, Inc. Edge reflection reduction
WO2017203592A1 (ja) * 2016-05-24 2017-11-30 オリンパス株式会社 内視鏡用光学ユニット、内視鏡、および内視鏡用光学ユニットの製造方法
WO2018173692A1 (ja) * 2017-03-21 2018-09-27 富士フイルム株式会社 硬化性組成物、硬化膜、遮光膜、固体撮像素子、固体撮像装置、及び、硬化膜の製造方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07230161A (ja) * 1994-02-17 1995-08-29 Mitsubishi Electric Corp T型ゲート電極形成用フォトマスク,その製造方法,及びt型ゲート電極を有する半導体装置の製造方法
JPH0888339A (ja) * 1994-09-16 1996-04-02 Fuji Film Micro Device Kk 固体撮像素子
JP2007206396A (ja) * 2006-02-02 2007-08-16 Seiko Epson Corp 基板、電気光学装置および電子機器、基板の製造方法、電気光学装置の製造方法
JP2007203334A (ja) * 2006-02-02 2007-08-16 Seiko Epson Corp 基板、電気光学装置および電子機器、基板の製造方法、電気光学装置の製造方法
JP2012114370A (ja) * 2010-11-26 2012-06-14 Fujikura Ltd 半導体パッケージ
JP2017143092A (ja) * 2016-02-08 2017-08-17 ソニー株式会社 ガラスインタポーザモジュール、撮像装置、および電子機器
US20170317124A1 (en) * 2016-05-02 2017-11-02 Omnivision Technologies, Inc. Edge reflection reduction
WO2017203592A1 (ja) * 2016-05-24 2017-11-30 オリンパス株式会社 内視鏡用光学ユニット、内視鏡、および内視鏡用光学ユニットの製造方法
WO2018173692A1 (ja) * 2017-03-21 2018-09-27 富士フイルム株式会社 硬化性組成物、硬化膜、遮光膜、固体撮像素子、固体撮像装置、及び、硬化膜の製造方法

Also Published As

Publication number Publication date
JP2021019024A (ja) 2021-02-15
US20220262839A1 (en) 2022-08-18

Similar Documents

Publication Publication Date Title
US20230062826A1 (en) Solid-state imaging device and imaging device with combined dynamic vision sensor and imaging functions
WO2020171191A1 (ja) 固体撮像装置及び電子機器
WO2019188043A1 (ja) 撮像装置および撮像装置の製造方法
CN114365288A (zh) 具有组合的动态视觉传感器功能和成像功能的固态成像器件和成像装置
WO2021010050A1 (ja) 固体撮像装置及び電子機器
US20230013149A1 (en) Solid-state image pickup device and electronic apparatus
WO2021095668A1 (ja) 固体撮像装置およびその製造方法
JP7531272B2 (ja) 撮像装置
US11095843B2 (en) Imaging devices and imaging apparatuses, and methods for the same
US11757053B2 (en) Package substrate having a sacrificial region for heat sink attachment
WO2023233873A1 (ja) 光検出装置及び電子機器
WO2024014134A1 (ja) 固体撮像装置
WO2022209327A1 (ja) 撮像装置
WO2024135493A1 (ja) 光検出装置
WO2023127110A1 (ja) 光検出装置及び電子機器
WO2023090053A1 (ja) 光検出装置及び電子機器
WO2024128103A1 (en) Light sensing device
US12003878B2 (en) Imaging device
WO2022181161A1 (ja) 固体撮像装置及びその製造方法
WO2024071309A1 (ja) 撮像素子、電子機器
WO2022080124A1 (ja) 撮像装置および撮像装置の製造方法
US20220415952A1 (en) Imaging devices and imaging apparatuses, and methods for the same
WO2021153030A1 (ja) 固体撮像装置およびその製造方法
CN118715617A (zh) 光检测装置和电子设备

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20840862

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20840862

Country of ref document: EP

Kind code of ref document: A1