WO2020039958A1 - 固体撮像装置、撮像装置、および電子機器 - Google Patents

固体撮像装置、撮像装置、および電子機器 Download PDF

Info

Publication number
WO2020039958A1
WO2020039958A1 PCT/JP2019/031339 JP2019031339W WO2020039958A1 WO 2020039958 A1 WO2020039958 A1 WO 2020039958A1 JP 2019031339 W JP2019031339 W JP 2019031339W WO 2020039958 A1 WO2020039958 A1 WO 2020039958A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging device
solid
state imaging
refractive index
reflected light
Prior art date
Application number
PCT/JP2019/031339
Other languages
English (en)
French (fr)
Inventor
慶次 西田
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/250,626 priority Critical patent/US11728363B2/en
Publication of WO2020039958A1 publication Critical patent/WO2020039958A1/ja
Priority to US18/348,496 priority patent/US20240006443A1/en

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/02Manufacture or treatment of semiconductor devices or of parts thereof
    • H01L21/04Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer
    • H01L21/18Manufacture or treatment of semiconductor devices or of parts thereof the devices having potential barriers, e.g. a PN junction, depletion layer or carrier concentration layer the devices having semiconductor bodies comprising elements of Group IV of the Periodic Table or AIIIBV compounds with or without impurities, e.g. doping materials
    • H01L21/30Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26
    • H01L21/31Treatment of semiconductor bodies using processes or apparatus not provided for in groups H01L21/20 - H01L21/26 to form insulating layers thereon, e.g. for masking or by using photolithographic techniques; After treatment of these layers; Selection of materials for these layers
    • H01L21/3205Deposition of non-insulating-, e.g. conductive- or resistive-, layers on insulating layers; After-treatment of these layers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L21/00Processes or apparatus adapted for the manufacture or treatment of semiconductor or solid state devices or of parts thereof
    • H01L21/70Manufacture or treatment of devices consisting of a plurality of solid state components formed in or on a common substrate or of parts thereof; Manufacture of integrated circuit devices or of parts thereof
    • H01L21/71Manufacture of specific parts of devices defined in group H01L21/70
    • H01L21/768Applying interconnections to be used for carrying current between separate components within a device comprising conductors and dielectrics
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/52Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames
    • H01L23/522Arrangements for conducting electric current within the device in operation from one component to another, i.e. interconnections, e.g. wires, lead frames including external interconnections consisting of a multilayer structure of conductive and insulating layers inseparably formed on the semiconductor body
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures

Definitions

  • the present disclosure relates to a solid-state imaging device, an imaging device, and an electronic device, and particularly to a solid-state imaging device, an imaging device, and an electronic device that can suppress generation of flare and coloring due to flare with a simple configuration.
  • CSP chip scale package
  • the wavelength control film is formed of a laminated film of TiO / SiO or the like, it takes time to form the wavelength control film.
  • the present disclosure has been made in view of such a situation, and in particular, is intended to suppress occurrence of flare and coloring due to flare with a simple configuration.
  • a solid-state imaging device, an imaging device, and an electronic apparatus may include a transparent protective substrate and a refractive index of any of a surface layer of an imaging surface of the solid-state imaging device in front of the solid-state imaging device with respect to a light incident direction.
  • a high refractive index layer having a refractive index higher than any of the transparent protective substrate and the refractive index of the surface layer of the imaging surface of the solid-state imaging device is provided upstream of the solid-state imaging device with respect to the incident direction of light. Is formed.
  • FIG. 1 is a diagram illustrating a configuration example of an imaging device of the present disclosure.
  • FIG. 2 is a schematic external view of an integrated component including a solid-state imaging device in the imaging device of FIG. 1. It is a figure explaining the substrate composition of an integrated composition part. It is a figure showing the example of circuit composition of a lamination substrate.
  • FIG. 3 is a diagram illustrating an equivalent circuit of a pixel. It is a figure showing the detailed structure of a lamination substrate. It is a figure explaining generation
  • FIG. 2 is a diagram illustrating a configuration example of a first embodiment of an integrated configuration unit according to the present disclosure.
  • FIG. 1 is a diagram illustrating a configuration example of an imaging device of the present disclosure.
  • FIG. 2 is a schematic external view of an integrated component including a solid-state imaging device in the imaging device of FIG. 1. It is a figure explaining the substrate composition of an integrated composition part. It is a figure showing the example of circuit composition of a
  • FIG. 9 is a diagram illustrating a configuration example of a second embodiment of the integrated configuration unit according to the present disclosure.
  • FIG. 13 is a diagram illustrating a configuration example of a third embodiment of an integrated configuration unit according to the present disclosure.
  • FIG. 14 is a diagram illustrating a configuration example of a fourth embodiment of an integrated configuration unit according to the present disclosure.
  • FIG. 14 is a diagram illustrating a configuration example of a fifth embodiment of an integrated configuration unit according to the present disclosure.
  • FIG. 14 is a diagram illustrating a configuration example of a sixth embodiment of an integrated configuration unit according to the present disclosure.
  • FIG. 14 is a diagram illustrating a configuration example of a seventh embodiment of an integrated configuration unit according to the present disclosure.
  • FIG. 1 is a block diagram illustrating a configuration example of an imaging device as an electronic device to which a camera module according to the present disclosure is applied.
  • FIG. 11 is a diagram illustrating a usage example of a camera module to which the technology of the present disclosure is applied. It is a figure showing an example of the schematic structure of an endoscope operation system.
  • FIG. 3 is a block diagram illustrating an example of a functional configuration of a camera head and a CCU. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • FIG. 1 is a side sectional view of the imaging apparatus.
  • a solid-state imaging device 11 includes a solid-state imaging device 11, a high-refractive-index layer 12, a bonding resin 13, a protection substrate (a transparent protection substrate, a seal glass, a glass substrate, etc.) 14, a lens group 16, a circuit substrate 17, and an actuator 18. , A connector 19, and a spacer 20.
  • the solid-state imaging device 11 is an image sensor composed of a so-called complementary metal oxide semiconductor (CMOS) or a charge coupled device (CCD), and is fixed on the circuit board 17 in a state of being electrically connected thereto.
  • CMOS complementary metal oxide semiconductor
  • CCD charge coupled device
  • the solid-state imaging device 11 is composed of a plurality of pixels arranged in an array as described later with reference to FIG. 4. A pixel signal corresponding to the amount of incident light is generated, and is output to the outside from the connector 19 via the circuit board 17 as an image signal.
  • a high refractive index layer 12 is provided on the upper surface of the solid-state imaging device 11 in FIG.
  • the high-refractive-index layer 12 is a single-layer film having a higher refractive index than any of the flattening film 11 e (FIG. 2) of the solid-state imaging device 11 and the bonding resin 13.
  • the high refractive index layer 12 is made of, for example, a silicon compound such as a silicon nitride film or silicon carbide, a metal oxide such as a titanium oxide, a tantalum oxide, a niobium oxide, a hafnium oxide, an indium oxide, or a tin oxide (tin oxide); Or an organic material such as an acrylic resin or siloxane.
  • a silicon compound such as a silicon nitride film or silicon carbide
  • a metal oxide such as a titanium oxide, a tantalum oxide, a niobium oxide, a hafnium oxide, an indium oxide, or a tin oxide (tin oxide)
  • an organic material such as an acrylic resin or siloxane.
  • the solid-state imaging device 11, the high-refractive-index layer 12, and the protective substrate 14 are stacked, bonded together by the transparent bonding resin 13, formed into an integrated structure, and connected to the circuit board 17. .
  • the solid-state imaging device 11, the high-refractive-index layer 12, and the protective substrate 14, which are surrounded by a dashed line in the drawing, are bonded together by a bonding resin 13 and integrated into a so-called CSP (Chip Scale Package). Since it is configured as described above, hereinafter, it is also simply referred to as an integrated component 10.
  • CSP Chip Scale Package
  • the spacer 20 is formed on the circuit board 17 so as to surround the entire structure in which the solid-state imaging device 11, the high refractive index layer 12, and the protective substrate 14 are integrally formed.
  • the actuator 18 is provided on the spacer 20.
  • the actuator 18 is formed in a cylindrical shape, and incorporates a lens group 16 formed by laminating a plurality of lenses inside the cylinder, and is driven in the vertical direction in FIG.
  • the actuator 18 moves the lens group 16 in the vertical direction (the front-back direction with respect to the optical axis) in FIG. Accordingly, the autofocus is realized by adjusting the focus on the imaging surface of the solid-state imaging device 11 so that a subject is imaged.
  • FIG. 2 is a schematic external view of the integrated component 10.
  • the integrated component 10 shown in FIG. 2 is a so-called CSP (Chip Scale Package) in which the solid-state imaging element 11 composed of a laminated substrate configured by laminating a lower substrate 11a and an upper substrate 11b is packaged. ).
  • CSP Chip Scale Package
  • a plurality of solder balls 11f which are back electrodes for electrically connecting to the circuit board 17 in FIG. 1, are formed on the lower substrate 11a of the laminated substrate constituting the solid-state imaging device 11.
  • an interlayer insulating film 11c and an on-chip lens (microlens) 11d including an R (red), G (green), or B (blue) color filter are formed.
  • the upper substrate 11b is connected in a cavityless structure via a planarizing film 11e for protecting and planarizing the on-chip lens 11d and an interlayer insulating film 11c.
  • a pixel region 21 in which pixel units for performing photoelectric conversion are two-dimensionally arranged in an array, and a control circuit 22 for controlling the pixel units are formed on the lower substrate 11a.
  • a logic circuit 23 such as a signal processing circuit for processing a pixel signal output from the pixel unit is formed on the lower substrate 11a.
  • only the pixel region 21 may be formed on the upper substrate 11b, and the control circuit 22 and the logic circuit 23 may be formed on the lower substrate 11a.
  • a single semiconductor substrate can be formed.
  • the size of the imaging device 1 can be reduced as compared with the case where the pixel region 21, the control circuit 22, and the logic circuit 23 are arranged in the plane direction.
  • the upper substrate 11b on which at least the pixel region 21 is formed is referred to as a pixel sensor substrate 11b
  • the lower substrate 11a on which at least the logic circuit 23 is formed is referred to as a logic substrate 11a.
  • FIG. 4 shows a circuit configuration example of the solid-state imaging device 11.
  • the solid-state imaging device 11 includes a pixel array section 33 in which pixels 32 are arranged in a two-dimensional array, a vertical drive circuit 34, a column signal processing circuit 35, a horizontal drive circuit 36, an output circuit 37, a control circuit 38, and input / output. Terminal 39 is included.
  • the pixel 32 has a photodiode as a photoelectric conversion element and a plurality of pixel transistors. An example of a circuit configuration of the pixel 32 will be described later with reference to FIG.
  • the pixel 32 may have a shared pixel structure.
  • This pixel sharing structure includes a plurality of photodiodes, a plurality of transfer transistors, one shared floating diffusion (floating diffusion region), and one shared pixel transistor. That is, in the shared pixel, the photodiodes and the transfer transistors that constitute a plurality of unit pixels share another pixel transistor.
  • the control circuit 38 receives an input clock and data instructing an operation mode and the like, and outputs data such as internal information of the solid-state imaging device 11. That is, the control circuit 38 generates a clock signal and a control signal, which serve as references for the operations of the vertical drive circuit 34, the column signal processing circuit 35, and the horizontal drive circuit 36, based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock. I do. Then, the control circuit 38 outputs the generated clock signal and control signal to the vertical drive circuit 34, the column signal processing circuit 35, the horizontal drive circuit 36, and the like.
  • the vertical driving circuit 34 is constituted by, for example, a shift register, selects a predetermined pixel driving wiring 40, supplies a pulse for driving the pixel 32 to the selected pixel driving wiring 40, and drives the pixel 32 in a row unit. I do. That is, the vertical drive circuit 34 selectively scans each pixel 32 of the pixel array unit 33 sequentially in the vertical direction in row units, and outputs a pixel signal based on the signal charge generated in the photoelectric conversion unit of each pixel 32 according to the amount of received light. Is supplied to the column signal processing circuit 35 through the vertical signal line 41.
  • the column signal processing circuit 35 is arranged for each column of the pixels 32, and performs signal processing such as noise removal on the signals output from the pixels 32 for one row for each pixel column.
  • the column signal processing circuit 5 performs signal processing such as CDS (Correlated Double Sampling: correlated double sampling) for removing fixed pattern noise unique to pixels and AD conversion.
  • CDS Correlated Double Sampling: correlated double sampling
  • the horizontal drive circuit 36 is constituted by, for example, a shift register, and sequentially outputs horizontal scan pulses to sequentially select each of the column signal processing circuits 35, and outputs a pixel signal from each of the column signal processing circuits 35 to a horizontal signal line. 42.
  • the output circuit 37 performs signal processing on signals sequentially supplied from each of the column signal processing circuits 35 through the horizontal signal line 42 and outputs the processed signals.
  • the output circuit 37 may perform, for example, only buffering, or perform black level adjustment, column variation correction, various digital signal processing, or the like.
  • the input / output terminal 39 exchanges signals with the outside.
  • the solid-state imaging device 11 configured as described above is a CMOS image sensor called a column AD system in which a column signal processing circuit 35 for performing CDS processing and AD conversion processing is arranged for each pixel column.
  • FIG. 5 shows an equivalent circuit of the pixel 32.
  • the pixel 32 shown in FIG. 5 shows a configuration for realizing an electronic global shutter function.
  • the pixel 32 includes a photodiode 51 as a photoelectric conversion element (photoelectric conversion region), a first transfer transistor 52, a memory unit (MEM) 53, a second transfer transistor 54, an FD (floating diffusion region) 55, a reset transistor 56, It has a transistor 57, a selection transistor 58, and a discharge transistor 59.
  • the photodiode 51 is a photoelectric conversion unit that generates and accumulates charges (signal charges) according to the amount of received light.
  • the anode terminal of the photodiode 51 is grounded, and the cathode terminal is connected to the memory unit 53 via the first transfer transistor 52.
  • the cathode terminal of the photodiode 51 is also connected to a discharge transistor 59 for discharging unnecessary charges.
  • the memory unit 53 is a charge holding unit that temporarily holds the charge until the charge is transferred to the FD 55.
  • the second transfer transistor 54 When the second transfer transistor 54 is turned on by the transfer signal TRG, the second transfer transistor 54 reads out the electric charge held in the memory unit 53 and transfers it to the FD 55.
  • the FD 55 is a charge holding unit that holds the charge read from the memory unit 53 for reading as a signal.
  • the reset transistor 56 When turned on by the reset signal RST, the reset transistor 56 resets the potential of the FD 55 by discharging the electric charge stored in the FD 55 to the constant voltage source VDD.
  • the amplification transistor 57 outputs a pixel signal according to the potential of the FD 55. That is, the amplifying transistor 57 forms a source follower circuit with the load MOS 60 as a constant current source, and a pixel signal indicating a level corresponding to the charge stored in the FD 55 is supplied from the amplifying transistor 57 to the column signal via the selection transistor 58. It is output to the processing circuit 35 (FIG. 4).
  • the load MOS 60 is disposed, for example, in the column signal processing circuit 35.
  • the selection transistor 58 is turned on when the pixel 32 is selected by the selection signal SEL, and outputs the pixel signal of the pixel 32 to the column signal processing circuit 35 via the vertical signal line 41.
  • the transfer signals TRX and TRG, the reset signal RST, the ejection signal OFG, and the selection signal SEL are supplied from the vertical drive circuit 34 via the pixel drive wiring 40.
  • a high-level discharge signal OFG is supplied to the discharge transistor 59 to turn on the discharge transistor 59, and the charges accumulated in the photodiode 51 are discharged to the constant voltage source VDD, and all pixels are discharged. Is reset.
  • the first transfer transistor 52 When a predetermined exposure time elapses, the first transfer transistor 52 is turned on by the transfer signal TRX in all the pixels of the pixel array unit 33, and the charge stored in the photodiode 51 is transferred to the memory unit 53. Is done.
  • the charges held in the memory unit 53 of each pixel 32 are sequentially read out to the column signal processing circuit 35 in units of rows.
  • the second transfer transistor 54 of the pixel 32 in the read row is turned on by the transfer signal TRG, and the electric charge held in the memory unit 53 is transferred to the FD 55.
  • the selection transistor 58 is turned on by the selection signal SEL, a signal indicating a level corresponding to the charge accumulated in the FD 55 is output from the amplification transistor 57 to the column signal processing circuit 35 via the selection transistor 58.
  • the exposure time is set to be the same for all the pixels of the pixel array unit 33, and after the exposure is completed, the charge is temporarily stored in the memory unit 53.
  • an operation (imaging) of the global shutter system in which charges are sequentially read from the memory unit 53 in units of rows can be performed.
  • the circuit configuration of the pixel 32 is not limited to the configuration illustrated in FIG. 5.
  • a circuit configuration that does not include the memory unit 53 and performs an operation according to a so-called rolling shutter method can be employed.
  • FIG. 6 is a cross-sectional view showing a part of the solid-state imaging device 11 in an enlarged manner.
  • a multilayer wiring layer 82 is formed on the upper side (on the pixel sensor substrate 11b side) of a semiconductor substrate 81 made of, for example, silicon (Si) (hereinafter, referred to as a silicon substrate 81).
  • the control circuit 22 and the logic circuit 23 of FIG. 3 are configured by the multilayer wiring layer 82.
  • the multilayer wiring layer 82 includes a plurality of wiring layers 83 including an uppermost wiring layer 83a closest to the pixel sensor substrate 11b, an intermediate wiring layer 83b, a lowermost wiring layer 83c closest to the silicon substrate 81, and the like. It is composed of an interlayer insulating film 84 formed between the wiring layers 83.
  • the plurality of wiring layers 83 are formed using, for example, copper (Cu), aluminum (Al), tungsten (W), and the like, and the interlayer insulating film 84 is formed using, for example, a silicon oxide film, a silicon nitride film, and the like. .
  • all layers may be formed of the same material, or two or more materials may be selectively used depending on the layer.
  • a silicon through-hole 85 is formed at a predetermined position of the silicon substrate 81 so as to penetrate the silicon substrate 81.
  • the connection conductor 87 is embedded in the inner wall of the silicon through-hole 85 via an insulating film 86 to form a silicon through hole.
  • a through electrode (TSV: Through Silicon Via) 88 is formed.
  • the insulating film 86 can be formed of, for example, a SiO2 film, a SiN film, or the like.
  • an insulating film 86 and a connection conductor 87 are formed along the inner wall surface, and the inside of the silicon through hole 85 is hollow.
  • the entire inside may be buried with the connection conductor 87.
  • the inside of the through-hole may be buried with a conductor, or a part may be hollow. This is the same for a chip through electrode (TCV: Through Chip Via) 105 described later.
  • connection conductor 87 of the through silicon via 88 is connected to the rewiring 90 formed on the lower surface of the silicon substrate 81, and the rewiring 90 is connected to the solder ball 11f.
  • the connection conductor 87 and the rewiring 90 can be formed of, for example, copper (Cu), tungsten (W), tungsten (W), polysilicon, or the like.
  • solder mask (solder resist) 91 is formed so as to cover the rewiring 90 and the insulating film 86 except for the region where the solder balls 11f are formed.
  • a multilayer wiring layer 102 is formed below the semiconductor substrate 101 made of silicon (Si) (hereinafter, referred to as the silicon substrate 101) (on the side of the logic substrate 11a).
  • the pixel circuit in the pixel region 21 in FIG. 3 is configured by the multilayer wiring layer 102.
  • the multilayer wiring layer 102 includes a plurality of wiring layers 103 including an uppermost wiring layer 103a closest to the silicon substrate 101, an intermediate wiring layer 103b, and a lowermost wiring layer 103c closest to the logic substrate 11a. It is composed of an interlayer insulating film 104 formed between the wiring layers 103.
  • the same kind of material as the above-described material of the wiring layer 83 and the interlayer insulating film 84 can be adopted.
  • the plurality of wiring layers 103 and the interlayer insulating film 104 may be formed by using one or two or more materials, similarly to the above-described wiring layer 83 and the interlayer insulating film 84.
  • the multilayer wiring layer 102 of the pixel sensor substrate 11b is configured by three wiring layers 103, and the multilayer wiring layer 82 of the logic substrate 11a is configured by four wiring layers 83.
  • the total number of wiring layers is not limited to this, and can be formed with an arbitrary number of layers.
  • a photodiode 51 formed by a PN junction is formed for each pixel 32.
  • a plurality of pixel transistors such as a first transfer transistor 52 and a second transfer transistor 54, a memory unit (MEM) 53, and the like are also formed on the multilayer wiring layer 102 and the silicon substrate 101. ing.
  • the silicon through electrode 108 connected to the wiring layer 103a of the pixel sensor substrate 11b and the wiring layer 83a of the logic substrate 11a are connected.
  • a chip through electrode 105 is formed.
  • the through-chip electrode 105 and the through-silicon electrode 108 are connected by a connection wiring 106 formed on the upper surface of the silicon substrate 101.
  • An insulating film 107 is formed between the silicon substrate 101 and each of the silicon through electrode 108 and the chip through electrode 105. Further, on the upper surface of the silicon substrate 101, an on-chip lens 11d is formed via a flattening film (insulating film) 11c.
  • the solid-state imaging device 11 shown in FIG. 2 has a laminated structure in which the multilayer wiring layer 102 side of the logic substrate 11a and the multilayer wiring layer 82 side of the pixel sensor substrate 11b are bonded.
  • a broken line indicates a bonding surface between the multilayer wiring layer 102 of the logic substrate 11a and the multilayer wiring layer 82 of the pixel sensor substrate 11b.
  • the wiring layer 103 of the pixel sensor substrate 11b and the wiring layer 83 of the logic substrate 11a are connected by two through electrodes of the silicon through electrode 108 and the chip through electrode 105,
  • the wiring layer 83 of the substrate 11a and the solder ball (back surface electrode) 11f are connected to the through silicon via 88 and the rewiring 90.
  • the plane area of the imaging device 1 can be reduced to the limit.
  • the space between the high refractive index layer 12 and the protective substrate 14 on the solid-state imaging device 11 is formed in a cavity-less structure, and is bonded to the bonding resin 13 so that the height can be reduced in the height direction.
  • the high-refractive-index layer 12 is provided between the protection substrate 14 and the solid-state imaging device 11, so that the occurrence of flare due to the internal reflection of light is suppressed, Coloring due to flare can be suppressed.
  • the reflected lights L11 to L14 the reflected lights L11 and L12 having a reflection angle smaller than the critical angle indicated by the dotted line pass through the bonding resin 13 and the protection substrate 14.
  • the reflected lights L13 and L14 having a reflection angle larger than the critical angle shown by the dotted line are again totally reflected at the positions P11 and P12 of the boundary between the protective substrate 14 and the air layer 151. I do.
  • the reflected lights L13 and L14 that have been totally reflected pass through the protective substrate 14 and the bonding resin 13 having the same reflectance, and are incident again on the solid-state imaging device 11.
  • the re-incident reflected lights L13 and L14 generate flare.
  • the integrated component 10 in the imaging device 1 of FIG. 1 has the high refractive index layer 12 provided between the bonding resin 13 and the solid-state imaging device 11. And the occurrence of flare is suppressed. Therefore, in order to explain the principle of suppressing the occurrence of flare, of the reflected light generated when the incident light L101 is reflected at the position P101 of the on-chip lens 11d, the reflected light L111 having a reflection angle larger than the critical angle is used. think about.
  • the reflected light L111 passes through the flattening film 11e, a part of the reflected light L111 is reflected as reflected light r1 at the position P111 at the boundary between the flattening film 11e and the high refractive index layer 12, as indicated by the arrow. .
  • the reflected light L111-1 whose light amount is reduced by the reflected light r1 from the reflected light L111 passes through the high refractive index layer 12.
  • the reflected light L111-1 passes through the high-refractive-index layer 12
  • a part of the reflected light L111-1 is reflected as reflected light r2 at a position P112 at the boundary between the high-refractive-index layer 12 and the bonding resin 13, as indicated by an arrow. Is done.
  • the reflected light L111-2 whose light amount is reduced by the reflected light r2 from the reflected light L111-1 passes through the bonding resin 13 and the protective substrate.
  • the reflected light L111-2 passes through the bonding resin 13 and the protective substrate 14, the reflected light L111-2 is totally reflected as indicated by an arrow at a position P121 at the boundary between the protective substrate 14 and the air layer 151, and the reflected light L111 As -3, the light passes through the protective substrate 14 and the bonding resin 13 again.
  • the reflected light L111-3 passes through the protective substrate 14 and the joining resin 13, a part of the reflected light L111-3 is reflected at the position P113 at the boundary between the joining resin 13 and the high refractive index layer 12 as indicated by an arrow. It is reflected as r3. As a result, the reflected light L111-4 whose light amount is reduced by the reflected light r3 from the reflected light L111-2 passes through the high refractive index layer 12.
  • the reflected light L111-4 passes through the high refractive index layer 12, a part of the reflected light L111-4 is reflected as reflected light r4 at a position P114 at the boundary between the high refractive index layer 12 and the flat film 11d, as indicated by an arrow. You. As a result, the reflected light L111-5 whose light amount has been reduced by the reflected light r4 from the reflected light L111-4 re-enters the on-chip lens 11d.
  • the reflected light L111 is located at positions P111 to P111 on the interface with the high refractive index layer 12 (the interface between the high refractive index layer 12 and the flattening film 11e and the interface between the bonding resin 13 and the high refractive index layer 12).
  • a part is reflected as reflected light r1 to r4.
  • the amount of the reflected light L111 is gradually reduced, and finally becomes the reflected light L111-5 and reenters the on-chip lens 11d.
  • the reflected light L111-5 is light in which the amount of light is sufficiently reduced as compared with the reflected light L111.
  • the light is re-incident on the solid-state imaging device 11, so that the occurrence of flare is suppressed and coloring due to flare is suppressed.
  • the high refractive index layer 12 has a single-layer structure, for example, the configuration is simpler than a case where the high refractive index layer 12 is formed by lamination such as a wavelength control film, and the number of steps can be reduced in manufacturing. As a result, manufacturing costs can be reduced.
  • Second embodiment >> In the above, the example in which the high refractive index layer 12 is formed between the flattening film 11e of the solid-state imaging device 11 and the bonding resin 13 has been described. If an interface with another layer that can gradually reduce the amount of reflected light can be formed between the layer and the flattening film 11e, it may be formed at another position. It may be formed between the resin 13 and the protection substrate 14.
  • FIG. 9 shows a side cross-section of the integrated component 10 when the high refractive index layer 12 is formed between the bonding resin 13 and the protective substrate 14. That is, the integrated constituent part 10 of FIG. 9 is laminated from the bottom in the figure in the order of the solid-state imaging device 11, the bonding resin 13, the high refractive index layer 12, and the protection substrate 14, and the high refractive index layer 12 It is formed between the joining resin 13 and the protection substrate 14.
  • the reflected light L131 passes through the planarizing film 11e and the bonding resin 13, a part of the reflected light L131 is reflected at the position P131 at the boundary between the bonding resin 13 and the high refractive index layer 12 as indicated by an arrow. It is reflected as r11.
  • the reflected light L131-1 whose light amount is reduced by the reflected light r11 from the reflected light L131 passes through the high refractive index layer 12.
  • the reflected light L131-1 passes through the high-refractive-index layer 12
  • a part of the reflected light L13-1 is reflected as reflected light r12 at a position P132 at the boundary between the high-refractive-index layer 12 and the protective substrate 14, as indicated by an arrow.
  • the reflected light L131-2 whose light amount is reduced by the reflected light r12 from the reflected light L131-1 is transmitted through the protective substrate.
  • the reflected light L131-2 passes through the protection substrate 14, it is totally reflected as indicated by an arrow at a position P141 at the boundary between the protection substrate 14 and the air layer 151, and is again protected as reflected light L131-3.
  • the light passes through the substrate 14.
  • the reflected light L131-4 passes through the high refractive index layer 12
  • a part of the reflected light is reflected as reflected light r14 at a position P134 at the boundary between the high refractive index layer 12 and the bonding resin 13 as indicated by an arrow. Is done.
  • the reflected light L131-5 whose light amount has been reduced by the reflected light r14 from the reflected light L131-4, passes through the bonding resin 13 and the flattening film 11e and re-enters the on-chip lens 11d.
  • the reflected light L131 is partially reflected at each of the positions P131 to P134 as reflected light r11 to r14, so that the amount of the reflected light L131 is gradually reduced and turned on as the reflected light L131-5. Re-enter the chip lens 11d.
  • the reflected light L131-5 re-entering the solid-state imaging device 11 becomes light whose amount of light is sufficiently reduced from the reflected light L131, and is returned to the solid-state imaging device 11. Since the light is incident, generation of flare is suppressed, and coloring due to flare is suppressed.
  • the high refractive index layer 12 has a single-layer structure, the configuration is simpler than a case where the high refractive index layer 12 is formed by lamination such as a wavelength control film, and the number of man-hours in manufacturing is small. Costs can be reduced.
  • FIG. 10 shows a cross-sectional side view of the integrated component 10 when the two high refractive index layers 12-1 and 12-2 are formed.
  • the high refractive index layer 12-1 is formed between the flattening film 11e of the solid-state imaging device 11 and the bonding resin 13, and the high refractive index layer 12-2 is formed. Are formed between the joining resin 13 and the protection substrate 14.
  • the reflected light L151 having a larger reflection angle than the critical angle among the reflected light at the position P101 of the on-chip lens 11d in the incident light L101 is considered.
  • the reflected light L151 passes through the flattening film 11e, a part of the reflected light L151 is reflected as reflected light r21 at the position P151 at the boundary between the flattening film 11e and the high refractive index layer 12-1 as indicated by an arrow. Is done. As a result, the reflected light L151-1, whose light amount is reduced by the reflected light r21 from the reflected light L151, passes through the high refractive index layer 12-1.
  • the reflected light L151-1 passes through the high-refractive-index layer 12-1, a part of the reflected light L151-1 is reflected as indicated by an arrow at a position P152 at the boundary between the high-refractive-index layer 12-1 and the bonding resin 13.
  • the light is reflected as light r22.
  • the reflected light L151-2 whose light amount is reduced by the reflected light r22 from the reflected light L151-1 passes through the bonding resin 13.
  • the reflected light L151-2 passes through the bonding resin 13 a part of the reflected light L151-2 is reflected light r23 as indicated by an arrow at a boundary P153 between the bonding resin 13 and the high refractive index layer 12-2. Is reflected. As a result, the reflected light L151-3 whose light amount is reduced by the reflected light r23 from the reflected light L151-2 passes through the high refractive index layer 12-2.
  • the reflected light L151-3 passes through the high-refractive-index layer 12-2, a part of the reflected light L151-3 is reflected at the position P154 at the boundary between the high-refractive-index layer 12-2 and the protective substrate 14 as indicated by an arrow. Reflected as r24. As a result, the reflected light L151-4 whose light amount is reduced by the reflected light r24 from the reflected light L151-3 is transmitted through the protective substrate.
  • the reflected light L151-4 passes through the protective substrate 14, it is totally reflected as indicated by an arrow at a position P161 at the boundary between the protective substrate 14 and the air layer 151, and is again protected as reflected light L151-5. The light passes through the substrate 14.
  • the reflected light L151-5 passes through the protective substrate 14, a part thereof is reflected as reflected light r25 as indicated by an arrow at a position P155 at the boundary between the protective substrate 14 and the high refractive index layer 12-2. You. As a result, the reflected light L151-6 whose light amount is reduced by the reflected light r25 from the reflected light L151-5 passes through the high refractive index layer 12-2.
  • the reflected light L151-6 when transmitted through the high refractive index layer 12-2, a part of the reflected light is reflected at a position P156 at the boundary between the high refractive index layer 12-2 and the bonding resin 13 as indicated by an arrow. It is reflected as light r26. As a result, the reflected light L151-7 whose light amount is reduced by the reflected light r26 from the reflected light L151-6 passes through the bonding resin 13.
  • the reflected light L151-7 passes through the bonding resin 13 a part of the reflected light L151-7 becomes reflected light r27 at a position P157 at the boundary between the bonding resin 13 and the high refractive index layer 12-1 as indicated by an arrow. Is reflected. As a result, the reflected light L151-8 whose light amount is reduced by the reflected light r27 from the reflected light L151-7 passes through the high refractive index layer 12-1.
  • the reflected light L151-8 passes through the high refractive index layer 12-1, as indicated by an arrow at a position P158 at the boundary between the high refractive index layer 12-1 and the flattening film 11e of the solid-state imaging device 11, as shown by an arrow. Is partially reflected as reflected light r28.
  • the reflected light L151-9 whose light amount has been reduced by the reflected light r28 from the reflected light L151-8 re-enters the on-chip lens 11d.
  • the reflected light L151 is partially reflected at each of the positions P151 to P158 as reflected light r21 to r28, whereby the amount of the reflected light L151 is gradually reduced, and finally the reflected light L151- 9 and re-enters the on-chip lens 11d.
  • the reflected light L151-9 is light whose amount of light is sufficiently reduced as compared with the reflected light L151.
  • the light is re-incident on the solid-state imaging device 11, so that the occurrence of flare is suppressed and coloring due to flare is suppressed.
  • the high refractive index layers 12-1 and 12-2 have a two-layer configuration as compared with the configuration of the integrated component 10 of FIGS. Since the interface is doubled and the amount of reflected light that re-enters the solid-state imaging device 11 is further reduced, it is possible to further suppress the occurrence of flare and coloring due to flare.
  • the high refractive index layers 12-1 and 12-2 have a single-layer structure, the configuration is simpler than the case where they are formed by laminating like a wavelength control film, and the manufacturing is also difficult. Since the number of steps is small, it is possible to reduce the manufacturing cost.
  • the high-refractive-index layer 12 may have a structure of more than two layers. Accordingly, the amount of reflected light re-entering the solid-state imaging device 11 can be further reduced, and the occurrence of flare and coloring accompanying flare can be further suppressed.
  • FIG. 11 shows a side cross section of an integrated component 10 in which a high-refractive-index resin 12 ′ is formed instead of the high-refractive-index layer 12 and the bonding resin 13. That is, in the integrated component portion 10 of FIG. 11, a high refractive index bonding resin 12 ′, which is a high refractive index bonding resin, is provided between the flattening film 11 e of the solid-state imaging device 11 and the protective substrate 14. Is formed.
  • the reflected light L171-1 transmits through the bonding high refractive resin 12 ′
  • a part of the reflected light L171-1 is reflected at the position P172 at the boundary between the bonding high refractive resin 12 ′ and the protective substrate 14 as indicated by an arrow. It is reflected as r32.
  • the reflected light L171-2 whose light amount is reduced by the reflected light r32 from the reflected light L171-1 is transmitted through the protective substrate.
  • the reflected light L171-2 passes through the protection substrate 14, it is totally reflected as indicated by an arrow at a position P181 at the boundary between the protection substrate 14 and the air layer 151, and is again protected as reflected light L171-3.
  • the light passes through the substrate 14.
  • the reflected light L171-3 passes through the protective substrate 14, a part of the reflected light L171-3 is reflected as reflected light r33 at a position P173 at the boundary between the protective substrate 14 and the high-refractive resin for bonding 12 'as indicated by an arrow. You. As a result, the reflected light L171-4, the amount of which is reduced from the reflected light L171-3 by the amount of the reflected light r33, passes through the high refractive resin for bonding 12 '.
  • the reflected light L171-4 passes through the bonding high refractive resin 12 ', a part of the reflected light L171-4 is reflected at the position P174 at the boundary between the bonding high refractive resin 12' and the flattening film 11e as indicated by the arrow.
  • the light is reflected as light r34.
  • the reflected light L171-5 passes through the flattening film 11e and re-enters the on-chip lens 11d.
  • the reflected light L171 is partially reflected as reflected light r31 to r34 sequentially at each of the positions P171 to P174.
  • the amount of the reflected light L171 is gradually reduced, and the reflected light L171 re-enters the on-chip lens 11d as the reflected light L171-5.
  • the reflected light L171-5 re-entering the solid-state imaging device 11 re-enters with the amount of light reduced sufficiently from the reflected light L171.
  • the occurrence of flare is suppressed, and coloring due to flare is suppressed.
  • the bonding high refractive resin 12 ′ has a single-layer structure, for example, the configuration is simpler than in the case of being formed by lamination such as a wavelength control film and the like, and the number of man-hours in manufacturing is small. In addition, the manufacturing cost can be reduced.
  • the flattening film 11e of the solid-state imaging device 11 and the protective substrate 14 are merely bonded by the bonding high refractive resin 12 ', the number of steps can be further reduced.
  • FIG. 12 shows a side cross section of an integrated component 10 in which a high-refractive-index protective substrate 12 ′′ is formed instead of the protective substrate 14. That is, in the integrated component part 10 of FIG. 12, instead of the high refractive index layer 12 and the protective substrate 14, a high refractive index protective substrate 12 '' which is a high refractive index protective substrate is formed.
  • the reflected light L191 passes through the flattening film 11e and the bonding resin 13, a part of the reflected light L191 is located at a position P191 at the boundary between the bonding resin 13 and the high-refractive protection substrate 12 '' as indicated by an arrow.
  • the light is reflected as reflected light r41.
  • the reflected light L191-1 whose light amount is reduced by the reflected light r41 from the reflected light L191 is transmitted through the high refractive index protection substrate 12 ''.
  • the reflected light L191-1 transmits through the high-refractive protection substrate 12 ′′, it is totally reflected as indicated by an arrow at a position P201 at the boundary between the high-refractive protection substrate 12 ′′ and the air layer 151, The reflected light L191-2 is transmitted through the high refractive index protection substrate 12 '' again.
  • the reflected light L191-2 passes through the high-refractive protection substrate 12 '', a part of the reflected light L191-2 is reflected at the position P192 at the boundary between the high-refractive protection substrate 12 '' and the bonding resin 13 as indicated by the arrow. It is reflected as light r42.
  • the reflected light L191-3 whose light amount is reduced by the amount of the reflected light r42 from the reflected light L191-2 passes through the bonding resin 13 and the flattening film 11e and re-enters the on-chip lens 11d.
  • the reflected light L191 is partially reflected at each of the positions P191 and P192 as the reflected lights r41 and r42, so that the amount of the reflected light L191 is gradually reduced, and the reflected light L191 is turned on as the reflected light L191-3. Re-enter the chip lens 11d.
  • the reflected light L191-3 re-entering the solid-state imaging device 11 re-enters with the amount of light reduced sufficiently from the reflected light L191.
  • the occurrence of flare is suppressed, and coloring due to flare is suppressed.
  • the high refractive index protection substrate 12 ′′ is simply bonded to the flattening film 11e of the solid-state imaging device 11 with the bonding resin 13 in the integrated component 10 of FIG. Since the number of man-hours in manufacturing is smaller than that of the integrated component 10 described above, the manufacturing cost can be further reduced.
  • the refractive index of the high-refractive-index protective substrate 12 ′′ needs to be larger than that of the bonding resin 13 in order to reduce flare by utilizing reflection due to the difference in refractive index. is there.
  • the high refractive index layer 12 may be formed on the upper surface of the protective substrate 14.
  • FIG. 13 shows a side cross section of the integrated component 10 in which the high refractive index layer 12 is formed on the upper surface of the protective substrate 14. That is, in the integrated component 10 of FIG. 13, the high refractive index layer 12 is formed on the protective substrate 14.
  • the reflected light L211 passes through the flattening film 11e, the bonding resin 13, and the protection substrate 14, the reflected light L211 is located at the boundary P211 between the protection substrate 14 and the high refractive index layer 12 as indicated by an arrow.
  • the part is reflected as reflected light r51.
  • the reflected light L211-1 whose light amount is reduced by the reflected light r51 from the reflected light L211 passes through the high refractive index layer 12.
  • the reflected light L211-1 passes through the high refractive index layer 12, and is totally reflected as indicated by an arrow at a position P221 at the boundary between the high refractive index layer 12 and the air layer 151, and the reflected light L211-1 is reflected. As -2, the light passes through the high refractive index layer 12 again.
  • the reflected light L211-2 passes through the high-refractive-index layer 12
  • a part of the reflected light L211-2 is reflected as reflected light r52 at a position P212 at the boundary between the high-refractive-index layer 12 and the protective substrate 14, as indicated by an arrow.
  • the reflected light L211-3 whose light amount is reduced by the reflected light r52 from the reflected light L211-2 passes through the protective substrate 14, the bonding resin 13, and the planarizing film 11e, and re-enters the on-chip lens 11d. I do.
  • the reflected light L211 is partially reflected at each of the positions P211 and P212 as reflected light r51 and r52, whereby the amount of the reflected light L211 is gradually reduced, and the reflected light L211 is turned on as the reflected light L211-3. Re-enter the chip lens 11d.
  • the reflected light L211-3 re-entering the solid-state imaging device 11 re-enters with the amount of light reduced sufficiently from the reflected light L211.
  • the occurrence of flare is suppressed.
  • the high refractive index layer 12 since the high refractive index layer 12 has a single-layer structure, the number of man-hours in manufacturing is smaller than that of a wavelength control layer or the like having a laminated structure. Can be further reduced.
  • the lens group 16 is provided at the previous stage with respect to the light incident direction of the integrated component 10, but a part of the last stage of the lens group 16 is attached to the integrated component 10. Is also good.
  • FIG. 14 is a configuration example of the integrated component unit 10 in which a part of the last stage of the lens group 16 is bonded.
  • FIG. 14 shows a configuration in which the last lens 171 of the lens group 16 is bonded to the integrated component 10 described with reference to FIG.
  • the high refractive index layer 12 has a single-layer structure, so that the number of man-hours in manufacturing is smaller than that of the wavelength control layer and the like, so that the manufacturing cost is further reduced. It is possible to do.
  • the weight of the lens group 16 can be reduced. Can be speeded up.
  • the lens 171 is formed on the other integrated component 10.
  • the lens 171 may be formed on any one of the integrated components 10 shown in FIGS. 9 to 13.
  • the shape of the lens 171 may be a concave lens as shown in FIG. 14, a convex lens, or a combination of a concave lens and a convex lens.
  • the imaging apparatus 1 of FIG. 1 including the above-described integrated configuration unit 10 of FIGS. 8 to 14 is, for example, an imaging apparatus such as a digital still camera or a digital video camera, a mobile phone having an imaging function, or an imaging apparatus.
  • the present invention can be applied to various electronic devices such as other devices having functions.
  • FIG. 15 is a block diagram illustrating a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • An imaging device 1001 shown in FIG. 15 includes an optical system 1002, a shutter device 1003, a solid-state imaging device 1004, a driving circuit 1005, a signal processing circuit 1006, a monitor 1007, and a memory 1008, and is configured to display still images and moving images. Imaging is possible.
  • the optical system 1002 includes one or more lenses, guides light from a subject (incident light) to the solid-state imaging device 1004, and forms an image on the light receiving surface of the solid-state imaging device 1004.
  • the shutter device 1003 is disposed between the optical system 1002 and the solid-state imaging device 1004, and controls a light irradiation period and a light-shielding period of the solid-state imaging device 1004 under the control of the drive circuit 1005.
  • the solid-state imaging device 1004 is configured by a package including the above-described solid-state imaging device.
  • the solid-state imaging device 1004 accumulates signal charges for a certain period according to light formed on the light receiving surface via the optical system 1002 and the shutter device 1003.
  • the signal charges stored in the solid-state imaging device 1004 are transferred according to a drive signal (timing signal) supplied from the drive circuit 1005.
  • the drive circuit 1005 outputs a drive signal for controlling the transfer operation of the solid-state imaging device 1004 and the shutter operation of the shutter device 1003, and drives the solid-state imaging device 1004 and the shutter device 1003.
  • the signal processing circuit 1006 performs various kinds of signal processing on the signal charges output from the solid-state imaging device 1004.
  • An image (image data) obtained by performing signal processing by the signal processing circuit 1006 is supplied to a monitor 1007 and displayed, or supplied to a memory 1008 and stored (recorded).
  • the imaging device 1 including any one of the integrated components 10 shown in FIGS. 8 to 14 instead of the optical system 1002 and the solid-state imaging device 1004 described above.
  • FIG. 16 is a diagram illustrating a usage example in which the above-described imaging device 1 is used.
  • the imaging device 1 described above can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, for example, as described below.
  • a device that captures images for viewing such as digital cameras and portable devices with camera functions.
  • Devices used for traffic such as in-vehicle sensors that capture images of the rear, surroundings, and inside the vehicle, surveillance cameras that monitor running vehicles and roads, and ranging sensors that measure the distance between vehicles, etc.
  • Apparatus used for home appliances such as TVs, refrigerators, air conditioners, etc. in order to take images and operate the equipment in accordance with the gestures ⁇ Endoscopes, devices that perform blood vessel imaging by receiving infrared light, etc.
  • Equipment used for medical and healthcare purposes such as surveillance cameras for crime prevention and cameras for person authentication
  • Skin measuring instruments for photographing skin and scalp Beauty microscope such as -Equipment used for sports, such as action cameras and wearable cameras for sports applications-Used for agriculture, such as cameras for monitoring the condition of fields and crops apparatus
  • Example of application to endoscopic surgery system >> The technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 17 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology (the present technology) according to the present disclosure may be applied.
  • FIG. 17 shows a situation in which an operator (doctor) 11131 is performing an operation on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 having a predetermined length from the distal end inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • the endoscope 11100 which is configured as a so-called rigid endoscope having a hard lens barrel 11101 is illustrated.
  • the endoscope 11100 may be configured as a so-called flexible endoscope having a soft lens barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the distal end of the lens barrel by a light guide that extends inside the lens barrel 11101, and the objective The light is radiated toward the observation target in the body cavity of the patient 11132 via the lens.
  • the endoscope 11100 may be a direct view scope, a perspective view scope, or a side view scope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the imaging element, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as raw data to a camera control unit (CCU: ⁇ Camera ⁇ Control ⁇ Unit) 11201.
  • the $ CCU 11201 is configured by a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and controls the operations of the endoscope 11100 and the display device 11202 overall. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as a development process (demosaicing process).
  • a development process demosaicing process
  • the display device 11202 displays an image based on an image signal on which image processing has been performed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 includes a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light when imaging an operation part or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies the endoscope 11100 with irradiation light when imaging an operation part or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction or the like to change imaging conditions (type of irradiation light, magnification, focal length, and the like) by the endoscope 11100.
  • the treatment instrument control device 11205 controls the driving of the energy treatment instrument 11112 for cauterizing, incising a tissue, sealing a blood vessel, and the like.
  • the insufflation device 11206 is used to inflate the body cavity of the patient 11132 for the purpose of securing the visual field by the endoscope 11100 and securing the working space of the operator.
  • the recorder 11207 is a device that can record various types of information related to surgery.
  • the printer 11208 is a device capable of printing various types of information on surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the endoscope 11100 with irradiation light at the time of imaging the operation site can be configured by, for example, a white light source including an LED, a laser light source, or a combination thereof.
  • a white light source is configured by a combination of the RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy, so that the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is radiated to the observation target in a time-division manner, and the driving of the image pickup device of the camera head 11102 is controlled in synchronization with the irradiation timing. It is also possible to capture the image obtained in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 11203 may be controlled so as to change the intensity of output light at predetermined time intervals.
  • the driving of the image sensor of the camera head 11102 in synchronization with the timing of the change of the light intensity, an image is acquired in a time-division manner, and the image is synthesized, so that a high dynamic image without so-called blackout and whiteout is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of the absorption of light in the body tissue, by irradiating light in a narrower band than the irradiation light (ie, white light) at the time of normal observation, the surface of the mucous membrane is exposed.
  • a so-called narrow-band light observation (Narrow / Band / Imaging) for photographing a predetermined tissue such as a blood vessel with high contrast is performed.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating excitation light may be performed.
  • body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and Irradiation with excitation light corresponding to the fluorescence wavelength of the reagent can be performed to obtain a fluorescence image.
  • the light source device 11203 can be configured to be able to supply narrowband light and / or excitation light corresponding to such special light observation.
  • FIG. 18 is a block diagram showing an example of a functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102, and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 includes an imaging element.
  • the number of imaging elements constituting the imaging unit 11402 may be one (so-called single-panel type) or plural (so-called multi-panel type).
  • an image signal corresponding to each of RGB may be generated by each imaging element, and a color image may be obtained by combining the image signals.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for acquiring right-eye and left-eye image signals corresponding to 3D (Dimensional) display. By performing the 3D display, the operator 11131 can more accurately grasp the depth of the living tissue in the operative part.
  • a plurality of lens units 11401 may be provided for each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is configured by an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405.
  • the magnification and the focus of the image captured by the imaging unit 11402 can be appropriately adjusted.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling driving of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information indicating that the frame rate of the captured image is specified, information that specifies the exposure value at the time of imaging, and / or information that specifies the magnification and focus of the captured image. Contains information about the condition.
  • the above-described imaging conditions such as the frame rate, the exposure value, the magnification, and the focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good.
  • the endoscope 11100 has a so-called AE (Auto Exposure) function, an AF (Auto Focus) function, and an AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the driving of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various types of image processing on an image signal that is RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various kinds of control related to imaging of the operation section and the like by the endoscope 11100 and display of a captured image obtained by imaging the operation section and the like. For example, the control unit 11413 generates a control signal for controlling driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image showing the operative part or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects a shape, a color, or the like of an edge of an object included in the captured image, and thereby detects a surgical tool such as forceps, a specific living body site, bleeding, a mist when using the energy treatment tool 11112, and the like. Can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgery support information on the image of the operative site.
  • the burden on the operator 11131 can be reduced, and the operator 11131 can reliably perform the operation.
  • the transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electric signal cable corresponding to electric signal communication, an optical fiber corresponding to optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure may be applied to, for example, the endoscope 11100, the camera head 11102 (the imaging unit 11402), the CCU 11201 (the image processing unit 11412), among the configurations described above.
  • the imaging device 1 of FIG. 1 including the integrated component unit 10 of any of FIGS. 8 to 14 can be applied to the lens unit 11401 and the imaging unit 10402.
  • the endoscopic surgery system has been described as an example, but the technology according to the present disclosure may be applied to, for example, a microscopic surgery system or the like.
  • the technology (the present technology) according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of moving object such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 19 is a block diagram illustrating a schematic configuration example of a vehicle control system that is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 12000 includes a plurality of electronic control units connected via communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an inside information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio / video output unit 12052, and a vehicle-mounted network I / F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the driving system control unit 12010 includes a driving force generating device for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting driving force to wheels, and a steering angle of the vehicle. It functions as a control mechanism such as a steering mechanism for adjusting and a braking device for generating a braking force of the vehicle.
  • the body control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a blinker, and a fog lamp.
  • a radio wave or various switch signals transmitted from a portable device replacing the key may be input to the body control unit 12020.
  • the body control unit 12020 receives the input of these radio waves or signals and controls a door lock device, a power window device, a lamp, and the like of the vehicle.
  • Out-of-vehicle information detection unit 12030 detects information external to the vehicle on which vehicle control system 12000 is mounted.
  • an imaging unit 12031 is connected to the outside-of-vehicle information detection unit 12030.
  • the out-of-vehicle information detection unit 12030 causes the imaging unit 12031 to capture an image outside the vehicle, and receives the captured image.
  • the out-of-vehicle information detection unit 12030 may perform an object detection process or a distance detection process of a person, a vehicle, an obstacle, a sign, a character on a road surface, or the like based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output an electric signal as an image or can output the information as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information in the vehicle.
  • the in-vehicle information detection unit 12040 is connected to, for example, a driver status detection unit 12041 that detects the status of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of driver fatigue or concentration based on the detection information input from the driver state detection unit 12041. The calculation may be performed, or it may be determined whether the driver has fallen asleep.
  • the microcomputer 12051 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit A control command can be output to 12010.
  • the microcomputer 12051 implements the functions of ADAS (Advanced Driver Assistance System) including vehicle collision avoidance or impact mitigation, following running based on the following distance, vehicle speed maintaining running, vehicle collision warning, or vehicle lane departure warning. Cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, and the like based on the information about the surroundings of the vehicle obtained by the outside information detection unit 12030 or the inside information detection unit 12040, so that the driver 120 It is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on information on the outside of the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp in accordance with the position of the preceding vehicle or the oncoming vehicle detected by the outside-of-vehicle information detection unit 12030, and performs cooperative control for the purpose of preventing glare such as switching a high beam to a low beam. It can be carried out.
  • the sound image output unit 12052 transmits at least one of a sound signal and an image signal to an output device capable of visually or audibly notifying a passenger of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 20 is a diagram illustrating an example of an installation position of the imaging unit 12031.
  • the vehicle 12100 includes imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as a front nose, a side mirror, a rear bumper, a back door of the vehicle 12100, and an upper portion of a windshield in the vehicle interior.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided above the windshield in the passenger compartment mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirror mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the forward images acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, and the like.
  • FIG. 20 shows an example of the imaging range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates 14 shows an imaging range of an imaging unit 12104 provided in a rear bumper or a back door.
  • a bird's-eye view image of the vehicle 12100 viewed from above is obtained by superimposing image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of imaging elements or an imaging element having pixels for detecting a phase difference.
  • the microcomputer 12051 calculates a distance to each three-dimensional object in the imaging ranges 12111 to 12114 and a temporal change of the distance (relative speed with respect to the vehicle 12100). , It is possible to extract, as a preceding vehicle, a three-dimensional object that travels at a predetermined speed (for example, 0 km / h or more) in a direction substantially the same as that of the vehicle 12100, which is the closest three-dimensional object on the traveling path of the vehicle 12100. it can.
  • a predetermined speed for example, 0 km / h or more
  • microcomputer 12051 can set an inter-vehicle distance to be secured before the preceding vehicle and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts the three-dimensional object data relating to the three-dimensional object into other three-dimensional objects such as a motorcycle, a normal vehicle, a large vehicle, a pedestrian, a telephone pole, and the like based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating a risk of collision with each obstacle. By outputting a warning to the driver through the drive system or performing forced deceleration and avoidance steering via the drive system control unit 12010, driving assistance for collision avoidance can be performed.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared light.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian exists in the captured images of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed by, for example, extracting a feature point in an image captured by the imaging units 12101 to 12104 as an infrared camera, and performing a pattern matching process on a series of feature points indicating the outline of the object to determine whether the object is a pedestrian.
  • the audio image output unit 12052 outputs a rectangular contour for emphasis to the recognized pedestrian.
  • the display unit 12062 is controlled so that is superimposed. Further, the sound image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 12031 in the configuration described above.
  • the imaging device 1 of FIG. 1 including the integrated component 10 of any of FIGS. 8 to 14 can be applied to the imaging unit 12031.
  • a high-refractive-index layer having a higher refractive index than any of the transparent protective substrate and the surface layer of the imaging surface of the solid-state imaging device is formed in a stage preceding the solid-state imaging device with respect to the incident direction of light.
  • the solid-state imaging device according to ⁇ 2>, wherein the high refractive index layer is formed between the transparent protective substrate and the bonding resin layer having a lower refractive index than the high refractive index layer.
  • the high refractive index layer is formed as a plurality of layers.
  • the high refractive index layer is between the transparent protective substrate and the bonding resin layer having a lower refractive index than the high refractive index layer, and between the bonding resin layer and the solid-state imaging device.
  • the solid-state imaging device according to ⁇ 5>, which is formed.
  • the solid-state imaging device according to ⁇ 2>, wherein the high refractive index layer is formed of a bonding resin layer having a high refractive index and is formed between the transparent protective substrate and the solid-state imaging device.
  • the high refractive index layer is made of a transparent protective substrate having a high refractive index, and a bonding resin layer is formed between the transparent protective substrate having a high refractive index and the solid-state imaging device.
  • the solid-state imaging device according to any one of 1> to ⁇ 7>.
  • the high refractive index layer is formed before the transparent protective substrate, and a bonding resin layer is formed between the transparent protective substrate and the solid-state imaging device. Any of ⁇ 1> to ⁇ 8> 20.
  • the solid-state imaging device according to ⁇ 10>
  • the last lens group of the lens group including a plurality of lenses for adjusting the focus is attached at the forefront with respect to the light incident direction, and is formed by bonding ⁇ 1> to ⁇ 9>.
  • the solid-state imaging device according to any one of the above.
  • ⁇ 11> The solid-state imaging device according to ⁇ 10>, wherein the last lens group includes a concave lens, a convex lens, and a combination of the concave lens and the convex lens.
  • ⁇ 12> The solid-state imaging device according to any one of ⁇ 1> to ⁇ 11>, wherein the high refractive index layer is formed of a single-layer film.
  • ⁇ 13> The solid-state imaging device according to any one of ⁇ 1> to ⁇ 12>, wherein a surface layer of an imaging surface of the solid-state imaging device is a planarization film that planarizes a surface layer of an on-chip lens.
  • a high-refractive-index layer having a higher refractive index than any of the transparent protective substrate and the surface layer of the imaging surface of the solid-state imaging device is formed in a stage preceding the solid-state imaging device with respect to the incident direction of light. apparatus.
  • a high-refractive-index layer having a higher refractive index than any of the transparent protective substrate and the surface layer of the imaging surface of the solid-state imaging device is formed before the solid-state imaging device with respect to the light incident direction. machine.
  • imaging device ⁇ 10 ⁇ integrated component, ⁇ 11 ⁇ (CPS structure) solid-state imaging device, ⁇ 11a ⁇ lower substrate (logic substrate), ⁇ 11b ⁇ upper substrate (pixel sensor substrate), ⁇ 11c ⁇ color filter, ⁇ 11d ⁇ on-chip lens, ⁇ 11e ⁇ flattening Film, ⁇ 12 ⁇ high-refractive index layer, ⁇ 12 ′ ⁇ high-refractive resin for bonding, ⁇ 12 ′′ high-refractive protective substrate, ⁇ 13 ⁇ bonding resin, ⁇ 14 ⁇ protective substrate, ⁇ 16 ⁇ lens group, ⁇ 17 ⁇ circuit board, ⁇ 18 ⁇ actuator, ⁇ 19 ⁇ connector, ⁇ 20 ⁇ spacer, 21 pixel area, 22 control circuit, 23 logic circuit, 32 pixel, 51 photodiode, 81 silicon substrate, 83 wiring layer, 86 insulating film, 88 silicon through electrode, 91 solder mask, 101 silicon substrate, 103 wiring Layers, 105 chips through electrode 106 connecting wiring, 108 through silicon via

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Manufacturing & Machinery (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)
  • Studio Devices (AREA)

Abstract

本開示は、簡易な構成でフレアの発生を抑制するとともに、フレアによる色付きを抑制できるようにする固体撮像装置、撮像装置、および電子機器に関する。 固体撮像素子と透明保護基板(ガラス基板)との間に高屈折率層を形成する。オンチップレンズにより発生する回折光による反射光が、高屈折率層との界面で発生する反射が生じることで、表層の透明保護基板で全反射した後、再入射するときまでに十分減衰することで、フレアとフレアによる色付きが抑制される。本開示は、撮像装置に適応することができる。

Description

固体撮像装置、撮像装置、および電子機器
 本開示は、固体撮像装置、撮像装置、および電子機器に関し、特に、簡易な構成でフレアの発生と、フレアによる色付きを抑制できるようにした固体撮像装置、撮像装置、および電子機器に関する。
 近年、撮像素子の簡易なパッケージ方法として、チップスケールパッケージ(Chip Scale Package;CSP)構造が提案され、このCSP構造の撮像素子が量産されている。
 ところが、上記したCSP構造では、撮像素子の上面で反射した光がシールガラス(保護基盤)で全反射して、再入射することで生じる、CSP構造以外のパッケージ構造では生じることのなかったフレア(偽画像)光が発生する。
 そこで、シールガラスに波長制御膜を形成することでフレアを抑制する技術が提案されている(特許文献1,2参照)。
特開2012-175461号公報 特開2013-041941号公報
 しかしながら、特許文献1,2に記載の波長制御膜は、波長依存性があり、フレアによる色付きを抑制できない恐れがあった。
 また、波長制御膜は、TiO/SiO等の積層膜により形成されるため、波長制御膜の形成に工数が掛かる。
 本開示は、このような状況に鑑みてなされたものであり、特に、簡易な構成でフレアの発生と、フレアによる色付きを抑制できるようにするものである。
 本開示の一側面の固体撮像装置、撮像装置、および電子機器は、光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される固体撮像装置、撮像装置、および電子機器である。
 本開示の一側面においては、光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される。
本開示の撮像装置の構成例を説明する図である。 図1の撮像装置における固体撮像素子を含む一体化構成部の外観概略図である。 一体化構成部の基板構成を説明する図である。 積層基板の回路構成例を示す図である。 画素の等価回路を示す図である。 積層基板の詳細構造を示す図である。 フレアの発生を説明する図である。 本開示の一体化構成部の第1の実施の形態の構成例を説明する図である。 本開示の一体化構成部の第2の実施の形態の構成例を説明する図である。 本開示の一体化構成部の第3の実施の形態の構成例を説明する図である。 本開示の一体化構成部の第4の実施の形態の構成例を説明する図である。 本開示の一体化構成部の第5の実施の形態の構成例を説明する図である。 本開示の一体化構成部の第6の実施の形態の構成例を説明する図である。 本開示の一体化構成部の第7の実施の形態の構成例を説明する図である。 本開示のカメラモジュールを適用した電子機器としての撮像装置の構成例を示すブロック図である。 本開示の技術を適用したカメラモジュールの使用例を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第3の実施の形態
 4.第4の実施の形態
 5.第5の実施の形態
 6.第6の実施の形態
 7.第7の実施の形態
 8.電子機器への適用例
 9.固体撮像装置の使用例
 10.内視鏡手術システムへの応用例
 11.移動体への応用例
 <<1.第1の実施の形態>>
 <本開示の撮像装置の構成例>
 図1を参照して、簡易な構成でフレアの発生を抑制すると共に、フレアによる色付きを抑制する、本開示の撮像装置の構成例について説明する。尚、図1は、撮像装置の側面断面図である。
 図1の撮像装置1は、固体撮像素子11、高屈折率層12、接合用樹脂13、保護基板(透明保護基板、シールガラス、ガラス基板等)14、レンズ群16、回路基板17、アクチュエータ18、コネクタ19、およびスペーサ20より構成されている。
 固体撮像素子11は、いわゆるCMOS(Complementary Metal Oxide Semiconductor)や、CCD(Charge Coupled Device)などからなるイメージセンサであり、回路基板17上で電気的に接続された状態で固定されている。固体撮像素子11は、図4を参照して後述するように、アレイ状に配置された複数の画素より構成され、画素単位で、図中上方よりレンズ群16を介して集光されて入射される、入射光の光量に応じた画素信号を生成し、画像信号として回路基板17を介してコネクタ19より外部に出力する。
 固体撮像素子11の図1中の上面部には、高屈折率層12が設けられている。高屈折率層12は、固体撮像素子11の平坦化膜11e(図2)、および、接合用樹脂13のいずれの屈折率よりも高い屈折率の単層膜である。
 高屈折率層12は、例えば、シリコン窒化膜、炭化シリコンなどのシリコン化合物、酸化チタン、酸化タンタル、酸化ニオブ、酸化ハフニウム、酸化インジウム、酸化錫(すず)、などの金属酸化物、或いは、これらの複合酸化物、または、アクリル系樹脂やシロキサンなどの有機物から構成される。
 高屈折率層12と、保護基板14とは、保護基板14と同一の屈折率の接合用樹脂13により接合されている。
 すなわち、固体撮像素子11、高屈折率層12、および保護基板14が、積層され、透明の接合用樹脂13により、貼り合わされて、一体的な構成とされて、回路基板17に接続されている。尚、図中の一点鎖線で囲まれた、固体撮像素子11、高屈折率層12、および保護基板14は、接合用樹脂13により貼り合わされて、いわゆる、CSP(Chip Scale Package)に一体化された構成にされているので、以降においては、単に、一体化構成部10とも称する。
 固体撮像素子11、高屈折率層12、および保護基板14が一体構成された全体を取り囲むようにスペーサ20が回路基板17上に構成されている。また、スペーサ20の上に、アクチュエータ18が設けられている。アクチュエータ18は、円筒状に構成されており、その円筒内部に複数のレンズが積層されて構成されるレンズ群16を内蔵し、図1中の上下方向に駆動させる。
 このような構成により、アクチュエータ18は、レンズ群16を、図1中の上下方向(光軸に対して前後方向)に移動させることで、図中の上方となる図示せぬ被写体までの距離に応じて、固体撮像素子11の撮像面上において、被写体を結像させるように焦点を調整することでオートフォーカスを実現する。
 <外観概略図>
 次に、図2乃至図6を参照して、一体化構成部10の構成につい説明する。図2は、一体化構成部10の外観概略図を示している。
 図2に示される一体化構成部10は、下側基板11aと上側基板11bとが積層されて構成されている積層基板からなる固体撮像素子11がパッケージ化された、いわゆる、CSP(Chip Scale Package)と呼ばれる半導体パッケージである。
 固体撮像素子11を構成する積層基板の下側基板11aには、図1の回路基板17と電気的に接続するための裏面電極であるはんだボール11fが、複数、形成されている。
 上側基板11bの上面には、層間絶縁膜11c、およびR(赤)、G(緑)、またはB(青)のカラーフィルタを含むオンチップレンズ(マイクロレンズ)11dが形成されている。また、上側基板11bは、オンチップレンズ11dを保護し、平坦化するための平坦化膜11eおよび層間絶縁膜11cを介してキャビティレス構造で接続されている。
 例えば、上側基板11bには、図3のAに示されるように、光電変換を行う画素部がアレイ状に2次元配列された画素領域21と、画素部の制御を行う制御回路22が形成されており、下側基板11aには、画素部から出力された画素信号を処理する信号処理回路などのロジック回路23が形成されている。
 あるいはまた、図3のBに示されるように、上側基板11bには、画素領域21のみが形成され、下側基板11aに、制御回路22とロジック回路23が形成される構成でもよい。
 以上のように、ロジック回路23または制御回路22及びロジック回路23の両方を、画素領域21の上側基板11bとは別の下側基板11aに形成して積層させることで、1枚の半導体基板に、画素領域21、制御回路22、およびロジック回路23を平面方向に配置した場合と比較して、撮像装置1としてのサイズを小型化することができる。
 以下では、少なくとも画素領域21が形成される上側基板11bを、画素センサ基板11bと称し、少なくともロジック回路23が形成される下側基板11aを、ロジック基板11aと称して説明を行う。
 <積層基板の構成例>
 図4は、固体撮像素子11の回路構成例を示している。
 固体撮像素子11は、画素32が2次元アレイ状に配列された画素アレイ部33と、垂直駆動回路34、カラム信号処理回路35、水平駆動回路36、出力回路37、制御回路38、および入出力端子39を含む。
 画素32は、光電変換素子としてのフォトダイオードと、複数の画素トランジスタを有して成る。画素32の回路構成例については、図5を参照して後述する。
 また、画素32は、共有画素構造とすることもできる。この画素共有構造は、複数のフォトダイオードと、複数の転送トランジスタと、共有される1つのフローティングディフージョン(浮遊拡散領域)と、共有される1つずつの他の画素トランジスタとから構成される。すなわち、共有画素では、複数の単位画素を構成するフォトダイオード及び転送トランジスタが、他の1つずつの画素トランジスタを共有して構成される。
 制御回路38は、入力クロックと、動作モードなどを指令するデータを受け取り、また固体撮像素子11の内部情報などのデータを出力する。すなわち、制御回路38は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路34、カラム信号処理回路35及び水平駆動回路36などの動作の基準となるクロック信号や制御信号を生成する。そして、制御回路38は、生成したクロック信号や制御信号を、垂直駆動回路34、カラム信号処理回路35及び水平駆動回路36等に出力する。
 垂直駆動回路34は、例えばシフトレジスタによって構成され、所定の画素駆動配線40を選択し、選択された画素駆動配線40に画素32を駆動するためのパルスを供給し、行単位で画素32を駆動する。すなわち、垂直駆動回路34は、画素アレイ部33の各画素32を行単位で順次垂直方向に選択走査し、各画素32の光電変換部において受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線41を通してカラム信号処理回路35に供給する。
 カラム信号処理回路35は、画素32の列ごとに配置されており、1行分の画素32から出力される信号を画素列ごとにノイズ除去などの信号処理を行う。例えば、カラム信号処理回路5は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)およびAD変換等の信号処理を行う。
 水平駆動回路36は、例えばシフトレジスタによって構成され、水平走査パルスを順次出力することによって、カラム信号処理回路35の各々を順番に選択し、カラム信号処理回路35の各々から画素信号を水平信号線42に出力させる。
 出力回路37は、カラム信号処理回路35の各々から水平信号線42を通して順次に供給される信号に対し、信号処理を行って出力する。出力回路37は、例えば、バファリングだけする場合もあるし、黒レベル調整、列ばらつき補正、各種デジタル信号処理などが行われる場合もある。入出力端子39は、外部と信号のやりとりをする。
 以上のように構成される固体撮像素子11は、CDS処理とAD変換処理を行うカラム信号処理回路35が画素列ごとに配置されたカラムAD方式と呼ばれるCMOSイメージセンサである。
 <画素の回路構成例>
 図5は、画素32の等価回路を示している。
 図5に示される画素32は、電子式のグローバルシャッタ機能を実現する構成を示している。
 画素32は、光電変換素子(光電変換領域)としてのフォトダイオード51、第1転送トランジスタ52、メモリ部(MEM)53、第2転送トランジスタ54、FD(フローティング拡散領域)55、リセットトランジスタ56、増幅トランジスタ57、選択トランジスタ58、及び排出トランジスタ59を有する。
 フォトダイオード51は、受光量に応じた電荷(信号電荷)を生成し、蓄積する光電変換部である。フォトダイオード51のアノード端子が接地されているとともに、カソード端子が第1転送トランジスタ52を介してメモリ部53に接続されている。また、フォトダイオード51のカソード端子は、不要な電荷を排出するための排出トランジスタ59とも接続されている。
 第1転送トランジスタ52は、転送信号TRXによりオンされたとき、フォトダイオード51で生成された電荷を読み出し、メモリ部53に転送する。メモリ部53は、FD55に電荷を転送するまでの間、一時的に電荷を保持する電荷保持部である。
 第2転送トランジスタ54は、転送信号TRGによりオンされたとき、メモリ部53に保持されている電荷を読み出し、FD55に転送する。
 FD55は、メモリ部53から読み出された電荷を信号として読み出すために保持する電荷保持部である。リセットトランジスタ56は、リセット信号RSTによりオンされたとき、FD55に蓄積されている電荷が定電圧源VDDに排出されることで、FD55の電位をリセットする。
 増幅トランジスタ57は、FD55の電位に応じた画素信号を出力する。すなわち、増幅トランジスタ57は定電流源としての負荷MOS60とソースフォロワ回路を構成し、FD55に蓄積されている電荷に応じたレベルを示す画素信号が、増幅トランジスタ57から選択トランジスタ58を介してカラム信号処理回路35(図4)に出力される。負荷MOS60は、例えば、カラム信号処理回路35内に配置されている。
 選択トランジスタ58は、選択信号SELにより画素32が選択されたときオンされ、画素32の画素信号を、垂直信号線41を介してカラム信号処理回路35に出力する。
 排出トランジスタ59は、排出信号OFGによりオンされたとき、フォトダイオード51に蓄積されている不要電荷を定電圧源VDDに排出する。
 転送信号TRX及びTRG、リセット信号RST、排出信号OFG、並びに選択信号SELは、画素駆動配線40を介して垂直駆動回路34から供給される。
 画素32の動作について簡単に説明する。
 まず、露光開始前に、Highレベルの排出信号OFGが排出トランジスタ59に供給されることにより排出トランジスタ59がオンされ、フォトダイオード51に蓄積されている電荷が定電圧源VDDに排出され、全画素のフォトダイオード51がリセットされる。
 フォトダイオード51のリセット後、排出トランジスタ59が、Lowレベルの排出信号OFGによりオフされると、画素アレイ部33の全画素で露光が開始される。
 予め定められた所定の露光時間が経過すると、画素アレイ部33の全画素において、転送信号TRXにより第1転送トランジスタ52がオンされ、フォトダイオード51に蓄積されていた電荷が、メモリ部53に転送される。
 第1転送トランジスタ52がオフされた後、各画素32のメモリ部53に保持されている電荷が、行単位に、順次、カラム信号処理回路35に読み出される。読み出し動作は、読出し行の画素32の第2転送トランジスタ54が転送信号TRGによりオンされ、メモリ部53に保持されている電荷が、FD55に転送される。そして、選択トランジスタ58が選択信号SELによりオンされることで、FD55に蓄積されている電荷に応じたレベルを示す信号が、増幅トランジスタ57から選択トランジスタ58を介してカラム信号処理回路35に出力される。
 以上のように、図5の画素回路を有する画素32は、露光時間を画素アレイ部33の全画素で同一に設定し、露光終了後はメモリ部53に電荷を一時的に保持しておいて、メモリ部53から行単位に順次電荷を読み出すグローバルシャッタ方式の動作(撮像)が可能である。
 なお、画素32の回路構成としては、図5に示した構成に限定されるものではなく、例えば、メモリ部53を持たず、いわゆるローリングシャッタ方式による動作を行う回路構成を採用することもできる。
 <固体撮像装置の基本構造例>
 次に、図6を参照して、固体撮像素子11の詳細構造について説明する。図6は、固体撮像素子11の一部分を拡大して示した断面図である。
 ロジック基板11aには、例えばシリコン(Si)で構成された半導体基板81(以下、シリコン基板81という。)の上側(画素センサ基板11b側)に、多層配線層82が形成されている。この多層配線層82により、図3の制御回路22やロジック回路23が構成されている。
 多層配線層82は、画素センサ基板11bに最も近い最上層の配線層83a、中間の配線層83b、及び、シリコン基板81に最も近い最下層の配線層83cなどからなる複数の配線層83と、各配線層83の間に形成された層間絶縁膜84とで構成される。
 複数の配線層83は、例えば、銅(Cu)、アルミニウム(Al)、タングステン(W)などを用いて形成され、層間絶縁膜84は、例えば、シリコン酸化膜、シリコン窒化膜などで形成される。複数の配線層83及び層間絶縁膜84のそれぞれは、全ての階層が同一の材料で形成されていてもよし、階層によって2つ以上の材料を使い分けてもよい。
 シリコン基板81の所定の位置には、シリコン基板81を貫通するシリコン貫通孔85が形成されており、シリコン貫通孔85の内壁に、絶縁膜86を介して接続導体87が埋め込まれることにより、シリコン貫通電極(TSV:Through Silicon Via)88が形成されている。絶縁膜86は、例えば、SiO2膜やSiN膜などで形成することができる。
 なお、図6に示されるシリコン貫通電極88では、内壁面に沿って絶縁膜86と接続導体87が成膜され、シリコン貫通孔85内部が空洞となっているが、内径によってはシリコン貫通孔85内部全体が接続導体87で埋め込まれることもある。換言すれば、貫通孔の内部が導体で埋め込まれていても、一部が空洞となっていてもどちらでもよい。このことは、後述するチップ貫通電極(TCV:Through Chip Via)105などについても同様である。
 シリコン貫通電極88の接続導体87は、シリコン基板81の下面側に形成された再配線90と接続されており、再配線90は、はんだボール11fと接続されている。接続導体87及び再配線90は、例えば、銅(Cu)、タングステン(W)、タングステン(W)、ポリシリコンなどで形成することができる。
 また、シリコン基板81の下面側には、はんだボール11fが形成されている領域を除いて、再配線90と絶縁膜86を覆うように、ソルダマスク(ソルダレジスト)91が形成されている。
 一方、画素センサ基板11bには、シリコン(Si)で構成された半導体基板101(以下、シリコン基板101という。)の下側(ロジック基板11a側)に、多層配線層102が形成されている。この多層配線層102により、図3の画素領域21の画素回路が構成されている。
 多層配線層102は、シリコン基板101に最も近い最上層の配線層103a、中間の配線層103b、及び、ロジック基板11aに最も近い最下層の配線層103cなどからなる複数の配線層103と、各配線層103の間に形成された層間絶縁膜104とで構成される。
 複数の配線層103及び層間絶縁膜104として使用される材料は、上述した配線層83及び層間絶縁膜84の材料と同種のものを採用することができる。また、複数の配線層103や層間絶縁膜104が、1または2つ以上の材料を使い分けて形成されてもよい点も、上述した配線層83及び層間絶縁膜84と同様である。
 なお、図6の例では、画素センサ基板11bの多層配線層102は3層の配線層103で構成され、ロジック基板11aの多層配線層82は4層の配線層83で構成されているが、配線層の総数はこれに限られず、任意の層数で形成することができる。
 シリコン基板101内には、PN接合により形成されたフォトダイオード51が、画素32ごとに形成されている。
 また、図示は省略されているが、多層配線層102とシリコン基板101には、第1転送トランジスタ52、第2転送トランジスタ54などの複数の画素トランジスタや、メモリ部(MEM)53なども形成されている。
 オンチップレンズ11dが形成されていないシリコン基板101の所定の位置には、画素センサ基板11bの配線層103aと接続されているシリコン貫通電極108と、ロジック基板11aの配線層83aと接続されているチップ貫通電極105が、形成されている。
 チップ貫通電極105とシリコン貫通電極108は、シリコン基板101上面に形成された接続用配線106で接続されている。また、シリコン貫通電極108及びチップ貫通電極105のそれぞれとシリコン基板101との間には、絶縁膜107が形成されている。さらに、シリコン基板101の上面には、平坦化膜(絶縁膜)11cを介して、オンチップレンズ11dが形成されている。
 以上のように、図2に示される固体撮像素子11は、ロジック基板11aの多層配線層102側と、画素センサ基板11bの多層配線層82側とを貼り合わせた積層構造となっている。図6では、ロジック基板11aの多層配線層102側と、画素センサ基板11bの多層配線層82側とを貼り合わせ面が、破線で示されている。
 また、撮像装置1の固体撮像素子11では、画素センサ基板11bの配線層103とロジック基板11aの配線層83が、シリコン貫通電極108とチップ貫通電極105の2本の貫通電極により接続され、ロジック基板11aの配線層83とはんだボール(裏面電極)11fが、シリコン貫通電極88と再配線90により接続されている。これにより、撮像装置1の平面積を、極限まで小さくすることができる。
 さらに、固体撮像素子11上の高屈折率層12と保護基板14との間を、キャビティレス構造にして、接合用樹脂13により貼り合わせることにより、高さ方向についても低くすることができる。
 したがって、図1に示される撮像装置1によれば、より小型化した半導体装置(半導体パッケージ)を実現することができる。
 以上のような撮像装置1の構成により、保護基板14と、固体撮像素子11との間に高屈折率層12が設けられることになるので、光の内乱反射によるフレアの発生を抑制するとともに、フレアによる色付きを抑制ことが可能となる。
 <フレアが発生する原理>
 ここで、フレアが発生する原理について説明する。図7で示されるように、高屈折率層12が存在しない一体化構成部10の場合、入射光L1がオンチップレンズ11dの表層の位置P1において、反射すると共に、回折により反射光L11乃至L14を発生させる。
 反射光L11乃至L14のうち、点線で示される臨界角よりも小さい反射角の反射光L11,L12については、接合用樹脂13および保護基板14を透過する。
 しかしながら、反射光L11乃至L14のうち、点線で示される臨界角よりも大きな反射角の反射光L13,L14については、保護基板14と空気層151との境界の位置P11,P12において、再度全反射する。この場合、全反射した反射光L13,L14は、反射率が同一の保護基板14と接合用樹脂13を透過することで、固体撮像素子11に再入射する。この再入射する反射光L13,L14が、フレアを発生させる。
 <フレアの発生を抑制する原理>
 これに対して、図1の撮像装置1における一体化構成部10は、図8で示されるように、接合用樹脂13と固体撮像素子11との間に高屈折率層12が設けられることにより、フレアの発生が抑制される。そこで、フレアの発生が抑制される原理を説明するために、入射光L101が、オンチップレンズ11dの位置P101において反射されるとき生じる反射光のうち、臨界角よりも大きな反射角の反射光L111について考える。
 この場合、反射光L111は、平坦化膜11eを透過すると、平坦化膜11eと高屈折率層12との境界の位置P111において、矢印で示されるように一部が反射光r1として反射される。これにより、反射光L111から反射光r1分だけ光量が低減した反射光L111-1が高屈折率層12を透過する。
 また、反射光L111-1は、高屈折率層12を透過すると、高屈折率層12と接合用樹脂13との境界の位置P112において、矢印で示されるように一部が反射光r2として反射される。これにより、反射光L111-1から反射光r2分だけ光量が低減した反射光L111-2が接合用樹脂13および保護基板14を透過する。
 さらに、反射光L111-2は、接合用樹脂13および保護基板14を透過すると、保護基板14と空気層151との境界の位置P121において、矢印で示されるように全反射されて、反射光L111-3として、再び保護基板14および接合用樹脂13を透過する。
 そして、反射光L111-3は、保護基板14および接合用樹脂13を透過すると、接合用樹脂13と高屈折率層12との境界の位置P113において、矢印で示されるように一部が反射光r3として反射される。これにより、反射光L111-2から反射光r3分だけ光量が低減した反射光L111-4が高屈折率層12を透過する。
 さらに、反射光L111-4は、高屈折率層12を透過すると、高屈折率層12と平坦膜11dとの境界の位置P114において、矢印で示されるように一部が反射光r4として反射される。これにより、反射光L111-4から反射光r4分だけ光量が低減した反射光L111-5がオンチップレンズ11dに再入射する。
 すなわち、反射光L111は、高屈折率層12との界面(高屈折率層12と平坦化膜11eとの界面、および接合用樹脂13と高屈折率層12との界面)上の位置P111乃至P114のそれぞれにおいて、一部が反射光r1乃至r4として反射される。これにより、反射光L111の光量は徐々に低減されて、最終的に反射光L111-5となってオンチップレンズ11dに再入射することになる。
 結果として、図8を参照して説明したように、図1の撮像装置1の一体化構成部10においては、反射光L111-5が、反射光L111より十分に光量が低減された光となって固体撮像素子11に再入射することになるので、フレアの発生が抑制されるとともに、フレアによる色付きが抑制される。
 また、高屈折率層12は、単層構造であるので、例えば、波長制御膜などのように積層させて形成される場合に比べて構成が簡易であり、製造上でも工数を低減させることができるので、製造コストを低減させることが可能となる。
 <<2.第2の実施の形態>>
 以上においては、高屈折率層12が、固体撮像素子11の平坦化膜11eと、接合用樹脂13との間に形成される例について説明してきたが、高屈折率層12は、保護基板14と、平坦化膜11eとの間で、反射光の光量を徐々に低減できるような他の層との界面を形成することができれば、他の位置に形成されてもよいので、例えば、接合用樹脂13と保護基板14との間に形成されてもよい。
 図9は、高屈折率層12が、接合用樹脂13と保護基板14との間に形成されるときの一体化構成部10の側面断面を示している。すなわち、図9の一体化構成部10は、図中下から、固体撮像素子11、接合用樹脂13、高屈折率層12、および保護基板14の順序で積層され、高屈折率層12が、接合用樹脂13と保護基板14との間に形成されている。
 ここで、図9を参照して、入射光L101が、オンチップレンズ11dの位置P101において反射された反射光のうち、臨界角よりも大きな反射角の反射光L131について考える。
 この場合、反射光L131は、平坦化膜11eおよび接合用樹脂13を透過すると、接合用樹脂13と高屈折率層12との境界の位置P131において、矢印で示されるように一部が反射光r11として反射される。これにより、反射光L131から反射光r11分だけ光量が低減した反射光L131-1が高屈折率層12を透過する。
 また、反射光L131-1は、高屈折率層12を透過すると、高屈折率層12と保護基板14との境界の位置P132において、矢印で示されるように一部が反射光r12として反射される。これにより、反射光L131-1から反射光r12分だけ光量が低減した反射光L131-2が保護基板14を透過する。
 さらに、反射光L131-2は、保護基板14を透過すると、保護基板14と空気層151との境界の位置P141において、矢印で示されるように全反射されて、反射光L131-3として再び保護基板14を透過する。
 また、反射光L131-3は、保護基板14を透過すると、保護基板14と高屈折率層12との境界の位置P133において、矢印で示されるように一部が反射光r13として反射される。これにより、反射光L131-3から反射光r13分だけ光量が低減した反射光L131-4が高屈折率層12を透過する。
 さらに、反射光L131-4は、高屈折率層12を透過すると、高屈折率層12と接合用樹脂13との境界の位置P134において、矢印で示されるように一部が反射光r14として反射される。これにより、反射光L131-4から反射光r14分だけ光量が低減した反射光L131-5が、接合用樹脂13および平坦化膜11eを透過してオンチップレンズ11dに再入射する。
 すなわち、反射光L131は、位置P131乃至P134のそれぞれにおいて、一部が順次反射光r11乃至r14として反射されることにより、反射光L131の光量が徐々に低減されて、反射光L131-5としてオンチップレンズ11dに再入射する。
 結果として、図9の一体化構成部10においては、固体撮像素子11に再入射する反射光L131-5が、反射光L131より十分に光量が低減された光となって固体撮像素子11に再入射することになるので、フレアの発生が抑制されるとともに、フレアによる色付きが抑制される。
 また、高屈折率層12は、単層構造であるので、例えば、波長制御膜などのように積層させて形成される場合に比べて構成が簡易であり、製造上でも工数が少ないので、製造コストを低減させることが可能となる。
 <<3.第3の実施の形態>>
 以上においては、高屈折率層12が、接合用樹脂13と保護基板14との間に形成される例について説明してきたが、高屈折率層12は、複数層形成されてもよい。
 図10は、2層の高屈折率層12-1,12-2が形成されるときの一体化構成部10の側面断面を示している。
 すなわち、図10の一体化構成部10においては、高屈折率層12-1が、固体撮像素子11の平坦化膜11eと接合用樹脂13との間に形成され、高屈折率層12-2が、接合用樹脂13と保護基板14との間に形成されている。
 ここで、図10の一体化構成部10において、入射光L101が、オンチップレンズ11dの位置P101において反射された反射光のうち、臨界角よりも大きな反射角の反射光L151について考える。
 この場合、反射光L151は、平坦化膜11eを透過すると、平坦化膜11eと高屈折率層12-1との境界の位置P151において、矢印で示されるように一部が反射光r21として反射される。これにより、反射光L151から反射光r21分だけ光量が低減した反射光L151-1が高屈折率層12-1を透過する。
 また、反射光L151-1は、高屈折率層12-1を透過すると、高屈折率層12-1と接合用樹脂13との境界の位置P152において、矢印で示されるように一部が反射光r22として反射される。これにより、反射光L151-1から反射光r22分だけ光量が低減した反射光L151-2が接合用樹脂13を透過する。
 さらに、反射光L151-2は、接合用樹脂13を透過すると、接合用樹脂13と高屈折率層12-2との境界の位置P153において、矢印で示されるように一部が反射光r23として反射される。これにより、反射光L151-2から反射光r23分だけ光量が低減した反射光L151-3が高屈折率層12-2を透過する。
 また、反射光L151-3は、高屈折率層12-2を透過すると、高屈折率層12-2と保護基板14との境界の位置P154において、矢印で示されるように一部が反射光r24として反射される。これにより、反射光L151-3から反射光r24分だけ光量が低減した反射光L151-4が保護基板14を透過する。
 さらに、反射光L151-4は、保護基板14を透過すると、保護基板14と空気層151との境界の位置P161において、矢印で示されるように全反射されて、反射光L151-5として再び保護基板14を透過する。
 また、反射光L151-5は、保護基板14を透過すると、保護基板14と高屈折率層12-2との境界の位置P155において、矢印で示されるように一部が反射光r25として反射される。これにより、反射光L151-5から反射光r25分だけ光量が低減した反射光L151-6が高屈折率層12-2を透過する。
 さらに、反射光L151-6は、高屈折率層12-2を透過すると、高屈折率層12-2と接合用樹脂13との境界の位置P156において、矢印で示されるように一部が反射光r26として反射される。これにより、反射光L151-6から反射光r26分だけ光量が低減した反射光L151-7が、接合用樹脂13を透過する。
 また、反射光L151-7は、接合用樹脂13を透過すると、接合用樹脂13と高屈折率層12-1との境界の位置P157において、矢印で示されるように一部が反射光r27として反射される。これにより、反射光L151-7から反射光r27分だけ光量が低減した反射光L151-8が高屈折率層12-1を透過する。
 さらに、反射光L151-8は、高屈折率層12-1を透過すると、高屈折率層12-1と固体撮像素子11の平坦化膜11eとの境界の位置P158において、矢印で示されるように一部が反射光r28として反射される。反射光L151-8から反射光r28分だけ光量が低減した反射光L151-9が、オンチップレンズ11dに再入射する。
 すなわち、反射光L151は、位置P151乃至P158のそれぞれにおいて、一部が順次反射光r21乃至r28として反射されることにより、反射光L151の光量が徐々に低減されて、最終的に反射光L151-9となってオンチップレンズ11dに再入射することになる。
 結果として、図10を参照して説明したように、図1の撮像装置1の一体化構成部10においては、反射光L151-9が、反射光L151より十分に光量が低減された光となって固体撮像素子11に再入射することになるので、フレアの発生が抑制されるとともに、フレアによる色付きが抑制される。
 尚、図10の一体化構成部10においては、図8,図9の一体化構成部10における構成に比べて、高屈折率層12-1,12-2が2層構成とされているため、界面が2倍となり、固体撮像素子11に再入射する反射光の光量がより低減されることになるため、フレアやフレアによる色付きの発生をより抑制させることができる。
 また、高屈折率層12-1,12-2は、いずれも単層構造であるので、波長制御膜などのように積層させて形成される場合に比べて構成が簡易であり、製造上でも工数が少ないので、製造コストを低減させることが可能となる。
 尚、以上においては、高屈折率層12が2層構造である場合について説明してきたが、それ以上の複数層の構造であってもよく、複数層の高屈折率層12が形成されることにより、固体撮像素子11に対して再入射する反射光の光量をより低減させることができ、フレアの発生やフレアに伴う色付きを、より抑制することが可能となる。
 <<4.第4の実施の形態>>
 以上においては、高屈折率層12-1,12-2の2層構造とする例について説明してきたが、接合用樹脂13を高屈折率化するようにしてもよい。
 図11は、高屈折率層12および接合用樹脂13に代えて、接合用高屈折樹脂12’を形成するようにした一体化構成部10の側面断面を示している。すなわち、図11の一体化構成部10においては、固体撮像素子11の平坦化膜11eと保護基板14との間に、高屈折率化された接合用樹脂である接合用高屈折樹脂12’が形成されている。
 ここで、図11を参照して、入射光L101が、オンチップレンズ11dの位置P101において反射された反射光のうち、臨界角よりも大きな反射角の反射光L171について考える。
 この場合、反射光L171は、平坦化膜11eを透過すると、平坦化膜11eと接合用高屈折樹脂12’との境界の位置P171において、矢印で示されるように一部が反射光r31として反射される。これにより、反射光L171から反射光r31分だけ光量が低減した反射光L171-1が接合用高屈折樹脂12’を透過する。
 また、反射光L171-1は、接合用高屈折樹脂12’を透過すると、接合用高屈折樹脂12’と保護基板14との境界の位置P172において、矢印で示されるように一部が反射光r32として反射される。これにより、反射光L171-1から反射光r32分だけ光量が低減した反射光L171-2が保護基板14を透過する。
 さらに、反射光L171-2は、保護基板14を透過すると、保護基板14と空気層151との境界の位置P181において、矢印で示されるように全反射されて、反射光L171-3として再び保護基板14を透過する。
 また、反射光L171-3は、保護基板14を透過すると、保護基板14と接合用高屈折樹脂12’との境界の位置P173において、矢印で示されるように一部が反射光r33として反射される。これにより、反射光L171-3から反射光r33分だけ光量が低減した反射光L171-4が接合用高屈折樹脂12’を透過する。
 さらに、反射光L171-4は、接合用高屈折樹脂12’を透過すると、接合用高屈折樹脂12’と平坦化膜11eとの境界の位置P174において、矢印で示されるように一部が反射光r34として反射される。これにより、反射光L171-4から反射光r34分だけ光量が低減した反射光L171-5が、平坦化膜11eを透過してオンチップレンズ11dに再入射する。
 すなわち、反射光L171は、位置P171乃至P174のそれぞれにおいて、一部が順次反射光r31乃至r34として反射される。これにより、反射光L171の光量が徐々に低減されて、反射光L171-5としてオンチップレンズ11dに再入射する。
 結果として、図11の一体化構成部10においては、固体撮像素子11に再入射する反射光L171-5が、反射光L171より十分に光量が低減された状態で再入射することになるので、フレアの発生が抑制されるとともに、フレアによる色付きが抑制される。
 また、接合用高屈折樹脂12’は、単層構造であるので、例えば、波長制御膜などのように積層させて形成される場合に比べて構成が簡易であり、製造上でも工数が少ないので、製造コストを低減させることが可能となる。
 さらに、接合用高屈折樹脂12’により固体撮像素子11の平坦化膜11eと保護基板14とが貼り合わされるのみであるので、さらに工数を低減させることが可能となる。
 尚、図11の一体化構成部10において、接合用高屈折樹脂12’の屈折率は、平坦化膜11eと保護基板(=ガラス)14の屈折率よりも大きくする必要がある。
 <<5.第5の実施の形態>>
 以上においては、高屈折率層12、および接合用樹脂13に代えて、接合用高屈折樹脂12’を設ける様にする例について説明してきたが、保護基板14を高屈折率化するようにしてもよい。
 図12は、保護基板14に代えて、高屈折保護基板12’’を形成するようにした一体化構成部10の側面断面を示している。すなわち、図12の一体化構成部10においては、高屈折率層12と保護基板14とに代えて、高屈折率の保護基板である高屈折保護基板12’’が形成される。
 ここで、図12を参照して、入射光L101が、オンチップレンズ11dの位置P101において反射された反射光のうち、臨界角よりも大きな反射角の反射光L191について考える。
 この場合、反射光L191は、平坦化膜11eおよび接合用樹脂13を透過すると、接合用樹脂13と高屈折保護基板12’’との境界の位置P191において、矢印で示されるように一部が反射光r41として反射される。これにより、反射光L191から反射光r41分だけ光量が低減した反射光L191-1が高屈折保護基板12’’を透過する。
 また、反射光L191-1は、高屈折保護基板12’’を透過すると、高屈折保護基板12’’と空気層151との境界の位置P201において、矢印で示されるように全反射されて、反射光L191-2として再び高屈折保護基板12’’を透過する。
 また、反射光L191-2は、高屈折保護基板12’’を透過すると、高屈折保護基板12’’と接合用樹脂13との境界の位置P192において、矢印で示されるように一部が反射光r42として反射される。これにより、反射光L191-2から反射光r42分だけ光量が低減した反射光L191-3が、接合用樹脂13、および平坦化膜11eを透過してオンチップレンズ11dに再入射する。
 すなわち、反射光L191は、位置P191,P192のそれぞれにおいて、一部が順次反射光r41,r42として反射されることにより、反射光L191の光量が徐々に低減されて、反射光L191-3としてオンチップレンズ11dに再入射する。
 結果として、図12の一体化構成部10においては、固体撮像素子11に再入射する反射光L191-3が、反射光L191より十分に光量が低減された状態で再入射することになるので、フレアの発生が抑制されるとともに、フレアによる色付きが抑制される。
 また、図12の一体化構成部10においては、高屈折保護基板12’’を接合用樹脂13で固体撮像素子11の平坦化膜11eと貼り合わせるだけの構造であるので、図8乃至図11の一体化構成部10と比較しても、製造上での工数が少ないので、製造コストをより低減させることが可能となる。
 尚、図12の一体化構成部10においては、屈折率差による反射を利用してフレアを低減させるため、高屈折保護基板12’’の屈折率は、接合用樹脂13よりも大きくする必要がある。
 <<6.第6の実施の形態>>
 以上においては、保護基板14を高屈折率化する例について説明してきたが、高屈折率層12を保護基板14の上面に形成するようにしてもよい。
 図13は、高屈折率層12を保護基板14の上面に形成するようにした一体化構成部10の側面断面を示している。すなわち、図13の一体化構成部10においては、高屈折率層12が保護基板14上に形成されている。
 ここで、図13を参照して、入射光L101が、オンチップレンズ11dの位置P101において反射された反射光のうち、臨界角よりも大きな反射角の反射光L211について考える。
 この場合、反射光L211は、平坦化膜11e、接合用樹脂13、および保護基板14を透過すると、保護基板14と高屈折率層12との境界の位置P211において、矢印で示されるように一部が反射光r51として反射される。これにより、反射光L211から反射光r51分だけ光量が低減した反射光L211-1が高屈折率層12を透過する。
 また、反射光L211-1は、高屈折率層12を透過して、高屈折率層12と空気層151との境界の位置P221において、矢印で示されるように全反射されて、反射光L211-2として再び高屈折率層12を透過する。
 また、反射光L211-2は、高屈折率層12を透過すると、高屈折率層12と保護基板14との境界の位置P212において、矢印で示されるように一部が反射光r52として反射される。これにより、反射光L211-2から反射光r52分だけ光量が低減した反射光L211-3が、保護基板14、接合用樹脂13、および平坦化膜11eを透過してオンチップレンズ11dに再入射する。
 すなわち、反射光L211は、位置P211,P212のそれぞれにおいて、一部が順次反射光r51,r52として反射されることにより、反射光L211の光量が徐々に低減されて、反射光L211-3としてオンチップレンズ11dに再入射する。
 結果として、図13の一体化構成部10においては、固体撮像素子11に再入射する反射光L211-3が、反射光L211より十分に光量が低減された状態で再入射することになるので、フレアの発生が抑制される。
 また、図13の一体化構成部10においては、高屈折率層12は、単層構造であるので、積層構造の波長制御層等と比べても、製造上での工数が少ないので、製造コストをより低減させることが可能となる。
 <<7.第7の実施の形態>>
 以上においては、レンズ群16が、一体化構成部10の光の入射方向に対して前段に設けられていたが、レンズ群16の最後段の一部が、一体化構成部10に貼り合わされてもよい。
 図14は、レンズ群16の最後段の一部が、貼り合わされた一体化構成部10の構成例である。
 すなわち、図14においては、図8を参照して説明した一体化構成部10にレンズ群16の最後段のレンズ171が貼り合わされた構成が示されている。
 図14の一体化構成部10においても、図8の一体化構成部10と同様に、フレアの発生が抑制される。
 また、図13の一体化構成部10においては、高屈折率層12は、単層構造であるので、波長制御層等と比べても、製造上での工数が少ないので、製造コストをより低減させることが可能となる。
 さらに、レンズ群16の一部が、一体化構成部10上に貼り合わされることにより、レンズ群16を軽量化することが可能となるので、アクチュエータ18による負荷が低減されることにより、オートフォーカスの高速化を図ることが可能となる。
 尚、図14においては、図8の一体化構成部10に対してレンズ171が貼り合わされる例について説明してきたが、それ以外の一体化構成部10上にレンズ171が形成されるようにしてもよく、例えば、図9乃至図13のいずれかの一体化構成部10上にレンズ171が形成されるようにしてもよい。また、レンズ171の形状は、図14で示されるような凹レンズでも、凸レンズでもよいし、凹レンズと凸レンズとの組み合わせであってもよい。
 <<8.電子機器への適用例>>
 上述した図8乃至図14の一体化構成部10を備えた、図1の撮像装置1は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図15は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図15に示される撮像装置1001は、光学系1002、シャッタ装置1003、固体撮像素子1004、駆動回路1005、信号処理回路1006、モニタ1007、およびメモリ1008を備えて構成され、静止画像および動画像を撮像可能である。
 光学系1002は、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像素子1004に導き、固体撮像素子1004の受光面に結像させる。
 シャッタ装置1003は、光学系1002および固体撮像素子1004の間に配置され、駆動回路1005の制御に従って、固体撮像素子1004への光照射期間および遮光期間を制御する。
 固体撮像素子1004は、上述した固体撮像素子を含むパッケージにより構成される。固体撮像素子1004は、光学系1002およびシャッタ装置1003を介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像素子1004に蓄積された信号電荷は、駆動回路1005から供給される駆動信号(タイミング信号)に従って転送される。
 駆動回路1005は、固体撮像素子1004の転送動作、および、シャッタ装置1003のシャッタ動作を制御する駆動信号を出力して、固体撮像素子1004およびシャッタ装置1003を駆動する。
 信号処理回路1006は、固体撮像素子1004から出力された信号電荷に対して各種の信号処理を施す。信号処理回路1006が信号処理を施すことにより得られた画像(画像データ)は、モニタ1007に供給されて表示されたり、メモリ1008に供給されて記憶(記録)されたりする。
 このように構成されている撮像装置1001においても、上述した光学系1002、および固体撮像素子1004に代えて、図8乃至図14のうちのいずれかの一体化構成部10を備えた撮像装置1を適用することにより、装置構成の小型化および低背化を実現しつつ、内乱反射に起因するフレアやフレアによる色付きを抑制することが可能となる。
 <<9.固体撮像装置の使用例>>
 図16は、上述の撮像装置1を使用する使用例を示す図である。
 上述した撮像装置1は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
 ・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置
 ・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置
 ・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置
 ・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置
 ・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置
 ・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置
 ・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置
 ・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置
 <<10.内視鏡手術システムへの応用例>>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図17は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図17では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図18は、図17に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等に適用され得る。具体的には、例えば、図8乃至図14のうちのいずれかの一体化構成部10を備えた図1の撮像装置1は、レンズユニット11401および撮像部10402に適用することができる。レンズユニット11401および撮像部10402に本開示に係る技術を適用することにより、装置構成の小型化および低背化を実現すると共に、内乱反射に起因するフレアやフレアによる色付きの発生を抑制させることが可能となる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <<11.移動体への応用例>>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図19は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図19に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図19の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図20は、撮像部12031の設置位置の例を示す図である。
 図20では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図20には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、例えば、図8乃至図14のいずれかの一体化構成部10を備えた図1の撮像装置1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、装置構成の小型化および低背化を実現すると共に、フレアの発生やフレアによる色付きを抑制させることが可能となる。
 尚、本開示は、以下のような構成も取ることができる。
<1> 光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される
 固体撮像装置。
<2> 前記高屈折率層は、前記透明保護基板と、前記固体撮像素子との間に形成される
 <1>に記載の固体撮像装置。
<3> 前記高屈折率層は、前記高屈折率層よりも低屈折率の接合用樹脂層と、前記固体撮像素子との間に形成される
 <2>に記載の固体撮像装置。
<4> 前記高屈折率層は、前記透明保護基板と、前記高屈折率層よりも低屈折率の接合用樹脂層との間に形成される
 <2>に記載の固体撮像装置。
<5> 前記高屈折率層は、複数の層として形成される
 <2>に記載の固体撮像装置。
<6> 前記高屈折率層は、前記透明保護基板と前記高屈折率層よりも低屈折率の接合用樹脂層との間、および、前記接合用樹脂層と前記固体撮像素子との間に形成される
 <5>に記載の固体撮像装置。
<7> 前記高屈折率層は、高屈折率化された接合用樹脂層からなり、前記透明保護基板と前記固体撮像素子との間に形成される
 <2>に記載の固体撮像装置。
<8> 前記高屈折率層は、高屈折率化された透明保護基板からなり、前記高屈折率化された透明保護基板と前記固体撮像素子との間に接合用樹脂層が形成される
 <1>乃至<7>のいずれかに記載の固体撮像装置。
<9> 前記高屈折率層は、前記透明保護基板の前段に形成され、前記透明保護基板と前記固体撮像素子との間に接合用樹脂層が形成される
 <1>乃至<8>のいずれかに記載の固体撮像装置。
<10> 前記光の入射方向に対して、最前段に、焦点を調整する複数のレンズから構成されるレンズ群の、最後段のレンズ群が貼り合わされて形成される
 <1>乃至<9>のいずれかに記載の固体撮像装置。
<11> 前記最後段のレンズ群は、凹レンズ、凸レンズ、並びに、前記凹レンズおよび前記凸レンズの組み合わせを含む
 <10>に記載の固体撮像装置。
<12> 前記高屈折率層は、単層膜よりなる
 <1>乃至<11>のいずれかに記載の固体撮像装置。
<13> 前記固体撮像素子の撮像面の表層は、オンチップレンズの表層を平坦化する平坦化膜である
 <1>乃至<12>のいずれかに記載の固体撮像装置。
<14> 光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される
 撮像装置。
<15> 光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される
 電子機器。
 1 撮像装置, 10 一体化構成部, 11 (CPS構造の)固体撮像素子, 11a 下側基板(ロジック基板), 11b 上側基板(画素センサ基板), 11c カラーフィルタ, 11d オンチップレンズ, 11e 平坦化膜, 12 高屈折率層, 12’ 接合用高屈折樹脂, 12’’ 高屈折保護基板, 13 接合用樹脂, 14 保護基板, 16 レンズ群, 17 回路基板, 18 アクチュエータ, 19 コネクタ, 20 スペーサ, 21 画素領域, 22 制御回路, 23 ロジック回路, 32 画素, 51 フォトダイオード, 81 シリコン基板, 83 配線層, 86 絶縁膜, 88 シリコン貫通電極, 91 ソルダマスク, 101 シリコン基板, 103 配線層, 105 チップ貫通電極, 106 接続用配線, 108 シリコン貫通電極

Claims (15)

  1.  光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される
     固体撮像装置。
  2.  前記高屈折率層は、前記透明保護基板と、前記固体撮像素子との間に形成される
     請求項1に記載の固体撮像装置。
  3.  前記高屈折率層は、前記高屈折率層よりも低屈折率の接合用樹脂層と、前記固体撮像素子との間に形成される
     請求項2に記載の固体撮像装置。
  4.  前記高屈折率層は、前記透明保護基板と、前記高屈折率層よりも低屈折率の接合用樹脂層との間に形成される
     請求項2に記載の固体撮像装置。
  5.  前記高屈折率層は、複数の層として形成される
     請求項2に記載の固体撮像装置。
  6.  前記高屈折率層は、前記透明保護基板と前記高屈折率層よりも低屈折率の接合用樹脂層との間、および、前記接合用樹脂層と前記固体撮像素子との間に形成される
     請求項5に記載の固体撮像装置。
  7.  前記高屈折率層は、高屈折率化された接合用樹脂層からなり、前記透明保護基板と前記固体撮像素子との間に形成される
     請求項2に記載の固体撮像装置。
  8.  前記高屈折率層は、高屈折率化された透明保護基板からなり、前記高屈折率化された透明保護基板と前記固体撮像素子との間に接合用樹脂層が形成される
     請求項1に記載の固体撮像装置。
  9.  前記高屈折率層は、前記透明保護基板の前段に形成され、前記透明保護基板と前記固体撮像素子との間に接合用樹脂層が形成される
     請求項1に記載の固体撮像装置。
  10.  前記光の入射方向に対して、最前段に、焦点を調整する複数のレンズから構成されるレンズ群の、最後段のレンズ群が貼り合わされて形成される
     請求項1に記載の固体撮像装置。
  11.  前記最後段のレンズ群は、凹レンズ、凸レンズ、並びに、前記凹レンズおよび前記凸レンズの組み合わせを含む
     請求項10に記載の固体撮像装置。
  12.  前記高屈折率層は、単層膜よりなる
     請求項1に記載の固体撮像装置。
  13.  前記固体撮像素子の撮像面の表層は、オンチップレンズの表層を平坦化する平坦化膜である
     請求項1に記載の固体撮像装置。
  14.  光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される
     撮像装置。
  15.  光の入射方向に対して固体撮像素子の前段に、透明保護基板および前記固体撮像素子の撮像面の表層のいずれの屈折率よりも高い屈折率の高屈折率層が形成される
     電子機器。
PCT/JP2019/031339 2018-08-22 2019-08-08 固体撮像装置、撮像装置、および電子機器 WO2020039958A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/250,626 US11728363B2 (en) 2018-08-22 2019-08-08 Solid-state imaging device, imaging device, and electronic apparatus
US18/348,496 US20240006443A1 (en) 2018-08-22 2023-07-07 Solid-state imaging device, imaging device, and electronic apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-155518 2018-08-22
JP2018155518A JP2020031127A (ja) 2018-08-22 2018-08-22 固体撮像装置、撮像装置、および電子機器

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US17/250,626 A-371-Of-International US11728363B2 (en) 2018-08-22 2019-08-08 Solid-state imaging device, imaging device, and electronic apparatus
US18/348,496 Continuation US20240006443A1 (en) 2018-08-22 2023-07-07 Solid-state imaging device, imaging device, and electronic apparatus

Publications (1)

Publication Number Publication Date
WO2020039958A1 true WO2020039958A1 (ja) 2020-02-27

Family

ID=69593142

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/031339 WO2020039958A1 (ja) 2018-08-22 2019-08-08 固体撮像装置、撮像装置、および電子機器

Country Status (3)

Country Link
US (2) US11728363B2 (ja)
JP (1) JP2020031127A (ja)
WO (1) WO2020039958A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022114386A (ja) * 2021-01-26 2022-08-05 ソニーセミコンダクタソリューションズ株式会社 撮像装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187170A (ja) * 2007-01-05 2008-08-14 Nippon Electric Glass Co Ltd 固体撮像素子用カバーガラス及びその製造方法
JP2009123788A (ja) * 2007-11-12 2009-06-04 Sharp Corp 固体撮像装置、固体撮像装置の製造方法、及びその固体撮像装置を備えた撮影装置
JP2013041941A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置およびカメラモジュール
JP2017174994A (ja) * 2016-03-24 2017-09-28 ソニー株式会社 撮像装置、電子機器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5741012B2 (ja) * 2011-01-26 2015-07-01 ソニー株式会社 固体撮像装置の製造方法
US8872293B2 (en) * 2011-02-15 2014-10-28 Sony Corporation Solid-state imaging device and method of manufacturing the same and electronic apparatus
JP5703825B2 (ja) 2011-02-22 2015-04-22 ソニー株式会社 撮像装置およびカメラモジュール
JP2016115706A (ja) * 2014-12-11 2016-06-23 株式会社東芝 固体撮像装置および固体撮像装置の製造方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008187170A (ja) * 2007-01-05 2008-08-14 Nippon Electric Glass Co Ltd 固体撮像素子用カバーガラス及びその製造方法
JP2009123788A (ja) * 2007-11-12 2009-06-04 Sharp Corp 固体撮像装置、固体撮像装置の製造方法、及びその固体撮像装置を備えた撮影装置
JP2013041941A (ja) * 2011-08-12 2013-02-28 Sony Corp 撮像装置およびカメラモジュール
JP2017174994A (ja) * 2016-03-24 2017-09-28 ソニー株式会社 撮像装置、電子機器

Also Published As

Publication number Publication date
US20210305302A1 (en) 2021-09-30
JP2020031127A (ja) 2020-02-27
US11728363B2 (en) 2023-08-15
US20240006443A1 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
US11881495B2 (en) Solid-state imaging apparatus, method for manufacturing the same, and electronic device
JP6947160B2 (ja) 固体撮像素子
CN115528056B (zh) 光检测设备和电子装置
JP7449317B2 (ja) 撮像装置
KR20190094339A (ko) 고체 촬상 소자 및 전자 기기
JP7284171B2 (ja) 固体撮像装置
WO2021241019A1 (ja) 撮像素子および撮像装置
WO2022009693A1 (ja) 固体撮像装置およびその製造方法
US20240006443A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
US20230117904A1 (en) Sensor package, method of manufacturing the same, and imaging device
WO2022009674A1 (ja) 半導体パッケージ及び半導体パッケージの製造方法
WO2021261234A1 (ja) 固体撮像装置およびその製造方法、並びに電子機器
CN110998849B (zh) 成像装置、相机模块和电子设备
JP7437957B2 (ja) 受光素子、固体撮像装置及び電子機器
WO2023171149A1 (ja) 固体撮像装置及び電子機器
WO2023153086A1 (ja) 撮像素子および撮像素子の駆動方法
WO2023105678A1 (ja) 光検出装置および光学フィルタ
WO2024038703A1 (ja) 光検出装置
WO2021215299A1 (ja) 撮像素子および撮像装置
JP7344114B2 (ja) 撮像素子および電子機器
WO2020105331A1 (ja) 固体撮像装置及び電子機器
CN117999654A (zh) 摄像装置
JP2023152522A (ja) 光検出装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19851343

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19851343

Country of ref document: EP

Kind code of ref document: A1