WO2024100993A1 - 固体撮像装置 - Google Patents

固体撮像装置 Download PDF

Info

Publication number
WO2024100993A1
WO2024100993A1 PCT/JP2023/033839 JP2023033839W WO2024100993A1 WO 2024100993 A1 WO2024100993 A1 WO 2024100993A1 JP 2023033839 W JP2023033839 W JP 2023033839W WO 2024100993 A1 WO2024100993 A1 WO 2024100993A1
Authority
WO
WIPO (PCT)
Prior art keywords
solid
imaging device
state imaging
photoelectric conversion
partition wall
Prior art date
Application number
PCT/JP2023/033839
Other languages
English (en)
French (fr)
Inventor
里緒 植井
仁志 津野
秀晃 富樫
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2024100993A1 publication Critical patent/WO2024100993A1/ja

Links

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures

Definitions

  • This disclosure relates to a solid-state imaging device.
  • Patent Document 1 discloses an image sensor.
  • the image sensor has an array of multiple pixels into which light is incident.
  • Each pixel has a semiconductor photodiode formed on a substrate, a color filter on the semiconductor photodiode, and an organic photodiode on the color filter.
  • the semiconductor photodiode and the color filter are arranged for each pixel.
  • the organic photodiode is arranged across multiple pixels.
  • the solid-state imaging device has a first photoelectric conversion unit disposed on a substrate and converting light in a first wavelength range into electric charge, an optical filter disposed on the opposite side of the substrate from the first photoelectric conversion unit and surrounded by an insulator, which transmits light in the first wavelength range, and a second photoelectric conversion unit disposed on the opposite side of the optical filter from the first photoelectric conversion unit and converts light in a second wavelength range different from the first wavelength range into electric charge, and is equipped with a plurality of arranged pixels, and a partition wall disposed in a region corresponding to between adjacent optical filters of the pixels and having less light leakage than an insulator.
  • the solid-state imaging device is the solid-state imaging device according to the first embodiment, further comprising a through electrode that penetrates in the thickness direction of the optical filter from the second photoelectric conversion section toward the first photoelectric conversion section, and the through electrode is disposed midway along the extension of the partition wall.
  • FIG. 1 is a circuit block diagram illustrating a system configuration of a solid-state imaging device according to a first embodiment of the present disclosure.
  • FIG. 2 is a circuit diagram of the pixels and pixel circuits of the solid-state imaging device shown in FIG.
  • FIG. 3 is a specific vertical cross-sectional view of the pixel shown in FIGS. 4A to 4C are cross-sectional views illustrating the first step of the method for manufacturing the solid-state imaging device according to the first embodiment.
  • FIG. 5 is a cross-sectional view of the second process.
  • FIG. 6 is a cross-sectional view of the third process.
  • FIG. 7 is a cross-sectional view of the fourth step.
  • FIG. 8 is a cross-sectional view of the fifth step.
  • FIG. 1 is a circuit block diagram illustrating a system configuration of a solid-state imaging device according to a first embodiment of the present disclosure.
  • FIG. 2 is a circuit diagram of the pixels and pixel circuits of the solid-state imaging device shown
  • FIG. 9 is a cross-sectional view of the sixth step.
  • FIG. 10 is a cross-sectional view of the seventh step.
  • FIG. 11 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to the second embodiment of the present disclosure, corresponding to FIG.
  • FIG. 12 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a third embodiment of the present disclosure, corresponding to FIG.
  • FIG. 13 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a fourth embodiment of the present disclosure, corresponding to FIG. FIG.
  • FIG. 14 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a fifth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 15 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a sixth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 16 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a seventh embodiment of the present disclosure, corresponding to FIG.
  • FIG. 17 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to an eighth embodiment of the present disclosure, corresponding to FIG. FIG.
  • FIG. 18 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a ninth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 19 is a vertical cross-sectional configuration diagram of a pixel of a solid-state imaging device according to a tenth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 20 is a specific planar configuration diagram of a pixel of a solid-state imaging device according to the eleventh embodiment of the present disclosure.
  • FIG. 21 is a plan configuration diagram of a pixel of a solid-state imaging device according to the twelfth embodiment of the present disclosure, corresponding to FIG. FIG.
  • FIG. 22 is a plan configuration diagram of a pixel of a solid-state imaging device according to the thirteenth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 23 is a plan configuration diagram of a pixel of a solid-state imaging device according to a fourteenth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 24 is a plan configuration diagram of a pixel of a solid-state imaging device according to a fifteenth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 25 is a plan configuration diagram of a pixel of a solid-state imaging device according to the sixteenth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 26 is a plan configuration diagram of a pixel of a solid-state imaging device according to the seventeenth embodiment of the present disclosure, corresponding to FIG. FIG.
  • FIG. 27 is a plan configuration diagram of a pixel of a solid-state imaging device according to the eighteenth embodiment of the present disclosure, corresponding to FIG.
  • FIG. 28 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 29 is an explanatory diagram showing an example of the installation positions of the outside-vehicle information detection unit and the imaging unit.
  • FIG. 30 is a diagram showing an example of a schematic configuration of an endoscopic surgery system.
  • FIG. 31 is a block diagram showing an example of the functional configuration of the camera head and the CCU.
  • the first embodiment is a first example in which the present technology is applied to a solid-state imaging device.
  • a system configuration of the solid-state imaging device, a configuration of a pixel and a pixel circuit, a specific vertical cross-sectional configuration of the solid-state imaging device, and a manufacturing method of the solid-state imaging device will be described.
  • Second Embodiment The second embodiment is a second example in which the structure of the partition wall is changed in the solid-state imaging device according to the first embodiment. 3.
  • the third embodiment is a third example in which the structure of the partition wall is changed in the solid-state imaging device according to the first embodiment. 4.
  • Fourth Embodiment The fourth embodiment is a fourth example in which the structure of the partition wall is changed in the solid-state imaging device according to the first embodiment. 5.
  • Fifth Embodiment The fifth embodiment is a fifth example in which the structure of the partition wall is changed in the solid-state imaging device according to the first embodiment. 6.
  • Sixth Embodiment The sixth embodiment is a sixth example in which the structure of the partition wall in the solid-state imaging device according to the first embodiment is changed. 7.
  • Seventh Embodiment The seventh embodiment is a seventh example in which the structure of the partition wall in the solid-state imaging device according to the first embodiment is changed. 8.
  • the eighth embodiment is an eighth example in which the structure of the partition wall in the solid-state imaging device according to the first embodiment is changed.
  • the ninth embodiment is a ninth example in which the structure of the partition wall in the solid-state imaging device according to the first embodiment is changed.
  • Tenth Embodiment is a tenth example in which the structure of the partition wall in the solid-state imaging device according to the first embodiment is changed.
  • Eleventh Embodiment is a first example for explaining the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to any one of the first to tenth embodiments. 12.
  • Twelfth Embodiment is a second example in which the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to the eleventh embodiment is changed.
  • the thirteenth embodiment is a third example in which the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to the eleventh embodiment is changed.
  • the fourteenth embodiment is a fourth example in which the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to the eleventh embodiment is changed. 15.
  • the fifteenth embodiment is a fifth example in which the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to the eleventh embodiment is changed. 16.
  • Sixteenth Embodiment The sixteenth embodiment is a sixth example in which the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to the eleventh embodiment is changed. 17.
  • Seventeenth Embodiment The seventeenth embodiment is a seventh example in which the configuration of the partition wall and the through electrode corresponding thereto in the solid-state imaging device according to the eleventh embodiment is changed. 18.
  • the eighteenth embodiment is an eighth example in which the configuration of the partition walls and the through electrodes therefor in the solid-state imaging device according to the eleventh embodiment is changed. 19.
  • Application Example to a Mobile Body In this application example, an example will be described in which the present technology is applied to a vehicle control system, which is an example of a mobile body control system. 20.
  • Application Example to Endoscopic Surgery System This application example describes an example in which the present technology is applied to an endoscopic surgery system. 21.
  • the arrow X direction shown as appropriate in the figure indicates one planar direction of the solid-state imaging device 1 placed on a flat surface for convenience.
  • the arrow Y direction indicates another planar direction perpendicular to the arrow X direction.
  • the arrow Z direction indicates an upward direction perpendicular to the arrow X and arrow Y directions.
  • the arrow X direction, the arrow Y direction, and the arrow Z direction exactly coincide with the X-axis direction, the Y-axis direction, and the Z-axis direction, respectively, of a three-dimensional coordinate system. Note that these directions are shown to facilitate understanding of the description, and are not intended to limit the directions of the present technology.
  • FIG. 1 shows an example of a circuit block for explaining the system configuration of the solid-state imaging device 1. As shown in FIG. 1
  • the solid-state imaging device 1 includes a light receiving region 101 in the center of a base 2 when viewed in the direction of the arrow Z (hereinafter simply referred to as "in a plan view").
  • a plurality of pixels 10 are regularly arranged.
  • a plurality of pixels 10 are arranged in a matrix, with the direction of the arrow X being a first direction, and a plurality of pixels 10 are arranged in a matrix, with the direction of the arrow Y being a second direction.
  • the pixels 10 are arranged in a matrix.
  • incident light is converted into electric charges as signals.
  • the solid-state imaging device 1 further includes peripheral circuits.
  • the peripheral circuits include at least a readout circuit RC1, a readout circuit RC2, and a drive circuit DR.
  • one pixel 10 includes two photoelectric conversion units.
  • the readout circuit RC1 includes a pixel circuit that reads, for example, the charge converted in one of the photoelectric conversion units as a signal.
  • the readout circuit RC2 includes a pixel circuit that reads, for example, the charge converted in the other photoelectric conversion unit as a signal.
  • the drive circuit DR outputs a drive signal that drives the photoelectric conversion unit of the pixel 10 .
  • FIG. 2 shows an example of the circuit configuration of the pixel 10, the pixel circuit PC1, and the pixel circuit PC2.
  • the pixel 10 includes two photoelectric conversion units, a first photoelectric conversion unit 21 and a second photoelectric conversion unit 60.
  • the wavelength band of light converted in the first photoelectric conversion unit 21 is different from the wavelength band of light converted in the second photoelectric conversion unit 60.
  • the first photoelectric conversion unit 21 is composed of a semiconductor photodiode. In the first photoelectric conversion unit 21, electric charges are generated according to the amount of incident light. The electric charges are sent to the pixel circuit PC1 as a signal.
  • the pixel circuit PC1 is connected to the first photoelectric conversion unit 21.
  • the pixel circuit PC1 includes a transfer transistor TG1, a reset transistor RST1, an amplification transistor AMP1, and a selection transistor SEL1.
  • One of a pair of main electrodes of the transfer transistor TG1 is connected to the first photoelectric conversion unit 21.
  • the other main electrode is connected to the gate electrode of the amplification transistor AMP1 through a floating diffusion FD1.
  • a control signal line (horizontal signal line) TS that transfers a control signal is connected to the gate electrode.
  • One of a pair of main electrodes of the reset transistor RST1 is connected to the floating diffusion FD1, the other main electrode is connected to the power supply voltage VDD, and a reset signal line RS1 that transfers a reset signal is connected to the gate electrode of the reset transistor RST1.
  • One of a pair of main electrodes of the amplification transistor AMP1 is connected to a power supply voltage VDD, and the other main electrode is connected to one of a pair of main electrodes of the selection transistor SEL1.
  • the other main electrode of the selection transistor SEL1 is connected to an output signal line (vertical signal line) VSL1, and the gate electrode is connected to a selection signal line SS1.
  • the control signal line TS is connected to a drive circuit DR (see FIG. 1)
  • the output signal line VSL1 is connected to a readout circuit RC1 (see FIG. 1).
  • the second photoelectric conversion unit 60 here is composed of an organic photodiode. In the second photoelectric conversion unit 60, charge is generated according to the amount of incident light. The charge is sent to the pixel circuit PC2 as a signal.
  • the pixel circuit PC2 is connected to the second photoelectric conversion unit 60.
  • the pixel circuit PC2 includes a reset transistor RST2, an amplification transistor AMP2, and a selection transistor SEL2.
  • the second photoelectric conversion unit 60 is connected to a drive signal line VOA that supplies a drive voltage to one electrode of each pixel 10 and a power supply voltage line VOU that supplies a fixed voltage to the other electrodes of the multiple pixels 10 .
  • the second photoelectric conversion unit 60 is connected to the gate electrode of the amplification transistor AMP2 through a floating diffusion FD2.
  • One of a pair of main electrodes of the reset transistor RST2 is connected to the floating diffusion FD2, the other main electrode is connected to the power supply voltage VDD, and a reset signal line RS2 that transfers a reset signal is connected to the gate electrode of the reset transistor RST2.
  • One of a pair of main electrodes of the amplification transistor AMP2 is connected to a power supply voltage VDD, and the other main electrode is connected to one of a pair of main electrodes of the selection transistor SEL2.
  • the other main electrode of the selection transistor SEL2 is connected to an output signal line (vertical signal line) VSL2, and the gate electrode is connected to a selection signal line SS2.
  • the drive signal line VOA is connected to a drive circuit DR (see FIG. 1)
  • the output signal line VSL2 is connected to a readout circuit RC2 (see FIG. 1).
  • the through electrode 53 (see FIG. 20 and subsequent figures) is described as a component.
  • the through electrode 53 includes two types of through electrodes, a first through electrode 531 and a second through electrode 532.
  • the first through electrode 531 constitutes a part of the floating diffusion FD2 that connects one electrode of the second photoelectric conversion unit 60 and the pixel circuit PC2.
  • the second through electrode 532 constitutes a connection wiring that connects the other electrode of the second photoelectric conversion unit 60 and the drive signal line VOA.
  • the through electrode 53 when there is no particular need to distinguish between the first through electrode 531 and the second through electrode 532, they will be collectively referred to simply as the through electrode 53.
  • the solid-state imaging device 1 further includes an image processing circuit (not shown).
  • Each of the pixel circuits PC1 and PC2 is connected to the image processing circuit.
  • the image processing circuit includes, for example, an analog-to-digital converter (ADC) and a digital signal processor (DSP).
  • ADC analog-to-digital converter
  • DSP digital signal processor
  • the charge converted from light by the pixel 10 is an analog signal. This analog signal is amplified in each of the pixel circuits PC1 and PC2.
  • the ADC converts the analog signals output from each of the pixel circuits PC1 and PC2 into digital signals.
  • the DSP performs functional processing of the digital signals. In other words, the image processing circuit performs signal processing for image creation.
  • FIG. 3 shows an example of a longitudinal cross-sectional configuration of the pixel 10. As shown in FIG.
  • the solid-state imaging device 1 when viewed in the direction of the arrow Y (hereinafter simply referred to as "when viewed from the side"), incident light L1 is incident on a pixel 10 from the outside in the direction of the arrow Z.
  • the solid-state imaging device 1 includes a base 2, a wiring region 3, a filter region 4, a wiring region 5, a photoelectric conversion region 6, a sealing region 7, and an optical system region 8. These are sequentially stacked in the direction of the arrow Z.
  • the pixel 10 includes a first photoelectric conversion unit 21, an optical filter 40, and a second photoelectric conversion unit 60 as main components. Furthermore, the solid-state imaging device 1 includes an optical lens 80 .
  • the base 2 includes a circuit board (not shown) and a semiconductor substrate 20 laminated in the direction of the arrow Z on the circuit board.
  • the circuit board is formed of, for example, a single crystal Si substrate, and has peripheral circuits for the solid-state imaging device 1 mounted thereon.
  • the semiconductor substrate 20 here is formed of a single crystal Si substrate, similar to the circuit substrate.
  • the first photoelectric conversion section 21 is disposed in the semiconductor substrate 20.
  • the first photoelectric conversion section 21 is disposed for each pixel 10.
  • the first photoelectric conversion unit 21 is composed of a semiconductor photodiode including a p-type semiconductor region and an n-type semiconductor region.
  • the first photoelectric conversion unit 21 is composed of, for example, a PIN (Positive Intrinsic Negative) type photodiode.
  • the first photoelectric conversion unit 21 receives incident light in the red light region as the first wavelength region or the blue light region as the first wavelength region, and generates photoelectrically converted charges according to the amount of received light.
  • the charges generated in the first photoelectric conversion unit 21 are output to a pixel circuit PC1 (see FIG. 2) mounted on a circuit board.
  • a pixel isolation region 22 is disposed between the first photoelectric conversion units 21 of the pixels 10 adjacent to each other in the directions of the arrow X and the arrow Y.
  • the pixel isolation region 22 is formed of an insulating material such as SiO2 .
  • the pixel isolation region 22 is configured to electrically isolate the adjacent first photoelectric conversion units 21.
  • the optical filter 40 is disposed in the filter region 4.
  • the optical filter 40 is disposed on the opposite side of the semiconductor substrate 20 to the circuit board, with the wiring region 3 interposed therebetween.
  • the wiring region 3 includes an insulator 31 and a wiring 32 embedded in the insulator 31.
  • the insulator 31 is formed of an insulating material such as SiO2 .
  • the wiring 32 is used as a wiring that connects the second photoelectric conversion unit 60 and the pixel circuit PC2 (see FIG. 2).
  • the lateral periphery of the optical filter 40 is surrounded by an insulator 41.
  • the specific material of the insulator 41 will be described later.
  • the optical filter 40 includes a red filter 40R that transmits the red wavelength range as the first wavelength range, and a blue filter 40B that similarly transmits the blue wavelength range as the first wavelength range.
  • the red filter 40R is disposed at a position corresponding to one first photoelectric conversion unit 21 of one pixel 10.
  • the red filter 40R transmits light having a wavelength of, for example, 585 nm or more and 780 nm or less.
  • the blue filter 40B is disposed at a position corresponding to one first photoelectric conversion unit 21 of one pixel 10.
  • the blue filter 40B transmits light having a wavelength of, for example, 400 nm or more and 500 nm or less.
  • the red filters 40R and the blue filters 40B are arranged alternately in the directions of the arrow X and the arrow Y (see, for example, FIG. 20).
  • two pixels 10 arranged in the direction of the arrow X and two pixels 10 arranged in the direction of the arrow Y form one unit pixel PU.
  • two red filters 40R are arranged along one diagonal.
  • two blue filters 40B are arranged along the other diagonal that is perpendicular to the one diagonal.
  • the optical filter 40 is formed, for example, by including a pigment that imparts color to a resin material.
  • a resin material for example, an organic resin material such as a phthalocyanine derivative can be practically used.
  • the red filter 40R has a thickness of, for example, 400 nm to 850 nm
  • the blue filter 40B has a thickness of, for example, 200 nm to 550 nm.
  • the red filter 40R and the blue filter 40B are formed to have different thicknesses in order to adjust sensitivity.
  • the second photoelectric conversion section 60 is disposed on the opposite side of the optical filter 40 to the first photoelectric conversion section 21, with the wiring region 5 interposed therebetween.
  • the wiring region 5 includes an insulator 51 and a wiring 52 embedded in the insulator 51.
  • the insulator 51 is formed of an insulating material such as SiO2 .
  • the wiring 52 is used as a wiring that connects the second photoelectric conversion unit 60 and the pixel circuit PC2 (see FIG. 2).
  • the second photoelectric conversion unit 60 is disposed across a plurality of pixels 10. Here, the second photoelectric conversion unit 60 is disposed across all of the pixels 10.
  • the second photoelectric conversion section 60 includes a first electrode 61, an organic photoelectric conversion layer 63, and a second electrode 64. Furthermore, the second photoelectric conversion section 60 includes a charge accumulation and transfer layer 62.
  • the first electrode 61 is disposed on the optical filter 40 side, and is formed on the surface portion of the wiring region 5.
  • the first electrode 61 is used as a readout electrode or a lower electrode, and is disposed for each pixel 10.
  • the first electrode 61 is connected to the pixel circuit PC2 (see FIG. 2) of the circuit board through the wiring 52 in the wiring region 5, the wiring 32 in the wiring region 3, etc.
  • IZO indium oxide-zinc oxide
  • ITO indium tin oxide
  • the film thickness of the first electrode 61 is, for example, 10 nm or more and 100 nm or less.
  • the organic photoelectric conversion layer 63 is disposed on the opposite side of the first electrode 61 to the optical filter 40.
  • An organic material is used for the organic photoelectric conversion layer 63.
  • the organic material any one of a p-type organic semiconductor, an n-type organic semiconductor, a stacked structure of a p-type organic semiconductor and an n-type organic semiconductor, and a mixture (bulk heterostructure) of a p-type organic semiconductor and an n-type organic semiconductor can be used.
  • the laminated structure includes a laminated structure in which a p-type organic semiconductor, a mixture of a p-type organic semiconductor and an n-type organic semiconductor (bulk heterostructure), and an n-type organic semiconductor are laminated.
  • the laminated structure also includes a laminated structure in which a p-type organic semiconductor, a mixture of a p-type organic semiconductor and an n-type organic semiconductor (bulk heterostructure) are laminated.
  • the laminated structure also includes a laminated structure in which an n-type organic semiconductor, a mixture of a p-type organic semiconductor and an n-type organic semiconductor (bulk heterostructure) are laminated. The order of stacking the laminated structures can be changed as appropriate.
  • Examples of p-type organic semiconductors include naphthalene derivatives, anthracene derivatives, phenanthrene derivatives, pyrene derivatives, perylene derivatives, tetracene derivatives, pentacene derivatives, quinacridone derivatives, thiophene derivatives, thienothiophene derivatives, benzothiophene derivatives, benzothienobenzothiophene derivatives, triallylamine derivatives, carbazole derivatives, perylene derivatives, picene derivatives, chrysene derivatives, fluoranthene derivatives, phthalocyanine derivatives, subphthalocyanine derivatives, subporphyrazine derivatives, metal complexes with heterocyclic compounds as ligands, polythiophene derivatives, polybenzothiadiazole derivatives, and polyfluorene derivatives.
  • n-type organic semiconductors include fullerenes and fullerene derivatives (e.g., fullerenes (higher fullerenes) such as C60, C70, and C74, endohedral fullerenes, etc.) or fullerene derivatives (e.g., fullerene fluorides, PCBM fullerene compounds, fullerene polymers, etc.)), organic semiconductors having larger (deeper) HOMO and LUMO than p-type organic semiconductors, and transparent inorganic metal oxides.
  • fullerenes and fullerene derivatives e.g., fullerenes (higher fullerenes) such as C60, C70, and C74, endohedral fullerenes, etc.
  • fullerene derivatives e.g., fullerene fluorides, PCBM fullerene compounds, fullerene polymers, etc.
  • a heterocyclic compound containing a nitrogen atom, an oxygen atom, or a sulfur atom can be used.
  • the heterocyclic compound can include, for example, a pyridine derivative, a pyrazine derivative, a pyrimidine derivative, a triazine derivative, a quinoline derivative, a quinoxaline derivative, an isoquinoline derivative, an acridine derivative, a phenazine derivative, a phenanthroline derivative, a tetrazole derivative, a pyrazole derivative, an imidazole derivative, a thiazole derivative, an oxazole derivative, an imidazole derivative, a benzimidazole derivative, a benzotriazole derivative, a benzoxazole derivative, a benzoxazole derivative, a carbazole derivative, a benzofuran derivative, a dibenzofuran derivative, a subporphyrazine derivative, a polypheny
  • the groups contained in the fullerene derivatives include halogen atoms; linear, branched, or cyclic alkyl groups or phenyl groups; groups having linear or condensed aromatic compounds; groups having halides; partial fluoroalkyl groups; perfluoroalkyl groups; silylalkyl groups; silylalkoxy groups; arylsilyl groups; arylsulfanyl groups; alkylsulfanyl groups; arylsulfonyl groups; alkylsulfonyl groups; arylsulfide groups; alkylsulfide groups; amino groups; alkylamino groups; arylamino groups; hydroxy groups; alkoxy groups; acylamino groups; acyloxy groups; carbonyl groups; carboxy groups; carboxamido groups; carboalkoxy groups; acyl groups; sulfonyl groups; cyano groups; nitro groups; groups having chalcogenides; phos
  • the thickness of the organic photoelectric conversion layer 63 formed from an organic material is not limited, but is, for example, 1 ⁇ 10 -8 m or more and 5 ⁇ 10 -7 m or less.
  • the thickness of the organic photoelectric conversion layer 63 is preferably 2.5 ⁇ 10 -8 m or more and 3 ⁇ 10 -7 m or less. More preferably, the thickness of the organic photoelectric conversion layer 63 is 2.5 ⁇ 10 -8 m or more and 2 ⁇ 10 -7 m or less. Even more preferably, the thickness of the organic photoelectric conversion layer 63 is 1 ⁇ 10 -7 m or more and 1.8 ⁇ 10 -7 m or less.
  • organic semiconductors are mostly classified into p-type and n-type.
  • the p-type means that it is easy to transport holes.
  • the n-type means that it is easy to transport electrons. Therefore, unlike inorganic semiconductors, they are not limited to the interpretation that they have holes or electrons as the majority carriers of thermal excitation.
  • the second photoelectric conversion unit 60 is configured to generate charges by photoelectric conversion from light having a green wavelength as the second wavelength range.
  • the wavelength of the green light is, for example, not less than 500 nm and not more than 585 nm.
  • organic materials that can be used to form the organic photoelectric conversion layer 63 of the second photoelectric conversion section 60 include rhodamine-based dyes, melacyanine-based dyes, quinacridone derivatives, and subphthalocyanine-based dyes (subphthalocyanine derivatives).
  • the second photoelectric conversion section 60 performs photoelectric conversion on light of a blue wavelength
  • coumaric acid dye, tris-8-hydroxyquinolialuminum (Alq3), melacyanine dye, etc. can be used as the organic material of the organic photoelectric conversion layer.
  • Alq3 tris-8-hydroxyquinolialuminum
  • melacyanine dye etc.
  • red wavelength for example, a phthalocyanine-based dye or a subphthalocyanine-based dye (subphthalocyanine derivative) can be used as the organic material of the organic photoelectric conversion layer.
  • the second photoelectric conversion unit 60 may be constructed of an inorganic photoelectric conversion layer instead of the organic photoelectric conversion layer 63.
  • an inorganic material for constructing the inorganic photoelectric conversion layer crystalline silicon, amorphous silicon, microcrystalline silicon, crystalline selenium, amorphous selenium, a chalcopalite-based compound, or a III-V group compound semiconductor can be used.
  • Chalcopallite compounds include CIGS (CuInGaSe), CIS ( CuInSe2 ), CuInS2 , CuAlS2 , CuAlSe2, CuGaS2 , CuGaSe2 , AgAlS2 , AgAlSe2 , AgInS2 , or AgInSe2 .
  • III-V compound semiconductors include GaAs, InP, AlGaAs, InGaP, AlGaInP, InGaAsP, etc.
  • III-V compound semiconductors also include CdSe, CdS, In2Se3, In2S3, Bi2Se3, Bi2S3 , ZnSe , ZnS , PbSe, PbS , etc.
  • quantum dots made of these materials can be used in the organic photoelectric conversion layer 63 .
  • the organic photoelectric conversion layer 63 can be configured with a laminated structure of a lower semiconductor layer and an upper photoelectric conversion layer. By providing the organic photoelectric conversion layer 63 with a lower semiconductor layer, recombination during charge accumulation can be prevented in the organic photoelectric conversion layer 63, and the efficiency of charge transfer to the charge accumulation and transfer layer 62 can be improved. Furthermore, the generation of dark current can be effectively suppressed.
  • the upper photoelectric conversion layer can be appropriately selected from the various materials that form the organic photoelectric conversion layer 63 described above.
  • the lower semiconductor layer it is preferable to use a material having a large band gap value (for example, a band gap value of 3.0 eV or more) and a higher mobility than the material forming the organic photoelectric conversion layer 63.
  • a material having a large band gap value for example, a band gap value of 3.0 eV or more
  • an oxide semiconductor material such as IGZO, a transition metal dichalcogenide, silicon carbide, diamond, graphene, carbon nanotube, a condensed polycyclic hydrocarbon compound, a condensed heterocyclic compound, or other organic semiconductor material can be used.
  • a material having a larger ionization potential than the material forming the organic photoelectric conversion layer 63 can be used for the lower semiconductor layer.
  • the impurity concentration of the material forming the lower semiconductor layer is preferably, for example, 1 ⁇ 10 18 cm ⁇ 3 or less.
  • the lower semiconductor layer may have a single-layer structure or a multi-layer structure.
  • the material forming the lower semiconductor layer may be different between the region corresponding to the first electrode 61 and the region corresponding to the floating diffusion FD2.
  • the second electrode 64 is disposed on the opposite side of the organic photoelectric conversion layer 63 to the first electrode 61.
  • the second electrode 64 is used as a common electrode or an upper electrode, and is disposed across a plurality of pixels 10.
  • the second electrode 64 is connected to the power supply voltage line VOU (see FIG. 2).
  • a fixed voltage is supplied to the second electrode 64.
  • the second electrode 64 is formed of an electrode material having conductivity and transparency, similar to the first electrode 61.
  • the second electrode 64 is formed of an electrode material such as ITO or IZO.
  • the second electrode 64 may also be formed of one or more electrode materials selected from IGZO, IAZO, ITZO, IGSiO, ZnO, AZO, and GZO.
  • the film thickness of the second electrode 64 is, for example, not less than 10 nm and not more than 100 nm.
  • the charge accumulation and transfer layer 62 is disposed between the first electrode 61 and the organic photoelectric conversion layer 63.
  • the organic photoelectric conversion layer 63 is disposed on the first electrode 61 with an insulator (not shown) interposed therebetween.
  • the charge accumulation and transfer layer 62 is disposed across a plurality of pixels 10.
  • the insulators without reference numbers are used as gate insulating films, and the insulators are, for example, one or more selected from SiO 2 , SiON, AlO, and HfO.
  • the charge accumulation and transfer layer 62 accumulates charges generated by photoelectric conversion of light in the second photoelectric conversion section 60.
  • the charge accumulation and transfer layer 62 is connected to a through electrode (see reference numeral 531 in FIG. 2). This through electrode forms a floating diffusion FD2 (see FIG. 2). In other words, the charges generated in the charge accumulation and transfer layer 62 are transferred to the pixel circuit PC2 (see FIG. 2).
  • the charge accumulation and transfer layer 62 is formed of an oxide semiconductor, which is a transparent semiconductor.
  • IGZO containing indium (In), gallium (Ga), zinc (Zn), and oxygen (O) is used for the charge accumulation and transfer layer 62.
  • IAZO containing In, aluminum (Al), Zn, and O, or ITZO containing In, tin (Sn), Zn, and O can also be used for the charge accumulation and transfer layer 62.
  • one or more semiconductor materials selected from IGSiO, ZnO, AZO, GZO, ITO, and IZO can also be used for the charge accumulation and transfer layer 62.
  • the thickness of the charge storage and transfer layer 62 is, for example, not less than 10 nm and not more than 100 nm.
  • the optical lens 80 is disposed in the optical system region 8.
  • the optical lens 80 is disposed on the opposite side of the second electrode 64 to the organic photoelectric conversion layer 63, with the sealing region 7 interposed therebetween.
  • a plurality of sealing layers 70 are disposed in the sealing region 7.
  • the sealing layers 70 are formed of one or more sealing materials selected from, for example, AlO, SiN, and SiON.
  • the optical lens 80 is formed in a circular shape in a plan view for each pixel 10.
  • the optical lens 80 is formed in a curved shape that curves toward the light incident side and collects the incident light L1 in a side view. That is, the optical lens 80 is a so-called on-chip lens, and is formed for each pixel 10 or integrally across a plurality of pixels 10.
  • the optical lens 80 is formed of, for example, a transparent resin material.
  • An anti-reflection layer 81 is formed on the surface of the optical lens 80.
  • the anti-reflection layer 81 is made of, for example, SiO2 .
  • the partition 9 is disposed in a region corresponding to a space between adjacent optical filters 40 of the pixel 10 .
  • the partitions 9 are disposed from the surface of the base 2 to between the optical filters 40 in the thickness direction of the optical filters 40, which is the direction of the arrow Z.
  • the partitions 9 are disposed from the surface of the base 2 to the surface of the optical filters 40 on the side of the second photoelectric conversion unit 60.
  • the partitions 9 cause less light leakage from the adjacent pixels 10 than the insulator 41 surrounding the side periphery of the optical filters 40.
  • the insulator 41 is made of, for example, one or more inorganic materials selected from SiN, SiO2 , SiON and TiSiO, or one or more resin materials selected from styrene-based resins, acrylic-based resins, styrene-acrylic copolymer-based resins and siloxane-based resins.
  • the partition 9 is made of two or more types of media.
  • One of the media is a reflector that reflects, as reflected light L2, light that would leak toward the adjacent pixel 10 out of the incident light L1, thereby preventing the leakage of light and concentrating the reflected light L2 within the pixel 10.
  • the reflector one or more metal materials having high light reflectance selected from Al, W, Ag, Rh, and Cu, or metal materials having light reflectance and high light absorptance, can be used.
  • the other medium is an absorber or a low refractive index medium.
  • the absorber absorbs light, out of the incident light L1, that leaks to the adjacent pixel 10.
  • a metal material with high light absorption which is exemplified as the reflector above, is used.
  • the low refractive index body changes the refractive index of light that leaks to the adjacent pixel 10 out of the incident light L1, thereby reducing the light leakage to the adjacent pixel 10.
  • a material having a refractive index lower than that of the insulator 41 specifically a resin-based material having a refractive index exceeding 1.0 and not exceeding 1.7, can be used.
  • the low refractive index body may also include a vacuum gap, a gap filled with air, or a gap filled with an inert gas, such as N2 or Ar.
  • the partition 9 is composed of two types of media, for example, a reflector and an absorber or a low refractive index body arranged on the insulator 41 side of the reflector.
  • the partition 9 may also be composed of two types of media, for example, an absorber and a low refractive index body arranged on the insulator 41 side of the absorber.
  • the partition 9 may be made of three types of media: a reflector, an absorber, and a low refractive index material.
  • Fig. 4 to Fig. 10 show an example of a series of process cross sections for explaining the method for manufacturing the solid-state imaging device 1 according to the first embodiment.
  • a base 2 is prepared (see FIG. 4 ).
  • the base 2 is formed by a circuit board (not shown) and a semiconductor substrate 20 laminated on the circuit board.
  • a first photoelectric conversion unit 21 is formed for each pixel 10 on the semiconductor substrate 20.
  • a pixel isolation region 22 is formed on the semiconductor substrate 20 in a region corresponding to between the pixels 10.
  • the wiring region 3 is formed on the semiconductor substrate 20 of the base 2 .
  • an insulator 41 which will become the filter region 4 is formed on the wiring region 3.
  • the insulator 41 is made of, for example, SiO 2.
  • the thickness of the insulator 41 is, for example, 300 nm to 1100 nm.
  • an opening 41H is formed in the insulator 41 for each pixel 10.
  • an optical filter 40 is embedded in the opening 41H.
  • the opening 41H is formed by, for example, dry etching using an etching mask not shown.
  • the optical filter 40 is formed in the opening 51H.
  • a red filter 40R and a blue filter 40B are formed as the optical filter 40.
  • An insulator 41 remains around the side surfaces of the optical filter 40.
  • an insulator 42 is formed to cover the optical filter 40.
  • the insulator 42 is made of, for example, SiN.
  • the SiN is deposited using a sputtering method or a chemical vapor deposition (CVD) method.
  • grooves 91H are formed in the insulators 41 and 31 in the regions corresponding to the spaces between the optical filters 40.
  • the grooves 91H are formed, for example, by dry etching using an etching mask (not shown).
  • the grooves 91H are formed, for example, so as not to reach the base 2.
  • partitions 9 are formed in grooves 91H using, for example, two or more types of media.
  • partitions 9 are formed using two or more types of media selected from the reflectors, absorbers, and low refractive index materials described above.
  • Partitions 9 are formed using, for example, a sputtering method or a CVD method.
  • an insulator 43 is formed on the insulator 42 to cover the partition 9.
  • the insulator 43 is made of, for example, SiO2 .
  • the surface of the insulator 43 is planarized, and the stepped shapes of the optical filter 40, the partition 9, etc. are reduced.
  • CMP chemical mechanical polishing
  • the wiring region 5, the photoelectric conversion region 6 including the second photoelectric conversion section 60, the sealing region 7, and the optical system region 8 are successively formed on the filter region 4 (see FIG. 3).
  • a solid-state imaging device 1 includes pixels 10 each having a first photoelectric conversion unit 21, an optical filter 40, and a second photoelectric conversion unit 60.
  • a plurality of pixels 10 are arranged.
  • the first photoelectric conversion section 21 is disposed on the base 2 and converts light in a first wavelength range into electric charges.
  • the optical filter 40 is disposed on the side of the first photoelectric conversion section 21 opposite the base 2, with the lateral periphery surrounded by an insulator 41.
  • the optical filter 40 transmits light in the first wavelength range.
  • the second photoelectric conversion section 60 is disposed on the side of the optical filter 40 opposite the first photoelectric conversion section 21.
  • the second photoelectric conversion section 60 converts light in a second wavelength range different from the first wavelength range into electric charges.
  • the solid-state imaging device 1 further includes a partition 9.
  • the partition 9 is disposed in a region corresponding to a space between adjacent optical filters 40 of the pixel 10.
  • the partition 9 has smaller light leakage than the insulator 41. Therefore, since the partition 9 is provided in the solid-state imaging device 1 having two or more stages of first photoelectric conversion units 21 and second photoelectric conversion units 60, it is possible to effectively suppress or prevent leakage of the incident light L1 into the adjacent pixels 10. Therefore, it is possible to provide the solid-state imaging device 1 having excellent light receiving characteristics without color mixing.
  • the partition 9 is made of two or more types of media. This makes it possible to more effectively suppress or prevent leakage of the incident light L1 into the adjacent pixels 10.
  • the partition 9 includes a reflector that reflects light.
  • the partition 9 also includes an absorber that absorbs light.
  • the partition 9 also includes a low refractive index body that has a refractive index lower than that of the insulator 41.
  • the low refractive index body includes a vacuum gap, or a gap filled with air or an inert gas. Therefore, leakage of the incident light L1 into the adjacent pixels 10 can be more effectively suppressed or prevented.
  • the partition walls 9 are disposed from the base 2 to a position reaching the optical filter 40. Therefore, it is possible to effectively suppress or prevent the incident light L1 incident on the substrate 2 side from the optical filter 40 from leaking into the adjacent pixel 10.
  • Second embodiment> A solid-state imaging device 1 according to a second embodiment of the present disclosure will be described with reference to FIG.
  • components that are the same or substantially the same as the components of the solid-state imaging device 1 of the first embodiment are given the same symbols, and duplicated explanations are omitted.
  • FIG. 11 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the partition 9 is arranged on the base 2 and a position from the base 2 to the optical filter 40.
  • the partition wall 9 is disposed from the surface of the base 2 to the surface of the optical filter 40 on the side of the second photoelectric conversion unit 60, and further extends into the base 2.
  • the partition wall 9 is disposed at a position corresponding to the space between adjacent pixels 10, between the first photoelectric conversion units 21.
  • the partition wall 9 is disposed so as to overlap the pixel isolation region 22.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the first embodiment.
  • the partitions 9 are disposed on the base 2 and from the base 2 to a position that reaches the optical filter 40, so that leakage of the incident light L1 to the adjacent pixels 10 can be effectively suppressed or prevented even in the thickness direction of the base 2.
  • FIG. 12 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the partition 9 is disposed between the base 2 and the optical filter 40 in the solid-state imaging device 1 according to the first embodiment.
  • the partition 9 is disposed in the wiring region 3.
  • This wiring region 3 is a region where the incident light L1 transmitted through the optical filter 40 leaks directly into the first photoelectric conversion unit 21 of the adjacent pixel 10. Therefore, the partition 9 is disposed only in the wiring region 3, which is the minimum size.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the first embodiment.
  • the partition 9 is disposed only in the minimum area between the base 2 and the optical filter 40, and thus it is possible to effectively suppress or prevent leakage of the incident light L1 into the adjacent pixels 10.
  • FIG. 13 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the partition 9 is further arranged from the optical filter 40 to a position reaching the second photoelectric conversion section 60.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the second embodiment.
  • the partition 9 is disposed from the optical filter 40 to the second photoelectric conversion section 60, so that leakage of the incident light L1 to the adjacent pixels 10 can be effectively suppressed or prevented over a wide range in the thickness direction of the base 2.
  • FIG. 14 shows an example of a vertical cross-sectional configuration of a pixel 10. 14, in the solid-state imaging device 1 according to the fifth embodiment, the charge storage and transfer layer 62 of the second photoelectric conversion unit 60 is not provided in the solid-state imaging device 1 according to the first embodiment.
  • the present technology is also applicable to a structure in which the second photoelectric conversion unit 60 is not provided.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the first embodiment.
  • the solid-state imaging device 1 even if the structure of the second photoelectric conversion unit 60 is changed, it is possible to effectively suppress or prevent leakage of the incident light L1 into the adjacent pixel 10, as shown in FIG. 14.
  • FIG. 15 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the partition 9 in the solid-state imaging device 1 according to the first embodiment is divided into a plurality of partitions in the thickness direction of the optical filter 40.
  • the partition 9 includes a partition 9A disposed in the wiring region 3 and a partition 9B disposed in the filter region 4.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the first embodiment.
  • the partition 9 is formed of partitions 9A and 9B divided in the thickness direction of the optical filter 40. Since the partition 9A is formed on the insulator 31 in the wiring region 3, the amount of etching (etching depth) of the insulator 31 is reduced. Since the partition 9B is formed on the insulator 41 in the filter region 4, the amount of etching (etching depth) of the insulator 41 is reduced. Therefore, the processing accuracy of the partition wall 9 can be improved.
  • FIG. 16 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the width dimension of the partition 9 in the solid-state imaging device 1 according to the first embodiment is reduced from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side. That is, the cross-sectional shape of the partition 9 is formed into an inverted trapezoidal shape in side view.
  • the surface of the partition 9 facing the side surface of the optical filter 40 is formed into an inclined surface.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the first embodiment.
  • the width dimension of the partition wall 9 decreases from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side.
  • the opening area of the wiring region 3 can be increased, thereby improving the layout efficiency of the wiring 32 in the wiring region 3 while effectively suppressing or preventing leakage of incident light L1 into adjacent pixels 10.
  • FIG. 17 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the solid-state imaging device 1 according to the eighth embodiment is a combination of the solid-state imaging device 1 according to the sixth embodiment and the solid-state imaging device 1 according to the seventh embodiment.
  • the partition 9 includes partitions 9A and 9B that are divided into a plurality of parts in the thickness direction of the optical filter 40. The width dimensions of the partitions 9A and 9B are reduced from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the sixth embodiment and the solid-state imaging device 1 according to the seventh embodiment.
  • the solid-state imaging device 1 of the eighth embodiment can obtain an effect that combines the effect obtained by the solid-state imaging device 1 of the sixth embodiment and the effect obtained by the solid-state imaging device 1 of the seventh embodiment.
  • FIG. 18 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the solid-state imaging device 1 according to the ninth embodiment is a first application example of the solid-state imaging device 1 according to the eighth embodiment.
  • the partition 9 includes partitions 9A and 9B that are divided into a plurality of parts in the thickness direction of the optical filter 40.
  • the width dimension of the partition 9A is reduced from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side.
  • the width dimension of the partition 9B is constant from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eighth embodiment.
  • FIG. 19 shows an example of a vertical cross-sectional configuration of a pixel 10.
  • the solid-state imaging device 1 according to the tenth embodiment is a second application example of the solid-state imaging device 1 according to the eighth embodiment.
  • the partition 9 includes partitions 9A and 9B that are divided into a plurality of parts in the thickness direction of the optical filter 40.
  • the width dimension of the partition 9A is constant from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side.
  • the width dimension of the partition 9B is reduced from the second photoelectric conversion section 60 side toward the first photoelectric conversion section 21 side.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eighth embodiment.
  • the solid-state imaging device 1 according to the tenth embodiment can provide the same advantageous effects as those provided by the solid-state imaging device 1 according to the eighth embodiment.
  • FIG. 20 shows an example of the planar configuration of the pixel 10. 20 , in the solid-state imaging device 1 according to the eleventh embodiment, in any of the solid-state imaging devices 1 according to the first to tenth embodiments, a through electrode 53 is provided in addition to the partition wall 9.
  • the through electrode 53 is either a first through electrode 531 or a second through electrode 532.
  • the first through electrode 531 constitutes a floating diffusion FD2 that connects one electrode of the second photoelectric conversion unit 60 to the pixel circuit PC2.
  • the second through electrode 532 constitutes a connection wiring that connects the other electrode of the second photoelectric conversion unit 60 to the drive signal line VOA.
  • the unit pixel PU includes two pixels 10 arranged in the direction of the arrow X and two pixels 10 arranged in the direction of the arrow Y, and is constructed by a total of four pixels 10.
  • the partition wall 9 disposed in a region corresponding to a gap between two pixels 10 arranged adjacently in the direction of arrow X extends in the direction of arrow Y.
  • the partition wall 9 disposed in a region corresponding to a gap between two pixels 10 arranged adjacently in the direction of arrow Y extends in the direction of arrow X.
  • the through electrode 53 is disposed midway along the extension of the partition wall 9. In other words, the through electrode 53 is disposed so as to coincide with the extension of the partition wall 9. More specifically, the partition walls 9 extend in the directions of the arrow Y and the arrow X and are arranged in a lattice shape in a plan view. The through electrodes 53 are arranged at intersections (lattice point locations) of the partition walls 9 extending in the directions of the arrow Y and the arrow X.
  • the through electrode 53 is spaced from the extended end of the partition 9.
  • This distance SD is equal to or less than the wavelength of light.
  • the distance SD is set to 400 nm or less in order to effectively suppress or prevent light leakage from between the through electrode 53 and the partition 9.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to any one of the first to tenth embodiments.
  • the solid-state imaging device 1 according to the eleventh embodiment can provide the same advantageous effects as those provided by the solid-state imaging device 1 according to any one of the first to tenth embodiments.
  • the through electrodes 53 are disposed in the middle of the partition walls 9 that are extended. As with the partition walls 9, the through electrodes 53 are disposed using the regions that correspond to the spaces between adjacent pixels 10, so that the light receiving area of the pixels 10 can be expanded.
  • the through electrodes 53 are spaced apart from the extended ends of the partition walls 9.
  • the space SD is equal to or smaller than the wavelength of light.
  • the space SD is equal to or smaller than 400 nm. Since the through electrodes 53 and the partition walls 9 are spaced apart from each other, they can be processed independently, for example, in the manufacture of the solid-state imaging device 1.
  • the spacing dimension SD is set to a dimension equal to or smaller than the wavelength of light, it is possible to effectively suppress or prevent leakage of the incident light L1 into the adjacent pixels 10.
  • Twelfth embodiment A solid-state imaging device 1 according to a twelfth embodiment of the present disclosure will be described with reference to FIG.
  • FIG. 21 shows an example of the planar configuration of the pixel 10. As shown in FIG. 21, in the solid-state imaging device 1 according to the twelfth embodiment, the partition walls 9 and the through electrodes 53 in the solid-state imaging device 1 according to the eleventh embodiment are arranged in contact with each other.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eleventh embodiment.
  • FIG. 22 shows an example of the planar configuration of the pixel 10. 22 , in the solid-state imaging device 1 according to the 13th embodiment, one through electrode 53 is disposed at the center of the unit pixel PU in the solid-state imaging device 1 according to the 11th embodiment. In other words, one through electrode 53 is disposed and shared by the four pixels 10 of the unit pixel PU.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eleventh embodiment.
  • FIG. 23 shows an example of the planar configuration of the pixel 10.
  • the partition wall 9 is in the middle of being extended in the solid-state imaging device 1 according to the 11th embodiment, and a through electrode 53 is disposed in an intermediate portion of the pixel 10.
  • the intermediate portion of the pixel 10 means a intermediate position of one side of the pixel 10 which is formed in a rectangular shape in a plan view.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eleventh embodiment.
  • FIG. 24 shows an example of the planar configuration of the pixel 10.
  • the solid-state imaging device 1 according to the fifteenth embodiment is a combination of the solid-state imaging device 1 according to the twelfth embodiment and the solid-state imaging device 1 according to the fourteenth embodiment.
  • the through electrodes 53 are disposed at the intersections of the partition walls 9 and in the middle portions of the pixels 10.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the twelfth embodiment and the solid-state imaging device 1 according to the fourteenth embodiment.
  • the solid-state imaging device 1 of the fifteenth embodiment can obtain an effect that combines the effect obtained by the solid-state imaging device 1 of the twelfth embodiment and the effect obtained by the solid-state imaging device 1 of the fourteenth embodiment.
  • FIG. 25 shows an example of the planar configuration of the pixel 10. 25 , the solid-state imaging device 1 according to the sixteenth embodiment is different from the solid-state imaging device 1 according to the eleventh embodiment in the configuration of the optical filter 40.
  • the unit pixel PU includes two pixels 10 having a yellow filter 40Y arranged on one diagonal line, and two pixels 10 having a cyan filter 40C arranged on the other diagonal line.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eleventh embodiment.
  • FIG. 26 shows an example of the planar configuration of the pixel 10. 26 , the solid-state imaging device 1 according to the seventeenth embodiment is different from the solid-state imaging device 1 according to the eleventh embodiment in that the configuration of the optical filter 40 is changed.
  • the unit pixel PU includes four pixels 10, each having an infrared transmission filter 40I.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eleventh embodiment.
  • FIG. 27 shows an example of the planar configuration of the pixel 10.
  • the solid-state imaging device 1 according to the 18th embodiment is different from the solid-state imaging device 1 according to the 11th embodiment in the configuration of the optical filter 40.
  • the unit pixel PU includes two pixels 10 having a red filter 40R arranged on one diagonal line, and two pixels 10 having a cyan filter 40C arranged on the other diagonal line.
  • the components other than those described above are the same or substantially the same as the components of the solid-state imaging device 1 according to the eleventh embodiment.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility device, an airplane, a drone, a ship, or a robot.
  • FIG. 28 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology disclosed herein can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051 Also shown in the figure are a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (Interface) 12053 as functional configurations of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 functions as a control device for a drive force generating device for generating the drive force of the vehicle, such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to the wheels, a steering mechanism for adjusting the steering angle of the vehicle, and a braking device for generating a braking force for the vehicle.
  • the body system control unit 12020 controls the operation of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a control device for a keyless entry system, a smart key system, a power window device, or various lamps such as headlamps, tail lamps, brake lamps, turn signals, and fog lamps.
  • radio waves or signals from various switches transmitted from a portable device that replaces a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle's door lock device, power window device, lamps, etc.
  • the outside-vehicle information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image capturing unit 12031 is connected to the outside-vehicle information detection unit 12030.
  • the outside-vehicle information detection unit 12030 causes the image capturing unit 12031 to capture images outside the vehicle and receives the captured images.
  • the outside-vehicle information detection unit 12030 may perform object detection processing or distance detection processing for people, cars, obstacles, signs, characters on the road surface, etc. based on the received images.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of light received.
  • the imaging unit 12031 can output the electrical signal as an image, or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light, or may be invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects information inside the vehicle.
  • a driver state detection unit 12041 that detects the state of the driver is connected.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 may calculate the driver's degree of fatigue or concentration based on the detection information input from the driver state detection unit 12041, or may determine whether the driver is dozing off.
  • the microcomputer 12051 can calculate control target values for the driving force generating device, steering mechanism, or braking device based on information inside and outside the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, and output control commands to the drive system control unit 12010.
  • the microcomputer 12051 can perform cooperative control aimed at realizing the functions of an Advanced Driver Assistance System (ADAS), including vehicle collision avoidance or impact mitigation, following driving based on the distance between vehicles, maintaining vehicle speed, vehicle collision warning, or vehicle lane departure warning.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 can also control the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the outside vehicle information detection unit 12030 or the inside vehicle information detection unit 12040, thereby performing cooperative control aimed at automatic driving, which allows the vehicle to travel autonomously without relying on the driver's operation.
  • the microcomputer 12051 can also output control commands to the body system control unit 12030 based on information outside the vehicle acquired by the outside information detection unit 12030. For example, the microcomputer 12051 can control the headlamps according to the position of a preceding vehicle or an oncoming vehicle detected by the outside information detection unit 12030, and perform cooperative control aimed at preventing glare, such as switching high beams to low beams.
  • the audio/image output unit 12052 transmits at least one output signal of audio and image to an output device capable of visually or audibly notifying the occupants of the vehicle or the outside of the vehicle of information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 29 shows an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, and 12105.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle cabin of the vehicle 12100.
  • the imaging unit 12101 provided at the front nose and the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin mainly acquire images of the front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided at the side mirrors mainly acquire images of the sides of the vehicle 12100.
  • the imaging unit 12104 provided at the rear bumper or back door mainly acquires images of the rear of the vehicle 12100.
  • the imaging unit 12105 provided at the upper part of the windshield inside the vehicle cabin is mainly used to detect leading vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, etc.
  • FIG. 29 shows an example of the imaging ranges of the imaging units 12101 to 12104.
  • Imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • imaging range 12114 indicates the imaging range of the imaging unit 12104 provided on the rear bumper or back door.
  • an overhead image of the vehicle 12100 viewed from above is obtained by superimposing the image data captured by the imaging units 12101 to 12104.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera consisting of multiple imaging elements, or an imaging element having pixels for detecting phase differences.
  • the microcomputer 12051 can obtain the distance to each solid object within the imaging ranges 12111 to 12114 and the change in this distance over time (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104, and can extract as a preceding vehicle, in particular, the closest solid object on the path of the vehicle 12100 that is traveling in approximately the same direction as the vehicle 12100 at a predetermined speed (e.g., 0 km/h or faster). Furthermore, the microcomputer 12051 can set the inter-vehicle distance that should be maintained in advance in front of the preceding vehicle, and perform automatic braking control (including follow-up stop control) and automatic acceleration control (including follow-up start control). In this way, cooperative control can be performed for the purpose of automatic driving, which runs autonomously without relying on the driver's operation.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 classifies and extracts three-dimensional object data on three-dimensional objects, such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects, based on the distance information obtained from the imaging units 12101 to 12104, and can use the data to automatically avoid obstacles.
  • the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see.
  • the microcomputer 12051 determines the collision risk, which indicates the risk of collision with each obstacle, and when the collision risk is equal to or exceeds a set value and there is a possibility of a collision, it can provide driving assistance for collision avoidance by outputting an alarm to the driver via the audio speaker 12061 or the display unit 12062, or by performing forced deceleration or avoidance steering via the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104. The recognition of such a pedestrian is performed, for example, by a procedure of extracting feature points in the captured image of the imaging units 12101 to 12104 as infrared cameras, and a procedure of performing pattern matching processing on a series of feature points that indicate the contour of an object to determine whether or not it is a pedestrian.
  • the audio/image output unit 12052 controls the display unit 12062 to superimpose a rectangular contour line for emphasis on the recognized pedestrian.
  • the audio/image output unit 12052 may also control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 30 is a diagram showing an example of the general configuration of an endoscopic surgery system to which the technology disclosed herein (the present technology) can be applied.
  • an operator (doctor) 11131 is shown using an endoscopic surgery system 11000 to perform surgery on a patient 11132 on a patient bed 11133.
  • the endoscopic surgery system 11000 is composed of an endoscope 11100, other surgical tools 11110 such as an insufflation tube 11111 and an energy treatment tool 11112, a support arm device 11120 that supports the endoscope 11100, and a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 is composed of a lens barrel 11101, the tip of which is inserted into the body cavity of the patient 11132 at a predetermined length, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 is configured as a so-called rigid scope having a rigid lens barrel 11101, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible lens barrel.
  • the tip of the tube 11101 has an opening into which an objective lens is fitted.
  • a light source device 11203 is connected to the endoscope 11100, and light generated by the light source device 11203 is guided to the tip of the tube by a light guide extending inside the tube 11101, and is irradiated via the objective lens towards an object to be observed inside the body cavity of the patient 11132.
  • the endoscope 11100 may be a direct-viewing endoscope, an oblique-viewing endoscope, or a side-viewing endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from the object being observed is focused onto the image sensor by the optical system.
  • the image sensor converts the observation light into an electric signal corresponding to the observation light, i.e., an image signal corresponding to the observed image.
  • the image signal is sent to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • CCU Camera Control Unit
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the overall operation of the endoscope 11100 and the display device 11202. Furthermore, the CCU 11201 receives an image signal from the camera head 11102, and performs various types of image processing on the image signal, such as development processing (demosaic processing), in order to display an image based on the image signal.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 under the control of the CCU 11201, displays an image based on the image signal that has been subjected to image processing by the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (light emitting diode), and supplies illumination light to the endoscope 11100 when photographing the surgical site, etc.
  • a light source such as an LED (light emitting diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • a user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) of the endoscope 11100.
  • the treatment tool control device 11205 controls the operation of the energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, etc.
  • the insufflation device 11206 sends gas into the body cavity of the patient 11132 via the insufflation tube 11111 to inflate the body cavity in order to ensure a clear field of view for the endoscope 11100 and to ensure a working space for the surgeon.
  • the recorder 11207 is a device capable of recording various types of information related to the surgery.
  • the printer 11208 is a device capable of printing various types of information related to the surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies illumination light to the endoscope 11100 when photographing the surgical site can be composed of a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • a white light source composed of, for example, an LED, a laser light source, or a combination of these.
  • the white light source is composed of a combination of RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so that the white balance of the captured image can be adjusted in the light source device 11203.
  • the light source device 11203 may be controlled to change the intensity of the light it outputs at predetermined time intervals.
  • the image sensor of the camera head 11102 may be controlled to acquire images in a time-division manner in synchronization with the timing of the change in the light intensity, and the images may be synthesized to generate an image with a high dynamic range that is free of so-called blackout and whiteout.
  • the light source device 11203 may be configured to supply light of a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependency of light absorption in body tissue, a narrow band of light is irradiated compared to the light irradiated during normal observation (i.e., white light), and a specific tissue such as blood vessels on the surface of the mucosa is photographed with high contrast, so-called narrow band imaging is performed.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating excitation light.
  • excitation light is irradiated to body tissue and the fluorescence from the body tissue is observed (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and excitation light corresponding to the fluorescent wavelength of the reagent is irradiated to the body tissue to obtain a fluorescent image.
  • the light source device 11203 may be configured to supply narrow band light and/or excitation light corresponding to such special light observation.
  • FIG. 31 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 30.
  • the camera head 11102 has a lens unit 11401, an imaging unit 11402, a drive unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are connected to each other via a transmission cable 11400 so that they can communicate with each other.
  • the lens unit 11401 is an optical system provided at the connection with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is composed of a combination of multiple lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 may have one imaging element (a so-called single-plate type) or multiple imaging elements (a so-called multi-plate type).
  • each imaging element may generate an image signal corresponding to each of RGB, and a color image may be obtained by combining these.
  • the imaging unit 11402 may be configured to have a pair of imaging elements for acquiring image signals for the right eye and the left eye corresponding to a 3D (dimensional) display. By performing a 3D display, the surgeon 11131 can more accurately grasp the depth of the biological tissue in the surgical site.
  • multiple lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101, immediately after the objective lens.
  • the driving unit 11403 is composed of an actuator, and moves the zoom lens and focus lens of the lens unit 11401 a predetermined distance along the optical axis under the control of the camera head control unit 11405. This allows the magnification and focus of the image captured by the imaging unit 11402 to be adjusted appropriately.
  • the communication unit 11404 is configured with a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 also receives control signals for controlling the operation of the camera head 11102 from the CCU 11201, and supplies them to the camera head control unit 11405.
  • the control signals include information on the imaging conditions, such as information specifying the frame rate of the captured image, information specifying the exposure value during imaging, and/or information specifying the magnification and focus of the captured image.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal.
  • the endoscope 11100 is equipped with the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the operation of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured with a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 also transmits to the camera head 11102 a control signal for controlling the operation of the camera head 11102.
  • the image signal and the control signal can be transmitted by electrical communication, optical communication, etc.
  • the image processing unit 11412 performs various image processing operations on the image signal, which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site, etc. by the endoscope 11100, and the display of the captured images obtained by imaging the surgical site, etc. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • the control unit 11413 also causes the display device 11202 to display the captured image showing the surgical site, etc., based on the image signal that has been image-processed by the image processing unit 11412. At this time, the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 can recognize surgical tools such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc., by detecting the shape and color of the edges of objects included in the captured image. When the control unit 11413 causes the display device 11202 to display the captured image, it may use the recognition result to superimpose various types of surgical support information on the image of the surgical site. By superimposing the surgical support information and presenting it to the surgeon 11131, the burden on the surgeon 11131 can be reduced and the surgeon 11131 can proceed with the surgery reliably.
  • various image recognition techniques such as forceps, specific body parts, bleeding, mist generated when the energy treatment tool 11112 is used, etc.
  • the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electrical signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable of these.
  • communication is performed wired using a transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may also be performed wirelessly.
  • the above describes an example of an endoscopic surgery system to which the technology disclosed herein can be applied.
  • the technology disclosed herein can be applied to the imaging unit 11402 of the configuration described above. Specifically, in the imaging unit 11402, a partition is disposed in an area corresponding to between adjacent optical filters of a pixel. By applying the technology disclosed herein to the imaging unit 11402, it is possible to effectively suppress or prevent leakage of incident light into adjacent pixels.
  • a solid-state imaging device includes a first photoelectric conversion unit, an optical filter, and a second photoelectric conversion unit, and includes a plurality of arranged pixels.
  • the first photoelectric conversion unit is disposed on a base and converts light in a first wavelength range into electric charges.
  • the optical filter is disposed on the opposite side of the first photoelectric conversion unit from the base, with the lateral periphery surrounded by an insulator. The optical filter transmits light in the first wavelength range.
  • the second photoelectric conversion unit is disposed on the opposite side of the optical filter from the first photoelectric conversion unit. The second photoelectric conversion unit converts light in a second wavelength range different from the first wavelength range into electric charges.
  • the solid-state imaging device further includes a partition wall that is disposed in a region corresponding to a region between adjacent optical filters of the pixel and has smaller light leakage than an insulator.
  • the solid-state imaging device is provided with the partition wall, so that it is possible to effectively suppress or prevent leakage of incident light into adjacent pixels.
  • a solid-state imaging device is the solid-state imaging device according to the first embodiment, further comprising a through electrode.
  • the through electrode penetrates in a thickness direction of the optical filter from the second photoelectric conversion section toward the first photoelectric conversion section.
  • the through electrode is disposed midway along the extension of the partition wall. With this configuration, the through electrodes are disposed in the regions corresponding to the spaces between adjacent pixels, so that the light receiving area of the pixels can be expanded.
  • the present technology has the following configuration: According to the present technology having the following configuration, it is possible to effectively suppress or prevent leakage of incident light into adjacent pixels in a solid-state imaging device.
  • a first photoelectric conversion unit disposed on a substrate and configured to convert light in a first wavelength range into an electric charge; an optical filter that is disposed on an opposite side of the first photoelectric conversion unit from the base and has a side periphery surrounded by an insulator and transmits light in a first wavelength range; a second photoelectric conversion unit disposed on the opposite side of the optical filter from the first photoelectric conversion unit and configured to convert light in a second wavelength range different from the first wavelength range into an electric charge; a partition wall that is disposed in a region corresponding to a region between the optical filters adjacent to each other in the pixel and has a smaller light leakage than the insulator;
  • a solid-state imaging device comprising: (2) The solid-state imaging device according to (1), wherein the partition is made of two or more types of media.
  • the partition wall extends in a second direction intersecting the first direction in a region corresponding to between the pixels arranged in a first direction
  • the solid-state imaging device according to any one of (1) to (14), wherein the partition wall extends in the first direction in a region corresponding to a gap between the pixels arranged in the second direction.
  • a through electrode penetrating in a thickness direction of the optical filter from the second photoelectric conversion unit toward the first photoelectric conversion unit, The solid-state imaging device according to (15), wherein the through electrode is disposed midway along the extension of the partition wall.
  • the through electrode is disposed at an intersection between the partition wall extending in a first direction and the partition wall extending in a second direction.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

固体撮像装置は、基体に配設され、第1波長域の光を電荷に変換する第1光電変換部と、第1光電変換部の基体とは反対側において、絶縁体に側面周囲が囲まれて配設され、第1波長域の光を透過させる光学フィルタと、光学フィルタの第1光電変換部とは反対側に配設され、第1波長域とは異なる第2波長域の光を電荷に変換する第2光電変換部とを有し、複数配列された画素と、画素の隣接する光学フィルタ間に対応する領域に配設され、絶縁体よりも光漏れが小さい隔壁とを備えている。

Description

固体撮像装置
 本開示は、固体撮像装置に関する。
 特許文献1には、イメージセンサが開示されている。イメージセンサには、光が入射される複数の画素が配列されている。画素は、基板に形成された半導体フォトダイオードと、半導体フォトダイオード上のカラーフィルタと、カラーフィルタ上の有機フォトダイオードとを備えている。半導体フォトダイオード及びカラーフィルタは、画素毎に配置されている。有機フォトダイオードは、複数の画素わたって配置されている。
米国特許出願公開2019/0027539 A1 号公報
 前述のイメージセンサでは、カラーフィルタの側面周囲に絶縁膜が形成されているが、隣接する画素への光漏れについて、配慮がなされていない。従って、隣接する画素への光漏れを改善することができる固体撮像装置の開発が望まれている。
 本開示の第1実施態様に係る固体撮像装置は、基体に配設され、第1波長域の光を電荷に変換する第1光電変換部と、第1光電変換部の基体とは反対側において、絶縁体に側面周囲が囲まれて配設され、第1波長域の光を透過させる光学フィルタと、光学フィルタの第1光電変換部とは反対側に配設され、第1波長域とは異なる第2波長域の光を電荷に変換する第2光電変換部とを有し、複数配列された画素と、画素の隣接する光学フィルタ間に対応する領域に配設され、絶縁体よりも光漏れが小さい隔壁と、を備えている。
 本開示の第2実施態様に係る固体撮像装置は、第1実施態様に係る固体撮像装置において、第2光電変換部から第1光電変換部側に向かって、光学フィルタの厚さ方向に貫通する貫通電極を更に備え、貫通電極は、隔壁が延設される途中に配設されている。
図1は、本開示の第1実施の形態に係る固体撮像装置のシステム構成を説明する回路ブロック図である。 図2は、図1に示される固体撮像装置の画素及び画素回路の回路図である。 図3は、図1及び図2に示される画素の具体的な縦断面構成図である。 図4は、第1実施の形態に係る固体撮像装置の製造方法を工程毎に説明する第1工程断面図である。 図5は、第2工程断面図である。 図6は、第3工程断面図である。 図7は、第4工程断面図である。 図8は、第5工程断面図である。 図9は、第6工程断面図である。 図10は、第7工程断面図である。 図11は、本開示の第2実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図12は、本開示の第3実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図13は、本開示の第4実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図14は、本開示の第5実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図15は、本開示の第6実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図16は、本開示の第7実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図17は、本開示の第8実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図18は、本開示の第9実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図19は、本開示の第10実施の形態に係る固体撮像装置の画素の図3に対応する縦断面構成図である。 図20は、本開示の第11実施の形態に係る固体撮像装置の画素の具体的な平面構成図である。 図21は、本開示の第12実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図22は、本開示の第13実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図23は、本開示の第14実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図24は、本開示の第15実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図25は、本開示の第16実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図26は、本開示の第17実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図27は、本開示の第18実施の形態に係る固体撮像装置の画素の図20に対応する平面構成図である。 図28は、車両制御システムの概略的な構成の一例を示すブロック図である。 図29は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 図30は、内視鏡手術システムの概略的な構成の一例を示す図である。 図31は、カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下、本開示の実施の形態について、図面を参照して詳細に説明する。なお、説明は以下の順序で行う。
1.第1実施の形態
 第1実施の形態は、固体撮像装置に、本技術を適用した第1例である。第1実施の形態は、固体撮像装置のシステム構成、画素及び画素回路の構成、固体撮像装置の具体的な縦断面構成及び固体撮像装置の製造方法について説明する。
2.第2実施の形態
 第2実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第2例である。
3.第3実施の形態
 第3実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第3例である。
4.第4実施の形態
 第4実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第4例である。
5.第5実施の形態
 第5実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第5例である。
6.第6実施の形態
 第6実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第6例である。
7.第7実施の形態
 第7実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第7例である。
8.第8実施の形態
 第8実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第8例である。
9.第9実施の形態
 第9実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第9例である。
10.第10実施の形態
 第10実施の形態は、第1実施の形態に係る固体撮像装置において、隔壁の構造を変えた第10例である。
11.第11実施の形態
 第11実施の形態は、第1実施の形態~第10実施の形態に係るいずれかの固体撮像装置において、隔壁及びそれに対する貫通電極の構成を説明する第1例である。
12.第12実施の形態
 第12実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第2例である。
13.第13実施の形態
 第13実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第3例である。
14.第14実施の形態
 第14実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第4例である。
15.第15実施の形態
 第15実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第5例である。
16.第16実施の形態
 第16実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第6例である。
17.第17実施の形態
 第17実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第7例である。
18.第18実施の形態
 第18実施の形態は、第11実施の形態に係る固体撮像装置において、隔壁及びそれに対する貫通電極の構成を変えた第8例である。
19.移動体への応用例
 この応用例は、移動体制御システムの一例である車両制御システムに本技術を適用した例を説明する。
20.内視鏡手術システムへの応用例
 この応用例は、内視鏡手術システムに本技術を適用した例を説明する。
21.その他の実施の形態
<1.第1実施の形態>
 図1~図10を用いて、本開示の第1実施の形態に係る固体撮像装置1を説明する。
 ここで、図中、適宜、示されている矢印X方向は、便宜的に平面上に載置された固体撮像装置1の1つの平面方向を示している。矢印Y方向は、矢印X方向に対して直交する他の1つの平面方向を示している。また、矢印Z方向は、矢印X方向及び矢印Y方向に対して直交する上方向を示している。つまり、矢印X方向、矢印Y方向、矢印Z方向は、丁度、三次元座標系のX軸方向、Y軸方向、Z軸方向に各々一致している。
 なお、これらの各方向は、説明の理解を助けるために示されており、本技術の方向を限定するものではない。
[固体撮像装置1の構成]
(1)固体撮像装置1の全体のシステム構成
 図1は、固体撮像装置1のシステム構成を説明する回路ブロックの一例を表している。
 固体撮像装置1は、矢印Z方向から見て(以下、単に「平面視において」という。)、基体2の中央部に受光領域101を備えている。受光領域101には、複数の画素10が規則的に配列されている。
 画素10は、矢印X方向を第1方向として複数配列され、かつ、矢印Y方向を第2方向として複数配列されている。つまり、画素10は、行列状に配列されている。画素10では、入射された光が信号としての電荷に変換される。
 固体撮像装置1には、更に周辺回路が配設されている。周辺回路には、読出回路RC1、読出回路RC2及び駆動回路DRが少なくとも含まれている。
 後に説明するが、1つの画素10は、2つの光電変換部を備えている。読出回路RC1は、例えば一方の光電変換部において変換された電荷を信号として読み取る画素回路を備えている。読出回路RC2は、例えば他方の光電変換部において変換された電荷を信号として読み取る画素回路を備えている。
 駆動回路DRは、画素10の光電変換部を駆動する駆動信号を出力する。
(2)画素10、画素回路PC1及び画素回路PC2の回路構成
 図2は、画素10、画素回路PC1及び画素回路PC2の回路構成の一例を表している。
 画素10は、第1光電変換部21と、第2光電変換部60との2つの光電変換部を備えている。第1光電変換部21において変換される光の波長帯域は、第2光電変換部60において変換される光の波長帯域に対して異なっている。
 第1光電変換部21は、半導体フォトダイオードにより構成されている。第1光電変換部21では、入射された光量に応じて電荷が生成される。電荷は、信号として、画素回路PC1に送られる。
 画素回路PC1は、第1光電変換部21に接続されている。画素回路PC1は、ここでは、転送トランジスタTG1と、リセットトランジスタRST1と、増幅トランジスタAMP1と、選択トランジスタSEL1とを備えている。
 転送トランジスタTG1の一対の主電極のうち、一方の主電極は、第1光電変換部21に接続されている。他方の主電極は、フローティングディフュージョンFD1を通して増幅トランジスタAMP1のゲート電極に接続されている。ゲート電極には、制御信号を転送する制御信号線(水平信号線)TSが接続されている。
 リセットトランジスタRST1の一対の主電極のうち、一方の主電極は、フローティングディフュージョンFD1に接続されている。他方の主電極は、電源電圧VDDに接続されている。ゲート電極には、リセット信号を転送するリセット信号線RS1が接続されている。
 増幅トランジスタAMP1の一対の主電極のうち、一方の主電極は、電源電圧VDDに接続されている。他方の主電極は、選択トランジスタSEL1の一対の主電極の一方の主電極に接続されている。
 選択トランジスタSEL1の他方の主電極は、出力信号線(垂直信号線)VSL1に接続されている。ゲート電極は、選択信号線SS1に接続されている。
 ここで、制御信号線TSは、駆動回路DR(図1参照)に接続されている。また、出力信号線VSL1は、読出回路RC1に接続されている(図1参照)。
 第2光電変換部60は、ここでは、有機フォトダイオードにより構成されている。第2光電変換部60では、入射された光量に応じて電荷が生成される。電荷は、信号として、画素回路PC2に送られる。
 画素回路PC2は、第2光電変換部60に接続されている。画素回路PC2は、ここでは、リセットトランジスタRST2と、増幅トランジスタAMP2と、選択トランジスタSEL2とを備えている。
 第2光電変換部60には、各画素10の一方の電極に駆動電圧を供給する駆動信号線VOAと、複数の画素10の他方の電極に固定電圧を供給する電源電圧線VOUとが接続されている。
 第2光電変換部60は、フローティングディフュージョンFD2を通して増幅トランジスタAMP2のゲート電極に接続されている。
 リセットトランジスタRST2の一対の主電極のうち、一方の主電極は、フローティングディフュージョンFD2に接続されている。他方の主電極は、電源電圧VDDに接続されている。ゲート電極には、リセット信号を転送するリセット信号線RS2が接続されている。
 増幅トランジスタAMP2の一対の主電極のうち、一方の主電極は、電源電圧VDDに接続されている。他方の主電極は、選択トランジスタSEL2の一対の主電極の一方の主電極に接続されている。
 選択トランジスタSEL2の他方の主電極は、出力信号線(垂直信号線)VSL2に接続されている。ゲート電極は、選択信号線SS2に接続されている。
 ここで、駆動信号線VOAは、駆動回路DR(図1参照)に接続されている。また、出力信号線VSL2は、読出回路RC2に接続されている(図1参照)。
 ここで、本技術では、第11実施の形態に係る固体撮像装置1以降において、貫通電極53(図20以降参照)が構成要素として説明されている。貫通電極53は、第1貫通電極531と第2貫通電極532との2種類を備えている。
 第1貫通電極531は、第2光電変換部60の一方の電極と画素回路PC2とを接続するフローティングディフュージョンFD2の一部を構成している。
 また、第2貫通電極532は、第2光電変換部60の他方の電極と駆動信号線VOAとを接続する接続配線を構成している。本技術の説明において、第1貫通電極531、第2貫通電極532のそれぞれの区別を特に必要としないとき、総称して、単に貫通電極53として説明する。
 固体撮像装置1は、更に図示省略の画像処理回路を備えている。画素回路PC1、画素回路PC2のそれぞれは、画像処理回路に接続されている。
 画像処理回路は、例えば、アナログデジタルコンバータ(ADC)とデジタルシグナルプロセッサ(DSP)とを備えている。
 画素10により光から変換された電荷は、アナログ信号である。このアナログ信号は、画素回路PC1、画素回路PC2のそれぞれにおいて増幅処理される。ADCは、画素回路PC1、画素回路PC2のそれぞれから出力されるアナログ信号をデジタル信号に変換する。DSPは、デジタル信号の機能処理を行う。つまり、画像処理回路では、画像作成の信号処理が行われる。
(3)固体撮像装置1及び画素10の縦断面構成
 図3は、画素10の縦断面構成の一例を表している。
 固体撮像装置1では、矢印Y方向に見て(以下、単に「側面視において」という。)、矢印Z方向の外部から入射光L1が画素10に入射される。固体撮像装置1は、基体2と、配線領域3と、フィルタ領域4と、配線領域5と、光電変換領域6と、封止領域7と、光学系領域8とを備えている。これらは、矢印Z方向に向かって順次積層されている。
 そして、画素10は、第1光電変換部21と、光学フィルタ40と、第2光電変換部60とを主要な構成要素として備えている。
 さらに、固体撮像装置1は、光学レンズ80を備えている。
(4)基体2の構成
 図3に示されるように、固体撮像装置1において、基体2は、図示省略の回路基板と、この回路基板の矢印Z方向に積層された半導体基板20とを備えている。
 回路基板は、例えば単結晶Si基板により形成されている。回路基板には、前述の固体撮像装置1の周辺回路が搭載されている。
 半導体基板20は、ここでは回路基板と同様に、単結晶Si基板により形成されている。
(5)第1光電変換部21の構成
 第1光電変換部21は、半導体基板20内に配設されている。第1光電変換部21は、画素10毎に配設されている。
 第1光電変換部21は、詳細な構成の図示を省略するが、p型半導体領域とn型半導体領域とを含む半導体フォトダイオードにより構成されている。ここでは、第1光電変換部21は、例えばPIN(Positive Intrinsic Negative)型フォトダイオードにより構成されている。
 第1実施の形態において、第1光電変換部21では、第1波長域としての赤色光域、又は第1波長域としての青色光域の入射光を受光し、受光量に応じて光電変換された電荷を生成する。第1光電変換部21において生成された電荷は、回路基板に搭載された画素回路PC1(図2参照)へ出力される。
 矢印X方向、矢印Y方向のそれぞれにおいて隣接する画素10の第1光電変換部21間には、画素分離領域22が配設されている。画素分離領域22は、例えばSiO等の絶縁材料により形成されている。画素分離領域22は、隣接する第1光電変換部21間を電気的に分離する構成とされている。
(6)光学フィルタ40の構成
 フィルタ領域4には、光学フィルタ40が配設されている。光学フィルタ40は、半導体基板20の回路基板とは反対側に配線領域3を介在して配設されている。
 ここで、配線領域3は、絶縁体31と、絶縁体31内に埋設された配線32とを備えている。絶縁体31は、例えばSiO等の絶縁材料により形成されている。配線32は、第2光電変換部60と画素回路PC2とを接続する配線として使用されている(図2参照)。
 光学フィルタ40の側面周囲は、絶縁体41により囲まれている。絶縁体41の具体的な材料は、後述する。
 光学フィルタ40は、第1波長域として赤色波長域を透過させる赤色フィルタ40Rと、同様に第1波長域として青色波長域を透過させる青色フィルタ40Bとを備えている。
 赤色フィルタ40Rは、1つの画素10の1つの第1光電変換部21に対応する位置に配設されている。赤色フィルタ40Rは、例えば585nm以上780nm以下の波長を有する光を透過させる。
 青色フィルタ40Bは、1つの画素10の1つの第1光電変換部21に対応する位置に配設されている。青色フィルタ40Bは、例えば400nm以上500nm以下の波長を有する光を透過させる。
 ここで、赤色フィルタ40R、青色フィルタ40Bのそれぞれは、矢印X方向、矢印Y方向のそれぞれにおいて、交互に配列されている(例えば、図20参照)。第1実施の形態では、矢印X方向に配列された2個の画素10及び矢印Y方向に配列された2個の画素10は、1つの単位画素PUを構築している。単位画素PUにおいて、一方の対角線に沿って、2個の赤色フィルタ40Rが配列されている。また、単位画素PUにおいて、一方の対角線に対して直交する他の対角線に沿って、2個の青色フィルタ40Bが配列されている。
 光学フィルタ40は、例えば、樹脂材料に色を付ける顔料を含んで形成されている。詳しく説明すると、樹脂としては、例えばフタロシアニン誘導体等の有機樹脂材料を実用的に使用することができる。
 また、赤色フィルタ40Rの膜厚は、例えば400nm以上850nm以下である。青色フィルタ40Bの膜厚は、例えば200nm以上550nm以下である。赤色フィルタ40R、青色フィルタ40Bのそれぞれは、感度調整のために、異なる膜厚に形成されている。
(7)第2光電変換部60の構成
 図3に示されるように、第2光電変換部60は、光学フィルタ40の第1光電変換部21とは反対側に、配線領域5を介在させて配設されている。
 ここで、配線領域5は、絶縁体51と、絶縁体51内に埋設された配線52とを備えている。絶縁体51は、例えばSiO等の絶縁材料により形成されている。配線52は、第2光電変換部60と画素回路PC2とを接続する配線として使用されている(図2参照)。
 第2光電変換部60は、複数の画素10にわたって配設されている。ここでは、すべての画素10にわたって第2光電変換部60が配設されている。
 第2光電変換部60は、第1電極61と、有機光電変換層63と、第2電極64とを備えている。さらに、第2光電変換部60は、電荷蓄積転送層62を備えている。
(7-1)第1電極61の構成
 第1電極61は、光学フィルタ40側に配設され、配線領域5の表面部分に形成されている。第1電極61は、読出電極又は下部電極として使用され、画素10毎に配置されている。第1電極61は、配線領域5の配線52、配線領域3の配線32等を通して回路基板の画素回路PC2(図2参照)に接続されている。
 第1電極61には、導電性を有し、かつ、透明性を有する、例えば酸化インジウム-酸化亜鉛系酸化物(IZO:Indium Zinc Oxide)、又は酸化インジウム錫(ITO:Indium Tin Oxide)が使用されている。第1電極61の膜厚は、例えば10nm以上100nm以下である。
(7-2)有機光電変換層63の構成
 有機光電変換層63は、第1電極61の光学フィルタ40とは反対側に配設されている。有機光電変換層63には、有機系材料が使用されている。有機系材料としては、p型有機半導体、n型有機半導体、p型有機半導体とn型有機半導体との積層構造体、p型有機半導体とn型有機半導体との混合体(バルクヘテロ構造体)のいずれかが使用可能である。
 積層構造体には、p型有機半導体、p型有機半導体とn型有機半導体との混合体(バルクヘテロ構造体)、n型有機半導体のそれぞれを積層した積層構造体が含まれる。また、積層構造体には、p型有機半導体、p型有機半導体とn型有機半導体との混合体(バルクヘテロ構造体)のそれぞれを積層した積層構造体が含まれる。さらに、積層構造体には、n型有機半導体、p型有機半導体とn型有機半導体との混合体(バルクヘテロ構造)のそれぞれを積層した積層構造体が含まれる。なお、積層構造体の積層順序は、適宜、変更可能である。
 p型有機半導体として、ナフタレン誘導体、アントラセン誘導体、フェナントレン誘導体、ピレン誘導体、ペリレン誘導体、テトラセン誘導体、ペンタセン誘導体、キナクリドン誘導体、チオフェン誘導体、チエノチオフェン誘導体、ベンゾチオフェン誘導体、ベンゾチエノベンゾチオフェン誘導体、トリアリルアミン誘導体、カルバゾール誘導体、ペリレン誘導体、ピセン誘導体、クリセン誘導体、フルオランテン誘導体、フタロシアニン誘導体、サブフタロシアニン誘導体、サブポルフィラジン誘導体、複素環化合物を配位子とする金属錯体、ポリチオフェン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を挙げることができる。
 n型有機半導体として、フラーレン及びフラーレン誘導体((例えば、C60や、C70、C74等のフラーレン(高次フラーレン)、内包フラーレン等)又はフラーレン誘導体(例えば、フラーレンフッ化物やPCBMフラーレン化合物、フラーレン多量体等))、p型有機半導体よりもHOMO及びLUMOが大きい(深い)有機半導体、透明な無機金属酸化物を挙げることができる。
 n型有機半導体として、具体的には、窒素原子、酸素原子、硫黄原子を含有する複素環化合物を使用することができる。複素環化合物には、例えば、ピリジン誘導体、ピラジン誘導体、ピリミジン誘導体、トリアジン誘導体、キノリン誘導体、キノキサリン誘導体、イソキノリン誘導体、アクリジン誘導体、フェナジン誘導体、フェナントロリン誘導体、テトラゾール誘導体、ピラゾール誘導体、イミダゾール誘導体、チアゾール誘導体、オキサゾール誘導体、イミダゾール誘導体、ベンズイミダゾール誘導体、ベンゾトリアゾール誘導体、ベンズオキサゾール誘導体、ベンズオキサゾール誘導体、カルバゾール誘導体、ベンゾフラン誘導体、ジベンゾフラン誘導体、サブポルフィラジン誘導体、ポリフェニレンビニレン誘導体、ポリベンゾチアジアゾール誘導体、ポリフルオレン誘導体等を分子骨格の一部に有する有機分子、有機金属錯体やサブフタロシアニン誘導体を挙げることができる。
 フラーレン誘導体に含まれる基等として、ハロゲン原子;直鎖、分岐若しくは環状のアルキル基若しくはフェニル基;直鎖若しくは縮環した芳香族化合物を有する基;ハロゲン化物を有する基;パーシャルフルオロアルキル基;パーフルオロアルキル基;シリルアルキル基;シリルアルコキシ基;アリールシリル基;アリールスルファニル基;アルキルスルファニル基;アリールスルホニル基;アルキルスルホニル基;アリールスルフィド基;アルキルスルフィド基;アミノ基;アルキルアミノ基;アリールアミノ基;ヒドロキシ基;アルコキシ基;アシルアミノ基;アシルオキシ基;カルボニル基;カルボキシ基;カルボキソアミド基;カルボアルコキシ基;アシル基;スルホニル基;シアノ基;ニトロ基;カルコゲン化物を有する基;ホスフィン基;ホスホン基;これらの誘導体を挙げることができる。
 有機系材料から形成された有機光電変換層63の厚さは、限定されるものではないが、例えば、1×10-8m以上5×10-7m以下である。有機光電変換層63の厚さは、好ましくは、2.5×10-8m以上3×10-7m以下である。より好ましくは、有機光電変換層63の厚さは、2.5×10-8m以上2×10-7m以下である。一層好ましくは、有機光電変換層63の厚さは、1×10-7m以上1.8×10-7m以下である。
 なお、有機半導体は、多くはp型とn型とに分類されている。p型とは、正孔を輸送し易いという意味である。n型とは、電子を輸送し易いという意味である。従って、無機半導体のように、熱励起の多数キャリアとして正孔又は電子を有しているという解釈に限定されるものではない。
 そして、第1実施の形態では、第2光電変換部60は、第2波長域としての緑色の波長の光から光電変換により電荷を生成する構成とされている。緑色の光の波長は、例えば500nm以上585nm以下である。
 このような第2光電変換部60の有機光電変換層63を形成する有機材料としては、例えば、ローダミン系色素、メラシアニン系色素、キナクリドン誘導体、サブフタロシアニン系色素(サブフタロシアニン誘導体)等を使用することができる。
 なお、第2光電変換部60において、青色の波長の光を光電変換する場合には、有機光電変換層の有機材料に、例えば、クマリン酸色素、トリス-8-ヒドリキシキノリアルミニウム(Alq3)、メラシアニン系色素等を使用することができる。
 また、第2光電変換部60において、赤色の波長の光を光電変換する場合には、有機光電変換層の有機材料に、例えば、フタロシアニン系色素、サブフタロシアニン系色素(サブフタロシアニン誘導体)を使用することができる。
 さらに、第2光電変換部60は、有機光電変換層63に代えて、無機光電変換層により構築してもよい。この場合、無機光電変換層を構築する無機系材料として、結晶シリコン、アモルファスシリコン、微結晶シリコン、結晶セレン、アモルファスセレン、カルコパライト系化合物又はIII-V族化合物半導体が使用可能である。
 カルコパライト系化合物には、CIGS(CuInGaSe)、CIS(CuInSe)、CuInS、CuAlS、CuAlSe、CuGaS、CuGaSe、AgAlS、AgAlSe、AgInS又はAgInSeが含まれている。
 III-V族化合物半導体には、GaAs、InP、AlGaAs、InGaP、AlGaInP、InGaAsP等が含まれている。さらに、III-V族化合物半導体は、CdSe、CdS、In2Se、In、BiSe、Bi、ZnSe、ZnS、PbSe、PbS等も含まれている。
 加えて、これらの材料からなる量子ドットを有機光電変換層63に使用することが可能である。
 また、図示を省略するが、有機光電変換層63は、下層半導体層、上層光電変換層のそれぞれの積層構造により構成可能である。有機光電変換層63に下層半導体層を備えることにより、有機光電変換層63では、電荷蓄積時の再結合を防止することができ、電荷蓄積転送層62への電荷の転送効率を向上させることができる。さらに、暗電流の生成を効果的に抑制することができる。
 上層光電変換層としては、前述の有機光電変換層63を形成する各種材料から、適宜、選択することができる。
 一方、下層半導体層としては、バンドギャップ値が大きく(例えば、3.0eV以上のバンドギャップ値)、かつ、有機光電変換層63を形成する材料よりも高い移動度を有する材料を使用することが好ましい。具体的には、IGZO等の酸化物半導体材料、遷移金属ダイカルコゲナイド、シリコンカーバイド、ダイヤモンド、グラフェン、カーボンナノチューブ、縮合多環炭化水素化合物や縮合複素環化合物等の有機半導体材料を使用することができる。
 また、下層半導体層として、蓄積する電荷が電子である場合、有機光電変換層63を形成する材料のイオン化ポテンシャルよりも大きなイオン化ポテンシャルを有する材料を使用することができる。
 一方、下層半導体層として、蓄積する電荷が正孔である場合、有機光電変換層63を形成する材料の電子親和力よりも小さな電子親和力を有する材料を使用することができる。
 また、下層半導体層を形成する材料では、不純物濃度は、例えば1×1018cm-3以下であることが好ましい。下層半導体層は、単層構造であっても、多層構造であってもよい。また、下層半導体層を形成する材料は、第1電極61に対応する領域、フローティングディフュージョンFD2に対応する領域のそれぞれにおいて異なっていてもよい。
(7-3)第2電極64の構成
 第2電極64は、有機光電変換層63の第1電極61とは反対側に配設されている。第2電極64は、共通電極又は上部電極として使用され、複数の画素10にわたって配置されている。第2電極64は、電源電圧線VOU(図2参照)に接続されている。第2電極64には、固定電圧が供給されている。
 第2電極64は、第1電極61と同様に、導電性を有し、かつ、透明性を有する電極材料により形成されている。第2電極64は、例えばITO、IZO等の電極材料により形成されている。また、第2電極64は、IGZO、IAZO、ITZO、IGSiO、ZnO、AZO及びGZOから選択される1以上の電極材料により形成してもよい。
 第2電極64の膜厚は、例えば10nm以上100nm以下である。
(7-4)電荷蓄積転送層62の構成
 電荷蓄積転送層62は、第1電極61と有機光電変換層63との間に配設されている。詳しく説明すると、有機光電変換層63は、第1電極61上に符号省略の絶縁体を介在させて配設されている。電荷蓄積転送層62は、ここでは複数の画素10にわたって配設されている。
 ここで、符号省略の絶縁体は、ゲート絶縁膜として使用されている。絶縁体には、例えばSiO、SiON、AlO及びHfOから選択される1以上が使用されている。
 電荷蓄積転送層62は、第2光電変換部60において光から光電変換により生成された電荷を蓄積する。電荷蓄積転送層62は、貫通電極(図2の符号531参照)に接続されている。この貫通電極は、フローティングディフュージョンFD2(図2参照)を形成している。つまり、電荷蓄積転送層62において生成された電荷は、画素回路PC2(図2参照)に転送される。
 電荷蓄積転送層62は、透明半導体である酸化物半導体により形成されている。電荷蓄積転送層62には、例えばインジウム(In)、ガリウム(Ga)、亜鉛(Zn)、酸素(O)を含むIGZOが使用されている。また、電荷蓄積転送層62は、In、アルミニウム(Al)、Zn、Oを含むIAZO、或いはIn、錫(Sn)、Zn、Oを含むITZOも使用可能である。さらに、電荷蓄積転送層62には、IGSiO、ZnO、AZO、GZO、ITO及びIZOから選択される1以上の半導体材料も使用することができる。
 電荷蓄積転送層62の厚さは、例えば10nm以上100nm以下である。
(8)光学レンズ80の構成
 光学系領域8には、光学レンズ80が配設されている。光学レンズ80は、第2電極64の有機光電変換層63とは反対側に、封止領域7を介在して配設されている。
 ここで、封止領域7には、複数の封止層70が配設されている。封止層70は、例えばAlO、SiN及びSiONから選択される1以上の封止材料により形成されている。
 光学レンズ80は、図示を省略するが、平面視において、画素10毎に円形状に形成されている。また、光学レンズ80は、側面視において、光入射側へ湾曲し入射光L1を集光する湾曲形状に形成されている。
 つまり、光学レンズ80は、いわゆるオンチップレンズであり、画素10毎に、又は複数の画素10にわたって一体に形成されている。光学レンズ80は、例えば透明樹脂材料により形成されている。
 光学レンズ80の表面には、反射防止層81が形成されている。反射防止層81は、例えばSiOにより形成されている。
(9)隔壁9の構成
 第1実施の形態に係る固体撮像装置1では、図3に示されるように、画素10の隣接する光学フィルタ40間に対応する領域に、隔壁9が配設されている。
 詳しく説明する。隔壁9は、矢印Z方向となる光学フィルタ40の厚さ方向において、基体2の表面から光学フィルタ40間まで配設されている。表現を代えれば、隔壁9は、基体2の表面から光学フィルタ40の第2光電変換部60側の表面にわたって配設されている。隔壁9では、光学フィルタ40の側面周囲を囲む絶縁体41よりも、隣接する画素10の光漏れが小さい。
 ここで、絶縁体41には、例えば、SiN、SiO、SiON及びTiSiOから選択される1以上の無機材料、又はスチレン系樹脂、アクリル系樹脂、スチレンーアクリル共重合系樹脂及びシロキサン系樹脂から選択される1以上の樹脂系材料が使用されている。
 隔壁9は、2種以上の媒体により構成されている。
 媒体の1つは、入射光L1のうち、隣接する画素10側への漏れ光となる光を反射光L2として反射させ、漏れ光を防止するとともに、画素10内に反射光L2を集光させる反射体である。反射体には、Al、W、Ag、Rh及びCuから選択される1以上の光反射率が高い金属材料、又は光反射率を有し、かつ、光吸収率が高い金属材料を使用することができる。
 媒体の他の1つは、吸収体又は低屈折体である。
 吸収体は、入射光L1のうち、隣接する画素10側への漏れ光となる光を吸収する。吸収体には、上記反射体として例示されている光吸収率が高い金属材料が使用されている。
 低屈折体は、入射光L1のうち、隣接する画素10側への漏れ光となる光の屈折率を変えて、隣接する画素10への光漏れを減少させる。低屈折体には、絶縁体41よりも屈折率が低い材料、具体的には屈折率1.0を越えて1.7以下の樹脂系材料を使用することができる。
 また、低屈折体としては、真空のギャップ、又は空気が充填されたギャップ若しくは不活性ガスが充填されたギャップが含まれている。不活性ガスには、N、Ar等が含まれている。
 すなわち、隔壁9は、例えば反射体と、反射体の絶縁体41側に配設された吸収体又は低屈折体との2種類の媒体により構成されている。また、隔壁9は、吸収体と、吸収体の絶縁体41側に配設された低屈折体との2種類の媒体により構成されてもよい。
 さらに、隔壁9は、反射体と、吸収体と、低屈折体との3種類の媒体により構成されてもよい。
[固体撮像装置1の製造方法]
 次に、図4~図10を用いて、前述の固体撮像装置1の製造方法を説明する。図4~図10は、第1実施の形態に係る固体撮像装置1の製造方法を説明する一連の工程断面の一例を表している。
 まず、基体2が準備される(図4参照)。基体2は、図示省略の回路基板と、この回路基板に積層された半導体基板20とにより形成される。半導体基板20には、画素10毎に第1光電変換部21が形成される。また、画素10間に対応する領域には、半導体基板20に画素分離領域22が形成される。
 引き続き、基体2の半導体基板20上に配線領域3が形成される。
 次に、図4に示されるように、配線領域3上にフィルタ領域4となる絶縁体41が形成される。絶縁体41は、例えばSiOにより形成される。絶縁体41の膜厚は、例えば300nm以上1100nm以下である。
 図5に示されるように、絶縁体41において、画素10毎に開口41Hが形成される。開口41Hには、後工程において、光学フィルタ40が埋設される。開口41Hは、図示省略のエッチングマスクを用い、例えばドライエッチングにより形成される。
 図6に示されるように、開口51H内に、光学フィルタ40が形成される。ここでは、光学フィルタ40として、赤色フィルタ40R及び青色フィルタ40Bが形成される。光学フィルタ40の側面周囲には、絶縁体41が残存される。
 図7に示されるように、光学フィルタ40上を覆う絶縁体42が形成される。絶縁体42は、例えばSiNにより形成される。SiNは、スパッタリング法又は化学的気相成長(CVD:Chemical Vapor Deposition)法を用いて成膜される。
 図8に示されるように、光学フィルタ40間に対応する領域において、絶縁体41、絶縁体31のそれぞれに溝91Hが形成される。溝91Hは、図示省略のエッチングマスクを用い、例えばドライエッチングにより形成される。溝91Hは、例えば基体2に到達しない程度に形成される。
 図9に示されるように、溝91H内に、例えば2種類以上の媒体により隔壁9が形成される。つまり、前述の反射体、吸収体、低屈折体のいずれか2種類以上の媒体により隔壁9が形成される。隔壁9は、例えばスパッタリング法又はCVD法を用いて成膜される。
 図10に示されるように、隔壁9を覆い、絶縁体42上に絶縁体43が形成される。絶縁体43は、例えばSiOにより形成される。絶縁体43の表面は平坦化され、光学フィルタ40、隔壁9等の段差形状が緩和される。平坦化には、例えば化学機械研磨(CMP:Chemical Mechanical Polishing)法が使用される。
 引き続き、フィルタ領域4上に配線領域5、第2光電変換部60を含む光電変換領域6、封止領域7、光学系領域8のそれぞれが順次形成される(図3参照)。
 これら一連の工程が終了すると、第1実施の形態に係る固体撮像装置1の製造方法が終了し、固体撮像装置1が完成する。
[作用効果]
 第1実施の形態に係る固体撮像装置1は、図1~図3に示されるように、第1光電変換部21と、光学フィルタ40と、第2光電変換部60とを有する画素10を備える。画素10は、複数配列される。
 第1光電変換部21は、基体2に配設され、第1波長域の光を電荷に変換する。光学フィルタ40は、第1光電変換部21の基体2とは反対側において、絶縁体41に側面周囲が囲まれて配設される。光学フィルタ40は、第1波長域の光を透過させる。第2光電変換部60は、光学フィルタ40の第1光電変換部21とは反対側に配設される。第2光電変換部60は、第1波長域とは異なる第2波長域の光を電荷に変換する。
 ここで、固体撮像装置1は、更に隔壁9を備える。隔壁9は、画素10の隣接する光学フィルタ40間に対応する領域に配設される。そして、隔壁9では、絶縁体41よりも光漏れが小さい。
 このため、2段以上の第1光電変換部21及び第2光電変換部60を有する固体撮像装置1において、隔壁9を備えたので、入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。従って、混色が無い受光特性に優れた固体撮像装置1を提供することができる。
 また、固体撮像装置1では、図3に示されるように、隔壁9は、2種以上の媒体により構成される。このため、入射光L1の隣接する画素10への光漏れを更に効果的に抑制又は防止することができる。
 さらに、固体撮像装置1では、隔壁9は、光を反射させる反射体を備える。また、隔壁9は、光を吸収する吸収体を備える。また、隔壁9は、絶縁体41よりも屈折率が低い低屈折体を備える。低屈折体としては、真空のギャップ、又は空気若しくは不活性ガスが充填されたギャップが含まれる。
 このため、入射光L1の隣接する画素10への光漏れを更に効果的に抑制又は防止することができる。
 また、固体撮像装置1では、図3に示されるように、隔壁9は、基体2から光学フィルタ40に至る位置まで配設される。
 このため、光学フィルタ40より基体2側に入射された入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<2.第2実施の形態>
 図11を用いて、本開示の第2実施の形態に係る固体撮像装置1を説明する。
 なお、第2実施の形態及びそれ以降の実施の形態において、第1実施の形態に係る固体撮像装置1の構成要素と同一の構成要素、又は実質的に同一の構成要素には同一の符号を付し、重複する説明は省略する。
[固体撮像装置1の構成]
 図11は、画素10の縦断面構成の一例を表している。
 図11に示されるように、第2実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1において、隔壁9は、基体2及び基体2から光学フィルタ40に至る位置まで配設されている。
 詳しく説明すると、第1実施の形態に係る固体撮像装置1の隔壁9と同様に、隔壁9は、基体2の表面から光学フィルタ40の第2光電変換部60側の表面に至るまで配設され、更に基体2に延設されている。基体2では、隣接する画素10間に対応する位置であって、第1光電変換部21間に隔壁9が配設されている。隔壁9は、画素分離領域22に重複して配設されている。
 上記以外の構成要素は、第1実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第2実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図11に示されるように、隔壁9が基体2及び基体2から光学フィルタ40に至る位置まで配設されるので、基体2の厚さ方向においても入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<3.第3実施の形態>
 図12を用いて、本開示の第3実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図12は、画素10の縦断面構成の一例を表している。
 図12に示されるように、第3実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1において、隔壁9は、基体2と光学フィルタ40との間に配設されている。詳しく説明すると、隔壁9は、配線領域3に配設されている。この配線領域3は、光学フィルタ40を透過した入射光L1が、直接、隣接する画素10の第1光電変換部21に漏れる領域である。従って、隔壁9は、最低限となる配線領域3にのみ配設されている。
 上記以外の構成要素は、第1実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第3実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図12に示されるように、隔壁9が基体2と光学フィルタ40との間の最低限の領域にのみ配設されるだけで、入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<4.第4実施の形態>
 図13を用いて、本開示の第4実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図13は、画素10の縦断面構成の一例を表している。
 図13に示されるように、第4実施の形態に係る固体撮像装置1では、第2実施の形態に係る固体撮像装置1において、隔壁9は、更に光学フィルタ40から第2光電変換部60に至る位置まで配設されている。
 上記以外の構成要素は、第2実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第4実施の形態に係る固体撮像装置1では、第2実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図13に示されるように、隔壁9が光学フィルタ40から第2光電変換部60に至る位置までも配設されるので、基体2の厚さ方向の広い範囲において入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<5.第5実施の形態>
 図14を用いて、本開示の第5実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図14は、画素10の縦断面構成の一例を表している。
 図14に示されるように、第5実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1において、第2光電変換部60の電荷蓄積転送層62が配設されていない。第2光電変換部60が配設されない構造でも、本技術は適用可能である。
 上記以外の構成要素は、第1実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第5実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図14に示されるように、第2光電変換部60の構造を変えても、入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<6.第6実施の形態>
 図15を用いて、本開示の第6実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図15は、画素10の縦断面構成の一例を表している。
 図15に示されるように、第6実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1において、隔壁9は、光学フィルタ40の厚さ方向において、複数に分割されている。詳しく説明すると、隔壁9は、配線領域3に配設された隔壁9Aと、フィルタ領域4に配設された隔壁9Bとを備えている。
 上記以外の構成要素は、第1実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第6実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図15に示されるように、隔壁9が、光学フィルタ40の厚さ方向において分割された隔壁9A及び隔壁9Bにより形成される。隔壁9Aは配線領域3の絶縁体31に形成されるので、絶縁体31のエッチング加工量(エッチング深さ)が少なくなる。また、隔壁9Bはフィルタ領域4の絶縁体41に形成されるので、絶縁体41のエッチング加工量(エッチング深さ)が少なくなる。
 このため、隔壁9の加工精度を向上させることができる。
<7.第7実施の形態>
 図16を用いて、本開示の第7実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図16は、画素10の縦断面構成の一例を表している。
 図16に示されるように、第7実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1において、隔壁9の幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、縮小されている。つまり、側面視において、隔壁9の断面形状は、逆台形状に形成されている。隔壁9の光学フィルタ40の側面に対向する面は、傾斜面に形成されている。
 上記以外の構成要素は、第1実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第7実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図16に示されるように、隔壁9の幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、縮小される。
 このため、配線領域3の開口面積を増やすことができるので、配線領域3において配線32のレイアウト効率を向上させつつ、入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<8.第8実施の形態>
 図17を用いて、本開示の第8実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図17は、画素10の縦断面構成の一例を表している。
 図17に示されるように、第8実施の形態に係る固体撮像装置1は、第6実施の形態に係る固体撮像装置1と第7実施の形態に係る固体撮像装置1とを組み合わせている。詳しく説明すると、隔壁9は、光学フィルタ40の厚さ方向において、複数に分割された隔壁9Aと隔壁9Bとを備えている。そして、隔壁9A、隔壁9Bのそれぞれの幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、縮小されている。
 上記以外の構成要素は、第6実施の形態に係る固体撮像装置1、第7実施の形態に係る固体撮像装置1のそれぞれの構成要素と同一又は実質的に同一である。
[作用効果]
 第8実施の形態に係る固体撮像装置1では、第6実施の形態に係る固体撮像装置1により得られる作用効果と、第7実施の形態に係る固体撮像装置1により得られる作用効果とを組み合わせた作用効果を得ることができる。
<9.第9実施の形態>
 図18を用いて、本開示の第9実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図18は、画素10の縦断面構成の一例を表している。
 図18に示されるように、第9実施の形態に係る固体撮像装置1は、第8実施の形態に係る固体撮像装置1の第1応用例である。詳しく説明すると、隔壁9は、光学フィルタ40の厚さ方向において、複数に分割された隔壁9Aと隔壁9Bとを備えている。そして、隔壁9Aの幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、縮小されている。一方、隔壁9Bの幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、一定である。
 上記以外の構成要素は、第8実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第9実施の形態に係る固体撮像装置1では、第8実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<10.第10実施の形態>
 図19を用いて、本開示の第10実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図19は、画素10の縦断面構成の一例を表している。
 図19に示されるように、第10実施の形態に係る固体撮像装置1は、第8実施の形態に係る固体撮像装置1の第2応用例である。詳しく説明すると、隔壁9は、光学フィルタ40の厚さ方向において、複数に分割された隔壁9Aと隔壁9Bとを備えている。そして、隔壁9Aの幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、一定である。一方、隔壁9Bの幅寸法は、第2光電変換部60側から第1光電変換部21側へ向かって、縮小されている。
 上記以外の構成要素は、第8実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第10実施の形態に係る固体撮像装置1では、第8実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<11.第11実施の形態>
 図20を用いて、本開示の第11実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図20は、画素10の平面構成の一例を表している。
 図20に示されるように、第11実施の形態に係る固体撮像装置1では、第1実施の形態に係る固体撮像装置1~第10実施の形態に係る固体撮像装置1のいずれかにおいて、隔壁9に加えて、貫通電極53が配設されている。貫通電極53は、第1貫通電極531、第2貫通電極532のいずれかである。
 前述の図2に示されるように、第1貫通電極531は、第2光電変換部60の一方の電極と画素回路PC2とを接続するフローティングディフュージョンFD2を構成している。また、第2貫通電極532は、第2光電変換部60の他方の電極と駆動信号線VOAとを接続する接続配線を構成している。
 図20に戻って、第11実施の形態において、単位画素PUは、矢印X方向に配列された2個の画素10と、矢印Y方向に配列された2個の画素10とを含み、合計4個の画素10により構築されている。
 このような単位画素PUの配列レイアウトに対して、矢印X方向に隣接して配列された2個の画素10間に対応する領域に配設された隔壁9は、矢印Y方向へ延設されている。また、矢印Y方向に隣接して配列された2個の画素10間に対応する領域に配設された隔壁9は、矢印X方向へ延設されている。
 そして、貫通電極53は、隔壁9が延設される途中に配設されている。表現を代えれば、貫通電極53は、隔壁9の延設上に一致して配設されている。
 さらに、詳しく説明すると、隔壁9は、矢印Y方向、矢印X方向のそれぞれに延設され、平面視において格子形状に配設されている。貫通電極53は、矢印Y方向、矢印X方向のそれぞれに延設された隔壁9の交差部位(格子点部位)に配設されている。
 第11実施の形態では、貫通電極53は、隔壁9の延設端に対して、離間されている。この離間寸法SDは、光の波長以下の寸法である。固体撮像装置1では、青色光の波長が最も短波長であるので、貫通電極53と隔壁9との間からの光漏れを効果的に抑制又は防止するために、離間寸法SDは、400nm以下に設定されている。
 上記以外の構成要素は、第1実施の形態~第10実施の形態に係るいずれかの固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第11実施の形態に係る固体撮像装置1では、第1実施の形態~第10実施の形態に係るいずれかの固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
 また、固体撮像装置1では、図20に示されるように、貫通電極53は、隔壁9が延設される途中に配設される。隔壁9と同様に、貫通電極53は、隣接する画素10間に対応する領域を利用して配設されているので、画素10の受光面積を拡張させることができる。
 また、固体撮像装置1では、図20に示されるように、貫通電極53は、隔壁9の延設端に対して、離間される。この離間寸法SDは、光の波長以下の寸法である。例えば、離間寸法SDは、400nm以下である。
 貫通電極53、隔壁9のそれぞれが離間されているので、例えば固体撮像装置1の製造において、各々、独立に加工することができる。加えて、離間寸法SDが光の波長以下の寸法に設定されているので、入射光L1の隣接する画素10への光漏れを効果的に抑制又は防止することができる。
<12.第12実施の形態>
 図21を用いて、本開示の第12実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図21は、画素10の平面構成の一例を表している。
 図21に示されるように、第12実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1において、隔壁9と貫通電極53とが接触して配設されている。
 上記以外の構成要素は、第11実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第12実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<13.第13実施の形態>
 図22を用いて、本開示の第13実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図22は、画素10の平面構成の一例を表している。
 図22に示されるように、第13実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1において、単位画素PUの中央位置に、1つの貫通電極53が配設されている。つまり、単位画素PUの4個の画素10に共有の1つの貫通電極53が配設されている。
 上記以外の構成要素は、第11実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第13実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<14.第14実施の形態>
 図23を用いて、本開示の第14実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図23は、画素10の平面構成の一例を表している。
 図23に示されるように、第14実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1において、隔壁9が延設される途中であって、画素10の中間部位に貫通電極53が配設されている。画素10の中間部位とは、平面視において、矩形状に形成されている画素10の1辺の中間位置という意味である。
 上記以外の構成要素は、第11実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第14実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<15.第15実施の形態>
 図24を用いて、本開示の第15実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図24は、画素10の平面構成の一例を表している。
 図24に示されるように、第15実施の形態に係る固体撮像装置1は、第12実施の形態に係る固体撮像装置1と第14実施の形態に係る固体撮像装置1とを組み合わせている。詳しく説明すると、貫通電極53は、隔壁9の交差部位と、画素10の中間部位とに配設されている。
 上記以外の構成要素は、第12実施の形態に係る固体撮像装置1、第14実施の形態に係る固体撮像装置1のそれぞれの構成要素と同一又は実質的に同一である。
[作用効果]
 第15実施の形態に係る固体撮像装置1では、第12実施の形態に係る固体撮像装置1により得られる作用効果と、第14実施の形態に係る固体撮像装置1により得られる作用効果とを組み合わせた作用効果を得ることができる。
<16.第16実施の形態>
 図25を用いて、本開示の第16実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図25は、画素10の平面構成の一例を表している。
 図25に示されるように、第16実施の形態に係る固体撮像装置1は、第11実施の形態に係る固体撮像装置1において、光学フィルタ40の構成を変えている。詳しく説明すると、単位画素PUは、一方の対角線上に配設された黄色フィルタ40Yを有する2個の画素10と、他方の対角線上に配設されたシアン色フィルタ40Cを有す2個の画素10とを備えている。
 上記以外の構成要素は、第11実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第16実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<17.第17実施の形態>
 図26を用いて、本開示の第17実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図26は、画素10の平面構成の一例を表している。
 図26に示されるように、第17実施の形態に係る固体撮像装置1は、第11実施の形態に係る固体撮像装置1において、光学フィルタ40の構成を変えている。詳しく説明すると、単位画素PUは、赤外線透過フィルタ40Iを有する4個の画素10を備えている。
 上記以外の構成要素は、第11実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第17実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<18.第18実施の形態>
 図27を用いて、本開示の第18実施の形態に係る固体撮像装置1を説明する。
[固体撮像装置1の構成]
 図27は、画素10の平面構成の一例を表している。
 図27に示されるように、第18実施の形態に係る固体撮像装置1は、第11実施の形態に係る固体撮像装置1において、光学フィルタ40の構成を変えている。詳しく説明すると、単位画素PUは、一方の対角線上に配設された赤色フィルタ40Rを有する2個の画素10と、他方の対角線上に配設されたシアン色フィルタ40Cを有す2個の画素10とを備えている。
 上記以外の構成要素は、第11実施の形態に係る固体撮像装置1の構成要素と同一又は実質的に同一である。
[作用効果]
 第18実施の形態に係る固体撮像装置1では、第11実施の形態に係る固体撮像装置1により得られる作用効果と同様の作用効果を得ることができる。
<19.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図28は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図28に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(Interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12030に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図28の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図29は、撮像部12031の設置位置の例を示す図である。
 図29では、撮像部12031として、撮像部12101、12102、12103、12104、12105を有する。
 撮像部12101、12102、12103、12104、12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102、12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図29には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、より簡易な構成の撮像部12031を実現できる。
<20.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図30は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図30では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図31は、図30に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。具体的には、撮像部11402において、画素の隣接する光学フィルタ間に対応する領域に隔壁が配設される。撮像部11402に本開示に係る技術が適用されることにより、入射光の隣接する画素への光漏れを効果的に抑制又は防止することができる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<21.その他の実施の形態>
 本技術は、上記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲内において、種々変更可能である。
 例えば、上記第1実施の形態から第4実施の形態に係る固体撮像装置のうち、2以上の実施の形態に係る固体撮像装置を組み合わせてもよい。
 本開示の第1実施態様に係る固体撮像装置は、第1光電変換部と、光学フィルタと、第2光電変換部とを有し、複数配列された画素を備える。
 第1光電変換部は、基体に配設され、第1波長域の光を電荷に変換する。光学フィルタは、第1光電変換部の基体とは反対側において、絶縁体に側面周囲が囲まれて配設されている。光学フィルタは、第1波長域の光を透過させる。第2光電変換部は、光学フィルタの第1光電変換部とは反対側に配設される。第2光電変換部は、第1波長域とは異なる第2波長域の光を電荷に変換する。
 ここで、固体撮像装置は、更に隔壁を備える。隔壁は、画素の隣接する光学フィルタ間に対応する領域に配設され、絶縁体よりも光漏れが小さい。
 このような構成により、固体撮像装置では、隔壁を備えたので、入射光の隣接する画素への光漏れを効果的に抑制又は防止することができる。
 本開示の第2実施態様に係る固体撮像装置は、第1実施態様に係る固体撮像装置において、貫通電極を更に備える。貫通電極は、第2光電変換部から第1光電変換部側に向かって、光学フィルタの厚さ方向に貫通する。貫通電極は、隔壁が延設される途中に配設されている。
 このような構成により、貫通電極は、隣接する画素間に対応する領域を利用して配設されるので、画素の受光面積を拡張させることができる。
<本技術の構成>
 本技術は、以下の構成を備えている。以下の構成の本技術によれば、固体撮像装置において、入射光の隣接する画素への光漏れを効果的に抑制又は防止することができる。
(1)
 基体に配設され、第1波長域の光を電荷に変換する第1光電変換部と、
 前記第1光電変換部の前記基体とは反対側において、絶縁体に側面周囲が囲まれて配設され、第1波長域の光を透過させる光学フィルタと、
 前記光学フィルタの前記第1光電変換部とは反対側に配設され、前記第1波長域とは異なる第2波長域の光を電荷に変換する第2光電変換部と
 を有し、複数配列された画素と、
 前記画素の隣接する前記光学フィルタ間に対応する領域に配設され、前記絶縁体よりも光漏れが小さい隔壁と、
 を備えている固体撮像装置。
(2)
 前記隔壁は、2種以上の媒体により構成されている
 前記(1)に記載の固体撮像装置。
(3)
 前記隔壁は、光を反射させる反射体を備えている
 前記(1)又は前記(2)に記載の固体撮像装置。
(4)
 前記隔壁は、光を吸収する吸収体を備えている
 前記(1)から前記(3)のいずれか1つに記載の固体撮像装置。
(5)
 前記隔壁は、前記絶縁体よりも屈折率が低い低屈折体を備えている
 前記(1)から前記(4)のいずれか1つに記載の固体撮像装置。
(6)
 前記隔壁は、真空のギャップ、又は空気若しくは不活性ガスが充填されたギャップを備えている
 前記(1)から前記(5)のいずれか1つに記載の固体撮像装置。
(7)
 前記隔壁は、前記基体と前記光学フィルタとの間に配設されている
 前記(1)から前記(6)のいずれか1つに記載の固体撮像装置。
(8)
 前記隔壁は、前記基体から前記光学フィルタに至る位置まで配設されている
 前記(1)から前記(6)のいずれか1つに記載の固体撮像装置。
(9)
 前記隔壁は、前記基体及び前記基体から前記光学フィルタに至る位置まで配設されている
 前記(1)から前記(6)のいずれか1つに記載の固体撮像装置。
(10)
 前記隔壁は、更に前記光学フィルタから前記第2光電変換部に至る位置まで配設されている
 前記(8)又は前記(9)に記載の固体撮像装置。
(11)
 前記隔壁は、前記光学フィルタの厚さ方向において、複数に分割されている
 前記(1)から前記(10)のいずれか1つに記載の固体撮像装置。
(12)
 前記隔壁の幅寸法は、前記第2光電変換部側から前記第1光電変換部側へ向かって、縮小されている
 前記(1)から前記(11)のいずれか1つに記載の固体撮像装置。
(13)
 前記隔壁は、Al、W、Ag、Rh及びCuから選択される1以上の金属材料を含んでいる
 前記(3)又は前記(4)に記載の固体撮像装置。
(14)
 前記隔壁は、樹脂系材料を含んでいる
 前記(5)に記載の固体撮像装置。
(15)
 第1方向に配列された前記画素間に対応する領域において、第1方向に対して交差する第2方向へ前記隔壁が延設され、
 第2方向に配列された前記画素間に対応する領域において、第1方向へ前記隔壁が延設されている
 前記(1)から前記(14)のいずれか1つに記載の固体撮像装置。
(16)
 前記第2光電変換部から前記第1光電変換部側に向かって、前記光学フィルタの厚さ方向に貫通する貫通電極を更に備え、
 前記貫通電極は、前記隔壁が延設される途中に配設されている
 前記(15)に記載の固体撮像装置。
(17)
 第1方向へ延設される前記隔壁と第2方向へ延設される前記隔壁との交差部位に、前記貫通電極が配設されている
 前記(16)に記載の固体撮像装置。
(18)
 前記貫通電極は、前記画素の中間部位に配設されている
 前記(16)又は前記(17)に記載の固体撮像装置。
(19)
 前記隔壁に対して、前記貫通電極は、光の波長以下の寸法において、離間されている
 前記(16)から前記(18)のいずれか1つに記載の固体撮像装置。
(20)
 前記隔壁に対して、前記貫通電極は、400nm以下の寸法において、離間されている
 前記(19)に記載の固体撮像装置。
 本出願は、日本国特許庁において2022年11月10日に出願された日本特許出願番号2022-180029号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (20)

  1.  基体に配設され、第1波長域の光を電荷に変換する第1光電変換部と、
     前記第1光電変換部の前記基体とは反対側において、絶縁体に側面周囲が囲まれて配設され、第1波長域の光を透過させる光学フィルタと、
     前記光学フィルタの前記第1光電変換部とは反対側に配設され、前記第1波長域とは異なる第2波長域の光を電荷に変換する第2光電変換部と
     を有し、複数配列された画素と、
     前記画素の隣接する前記光学フィルタ間に対応する領域に配設され、前記絶縁体よりも光漏れが小さい隔壁と、
     を備えている固体撮像装置。
  2.  前記隔壁は、2種以上の媒体により構成されている
     請求項1に記載の固体撮像装置。
  3.  前記隔壁は、光を反射させる反射体を備えている
     請求項1に記載の固体撮像装置。
  4.  前記隔壁は、光を吸収する吸収体を備えている
     請求項1に記載の固体撮像装置。
  5.  前記隔壁は、前記絶縁体よりも屈折率が低い低屈折体を備えている
     請求項1に記載の固体撮像装置。
  6.  前記隔壁は、真空のギャップ、又は空気若しくは不活性ガスが充填されたギャップを備えている
     請求項1に記載の固体撮像装置。
  7.  前記隔壁は、前記基体と前記光学フィルタとの間に配設されている
     請求項1に記載の固体撮像装置。
  8.  前記隔壁は、前記基体から前記光学フィルタに至る位置まで配設されている
     請求項1に記載の固体撮像装置。
  9.  前記隔壁は、前記基体及び前記基体から前記光学フィルタに至る位置まで配設されている
     請求項1に記載の固体撮像装置。
  10.  前記隔壁は、更に前記光学フィルタから前記第2光電変換部に至る位置まで配設されている
     請求項8に記載の固体撮像装置。
  11.  前記隔壁は、前記光学フィルタの厚さ方向において、複数に分割されている
     請求項1に記載の固体撮像装置。
  12.  前記隔壁の幅寸法は、前記第2光電変換部側から前記第1光電変換部側へ向かって、縮小されている
     請求項1に記載の固体撮像装置。
  13.  前記隔壁は、Al、W、Ag、Rh及びCuから選択される1以上の金属材料を含んでいる
     請求項3に記載の固体撮像装置。
  14.  前記隔壁は、樹脂系材料を含んでいる
     請求項5に記載の固体撮像装置。
  15.  第1方向に配列された前記画素間に対応する領域において、第1方向に対して交差する第2方向へ前記隔壁が延設され、
     第2方向に配列された前記画素間に対応する領域において、第1方向へ前記隔壁が延設されている
     請求項1に記載の固体撮像装置。
  16.  前記第2光電変換部から前記第1光電変換部側に向かって、前記光学フィルタの厚さ方向に貫通する貫通電極を更に備え、
     前記貫通電極は、前記隔壁が延設される途中に配設されている
     請求項15に記載の固体撮像装置。
  17.  第1方向へ延設される前記隔壁と第2方向へ延設される前記隔壁との交差部位に、前記貫通電極が配設されている
     請求項16に記載の固体撮像装置。
  18.  前記貫通電極は、前記画素の中間部位に配設されている
     請求項16に記載の固体撮像装置。
  19.  前記隔壁に対して、前記貫通電極は、光の波長以下の寸法において、離間されている
     請求項16に記載の固体撮像装置。
  20.  前記隔壁に対して、前記貫通電極は、400nm以下の寸法において、離間されている
     請求項19に記載の固体撮像装置。
PCT/JP2023/033839 2022-11-10 2023-09-19 固体撮像装置 WO2024100993A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022180029 2022-11-10
JP2022-180029 2022-11-10

Publications (1)

Publication Number Publication Date
WO2024100993A1 true WO2024100993A1 (ja) 2024-05-16

Family

ID=91032168

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/033839 WO2024100993A1 (ja) 2022-11-10 2023-09-19 固体撮像装置

Country Status (1)

Country Link
WO (1) WO2024100993A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062183A (ja) * 2017-09-25 2019-04-18 三星電子株式会社Samsung Electronics Co.,Ltd. イメージセンサ
US20190157329A1 (en) * 2017-11-20 2019-05-23 Samsung Electronics Co., Ltd. Image sensor and method of fabricating the same
US20190378865A1 (en) * 2018-06-07 2019-12-12 Samsung Electronics Co., Ltd. Image sensor
US20200083268A1 (en) * 2018-09-07 2020-03-12 Samsung Electronics Co., Ltd. Image sensor and method of fabricating the same
WO2022131268A1 (ja) * 2020-12-16 2022-06-23 ソニーセミコンダクタソリューションズ株式会社 光電変換素子、光検出装置、光検出システム、電子機器および移動体
WO2022131090A1 (ja) * 2020-12-16 2022-06-23 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出システム、電子機器および移動体

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019062183A (ja) * 2017-09-25 2019-04-18 三星電子株式会社Samsung Electronics Co.,Ltd. イメージセンサ
US20190157329A1 (en) * 2017-11-20 2019-05-23 Samsung Electronics Co., Ltd. Image sensor and method of fabricating the same
US20190378865A1 (en) * 2018-06-07 2019-12-12 Samsung Electronics Co., Ltd. Image sensor
US20200083268A1 (en) * 2018-09-07 2020-03-12 Samsung Electronics Co., Ltd. Image sensor and method of fabricating the same
WO2022131268A1 (ja) * 2020-12-16 2022-06-23 ソニーセミコンダクタソリューションズ株式会社 光電変換素子、光検出装置、光検出システム、電子機器および移動体
WO2022131090A1 (ja) * 2020-12-16 2022-06-23 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出システム、電子機器および移動体

Similar Documents

Publication Publication Date Title
JP7486417B2 (ja) 固体撮像素子および固体撮像装置
JP7372243B2 (ja) 撮像素子および撮像装置
WO2020166309A1 (ja) 撮像素子および撮像装置
WO2019124136A1 (ja) 光電変換素子および固体撮像装置
JP7359766B2 (ja) 固体撮像素子、固体撮像装置、及び、固体撮像素子の読み出し方法
WO2022065153A1 (ja) 固体撮像装置及び電子機器
JP7117110B2 (ja) 光電変換素子および撮像装置
JP2024045201A (ja) 固体撮像素子
WO2019098003A1 (ja) 光電変換素子および固体撮像装置
KR102663945B1 (ko) 고체 촬상 소자 및 그 제조 방법
US11990497B2 (en) Solid-state imaging element and electronic device
WO2024100993A1 (ja) 固体撮像装置
WO2021153628A1 (ja) 撮像素子および撮像素子の製造方法
TW202133419A (zh) 光電轉換元件及攝像元件
WO2024048488A1 (ja) 固体撮像装置
WO2024106013A1 (ja) 固体撮像装置
WO2023248618A1 (ja) 固体撮像装置
CN113557614A (zh) 固态摄像元件、固态摄像元件的制造方法、光电转换元件、摄像装置和电子设备
WO2019203013A1 (ja) 光電変換素子および撮像装置
TWI846699B (zh) 固體攝像元件、固體攝像裝置、電子機器及固體攝像元件之製造方法
WO2021059676A1 (ja) 撮像装置及び電子機器
TWI840387B (zh) 固態攝像元件、固態攝像裝置及固態攝像元件之讀出方法
WO2022065186A1 (ja) 固体撮像装置及び電子機器
WO2024070293A1 (ja) 光電変換素子および光検出装置
WO2024106235A1 (ja) 光検出装置および光検出装置の製造方法ならびに電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23888347

Country of ref document: EP

Kind code of ref document: A1