WO2020138488A1 - 固体撮像装置及び電子機器 - Google Patents

固体撮像装置及び電子機器 Download PDF

Info

Publication number
WO2020138488A1
WO2020138488A1 PCT/JP2019/051598 JP2019051598W WO2020138488A1 WO 2020138488 A1 WO2020138488 A1 WO 2020138488A1 JP 2019051598 W JP2019051598 W JP 2019051598W WO 2020138488 A1 WO2020138488 A1 WO 2020138488A1
Authority
WO
WIPO (PCT)
Prior art keywords
solid
imaging device
state imaging
light
rib
Prior art date
Application number
PCT/JP2019/051598
Other languages
English (en)
French (fr)
Inventor
将史 高見
哲大 岩下
智彦 朝妻
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/309,792 priority Critical patent/US20220077212A1/en
Publication of WO2020138488A1 publication Critical patent/WO2020138488A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14618Containers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14634Assemblies, i.e. Hybrid structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures

Definitions

  • the present technology relates to solid-state imaging devices and electronic devices.
  • Patent Document 1 proposes a technique for suppressing the generation of flare (scattered light) without forming a flare prevention film.
  • Patent Document 1 may not be able to further improve the image quality of the solid-state imaging device.
  • the present technology has been made in view of such a situation, and a main object of the present technology is to provide a solid-state imaging device capable of realizing further improvement in image quality, and an electronic device equipped with the solid-state imaging device. To do.
  • a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are arranged two-dimensionally, Ribs formed on the outer periphery of the pixel array section and extending above the pixel array section;
  • a light-shielding member which is arranged at least on the outer peripheral side of the pixel array section and further arranged below the ribs;
  • a low-reflection material formed so as to cover at least a part of the light shielding material is provided.
  • the low reflection material may be formed below the rib. In the solid-state imaging device according to the present technology, the low reflection material may be formed on a side of the rib. In the solid-state imaging device according to an embodiment of the present technology, the low reflection material may be formed below the rib and on a side of the rib.
  • the light shielding material may be arranged on an outer peripheral portion outside the pixel array portion and at least a part of the pixel array portion, and further may be arranged below the rib.
  • the low reflective material may be formed under the ribs and at least a part of the pixel array section so as to cover at least a part of the light shielding material.
  • the light shielding material may be arranged on an outer peripheral portion outside the pixel array portion and at least a part of the pixel array portion, and further may be arranged below the rib.
  • the low reflective material may be formed on the side of the rib and at least a part of the pixel array section so as to cover at least a part of the light shielding material.
  • the light shielding material may be arranged on an outer peripheral portion outside the pixel array portion and at least a part of the pixel array portion, and further may be arranged below the rib.
  • the low reflective material may be formed below the ribs, laterally of the ribs, and at least a part of the pixel array section so as to cover at least a part of the light shielding material.
  • the low-reflecting material may be formed below the rib by being stacked with the light-shielding material via at least one kind of oxide film.
  • the low-reflection material may be laminated on the light-shielding material via at least one kind of oxide film and may be formed on a side of the rib.
  • the low reflection material may be laminated on the light shielding material via at least one kind of oxide film, and may be formed below the rib and on a side of the rib.
  • the low reflective material may be a blue filter.
  • the low reflection material may be a black filter.
  • the present technology provides an electronic device equipped with the solid-state imaging device according to the present technology.
  • FIG. 1 shows the outline of the example of composition of the lamination type solid-state imaging device to which this art can be applied.
  • FIG. 1 shows the laminated solid-state imaging device 23020.
  • 2nd structural example of the laminated-type solid-state imaging device 23020 shows the 3rd structural example of the laminated solid-state imaging device 23020.
  • FIG. 25 is a circuit diagram showing a specific configuration of a circuit on the first semiconductor chip side and a circuit on the second semiconductor chip side in the solid-state imaging device shown in FIG. 24. It is a figure which shows the usage example of the solid-state imaging device of the 1st-5th embodiment to which this technique is applied. It is a figure explaining composition of an image pick-up device and electronic equipment using a solid-state image pick-up device to which this art is applied. It is a figure which shows an example of a schematic structure of an endoscopic surgery system. It is a block diagram showing an example of functional composition of a camera head and CCU. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • the organic material above the light shielding material for example, tungsten
  • the lower part of the rib becomes unstable in terms of film properties, and peeling occurs at the interface between the color filter (organic material) and the lens material (organic material) There is a case. Therefore, measures may be taken to remove the color filter and lens material below the ribs.
  • the first oxide film 5 and the second oxide film 6 are formed on the light shielding material 6 below the rib 1, and the first oxide film 5 and the second oxide film 5 are formed. Since the oxide film 6 is a film that transmits light, when light is incident on the rib 1, the light reflected by the light shielding material 6 and the rib 1 enters the light receiving surface of the pixel array section 200 to cause flare. There are cases.
  • the present technology has been made in view of the above.
  • the present technology is formed in a pixel array section in which pixels having at least a photoelectric conversion section that performs photoelectric conversion are two-dimensionally arranged, and is formed on an outer peripheral portion outside the pixel array section and extends above the pixel array section.
  • Ribs a light-shielding material that is disposed at least on the outer peripheral portion outside the pixel array portion, and is further disposed below the ribs, and a low-reflecting material that is formed so as to cover at least a part of the light-shielding material.
  • a solid-state image pickup device a solid-state image pickup device.
  • FIG. 18 is a sectional view showing an example of the overall configuration of a solid-state imaging device according to the present technology.
  • the PD (photodiode) 20019 receives incident light 20001 incident from the back surface (upper surface in FIG. 18) side of the semiconductor substrate 20018.
  • a flattening film 20013, a CF (color filter) 20012, and a microlens 20011 are provided above the PD 20019, and incident light 20001 that is sequentially incident through each portion is received by a light-receiving surface 20017 and photoelectrically converted. Be seen.
  • the n-type semiconductor region 20020 is formed as a charge storage region for storing charges (electrons).
  • the n-type semiconductor region 20020 is provided inside the p-type semiconductor regions 200616 and 20041 of the semiconductor substrate 20018.
  • a p-type semiconductor region 20041 having a higher impurity concentration than the back surface (upper surface in FIG. 18) side of the semiconductor substrate 20018 of the n-type semiconductor area 20020 is provided. That is, the PD20019 has a HAD (Hole-Accumulation Diode) structure, and a p-type semiconductor is formed so as to suppress generation of a dark current at each interface between the upper surface side and the lower surface side of the n-type semiconductor region 20020. Areas 200616 and 20041 are formed.
  • a pixel separation unit 20030 that electrically separates the plurality of pixels 20010 is provided, and the PD 20019 is provided in a region partitioned by the pixel separation unit 20030.
  • the pixel separating unit 20030 is formed in a grid shape so as to be interposed between a plurality of pixels 20010, and the PD 20019 is the pixel separating unit 20030. It is formed in the area defined by.
  • each PD20019 the anode is grounded, and in the solid-state imaging device, the signal charge (for example, electrons) accumulated in the PD20019 is read out via a transfer Tr (MOS FET) or the like (not shown), and as an electric signal, It is output to VSL (vertical signal line) not shown.
  • MOS FET MOS FET
  • the wiring layer 20050 is provided on the front surface (lower surface) of the semiconductor substrate 20018, which is opposite to the back surface (upper surface) on which the respective parts such as the light-shielding film 20014, CF 20012, and microlens 20011 are provided.
  • the wiring layer 20050 includes a wiring 20051 and an insulating layer 20052, and is formed in the insulating layer 20052 so that the wiring 20051 is electrically connected to each element.
  • the wiring layer 20050 is a so-called multilayer wiring layer, and is formed by alternately stacking an interlayer insulating film forming the insulating layer 20052 and a wiring 20051 a plurality of times.
  • a wiring to the Tr such as a transfer Tr for reading out electric charges from the PD 20019 and each wiring such as VSL are laminated via an insulating layer 20052.
  • a supporting substrate 20061 is provided on the surface of the wiring layer 20050 opposite to the side where the PD 20019 is provided.
  • a substrate made of a silicon semiconductor having a thickness of several hundred ⁇ m is provided as the supporting substrate 20061.
  • the light-shielding film 20014 is provided on the back surface (upper surface in FIG. 18) of the semiconductor substrate 20018.
  • the light shielding film 20014 is configured to shield a part of incident light 20001 from above the semiconductor substrate 20018 toward the back surface of the semiconductor substrate 20018.
  • the light shielding film 20014 is provided above the pixel separation portion 20030 provided inside the semiconductor substrate 20018.
  • the light-shielding film 20014 is provided on the back surface (upper surface) of the semiconductor substrate 20018 so as to project in a convex shape through an insulating film 20055 such as a silicon oxide film.
  • the light shielding film 20014 is not provided and is opened so that the incident light 20001 enters the PD 20019.
  • the light-shielding film 20014 has a lattice-like planar shape, and an opening through which the incident light 20001 passes to the light-receiving surface 20017 is formed.
  • the light shielding film 20014 is formed of a light shielding material that shields light.
  • the light-shielding film 20014 is formed by sequentially stacking a titanium (Ti) film and a tungsten (W) film.
  • the light shielding film 20014 can be formed by, for example, sequentially laminating a titanium nitride (TiN) film and a tungsten (W) film.
  • the light shielding film 20014 is covered with a flattening film 20013.
  • the planarization film 20013 is formed using an insulating material which transmits light.
  • the pixel separation unit 20030 has a groove 20031, a fixed charge film 20032, and an insulating film 20033.
  • the fixed charge film 20032 is formed on the back surface (upper surface) side of the semiconductor substrate 20018 so as to cover the groove 20031 partitioning the plurality of pixels 20010.
  • the fixed charge film 20032 is provided so as to cover the inner surface of the groove 20031 formed on the back surface (upper surface) side of the semiconductor substrate 20018 with a constant thickness.
  • the insulating film 20033 is provided (filled) so as to fill the inside of the groove 20031 covered with the fixed charge film 20032.
  • the fixed charge film 20032 is made of a high dielectric material having a negative fixed charge so that a positive charge (hole) accumulation region is formed at the interface with the semiconductor substrate 20018 and dark current is suppressed. Is formed. Since the fixed charge film 20032 is formed to have a negative fixed charge, an electric field is applied to the interface with the semiconductor substrate 20018 by the negative fixed charge, and a positive charge (hole) accumulation region is formed.
  • the fixed charge film 20032 can be formed of, for example, a hafnium oxide film (HfO 2 film). Further, the fixed charge film 20032 can be formed so as to include at least one of oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and a lanthanoid element.
  • oxides such as hafnium, zirconium, aluminum, tantalum, titanium, magnesium, yttrium, and a lanthanoid element.
  • FIG. 19 is a diagram showing an outline of a configuration example of a stacked solid-state imaging device to which the technology according to the present disclosure can be applied.
  • the solid-state imaging device 23010 has one die (semiconductor substrate) 23011 as shown in A of FIG.
  • the die 23011 has a pixel region 23012 in which pixels are arranged in an array, a control circuit 23013 for performing pixel control and various other controls, and a logic circuit 23014 for signal processing.
  • the solid-state imaging device 23020 is configured as one semiconductor chip by stacking two dies of a sensor die 23021 and a logic die 23024 and electrically connecting them.
  • the sensor die 23021 has a pixel area 23012 and a control circuit 23013 mounted therein, and the logic die 23024 has a logic circuit 23014 including a signal processing circuit for performing signal processing.
  • the sensor die 23021 is mounted with the pixel region 23012
  • the logic die 23024 is mounted with the control circuit 23013 and the logic circuit 23014.
  • FIG. 20 is a cross-sectional view showing a first configuration example of the stacked solid-state imaging device 23020.
  • the sensor die 23021 In the sensor die 23021, PDs (photodiodes), FDs (floating diffusions), Trs (MOS FETs), which form pixels serving as the pixel regions 23012, and Trs serving as the control circuit 23013 are formed. Further, the sensor die 23021 is formed with a wiring layer 23101 having a plurality of layers, in this example, three layers of wiring 23110. It should be noted that the control circuit 23013 (which becomes the Tr) can be configured as the logic die 23024 instead of the sensor die 23021.
  • a Tr forming the logic circuit 23014 is formed on the logic die 23024. Further, the logic die 23024 is formed with a wiring layer 23161 having a plurality of layers, in this example, three layers of wiring 23170. Further, the logic die 23024 is formed with a connection hole 23171 having an insulating film 23172 formed on the inner wall surface thereof, and a connection conductor 23173 connected to the wiring 23170 and the like is embedded in the connection hole 23171.
  • the sensor die 23021 and the logic die 23024 are attached so that their wiring layers 23101 and 23161 face each other, whereby a laminated solid-state imaging device 23020 in which the sensor die 23021 and the logic die 23024 are laminated is configured.
  • a film 23191 such as a protective film is formed on a surface where the sensor die 23021 and the logic die 23024 are attached to each other.
  • the sensor die 23021 is formed with a connection hole 23111 that penetrates the sensor die 23021 from the back surface side (the side on which light is incident on the PD) (upper side) of the sensor die 23021 and reaches the uppermost wiring 23170 of the logic die 23024. Further, in the sensor die 23021, a connection hole 23121 is formed near the connection hole 23111 and reaching the wiring 23110 of the first layer from the back surface side of the sensor die 23021. An insulating film 23112 is formed on the inner wall surface of the connection hole 23111, and an insulating film 23122 is formed on the inner wall surface of the connection hole 23121. Then, the connection conductors 23113 and 23123 are embedded in the connection holes 23111 and 23121, respectively.
  • connection conductor 23113 and the connection conductor 23123 are electrically connected to each other on the back surface side of the sensor die 23021, whereby the sensor die 23021 and the logic die 23024 are connected to the wiring layer 23101, the connection hole 23121, the connection hole 23111, and the wiring layer. It is electrically connected via 23161.
  • FIG. 21 is a cross-sectional view showing a second configuration example of the stacked solid-state imaging device 23020.
  • the sensor die 23021 (the wiring layer 23101 of the wiring layer 23101) and the logic die 23024 (the wiring layer 23161 of the wiring layer 23161) are formed by one connection hole 23211 formed in the sensor die 23021. 23170)) and are electrically connected.
  • connection hole 23211 is formed so as to penetrate the sensor die 23021 from the back surface side of the sensor die 23021 to reach the wiring 23170 in the uppermost layer of the logic die 23024 and reach the wiring 23110 in the uppermost layer of the sensor die 23021.
  • An insulating film 23212 is formed on the inner wall surface of the connection hole 23211, and a connection conductor 23213 is embedded in the connection hole 23211.
  • the sensor die 23021 and the logic die 23024 are electrically connected by the two connection holes 23111 and 23121, but in FIG. 21, the sensor die 23021 and the logic die 23024 are connected by the one connection hole 23211. It is electrically connected.
  • FIG. 22 is a cross-sectional view showing a third configuration example of the stacked solid-state imaging device 23020.
  • the film 23191 such as a protective film is not formed on the surface on which the sensor die 23021 and the logic die 23024 are bonded, the surface on which the sensor die 23021 and the logic die 23024 are bonded 20, in which a film 23191 such as a protective film is formed.
  • the sensor die 23021 and the logic die 23024 are superposed so that the wirings 23110 and 23170 come into direct contact with each other, and the wirings 23110 and 23170 are directly joined by heating while applying a required weight. Composed.
  • FIG. 23 is a cross-sectional view showing another configuration example of the stacked solid-state imaging device to which the technology according to the present disclosure can be applied.
  • the solid-state imaging device 23401 has a three-layer laminated structure in which three dies including a sensor die 23411, a logic die 23412, and a memory die 23413 are laminated.
  • the memory die 23413 has, for example, a memory circuit that stores data that is temporarily necessary for signal processing performed by the logic die 23412.
  • the logic die 23412 and the memory die 23413 are stacked under the sensor die 23411 in that order. It can be stacked under 23411.
  • a PD serving as a photoelectric conversion unit of a pixel and a source/drain region of a pixel Tr are formed in the sensor die 23411.
  • a gate electrode is formed around the PD via a gate insulating film, and a pixel Tr23421 and a pixel Tr23422 are formed by the source/drain regions paired with the gate electrode.
  • the pixel Tr23421 adjacent to the PD is the transfer Tr, and one of the pair of source/drain regions forming the pixel Tr23421 is the FD.
  • an interlayer insulating film is formed on the sensor die 23411, and a connection hole is formed in the interlayer insulating film.
  • a pixel Tr23421 and a connection conductor 23431 connected to the pixel Tr23422 are formed in the connection hole.
  • a wiring layer 23433 having a plurality of layers of wiring 23432 connected to each connection conductor 23431 is formed.
  • an aluminum pad 23434 that serves as an electrode for external connection is formed on the lowermost layer of the wiring layer 23433 of the sensor die 23411. That is, in the sensor die 23411, the aluminum pad 23434 is formed at a position closer to the bonding surface 23440 to the logic die 23412 than the wiring 23432.
  • the aluminum pad 23434 is used as one end of wiring for inputting/outputting signals to/from the outside.
  • the sensor die 23411 is formed with a contact 23441 used for electrical connection with the logic die 23412.
  • the contact 23441 is connected to the contact 23451 of the logic die 23412 and also connected to the aluminum pad 23442 of the sensor die 23411.
  • the sensor die 23411 is formed with a pad hole 23443 so as to reach the aluminum pad 23442 from the back side (upper side) of the sensor die 23411.
  • An electronic device (laminated solid-state imaging device) 10Ad shown in FIG. 24 processes a signal obtained by the first semiconductor chip 20d having a sensor unit 21d in which a plurality of sensors 40d are arranged and a sensor 40d.
  • the second semiconductor chip 30d having the signal processing unit 31d is provided, the first semiconductor chip 20d and the second semiconductor chip 30d are stacked, and at least a part of the signal processing unit 31d is a depletion-type field effect transistor. It consists of
  • the plurality of sensors 40d are arranged in a two-dimensional matrix (matrix). The same applies to the following description. Note that, in FIG. 1, for the sake of explanation, the first semiconductor chip 20d and the second semiconductor chip 30d are shown in a separated state.
  • the electronic device 10Ad includes a first semiconductor chip 20d having a sensor unit 21d in which a plurality of sensors 40d are arranged, and a second semiconductor chip 30d having a signal processing unit 31d that processes a signal acquired by the sensor 40d.
  • the first semiconductor chip 20d and the second semiconductor chip 30d are stacked, and the signal processing unit 31d includes a high breakdown voltage transistor system circuit and a low breakdown voltage transistor system circuit. At least a part of the system circuit is composed of a depletion type field effect transistor.
  • the depletion type field effect transistor has a fully depleted SOI structure, a partially depleted SOI structure, a fin structure (also called a double gate structure or a trigate structure), or It has a deeply depleted channel structure.
  • the configuration and structure of these depletion type field effect transistors will be described later.
  • the signal processing unit 31d includes an analog-digital converter (hereinafter, simply referred to as “AD converter”) 50d including a comparator 51d and a counter unit 52d, a ramp voltage generator (hereinafter, “reference voltage generation unit”).
  • AD converter analog-digital converter
  • comparator 51d a comparator
  • counter unit 52d a counter unit 52d
  • reference voltage generation unit a ramp voltage generator
  • a data latch unit 55d includes a data latch unit 55d, a parallel-serial conversion unit 56, a memory unit 32d, a data processing unit 33d, a control unit 34d (including a clock supply unit connected to the AD converter 50d), a current It includes a source 35d, a decoder 36d, a row decoder 37d, and an interface (IF) unit 38b.
  • IF interface
  • the high breakdown voltage transistor system circuit (a specific configuration circuit will be described later) in the second semiconductor chip 30d and the sensor portion 21d in the first semiconductor chip 20d are planarly overlapped.
  • a light shielding region is formed above the high breakdown voltage transistor system circuit facing the sensor portion 21d of the first semiconductor chip 20d.
  • the light-shielding region arranged below the sensor portion 21d can be obtained by appropriately arranging the wiring (not shown) formed in the second semiconductor chip 30d.
  • the AD converter 50d is arranged below the sensor section 21d.
  • the signal processing unit 31d or the low breakdown voltage transistor system circuit includes a part of the AD converter 50d, and at least a part of the AD converter 50d is a depletion-type field effect transistor. It is composed of
  • the AD converter 50d is specifically composed of a single slope type AD converter whose circuit diagram is shown in FIG.
  • the high breakdown voltage transistor system circuit in the second semiconductor chip 30d and the sensor portion 21d in the first semiconductor chip 20d are configured not to overlap in a plane. You can That is, in the second semiconductor chip 30d, a part of the analog-digital converter 50d and the like are arranged on the outer peripheral portion of the second semiconductor chip 30d. Then, this eliminates the need for forming the light-shielding region, simplifies the process, structure, and configuration, improves the degree of freedom in design, and reduces restrictions in layout design.
  • One AD converter 50d is provided for a plurality of sensors 40d (sensors 40d belonging to one sensor row), and the AD converter 50d composed of a single slope type analog-digital converter is a ramp voltage generator. (Reference voltage generation unit) 54d, comparator 51d to which the analog signal acquired by the sensor 40d and the ramp voltage from the ramp voltage generator (reference voltage generation unit) 54d are input, and the control unit 34d
  • a clock CK is supplied from a clock supply unit (not shown) provided in the counter 51d, and the counter unit 52d operates based on the output signal of the comparator 51d.
  • the clock supply unit connected to the AD converter 50d is included in the signal processing unit 31d or the low breakdown voltage transistor system circuit (more specifically, included in the control unit 34d), and is a well-known PLL. It is composed of a circuit. Then, at least a part of the counter section 52d and the clock supply section are composed of a depletion type field effect transistor.
  • the sensor unit 21d (sensor 40d) and the row selection unit 25d provided on the first semiconductor chip 20d, and further, the column selection unit 27 described later correspond to a high breakdown voltage transistor system circuit.
  • the comparator 51d that constitutes the AD converter 50d in the signal processing unit 31d provided in the second semiconductor chip 30d, the ramp voltage generator (reference voltage generation unit) 54d, the current source 35d, the decoder 36d, and the interface ( The IF) portion 38b corresponds to a high breakdown voltage transistor system circuit.
  • Reference numeral 58 corresponds to a low breakdown voltage transistor circuit.
  • the entire counter unit 52d and the clock supply unit included in the control unit 34d are composed of depletion type field effect transistors.
  • the first silicon semiconductor substrate and the second semiconductor chip 30d that form the first semiconductor chip 20d are formed based on a known method.
  • the predetermined various circuits described above are formed on the second silicon semiconductor substrate.
  • the first silicon semiconductor substrate and the second silicon semiconductor substrate are bonded together by a known method.
  • a through hole from the wiring formed on the first silicon semiconductor substrate side to the wiring formed on the second silicon semiconductor substrate is formed, and the through hole is filled with a conductive material to form TC(S)V. To do.
  • the first semiconductor chip 20d and the second semiconductor chip are diced by dicing the bonding structure of the first silicon semiconductor substrate and the second silicon semiconductor substrate. It is possible to obtain the electronic device 10Ad in which 30d and 30d are stacked.
  • the sensor 40d is specifically an image sensor, more specifically a CMOS image sensor having a well-known configuration and structure, and the electronic device 10Ad is a solid-state imaging device.
  • the signal (analog signal) from the sensor 40d is used as a unit of one sensor, or as a unit of a plurality of sensors, or as a unit of one or a plurality of lines (lines).
  • a control line (row control line) is wired for each sensor row with respect to the matrix-shaped sensor array, and a signal line (column signal line/vertical signal line) 26 is provided for each sensor column. It is wired.
  • a current source 35d may be connected to each of the signal lines 26d. Then, a signal (analog signal) is read from the sensor 40d of the sensor unit 21d via the signal line 26d.
  • This reading can be performed, for example, under a rolling shutter that performs exposure with one sensor or a sensor group of one line (one row) as a unit. The reading under the rolling shutter may be called "rolling reading".
  • Pads 22 1 and 22 2 for electrical connection with the outside and TC are provided on the peripheral portion of the first semiconductor chip 20d.
  • Via portions 23 1 and 23 2 having a V structure are provided.
  • the via part may be referred to as “VIA”.
  • the pad portion 22 1 and the pad portion 22 2 are provided on both the left and right sides of the sensor portion 21d, but the pad portion 22 1 and the pad portion 22 2 may be provided on one of the left and right sides.
  • it is configured to provide a via 231 and the via portions 23 2 vertically both sides of the sensor unit 21d, it is also possible to adopt a configuration provided on one side of the upper and lower.
  • a bonding pad portion is provided on the lower second semiconductor chip 30d and an opening portion is provided on the first semiconductor chip 20d, and a bonding pad portion provided on the second semiconductor chip 30d is provided on the first semiconductor chip 20d. It is also possible to adopt a configuration in which wire bonding is performed through the opening, or a configuration in which the second semiconductor chip 30d is mounted on the substrate using the TC(S)V structure. Alternatively, the circuit in the first semiconductor chip 20d and the circuit in the second semiconductor chip 30d can be electrically connected via bumps based on the chip-on-chip method. An analog signal obtained from each sensor 40d of the sensor portion 21d is transmitted from the first semiconductor chip 20d to the second semiconductor chip 30d via the via portions 23 1 and 23 2 .
  • each sensor 40d of the sensor section 21d is operated based on the address signal given from the second semiconductor chip 30d side.
  • a row selection unit 25d for selecting in units is provided. Although the row selection section 25d is provided on the first semiconductor chip 20d side here, it may be provided on the second semiconductor chip 30d side.
  • the sensor 40d has, for example, a photodiode 41d as a photoelectric conversion element.
  • the sensor 40d has four transistors, for example, a transfer transistor (transfer gate) 42, a reset transistor 43d, an amplification transistor 44d, and a selection transistor 45d in addition to the photodiode 41d.
  • a transfer transistor transfer gate
  • a reset transistor 43d reset transistor
  • an amplification transistor 44d a selection transistor 45d in addition to the photodiode 41d.
  • N-channel type transistors are used as the four transistors 42d, 43d, 44d and 45d.
  • the combination of the conductivity types of the transfer transistor 42d, the reset transistor 43d, the amplification transistor 44d, and the selection transistor 45d illustrated here is merely an example, and the present invention is not limited to these combinations. That is, a combination using P-channel transistors can be used as necessary.
  • these transistors 42d, 43d, 44d and 45d are composed of high breakdown voltage MOS
  • the transfer signal TRG which is a drive signal for driving the sensor 40d, the reset signal RST, and the selection signal SEL are appropriately given to the sensor 40d from the row selection unit 25d. That is, the transfer signal TRG is applied to the gate electrode of the transfer transistor 42d, the reset signal RST is applied to the gate electrode of the reset transistor 43d, and the selection signal SEL is applied to the gate electrode of the selection transistor 45d.
  • the photodiode 41d has an anode electrode connected to a low-potential-side power source (eg, ground), and photoelectrically converts received light (incident light) into photocharges (here, photoelectrons) having a charge amount corresponding to the light amount. Then, the photocharge is accumulated.
  • the cathode electrode of the photodiode 41d is electrically connected to the gate electrode of the amplification transistor 44d via the transfer transistor 42d.
  • the node 46 electrically connected to the gate electrode of the amplification transistor 44d is called an FD portion (floating diffusion/floating diffusion region portion).
  • the transfer transistor 42d is connected between the cathode electrode of the photodiode 41d and the FD portion 46d.
  • a transfer signal TRG whose level (for example, V DD level) is active (hereinafter referred to as “High active”) is applied to the gate electrode of the transfer transistor 42d from the row selection unit 25d.
  • the transfer transistor 42d becomes conductive, and the photocharges photoelectrically converted by the photodiode 41d are transferred to the FD section 46d.
  • the drain region of the reset transistor 43d is connected to the sensor power supply V DD , and the source region thereof is connected to the FD portion 46d.
  • a high-active reset signal RST is applied from the row selection unit 25d to the gate electrode of the reset transistor 43d.
  • the reset transistor 43d In response to the reset signal RST, the reset transistor 43d becomes conductive, and the charge of the FD portion 46d is discarded to the sensor power supply V DD , whereby the FD portion 46d is reset.
  • the gate electrode of the amplification transistor 44d is connected to the FD section 46d, and the drain region is connected to the sensor power supply V DD .
  • the amplification transistor 44d outputs the potential of the FD section 46d after being reset by the reset transistor 43d as a reset signal (reset level: V Reset ).
  • the amplification transistor 44d further outputs the potential of the FD portion 46d after the signal charge is transferred by the transfer transistor 42d as a light accumulation signal (signal level) V Sig .
  • the drain region of the selection transistor 45d is connected to the source region of the amplification transistor 44d, and the source region is connected to the signal line 26d.
  • a high-selection selection signal SEL is applied to the gate electrode of the selection transistor 45d from the row selection section 25d.
  • the selection transistor 45d becomes conductive, the sensor 40d becomes selected, and a signal (analog signal) of the signal level V Sig output from the amplification transistor 44d is sent to the signal line 26d.
  • the potential of the FD portion 46d after the reset is read from the sensor 40d as the reset level V Reset , and then the potential of the FD portion 46d after the transfer of the signal charge is read as the signal level V Sig to the signal line 26d in order. Be done.
  • the signal level V Sig also includes a component of the reset level V Reset .
  • the selection transistor 45d has a circuit configuration connected between the source region of the amplification transistor 44d and the signal line 26d, it has a circuit configuration connected between the sensor power supply V DD and the drain region of the amplification transistor 44d. It is also possible.
  • the senor 40d is not limited to the configuration including such four transistors.
  • the amplification transistor 44d is made up of three transistors having the function of the selection transistor 45d, or a configuration in which a plurality of photoelectric conversion elements (between sensors) share a transistor after the FD section 46d may be used. Yes, the circuit configuration does not matter.
  • the second semiconductor chip 30d includes the memory unit 32d, the data processing unit 33d, the control unit 34d, the current source 35d, the decoder 36d, and the row.
  • a decoder 37d, an interface (IF) unit 38b, and the like are provided, and a sensor driving unit (not shown) that drives each sensor 40d of the sensor unit 21d is provided.
  • the signal processing unit 31d the analog signal read from each sensor 40d of the sensor unit 21d for each sensor row is digitized (AD conversion) in parallel (column parallel) in sensor column units. The signal processing may be performed.
  • the signal processing unit 31d includes an AD converter 50d that digitizes an analog signal read from each sensor 40d of the sensor unit 21d to the signal line 26d, and AD-converted image data (digital data). To the memory unit 32d.
  • the memory unit 32d stores the image data that has been subjected to the predetermined signal processing in the signal processing unit 31d.
  • the memory unit 32d may be composed of a non-volatile memory or a volatile memory.
  • the data processing unit 33d reads the image data stored in the memory unit 32d in a predetermined order, performs various processes, and outputs the data to the outside of the chip.
  • the control unit 34d based on reference signals such as a horizontal synchronization signal XHS, a vertical synchronization signal XVS, and a master clock MCK provided from outside the chip, signals of the sensor drive unit, the memory unit 32d, the data processing unit 33d, and the like. It controls each operation of the processing unit 31d. At this time, the control unit 34d controls the circuit (the row selection unit 25d and the sensor unit 21d) on the first semiconductor chip 20d side and the signal processing unit 31d (the memory unit 32d, the data processing unit 33d, etc.) on the second semiconductor chip 30d side. Control is performed while synchronizing with.
  • reference signals such as a horizontal synchronization signal XHS, a vertical synchronization signal XVS, and a master clock MCK provided from outside the chip, signals of the sensor drive unit, the memory unit 32d, the data processing unit 33d, and the like. It controls each operation of the processing unit 31d. At this time, the control unit 34d controls the circuit (the row selection unit 25d and
  • the signal line 26d from which the analog signal is read from each sensor 40d of the sensor unit 21d for each sensor row is connected to the current source 35d.
  • the current source 35d has, for example, a so-called load MOS circuit configuration including a MOS transistor whose gate potential is biased to a constant potential so as to supply a constant current to the signal line 26d.
  • the current source 35d composed of this load MOS circuit operates the amplification transistor 44d as a source follower by supplying a constant current to the amplification transistor 44d of the sensor 40d included in the selected row.
  • the decoder 36d supplies an address signal designating the address of the selected row to the row selection unit 25d when selecting each sensor 40d of the sensor unit 21d in units of rows.
  • the row decoder 37d specifies a row address for writing image data in the memory unit 32d or reading image data from the memory unit 32d under the control of the control unit 34d.
  • the signal processing unit 31d includes at least the AD converter 50d that digitizes (AD converts) an analog signal read from each sensor 40d of the sensor unit 21d through the signal line 26d. Signal processing (column parallel AD) is performed in parallel for each sensor column.
  • the signal processing unit 31d further includes a ramp voltage generator (reference voltage generation unit) 54d that generates a reference voltage Vref used in AD conversion by the AD converter 50d.
  • the reference voltage generation unit 54d generates a reference voltage Vref having a so-called ramp (RAMP) waveform (inclined waveform) in which the voltage value changes stepwise as time passes.
  • the reference voltage generation unit 54d can be configured using, for example, a DA converter (digital-analog converter), but is not limited to this.
  • the AD converter 50d is provided, for example, for each sensor row of the sensor unit 21d, that is, for each signal line 26d. That is, the AD converter 50d is a so-called column parallel AD converter that is arranged by the number of sensor rows of the sensor unit 21d. Then, the AD converter 50d generates, for example, a pulse signal having a size (pulse width) in the time axis direction corresponding to the level of the analog signal, and determines the length of the pulse width period of this pulse signal. AD conversion processing is performed by measuring. More specifically, as shown in FIG. 2, the AD converter 50d includes at least a comparator (COMP) 51d and a counter unit 52d.
  • COMP comparator
  • the comparator 51d receives the analog signal (the above-mentioned signal level V Sig and reset level V Reset ) read from each sensor 40d of the sensor unit 21d via the signal line 26d as a comparison input, and is supplied from the reference voltage generation unit 54d.
  • the reference voltage Vref of the ramp waveform is used as a reference input, and both inputs are compared.
  • the ramp waveform is a waveform in which the voltage changes in a ramp shape (step shape) as time passes. Then, the output of the comparator 51d becomes the first state (for example, high level) when the reference voltage Vref becomes larger than the analog signal, for example.
  • the output is in the second state (for example, low level).
  • the output signal of the comparator 51d becomes a pulse signal having a pulse width corresponding to the level of the analog signal.
  • an up/down counter is used as the counter unit 52d.
  • the clock CK is applied to the counter unit 52d at the same timing as the supply start timing of the reference voltage Vref to the comparator 51d.
  • the counter unit 52d which is an up/down counter, performs down (DOWN) counting or up (UP) counting in synchronization with the clock CK, so that the pulse width period of the output pulse of the comparator 51d, that is, the comparison The comparison period from the start of the operation to the end of the comparison operation is measured.
  • the counter unit 52d with respect to the reset level V Reset and the signal level V Sig is read from the sensor 40d sequentially counts down for the reset level V Reset, up to the signal level V Sig Count.
  • the AD converter 50d performs CDS (Correlated Double Sampling) processing in addition to AD conversion processing.
  • CDS Correlated Double Sampling
  • the "CDS process” removes reset noise of the sensor 40d and fixed pattern noise peculiar to the sensor such as threshold variation of the amplification transistor 44d by taking the difference between the signal level V Sig and the reset level V Reset. Processing. Then, the count result (count value) of the counter unit 52d becomes a digital value (image data) obtained by digitizing the analog signal.
  • the electronic device 10Ad which is a solid-state imaging device in which the first semiconductor chip 20d and the second semiconductor chip 30d are stacked, has a size (area) enough to form the sensor portion 21d as the first semiconductor chip 20d. Therefore, the size (area) of the first semiconductor chip 20d, and hence the size of the entire chip can be reduced. Furthermore, since a process suitable for manufacturing the sensor 40d can be applied to the first semiconductor chip 20d and a process suitable for manufacturing various circuits can be applied to the second semiconductor chip 30d, respectively, the electronic device 10Ad can be manufactured accordingly. The process can be optimized.
  • a circuit portion for performing analog/digital processing is provided in the same substrate (second semiconductor chip 30d), and the first semiconductor chip 20d is provided.
  • High-speed processing can be realized by adopting a configuration in which the side circuit and the circuit on the second semiconductor chip 30d side are controlled in synchronization with each other.
  • the solid-state imaging device includes a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are two-dimensionally arranged, and a pixel array unit.
  • a rib that is formed on the outer peripheral portion on the outer side and extends above the pixel array portion; and a light shielding material that is disposed at least on the outer peripheral portion outside the pixel array portion and further disposed below the rib, A low-reflection material formed so as to cover at least a part of the material, and a solid-state imaging device.
  • the low reflective material may be any material that can suppress the reflection of light.
  • examples thereof include a material that absorbs light and an antireflection material.
  • a blue filter that transmits blue light a green filter that transmits green light, a color filter such as a red filter that transmits red light, and a black filter. And the like organic film.
  • a color filter is used as the low-reflecting material, it can be formed simultaneously with the step of forming the on-chip color filter of the pixel array section, so that this embodiment can be formed without increasing the number of process steps.
  • the wavelength that is transmitted is a short wavelength, it is possible to further suppress the light transmitted through the blue filter from being reflected by the light shielding material.
  • a black filter is preferable because it can absorb light in a wide wavelength band, less light is transmitted therethrough, and reflection on a light shielding material can be suppressed.
  • the low-reflecting material may be formed below the ribs, may be formed laterally, or may be formed below the ribs and laterally.
  • FIG. 1 is a cross-sectional view showing a configuration example of a solid-state imaging device 100 according to the first embodiment of the present technology.
  • FIG. 1A is a cross-sectional view showing a state where the solid-state imaging device 100 is joined to the glass substrate 13 via the rib 1.
  • FIG. 1B is an enlarged cross-sectional view showing the P portion shown in FIG.
  • FIG. 2 is a cross-sectional view showing a configuration example of the solid-state imaging device 100-1 according to the first embodiment of the present technology.
  • FIG. 10 is a diagram for explaining that the width of the low reflective material 7 can be freely changed in order to further enhance the effect of preventing reflection flare.
  • FIG. 1A is a cross-sectional view showing a state where the solid-state imaging device 100 is joined to the glass substrate 13 via the rib 1.
  • FIG. 1B is an enlarged cross-sectional view showing the P portion shown in FIG.
  • FIG. 2 is a cross-sectional view showing a configuration example of the solid-state
  • FIG. 12 is a diagram illustrating a configuration example of the solid-state imaging device 100-1 according to the first embodiment of the present technology
  • FIG. 12A is a plan layout view of the solid-state imaging device according to the first embodiment.
  • FIG. 12(b) is an enlarged plan view in which the Q1 portion shown in FIG. 12(a) is enlarged
  • FIG. 12(c) is for explaining the positional relationship between the low reflection material 7 and the ribs 1.
  • the solid-state imaging device 100 is joined to the glass substrate 13 via the rib 1.
  • the material forming the rib 1 is, for example, an epoxy resin.
  • the low-reflecting material 7 covers a part of the light-shielding material 6 (for example, tungsten) to reduce the light incident on the rib 1 from being reflected by the light-shielding material 6. To prevent reflected flare.
  • the rib 1 is formed outside the pixel array section 200 and extends above the pixel array section 200.
  • the low-reflecting material 7 extends the blue filter 11 provided in the pixel array section to the left (to the left in FIG. 1B) outside the area of the pixel array section, and extends below the rib 1 (see FIG. ) Lower side)
  • the rib is formed so as to extend up to the rib side.
  • the first oxide film 5 is disposed on the upper side of the light shielding material 6 (the upper side in FIG. 1B), and the left portion (the upper side in FIG. 1B) of the first oxide film 5 (the upper side in FIG. 1B).
  • the second oxide film 12 is arranged on the left side in the middle and in the direction toward the rib 1). In FIG.
  • the first organic material 2 is formed on the upper side of the low reflection material 7 (upper side in FIG. 1B), and the upper side of the first organic material 2 (in FIG. 1B) is formed.
  • the second oxide film 12 is disposed on the upper side).
  • the second organic material 3 is formed on the lower side of the low-reflecting material 7 (the lower side in FIG. 1B), and on the lower side of the second organic material 3 (the lower side in FIG. 1B). Is provided with a semiconductor substrate 4 on which a photodiode (not shown) is formed.
  • low reflection materials 8, 9 and 10 and 500 described later may be used instead of the low reflection material 7 in the solid-state imaging device 100 described as FIG.
  • the solid-state imaging device 100-1 includes a rib 1 extending above the pixel array section (the first organic material 2 outside the pixel array section region) (the upper side in FIG. 2, which is a light incident side), and a rib 1 below the rib 1.
  • the light shielding material 6 for example, tungsten
  • the low reflection material 7 is, for example, a blue filter, and is formed below the rib (lower side in FIG. 2) and on the left side (left side in FIG. 2).
  • the low reflection material 7 can prevent the reflection of light.
  • FIG. 10 is a diagram for explaining that the width of the low-reflecting material 7 can be freely changed in order to prevent light reflection and further enhance the effect of preventing reflected flare.
  • the low reflection material 7 may be formed on the left side of the rib 1 by changing the width of the low reflection material 7 in the direction of arrow d1. It may be formed below the rib 1, or both on the left side and below the rib 1.
  • the low reflection material 7 can further enhance the effect of preventing reflection flare.
  • a region 1-1 shown in FIG. 12A is a region formed on the outer peripheral portion outside the pixel array unit 200, and is composed of at least the rib 1 and the light shielding material 6. Then, only the rib 1 is formed on the outer peripheral portion outside the region 1-1. Therefore, the solid-state imaging device 100-1 shown in FIG. 13A is configured to include at least the pixel array unit 200, the ribs 1 formed on the outer peripheral portion of the pixel array unit 200, and the light shielding material 6. ing.
  • the low reflection material (blue filter) 7 is formed to extend up to the arrow R2. Then, a part of the region where the low reflection material 7 is formed (arrow R2) and a part of the region where the rib 1 is formed (arrow R1) overlap, and the overlapped portion is the low reflection material 7 Corresponds to being formed under the rib 1.
  • the low reflective material 7 By forming the low reflective material 7, the effect of preventing reflection flare is effectively exhibited.
  • the solid-state imaging device according to the first embodiment of the present technology is the solid-state imaging device according to second to fifth embodiments of the present technology described later unless there is a technical contradiction other than the contents described above.
  • the contents described in the device section can be applied as they are.
  • a solid-state imaging device according to a second embodiment (Example 2 of solid-state imaging device) according to the present technology includes a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are two-dimensionally arranged, and a pixel array unit. Ribs formed on the outer peripheral portion on the outer side and extending above the pixel array portion, and arranged on the outer peripheral portion on the outer side of the pixel array portion and at least a part of the pixel array portion.
  • the solid-state imaging device includes a light-shielding material arranged below and a low-reflecting material formed so as to cover at least a part of the light-shielding material.
  • the low reflective material may be any material that can suppress the reflection of light. Examples thereof include a material that absorbs light and an antireflection material. Specifically, a blue filter that transmits blue light, a green filter that transmits green light, a color filter such as a red filter that transmits red light, and a black filter. And the like organic film.
  • the low-reflection material included in the solid-state imaging device according to the second embodiment of the present technology is formed by forming a film on an organic material (for example, a lens material). With the blue filter, since the wavelength that is transmitted is a short wavelength, it is possible to further suppress the light transmitted through the blue filter from being reflected by the light shielding material.
  • a black filter is preferable because it can absorb light in a wide wavelength band, less light is transmitted therethrough, and reflection on a light shielding material can be suppressed.
  • the low-reflecting material may be formed below the ribs, may be formed laterally, or may be formed below the ribs and laterally.
  • FIG. 3 is a sectional view showing a configuration example of a solid-state imaging device 100-2 according to the second embodiment of the present technology.
  • FIG. 7 is a diagram for explaining that the width and height of the low reflective material 8 can be freely changed in order to further enhance the effect of preventing reflection flare.
  • FIG. 13 is a diagram showing a configuration example of a solid-state imaging device 100-2 according to the second embodiment of the present technology
  • FIG. 13A is a plan layout diagram of the solid-state imaging device according to the second embodiment.
  • FIG. 13B is an enlarged plan view in which the Q2 portion shown in FIG. 13A is enlarged
  • FIG. 13C is a low reflection material 8, ribs 1, pixel array section 200 (lens region). 2) is a cross-sectional view for explaining the arrangement relationship with FIG.
  • the solid-state imaging device 100-2 includes a rib 1 extending above the pixel array section (the first organic material 2 outside the pixel array section area) (the upper side in FIG. 3, which is a light incident side), and a lower side of the rib 1.
  • a light shielding material 6 for example, tungsten
  • the low reflection material 8 is, for example, a black filter, is formed below the rib (lower side in FIG. 3) and on the left side (left side in FIG. 3), and forms the first organic material 2 (first in the pixel array section).
  • the organic material 2 is formed so as to be laminated on the lens material.
  • the low reflection material 8 can prevent the reflection of light.
  • FIG. 7 is a diagram for explaining that, as described above, the width and height of the low-reflecting material 8 can be freely changed in order to prevent reflection of light and further enhance the effect of preventing reflected flare.
  • the low reflection material 8 may be formed on the left side of the rib 1 by changing the width of the low reflection material 8 in the direction of arrow d2. It may be formed on both the left side and the lower side of the rib 1 (FIG. 7(b) (low reflection material 8-1) ⁇ FIG. 7(e) (low reflection material 8-4) ⁇ FIG. 7(h) ( Low reflection material 8-7), FIG. 7(c) (low reflection material 8-2) ⁇ FIG. 7(f) (low reflection material 8-5) ⁇ FIG. 7(i) (low reflection material 8-8) or FIG. 7(d) (low reflection material 8-3) ⁇ FIG. 7(g) (low reflection material 8-6) ⁇ FIG. 7(j) (low reflection material 8-9).
  • the low reflection material 8 is in the direction of the arrow h2, that is, in FIG. 7B (low reflection material 8-1) ⁇ FIG. 7(c) (low reflection material 8-2) ⁇ FIG. Reflecting material 8-3), FIG. 7(e) (low reflecting material 8-4) ⁇ FIG. 7(f) (low reflecting material 8-5) ⁇ FIG. 7(g) (low reflecting material 8-6) or drawing 7(h) (low reflection material 8-7) ⁇ FIG. 7(i) (low reflection material 8-8) ⁇ FIG. 7(j) (low reflection material 8-9)
  • the height of can be changed.
  • the low-reflecting material 8 can further enhance the effect of preventing reflection flare.
  • a region 1-1 shown in FIG. 13A is a region formed on the outer periphery of the pixel array unit 200, and is composed of at least the rib 1 and the light shielding material 6. Then, only the rib 1 is formed on the outer peripheral portion outside the region 1-1. Therefore, the solid-state imaging device 100-2 shown in FIG. 13A is configured to include at least the pixel array section 200, the ribs 1 formed on the outer peripheral portion outside the pixel array section 200, and the light shielding material 6. ing.
  • the low reflection material (black filter) 8 is formed up to the arrow S2. Then, a part of the region where the low reflection material 8 is formed (arrow S2) and a part of the region where the rib 1 is formed (arrow S1) overlap, and the overlapped portion is the low reflection material 8 Corresponds to being formed under the rib 1. Further, a part of the region (arrow S2) where the low reflection material 8 is formed and a part of the pixel array part (lens region) 200 overlap (covered region S3), and the low reflection material 8 becomes the pixel array part ( It is also formed in a part of the lens area) 200. By forming the low reflective material 8, the effect of preventing reflection flare is effectively exhibited.
  • the solid-state imaging device according to the second embodiment of the present technology is the solid-state imaging device according to the first embodiment of the present technology described above, as long as there is no technical contradiction in addition to the contents described above.
  • the content described in the section of the above and the content described in the section of the solid-state imaging device of the third to fifth embodiments according to the present technology described below can be applied as they are.
  • a solid-state imaging device includes a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are two-dimensionally arranged, and a pixel array unit.
  • a rib that is formed on the outer peripheral portion on the outer side and extends above the pixel array portion; and a light shielding material that is disposed at least on the outer peripheral portion outside the pixel array portion and further disposed below the rib, A low-reflection material formed so as to cover at least a part of the material, and a solid-state imaging device.
  • the low reflective material may be any material that can suppress light reflection.
  • examples thereof include a material that absorbs light and an antireflection material.
  • a blue filter that transmits blue light a green filter that transmits green light, a color filter such as a red filter that transmits red light, and a black filter. And the like organic film.
  • a color filter is used as the low-reflecting material, it can be formed simultaneously with the step of forming the on-chip color filter of the pixel array section, so that this embodiment can be formed without increasing the number of process steps.
  • the wavelength that is transmitted is a short wavelength, it is possible to further suppress the light transmitted through the blue filter from being reflected by the light shielding material.
  • a black filter is preferable because it can absorb light in a wide wavelength band, less light is transmitted therethrough, and reflection on a light shielding material can be suppressed.
  • the low-reflecting material may be formed below the ribs, may be formed laterally, or may be formed below the ribs and laterally.
  • FIG. 4 is a sectional view showing a configuration example of a solid-state imaging device 100-3 according to the third embodiment of the present technology.
  • FIG. 11 is a diagram for explaining that the width of the low reflection material 9 can be freely changed in order to further enhance the effect of preventing reflection flare.
  • FIG. 14 is a diagram showing a configuration example of a solid-state imaging device 100-3 according to the third embodiment of the present technology
  • FIG. 14A is a plan layout diagram of the solid-state imaging device according to the third embodiment.
  • FIG. 14B is an enlarged plan view in which the Q3 portion shown in FIG. 14A is enlarged
  • FIG. 14C is for explaining the arrangement relationship between the low reflection material 9 and the rib 1.
  • FIG. 14 is a diagram showing a configuration example of a solid-state imaging device 100-3 according to the third embodiment of the present technology
  • FIG. 14A is a plan layout diagram of the solid-state imaging device according to the third embodiment.
  • FIG. 14B is an enlarged plan view in which the Q3
  • the solid-state imaging device 100-3 includes a rib 1 extending above the pixel array section (the first organic material 2 outside the pixel array section area) (the upper side in FIG. 4, which is the light incident side), and a lower side of the rib 1.
  • the light shielding material 6 for example, tungsten
  • the low reflection material 9 is, for example, a black filter, and is formed below the rib (lower side in FIG. 4) and on the left side (left side in FIG. 4).
  • the low reflection material 9 can prevent the reflection of light.
  • FIG. 11 is a diagram for explaining that the width of the low-reflecting material 9 can be freely changed in order to prevent reflection of light and further enhance the effect of preventing reflected flare, as described above.
  • the low-reflection material 9 may be formed on the left side of the rib 1 by changing the width of the low-reflection material 9 in the direction of arrow d3. It may be formed below the rib 1, or both on the left side and below the rib 1.
  • the low reflection material 9 can further enhance the effect of preventing reflection flare.
  • a region 1-1 shown in FIG. 14A is a region formed on the outer periphery of the pixel array unit 200 and is composed of at least the rib 1 and the light shielding material 6. Then, only the rib 1 is formed on the outer peripheral portion outside the region 1-1. Therefore, the solid-state imaging device 100-3 shown in FIG. 14A is configured to include at least the pixel array section 200, the ribs 1 formed on the outer peripheral portion outside the pixel array section 200, and the light shielding material 6. ing.
  • the low reflection material (black filter) 9 is formed to extend up to the arrow T2. Then, a part of the region where the low reflection material 9 is formed (arrow T2) and a part of the region where the rib 1 is formed (arrow T1) overlap, and the overlapped portion is the low reflection material 9 Corresponds to being formed under the rib 1.
  • the low reflective material 9 By forming the low reflective material 9, the effect of preventing reflected flare is effectively exhibited.
  • the solid-state imaging device of the third embodiment according to the present technology is the same as the solid-state imaging device of the first and second embodiments according to the present technology described above unless there is a technical contradiction in addition to the contents described above.
  • the contents described in the section of the solid-state imaging device and the contents described in the section of the solid-state imaging device of the fourth to fifth embodiments according to the present technology described below can be applied as they are.
  • a solid-state imaging device includes a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are two-dimensionally arranged, and a pixel array unit.
  • a rib that is formed on the outer peripheral portion on the outer side and extends above the pixel array portion; and a light shielding material that is disposed at least on the outer peripheral portion outside the pixel array portion and further disposed below the rib, A low-reflection material formed so as to cover at least a part of the material, and a solid-state imaging device.
  • the low reflective material may be any material that can suppress light reflection.
  • examples thereof include a material that absorbs light and an antireflection material.
  • a blue filter that transmits blue light a green filter that transmits green light, a color filter such as a red filter that transmits red light, and a black filter. And the like organic film.
  • a color filter is used as the low-reflecting material, it can be formed simultaneously with the step of forming the on-chip color filter of the pixel array section, so that this embodiment can be formed without increasing the number of process steps.
  • the wavelength that is transmitted is a short wavelength, it is possible to further suppress the light transmitted through the blue filter from being reflected by the light shielding material.
  • a black filter is preferable because it can absorb light in a wide wavelength band, less light is transmitted therethrough, and reflection on a light shielding material can be suppressed.
  • the low-reflecting material may be formed below the ribs, may be formed laterally, or may be formed below the ribs and laterally.
  • FIG. 5 is a sectional view showing a configuration example of a solid-state imaging device 100-4 according to the fourth embodiment of the present technology.
  • FIG. 8 is a diagram for explaining that the width and height of the low reflective material 10 can be freely changed in order to further enhance the effect of preventing reflection flare.
  • FIG. 15 is a diagram showing a configuration example of a solid-state imaging device 100-4 according to the third embodiment of the present technology
  • FIG. 15A is a plan layout view of the solid-state imaging device according to the fourth embodiment.
  • FIG. 15B is an enlarged plan view in which the Q4 portion shown in FIG. 15A is enlarged
  • FIG. 15C is for explaining the positional relationship between the low reflection material 10 and the rib 1.
  • FIG. 15 is a sectional view showing a configuration example of a solid-state imaging device 100-4 according to the fourth embodiment of the present technology.
  • FIG. 8 is a diagram for explaining that the width and height of the low reflective material 10 can be freely changed in order to further enhance the effect of preventing
  • the solid-state imaging device 100-4 includes a rib 1 extending above the pixel array section (the first organic material 2 outside the pixel array section region) (the upper side in FIG. 5, which is the light incident side), and a lower side of the rib 1.
  • a light-shielding material 6 (for example, tungsten) arranged on the lower side of FIG. 5 and a low-reflecting material 10 formed so as to cover at least a part of the light-shielding material 6 are provided.
  • the low-reflecting material 10 is, for example, a black filter, is formed below the rib (lower side in FIG. 3) and on the left side (left side in FIG. 3), and forms a light-shielding material 6 via the first oxide film 5. It is stacked.
  • the low reflection material 10 can prevent the reflection of light.
  • FIG. 8 is a diagram for explaining that the width and height of the low-reflecting material 10 can be freely changed in order to prevent light reflection and further enhance the effect of preventing reflected flare.
  • the low-reflection material 10 may be formed on the left side of the rib 1 by changing the width of the low-reflection material 10 in the direction of arrow d4. It may be formed on both the left side and the lower side of the rib 1 (FIG. 8(b) (low reflection material 10-1) ⁇ FIG. 8(e) (low reflection material 10-4) ⁇ FIG. 8(h)( Low reflection material 10-7), FIG. 8(c) (low reflection material 10-2) ⁇ FIG. 8(f) (low reflection material 10-5) ⁇ FIG. 8(i) (low reflection material 10-8) or FIG. 8(d) (low reflection material 10-3) ⁇ FIG. 8(g) (low reflection material 10-6) ⁇ FIG. 8(j) (low reflection material 10-9).
  • the low-reflecting material 10 is in the direction of the arrow h4, that is, in FIG. 8B (low-reflecting material 10-1) ⁇ FIG. 8(c) (low-reflecting material 10-2) ⁇ FIG. Reflecting material 10-3), FIG. 8(e) (low reflecting material 10-4) ⁇ FIG. 8(f) (low reflecting material 10-5) ⁇ FIG. 8(g) (low reflecting material 10-6) or FIG. 8(h) (low reflection material 10-7) ⁇ FIG. 8(i) (low reflection material 10-8) ⁇ FIG. 8(j) (low reflection material 10-9)
  • the height of can be changed.
  • the low-reflecting material 10 can further enhance the effect of preventing reflection flare.
  • a region 1-1 shown in FIG. 15A is a region formed on the outer peripheral portion outside the pixel array unit 200, and is composed of at least the rib 1 and the light shielding material 6. Then, only the rib 1 is formed on the outer peripheral portion outside the region 1-1. Therefore, the solid-state imaging device 100-4 shown in FIG. 15A is configured to include at least the pixel array unit 200, the ribs 1 formed on the outer peripheral portion outside the pixel array unit 200, and the light shielding material 6. ing.
  • the low reflection material (black filter) 10 is formed in the area of the arrow W2. Then, a part of the region (arrow W2) where the low reflection material 10 is formed and a part of the region (arrow W1) where the rib 1 is formed overlap, and the overlapped portion is the low reflection material 10. Corresponds to being formed under the rib 1. By forming the low reflective material 10, the effect of preventing reflected flare is effectively exhibited.
  • the solid-state imaging device according to the fourth embodiment of the present technology is the same as the solid-state imaging device according to the first to third embodiments of the present technology described above unless there is a technical contradiction in addition to the contents described above.
  • the contents described in the column of the solid-state imaging device and the contents described in the column of the solid-state imaging device of the fifth embodiment according to the present technology described below can be applied as they are.
  • a solid-state imaging device according to a fifth embodiment (Example 5 of solid-state imaging device) according to the present technology includes a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are two-dimensionally arranged, and a pixel array unit. Ribs formed on the outer peripheral portion on the outer side and extending above the pixel array portion, and arranged on the outer peripheral portion on the outer side of the pixel array portion and at least a part of the pixel array portion.
  • the solid-state imaging device includes a light-shielding material arranged below and a low-reflecting material formed so as to cover at least a part of the light-shielding material.
  • the low reflective material may be any material that can suppress reflection of light. Examples thereof include a material that absorbs light and an antireflection material. Specifically, a blue filter that transmits blue light, a green filter that transmits green light, a color filter such as a red filter that transmits red light, and a black filter. And the like organic film.
  • the low-reflection material included in the solid-state imaging device according to the fifth embodiment of the present technology is formed by uniformly forming a film on a flattened organic material (for example, lens material).
  • the low reflective material included in the solid-state imaging device according to the fifth embodiment of the present technology can ensure the uniformity of film thickness.
  • a color filter When a color filter is used as the low-reflecting material, it can be formed simultaneously with the step of forming the on-chip color filter of the pixel array section, so that this embodiment can be formed without increasing the number of process steps.
  • the blue filter since the wavelength that is transmitted is a short wavelength, it is possible to further suppress the light transmitted through the blue filter from being reflected by the light shielding material.
  • a black filter is preferable because it can absorb light in a wide wavelength band, less light is transmitted therethrough, and reflection on a light shielding material can be suppressed.
  • the low-reflecting material may be formed below the ribs, may be formed laterally, or may be formed below the ribs and laterally.
  • FIG. 6 is a sectional view showing a configuration example of a solid-state imaging device 500 according to the fifth embodiment of the present technology.
  • FIG. 9 is a diagram for explaining that the width and height of the low reflective material 500 can be freely changed in order to further enhance the effect of preventing reflection flare.
  • FIG. 16 is a diagram showing a configuration example of a solid-state imaging device 100-5 according to the fifth embodiment of the present technology
  • FIG. 16A is a plan layout view of the solid-state imaging device according to the fifth embodiment.
  • FIG. 16B is an enlarged plan view in which the Q5 portion shown in FIG. 16A is enlarged
  • FIG. 16C is a low reflection material 500, ribs 1, pixel array section 200 (lens region). 2) is a cross-sectional view for explaining the arrangement relationship with FIG.
  • the solid-state imaging device 100-5 includes a rib 1 extending above the pixel array section (the first organic material 2 outside the pixel array section area) (the upper side in FIG. 6, which is the light incident side), and a rib 1 below the rib 1.
  • the light shielding material 6 for example, tungsten
  • the low reflection material 500 is, for example, a black filter, and is formed on the lower side (lower side of FIG. 6) and the left side (left side of FIG. 6) of the rib, and the first organic material 2 which is flattened is reduced.
  • the reflective material 500 is formed so as to be laminated while ensuring the uniformity of the film thickness.
  • the low reflection material 500 can prevent the reflection of light.
  • FIG. 9 is a diagram for explaining that the width and height of the low-reflecting material 500 can be freely changed in order to prevent reflection of light and further enhance the effect of preventing reflection flare, as described above.
  • the low reflection material 500 may be formed on the left side of the rib 1 by changing the width of the low reflection material 500 in the direction of arrow d5. It may be formed on both the left side and the lower side of the rib 1 (Fig. 9(b) (low reflection material 500-1) ⁇ Fig. 9(e) (low reflection material 500-4) ⁇ Fig. 9(h) ( Low reflection material 500-7), FIG. 9(c) (low reflection material 500-2) ⁇ FIG. 9(f) (low reflection material 500-5) ⁇ FIG. 9(i) (low reflection material 500-8) or 9(d) (low reflection material 500-2) ⁇ FIG. 9(g) (low reflection material 500-6) ⁇ FIG. 9(j) (low reflection material 500-9).
  • the low-reflecting material 500 is in the direction of the arrow h5, that is, in FIG. 9B (low-reflecting material 500-1) ⁇ FIG. 9(c) (low-reflecting material 500-2) ⁇ FIG. Reflecting material 500-3), FIG. 9(e) (low reflecting material 500-4) ⁇ FIG. 9(f) (low reflecting material 500-5) ⁇ FIG. 9(g) (low reflecting material 500-6) or drawing 9(h) (low reflection material 500-7) ⁇ FIG. 9(i) (low reflection material 500-8) ⁇ FIG. 9(j) (low reflection material 500-9)
  • the height (film thickness) can be changed.
  • the low reflection material 500 can further enhance the effect of preventing reflection flare.
  • a region 1-1 shown in FIG. 16A is a region formed on the outer periphery of the pixel array unit 200 and is composed of at least the rib 1 and the light shielding material 6. Then, only the rib 1 is formed on the outer peripheral portion outside the region 1-1. Therefore, the solid-state imaging device 100-5 shown in FIG. 16A is configured to include at least the pixel array unit 200, the ribs 1 formed on the outer peripheral portion of the pixel array unit 200, and the light shielding material 6. ing.
  • the low reflective material (black filter) 500 is formed to have a substantially uniform film thickness up to the arrow V2. Then, a part of the region (arrow V2) where the low reflection material 500 is formed and a part of the region (arrow V1) where the rib 1 is formed overlap, and the overlapped portion is the low reflection material 500. Corresponds to being formed under the rib 1. Further, the region (arrow V2) where the low reflection material 500 is formed and the region (arrow V5) where the lens material (first organic material 2) is formed are substantially coincident with each other. The region where the low-reflectance material 500 is formed (arrow V2) and the pixel array portion (lens region) 200 (arrow V4) do not overlap.
  • the solid-state imaging device according to the fifth embodiment of the present technology is the same as the solid-state imaging device according to the first to fourth embodiments of the present technology described above, as long as there is no technical contradiction in addition to the contents described above.
  • the contents described in the solid-state imaging device section can be applied as they are.
  • An electronic device according to a sixth embodiment of the present technology is an electronic device equipped with the solid-state imaging device according to any one of the solid-state imaging devices of the first to fifth embodiments of the present technology. is there. Below, the electronic device of 6th Embodiment which concerns on this technique is described in detail.
  • FIG. 26 is a diagram showing a usage example of the solid-state imaging devices of the first to fifth embodiments according to the present technology as an image sensor.
  • the solid-state imaging device can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-rays as described below. it can. That is, as shown in FIG. 26, for example, the field of appreciation for shooting images used for appreciation, the field of transportation, the field of home appliances, the field of medical care/healthcare, the field of security, the field of beauty, sports.
  • Use of the solid-state imaging device according to any one of the first to fifth embodiments for a device used in the field of agriculture, the field of agriculture, and the like for example, the electronic device according to the sixth embodiment described above). You can
  • the first to fifth embodiments are applied to, for example, a device for taking an image used for appreciation, such as a digital camera, a smartphone, or a mobile phone with a camera function.
  • a device for taking an image used for appreciation such as a digital camera, a smartphone, or a mobile phone with a camera function.
  • the solid-state imaging device of any one of the embodiments can be used.
  • the solid-state imaging device is used for a device used for traffic, such as a monitoring camera that performs a distance measurement, a distance measurement sensor that measures a distance between vehicles, and the like. be able to.
  • a device provided for home electric appliances such as a television receiver, a refrigerator, an air conditioner, etc. for photographing a gesture of a user and performing a device operation according to the gesture.
  • the solid-state imaging device according to any one of the fifth embodiments can be used.
  • the first to fifth embodiments are applied to devices used for medical care and healthcare, such as an endoscope and a device for taking angiography by receiving infrared light.
  • the solid-state imaging device of any one of the embodiments can be used.
  • a security camera such as a surveillance camera for security use, a camera for personal authentication, or the like, can be used as a solid-state device according to any one of the first to fifth embodiments.
  • An imaging device can be used.
  • a device used for beauty such as a skin measuring device for photographing the skin or a microscope for photographing the scalp, is used to implement any one of the first to fifth embodiments.
  • Any form of solid-state imaging device can be used.
  • the solid-state imaging device according to any one of the first to fifth embodiments is applied to devices used for sports such as action cameras and wearable cameras for sports applications. Can be used.
  • a device used for agriculture such as a camera for monitoring the condition of fields or crops, can be used for solid-state imaging according to any one of the first to fifth embodiments.
  • the device can be used.
  • the solid-state imaging device includes, for example, an imaging device such as a digital still camera or a digital video camera, a mobile phone having an imaging function, or an imaging function. It can be applied to various electronic devices such as other devices.
  • FIG. 27 is a block diagram showing a configuration example of an imaging device as an electronic device to which the present technology is applied.
  • An image pickup apparatus 201c shown in FIG. 27 is configured to include an optical system 202c, a shutter device 203c, a solid-state image pickup apparatus 204c, a drive circuit 205c, a signal processing circuit 206c, a monitor 207c, and a memory 208c. It is possible to take an image.
  • the optical system 202c is configured to have one or more lenses, guides light (incident light) from a subject to the solid-state imaging device 204c, and forms an image on the light-receiving surface of the solid-state imaging device 204c.
  • the shutter device 203c is arranged between the optical system 202c and the solid-state imaging device 204c, and controls the light irradiation period and the light-shielding period for the solid-state imaging device 204c under the control of the control circuit 205c.
  • the solid-state imaging device 204c accumulates signal charges for a certain period according to the light imaged on the light receiving surface via the optical system 202c and the shutter device 203c.
  • the signal charge accumulated in the solid-state imaging device 204c is transferred according to the drive signal (timing signal) supplied from the control circuit 205c.
  • the control circuit 205c outputs a drive signal for controlling the transfer operation of the solid-state imaging device 204c and the shutter operation of the shutter device 203c to drive the solid-state imaging device 204c and the shutter device 203c.
  • the signal processing circuit 206c performs various kinds of signal processing on the signal charges output from the solid-state imaging device 204c.
  • An image (image data) obtained by performing signal processing by the signal processing circuit 206c is supplied to the monitor 207c and displayed, or supplied to the memory 208c and stored (recorded).
  • the present technology can be applied to various products.
  • the technology according to the present disclosure (this technology) may be applied to an endoscopic surgery system.
  • FIG. 28 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (the present technology) can be applied.
  • FIG. 28 illustrates a situation in which an operator (doctor) 11131 is operating on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as a pneumoperitoneum tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 on which various devices for endoscopic surgery are mounted.
  • the endoscope 11100 includes a lens barrel 11101 into which a region having a predetermined length from the distal end is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid endoscope having the rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101. It is irradiated toward the observation target in the body cavity of the patient 11132 via the lens.
  • the endoscope 11100 may be a direct-viewing endoscope, or may be a perspective or side-viewing endoscope.
  • An optical system and an image pickup device are provided inside the camera head 11102, and reflected light (observation light) from an observation target is condensed on the image pickup device by the optical system.
  • the observation light is photoelectrically converted by the imaging element, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted to the camera control unit (CCU: Camera Control Unit) 11201 as RAW data.
  • the CCU 11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and controls the operations of the endoscope 11100 and the display device 11202 in a centralized manner. Further, the CCU 11201 receives the image signal from the camera head 11102, and performs various image processing such as development processing (demosaic processing) on the image signal for displaying an image based on the image signal.
  • image processing such as development processing (demosaic processing)
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), for example, and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • a light source such as an LED (Light Emitting Diode), for example, and supplies irradiation light to the endoscope 11100 when photographing a surgical site or the like.
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various kinds of information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment instrument control device 11205 controls driving of the energy treatment instrument 11112 for cauterization of tissue, incision, sealing of blood vessel, or the like.
  • the pneumoperitoneum device 11206 is used to inflate the body cavity of the patient 11132 through the pneumoperitoneum tube 11111 in order to inflate the body cavity of the patient 11132 for the purpose of securing the visual field by the endoscope 11100 and the working space of the operator.
  • the recorder 11207 is a device capable of recording various information regarding surgery.
  • the printer 11208 is a device capable of printing various types of information regarding surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies irradiation light to the endoscope 11100 when imaging a surgical site can be configured by, for example, an LED, a laser light source, or a white light source configured by a combination thereof.
  • a white light source is formed by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy, so that the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated on the observation target in a time division manner, and the drive of the image pickup device of the camera head 11102 is controlled in synchronization with the irradiation timing so as to correspond to each of the RGB. It is also possible to take the captured image in a time division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the intensity of the light to acquire an image in a time-division manner and combining the images, a high dynamic image without so-called blackout and blown-out highlights is obtained. An image of the range can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of absorption of light in body tissues, by irradiating a narrow band of light as compared with the irradiation light (that is, white light) during normal observation, the mucosal surface layer
  • the so-called narrow band imaging is performed in which a predetermined tissue such as blood vessels is imaged with high contrast.
  • fluorescence observation in which an image is obtained by fluorescence generated by irradiating the excitation light may be performed.
  • the body tissue is irradiated with excitation light to observe fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected.
  • the excitation light corresponding to the fluorescence wavelength of the reagent can be irradiated to obtain a fluorescence image.
  • the light source device 11203 can be configured to be capable of supplying narrowband light and/or excitation light compatible with such special light observation.
  • FIG. 29 is a block diagram showing an example of the functional configuration of the camera head 11102 and the CCU 11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • the CCU 11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and the CCU 11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at the connecting portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup device (image pickup element).
  • the number of image pickup elements forming the image pickup section 11402 may be one (so-called single-plate type) or plural (so-called multi-plate type).
  • image signals corresponding to R, G, and B may be generated by the respective image pickup elements, and these may be combined to obtain a color image.
  • the image capturing unit 11402 may be configured to have a pair of image capturing elements for respectively acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display.
  • the 3D display enables the operator 11131 to more accurately understand the depth of the living tissue in the operation site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the image pickup unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and moves the zoom lens and the focus lens of the lens unit 11401 by a predetermined distance along the optical axis under the control of the camera head control unit 11405. Accordingly, the magnification and focus of the image captured by the image capturing unit 11402 can be adjusted appropriately.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the driving of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405.
  • the control signal includes, for example, information that specifies the frame rate of the captured image, information that specifies the exposure value at the time of capturing, and/or information that specifies the magnification and focus of the captured image. Contains information about the condition.
  • the image capturing conditions such as the frame rate, the exposure value, the magnification, and the focus may be appropriately designated by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls driving of the camera head 11102 based on a control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives the image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the driving of the camera head 11102 to the camera head 11102.
  • the image signal and the control signal can be transmitted by electric communication, optical communication, or the like.
  • the image processing unit 11412 performs various kinds of image processing on the image signal that is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls regarding imaging of a surgical site or the like by the endoscope 11100 and display of a captured image obtained by imaging the surgical site or the like. For example, the control unit 11413 generates a control signal for controlling the driving of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image of the surgical site or the like based on the image signal subjected to the image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques.
  • the control unit 11413 detects a surgical instrument such as forceps, a specific living body part, bleeding, and a mist when the energy treatment instrument 11112 is used by detecting the shape and color of the edge of the object included in the captured image. Can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgery support information on the image of the operation unit. By displaying the surgery support information in a superimposed manner and presenting it to the operator 11131, the burden on the operator 11131 can be reduced and the operator 11131 can surely proceed with the surgery.
  • the transmission cable 11400 that connects the camera head 11102 and the CCU 11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable of these.
  • wired communication is performed using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the endoscope 11100, the camera head 11102 (the image capturing unit 11402 thereof), and the like among the configurations described above.
  • the solid-state imaging device 111 of the present disclosure can be applied to the imaging unit 10402.
  • the performance can be improved by applying the technology according to the present disclosure to the endoscope 11100, the camera head 11102 (the imaging unit 11402 thereof), and the like.
  • the endoscopic surgery system has been described as an example, but the technique according to the present disclosure may be applied to, for example, a microscopic surgery system or the like.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on any type of moving body such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. May be.
  • FIG. 30 is a block diagram showing a schematic configuration example of a vehicle control system that is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, a vehicle exterior information detection unit 12030, a vehicle interior information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/video output unit 12052, and an in-vehicle network I/F (interface) 12053 are illustrated as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjusting and a control device such as a braking device for generating a braking force of the vehicle.
  • the body system control unit 12020 controls operations of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • radio waves or signals of various switches transmitted from a portable device that substitutes for a key can be input to the body system control unit 12020.
  • the body system control unit 12020 accepts the input of these radio waves or signals and controls the vehicle door lock device, the power window device, the lamp, and the like.
  • the vehicle exterior information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the image capturing unit 12031 to capture an image of the vehicle exterior and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received image.
  • the image pickup unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of received light.
  • the imaging unit 12031 can output the electric signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • the in-vehicle information detection unit 12040 is connected with, for example, a driver state detection unit 12041 that detects the state of the driver.
  • the driver state detection unit 12041 includes, for example, a camera that captures an image of the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated or it may be determined whether or not the driver is asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generation device, the steering mechanism or the braking device based on the information on the inside and outside of the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes a function of ADAS (Advanced Driver Assistance System) that includes collision avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, a vehicle collision warning, or a vehicle lane departure warning. It is possible to perform cooperative control for the purpose.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generation device, the steering mechanism, the braking device, or the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, thereby It is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information on the outside of the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamp according to the position of the preceding vehicle or the oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of antiglare such as switching the high beam to the low beam. It can be carried out.
  • the voice image output unit 12052 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to an occupant of the vehicle or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include at least one of an onboard display and a head-up display, for example.
  • FIG. 31 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose of the vehicle 12100, the side mirrors, the rear bumper, the back door, and the upper part of the windshield in the vehicle interior.
  • the image capturing unit 12101 provided on the front nose and the image capturing unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 included in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the image capturing unit 12104 provided in the rear bumper or the back door mainly acquires an image behind the vehicle 12100.
  • the images in the front acquired by the image capturing units 12101 and 12105 are mainly used for detecting the preceding vehicle, pedestrians, obstacles, traffic lights, traffic signs, lanes, or the like.
  • FIG. 31 shows an example of the shooting range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors
  • the imaging range 12114 indicates The imaging range of the imaging part 12104 provided in a rear bumper or a back door is shown.
  • a bird's-eye view image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image capturing units 12101 to 12104 may be a stereo camera including a plurality of image capturing elements, or may be an image capturing element having pixels for phase difference detection.
  • the microcomputer 12051 based on the distance information obtained from the imaging units 12101 to 12104, the distance to each three-dimensional object in the imaging range 12111 to 12114 and the temporal change of this distance (relative speed with respect to the vehicle 12100). By determining, the closest three-dimensional object on the traveling path of the vehicle 12100, which is traveling in the substantially same direction as the vehicle 12100 at a predetermined speed (for example, 0 km/h or more), can be extracted as the preceding vehicle. it can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving or the like that autonomously travels without depending on the operation of the driver.
  • automatic brake control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 uses the distance information obtained from the imaging units 12101 to 12104 to convert three-dimensional object data regarding a three-dimensional object to other three-dimensional objects such as two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, and utility poles. It can be classified, extracted, and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles visible to the driver of the vehicle 12100 and obstacles difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 outputs the audio through the audio speaker 12061 and the display unit 12062. A driver can be assisted for avoiding a collision by outputting an alarm to the driver and performing forced deceleration or avoidance steering through the drive system control unit 12010.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the images captured by the imaging units 12101 to 12104. To recognize such a pedestrian, for example, a procedure of extracting a feature point in an image captured by the image capturing units 12101 to 12104 as an infrared camera, and a pattern matching process on a series of feature points indicating an outline of an object are performed to determine whether the pedestrian is a pedestrian. It is performed by the procedure of determining.
  • the audio image output unit 12052 causes the recognized pedestrian to have a rectangular contour line for emphasis.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 to display an icon indicating a pedestrian or the like at a desired position.
  • the technology according to the present disclosure can be applied to, for example, the imaging unit 12031 or the like among the configurations described above.
  • the solid-state imaging device 111 of the present disclosure can be applied to the imaging unit 12031.
  • the performance can be improved by applying the technology according to the present disclosure to the imaging unit 12031.
  • a pixel array unit in which pixels having at least a photoelectric conversion unit that performs photoelectric conversion are arranged two-dimensionally, Ribs formed on the outer periphery of the pixel array section and extending above the pixel array section; A light-shielding member which is arranged at least on the outer peripheral side of the pixel array section and further arranged below the ribs; A low-reflection material formed so as to cover at least a part of the light shielding material.
  • the low reflective material is formed on a side of the rib.
  • the light shielding material is arranged on an outer peripheral portion outside the pixel array portion and at least a part of the pixel array portion, and further arranged below the rib,
  • the light shielding material is arranged on an outer peripheral portion outside the pixel array portion and at least a part of the pixel array portion, and further arranged below the rib,
  • Imaging device. [8] The solid-state imaging device according to [1], wherein the low-reflecting material is formed below the rib by laminating it with the light-shielding material via at least one kind of oxide film.
  • SYMBOLS 1... Rib, 2... 1st organic material, 3... 2nd organic material, 4... Semiconductor substrate, 5... 1st oxide film, 6... Light-shielding material, 7, 8 , 9, 10, 500... Low reflection material, 11... Color filter, 12... Second oxide film, 100, 100-1, 100-2, 100-3, 100-4, 101... -Solid-state imaging device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

画質の更なる向上が実現され得る固体撮像装置を提供すること。 光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、該画素アレイ部より外側の外周部に形成されて、該画素アレイ部の上方に延在するリブと、該画素アレイ部より外側の外周部に少なくとも配されて、さらに、該リブの下方に配される遮光材と、該遮光材の少なくとも一部を覆うように形成される低反射材と、を備え、前記低反射材が前記リブの下方、前記リブの側方又は前記リブの下方と前記リブの側方とに形成される、固体撮像装置を提供する。

Description

固体撮像装置及び電子機器
 本技術は、固体撮像装置及び電子機器に関する。
 近年、電子式カメラはますます普及が進んでおり、その中心部品である固体撮像装置(イメージセンサ)の需要はますます高まっている。また、固体撮像装置の性能面では高画質化および高機能化を実現するための技術開発が続けられている。固体撮像装置の高画質化を検討するうえで、画質の劣化を引き起こすフレア(散乱光)の発生を防止する技術開発は重要である。
 例えば、特許文献1では、フレア防止膜を形成せずにフレア(散乱光)の発生を抑制する技術が提案されている。
特開2012-114197号公報
 しかしながら、特許文献1で提案された技術では、固体撮像装置の更なる高画質化を図れないおそれがある。
 そこで、本技術は、このような状況に鑑みてなされたものであり、画質の更なる向上が実現され得る固体撮像装置、及びその固体撮像装置を搭載した電子機器を提供することを主目的とする。
 本発明者らは、上述の目的を解決するために鋭意研究を行った結果、画質の更なる向上の実現に成功し、本技術を完成するに至った。
すなわち、本技術では、
 光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、
 該画素アレイ部より外側の外周部に形成されて、該画素アレイ部の上方に延在するリブと、
 該画素アレイ部より外側の外周部に少なくとも配されて、さらに、該リブの下方に配される遮光材と、
 該遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置を提供する。
 本技術に係る固体撮像装置において、前記低反射材が前記リブの下方に形成されてよい。
 本技術に係る固体撮像装置において、前記低反射材が前記リブの側方に形成されてよい。
 本技術に係る固体撮像装置において、前記低反射材が前記リブの下方と前記リブの側方とに形成されてよい。
 本技術に係る固体撮像装置において、前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されてよく、さらに、前記リブの下方に配されてよく、
 前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの下方と前記画素アレイ部の少なくとも一部とに形成されてよい。
 本技術に係る固体撮像装置において、前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されてよく、さらに、前記リブの下方に配されてよく、
 前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの側方と前記画素アレイ部の少なくとも一部とに形成されてよい。
 本技術に係る固体撮像装置において、前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されてよく、さらに、前記リブの下方に配されてよく、
 前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの下方と前記リブの側方と前記画素アレイ部の少なくとも一部とに形成されてよい。
 本技術に係る固体撮像装置において、前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの下方に形成されてよい。
 本技術に係る固体撮像装置において、前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの側方に形成されてよい。
 本技術に係る固体撮像装置において、前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの下方と前記リブの側方とに形成されてよい。
 本技術に係る固体撮像装置において、前記低反射材がブルーフィルタでよい。
 本技術に係る固体撮像装置において、前記低反射材がブラックフィルタでよい。
 さらに、本技術では、本技術に係る固体撮像装置が搭載された、電子機器を提供する。
 本技術によれば、画質の更なる向上が実現され得る。なお、ここに記載された効果は、必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用した固体撮像装置の構成例を示す断面図である。 本技術を適用した第1の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第2の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第3の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第4の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第5の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第2の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第4の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第5の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第1の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第3の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第1の実施形態の固体撮像装置の構成例を示す図である。 本技術を適用した第2の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第3の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第4の実施形態の固体撮像装置の構成例を示す断面図である。 本技術を適用した第5の実施形態の固体撮像装置の構成例を示す断面図である。 固体撮像装置の構成例を示す断面図である。 本技術を適用し得る固体撮像装置の構成例を示す断面図である。 本技術を適用し得る積層型の固体撮像装置の構成例の概要を示す図である。 積層型の固体撮像装置23020の第1の構成例を示す断面図である。 積層型の固体撮像装置23020の第2の構成例を示す断面図である。 積層型の固体撮像装置23020の第3の構成例を示す断面図である。 本技術を適用し得る積層型の固体撮像装置の他の構成例を示す断面図である。 本技術を適用し得る固体撮像装置の概念図である。 図24で示された固体撮像装置における第1半導体チップ側の回路及び第2半導体チップ側の回路の具体的な構成を示す回路図である。 本技術を適用した第1~第5の実施形態の固体撮像装置の使用例を示す図である。 本技術を適用した固体撮像装置を利用した撮像装置及び電子機器の構成を説明する図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための好適な形態について説明する。以下に説明する実施形態は、本技術の代表的な実施形態の一例を示したものであり、これにより本技術の範囲が狭く解釈されることはない。なお、特に断りがない限り、図面において、「上」とは図中の上方向又は上側を意味し、「下」とは、図中の下方向又は下側を意味し、「左」とは図中の左方向又は左側を意味し、「右」とは図中の右方向又は右側を意味する。また、図面については、同一又は同等の要素又は部材には同一の符号を付し、重複する説明は省略する。
 説明は以下の順序で行う。
 1.本技術の概要
 2.第1の実施形態(固体撮像装置の例1)
 3.第2の実施形態(固体撮像装置の例2)
 4.第3の実施形態(固体撮像装置の例3)
 5.第4の実施形態(固体撮像装置の例4)
 6.第5の実施形態(固体撮像装置の例5)
 7.第6の実施形態(電子機器の例)
 8.本技術を適用した固体撮像装置の使用例
 9.内視鏡手術システムへの応用例
 10.移動体への応用例
<1.本技術の概要>
 まず、本技術の概要について説明をする。
 遮光材(例えば、タングステン)の上方の有機材を残すとリブの下方が膜物性的に不安定になり、例えば、カラーフィルタ(有機材)とレンズ材(有機材)との界面で剥がれが発生する場合がある。したがって、リブの下方のカラーフィルタ及びレンズ材を除去する対策がとられる場合がある。
 しかしながら、図17に示されるように、リブ1の下方の遮光材6上には第1酸化膜5及び第2酸化膜6が成膜されている状態であり、第1酸化膜5及び第2酸化膜6は、光を透過する膜のため、リブ1際に光が入射した際に、遮光材6とリブ1とで反射した光が画素アレイ部200の受光面に入り、フレアが発生する場合がある。
 本技術は、上記に鑑みてなされたものである。本技術は、光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、画素アレイ部より外側の外周部に形成されて、該画素アレイ部の上方に延在するリブと、該画素アレイ部より外側の外周部に少なくとも配されて、さらに、該リブの下方に配される遮光材と、該遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置である。
 本技術によれば、リブ際の入射光の反射を軽減して、フレアの発生を防止し、さらに、リブの下方の膜剥がれを防止することができる。
 以下に、本技術に係る固体撮像装置の全体構成例(単層基板)について、図18を用いて説明をする。
 図18は、本技術に係る固体撮像装置の全体の構成例を示す断面図である。
 本技術に係る固体撮像装置では、PD(フォトダイオード)20019が、半導体基板20018の裏面(図18では上面)側から入射する入射光20001を受光する。PD20019の上方には、平坦化膜20013、CF(カラーフィルタ)20012、マイクロレンズ20011が設けられており、各部を順次介して入射した入射光20001を、受光面20017で受光して光電変換が行われる。
 例えば、PD20019は、n型半導体領域20020が、電荷(電子)を蓄積する電荷蓄積領域として形成されている。PD20019においては、n型半導体領域20020は、半導体基板20018のp型半導体領域20016、20041の内部に設けられている。n型半導体領域20020の、半導体基板20018の表面(図18では下面)側には、裏面(図18では上面)側よりも不純物濃度が高いp型半導体領域20041が設けられている。つまり、PD20019は、HAD(Hole-Accumulation Diode)構造になっており、n型半導体領域20020の上面側と下面側との各界面において、暗電流が発生することを抑制するように、p型半導体領域20016、20041が形成されている。
 半導体基板20018の内部には、複数の画素20010の間を電気的に分離する画素分離部20030が設けられており、この画素分離部20030で区画された領域に、PD20019が設けられている。図中、上面側から、固体撮像装置を見た場合、画素分離部20030は、例えば、複数の画素20010の間に介在するように格子状に形成されており、PD20019は、この画素分離部20030で区画された領域内に形成されている。
 各PD20019では、アノードが接地されており、固体撮像装置において、PD20019が蓄積した信号電荷(例えば、電子)は、図示せぬ転送Tr(MOS FET)等を介して読み出され、電気信号として、図示せぬVSL(垂直信号線)へ出力される。
 配線層20050は、半導体基板20018のうち、遮光膜20014、CF20012、マイクロレンズ20011等の各部が設けられた裏面(上面)とは反対側の表面(下面)に設けられている。
 配線層20050は、配線20051と絶縁層20052とを含み、絶縁層20052内において、配線20051が各素子に電気的に接続するように形成されている。配線層20050は、いわゆる多層配線の層になっており、絶縁層20052を構成する層間絶縁膜と配線20051とが交互に複数回積層されて形成されている。ここでは、配線20051としては、転送Tr等のPD20019から電荷を読み出すためのTrへの配線や、VSL等の各配線が、絶縁層20052を介して積層されている。
 配線層20050の、PD20019が設けられている側に対して反対側の面には、支持基板20061が設けられている。例えば、厚みが数百μmのシリコン半導体からなる基板が、支持基板20061として設けられている。
 遮光膜20014は、半導体基板20018の裏面(図18では上面)の側に設けられている。
 遮光膜20014は、半導体基板20018の上方から半導体基板20018の裏面へ向かう入射光20001の一部を、遮光するように構成されている。
 遮光膜20014は、半導体基板20018の内部に設けられた画素分離部20030の上方に設けられている。ここでは、遮光膜20014は、半導体基板20018の裏面(上面)上において、シリコン酸化膜等の絶縁膜20015を介して、凸形状に突き出るように設けられている。これに対して、半導体基板20018の内部に設けられたPD20019の上方においては、PD20019に入射光20001が入射するように、遮光膜20014は、設けられておらず、開口している。
 つまり、図中、上面側から、固体撮像装置を見た場合、遮光膜20014の平面形状は、格子状になっており、入射光20001が受光面20017へ通過する開口が形成されている。
 遮光膜20014は、光を遮光する遮光材料で形成されている。例えば、チタン(Ti)膜とタングステン(W)膜とを、順次、積層することで、遮光膜20014が形成されている。この他に、遮光膜20014は、例えば、窒化チタン(TiN)膜とタングステン(W)膜とを、順次、積層することで形成することができる。
 遮光膜20014は、平坦化膜20013によって被覆されている。平坦化膜20013は、光を透過する絶縁材料を用いて形成されている。
 画素分離部20030は、溝部20031、固定電荷膜20032、及び、絶縁膜20033を有する。
 固定電荷膜20032は、半導体基板20018の裏面(上面)の側において、複数の画素20010の間を区画している溝部20031を覆うように形成されている。
 具体的には、固定電荷膜20032は、半導体基板20018において裏面(上面)側に形成された溝部20031の内側の面を一定の厚みで被覆するように設けられている。そして、その固定電荷膜20032で被覆された溝部20031の内部を埋め込むように、絶縁膜20033が設けられている(充填されている)。
 ここでは、固定電荷膜20032は、半導体基板20018との界面部分において正電荷(ホール)蓄積領域が形成されて暗電流の発生が抑制されるように、負の固定電荷を有する高誘電体を用いて形成されている。固定電荷膜20032が負の固定電荷を有するように形成されていることで、その負の固定電荷によって、半導体基板20018との界面に電界が加わり、正電荷(ホール)蓄積領域が形成される。
 固定電荷膜20032は、例えば、ハフニウム酸化膜(HfO膜)で形成することができる。また、固定電荷膜20032は、その他、例えば、ハフニウム、ジルコニウム、アルミニウム、タンタル、チタン、マグネシウム、イットリウム、ランタノイド元素等の酸化物の少なくとも1つを含むように形成することができる。
 次に、本技術に係る固体撮像装置の全体構成例(積層基板)について、図19~20を用いて説明をする。
 図19は、本開示に係る技術を適用し得る積層型の固体撮像装置の構成例の概要を示す図である。
 図19のAは、非積層型の固体撮像装置の概略構成例を示している。固体撮像装置23010は、図19のAに示すように、1枚のダイ(半導体基板)23011を有する。このダイ23011には、画素がアレイ状に配置された画素領域23012と、画素の駆動その他の各種の制御を行う制御回路23013と、信号処理するためのロジック回路23014とが搭載されている。
 図19のB及びCは、積層型の固体撮像装置の概略構成例を示している。固体撮像装置23020は、図19のB及びCに示すように、センサダイ23021とロジックダイ23024との2枚のダイが積層され、電気的に接続されて、1つの半導体チップとして構成されている。
 図19のBでは、センサダイ23021には、画素領域23012と制御回路23013が搭載され、ロジックダイ23024には、信号処理を行う信号処理回路を含むロジック回路23014が搭載されている。
 図19のCでは、センサダイ23021には、画素領域23012が搭載され、ロジックダイ23024には、制御回路23013及びロジック回路23014が搭載されている。
 図20は、積層型の固体撮像装置23020の第1の構成例を示す断面図である。
 センサダイ23021には、画素領域23012となる画素を構成するPD(フォトダイオード)や、FD(フローティングディフュージョン)、Tr(MOS FET)、及び、制御回路23013となるTr等が形成される。さらに、センサダイ23021には、複数層、本例では3層の配線23110を有する配線層23101が形成される。なお、制御回路23013(となるTr)は、センサダイ23021ではなく、ロジックダイ23024に構成することができる。
 ロジックダイ23024には、ロジック回路23014を構成するTrが形成される。さらに、ロジックダイ23024には、複数層、本例では3層の配線23170を有する配線層23161が形成される。また、ロジックダイ23024には、内壁面に絶縁膜23172が形成された接続孔23171が形成され、接続孔23171内には、配線23170等と接続される接続導体23173が埋め込まれる。
 センサダイ23021とロジックダイ23024とは、互いの配線層23101及び23161が向き合うように貼り合わされ、これにより、センサダイ23021とロジックダイ23024とが積層された積層型の固体撮像装置23020が構成されている。センサダイ23021とロジックダイ23024とが貼り合わされる面には、保護膜等の膜23191が形成されている。
 センサダイ23021には、センサダイ23021の裏面側(PDに光が入射する側)(上側)からセンサダイ23021を貫通してロジックダイ23024の最上層の配線23170に達する接続孔23111が形成される。さらに、センサダイ23021には、接続孔23111に近接して、センサダイ23021の裏面側から1層目の配線23110に達する接続孔23121が形成される。接続孔23111の内壁面には、絶縁膜23112が形成され、接続孔23121の内壁面には、絶縁膜23122が形成される。そして、接続孔23111及び23121内には、接続導体23113及び23123がそれぞれ埋め込まれる。接続導体23113と接続導体23123とは、センサダイ23021の裏面側で電気的に接続され、これにより、センサダイ23021とロジックダイ23024とが、配線層23101、接続孔23121、接続孔23111、及び、配線層23161を介して、電気的に接続される。
 図21は、積層型の固体撮像装置23020の第2の構成例を示す断面図である。
 固体撮像装置23020の第2の構成例では、センサダイ23021に形成する1つの接続孔23211によって、センサダイ23021(の配線層23101(の配線23110))と、ロジックダイ23024(の配線層23161(の配線23170))とが電気的に接続される。
 すなわち、図21では、接続孔23211が、センサダイ23021の裏面側からセンサダイ23021を貫通してロジックダイ23024の最上層の配線23170に達し、且つ、センサダイ23021の最上層の配線23110に達するように形成される。接続孔23211の内壁面には、絶縁膜23212が
形成され、接続孔23211内には、接続導体23213が埋め込まれる。上述の図20では、2つの接続孔23111及び23121によって、センサダイ23021とロジックダイ23024とが電気的に接続されるが、図21では、1つの接続孔23211によって、センサダイ23021とロジックダイ23024とが電気的に接続される。
 図22は、積層型の固体撮像装置23020の第3の構成例を示す断面図である。
 図22の固体撮像装置23020は、センサダイ23021とロジックダイ23024とが貼り合わさ
れる面に、保護膜等の膜23191が形成されていない点で、センサダイ23021とロジックダイ23024とが貼り合わされる面に、保護膜等の膜23191が形成されている図20の場合と異なる。
 図22の固体撮像装置23020は、配線23110及び23170が直接接触するように、センサダイ23021とロジックダイ23024とを重ね合わせ、所要の加重をかけながら加熱し、配線23110及び23170を直接接合することで構成される。
 図23は、本開示に係る技術を適用し得る積層型の固体撮像装置の他の構成例を示す断面図である。
 図23では、固体撮像装置23401は、センサダイ23411と、ロジックダイ23412と、メモリダイ23413との3枚のダイが積層された3層の積層構造になっている。
 メモリダイ23413は、例えば、ロジックダイ23412で行われる信号処理において一時的に必要となるデータの記憶を行うメモリ回路を有する。
 図23では、センサダイ23411の下に、ロジックダイ23412及びメモリダイ23413が、その順番で積層されているが、ロジックダイ23412及びメモリダイ23413は、逆順、すなわち、メモリダイ23413及びロジックダイ23412の順番で、センサダイ23411の下に積層することができる。
 なお、図23では、センサダイ23411には、画素の光電変換部となるPDや、画素Trのソース/ドレイン領域が形成されている。
 PDの周囲にはゲート絶縁膜を介してゲート電極が形成され、ゲート電極と対のソース/ドレイン領域により画素Tr23421、画素Tr23422が形成されている。
 PDに隣接する画素Tr23421が転送Trであり、その画素Tr23421を構成する対のソース/ドレイン領域の一方がFDになっている。
 また、センサダイ23411には、層間絶縁膜が形成され、層間絶縁膜には、接続孔が形成される。接続孔には、画素Tr23421、及び、画素Tr23422に接続する接続導体23431が形成されている。
 さらに、センサダイ23411には、各接続導体23431に接続する複数層の配線23432を有する配線層23433が形成されている。
 また、センサダイ23411の配線層23433の最下層には、外部接続用の電極となるアルミパッド23434が形成されている。すなわち、センサダイ23411では、配線23432よりもロジックダイ23412との接着面23440に近い位置にアルミパッド23434が形成されている。アルミパッド23434は、外部との信号の入出力に係る配線の一端として用いられる。
 さらに、センサダイ23411には、ロジックダイ23412との電気的接続に用いられるコンタクト23441が形成されている。コンタクト23441は、ロジックダイ23412のコンタクト23451に接続されるとともに、センサダイ23411のアルミパッド23442にも接続されている。
 そして、センサダイ23411には、センサダイ23411の裏面側(上側)からアルミパッド23442に達するようにパッド孔23443が形成されている。
 さらに、本技術を適用し得る積層型の固体撮像装置の構成例(積層基板における回路構成)について、図24~図25を用いて説明をする。
 図24に示される電子デバイス(積層型の固体撮像装置)10Adは、複数のセンサ40dが配置されて成るセンサ部21dを有する第1半導体チップ20d、及び、センサ40dによって取得された信号を処理する信号処理部31dを有する第2半導体チップ30d、を備えており、第1半導体チップ20dと第2半導体チップ30dとは積層されており、信号処理部31dの少なくとも一部は、空乏型電界効果トランジスタから構成されている。尚、複数のセンサ40dは、2次元マトリクス状(行列状)に配置されている。次の説明においても同様である。尚、図1においては、説明の関係上、第1半導体チップ20dと第2半導体チップ30dとを分離した状態で図示している。
 また、電子デバイス10Adは、複数のセンサ40dが配置されて成るセンサ部21dを有する第1半導体チップ20d、及び、センサ40dによって取得された信号を処理する信号処理部31dを有する第2半導体チップ30d、を備えており、第1半導体チップ20dと第2半導体チップ30dとは積層されており、信号処理部31dは、高耐圧トランジスタ系回路及び低耐圧トランジスタ系回路から構成されており、低耐圧トランジスタ系回路の少なくとも一部は、空乏型電界効果トランジスタから構成されている。
 空乏型電界効果トランジスタは、完全空乏型SOI構造を有し、あるいは又、部分空乏型SOI構造を有し、あるいは又、フィン構造(ダブルゲート構造あるいはトリゲート構造とも呼ばれる)を有し、あるいは又、深空乏化チャネル構造を有する。これらの空乏型電界効果トランジスタの構成、構造については後述する。
 具体的には、図25に示されるように、第1半導体チップ20dには、センサ部21d及び行選択部25dが配されている。一方、第2半導体チップ30dには信号処理部31dが配されている。信号処理部31dは、比較器(コンパレータ)51d及びカウンタ部52dを備えたアナログ-デジタル変換器(以下、『AD変換器』と略称する)50d、ランプ電圧生成器(以下、『参照電圧生成部』と呼ぶ場合がある)54d、データラッチ部55d、パラレル-シリアル変換部56、メモリ部32d、データ処理部33d、制御部34d(AD変換器50dに接続されたクロック供給部を含む)、電流源35d、デコーダ36d、行デコーダ37d、及び、インターフェース(IF)部38bから構成されている。
 そして、電子デバイスにあっては、第2半導体チップ30dにおける高耐圧トランジスタ系回路(具体的な構成回路は後述する)と、第1半導体チップ20dにおけるセンサ部21dとは、平面的に重なっており、第2半導体チップ30dにおいて、第1半導体チップ20dのセンサ部21dと対向する高耐圧トランジスタ系回路の上方には遮光領域が形成されている。第2半導体チップ30dにおいて、センサ部21dの下方に配置されている遮光領域は、第2半導体チップ30dに形成された配線(図示せず)を、適宜、配置することで得ることができる。また、第2半導体チップ30dにおいて、AD変換器50dはセンサ部21dの下方に配置されている。ここで、信号処理部31d又は低耐圧トランジスタ系回路(具体的な構成回路は後述する)は、AD変換器50dの一部を含み、AD変換器50dの少なくとも一部は、空乏型電界効果トランジスタから構成されている。AD変換器50dは、具体的には、図2に回路図を示すシングルスロープ型AD変換器から構成されている。あるいは又、電子デバイスにあっては、別のレイアウトとして、第2半導体チップ30dにおける高耐圧トランジスタ系回路と、第1半導体チップ20dにおけるセンサ部21dとは、平面的に重なっていない構成とすることができる。即ち、第2半導体チップ30dにおいて、アナログ-デジタル変換器50dの一部等は、第2半導体チップ30dの外周部に配置されている。そして、これによって、遮光領域の形成が不要となり、工程や構造、構成の簡素化、設計上の自由度の向上、レイアウト設計における制約の低減を図ることができる。
 AD変換器50dは、複数のセンサ40d(1つのセンサ列に属するセンサ40d)に対して1つ設けられており、シングルスロープ型アナログ-デジタル変換器から成るAD変換器50dは、ランプ電圧生成器(参照電圧生成部)54d、センサ40dによって取得されたアナログ信号と、ランプ電圧生成器(参照電圧生成部)54dからのランプ電圧とが入力される比較器(コンパレータ)51d、及び、制御部34dに設けられたクロック供給部(図示せず)からクロックCKが供給され、比較器51dの出力信号に基づいて動作するカウンタ部52d、を有する。尚、AD変換器50dに接続されたクロック供給部は、信号処理部31d又は低耐圧トランジスタ系回路に含まれており(より具体的には、制御部34dに含まれており)、周知のPLL回路から構成されている。そして、少なくともカウンタ部52dの一部及びクロック供給部は、空乏型電界効果トランジスタから構成されている。
 すなわち、第1半導体チップ20dに設けられたセンサ部21d(センサ40d)及び行選択部25dは、更には、後述する列選択部27は、高耐圧トランジスタ系回路に該当する。また、第2半導体チップ30dに設けられた信号処理部31dにおけるAD変換器50dを構成する比較器51d、ランプ電圧生成器(参照電圧生成部)54d、電流源35d、デコーダ36d、及び、インターフェース(IF)部38bは、高耐圧トランジスタ系回路に該当する。一方、第2半導体チップ30dに設けられた信号処理部31dにおけるAD変換器50dを構成するカウンタ部52d、データラッチ部55d、パラレル-シリアル変換部56、メモリ部32d、データ処理部33d(画像信号処理部を含む)、制御部34d(AD変換器50dに接続されたクロック供給部やタイミング制御回路を含む)、及び、行デコーダ37dは、更には、後述するマルチプレクサ(MUX)57やデータ圧縮部58は、低耐圧トランジスタ系回路に該当する。そして、カウンタ部52dの全て、及び、制御部34dに含まれるクロック供給部は、空乏型電界効果トランジスタから構成されている。
 第1半導体チップ20dと第2半導体チップ30dの積層構造を得るためには、先ず、周知の方法に基づき、第1半導体チップ20dを構成する第1シリコン半導体基板及び第2半導体チップ30dを構成する第2シリコン半導体基板に、上述した所定の種々の回路を形成する。そして、第1シリコン半導体基板及び第2シリコン半導体基板を周知の方法に基づき貼り合わせる。次に、第1シリコン半導体基板側に形成された配線から第2シリコン半導体基板に形成された配線に至る貫通孔を形成し、貫通孔を導電材料で埋めることで、TC(S)Vを形成する。その後、所望に応じてセンサ40dにカラーフィルタ及びマイクロレンズを形成した後、第1シリコン半導体基板と第2シリコン半導体基板の貼合せ構造をダイシングすることによって、第1半導体チップ20dと第2半導体チップ30dとが積層された電子デバイス10Adを得ることができる。
 センサ40dは、具体的にはイメージセンサ、より具体的には周知の構成、構造を有するCMOSイメージセンサから成り、電子デバイス10Adは固体撮像装置から成る。固体撮像装置にあっては、センサ40dからの信号(アナログ信号)を、1つのセンサを単位として、あるいは又、複数のセンサを単位として、あるいは又、1つあるいは複数の行(ライン)を単位としたセンサ群毎に読み出すことが可能なXYアドレス型の固体撮像装置である。そして、センサ部21dにあっては、行列状のセンサ配列に対してセンサ行毎に制御線(行制御線)が配線され、センサ列毎に信号線(列信号線/垂直信号線)26が配線されている。信号線26dの各々には電流源35dが接続された構成とすることができる。そして、この信号線26dを介して、センサ部21dのセンサ40dから信号(アナログ信号)が読み出される。この読み出しについては、例えば、1つのセンサ又は1ライン(1行)のセンサ群を単位として露光を行うローリングシャッタの下で行う構成とすることができる。このローリングシャッタ下での読み出しを、「ローリング読み出し」と呼ぶ場合がある。
 第1半導体チップ20dの周縁部には、外部との電気的接続を行うためのパッド部221,222や、第2半導体チップ30dとの間での電気的接続を行うためのTC(S)V構造を有するビア部231,232が設けられている。尚、図面では、ビア部を「VIA」と表記する場合がある。ここでは、センサ部21dを挟んで左右両側にパッド部221及びパッド部222を設ける構成としたが、左右の一方側に設ける構成とすることも可能である。また、センサ部21dを挟んで上下両側にビア部231及びビア部232を設ける構成としたが、上下の一方側に設ける構成とすることも可能である。また、下側の第2半導体チップ30dにボンディングパッド部を設けて第1半導体チップ20dに開口部を設け、第2半導体チップ30dに設けられたボンディングパッド部に、第1半導体チップ20dに設けられた開口部を介してワイヤボンディングする構成や、第2半導体チップ30dからTC(S)V構造を用いて基板実装する構成とすることも可能である。あるいは又、第1半導体チップ20dにおける回路と第2半導体チップ30dにおける回路との間の電気的接続を、チップ・オン・チップ方式に基づきバンプを介して行うこともできる。センサ部21dの各センサ40dから得られるアナログ信号は、第1半導体チップ20dから第2半導体チップ30dに、ビア部231,232を介して伝送される。尚、本明細書において、「左側」、「右側」、「上側」、「下側」「上下」「上下方向」、「左右」、「左右方向」という概念は、図面を眺めたときの相対的な位置関係を表す概念である。以下においても同様である。
 第1半導体チップ20d側の回路構成について図2を用いて説明する。第1半導体チップ20d側には、センサ40dが行列状に配置されて成るセンサ部21dの他に、第2半導体チップ30d側から与えられるアドレス信号を基に、センサ部21dの各センサ40dを行単位で選択する行選択部25dが設けられている。尚、ここでは、行選択部25dを第1半導体チップ20d側に設けたが、第2半導体チップ30d側に設けることも可能である。
 図25に示されるように、センサ40dは、光電変換素子として例えばフォトダイオード41dを有している。センサ40dは、フォトダイオード41dに加えて、例えば、転送トランジスタ(転送ゲート)42、リセットトランジスタ43d、増幅トランジスタ44d、及び、選択トランジスタ45dの4つのトランジスタを有している。4つのトランジスタ42d,43d,44d,45dとして、例えばNチャネル型トランジスタを用いる。但し、ここで例示した転送トランジスタ42d、リセットトランジスタ43d、増幅トランジスタ44d、及び、選択トランジスタ45dの導電型の組み合わせは一例に過ぎず、これらの組合せに限られるものではない。即ち、必要に応じて、Pチャネル型のトランジスタを用いる組合せとすることができる。また、これらのトランジスタ42d,43d,44d,45dは、高耐圧MOSトランジスタから構成されている。即ち、センサ部21dは、前述したとおり、全体として、高耐圧トランジスタ系回路である。
 センサ40dに対して、センサ40dを駆動する駆動信号である転送信号TRG、リセット信号RST、及び、選択信号SELが行選択部25dから適宜与えられる。即ち、転送信号TRGが転送トランジスタ42dのゲート電極に印加され、リセット信号RSTがリセットトランジスタ43dのゲート電極に印加され、選択信号SELが選択トランジスタ45dのゲート電極に印加される。
 フォトダイオード41dは、アノード電極が低電位側電源(例えば、グランド)に接続されており、受光した光(入射光)をその光量に応じた電荷量の光電荷(ここでは、光電子)に光電変換して、光電荷を蓄積する。フォトダイオード41dのカソード電極は、転送トランジスタ42dを介して増幅トランジスタ44dのゲート電極と電気的に接続されている。増幅トランジスタ44dのゲート電極と電気的に繋がったノード46をFD部(フローティングディフュージョン/浮遊拡散領域部)と呼ぶ。
 転送トランジスタ42dは、フォトダイオード41dのカソード電極とFD部46dとの間に接続されている。転送トランジスタ42dのゲート電極には、高レベル(例えば、VDDレベル)がアクティブ(以下、『Highアクティブ』と記述する)の転送信号TRGが行選択部25dから与えられる。この転送信号TRGに応答して、転送トランジスタ42dが導通状態となり、フォトダイオード41dで光電変換された光電荷がFD部46dに転送される。リセットトランジスタ43dのドレイン領域はセンサ電源VDDに接続されており、ソース領域はFD部46dに接続されている。リセットトランジスタ43dのゲート電極には、Highアクティブのリセット信号RSTが行選択部25dから与えられる。このリセット信号RSTに応答して、リセットトランジスタ43dが導通状態となり、FD部46dの電荷をセンサ電源VDDに捨てることによってFD部46dがリセットされる。増幅トランジスタ44dのゲート電極はFD部46dに接続されており、ドレイン領域はセンサ電源VDDに接続されている。そして、増幅トランジスタ44dは、リセットトランジスタ43dによってリセットされた後のFD部46dの電位をリセット信号(リセットレベル:VReset)として出力する。増幅トランジスタ44dは、更に、転送トランジスタ42dによって信号電荷が転送された後のFD部46dの電位を光蓄積信号(信号レベル)VSigとして出力する。選択トランジスタ45dの例えばドレイン領域は増幅トランジスタ44dのソース領域に接続されており、ソース領域は信号線26dに接続されている。選択トランジスタ45dのゲート電極には、Highアクティブの選択信号SELが行選択部25dから与えられる。この選択信号SELに応答して、選択トランジスタ45dが導通状態となり、センサ40dが選択状態となり、増幅トランジスタ44dから出力される信号レベルVSigの信号(アナログ信号)が信号線26dに送り出される。
 このように、センサ40dからは、リセット後のFD部46dの電位がリセットレベルVResetとして、次いで、信号電荷の転送後のFD部46dの電位が信号レベルVSigとして、順に信号線26dに読み出される。信号レベルVSigには、リセットレベルVResetの成分も含まれる。尚、選択トランジスタ45dについて、増幅トランジスタ44dのソース領域と信号線26dとの間に接続する回路構成としたが、センサ電源VDDと増幅トランジスタ44dのドレイン領域との間に接続する回路構成とすることも可能である。
 また、センサ40dとしては、このような4つのトランジスタから成る構成に限られるものではない。例えば、増幅トランジスタ44dに選択トランジスタ45dの機能を持たせた3つのトランジスタから成る構成や、複数の光電変換素子間(センサ間)で、FD部46d以降のトランジスタを共用する構成等とすることもでき、回路の構成は問わない。
 図24及び図25に示し、前述したように、電子デバイス10Adにあっては、第2半導体チップ30dには、メモリ部32d、データ処理部33d、制御部34d、電流源35d、デコーダ36d、行デコーダ37d、及び、インターフェース(IF)部38b等が設けられており、また、センサ部21dの各センサ40dを駆動するセンサ駆動部(図示せず)が設けられている。信号処理部31dにあっては、センサ部21dの各センサ40dからセンサ行毎に読み出されたアナログ信号に対して、センサ列単位で並列(列並列)にデジタル化(AD変換)を含む所定の信号処理を行う構成とすることができる。そして、信号処理部31dは、センサ部21dの各センサ40dから信号線26dに読み出されたアナログ信号をデジタル化するAD変換器50dを有しており、AD変換された画像データ(デジタルデータ)をメモリ部32dに転送する。メモリ部32dは、信号処理部31dにおいて所定の信号処理が施された画像データを格納する。メモリ部32dは、不揮発性メモリから構成されていてもよいし、揮発性メモリから構成されていてもよい。データ処理部33dは、メモリ部32dに格納された画像データを所定の順番に読み出し、種々の処理を行い、チップ外に出力する。制御部34dは、例えばチップ外から与えられる水平同期信号XHS、垂直同期信号XVS、及び、マスタークロックMCK等の基準信号に基づいて、センサ駆動部や、メモリ部32d、データ処理部33d等の信号処理部31dの各動作の制御を行う。このとき、制御部34dは、第1半導体チップ20d側の回路(行選択部25dやセンサ部21d)と、第2半導体チップ30d側の信号処理部31d(メモリ部32d、データ処理部33d等)との同期を取りつつ、制御を行う。
 電流源35dには、センサ部21dの各センサ40dからセンサ列毎にアナログ信号が読み出される信号線26dの各々が接続されている。電流源35dは、例えば、信号線26dに或る一定の電流を供給するように、ゲート電位が一定電位にバイアスされたMOSトランジスタから成る、所謂、負荷MOS回路構成を有する。この負荷MOS回路から成る電流源35dは、選択された行に含まれるセンサ40dの増幅トランジスタ44dに定電流を供給することにより、増幅トランジスタ44dをソースフォロアとして動作させる。デコーダ36dは、制御部34dの制御下、センサ部21dの各センサ40dを行単位で選択する際に、その選択行のアドレスを指定するアドレス信号を行選択部25dに対して与える。行デコーダ37dは、制御部34dの制御下、メモリ部32dに画像データを書き込んだり、メモリ部32dから画像データを読み出したりする際の行アドレスを指定する。
 信号処理部31dは、前述したとおり、少なくとも、センサ部21dの各センサ40dから信号線26dを通して読み出されるアナログ信号をデジタル化(AD変換)するAD変換器50dを有しており、アナログ信号に対してセンサ列の単位で並列に信号処理(列並列AD)を行う。信号処理部31dは、更に、AD変換器50dでのAD変換の際に用いる参照電圧Vrefを生成するランプ電圧生成器(参照電圧生成部)54dを有する。参
照電圧生成部54dは、時間が経過するにつれて電圧値が階段状に変化する、所謂、ランプ(RAMP)波形(傾斜状の波形)の参照電圧Vrefを生成する。参照電圧生成部54dは、例えば、DA変換器(デジタル-アナログ変換器)を用いて構成することができるが、これに限定するものではない。
 AD変換器50dは、例えば、センサ部21dのセンサ列毎に、即ち、信号線26d毎に設けられている。即ち、AD変換器50dは、センサ部21dのセンサ列の数だけ配置されて成る、所謂、列並列AD変換器である。そして、AD変換器50dは、例えば、アナログ信号のレベルの大きさに対応した時間軸方向に大きさ(パルス幅)を有するパルス信号を生成し、このパルス信号のパルス幅の期間の長さを計測することによってAD変換処理を行う。より具体的には、図2に示すように、AD変換器50dは、比較器(COMP)51d及びカウンタ部52dを少なくとも有する。比較器51dは、センサ部21dの各センサ40dから信号線26dを介して読み出されるアナログ信号(前述した信号レベルVSig及びリセットレベルVReset)を比較入力とし、参照電圧生成部54dから供給されるランプ波形の参照電圧Vrefを基準入力とし、両入力を比較する。ランプ波形は、時間が経過するにつれて、電圧が傾斜状(階段状)に変化する波形である。そして、比較器51dの出力は、例えば、参照電圧Vrefがアナログ信号よりも大きくなるとき、第1の状態(例えば、高レベル)となる。一方、参照電圧Vrefがアナログ信号以下のとき、出力は第2の状態(例えば、低レベル)となる。比較器51dの出力信号が、アナログ信号のレベルの大きさに対応したパルス幅を有するパルス信号となる。
 カウンタ部52dとして、例えば、アップ/ダウンカウンタが用いられる。カウンタ部52dには、比較器51dに対する参照電圧Vrefの供給開始タイミングと同じタイミングでクロックCKが与えられる。アップ/ダウンカウンタであるカウンタ部52dは、クロックCKに同期してダウン(DOWN)カウント、又は、アップ(UP)カウントを行うことで、比較器51dの出力パルスのパルス幅の期間、即ち、比較動作の開始から比較動作の終了までの比較期間を計測する。この計測動作の際、カウンタ部52dは、センサ40dから順に読み出されるリセットレベルVReset及び信号レベルVSigに関して、リセットレベルVResetに対してはダウンカウントを行い、信号レベルVSigに対してはアップカウントを行う。そして、このダウンカウント/アップカウントの動作により、信号レベルVSigとリセットレベルVResetとの差分をとることができる。その結果、AD変換器50dでは、AD変換処理に加えてCDS(Correlated Double Sampling:相関二重サンプリング)処理が行われる。ここで、「CDS処理」とは、信号レベルVSigとリセットレベルVResetとの差分を取ることにより、センサ40dのリセットノイズや増幅トランジスタ44dの閾値ばらつき等のセンサ固有の固定パターンノイズを除去する処理である。そして、カウンタ部52dのカウント結果(カウント値)が、アナログ信号をデジタル化したデジタル値(画像データ)となる。
 このように、第1半導体チップ20dと第2半導体チップ30dとが積層されて成る固体撮像装置である電子デバイス10Adは、第1半導体チップ20dとしてセンサ部21dを形成できるだけの大きさ(面積)のものでよいため、第1半導体チップ20dのサイズ(面積)、ひいては、チップ全体のサイズを小さくすることができる。更に、第1半導体チップ20dにはセンサ40dの製造に適したプロセスを、第2半導体チップ30dには各種回路の製造に適したプロセスを、それぞれ適用することができるため、電子デバイス10Adの製造に当たって、プロセスの最適化を図ることができる。また、第1半導体チップ20d側からアナログ信号を第2半導体チップ30d側へ伝送する一方、アナログ・デジタル処理を行う回路部分を同一基板(第2半導体チップ30d)内に設け、第1半導体チップ20d側の回路と第2半導体チップ30d側の回路との同期を取りつつ制御する構成とすることで、高速処理を実現することができる。
 以下に、本技術に係る実施の形態(第1の実施形態~第4の実施形態)の固体撮像装置について、具体的、かつ、詳細に説明をする。
<2.第1の実施形態(固体撮像装置の例1)>
 本技術に係る第1の実施形態(固体撮像装置の例1)の固体撮像装置は、光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、画素アレイ部より外側の外周部に形成されて、画素アレイ部の上方に延在するリブと、画素アレイ部より外側の外周部に少なくとも配されて、さらに、リブの下方に配される遮光材と、遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置である。本技術に係る第1の実施形態の固体撮像装置においては、低反射材は、光の反射を抑制することができる材料であればよい。例えば、光を吸収する材料、反射防止材が挙げられ、具体的には、青色光を透過するブルーフィルタ、緑色光を透過するグリーンフィルタ、赤色光を透過するレッドフィルタなどのカラーフィルタ、ブラックフィルタなどの有機膜が挙げられる。低反射材にカラーフィルタを用いる場合は、画素アレイ部のオンチップカラーフィルタを形成する工程で同時に形成することが可能になるため、プロセス工程を増やすことなく本実施形態を形成することができる。特に、ブルーフィルタであれば、透過する波長が短波長のため、ブルーフィルタを透過した光が遮光材で反射してしまうことをさらに抑制することができる。また、ブラックフィルタであれば、広波長帯域の光を吸収できるため、透過する光が少なく遮光材での反射を抑制することができるため好ましい。低反射材は、リブの下方に形成されてもよいし、側方に形成されてもよいし、リブの下方と側方とに形成れてもよい。
 以下に、図1~図2、図10及び図12を用いて、本技術に係る第1の実施形態の固体撮像装置について説明をする。
 図1は、本技術に係る第1の実施形態の固体撮像装置100の構成例を示す断面図である。図1(a)は、固体撮像装置100がリブ1を介してガラス基板13と接合された状態を示す断面図である。図1(b)は、図1(a)に示されるP部分を拡大して示した拡大断面図である。図2は、本技術に係る第1の実施形態の固体撮像装置100-1の構成例を示す断面図である。図10は、反射フレアの防止の効果をより高めるために、低反射材7の幅を自由に変更することができることを説明するための図である。図12は、本技術に係る第1の実施形態の固体撮像装置100-1の構成例を示す図であり、図12(a)は、第1の実施形態の固体撮像装置の平面レイアウト図であり、図12(b)は、図12(a)に示されるQ1部分を拡大した拡大平面図であり、図12(c)は、低反射材7とリブ1との配置関係を説明するための断面図である。
 図1(a)に示されるように、固体撮像装置100は、リブ1を介してガラス基板13と接合されている。リブ1を構成する材料は、例えば、エポキシ樹脂である。
 図1(b)に示されるように、低反射材7は、遮光材6(例えば、タングステン)の一部を覆い、リブ1際に入射した光が遮光材6で反射されることを軽減して、反射フレアの防止を図っている。リブ1は、画素アレイ部200の外側であって、画素アレイ部200の上方に延在して形成される。
 低反射材7は、画素アレイ部が備えるブルーフィルタ11を左方向(図1(b)中の左方向)に、画素アレイ部の領域外へ延長させて、リブ1の下方(図1(中)下側)のリブ際まで延在させるようにして形成されている。遮光材6の上側(図1(b)中の上側)には第1酸化膜5が配され、第1酸化膜5の上側(図1(b)中の上側)の左部分(図1(b)中左側の部分であってリブ1に向かう方向)には第2酸化膜12が配されている。図1(b)では、低反射材7の上側(図1(b)中の上側)には第1有機材2が形成されて、第1有機材2の上側(図1(b)中の上側)には第2酸化膜12が配されている。また、低反射材7の下側(図1(b)中の下側)には第2有機材3が形成され、第2有機材3の下方(図1(b)中の下側)には、フォトダイオード(不図示)が形成されている半導体基板4が配されている。
 そして、特に技術的な矛盾がない限り、図1として説明した固体撮像装置100には、低反射材7の代わりに、後述する低反射8、9及び10並びに500が、用いられてよい。
 図2を用いて説明をする。固体撮像装置100-1は、画素アレイ部(画素アレイ部領域外の第1有機材2)の上方(図2の上側であり、光入射側)に延在するリブ1と、リブ1の下方(図2の下側)に配される遮光材6(例えばタングステン)と、遮光材6の少なくとも一部を覆うように形成される低反射材7と、を備えている。低反射材7は、例えば、ブルーフィルタであり、リブの下方(図2の下側)と左側方(図2の左側)とに形成されている。
 図2に示されるように、リブ1際に光が入射したとしても低反射材7により、光の反射を防止することができる。
 図10は、上述したとおり、光の反射を防止して、反射フレアの防止効果をより高めるために、低反射材7の幅を自由に変更することができることを説明するための図である。図10に示されるように、低反射材7は、矢印d1方向に、低反射材7の幅を変更することにより、低反射材7は、リブ1の左側方に形成されてもよいし、リブ1の下方に形成されてもよいし、リブ1の左側方及び下方の両方に形成されてもよい。
 低反射材7の幅(d1)を自由に変更することにより、低反射材7は、反射フレアの防止効果をより高めることができる。
 図12を用いて説明をする。図12(a)に示される領域1-1は、画素アレイ部200より外側の外周部に形成される領域であり、リブ1と遮光材6とから少なくとも構成されている。そして、領域1-1の外側の外周部にはリブ1のみが形成されている。したがって、図13(a)に示される固体撮像装置100-1は、画素アレイ部200と、画素アレイ部200より外側の外周部に形成されるリブ1と遮光材6とを少なくとも備えて構成されている。
 図12(b)及び(c)に示されるように、矢印R2まで、低反射材(ブルーフィルタ)7は延長して形成されている。そして、低反射材7の形成されている領域(矢印R2)の一部と、リブ1が形成されている領域(矢印R1)の一部とは重なり、その重なった分は、低反射材7はリブ1の下方に潜り込んで形成されていることに相当する。この低反射材7の形成により、反射フレアの防止効果が有効に奏される。
 本技術に係る第1の実施形態の固体撮像装置は、上記で述べた内容の他に、特に技術的な矛盾がない限り、後述する本技術に係る第2~第5の実施形態の固体撮像装置の欄で述べる内容がそのまま適用され得る。
<3.第2の実施形態(固体撮像装置の例2)>
 本技術に係る第2の実施形態(固体撮像装置の例2)の固体撮像装置は、光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、画素アレイ部より外側の外周部に形成されて、画素アレイ部の上方に延在するリブと、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、さらに、リブの下方に配される遮光材と、遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置である。本技術に係る第2の実施形態の固体撮像装置においては、低反射材は、光の反射を抑制することができる材料であればよい。例えば、光を吸収する材料、反射防止材が挙げられ、具体的には、青色光を透過するブルーフィルタ、緑色光を透過するグリーンフィルタ、赤色光を透過するレッドフィルタなどのカラーフィルタ、ブラックフィルタなどの有機膜が挙げられる。本技術に係る第2の実施形態の固体撮像装置が備える低反射材は、有機材(例えばレンズ材)上に成膜されて形成される。ブルーフィルタであれば、透過する波長が短波長のため、ブルーフィルタを透過した光が遮光材で反射してしまうことをさらに抑制することができる。また、ブラックフィルタであれば、広波長帯域の光を吸収できるため、透過する光が少なく遮光材での反射を抑制することができるため好ましい。低反射材は、リブの下方に形成されてもよいし、側方に形成されてもよいし、リブの下方と側方とに形成れてもよい。
 以下に、図3、図7及び図13を用いて、本技術に係る第2の実施形態の固体撮像装置について説明をする。
 図3は、本技術に係る第2の実施形態の固体撮像装置100-2の構成例を示す断面図である。図7は、反射フレアの防止の効果をより高めるために、低反射材8の幅及び高さを自由に変更することができることを説明するための図である。図13は、本技術に係る第2の実施形態の固体撮像装置100-2の構成例を示す図であり、図13(a)は、第2の実施形態の固体撮像装置の平面レイアウト図であり、図13(b)は、図13(a)に示されるQ2部分を拡大した拡大平面図であり、図13(c)は、低反射材8とリブ1と画素アレイ部200(レンズ領域)との配置関係を説明するための断面図である。
 図3を用いて説明をする。固体撮像装置100-2は、画素アレイ部(画素アレイ部領域外の第1有機材2)の上方(図3の上側であり、光入射側)に延在するリブ1と、リブ1の下方(図3の下側)に配される遮光材6(例えばタングステン)と、遮光材6の少なくとも一部を覆うように形成される低反射材8と、を備えている。低反射材8は、例えば、ブラックフィルタであり、リブの下方(図3の下側)と左側方(図3の左側)とに形成されて、第1有機材2(画素アレイ部内の第1有機材2はレンズ材とも言う。)に積層されるように形成される。
 図3に示されるように、リブ際1に光が入射したとしても低反射材8により、光の反射を防止することができる。
 図7は、上述したとおり、光の反射を防止して、反射フレアの防止効果をより高めるために、低反射材8の幅及び高さを自由に変更することができることを説明するための図である。図7に示されるように、低反射材8は、矢印d2方向に、低反射材8の幅を変更することにより、低反射材8は、リブ1の左側方に形成されてもよいし、リブ1の左側方及び下方の両方に形成されてもよい(図7(b)(低反射材8-1)→図7(e)(低反射材8-4)→図7(h)(低反射材8-7)、図7(c)(低反射材8-2)→図7(f)(低反射材8-5)→図7(i)(低反射材8-8)又は図7(d)(低反射材8-3)→図7(g)(低反射材8-6)→図7(j)(低反射材8-9))。
 また、低反射材8は、矢印h2方向に、すなわち、図7(b)(低反射材8-1)→図7(c)(低反射材8-2)→図7(d)(低反射材8-3)、図7(e)(低反射材8-4)→図7(f)(低反射材8-5)→図7(g)(低反射材8-6)又は図7(h)(低反射材8-7)→図7(i)(低反射材8-8)→図7(j)(低反射材8-9)で示されるように、低反射材8の高さを変更することができる。
 低反射材8の幅(d2)及び/又は高さ(h2)を自由に変更することにより、低反射材8は、反射フレアの防止効果をより高めることができる。
 図13を用いて説明をする。図13(a)に示される領域1-1は、画素アレイ部200より外側の外周部に形成される領域であり、リブ1と遮光材6とから少なくとも構成されている。そして、領域1-1の外側の外周部にはリブ1のみが形成されている。したがって、図13(a)に示される固体撮像装置100-2は、画素アレイ部200と、画素アレイ部200より外側の外周部に形成されるリブ1と遮光材6とを少なくとも備えて構成されている。
 図13(b)及び(c)に示されるように、矢印S2まで、低反射材(ブラックフィルタ)8は形成されている。そして、低反射材8が形成されている領域(矢印S2)の一部と、リブ1が形成されている領域(矢印S1)の一部とは重なり、その重なった分は、低反射材8はリブ1の下方に潜り込んで形成されていることに相当している。また、低反射材8が形成されている領域(矢印S2)の一部と画素アレイ部(レンズ領域)200の一部とは重なり(被り領域S3)、低反射材8は、画素アレイ部(レンズ領域)200の一部にも形成されている。この低反射材8の形成により、反射フレアの防止効果が有効に奏される。
 本技術に係る第2の実施形態の固体撮像装置は、上記で述べた内容の他に、特に技術的な矛盾がない限り、上記で述べた本技術に係る第1の実施形態の固体撮像装置の欄で述べた内容及び下記で述べる本技術に係る第3~第5の実施形態の固体撮像装置の欄で述べる内容がそのまま適用され得る。
<4.第3の実施形態(固体撮像装置の例3)>
 本技術に係る第3の実施形態(固体撮像装置の例3)の固体撮像装置は、光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、画素アレイ部より外側の外周部に形成されて、画素アレイ部の上方に延在するリブと、画素アレイ部より外側の外周部に少なくとも配されて、さらに、リブの下方に配される遮光材と、遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置である。本技術に係る第3の実施形態の固体撮像装置においては、低反射材は、光の反射を抑制することができる材料であればよい。例えば、光を吸収する材料、反射防止材が挙げられ、具体的には、青色光を透過するブルーフィルタ、緑色光を透過するグリーンフィルタ、赤色光を透過するレッドフィルタなどのカラーフィルタ、ブラックフィルタなどの有機膜が挙げられる。低反射材にカラーフィルタを用いる場合は、画素アレイ部のオンチップカラーフィルタを形成する工程で同時に形成することが可能になるため、プロセス工程を増やすことなく本実施形態を形成することができる。特に、ブルーフィルタであれば、透過する波長が短波長のため、ブルーフィルタを透過した光が遮光材で反射してしまうことをさらに抑制することができる。また、ブラックフィルタであれば、広波長帯域の光を吸収できるため、透過する光が少なく遮光材での反射を抑制することができるため好ましい。低反射材は、リブの下方に形成されてもよいし、側方に形成されてもよいし、リブの下方と側方とに形成れてもよい。
 以下に、図4、図11及び図14を用いて、本技術に係る第3の実施形態の固体撮像装置について説明をする。
 図4は、本技術に係る第3の実施形態の固体撮像装置100-3の構成例を示す断面図である。図11は、反射フレアの防止の効果をより高めるために、低反射材9の幅を自由に変更することができることを説明するための図である。図14は、本技術に係る第3の実施形態の固体撮像装置100-3の構成例を示す図であり、図14(a)は、第3の実施形態の固体撮像装置の平面レイアウト図であり、図14(b)は、図14(a)に示されるQ3部分を拡大した拡大平面図であり、図14(c)は、低反射材9とリブ1との配置関係を説明するための断面図である。
 図4を用いて説明をする。固体撮像装置100-3は、画素アレイ部(画素アレイ部領域外の第1有機材2)の上方(図4の上側であり、光入射側)に延在するリブ1と、リブ1の下方(図4の下側)に配される遮光材6(例えばタングステン)と、遮光材6の少なくとも一部を覆うように形成される低反射材9と、を備えている。低反射材9は、例えば、ブラックフィルタであり、リブの下方(図4の下側)と左側方(図4の左側)とに形成されている。
 図4に示されるように、リブ1際に光が入射したとしても低反射材9により、光の反射を防止することができる。
 図11は、上述したとおり、光の反射を防止して、反射フレアの防止効果をより高めるために、低反射材9の幅を自由に変更することができることを説明するための図である。図11に示されるように、低反射材9は、矢印d3方向に、低反射材9の幅を変更することにより、低反射材9は、リブ1の左側方に形成されてもよいし、リブ1の下方に形成されてもよいし、リブ1の左側方及び下方の両方に形成されてもよい。
 低反射材9の幅(d3)を自由に変更することにより、低反射材9は、反射フレアの防止効果をより高めることができる。
 図14を用いて説明をする。図14(a)に示される領域1-1は、画素アレイ部200より外側の外周部に形成される領域であり、リブ1と遮光材6とから少なくとも構成されている。そして、領域1-1の外側の外周部にはリブ1のみが形成されている。したがって、図14(a)に示される固体撮像装置100-3は、画素アレイ部200と、画素アレイ部200より外側の外周部に形成されるリブ1と遮光材6とを少なくとも備えて構成されている。
 図13(b)及び(c)に示されるように、矢印T2まで、低反射材(ブラックフィルタ)9は延長して形成されている。そして、低反射材9の形成されている領域(矢印T2)の一部と、リブ1が形成されている領域(矢印T1)の一部とは重なり、その重なった分は、低反射材9はリブ1の下方に潜り込んで形成されていることに相当する。この低反射材9の形成により、反射フレアの防止効果が有効に奏される。
 本技術に係る第3の実施形態の固体撮像装置は、上記で述べた内容の他に、特に技術的な矛盾がない限り、上記で述べた本技術に係る第1~第2の実施形態の固体撮像装置の欄で述べた内容及び下記で述べる本技術に係る第4~第5の実施形態の固体撮像装置の欄で述べる内容がそのまま適用され得る。
<5.第4の実施形態(固体撮像装置の例4)>
 本技術に係る第4の実施形態(固体撮像装置の例4)の固体撮像装置は、光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、画素アレイ部より外側の外周部に形成されて、画素アレイ部の上方に延在するリブと、画素アレイ部より外側の外周部に少なくとも配されて、さらに、リブの下方に配される遮光材と、遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置である。本技術に係る第4の実施形態の固体撮像装置においては、低反射材は、光の反射を抑制することができる材料であればよい。例えば、光を吸収する材料、反射防止材が挙げられ、具体的には、青色光を透過するブルーフィルタ、緑色光を透過するグリーンフィルタ、赤色光を透過するレッドフィルタなどのカラーフィルタ、ブラックフィルタなどの有機膜が挙げられる。低反射材にカラーフィルタを用いる場合は、画素アレイ部のオンチップカラーフィルタを形成する工程で同時に形成することが可能になるため、プロセス工程を増やすことなく本実施形態を形成することができる。特に、ブルーフィルタであれば、透過する波長が短波長のため、ブルーフィルタを透過した光が遮光材で反射してしまうことをさらに抑制することができる。また、ブラックフィルタであれば、広波長帯域の光を吸収できるため、透過する光が少なく遮光材での反射を抑制することができるため好ましい。低反射材は、リブの下方に形成されてもよいし、側方に形成されてもよいし、リブの下方と側方とに形成れてもよい。
 以下に、図5、図8及び図15を用いて、本技術に係る第4の実施形態の固体撮像装置について説明をする。
 図5は、本技術に係る第4の実施形態の固体撮像装置100-4の構成例を示す断面図である。図8は、反射フレアの防止の効果をより高めるために、低反射材10の幅及び高さを自由に変更することができることを説明するための図である。図15は、本技術に係る第3の実施形態の固体撮像装置100-4の構成例を示す図であり、図15(a)は、第4の実施形態の固体撮像装置の平面レイアウト図であり、図15(b)は、図15(a)に示されるQ4部分を拡大した拡大平面図であり、図15(c)は、低反射材10とリブ1との配置関係を説明するための断面図である。
 図5を用いて説明をする。固体撮像装置100-4は、画素アレイ部(画素アレイ部領域外の第1有機材2)の上方(図5の上側であり、光入射側)に延在するリブ1と、リブ1の下方(図5の下側)に配される遮光材6(例えばタングステン)と、遮光材6の少なくとも一部を覆うように形成される低反射材10と、を備えている。低反射材10は、例えば、ブラックフィルタであり、リブの下方(図3の下側)と左側方(図3の左側)とに形成されて、第1酸化膜5を介して遮光材6に積層されている。
 図5に示されるように、リブ際1に光が入射したとしても低反射材10により、光の反射を防止することができる。
 図8は、上述したとおり、光の反射を防止して、反射フレアの防止効果をより高めるために、低反射材10の幅及び高さを自由に変更することができることを説明するための図である。図8に示されるように、低反射材10は、矢印d4方向に、低反射材10の幅を変更することにより、低反射材10は、リブ1の左側方に形成されてもよいし、リブ1の左側方及び下方の両方に形成されてもよい(図8(b)(低反射材10-1)→図8(e)(低反射材10-4)→図8(h)(低反射材10-7)、図8(c)(低反射材10-2)→図8(f)(低反射材10-5)→図8(i)(低反射材10-8)又は図8(d)(低反射材10-3)→図8(g)(低反射材10-6)→図8(j)(低反射材10-9))。
 また、低反射材10は、矢印h4方向に、すなわち、図8(b)(低反射材10-1)→図8(c)(低反射材10-2)→図8(d)(低反射材10-3)、図8(e)(低反射材10-4)→図8(f)(低反射材10-5)→図8(g)(低反射材10-6)又は図8(h)(低反射材10-7)→図8(i)(低反射材10-8)→図8(j)(低反射材10-9)で示されるように、低反射材10の高さを変更することができる。
 低反射材10の幅(d4)及び/又は高さ(h4)を自由に変更することにより、低反射材10は、反射フレアの防止効果をより高めることができる。
 図15を用いて説明をする。図15(a)に示される領域1-1は、画素アレイ部200より外側の外周部に形成される領域であり、リブ1と遮光材6とから少なくとも構成されている。そして、領域1-1の外側の外周部にはリブ1のみが形成されている。したがって、図15(a)に示される固体撮像装置100-4は、画素アレイ部200と、画素アレイ部200より外側の外周部に形成されるリブ1と遮光材6とを少なくとも備えて構成されている。
 図15(b)及び(c)に示されるように、矢印W2の領域に、低反射材(ブラックフィルタ)10は形成されている。そして、低反射材10が形成されている領域(矢印W2)の一部と、リブ1が形成されている領域(矢印W1)の一部とは重なり、その重なった分は、低反射材10はリブ1の下方に潜り込んで形成されていることに相当している。この低反射材10の形成により、反射フレアの防止効果が有効に奏される。
 本技術に係る第4の実施形態の固体撮像装置は、上記で述べた内容の他に、特に技術的な矛盾がない限り、上記で述べた本技術に係る第1~第3の実施形態の固体撮像装置の欄で述べた内容及び下記で述べる本技術に係る第5の実施形態の固体撮像装置の欄で述べる内容がそのまま適用され得る。
<6.第5の実施形態(固体撮像装置の例5)>
 本技術に係る第5の実施形態(固体撮像装置の例5)の固体撮像装置は、光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、画素アレイ部より外側の外周部に形成されて、画素アレイ部の上方に延在するリブと、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、さらに、リブの下方に配される遮光材と、遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置である。本技術に係る第5の実施形態の固体撮像装置においては、低反射材は、光の反射を抑制することができる材料であればよい。例えば、光を吸収する材料、反射防止材が挙げられ、具体的には、青色光を透過するブルーフィルタ、緑色光を透過するグリーンフィルタ、赤色光を透過するレッドフィルタなどのカラーフィルタ、ブラックフィルタなどの有機膜が挙げられる。本技術に係る第5の実施形態の固体撮像装置が備える低反射材は、平坦化された有機材(例えばレンズ材)上に均一に成膜されて形成される。本技術に係る第5の実施形態の固体撮像装置が備える低反射材は、膜厚の均一性を担保することができる。低反射材にカラーフィルタを用いる場合は、画素アレイ部のオンチップカラーフィルタを形成する工程で同時に形成することが可能になるため、プロセス工程を増やすことなく本実施形態を形成することができる。特に、ブルーフィルタであれば、透過する波長が短波長のため、ブルーフィルタを透過した光が遮光材で反射してしまうことをさらに抑制することができる。また、ブラックフィルタであれば、広波長帯域の光を吸収できるため、透過する光が少なく遮光材での反射を抑制することができるため好ましい。低反射材は、リブの下方に形成されてもよいし、側方に形成されてもよいし、リブの下方と側方とに形成れてもよい。
 以下に、図6、図9及び図16を用いて、本技術に係る第5の実施形態の固体撮像装置について説明をする。
 図6は、本技術に係る第5の実施形態の固体撮像装置500の構成例を示す断面図である。図9は、反射フレアの防止の効果をより高めるために、低反射材500の幅及び高さを自由に変更することができることを説明するための図である。図16は、本技術に係る第5の実施形態の固体撮像装置100-5の構成例を示す図であり、図16(a)は、第5の実施形態の固体撮像装置の平面レイアウト図であり、図16(b)は、図16(a)に示されるQ5部分を拡大した拡大平面図であり、図16(c)は、低反射材500とリブ1と画素アレイ部200(レンズ領域)との配置関係を説明するための断面図である。
 図6を用いて説明をする。固体撮像装置100-5は、画素アレイ部(画素アレイ部領域外の第1有機材2)の上方(図6の上側であり、光入射側)に延在するリブ1と、リブ1の下方(図6の下側)に配される遮光材6(例えばタングステン)と、遮光材6の少なくとも一部を覆うように形成される低反射材500と、を備えている。低反射材500は、例えば、ブラックフィルタであり、リブの下方(図6の下側)と左側方(図6の左側)とに形成されて、平坦化された第1有機材2に、低反射材500の膜厚の均一性が担保されながら積層されるように形成されている。
 図6に示されるように、リブ際1に光が入射したとしても低反射材500により、光の反射を防止することができる。
 図9は、上述したとおり、光の反射を防止して、反射フレアの防止効果をより高めるために、低反射材500の幅及び高さを自由に変更することができることを説明するための図である。図9に示されるように、低反射材500は、矢印d5方向に、低反射材500の幅を変更することにより、低反射材500は、リブ1の左側方に形成されてもよいし、リブ1の左側方及び下方の両方に形成されてもよい(図9(b)(低反射材500-1)→図9(e)(低反射材500-4)→図9(h)(低反射材500-7)、図9(c)(低反射材500-2)→図9(f)(低反射材500-5)→図9(i)(低反射材500-8)又は図9(d)(低反射材500-2)→図9(g)(低反射材500-6)→図9(j)(低反射材500-9))。
 また、低反射材500は、矢印h5方向に、すなわち、図9(b)(低反射材500-1)→図9(c)(低反射材500-2)→図9(d)(低反射材500-3)、図9(e)(低反射材500-4)→図9(f)(低反射材500-5)→図9(g)(低反射材500-6)又は図9(h)(低反射材500-7)→図9(i)(低反射材500-8)→図9(j)(低反射材500-9)で示されるように、低反射材500の高さ(膜厚)を変更することができる。
 低反射材500の幅(d5)及び/又は高さ(h5)を自由に変更することにより、低反射材500は、反射フレアの防止効果をより高めることができる。
 図16を用いて説明をする。図16(a)に示される領域1-1は、画素アレイ部200より外側の外周部に形成される領域であり、リブ1と遮光材6とから少なくとも構成されている。そして、領域1-1の外側の外周部にはリブ1のみが形成されている。したがって、図16(a)に示される固体撮像装置100-5は、画素アレイ部200と、画素アレイ部200より外側の外周部に形成されるリブ1と遮光材6とを少なくとも備えて構成されている。
 図16(b)及び(c)に示されるように、矢印V2まで、低反射材(ブラックフィルタ)500は、略均一な膜厚を有して形成されている。そして、低反射材500が形成されている領域(矢印V2)の一部と、リブ1が形成されている領域(矢印V1)の一部とは重なり、その重なった分は、低反射材500はリブ1の下方に潜り込んで形成されていることに相当している。また、低反射材500が形成されている領域(矢印V2)と、レンズ材(第1有機材2)が形成されている領域(矢印V5)とは略一致している。低反射材500が形成されている領域(矢印V2)と画素アレイ部(レンズ領域)200(矢印V4)とは重なっていない。画素アレイ部(レンズ領域)200(矢印V4)とリブ1が形成されている領域(矢印V1)との間には被り領域(矢印V3)があり、被り領域(矢印V3)と、低反射材500が形成されている領域(矢印V2)の一部又はレンズ材(第1有機材2)が形成されている領域(矢印V5)の一部とは重なっている。この低反射材500の形成により、反射フレアの防止効果が有効に奏される。
 本技術に係る第5の実施形態の固体撮像装置は、上記で述べた内容の他に、特に技術的な矛盾がない限り、上記で述べた本技術に係る第1~第4の実施形態の固体撮像装置の欄で述べた内容がそのまま適用され得る
<7.第6の実施形態(電子機器の例)>
 本技術に係る第6の実施形態の電子機器は、本技術に係る第1の実施形態~第5の実施形態の固体撮像装置のいずれ1つの実施形態の固体撮像装置が搭載された電子機器である。以下に、本技術に係る第6の実施形態の電子機器について詳細に述べる。
 <8.本技術を適用した固体撮像装置の使用例>
 図26は、イメージセンサとしての本技術に係る第1~第5の実施形態の固体撮像装置の使用例を示す図である。
 上述した第1~第5の実施形態の固体撮像装置は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングするさまざまなケースに使用することができる。すなわち、図26に示すように、例えば、鑑賞の用に供される画像を撮影する鑑賞の分野、交通の分野、家電の分野、医療・ヘルスケアの分野、セキュリティの分野、美容の分野、スポーツの分野、農業の分野等において用いられる装置(例えば、上述した第6の実施形態の電子機器)に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 具体的には、鑑賞の分野においては、例えば、デジタルカメラやスマートフォン、カメラ機能付きの携帯電話機等の、鑑賞の用に供される画像を撮影するための装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 交通の分野においては、例えば、自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 家電の分野においては、例えば、ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、テレビ受像機や冷蔵庫、エアーコンディショナ等の家電に供される装置で、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 医療・ヘルスケアの分野においては、例えば、内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 セキュリティの分野においては、例えば、防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 美容の分野においては、例えば、肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 スポーツの分野において、例えば、スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 農業の分野においては、例えば、畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置に、第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置を使用することができる。
 第1~第5の実施形態のいずれか1つの実施形態の固体撮像装置は、例えば、デジタルスチルカメラやデジタルビデオカメラなどの撮像装置、撮像機能を備えた携帯電話機、または、撮像機能を備えた他の機器といった各種の電子機器に適用することができる。
 図27は、本技術を適用した電子機器としての撮像装置の構成例を示すブロック図である。
 図27に示される撮像装置201cは、光学系202c、シャッタ装置203c、固体撮像装置204c、駆動回路205c、信号処理回路206c、モニタ207c、およびメモリ208cを備えて構成され、静止画像および動画像を撮像可能である。
 光学系202cは、1枚または複数枚のレンズを有して構成され、被写体からの光(入射光)を固体撮像装置204cに導き、固体撮像装置204cの受光面に結像させる。
 シャッタ装置203cは、光学系202cおよび固体撮像装置204cの間に配置され、制御回路205cの制御に従って、固体撮像装置204cへの光照射期間および遮光期間を制御する。
 固体撮像装置204cは、光学系202cおよびシャッタ装置203cを介して受光面に結像される光に応じて、一定期間、信号電荷を蓄積する。固体撮像装置204cに蓄積された信号電荷は、制御回路205cから供給される駆動信号(タイミング信号)に従って転送される。
 制御回路205cは、固体撮像装置204cの転送動作、および、シャッタ装置203cのシャッタ動作を制御する駆動信号を出力して、固体撮像装置204cおよびシャッタ装置203cを駆動する。
 信号処理回路206cは、固体撮像装置204cから出力された信号電荷に対して各種の信号処理を施す。信号処理回路206cが信号処理を施すことにより得られた画像(画像データ)は、モニタ207cに供給されて表示されたり、メモリ208cに供給されて記憶(記録)されたりする。
<9.内視鏡手術システムへの応用例>
 本技術は、様々な製品へ応用することができる。例えば、本開示に係る技術(本技術)は、内視鏡手術システムに適用されてもよい。
 図28は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図28では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図29は、図28に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像装置(撮像素子)で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、内視鏡11100や、カメラヘッド11102(の撮像部11402)等に適用され得る。具体的には、本開示の固体撮像装置111は、撮像部10402に適用することができる。内視鏡11100や、カメラヘッド11102(の撮像部11402)等に本開示に係る技術を適用することにより、性能を向上させることができる。
 ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
<10.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図30は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図30に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図30の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図31は、撮像部12031の設置位置の例を示す図である。
 図31では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図31には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術(本技術)が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。具体的には、本開示の固体撮像装置111は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、性能を向上させることができる。
 なお、本技術は、上述した実施形態及び応用例に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
 また、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
 また、本技術は、以下のような構成も取ることができる。
[1]
 光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、
 該画素アレイ部より外側の外周部に形成されて、該画素アレイ部の上方に延在するリブと、
 該画素アレイ部より外側の外周部に少なくとも配されて、さらに、該リブの下方に配される遮光材と、
 該遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置。
[2]
 前記低反射材が前記リブの下方に形成される、[1]に記載の固体撮像装置。
[3]
 前記低反射材が前記リブの側方に形成される、[1]に記載の固体撮像装置。
[4]
 前記低反射材が前記リブの下方と前記リブの側方とに形成される、[1]に記載の固体撮像装置。
[5]
 前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、さらに、前記リブの下方に配されて、
 前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの下方と前記画素アレイ部の少なくとも一部とに形成される、[1]に記載の固体撮像装置。
[6]
 前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、さらに、前記リブの下方に配されて、
 前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの側方と前記画素アレイ部の少なくとも一部とに形成される、[1]に記載の固体撮像装置。
[7]
 前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、さらに、前記リブの下方に配されて、
 前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの下方と前記リブの側方と前記画素アレイ部の少なくとも一部とに形成される、[1]に記載の固体撮像装置。
[8]
 前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの下方に形成される、[1]に記載の固体撮像装置。
[9]
 前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの側方に形成される、[1]に記載の固体撮像装置。
[10]
 前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの下方と前記リブの側方とに形成される、[1]に記載の固体撮像装置。
[11]
 前記低反射材がブルーフィルタである、[1]から[10]のいずれか1つに記載の固体撮像装置。
[12]
 前記低反射材がブラックフィルタである、[1]から[10]のいずれか1つに記載の固体撮像装置。
[13]
 [1]から[12]のいずれか1つに記載の固体撮像装置が搭載された、電子機器。
 1・・・リブ、2・・・第1有機材、3・・・第2有機材、4・・・半導体基板、5・・・第1酸化膜、6・・・遮光材、7、8、9、10、500・・・低反射材、11・・・カラーフィルタ、12・・・第2酸化膜、100、100-1、100-2、100-3、100-4、101・・・固体撮像装置。

Claims (13)

  1.  光電変換を行う光電変換部を少なくとも有する画素が二次元状に配列された画素アレイ部と、
     該画素アレイ部より外側の外周部に形成されて、該画素アレイ部の上方に延在するリブと、
     該画素アレイ部より外側の外周部に少なくとも配されて、さらに、該リブの下方に配される遮光材と、
     該遮光材の少なくとも一部を覆うように形成される低反射材と、を備える、固体撮像装置。
  2.  前記低反射材が前記リブの下方に形成される、請求項1に記載の固体撮像装置。
  3.  前記低反射材が前記リブの側方に形成される、請求項1に記載の固体撮像装置。
  4.  前記低反射材が前記リブの下方と前記リブの側方とに形成される、請求項1に記載の固体撮像装置。
  5.  前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、前記リブの下方に配されて、
     前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの下方と前記画素アレイ部の少なくとも一部とに形成される、請求項1に記載の固体撮像装置。
  6.  前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、前記リブの下方に配されて、
     前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの側方と前記画素アレイ部の少なくとも一部とに形成される、請求項1に記載の固体撮像装置。
  7.  前記遮光材が、前記画素アレイ部より外側の外周部と前記画素アレイ部の少なくとも一部とに配されて、前記リブの下方に配されて、
     前記低反射材が、該遮光材の少なくとも一部を覆うように、前記リブの下方と前記リブの側方と前記画素アレイ部の少なくとも一部とに形成される、請求項1に記載の固体撮像装置。
  8.  前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの下方に形成される、請求項1に記載の固体撮像装置。
  9.  前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの側方に形成される、請求項1に記載の固体撮像装置。
  10.  前記低反射材が、少なくとも1種の酸化膜を介して前記遮光材と積層されて、前記リブの下方と前記リブの側方とに形成される、請求項1に記載の固体撮像装置。
  11.  前記低反射材がブルーフィルタである、請求項1に記載の固体撮像装置。
  12.  前記低反射材がブラックフィルタである、請求項1に記載の固体撮像装置。
  13.  請求項1に記載の固体撮像装置が搭載された、電子機器。
PCT/JP2019/051598 2018-12-28 2019-12-27 固体撮像装置及び電子機器 WO2020138488A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US17/309,792 US20220077212A1 (en) 2018-12-28 2019-12-27 Solid-state imaging device and electronic device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018-248447 2018-12-28
JP2018248447 2018-12-28

Publications (1)

Publication Number Publication Date
WO2020138488A1 true WO2020138488A1 (ja) 2020-07-02

Family

ID=71128265

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/051598 WO2020138488A1 (ja) 2018-12-28 2019-12-27 固体撮像装置及び電子機器

Country Status (3)

Country Link
US (1) US20220077212A1 (ja)
TW (1) TWI844608B (ja)
WO (1) WO2020138488A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20240010101A (ko) * 2017-03-22 2024-01-23 소니 세미컨덕터 솔루션즈 가부시키가이샤 촬상 장치 및 신호 처리 장치

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63177462A (ja) * 1987-01-17 1988-07-21 Oki Electric Ind Co Ltd イメ−ジセンサの製造方法
JPH02244761A (ja) * 1989-03-17 1990-09-28 Matsushita Electron Corp 固体撮像素子およびその製造方法
JP2002158345A (ja) * 2000-11-22 2002-05-31 Shimadzu Corp 固体撮像素子
JP2008210904A (ja) * 2007-02-26 2008-09-11 Matsushita Electric Ind Co Ltd 固体撮像装置とその製造方法
JP2010040621A (ja) * 2008-08-01 2010-02-18 Toshiba Corp 固体撮像デバイス及びその製造方法
JP2014217018A (ja) * 2013-04-30 2014-11-17 株式会社ニコン 撮像ユニットおよび撮像装置
JP2018200980A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 撮像装置および固体撮像素子、並びに電子機器

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7919827B2 (en) * 2005-03-11 2011-04-05 Taiwan Semiconductor Manufacturing Co., Ltd. Method and structure for reducing noise in CMOS image sensors
WO2013111419A1 (ja) * 2012-01-26 2013-08-01 シャープ株式会社 固体撮像装置
JP2015060909A (ja) * 2013-09-18 2015-03-30 オリンパス株式会社 半導体装置
US10388684B2 (en) * 2016-10-04 2019-08-20 Semiconductor Components Industries, Llc Image sensor packages formed using temporary protection layers and related methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63177462A (ja) * 1987-01-17 1988-07-21 Oki Electric Ind Co Ltd イメ−ジセンサの製造方法
JPH02244761A (ja) * 1989-03-17 1990-09-28 Matsushita Electron Corp 固体撮像素子およびその製造方法
JP2002158345A (ja) * 2000-11-22 2002-05-31 Shimadzu Corp 固体撮像素子
JP2008210904A (ja) * 2007-02-26 2008-09-11 Matsushita Electric Ind Co Ltd 固体撮像装置とその製造方法
JP2010040621A (ja) * 2008-08-01 2010-02-18 Toshiba Corp 固体撮像デバイス及びその製造方法
JP2014217018A (ja) * 2013-04-30 2014-11-17 株式会社ニコン 撮像ユニットおよび撮像装置
JP2018200980A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 撮像装置および固体撮像素子、並びに電子機器

Also Published As

Publication number Publication date
TWI844608B (zh) 2024-06-11
US20220077212A1 (en) 2022-03-10
TW202038478A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
JP7439214B2 (ja) 固体撮像素子および電子機器
US11600651B2 (en) Imaging element
US20190206917A1 (en) Solid-state imaging apparatus, method for manufacturing the same, and electronic device
JP7399105B2 (ja) 固体撮像素子および映像記録装置
CN115696074B (zh) 光检测装置
WO2020235234A1 (ja) 固体撮像装置及び電子機器
JP7438980B2 (ja) 固体撮像装置及び電子機器
TWI848008B (zh) 攝像元件及電子機器
WO2020241717A1 (ja) 固体撮像装置
JPWO2018180575A1 (ja) 固体撮像素子、電子機器、並びに製造方法
US20220278153A1 (en) Imaging device
WO2020138488A1 (ja) 固体撮像装置及び電子機器
US20230117904A1 (en) Sensor package, method of manufacturing the same, and imaging device
US20210305302A1 (en) Solid-state imaging device, imaging device, and electronic apparatus
CN114830335A (zh) 成像装置和电子设备
KR102720386B1 (ko) 촬상 소자 및 전자 기기
WO2023248925A1 (ja) 撮像素子及び電子機器
WO2024057470A1 (ja) 光検出装置およびその製造方法、並びに電子機器
US20230030963A1 (en) Imaging apparatus and method for manufacturing the same
WO2020105331A1 (ja) 固体撮像装置及び電子機器
KR20240155373A (ko) 촬상 소자 및 전자 기기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19905500

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19905500

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP