WO2021060098A1 - 撮像素子 - Google Patents

撮像素子 Download PDF

Info

Publication number
WO2021060098A1
WO2021060098A1 PCT/JP2020/035020 JP2020035020W WO2021060098A1 WO 2021060098 A1 WO2021060098 A1 WO 2021060098A1 JP 2020035020 W JP2020035020 W JP 2020035020W WO 2021060098 A1 WO2021060098 A1 WO 2021060098A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
image pickup
semiconductor substrate
power generation
pickup device
Prior art date
Application number
PCT/JP2020/035020
Other languages
English (en)
French (fr)
Inventor
克彦 半澤
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to DE112020004611.7T priority Critical patent/DE112020004611T5/de
Priority to JP2021548844A priority patent/JPWO2021060098A1/ja
Priority to CN202080061981.4A priority patent/CN114342080A/zh
Publication of WO2021060098A1 publication Critical patent/WO2021060098A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K39/00Integrated devices, or assemblies of multiple devices, comprising at least one organic radiation-sensitive element covered by group H10K30/00
    • H10K39/30Devices controlled by radiation
    • H10K39/32Organic image sensors
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/30Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation comprising bulk heterojunctions, e.g. interpenetrating networks of donor and acceptor material domains
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K30/00Organic devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation
    • H10K30/80Constructional details
    • HELECTRICITY
    • H10SEMICONDUCTOR DEVICES; ELECTRIC SOLID-STATE DEVICES NOT OTHERWISE PROVIDED FOR
    • H10KORGANIC ELECTRIC SOLID-STATE DEVICES
    • H10K77/00Constructional details of devices covered by this subclass and not covered by groups H10K10/80, H10K30/80, H10K50/80 or H10K59/80
    • H10K77/10Substrates, e.g. flexible substrates
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E10/00Energy generation through renewable energy sources
    • Y02E10/50Photovoltaic [PV] energy
    • Y02E10/549Organic PV cells

Definitions

  • the present disclosure relates to an image pickup device having an image pickup unit and a power generation unit.
  • Patent Document 1 discloses a solid-state image sensor in which a solar cell that receives light captured from an image pickup lens is provided between a plurality of arranged light receiving cells.
  • an image sensor equipped with a solar cell is required to have both excellent pixel characteristics and a high amount of power generation.
  • the image pickup device of the embodiment of the present disclosure includes a semiconductor substrate having one surface and another surface facing each other, an image pickup unit provided on the semiconductor substrate and having a plurality of sensor pixels for performing photoelectric conversion, and a semiconductor substrate. It is provided around the image pickup unit and also includes a power generation unit that performs photoelectric conversion.
  • the number and area of the sensor pixels constituting the image pickup section are reduced by providing a power generation section that performs photoelectric conversion on the semiconductor substrate around the image pickup section having a plurality of sensor pixels.
  • the power generation unit is arranged without increasing the area of the semiconductor substrate.
  • FIG. 5 is a schematic cross-sectional view showing an example of the configuration of the image pickup device shown in FIG. 1 on the I-I line.
  • FIG. 5 is a plan view showing a specific example of the configuration of the I-I line of the image pickup device shown in FIG. 1 and its vicinity. It is an equivalent circuit diagram of the pixel shown in FIG. It is a top view which shows the other example of the formation area of the power generation part in the image pickup device shown in FIG.
  • FIG. 5 is a schematic cross-sectional view showing another example of the configuration of the image pickup device shown in FIG. 1 on the I-I line.
  • FIG. 5 is a schematic cross-sectional view showing another example of the configuration of the image pickup device shown in FIG. 1 on the I-I line.
  • FIG. 5 is a schematic plan view showing an example of arrangement of a contact region, an OPB region, and a light-shielding region in the image sensor shown in FIG. FIG.
  • FIG. 5 is a schematic plan view showing another example of the arrangement of the OPB region in the image pickup device shown in FIG. 1.
  • FIG. 5 is a schematic plan view showing another example of the arrangement of the OPB region in the image pickup device shown in FIG. 1.
  • FIG. 5 is a schematic plan view showing another example of arrangement of contact regions in the image pickup device shown in FIG. 1.
  • FIG. 5 is a schematic plan view showing another example of arrangement of contact regions in the image pickup device shown in FIG. 1.
  • FIG. 5 is a schematic plan view showing another example of arrangement of contact regions in the image pickup device shown in FIG. 1. It is a figure which shows the time-dependent change of the daily power generation amount of the power generation part in the image sensor shown in FIG.
  • FIG. 1 It is a figure which shows the time-dependent change of the battery remaining amount in the image sensor shown in FIG. 1 in one day. It is sectional drawing which shows an example of the structure of the image pickup device which concerns on 2nd Embodiment of this disclosure. It is a top view which shows a specific example of the structure of the image pickup device shown in FIG. It is an equivalent circuit diagram of the solar cell shown in FIG. It is a top view which shows a specific example of the structure of the image pickup device shown in FIG. It is sectional drawing which shows an example of the structure of the image pickup device which concerns on 3rd Embodiment of this disclosure. It is a top view which shows a specific example of the structure of the image pickup device shown in FIG.
  • Modification example 4-1 Modification 1 (Other examples of the shape of the photoelectric conversion part constituting the solar cell) 4-2.
  • Modification 2 (Example of surface-illuminated image sensor) 4-3.
  • Modification 3 (Example of having an uneven structure on the light incident surface of the semiconductor substrate) 4-4.
  • Modification 4 (Example in which the photoelectric conversion unit constituting the sensor pixel is provided outside the semiconductor substrate) 5.
  • Application example 7. Example 1 Modification 1 (Other examples of the shape of the photoelectric conversion part constituting the solar cell) 4-2.
  • Modification 2 (Example of surface-illuminated image sensor) 4-3.
  • Modification 3 (Example of having an uneven structure on the light incident surface of the semiconductor substrate) 4-4.
  • Modification 4 (Example in which the photoelectric conversion unit constituting the sensor pixel is provided outside the semiconductor substrate) 5.
  • FIG. 1 is a plan view schematically showing a schematic configuration of an image pickup device (image pickup device 1) according to the first embodiment of the present disclosure.
  • FIG. 2 shows a laminated configuration of the image pickup devices shown in FIG.
  • FIG. 3 schematically shows an example of the cross-sectional configuration of the image pickup device 1 in the I-I line shown in FIG. 1
  • FIG. 4 is a plane of the I-I line shown in FIG. 1 and its vicinity.
  • a specific example of the configuration is schematically shown, and for example, an example in which four pixels P arranged in two rows and two columns supply one pixel circuit is shown.
  • the image sensor 1 of the present embodiment is a CCD image sensor or a CMOS image sensor having a power-less battery drive technology, and is 1 around an image pickup unit 110 having a plurality of sensor pixels (hereinafter, simply referred to as pixels P). Alternatively, it has a configuration in which a power generation unit 120 having a plurality of solar cells C is provided.
  • the image pickup device 1 includes, for example, two substrates (first substrate 100 and second substrate 200).
  • the image pickup device 1 is an image pickup device having a three-dimensional structure formed by laminating a first substrate 100 and a second substrate 200.
  • the first substrate 100 is provided with, for example, a semiconductor substrate 10 provided with an imaging unit 110 and a power generation unit 120.
  • the second substrate 200 is provided with, for example, a peripheral circuit 210, a column ADC 220, a control unit 230, and the like as logic circuits.
  • the image sensor 1 is, for example, a back-illuminated image sensor.
  • An optical system 310 which will be described later, is arranged above the image sensor 1, specifically, on the back surface side of the first substrate 100, so that light is incident from the back surface side of the first substrate 100 via the optical system 310. It has become.
  • the imaging unit 110 and the power generation unit 120 will be described below.
  • a case where electrons are read out as signal charges among pairs of electrons and holes generated by the photoelectric conversion unit (a case where the n-type semiconductor region (N ⁇ ) is used as the photoelectric conversion unit) will be described.
  • “+ (plus)” attached to "P" and “N” indicates that the concentration of p-type or n-type impurities is higher than that of the surrounding p-type semiconductor region or n-type semiconductor region.
  • “-(Minus)” indicates that the concentration of p-type or n-type impurities is lower than that of the surrounding p-type semiconductor region or n-type semiconductor region.
  • the image pickup unit 110 and the power generation unit 120 of the present embodiment are both provided in the image circle X, and the power generation unit 120 is provided around the image pickup unit 110.
  • the "image circle” is a circular range in which the light transmitted through the optical system 310 is imaged on the light incident surface of the image sensor 1 (specifically, the back surface (surface S2) of the semiconductor substrate 10). That is.
  • the above “circle” includes a perfect circle and an ellipse.
  • the image pickup unit 110 and the power generation unit 120 are electrically separated by the separation unit 130.
  • the imaging unit 110 detects light in a predetermined wavelength band and performs photoelectric conversion, and a plurality of pixels P are two-dimensionally arranged.
  • the image pickup unit 110 is formed by embedding a photodiode (PD) as a photoelectric conversion unit 11 for each pixel P in the semiconductor substrate 10, and a floating diffusion FD is provided on the surface (surface S1) of the semiconductor substrate 10. ing. Further, various transistors forming a pixel circuit are formed in the vicinity of the surface S1 of the semiconductor substrate 10.
  • the semiconductor substrate 10 is composed of, for example, a p-type silicon (Si) substrate having an impurity concentration of 1 ⁇ 10 14 / cm 2 or more and 1 ⁇ 10 20 / cm 2 or less, and serves as a photoelectric conversion unit 11 in a predetermined region. It has an n-type semiconductor region (N ⁇ ) constituting the diode PD.
  • Si p-type silicon
  • a transfer transistor TR is provided in the vicinity of the surface S1 of the semiconductor substrate 10 to transfer the signal charge generated by the photoelectric conversion unit 11 as a pixel transistor to, for example, the vertical signal line Lsig (see FIG. 24).
  • the signal charge may be either an electron or a hole generated by photoelectric conversion, but here, a case where the electron is read out as a signal charge will be described as an example.
  • a reset transistor RST, an amplification transistor AMP, a selection transistor SEL, and the like are provided together with the transfer transistor TR.
  • Such a transistor is, for example, a MOSEFT (Metal Oxide Semiconductor Field Effect Transistor), for example, for each pixel P, or for each of four pixels P arranged in 2 rows and 2 columns as shown in FIG.
  • the pixel circuit shown in FIG. 5 is configured.
  • the pixel circuit may have, for example, a three-transistor configuration including a transfer transistor TR, a reset transistor RST, and an amplification transistor AMP, or a four-transistor configuration in which a selection transistor SEL is added thereto.
  • the photoelectric conversion unit 11 is a pn junction type photodiode PD formed by embedding each pixel P in the semiconductor substrate 10, for example, composed of an n-type semiconductor region (N ⁇ ).
  • the photoelectric conversion unit 11 generates an electric charge according to the amount of light incident by the photoelectric conversion based on the incident light, and accumulates the generated electric charge.
  • the cathode is electrically connected to the source of the transfer transistor TR and the anode is electrically connected to the reference potential line (eg, ground GND).
  • the transfer transistor TR operates, for example, based on the transfer signal supplied from the control unit 230 at a predetermined timing via the transfer signal line, and transfers the signal charge accumulated in the photoelectric conversion unit 11 to the floating diffusion FD. It is for.
  • the drain is electrically connected to the floating diffusion FD and the gate is electrically connected to the drive signal line.
  • the floating diffusion FD is an n-type diffusion layer region (N +) formed in the p-type semiconductor layer.
  • the floating diffusion FD is a charge holding means that temporarily holds the charge transferred from the photodiode PD and is a charge-voltage conversion means that generates a voltage corresponding to the amount of the charge.
  • the reset transistor RST operates based on the reset signal supplied from the control unit at a predetermined timing via the reset signal line, and discharges the electric charge accumulated in the floating diffusion FD.
  • the gate of the reset transistor RST is connected to the reset signal line.
  • the source / drain region of the reset transistor RST is composed of n-type semiconductor regions (N +) 12 and 13 formed on the surface S1 of the semiconductor substrate 10.
  • One of the source / drain regions (n-type semiconductor region (N +) 12) also serves as a floating diffusion FD, and the other (n-type semiconductor region (N +) 13) is connected to the power supply line VDD.
  • the amplification transistor AMP supplies the voltage corresponding to the electric charge accumulated in the floating diffusion FD to the selection transistor SEL as a pixel signal (light receiving signal) by amplifying the voltage between the source and drain as a gate signal.
  • the gate of the amplification transistor AMP is connected to one source / drain region (n-type semiconductor region (N +) 12; floating diffusion FD) of the reset transistor RST.
  • the source / drain region of the amplification transistor AMP is not shown, it is composed of an n-type semiconductor region (N +) formed on the surface S1 of the semiconductor substrate 10 like the source / drain region of the reset transistor RST.
  • One of the source / drain regions shares an region with the other source / drain region (n-type semiconductor region (N +) 13) of the reset transistor RST, and is connected to the power supply line VDD.
  • the selection transistor SEL operates based on the selection signal supplied from the control unit at a predetermined timing via the selection signal line, and outputs the pixel signal supplied from the amplification transistor AMP to the vertical signal line Lsig.
  • the gate of the selection transistor SEL is connected to the selection signal line.
  • the source / drain region of the selection transistor SEL is not shown, it is composed of an n-type semiconductor region (N +) formed on the surface S1 of the semiconductor substrate 10 like the source / drain region of the reset transistor RST. , One of the source / drain regions shares the region with the other source / drain region of the amplification transistor AMP, and the other is connected to the data output line.
  • a p-type semiconductor region (P +) 14 is further provided on the surface S1 of the semiconductor substrate 10 as an anode of the photodiode PD, and the p-type semiconductor region (P +) 14 has a fixed potential (for example, as a reference potential).
  • the semiconductor substrate 10 is further provided with an element separating portion 15 between adjacent pixels P, which is connected to the ground GND).
  • the element separation unit 15 is for electrically separating adjacent pixels P from each other.
  • the element separation unit 15 is, for example, a so-called STI (Shallow Trench Isolation) provided on the surface S1 of the semiconductor substrate 10, and is provided so as to surround the pixel P, for example, as shown in FIG.
  • the element separation unit 15 includes, for example, silicon oxide (SiO 2 ), hafnium oxide (HfO 2 ), zirconium oxide (ZrO 2 ), aluminum oxide (Al 2 O 3 ), titanium oxide (TIO 2 ) and tantalum pentoxide (Ta 2). It can be formed by using an oxide film such as O 5).
  • the element separating portion 15 for example, a metal film such as tungsten (W) is embedded in the opening forming the element separating portion 15, and the oxidation is performed around the metal film (that is, the side surface and the bottom surface of the metal film). A film may be formed.
  • the adjacent pixels P can be electrically separated from each other, and the obliquely incident light that may be incident from the adjacent pixels P can be shielded by the metal film to be optically separated.
  • the element separation unit 15 may be a so-called DTI (Deep Trench Isolation) that penetrates between the surfaces S1 and S2 of the semiconductor substrate 10 as in the separation unit 130 described later.
  • DTI Deep Trench Isolation
  • the power generation unit 120 is composed of one or a plurality of solar cells C provided around the image pickup unit 110.
  • the solar cell C is a pn junction type photodiode PD, and has a photoelectric conversion unit 21 formed on the surface S1 of the semiconductor substrate 10, for example, composed of an n-type semiconductor region (N ⁇ ).
  • the power generation unit 120 has an n-type semiconductor region (N +) 22 having a higher n-type impurity concentration than the n-type semiconductor region (N ⁇ ) serving as the photoelectric conversion unit 21 and a p-type semiconductor region on the surface S1 of the semiconductor substrate 10. It further has (P +) 23.
  • the n-type semiconductor region (N +) 22 is formed in the n-type semiconductor region (N ⁇ ) serving as the photoelectric conversion unit 21, and is connected to a reference potential (for example, ground GND).
  • the p-type semiconductor region (P +) 23 is connected to the cathode (positive).
  • the solar cell C takes out the current in which the electric charge generated by the incident light flows in the forward direction.
  • the output voltage of the solar cell C is determined from the relationship between the current flowing through the photodiode PD and the voltage.
  • the voltage generated at the pn junction fluctuates depending on the flowing current. For example, in the case of a silicon substrate, the voltage (electromotive force) at which the photodiode PD is turned on is around 0.5 V.
  • the n-type semiconductor region (N +) 22 is connected to the ground GND
  • the voltage of the p-type semiconductor region (P +) 23 is connected to the DC-DC conversion circuit, or the solar cell C is connected.
  • the unused region of the semiconductor substrate 10 forming the power generation unit 120 around the image pickup unit 110 is rate-determining due to an optical factor such as a displacement of the image circle X and a peripheral circuit formed on the second substrate 200.
  • an optical factor such as a displacement of the image circle X and a peripheral circuit formed on the second substrate 200.
  • the four corners of the image sensor 110 are critical regions in terms of distance from the image circle X.
  • the four corners of the image pickup unit 110 have the smallest distance from the outer edge of the image pickup unit 110 to the image circle X, so that the solar cell C near the four corners of the image pickup unit 110 has an image circle. It deviates from X and does not contribute to power generation.
  • FIG. 1 shows an example in which the power generation unit 120 is continuously provided around the image pickup unit 110, but the present invention is not limited to this, and for example, as shown in FIGS. 6A and 6C, light is irradiated. It may be formed only inside the image circle X to be formed. Further, in FIGS. 6A and 6B, the shape of the power generation unit 120 in which the rectangles are combined is shown, but the shape of the power generation unit 120 is not limited to this. For example, as shown in FIG. 6C, a trapezoidal power generation unit 120 may be provided on each side of the image pickup unit 110 having a rectangular shape, for example.
  • the separation unit 130 is for electrically separating the image pickup unit 110 and the power generation unit 120, and is formed so as to surround the image pickup unit 110, for example, as shown in FIG. There is.
  • the separation portion 130 can be formed, for example, by an n-type semiconductor region (N ⁇ ) 31 penetrating between the surfaces S1 and S2 of the semiconductor substrate 10.
  • the n-type semiconductor region (N ⁇ ) 31 is provided with an n-type semiconductor region (N +) 32 having a higher n-type impurity concentration than the n-type semiconductor region (N ⁇ ) 31 on the surface S1.
  • the n-type semiconductor region (N +) 32 is connected to the power supply line VDD as a fixed potential.
  • the voltage in the p region (semiconductor substrate 10) of the power generation unit 120 increases.
  • the p region of the power generation unit 120 and the n region for separation the n-type semiconductor region constituting the separation unit 130 (n-type semiconductor region) It is desirable that N-) 31 has a sufficient reverse bias.
  • the power supply line VDD is connected to the n-type semiconductor region (N ⁇ ) 31 via the n-type semiconductor region (N +) 32 as described above, the p region of the power generation unit 120
  • the potential difference between the and the n region (n-type semiconductor region (N ⁇ ) 31) for separation is the potential of the p region ⁇ n-type semiconductor region (N ⁇ ) 31 of the power generation unit 120.
  • the p region of the power generation unit 120 and the p region of the imaging unit 110 are electrically separated.
  • the present invention is not limited to this.
  • the electromotive force is about 0.5V. Therefore, a voltage larger than 0.5 V may be applied to the n-type semiconductor region (N +) 32.
  • a voltage of about 1 V the p region of the power generation unit 120 and the imaging unit It can be electrically separated from the p region of 110.
  • FIG. 3 shows an example in which the separation portion 130 is formed by the n-type semiconductor region (N ⁇ ) 31 penetrating between the surfaces S1 and S2 of the semiconductor substrate 10, but the present invention is not limited to this.
  • the semiconductor substrate 10 is formed from the surface S1 to the surface S2, and at a deep position of the semiconductor substrate 10 (for example, in the vicinity of the surface S2), power is generated inside the surface of the semiconductor substrate 10.
  • the imaging unit 110 and the power generation unit 120 may be electrically separated by an n-type semiconductor region (N ⁇ ) 31 extending in the direction of the unit 120.
  • the separation unit 130 since the separation unit 130 only needs to be able to electrically separate the image pickup unit 110 and the power generation unit 120, for example, as shown in FIG. 8, the so-called DTI (Deep Trench Isolation) is formed on the surface S1 of the semiconductor substrate 10. It may be formed by an insulating film 33 penetrating between the surface S2 and the surface S2.
  • the insulating film 33 can be formed by using, for example, the same material as the element separating portion 15.
  • the material of the insulating film 33 for example, silicon oxide (SiO 2 ), hafnium oxide (HfO 2 ), zirconium oxide (ZrO 2 ), aluminum oxide (Al 2 O 3 ), titanium oxide (TIO 2). ) And tantalum oxide (Ta 2 O 5 ) and the like.
  • the separation unit 130 When the separation unit 130 is formed in the n-type semiconductor region (N ⁇ ) 31, the parasitic bipolar transistor may operate. Therefore, the separation unit 130 and the photoelectric conversion unit 21 are provided at positions sufficiently separated from each other. Is preferable.
  • the separation unit 130 is formed of the insulating film 33, a bipolar transistor cannot be formed. Therefore, as compared with the case where the separation unit 130 is formed of the n-type semiconductor region (N ⁇ ) 31, the photoelectric conversion unit 21 is the separation unit. It can be provided at a position close to 130.
  • FIG. 4 shows an example in which the element separation unit 15 adjacent to the separation unit 130 of the imaging unit 110 is provided separately from the separation unit 130, the separation unit 130 may also serve as the element separation unit 15.
  • the image pickup device 1 can also have the following configurations.
  • the image sensor 1 forms an optical black (OPB) region 110A for outputting optical black, which serves as a reference for the black level, on one side of the image pickup unit 110 having a rectangular shape. You may do so.
  • the image pickup device 1 may be provided with, for example, a dummy pixel region 110B in which dummy pixels having the same configuration as each pixel P are formed over the entire periphery of the periphery of the image pickup unit 110.
  • a contact region 110C may be provided around the imaging unit 110.
  • the OPB region 110A may be formed over the entire periphery of the imaging unit 110, as shown in FIG. 9B, or may be formed on two adjacent sides as shown in FIG. 9C. You may try to do it. Further, the dummy pixel region 110B does not necessarily have to be provided over the entire periphery of the imaging unit 110, and may be formed on only one side, for example.
  • the contact region 110C is provided between the image pickup unit 110 and the separation unit 130.
  • the contact region 110C is provided between the separation unit 130 and the power generation unit 120. It may be.
  • the contact region 110C may be provided in contact with the peripheral edge of the power generation unit 120 as shown in FIG. 10B, or may be provided in the power generation unit 120 as shown in FIG. 10C. ..
  • FIG. 9A shows an example in which the contact region 110C is formed only on two sides, the contact region 110C may be formed on the four sides of the image pickup unit 110 having a rectangular shape.
  • the image sensor 1 may be provided with, for example, a color filter, a light-shielding film, and an on-chip lens on the back surface (surface S2) side of the semiconductor substrate 10.
  • the color filter can be formed over the entire surface of the semiconductor substrate 10.
  • the color filter provided in the power generation unit 120 is preferably white (W) from the viewpoint of photoelectric conversion efficiency, but from the viewpoint of manufacturing cost and the like, red (R), green (G), and red (G), as in the imaging unit 110. Any of the blue (B) filters may be provided. In that case, it is preferable to use a green (G) filter having the highest sensitivity.
  • the light-shielding film is formed, for example, between each pixel P of the imaging unit 110 in which a plurality of pixels P are two-dimensionally arranged, and above the OPB region 110A and the dummy pixel region 110B formed on the peripheral edge of the imaging unit 110.
  • the on-chip lens is for condensing the light incident from above on the light receiving surface of each pixel P two-dimensionally arranged in the imaging unit 110. Therefore, an on-chip lens is not required for the power generation unit 120, the separation unit 130, and the like, but for example, for the purpose of maintaining the symmetry of the uppermost layer of the image sensor 1, it extends over the front surface of the semiconductor substrate 10 like the color filter. It may be arranged. Further, when the on-chip lens is provided in the power generation unit 120, pupil correction may be performed.
  • signal charges (here, electrons) are acquired from each pixel P as follows.
  • the light passes through the on-chip lens, the color filter, and the like in the image pickup unit 110, and is detected (absorbed) by the photoelectric conversion unit 11 in each pixel P.
  • the red (R), green (G), or blue (B) color light is photoelectrically converted.
  • a reverse bias is applied to each pixel P.
  • the electrons move to the n-type semiconductor region (N-) constituting the photoelectric conversion unit 11 and are accumulated, and the holes move to the p-type semiconductor region. It moves and is discharged.
  • the power generation unit 120 electric charges are generated in the photoelectric conversion unit 21 constituting the solar cell C by the light incident on the power generation unit 120 via the optical system 310.
  • a forward bias is applied to the solar cell C, and an output current is taken out from the cathode (positive) connected to the p-type semiconductor region (P +) 23.
  • the current extracted from the cathode (positive) is used for the operating current of the image pickup unit 110 and for charging the battery built in the electronic device including the image pickup element 1 such as the camera 2 (see, for example, FIG. 25). ..
  • FIG. 11A shows the change over time in the daily power generation amount of the power generation unit 120
  • FIG. 11B shows the change over time in the remaining battery level.
  • the power generation unit 120 generates power by sunlight or the like outdoors during the daytime, supplies an operating current to the image pickup unit 110, and charges the battery with an excess amount. In dark places such as at night, the battery current is used as the operating current. In indoors, light such as fluorescent lamps is added in addition to sunlight.
  • the change with time of the remaining battery level shown in FIG. 11B is an example, and the remaining battery level continuously decreases or decreases stepwise depending on whether the image pickup unit 110 is constantly operated or intermittently operated. Is different. However, the average shape is similar.
  • the image sensor 1 of the present embodiment is provided with a power generation unit 120 having one or a plurality of solar cells C around an image pickup unit 110 having a plurality of pixels P.
  • the power generation unit 120 can be provided without reducing the number and area of the pixels P of the image pickup unit 110 and without increasing the area of the semiconductor substrate 10 on which the image pickup unit 110 is provided. This will be described below.
  • a power-less battery drive technology is required as a technology for IoT, and important technologies include power reduction and energy harvesting technology.
  • energy harvesting technology for image sensors it tends to be a method that mainly uses external light.
  • As a general technology a method of preparing a solar cell separately from the imager to generate electricity is known. However, it is necessary to at least correct the pixels used in the imager, and there is a concern that the noise characteristics and saturation characteristics may deteriorate.
  • a semiconductor substrate having a plurality of sensor pixels (hereinafter referred to as an upper chip) and a semiconductor substrate having a signal processing circuit for processing a signal obtained by each sensor pixel (hereinafter referred to as an upper chip).
  • an image sensor having a three-dimensional structure in which (hereinafter referred to as a lower chip) are laminated on each other a solar cell is arranged around a semiconductor substrate having a plurality of sensor pixels.
  • the image sensor 1 of the present embodiment is provided with a power generation unit 120 having one or more solar cells C around the image pickup unit 110 having a plurality of pixels P.
  • the image circle formed by the lens that guides the light from the subject to the image sensor and forms an image on the light receiving surface of the image sensor has a plurality of sensor pixels in consideration of mechanical misalignment. Is designed to be larger than the pixel array in which is arranged.
  • the upper chip secures a certain distance from the pixel array to the outer periphery of the chip in order to suppress the influence of light reflection from the pad formed on the outer periphery of the chip and the end of the chip. Therefore, there is an unused and light incident region around the main part of the upper chip.
  • the power generation unit 120 having the solar cell C is provided in the unused region of the upper chip (specifically, the semiconductor substrate 10 of the first substrate 100).
  • the semiconductor substrate 10 of the first substrate 100 the semiconductor substrate 10 of the first substrate 100.
  • FIG. 12 shows an example of the cross-sectional configuration of the image pickup device (image pickup device 1A) according to the second embodiment of the present disclosure. Note that FIG. 12 corresponds to the cross-sectional configuration on the line II shown in FIG.
  • the image sensor 1A is a CCD image sensor or a CMOS image sensor having a power-less battery drive technology, similarly to the image sensor 1 in the first embodiment.
  • the present embodiment is different from the first embodiment in that the solar cell C constituting the power generation unit 420 has the same structure as the plurality of pixels P constituting the imaging unit 110.
  • the power generation unit 420 is composed of solar cells C having the same structure as the plurality of pixels P constituting the image pickup unit 110. Specifically, the solar cells C provided in the power generation unit 420 have the same planar configurations as those shown in FIG. 13, and as shown in FIG. 14, for example, are shown in FIG. It has the same circuit configuration as the equivalent circuit of the pixel P.
  • FIG. 13 shows an example in which the element separation units 15 and 45 adjacent to the separation unit 130 of the imaging unit 110 and the power generation unit 420 are provided separately from the separation unit 130, but the separation unit 130 is an adjacent element. It may also serve as the separating portions 15 and 45.
  • the element separation unit 45 may be omitted as shown in FIG. In the manufacturing process, if it is desired to maintain the contrast between the image pickup unit 110 and the power generation unit 420, the element separation unit 45 may be provided as shown in FIG. 13, but the element separation unit 45 generates dark current. It is preferable not to provide it because it may cause a cause.
  • the image sensor 1A of the present embodiment power generation having a solar cell C having the same structure as the pixels P constituting the image pickup unit 110 around the image pickup unit 110 which is an unused region of the semiconductor substrate 10.
  • the part 120 is provided.
  • FIG. 16 shows an example of the cross-sectional configuration of the image pickup device (image pickup device 1B) according to the third embodiment of the present disclosure.
  • FIG. 17 schematically shows a specific example of the planar configuration of the image pickup device 1B shown in FIG. Note that FIG. 16 corresponds to the cross-sectional configuration on the line II shown in FIG.
  • the image sensor 1B is a CCD image sensor or a CMOS image sensor having a power-less battery drive technology, similarly to the image sensor 1 in the first embodiment.
  • the present embodiment is different from the first embodiment in that the solar cell C constituting the power generation unit 520 is a multi-stage type (two-stage type in FIG. 16).
  • the power generation unit 520 is composed of a multi-stage solar cell in which solar cells C are formed in a double layer (solar cell C1, solar cell C2) around the imaging unit 110, for example.
  • a separation unit 140 having the same configuration as the separation unit 130 is provided between the solar cell C1 and the solar cell C2.
  • the separation unit 140 is composed of an n-type semiconductor region (N ⁇ ) 34, and its surface (plane S1) has an n-type impurity concentration higher than that of the n-type semiconductor region (N ⁇ ) 34.
  • the semiconductor region (N +) 35 is provided.
  • the solar cell C1 and the solar cell C2 are cascode-connected, and the n-type semiconductor region (N +) 35 is the p-type semiconductor region (P +) 23A of the solar cell C1 and the n-type semiconductor region (N +) of the solar cell C2. Together with 22B, it is connected to the power supply line VDD. At this time, a voltage equal to or higher than the maximum voltage generated by the power generation unit 520 is applied to the n-type semiconductor region (N +) 35.
  • the power generation section 120 composed of the multi-stage solar cell C is provided around the image pickup section 110 which is an unused region of the semiconductor substrate 10.
  • the same effect as that of the first embodiment can be obtained, and the amount of power generated by the power generation unit 520 can be improved.
  • Modification example> (4-1.
  • Modification 1) 18A to 18C show, as a modification (modification example 1) of the present disclosure, a planar shape of the photoelectric conversion unit 21 constituting the solar cell C of the power generation unit 120 of the image pickup device 1 according to the first embodiment. It shows another example.
  • the n-type semiconductor region (N ⁇ ) constituting the photoelectric conversion unit 21 may be formed in a comb-teeth shape as shown in FIG. 18A or in a dot shape as shown in FIG. 18B, for example. Good.
  • the n-type semiconductor region (N-) is comb-shaped, for example, a plurality of n-type semiconductor regions (N-) extending in the Y-axis direction are extended in the X-axis direction.
  • n-type semiconductor region (N ⁇ ) may be formed on only one side of ⁇ ) or in the middle of a plurality of n-type semiconductor regions (N ⁇ ) extending in the X-axis direction.
  • the n-type semiconductor region (N ⁇ ) may be arranged in a horizontal row as shown in FIG. 18B, or may be arranged alternately as shown in FIG. 18C.
  • the n-type semiconductor region (N ⁇ ) constituting the photoelectric conversion unit 21 is, for example, as shown in FIG. 19, the p-type semiconductor region (P ⁇ ) in the film thickness direction (Z-axis direction) of the semiconductor substrate 10. May be laminated in between (n-type semiconductor regions (N ⁇ ) 21a, 21b).
  • the photoelectric conversion unit 21 (n-type semiconductor region (N-)) constituting the solar cell C into the above-mentioned shape, the n-type semiconductor region (N-) and the p-type semiconductor region (N-) are formed.
  • the junction area with P-) (pn junction area) is improved. This makes it possible to improve the amount of power generated by the power generation unit 120.
  • FIG. 20 shows, as a modification (modification example 2) of the present disclosure, a surface S2 of the semiconductor substrate 10 which is the light incident surface of the image pickup device 1 according to the first embodiment has a concave-convex structure.
  • FIG. 21 shows an example of the cross-sectional configuration of the image pickup device 1C according to the modified example (modified example 3) of the present disclosure. Note that FIG. 21 corresponds to the cross-sectional configuration on the line II shown in FIG.
  • the image sensor 1C of this modification is, for example, a so-called surface-illuminated image sensor in which the surface (surface S1) side of the semiconductor substrate 10 is the light irradiation surface, and the power generation unit 620 is the back surface (surface S2) of the semiconductor substrate 10. ) It is different from the first embodiment in that it extends over the entire surface and partially overlaps with the image pickup unit 110.
  • the photoelectric conversion unit 61 (n-type semiconductor region (N ⁇ )) constituting the solar cell C is formed extending from the front surface (surface S1) of the semiconductor substrate 10 to the surface near the back surface (surface S2). The point is different from the above-mentioned first embodiment.
  • the separation unit 630 in order to electrically separate the image pickup unit 110 and the power generation unit 620, the separation unit 630 also moves from the surface S1 of the semiconductor substrate 10 in the in-plane direction in the semiconductor substrate 10. It is formed in an extended manner.
  • FIG. 21 shows an example in which the photoelectric conversion unit 61 (n-type semiconductor region (N ⁇ )) constituting the solar cell C extends in the semiconductor substrate 10 near the back surface (surface S2).
  • the photoelectric conversion unit 61 (n-type semiconductor region (N ⁇ )) may be formed so as to face the back surface (surface S2) of the semiconductor substrate 10.
  • the image sensor 1C shown in FIGS. 21 and 22 when used as a Time-of-Flight (ToF) type ranging image sensor, it can also be used as a back-illuminated image sensor.
  • ToF Time-of-Flight
  • FIG. 23 shows an example of the cross-sectional configuration of the image pickup device 1D according to the modified example (modified example 4) of the present disclosure.
  • the photoelectric conversion unit constituting the image pickup unit 110 of the image pickup element for example, the image pickup element 1 described in the first embodiment or the like does not necessarily have to be the photodiode PD provided on the semiconductor substrate 10.
  • the organic photoelectric conversion unit 70 including the photoelectric conversion layer 72 formed of an organic material may be used as in the image sensor 1D shown in FIG. 23, the organic photoelectric conversion unit 70 including the photoelectric conversion layer 72 formed of an organic material may be used.
  • the organic photoelectric conversion unit 70 has, for example, a configuration in which the lower electrode 71, the photoelectric conversion layer 72, and the upper electrode 73 are laminated in this order, and is provided, for example, on the surface S1 side of the semiconductor substrate 10.
  • the lower electrode 71 is divided and formed for each pixel P by, for example, a light-transmitting conductive film such as ITO.
  • the photoelectric conversion layer 72 is composed of, for example, a p-type semiconductor and an n-type semiconductor, and has a bulk heterojunction structure in the layer.
  • the bulk heterojunction structure is a p / n junction surface formed by mixing p-type semiconductors and n-type semiconductors.
  • the p-type semiconductor functions relatively as an electron donor (donor), and the n-type semiconductor functions relatively as an electron acceptor (acceptor).
  • the photoelectric conversion layer 72 can be formed over the entire surface of the imaging unit 110, for example.
  • the upper electrode 73 is made of a light-transmitting conductive film.
  • the upper electrode 73 may be separated and formed for each pixel, or like the photoelectric conversion layer 72, the upper electrode 73 may be formed separately. It may be formed as a common electrode for each pixel P.
  • the light incident from the upper electrode 73 side is absorbed by the photoelectric conversion layer 72, and the excitons generated by this are absorbed at the interface between the electron donor and the electron acceptor constituting the photoelectric conversion layer 72. It moves and dissociates into electrons and holes.
  • the charges (electrons and holes) generated here are carried to different electrodes by diffusion due to the difference in carrier concentration and the internal electric field due to the difference in work function between the anode and cathode, and are detected as photocurrents.
  • the electric charge carried to the lower electrode 71 is transferred to, for example, a floating diffusion FD formed on the surface S1 of the semiconductor substrate 10 via the through electrode TSV and accumulated.
  • the photoelectric conversion unit constituting the imaging unit 110 is not only the photodiode PD formed on the semiconductor substrate 10, but also on the outside of the semiconductor substrate 10 (for example, the incident direction of light) by using an organic material, for example.
  • the organic photoelectric conversion unit 70 having the formed organic layer (photoelectric conversion layer 72) may be used.
  • the imaging unit 110 is provided with, for example, two photoelectric conversion units (inorganic photoelectric conversion units) in the depth direction of the semiconductor substrate 10, and by combining the organic photoelectric conversion units 70, a so-called longitudinal spectroscopic imaging unit can be obtained. It may be configured. As a result, the image pickup unit 110 can acquire a plurality of types of color signals in one pixel P without using a color filter. Further, in FIG. 23, an example in which the organic photoelectric conversion unit 70 is provided on the surface (surface S1) side of the semiconductor substrate 10 is shown. However, for example, by using a penetrating via penetrating the semiconductor substrate 10, the semiconductor substrate 10 is used. It can also be arranged on the back surface (surface S2) side of the.
  • FIG. 24 shows, for example, the overall configuration of the image pickup device (for example, the image pickup device 1) described in the first embodiment or the like.
  • the image sensor 1 is, for example, a CMOS image sensor, which has an image pickup unit 110 as an image pickup area on the first substrate 100, and has, for example, a row scanning unit 211, a horizontal selection unit 213, and a column scanning unit on the second substrate 200. It has a peripheral circuit 210 including 214 and a system control unit 212.
  • the image pickup unit 110 has, for example, a plurality of unit pixels P (for example, corresponding to the image pickup element 1) arranged two-dimensionally in a matrix.
  • a pixel drive line Lread (specifically, a row selection line and a reset control line) is wired for each pixel row, and a vertical signal line Lsig is wired for each pixel column.
  • the pixel drive line Lread transmits a drive signal for reading a signal from a pixel.
  • One end of the pixel drive line Lread is connected to the output end corresponding to each line of the line scanning unit 211.
  • the row scanning unit 211 is composed of a shift register, an address decoder, and the like, and is a pixel driving unit that drives each unit pixel P of the imaging unit 110, for example, in row units.
  • the signal output from each unit pixel P of the pixel row selected and scanned by the row scanning unit 211 is supplied to the horizontal selection unit 213 through each of the vertical signal lines Lsig.
  • the horizontal selection unit 213 is composed of an amplifier, a horizontal selection switch, and the like provided for each vertical signal line Lsig.
  • the column scanning unit 214 is composed of a shift register, an address decoder, etc., and drives each horizontal selection switch of the horizontal selection unit 213 in order while scanning. By the selective scanning by the column scanning unit 214, the signals of each pixel transmitted through each of the vertical signal lines Lsig are sequentially output to the horizontal signal line 215 and transmitted to the second substrate 200 through the horizontal signal line 215.
  • the circuit portion including the row scanning unit 211, the horizontal selection unit 213, the column scanning unit 214, and the horizontal signal line 215 may be formed on the second substrate 200, or may be arranged on the external control IC. You may. Further, those circuit portions may be formed on another substrate connected by a cable or the like.
  • the system control unit 212 receives a clock given from the outside of the first substrate 100, data for instructing an operation mode, and the like, and outputs data such as internal information of the image sensor 1.
  • the system control unit 212 further has a timing generator that generates various timing signals, and the row scanning unit 211, the horizontal selection unit 213, the column scanning unit 214, and the like based on the various timing signals generated by the timing generator. Controls the drive of peripheral circuits.
  • FIG. 25 shows a schematic configuration of the camera 2 as an example.
  • the camera 2 is, for example, a video camera capable of capturing a still image or a moving image, and drives the image sensor 1, the optical system (optical lens) 310, the shutter device 311 and the image sensor 1 and the shutter device 311. It has a unit 313 and a signal processing unit 312.
  • the optical system 310 guides the image light (incident light) from the subject to the image pickup unit 110 of the image pickup element 1.
  • the optical system 310 may be composed of a plurality of optical lenses.
  • the shutter device 311 controls the light irradiation period and the light blocking period of the image sensor 1.
  • the drive unit 313 controls the transfer operation of the image sensor 1 and the shutter operation of the shutter device 311.
  • the signal processing unit 312 performs various signal processing on the signal output from the image sensor 1.
  • the video signal Dout after signal processing is stored in a storage medium such as a memory, or is output to a monitor or the like.
  • FIG. 26 is a block diagram showing an example of a schematic configuration of a patient's internal information acquisition system using a capsule endoscope to which the technique according to the present disclosure (the present technique) can be applied.
  • the internal information acquisition system 10001 is composed of a capsule endoscope 10100 and an external control device 10200.
  • the capsule endoscope 10100 is swallowed by the patient at the time of examination.
  • the capsule endoscope 10100 has an imaging function and a wireless communication function, and moves inside an organ such as the stomach or intestine by peristaltic movement or the like until it is naturally excreted from the patient, and inside the organ.
  • Images (hereinafter, also referred to as internal organ images) are sequentially imaged at predetermined intervals, and information about the internal organ images is sequentially wirelessly transmitted to an external control device 10200 outside the body.
  • the external control device 10200 comprehensively controls the operation of the internal information acquisition system 10001. Further, the external control device 10200 receives information about the internal image transmitted from the capsule endoscope 10100, and based on the information about the received internal image, the internal image is displayed on a display device (not shown). Generate image data to display.
  • the internal information acquisition system 10001 in this way, it is possible to obtain an internal image of the inside of the patient at any time from the time when the capsule endoscope 10100 is swallowed until it is discharged.
  • the capsule endoscope 10100 has a capsule-shaped housing 10101, and the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, the power feeding unit 10115, and the power supply unit are contained in the housing 10101.
  • the 10116 and the control unit 10117 are housed.
  • the light source unit 10111 is composed of, for example, a light source such as an LED (light emission diode), and irradiates the imaging field of view of the imaging unit 10112 with light.
  • a light source such as an LED (light emission diode)
  • the image pickup unit 10112 is composed of an image pickup element and an optical system including a plurality of lenses provided in front of the image pickup element.
  • the reflected light (hereinafter referred to as observation light) of the light applied to the body tissue to be observed is collected by the optical system and incident on the image pickup element.
  • the observation light incident on the image pickup device is photoelectrically converted, and an image signal corresponding to the observation light is generated.
  • the image signal generated by the image capturing unit 10112 is provided to the image processing unit 10113.
  • the image processing unit 10113 is composed of processors such as a CPU (Central Processing Unit) and a GPU (Graphics Processing Unit), and performs various signal processing on the image signal generated by the imaging unit 10112.
  • the image processing unit 10113 provides the signal-processed image signal to the wireless communication unit 10114 as RAW data.
  • the wireless communication unit 10114 performs predetermined processing such as modulation processing on the image signal that has been signal-processed by the image processing unit 10113, and transmits the image signal to the external control device 10200 via the antenna 10114A. Further, the wireless communication unit 10114 receives a control signal related to drive control of the capsule endoscope 10100 from the external control device 10200 via the antenna 10114A. The wireless communication unit 10114 provides the control unit 10117 with a control signal received from the external control device 10200.
  • the power feeding unit 10115 is composed of an antenna coil for receiving power, a power regeneration circuit that regenerates power from the current generated in the antenna coil, a booster circuit, and the like. In the power feeding unit 10115, electric power is generated using the so-called non-contact charging principle.
  • the power supply unit 10116 is composed of a secondary battery and stores the electric power generated by the power supply unit 10115.
  • FIG. 26 in order to avoid complication of the drawing, the illustration of the arrow or the like indicating the power supply destination from the power supply unit 10116 is omitted, but the power stored in the power supply unit 10116 is the light source unit 10111. , Is supplied to the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the control unit 10117, and can be used to drive these.
  • the control unit 10117 is composed of a processor such as a CPU, and is a control signal transmitted from the external control device 10200 to drive the light source unit 10111, the imaging unit 10112, the image processing unit 10113, the wireless communication unit 10114, and the power feeding unit 10115. Control as appropriate according to.
  • the external control device 10200 is composed of a processor such as a CPU or GPU, or a microcomputer or a control board on which a processor and a storage element such as a memory are mixedly mounted.
  • the external control device 10200 controls the operation of the capsule endoscope 10100 by transmitting a control signal to the control unit 10117 of the capsule endoscope 10100 via the antenna 10200A.
  • a control signal from the external control device 10200 can change the light irradiation conditions for the observation target in the light source unit 10111.
  • the imaging conditions for example, the frame rate in the imaging unit 10112, the exposure value, etc.
  • the content of processing in the image processing unit 10113 and the conditions for transmitting the image signal by the wireless communication unit 10114 may be changed by the control signal from the external control device 10200. ..
  • the external control device 10200 performs various image processing on the image signal transmitted from the capsule endoscope 10100, and generates image data for displaying the captured internal image on the display device.
  • the image processing includes, for example, development processing (demosaic processing), high image quality processing (band enhancement processing, super-resolution processing, NR (Noise reduction) processing and / or camera shake correction processing, etc.), and / or enlargement processing ( Various signal processing such as electronic zoom processing) can be performed.
  • the external control device 10200 controls the drive of the display device to display the captured internal image based on the generated image data.
  • the external control device 10200 may have the generated image data recorded in a recording device (not shown) or printed out in a printing device (not shown).
  • the above is an example of an in-vivo information acquisition system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 10112 among the configurations described above. This improves the detection accuracy.
  • the technology according to the present disclosure (the present technology) can be applied to various products.
  • the techniques according to the present disclosure may be applied to endoscopic surgery systems.
  • FIG. 27 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 27 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. Good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image sensor are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image pickup device, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (light emission diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (light emission diode)
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and the working space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as text, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane. So-called narrow band imaging, in which a predetermined tissue such as a blood vessel is photographed with high contrast, is performed.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 28 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 27.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. Good. In the latter case, the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • AE Auto Exposure
  • AF Automatic Focus
  • AWB Auto White Balance
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electrical signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication was performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the imaging unit 11402 among the configurations described above. By applying the technique according to the present disclosure to the imaging unit 11402, the detection accuracy is improved.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure includes any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machines, agricultural machines (tractors), and the like. It may be realized as a device mounted on the body.
  • FIG. 29 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating braking force of the vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 11031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 11031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 11031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 11031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 11031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microprocessor 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs cooperative control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 30 is a diagram showing an example of the installation position of the imaging unit 11031.
  • the image pickup unit 11031 has image pickup units 12101, 12102, 12103, 12104, 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 30 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microprocessor 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles.
  • the microprocessor 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • FIG. 31 shows a schematic configuration of an image sensor (image sensor 700) equipped with an energy harvesting function.
  • the image sensor 700 includes, for example, an image sensor 1, a DSP circuit 710, a communication unit 720, and a power supply control circuit 730.
  • the DSP circuit 710 is a signal processing circuit that processes a signal supplied from the image sensor 1.
  • the DSP circuit 710 outputs image data obtained by processing a signal from, for example, the image sensor 1.
  • the DSP circuit 710 may further include a neural network processing engine (NE).
  • NE neural network processing engine
  • a position (GNSS) or gyro sensor may be further connected to the DSP circuit 710. This makes it possible to detect and determine (metadata) the number of people, face recognition, weather, and other objects and situations from the image acquired by the image sensor 1 by NE or the like.
  • the communication unit 720 transmits the image data and metadata obtained in the DSP circuit 710 to the outside by using a communication means such as 5G or LPWA (Low Power Wide Area).
  • a communication means such as 5G or LPWA (Low Power Wide Area).
  • the power supply control circuit 730 controls, for example, the power supply from a battery (not shown), and is connected to the image sensor 1, the DSP circuit 710, and the communication unit 720. Further, the power supply control circuit 730 stably supplies the power required for driving the image sensor 1 to the image sensor 1 by, for example, supplying the power generated by the power generation unit 120 of the image sensor 1. It may be a method.
  • FIG. 4 and the like a configuration of 2 ⁇ 2 pixel sharing is shown as a specific example of the pixel configuration of the imaging unit 110, but the present invention is not limited to this, and for example, 1 ⁇ 2 pixel sharing or 2 ⁇ 4 pixel sharing may be used. Good.
  • the present disclosure may also have the following structure. According to the present technology having the following configuration, it is possible to configure an image sensor having a power generation unit without reducing the number and area of sensor pixels constituting the image pickup unit and without increasing the area of the semiconductor substrate. it can. Therefore, it is possible to provide an image sensor that has both excellent pixel characteristics and a high amount of power generation.
  • a semiconductor substrate having one surface and the other surface facing each other, An imaging unit provided on the semiconductor substrate and having a plurality of sensor pixels that perform photoelectric conversion, and An image pickup device provided around the image pickup section of the semiconductor substrate and provided with a power generation section that performs photoelectric conversion.
  • An optical system is arranged above the one surface of the semiconductor substrate.
  • the image pickup device according to (1), wherein the image pickup unit and the power generation unit are arranged in an image circle of the optical system. (3) The image pickup device according to (1) or (2), wherein the image pickup unit and the power generation unit are electrically separated from each other. (4) The semiconductor substrate further has a separation unit between the image pickup unit and the power generation unit. The image pickup device according to any one of (1) to (3) above, wherein the image pickup unit and the power generation unit are electrically separated by the separation unit. (5) The image pickup device according to (4) above, wherein the separation portion is formed of an insulating film or an impurity region. (6) The image pickup device according to (4) or (5), wherein the separation portion penetrates between the one surface and the other surface of the semiconductor substrate.
  • the separation portion is formed from the other surface of the semiconductor substrate toward the one surface, and extends in the in-plane direction of the semiconductor substrate inside the semiconductor substrate (4). ) Or (5).
  • the image pickup device according to any one of (5) to (7) above, wherein a fixed potential is applied to the impurity region constituting the separation portion.
  • the semiconductor substrate includes a first conductive type region that forms a pn junction, and a second conductive type region that is provided in the first conductive type region and is different from the first conductive type region.
  • the image pickup device according to any one of. (14)
  • the power generation unit extends from the periphery of the image pickup unit to the other surface of the semiconductor substrate, and partially has a laminated structure with the image pickup unit, which is any one of (1) to (13).
  • the image pickup device according to.
  • the image pickup device according to.
  • the image pickup device according to any one of (1) to (14), wherein the semiconductor substrate has an uneven shape on one surface.
  • the image pickup unit has a substantially rectangular shape and has dummy pixels on at least one side of the peripheral edge.
  • the image pickup unit further includes an organic photoelectric conversion unit containing an organic material outside the semiconductor substrate.

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

本開示の一実施形態の撮像素子は、光入射面となる一の面および一の面と対向する他の面を有する半導体基板と、半導体基板に設けられると共に、光電変換を行う複数のセンサ画素を有する撮像部と、半導体基板の撮像部の周囲に設けられると共に、光電変換を行う発電部とを備える。

Description

撮像素子
 本開示は、撮像部および発電部を有する撮像素子に関する。
 Internet of Things(IoT)向けの技術として、電源レスのバッテリー駆動技術が求められている。例えば、特許文献1では、複数配列された受光セル同士の間に、撮像レンズから取り込まれた光を受光する太陽電池が設けられた固体撮像素子が開示されている。
特開2007-281144号公報
 ところで、上記のように太陽電池を備えた撮像素子では、優れた画素特性と高い発電量との両立が求められている。
 優れた画素特性と高い発電量とを両立することが可能な撮像素子を提供することが望ましい。
 本開示の一実施形態の撮像素子は、対向する一の面および他の面を有する半導体基板と、半導体基板に設けられると共に、光電変換を行う複数のセンサ画素を有する撮像部と、半導体基板の撮像部の周囲に設けられると共に、光電変換を行う発電部とを備えたものである。
 本開示の一実施形態の撮像素子では、複数のセンサ画素を有する撮像部の周囲の半導体基板に、光電変換を行う発電部を設けることで、撮像部を構成するセンサ画素の数および面積を削減することなく、また、半導体基板の面積を増加させることなく発電部を配置する。
本開示の第1の実施の形態に係る撮像素子の概略構成を表す平面模式図である。 図1に示した撮像素子の積層構成を表す図である。 図1に示した撮像素子のI-I線における構成の一例を表す断面模式図である。 図1に示した撮像素子のI-I線およびその近傍の構成の一具体例を表す平面図である。 図1に示した画素の等価回路図である。 図1に示した撮像素子における発電部の形成領域の他の例を表す平面模式図である。 図1に示した撮像素子における発電部の形成領域の他の例を表す平面模式図である。 図1に示した撮像素子における発電部の形成領域の他の例を表す平面模式図である。 図1に示した撮像素子のI-I線における構成の他の例を表す断面模式図である。 図1に示した撮像素子のI-I線における構成の他の例を表す断面模式図である。 図1に示した撮像素子におけるコンタクト領域、OPB領域および遮光領域の配置の一例を表す平面模式図である。 図1に示した撮像素子におけるOPB領域の配置の他の例を表す平面模式図である。 図1に示した撮像素子におけるOPB領域の配置の他の例を表す平面模式図である。 図1に示した撮像素子におけるコンタクト領域の配置の他の例を表す平面模式図である。 図1に示した撮像素子におけるコンタクト領域の配置の他の例を表す平面模式図である。 図1に示した撮像素子におけるコンタクト領域の配置の他の例を表す平面模式図である。 図1に示した撮像素子における発電部の一日の発電量の経時変化を表す図である。 図1に示した撮像素子におけるバッテリー残量の一日の経時変化を表す図である。 本開示の第2の実施の形態に係る撮像素子の構成の一例を表す断面模式図である。 図12に示した撮像素子の構成の一具体例を表す平面図である。 図12に示したソーラーセルの等価回路図である。 図12に示した撮像素子の構成の一具体例を表す平面図である。 本開示の第3の実施の形態に係る撮像素子の構成の一例を表す断面模式図である。 図18に示した撮像素子の構成の一具体例を表す平面図である。 本開示の変形例1に係る発電部の光電変換部の形状の他の例を表す平面模式図である。 本開示の変形例1に係る発電部の光電変換部の形状の他の例を表す平面模式図である。 本開示の変形例1に係る発電部の光電変換部の形状の他の例を表す平面模式図である。 本開示の変形例1に係る発電部の光電変換部の形状の他の例を表す断面模式図である。 本開示の変形例2に係る撮像素子の構成の一例を表す断面模式図である。 本開示の変形例3に係る撮像素子の構成の一例を表す断面模式図である。 本開示の変形例3に係る撮像素子の構成の他の例を表す断面模式図である。 本開示の変形例4に係る撮像素子の構成の一例を表す断面模式図である。 図1などに示した撮像素子の全体構成を表すブロック図である。 図1などに示した撮像素子を用いた撮像装置(カメラ)の一例を表す機能ブロック図である。 体内情報取得システムの概略的な構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 エナジーハーベスト機能を搭載したイメージセンサの構成を表すブロック図である。
 以下、本開示における一実施形態について、図面を参照して詳細に説明する。以下の説明は本開示の一具体例であって、本開示は以下の態様に限定されるものではない。また、本開示は、各図に示す各構成要素の配置や寸法、寸法比などについても、それらに限定されるものではない。なお、説明する順序は、下記の通りである。
 1.第1の実施の形態(撮像部の周囲に発電部を有する撮像素子の例)
   1-1.撮像素子の構成
   1-2.撮像素子の動作
   1-3.作用・効果
 2.第2の実施の形態(撮像部のセンサ画素と発電部のソーラーセルとが同じ構造を有する例)
 3.第3の実施の形態(発電部が多段型のソーラーセルからなる例)
 4.変形例
   4-1.変形例1(ソーラーセルを構成する光電変換部の形状の他の例)
   4-2.変形例2(表面照射型の撮像素子の例)
   4-3.変形例3(半導体基板の光入射面に凹凸構造を有する例)
   4-4.変形例4(センサ画素を構成する光電変換部を半導体基板外に設けた例)
 5.適用例
 6.応用例
 7.実施例
<1.第1の実施の形態>
 図1は、本開示の第1の実施の形態に係る撮像素子(撮像素子1)の概略構成を模式的に表した平面図である。図2は、図1に示した撮像素子の積層構成を表したものである。図3は、図1に示したI-I線における撮像素子1の断面構成の一例を模式的に表したものであり、図4は、図1に示したI-I線およびその近傍の平面構成の一具体例を模式的に表したものであり、例えば、2行2列で配置された4つの画素Pが1つの画素回路を供給している例を示している。本実施の形態の撮像素子1は、電源レスのバッテリー駆動技術を有するCCDイメージセンサまたはCMOSイメージセンサであり、複数のセンサ画素(以下、単に画素Pと称す)を有する撮像部110の周囲に1または複数のソーラーセルCを有する発電部120が設けられた構成を有する。
(1-1.撮像素子の構成)
 撮像素子1は、例えば2つの基板(第1基板100、第2基板200)を備えている。撮像素子1は、第1基板100と第2基板200とを貼り合せて構成された3次元構造を有する撮像素子である。第1基板100には、例えば、半導体基板10に、撮像部110と発電部120とが設けられている。第2基板200には、例えば、ロジック回路として周辺回路210、カラムADC220および制御部230などが設けられている。撮像素子1は、例えば、裏面照射型の撮像素子である。撮像素子1の上方、具体的には、第1基板100の裏面側には後述する光学系310が配置され、この光学系310を介して第1基板100の裏面側から光が入射するようになっている。
 以下に、撮像部110および発電部120について説明する。なお、本実施の形態では、光電変換部よって生じる電子および正孔の対のうち、電子を信号電荷として読み出す場合(n型半導体領域(N-)を光電変換部とする場合)について説明する。また、図中において、「P」「N」に付した「+(プラス)」は、周囲のp型半導体領域またはn型半導体領域よりもp型またはn型の不純物濃度が高いことを、「-(マイナス)」は、周囲のp型半導体領域またはn型半導体領域よりもp型またはn型の不純物濃度が低いことを表している。
 本実施の形態の撮像部110および発電部120は、例えば、図1に示したように、共にイメージサークルX内に設けられており、発電部120は、撮像部110の周囲に設けられている。ここで、「イメージサークル」とは、光学系310を透過した光が、撮像素子1の光入射面(具体的には、半導体基板10の裏面(面S2))に結像する円形の範囲のことである。なお、上記「円形」は、正円および楕円を含むものとする。撮像部110と発電部120とは、分離部130によって電気的に分離されている。
(撮像部)
 撮像部110は、所定の波長帯域の光を検出して光電変換を行うものであり、複数の画素Pが2次元配列されている。撮像部110は、半導体基板10内に、画素P毎に光電変換部11としてフォトダイオード(PD)が埋め込み形成されており、半導体基板10の表面(面S1)には、フローティングディフュージョンFDが設けられている。また、半導体基板10の面S1近傍には、画素回路を構成する各種トランジスタが形成されている。
 半導体基板10は、例えば、不純物濃度が1×1014/cm2以上1×1020/cm2以下のp型のシリコン(Si)基板によって構成され、所定の領域に光電変換部11となるフォトダイオードPDを構成するn型半導体領域(N-)を有している。
 半導体基板10の面S1近傍には、画素トランジスタとして光電変換部11で発生した信号電荷を、例えば垂直信号線Lsig(図24参照)に転送する転送トランジスタTRが設けられている。信号電荷は、光電変換によって生じる電子および正孔のどちらであってもよいが、ここでは電子を信号電荷として読み出す場合を例に挙げて説明する。半導体基板10の面S1近傍には転送トランジスタTRと共に、例えばリセットトランジスタRST、増幅トランジスタAMPおよび選択トランジスタSELなどが設けられている。このようなトランジスタは、例えばMOSEFT(Metal Oxide Semiconductor Field Effect Transistor)であり、例えば、画素P毎に、あるいは、図4に示したように、2行2列で配置された4つの画素P毎に、例えば図5に示した画素回路を構成している。画素回路は、例えば転送トランジスタTR、リセットトランジスタRSTおよび増幅トランジスタAMPを含む3トランジスタ構成であってもよいし、これに選択トランジスタSELが加わった4トランジスタ構成であってもよい。
 光電変換部11は、画素P毎に、半導体基板10に埋め込み形成された、例えばn型半導体領域(N-)によって構成されるpn接合型のフォトダイオードPDである。光電変換部11は、入射した光に基づいて、光電変換によって入射した光量に応じた電荷を発生させ、発生した電荷を蓄積するものである。フォトダイオードPDでは、カソードが転送トランジスタTRのソースに電気的に接続されており、アノードが基準電位線(例えばグランドGND)に電気的に接続されている。
 転送トランジスタTRは、例えば、転送信号線を介して制御部230より所定のタイミングで供給される転送信号に基づいて動作し、光電変換部11に蓄積された信号電荷を、フローティングディフュージョンFDに転送するためのものである。転送トランジスタTRでは、ドレインがフローティングディフュージョンFDに電気的に接続され、ゲートが駆動信号線に電気的に接続されている。
 フローティングディフュージョンFDは、p型半導体層中に形成されたn型拡散層領域(N+)である。フローティングディフュージョンFDは、フォトダイオードPDから転送された電荷を一時的に保持する電荷保持手段であり、かつ、その電荷量に応じた電圧を発生させる、電荷-電圧変換手段である。
 リセットトランジスタRSTは、リセット信号線を介して制御部より所定のタイミングで供給されるリセット信号に基づいて動作し、フローティングディフュージョンFDに蓄積された電荷を排出するものである。リセットトランジスタRSTのゲートは、リセット信号線に接続されている。リセットトランジスタRSTのソース/ドレイン領域は、半導体基板10の面S1に形成されたn型半導体領域(N+)12,13によって構成されている。ソース/ドレイン領域の一方(n型半導体領域(N+)12)はフローティングディフュージョンFDを兼ねており、他方(n型半導体領域(N+)13)は電源線VDDに接続されている。
 増幅トランジスタAMPは、フローティングディフュージョンFDに蓄積された電荷に応じた電圧をゲート信号として、ソース/ドレイン間の電圧を増幅することにより画素信号(受光信号)として選択トランジスタSELに供給するものである。増幅トランジスタAMPのゲートは、リセットトランジスタRSTの一方のソース/ドレイン領域(n型半導体領域(N+)12;フローティングディフュージョンFD)に接続されている。増幅トランジスタAMPのソース/ドレイン領域は、図示していないが、リセットトランジスタRSTのソース/ドレイン領域と同様に、半導体基板10の面S1に形成されたn型半導体領域(N+)によって構成されており、ソース/ドレイン領域の一方はリセットトランジスタRSTの、他方のソース/ドレイン領域(n型半導体領域(N+)13)と領域を共有しており、電源線VDDに接続されている。
 選択トランジスタSELは、選択信号線を介して制御部より所定のタイミングで供給される選択信号に基づいて動作し、増幅トランジスタAMPより供給される画素信号を垂直信号線Lsigに出力するものである。選択トランジスタSELのゲートは、選択信号線に接続されている。選択トランジスタSELのソース/ドレイン領域は、図示していないが、リセットトランジスタRSTのソース/ドレイン領域と同様に、半導体基板10の面S1に形成されたn型半導体領域(N+)によって構成されており、ソース/ドレイン領域の一方は増幅トランジスタAMPの、他方のソース/ドレイン領域と領域を共有しており、他方はデータ出力線に接続されている。
 半導体基板10の面S1には、さらに、フォトダイオードPDのアノードとしてp型半導体領域(P+)14が設けられており、このp型半導体領域(P+)14は固定電位((例えば、基準電位としてグランドGND)に接続されている。半導体基板10には、さらに、隣り合う画素Pの間に、素子分離部15が設けられている。
 素子分離部15は、隣り合う画素Pの間を電気的に分離するためのものである。素子分離部15は、例えば、半導体基板10の面S1に設けられた所謂STI(Shallow Trench Isolation)であり、例えば、図4に示したように、画素Pを囲むように設けられている。素子分離部15は、例えば、酸化ケイ素(SiO2)、酸化ハフニウム(HfO2)、酸化ジルコニウム(ZrO2)、酸化アルミニウム(Al23)、酸化チタン(TiO2)および酸化タンタル(Ta25)などの酸化膜を用いて形成することができる。
 なお、素子分離部15は、例えば、素子分離部15を形成する開口内に、例えばタングステン(W)などの金属膜を埋設し、その周囲(即ち、金属膜の側面および底面)に、上記酸化膜を形成するようにしてもよい。これにより、隣接する画素P間を電気的に分離するとともに、隣接する画素Pから入射する虞のある斜め入射光が金属膜によって遮光されて光学的に分離することができる。また、素子分離部15は、例えば、後述する分離部130のように、半導体基板10の面S1と面S2との間を貫通する、所謂DTI(Deep Trench Isolation)としてもよい。
(発電部)
 発電部120は、撮像部110の周囲に設けられた1または複数のソーラーセルCによって構成されている。ソーラーセルCは、pn接合型のフォトダイオードPDであり、半導体基板10の面S1に形成された、例えばn型半導体領域(N-)からなる光電変換部21を有する。発電部120は、半導体基板10の面S1に、光電変換部21となるn型半導体領域(N-)よりもn型の不純物濃度の高いn型半導体領域(N+)22と、p型半導体領域(P+)23とをさらに有する。n型半導体領域(N+)22は、光電変換部21となるn型半導体領域(N-)内に形成されており、基準電位(例えばグランドGND)に接続されている。p型半導体領域(P+)23は、カソード(正)に接続されている。
 ソーラーセルCは、入射した光によって発生した電荷が順方向に流れる電流を取り出すものである。ソーラーセルCの出力電圧は、フォトダイオードPDに流れる電流と電圧との関係から決定される。pn接合において発生する電圧は、流れる電流によって変動し、例えばシリコン基板の場合、フォトダイオードPDがオンする電圧(起電力)は0.5V付近となる。バッテリーを充電する際には、例えば、n型半導体領域(N+)22をグランドGNDに接続し、p型半導体領域(P+)23の電圧をDC-DC変換回路に接続したり、ソーラーセルCを縦積みして電圧を高くする。そのため、p型半導体領域(P+)23に高い電圧が、n型半導体領域(N+)22に低い電圧が発生する。
 ところで、撮像部110周囲の、発電部120を形成する半導体基板10の未使用領域は、イメージサークルXの位置ずれなどの光学的な要因での律速と、第2基板200に形成される周辺回路210などの回路規模による律速とがあるが、一般に、光学的な要因で決定される。例えば、矩形形状の撮像部110を有する撮像素子1では、撮像部110の四隅がイメージサークルXとの距離的なクリティカル領域となる。例えば、図1に示した撮像素子1では、撮像部110の四隅が撮像部110の外縁からイメージサークルXまでの距離が最も小さくなるため、撮像部110の四隅付近のソーラーセルCは、イメージサークルXから外れ、発電に寄与しなくなる。
 このため、図1では、発電部120を、撮像部110の周囲に連続して設けた例を示したが、これに限らず、例えば、図6Aや図6Cに示したように、光が照射されるイメージサークルXの内側のみに形成するようにしてもよい。また、図6A,図6Bでは、矩形を組み合わせた発電部120の形状を示したが、発電部120の形状はこれに限定されない。例えば、図6Cに示したように、例えば矩形形状を有する撮像部110の各辺に、台形状の発電部120を設けるようにしてもよい。
(分離部)
 分離部130は、上記のように、撮像部110と発電部120とを電気的に分離するためのものであり、例えば、図1に示したように、撮像部110を囲むように形成されている。分離部130は、例えば、半導体基板10の面S1と面S2との間を貫通するn型半導体領域(N-)31によって形成することができる。n型半導体領域(N-)31には、面S1にn型半導体領域(N-)31よりもn型不純物濃度の高いn型半導体領域(N+)32が設けられている。このn型半導体領域(N+)32は、固定電位として電源線VDDに接続されている。
 撮像素子1に光が入射すると発電部120のp領域(半導体基板10)の電圧が増加していく。この発電部120のp領域と撮像部110のp領域とを電気的に分離するためには、発電部120のp領域と分離のためのn領域(分離部130を構成するn型半導体領域(N-)31)とが十分な逆バイアスになっていることが望ましい。本実施の形態では、n型半導体領域(N-)31には、上記のように、n型半導体領域(N+)32を介して電源線VDDが接続されているため、発電部120のp領域と、分離のためのn領域(n型半導体領域(N-)31)との電位差は、発電部120のp領域の電位<<n型半導体領域(N-)31の電位となる。これにより、発電部120のp領域と撮像部110のp領域とは電気的に分離される。
 なお、本実施の形態では、撮像部110のn型半導体領域(N+)13と同様に、n型半導体領域(N+)32に電源線VDDが接続されている例を示したが、n型半導体領域(N-)31がソーラーセルCの起電力以上の電圧以上になれば、これに限らない。例えば、図3などに示したような1段型のソーラーセルCの場合、その起電力は約0.5Vである。よって、n型半導体領域(N+)32には、0.5Vより大きな電圧が印加されるようにすればよく、例えば1Vの程度の電圧を印加することで、発電部120のp領域と撮像部110のp領域とは電気的に分離することができる。
 また、図3では、半導体基板10の面S1と面S2との間を貫通するn型半導体領域(N-)31によって分離部130を形成した例を示したが、これに限らない。例えば、図7に示したように、半導体基板10の面S1から面S2に向かって形成されると共に、半導体基板10の深い位置(例えば、面S2近傍)において半導体基板10内部の面内を発電部120方向に延在するn型半導体領域(N-)31によって撮像部110と発電部120とを電気的に分離するようにしてもよい。
 また、分離部130は、撮像部110と発電部120とを電気的に分離できればよいため、例えば、図8に示したように、所謂DTI(Deep Trench Isolation)として、半導体基板10の面S1と面S2との間を貫通する絶縁膜33によって形成するようにしてもよい。絶縁膜33は、例えば素子分離部15と同様の材料を用いて形成することができる。具体的には、絶縁膜33の材料としては、例えば、酸化ケイ素(SiO2)、酸化ハフニウム(HfO2)、酸化ジルコニウム(ZrO2)、酸化アルミニウム(Al23)、酸化チタン(TiO2)および酸化タンタル(Ta25)などが挙げられる。
 なお、分離部130をn型半導体領域(N-)31で形成する場合には、寄生バイポーラトランジスタが動作する虞があるため、分離部130と光電変換部21とは十分に離した位置に設けることが好ましい。分離部130を絶縁膜33で形成する場合には、バイポーラトランジスタができないため、分離部130をn型半導体領域(N-)31で形成する場合と比較して、光電変換部21は、分離部130に近い位置に設けることができる。
 なお、図4では、撮像部110の分離部130と隣接する素子分離部15を分離部130とは別に設けた例を示したが、分離部130が素子分離部15を兼ねていてもよい。
 以上、本実施の形態の撮像素子1を構成する撮像部110、発電部120および分離部130の基本的な構成を説明したが、撮像素子1は、以下のような構成もとり得る。
 例えば、撮像素子1は、図9Aに示したように、矩形形状を有する撮像部110の一辺に、黒レベルの基準になる光学的黒を出力するためのオプティカルブラック(OPB)領域110Aを形成するようにしてもよい。また、撮像素子1は、例えば、撮像部110の周縁全周に亘って、各画素Pと同様の構成を有するダミー画素が形成されたダミー画素領域110Bを設けるようにしてもよい。更に、撮像部110の周囲には、コンタクト領域110Cを設けるようにしてもよい。
 なお、OPB領域110Aは、例えば、図9Bに示したように、撮像部110の周縁全周に亘って形成するようにしてもよいし、図9Cに示したように、隣り合う2辺に形成するようにしてもよい。また、ダミー画素領域110Bは、必ずしも撮像部110の周縁全周に亘って設けられていなくてもよく、例えば、一辺にのみ形成されていてもよい。
 コンタクト領域110Cは、図9Aでは撮像部110と分離部130との間に設けた例を示したが、例えば、図10Aに示したように、分離部130と発電部120との間に設けるようにしてもよい。あるいは、コンタクト領域110Cは、図10Bに示したように、発電部120の周縁に接して設けるようにしてもよいし、図10Cに示したように、発電部120内に設けるようにしてもよい。更に、図9Aでは、コンタクト領域110Cを2辺にのみ形成した例を示したが、コンタクト領域110Cは、矩形形状を有する撮像部110の上下左右の4辺に形成するようにしてもよい。
 更に、撮像素子1は、半導体基板10の裏面(面S2)側に、例えば、カラーフィルタ、遮光膜およびオンチップレンズを設けるようにしてもよい。
 カラーフィルタは、半導体基板10の全面に亘って形成することができる。なお、発電部120に設けられるカラーフィルタは、光電変換効率の観点からはホワイト(W)が好ましいが、製造コストなどの観点から撮像部110と同様に、赤(R)、緑(G)、青(B)のいずれかのフィルタを設けるようにしてもよい。その場合には、最も感度が高い緑(G)のフィルタとすることが好ましい。
 遮光膜は、例えば、複数の画素Pが2次元配列されてなる撮像部110の各画素P間ならびに撮像部110の周縁に形成されるOPB領域110Aおよびダミー画素領域110Bの上方に形成される。
 オンチップレンズは、その上方から入射した光を、撮像部110に2次元配列された各画素Pの受光面へ集光させるためのものである。そのため、発電部120や分離部130などにオンチップレンズは不要であるが、例えば、撮像素子1の最上層の対称性を維持する目的で、カラーフィルタと同様に、半導体基板10の前面に亘って配置するようにしてもよい。また、発電部120にオンチップレンズを設ける場合には、瞳補正を行うようにしてもよい。
(1-2.撮像素子の動作)
 本実施の形態の撮像素子1では、各画素Pから、次のようにして信号電荷(ここでは電子)が取得される。撮像素子1に、光学系310を介して光が入射すると、撮像部110では、光は、オンチップレンズおよびカラーフィルタなどを通過して各画素Pにおける光電変換部11で検出(吸収)され、赤(R)、緑(G)または青(B)の色光が光電変換される。各画素Pには逆バイアスが印加される。これにより、光電変換部11で発生した電子-正孔対のうち、電子は光電変換部11を構成するn型半導体領域(N-)へ移動して蓄積され、正孔はp型半導体領域へ移動して排出される。
 発電部120では、光学系310を介して発電部120に入射した光によって、ソーラーセルCを構成する光電変換部21において電荷が発生する。ソーラーセルCには順バイアスが印加され、p型半導体領域(P+)23に接続されたカソード(正)から出力電流が取り出される。カソード(正)から取り出された電流は、撮像部110の動作電流や、例えば、カメラ2(例えば、図25参照)などの撮像素子1を備えた電子機器に内蔵されたバッテリーの充電に用いられる。
 図11Aは、発電部120の一日の発電量の経時変化を表したものであり、図11Bは、バッテリーの残量の一日の経時変化を表したものである。発電部120は、日中、野外では太陽光などで発電し、撮像部110に対して動作電流を供給し、且つ、過剰分はバッテリーに充電される。夜などの暗所では、バッテリー電流が動作電流として用いられる。室内などでは、太陽光に加えて蛍光灯などの光が追加される。
 なお、図11Bに示したバッテリー残量の経時変化は一例であり、撮像部110を常時動作させる場合と、間欠的に動作させる場合とでバッテリー残量が連続的に減るか、階段状に減るかは異なる。しかしながら、平均としてみると同様の形状になる。
(1-3.作用・効果)
 本実施の形態の撮像素子1は、複数の画素Pを有する撮像部110の周囲に1または複数のソーラーセルCを有する発電部120が設けられたものである。これにより、撮像部110の画素Pの数および面積を削減することなく、また、撮像部110が設けられる半導体基板10の面積を増加させることなく、発電部120を設けることができる。以下、これについて説明する。
 前述したように、IoT向けの技術として、電源レスのバッテリー駆動技術が求められており、重要な技術として、低電力化およびエナジーハーベスティング技術がある。イメージセンサ向けのエナジーハーベスティング技術としては、主に外光を用いた方式になりやすい。一般的な技術としては、イメージャとは別にソーラーセルを用意し、発電する方式が知られている。しかしながら、イメージャに用いられている画素を少なくとも修正する必要があり、ノイズ特性や飽和特性などの悪化が懸念される。
 これに対して、本実施の形態では、例えば、複数のセンサ画素を有する半導体基板(以下、上チップと称す)と、各センサ画素で得られた信号を処理する信号処理回路を有する半導体基板(以下、下チップと称す)とが互いに積層された3次元構造の撮像素子において、複数のセンサ画素を有する半導体基板の周辺部にソーラーセルを配置するようにした。具体的には、本実施の形態の撮像素子1は、上記のように、複数の画素Pを有する撮像部110の周囲に1または複数のソーラーセルCを有する発電部120が設けられており、撮像部110および発電部120は、撮像素子1の上方に配置された光学系310を透過した光が撮像素子1の光入射面(例えば、半導体基板10の面S2)に結像により生じるイメージサークルX内に設けられている。また、撮像部110と発電部120との間には分離部130が設けられており、撮像部110と発電部120とは、分離部130によって電気的に分離されている。
 上記のような3次元構造の撮像素子では、被写体からの光を撮像素子に導き、撮像素子の受光面に結像させるレンズが作るイメージサークルは、メカニカルな位置ずれを考慮し、複数のセンサ画素が配列された画素アレイよりも大きく設計される。また、上チップは、チップ外周部に形成されるパッドやチップ端からの光の反射による影響を抑えるために、画素アレイからチップ外周まである一定の距離が確保される。このため、上チップの主周辺には、未使用、且つ、光が入射する領域が存在する。
 本実施の形態では、この上チップ(具体的には、第1基板100の半導体基板10)の未使用領域に、ソーラーセルCを有する発電部120を設けるようにした。これにより、撮像部110の画素Pの数および面積を削減することなく、また、撮像部110が設けられる半導体基板10の面積を増加させることなく、優れた画素特性と高い発電量とを両立する撮像素子を実現することが可能となる。
 以下に、本開示の第2,第3の実施の形態および変形例(変形例1~4)ついて説明する。なお、上記第1の実施の形態と同一の構成要素については同一の符号を付し説明を省略する。
<2.第2の実施の形態>
 図12は、本開示の第2の実施の形態に係る撮像素子(撮像素子1A)の断面構成の一例を表したものである。なお、図12は、図1に示したI-I線における断面構成に相当する。撮像素子1Aは、上記第1の実施の形態における撮像素子1と同様に、電源レスのバッテリー駆動技術を有するCCDイメージセンサまたはCMOSイメージセンサである。本実施の形態では、発電部420を構成するソーラーセルCを、撮像部110を構成する複数の画素Pと同一構造とした点が上記第1の実施の形態とは異なる。
 発電部420は、上記のように、撮像部110を構成する複数の画素Pと同一の構造を有するソーラーセルCによって構成されている。具体的には、発電部420に設けられたソーラーセルCは、図13に示したように、互いに同様の平面構成を有し、また、図14に示したように、例えば、図5に示した画素Pの等価回路と同様の回路構成を有する。
 なお、図13では、撮像部110および発電部420の分離部130と隣接する素子分離部15,45をそれぞれ分離部130とは別に設けた例を示したが、分離部130が、隣接する素子分離部15,45を兼ねていてもよい。
 また、発電部420では、隣接するソーラーセルC間のクロストークを防ぐ必要はないため、図15に示したように、素子分離部45を省略してもよい。製造プロセス上、撮像部110と発電部420との対照性を維持したい場合には、図13に示したように素子分離部45を設けてもよいが、素子分離部45は暗電流の発生の原因となる虞があるため、設けないほうが好ましい。
 以上のように、本実施の形態の撮像素子1Aでは、半導体基板10の未使用領域である撮像部110の周囲に、撮像部110を構成する画素Pと同一構造を有するソーラーセルCを有する発電部120を設けるようにした。これにより、上記第1の実施の形態と同様の効果が得られると共に、製造プロセスを簡素化することが可能となる。
<3.第3の実施の形態>
 図16は、本開示の第3の実施の形態に係る撮像素子(撮像素子1B)の断面構成の一例を表したものである。図17は、図16に示した撮像素子1Bの平面構成の一具体例を模式的に表したものである。なお、図16は、図1に示したI-I線における断面構成に相当する。撮像素子1Bは、上記第1の実施の形態における撮像素子1と同様に、電源レスのバッテリー駆動技術を有するCCDイメージセンサまたはCMOSイメージセンサである。本実施の形態では、発電部520を構成するソーラーセルCを、多段型(図16では、2段型)とした点が上記第1の実施の形態とは異なる。
 発電部520は、撮像部110の周囲にソーラーセルCが、例えば2重(ソーラーセルC1,ソーラーセルC2)に形成された、多段型のソーラーセルからなる。図16に示したような多段型の発電部520では、例えば、ソーラーセルC1とソーラーセルC2との間には、例えば分離部130と同様の構成を有する分離部140が設けられている。具体的には、分離部140は、n型半導体領域(N-)34からなり、その表面(面S1)には、n型半導体領域(N-)34よりもn型不純物濃度の高いn型半導体領域(N+)35が設けられている。ソーラーセルC1とソーラーセルC2とは、カスコード接続されており、n型半導体領域(N+)35が、ソーラーセルC1のp型半導体領域(P+)23AおよびソーラーセルC2のn型半導体領域(N+)22Bと共に、電源線VDDに接続されている。このとき、n型半導体領域(N+)35には、発電部520で発生する最大電圧以上の電圧が印加されるようにする。
 以上のように、本実施の形態の撮像素子1Bでは、半導体基板10の未使用領域である撮像部110の周囲に、多段型のソーラーセルCからなる発電部120を設けるようにした。これにより、上記第1の実施の形態と同様の効果が得られると共に、発電部520における発電量を向上させることが可能となるという効果を奏する。
<4.変形例>
(4-1.変形例1)
 図18A~図18Cは、本開示の変形例(変形例1)として、上記第1の実施の形態に係る撮像素子1の発電部120のソーラーセルCを構成する光電変換部21の平面形状の他の例を表したものである。光電変換部21を構成するn型半導体領域(N-)は、例えば、図18Aに示したような櫛歯状としてもよいし、図18Bに示したようなドット状に形成するようにしてもよい。n型半導体領域(N-)を櫛歯状とする場合には、例えば、Y軸方向に延伸するn型半導体領域(N-)を、X軸方向に延伸する複数のn型半導体領域(N-)の片側のみ、あるいは、X軸方向に延伸する複数のn型半導体領域(N-)の途中に形成するようにしてもよい。n型半導体領域(N-)をドット状とする場合には、図18Bに示したような横一列に配置してもよいし、図18Cに示したように、互い違いに配置するようにしてもよい。更に、光電変換部21を構成するn型半導体領域(N-)は、例えば、図19に示したように、半導体基板10の膜厚方向(Z軸方向)にp型半導体領域(P-)を間に積層(n型半導体領域(N-)21a,21b)した構成としてもよい。
 このように、ソーラーセルCを構成する光電変換部21(n型半導体領域(N-))を、上記のような形状とすることで、n型半導体領域(N-)とp型半導体領域(P-)との接合面積(pn接合面積)が向上する。これにより、発電部120における発電量を向上させることが可能となる。
(4-2.変形例2)
 図20は、本開示の変形例(変形例2)として、上記第1の形態に係る撮像素子1の光入射面となる半導体基板10の面S2を凹凸構造としたものである。このように、光入射面を凹凸構造とすることで、例えば、近赤外帯域の波長の感度が向上し、発電部120における発電効率を向上させることが可能となる。
(4-3.変形例3)
 図21は、本開示の変形例(変形例3)に係る撮像素子1Cの断面構成の一例を表したものである。なお、図21は、図1に示したI-I線における断面構成に相当する。本変形例の撮像素子1Cは、例えば、半導体基板10の表面(面S1)側が光照射面となる、所謂表面照射型の撮像素子であり、発電部620が、半導体基板10の裏面(面S2)全体に延在しており、一部で撮像部110と積層している点が上記第1の実施の形態とは異なる。具体的には、ソーラーセルCを構成する光電変換部61(n型半導体領域(N-))が半導体基板10の表面(面S1)から裏面(面S2)近傍の面内に延在形成されている点が上記第1の実施の形態とは異なる。また、本変形例の撮像素子1Cでは、撮像部110と、発電部620とを電気的に分離するために、分離部630も半導体基板10の面S1から、半導体基板10内において面内方向に延在形成されている。
 なお、図21では、ソーラーセルCを構成する光電変換部61(n型半導体領域(N-))が裏面(面S2)近傍の半導体基板10内に延在している例を示したが、光電変換部61(n型半導体領域(N-))は、図22に示したように、半導体基板10の裏面(面S2)に面して延在形成されていてもよい。
 また、図21および図22に示した撮像素子1Cを、Time-of-Flight(ToF)方式の測距イメージセンサとして用いる場合には、裏面照射型の撮像素子としても用いることができる。
(4-4.変形例4)
 図23は、本開示の変形例(変形例4)に係る撮像素子1Dの断面構成の一例を表したものである。例えば、上記第1の実施の形態などで説明した撮像素子(例えば、撮像素子1)の撮像部110を構成する光電変換部は、必ずしも半導体基板10に設けられたフォトダイオードPDである必要はなく、例えば、図23に示した撮像素子1Dのように、例えば、有機材料を用いて形成された光電変換層72を含む有機光電変換部70で構成するようにしてもよい。
 有機光電変換部70は、例えば、下部電極71、光電変換層72および上部電極73がこの順に積層された構成を有し、例えば、半導体基板10の面S1側に設けられている。下部電極71は、例えば、ITOなどの光透過性を有する導電膜により、画素P毎に分割形成されている。光電変換層72は、例えば、p型半導体およびn型半導体を含んで構成され、層内にバルクヘテロ接合構造を有する。バルクヘテロ接合構造は、p型半導体およびn型半導体が混ざり合うことで形成されたp/n接合面である。p型半導体は、相対的に電子供与体(ドナー)として機能するものであり、n型半導体は、相対的に電子受容体(アクセプタ)として機能するものである。光電変換層72は、例えば、撮像部110の全面にわたって形成することができる。上部電極73は、下部電極71と同様に、光透過性を有する導電膜からなり、例えば、下部電極71と同様に、画素ごとに分離形成してもよいし、光電変換層72と同様に、各画素Pに対して共通の電極として形成するようにしてもよい。
 なお、下部電極71と光電変換層72との間、および光電変換層72と上部電極73との間には、他の層が設けられていてもよい。
 有機光電変換部70では、上部電極73側から入射した光は光電変換層72で吸収され、これによって生じた励起子は、光電変換層72を構成する電子供与体と電子受容体との界面に移動し、電子と正孔とに解離する。ここで発生した電荷(電子および正孔)は、キャリアの濃度差による拡散や、陽極と陰極との仕事関数の差による内部電界によって、それぞれ異なる電極へ運ばれ、光電流として検出される。下部電極71に運ばれた電荷は、例えば、貫通電極TSVを介して半導体基板10の面S1に形成されたフローティングディフュージョンFDに転送され蓄積される。
 このように、撮像部110を構成する光電変換部は、半導体基板10に形成されたフォトダイオードPDだけでなく、例えば、有機材料を用いて半導体基板10の外部(例えば、光の入射方向)に形成された有機層(光電変換層72)を有する有機光電変換部70としてもよい。
 更に、撮像部110は、例えば、半導体基板10の深さ方向に2つの光電変換部(無機光電変換部)を設け、上記有機光電変換部70を組み合わせることで、所謂縦分光型の撮像部を構成してもよい。これにより、撮像部110では、カラーフィルタを用いることなく1つの画素Pにおいて複数種類の色信号を取得することが可能となる。また、図23では、半導体基板10の表面(面S1)側に有機光電変換部70を設けた例を示したが、例えば、半導体基板10を貫通する貫通ビアなどを用いることで、半導体基板10の裏面(面S2)側に配置することもできる。
<5.適用例>
(適用例1)
 図24は、例えば、上記第1の実施の形態などにおいて説明した撮像素子(例えば、撮像素子1)の全体構成を表したものである。撮像素子1は、例えば、CMOSイメージセンサであり、第1基板100に撮像エリアとしての撮像部110を有すると共に、第2基板200に、例えば、行走査部211、水平選択部213、列走査部214およびシステム制御部212からなる周辺回路210を有している。
 撮像部110は、例えば、行列状に2次元配置された複数の単位画素P(例えば、撮像素子1に相当)を有している。この単位画素Pには、例えば、画素行ごとに画素駆動線Lread(具体的には行選択線およびリセット制御線)が配線され、画素列ごとに垂直信号線Lsigが配線されている。画素駆動線Lreadは、画素からの信号読み出しのための駆動信号を伝送するものである。画素駆動線Lreadの一端は、行走査部211の各行に対応した出力端に接続されている。
 行走査部211は、シフトレジスタやアドレスデコーダ等によって構成され、撮像部110の各単位画素Pを、例えば、行単位で駆動する画素駆動部である。行走査部211によって選択走査された画素行の各単位画素Pから出力される信号は、垂直信号線Lsigの各々を通して水平選択部213に供給される。水平選択部213は、垂直信号線Lsigごとに設けられたアンプや水平選択スイッチ等によって構成されている。
 列走査部214は、シフトレジスタやアドレスデコーダ等によって構成され、水平選択部213の各水平選択スイッチを走査しつつ順番に駆動するものである。この列走査部214による選択走査により、垂直信号線Lsigの各々を通して伝送される各画素の信号が順番に水平信号線215に出力され、当該水平信号線215を通して第2基板200へ伝送される。
 行走査部211、水平選択部213、列走査部214および水平信号線215からなる回路部分は、第2基板200に形成されていてもよいし、あるいは外部制御ICに配設されたものであってもよい。また、それらの回路部分は、ケーブル等により接続された他の基板に形成されていてもよい。
 システム制御部212は、第1基板100の外部から与えられるクロックや、動作モードを指令するデータ等を受け取り、また、撮像素子1の内部情報等のデータを出力するものである。システム制御部212はさらに、各種のタイミング信号を生成するタイミングジェネレータを有し、当該タイミングジェネレータで生成された各種のタイミング信号を基に行走査部211、水平選択部213および列走査部214等の周辺回路の駆動制御を行う。
(適用例2)
 上述の撮像素子1(または、撮像素子1A~1D)は、例えば、デジタルスチルカメラやビデオカメラ等のカメラシステムや、撮像機能を有する携帯電話等、撮像機能を備えたあらゆるタイプの電子機器に適用することができる。図25に、その一例として、カメラ2の概略構成を示す。このカメラ2は、例えば、静止画または動画を撮影可能なビデオカメラであり、撮像素子1と、光学系(光学レンズ)310と、シャッタ装置311と、撮像素子1およびシャッタ装置311を駆動する駆動部313と、信号処理部312とを有する。
 光学系310は、被写体からの像光(入射光)を撮像素子1の撮像部110へ導くものである。この光学系310は、複数の光学レンズから構成されていてもよい。シャッタ装置311は、撮像素子1への光照射期間および遮光期間を制御するものである。駆動部313は、撮像素子1の転送動作およびシャッタ装置311のシャッタ動作を制御するものである。信号処理部312は、撮像素子1から出力された信号に対し、各種の信号処理を行うものである。信号処理後の映像信号Doutは、メモリ等の記憶媒体に記憶されるか、あるいは、モニタ等に出力される。
<6.応用例>
(体内情報取得システムへの応用例)
 更に、本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図26は、本開示に係る技術(本技術)が適用され得る、カプセル型内視鏡を用いた患者の体内情報取得システムの概略的な構成の一例を示すブロック図である。
 体内情報取得システム10001は、カプセル型内視鏡10100と、外部制御装置10200とから構成される。
 カプセル型内視鏡10100は、検査時に、患者によって飲み込まれる。カプセル型内視鏡10100は、撮像機能及び無線通信機能を有し、患者から自然排出されるまでの間、胃や腸等の臓器の内部を蠕動運動等によって移動しつつ、当該臓器の内部の画像(以下、体内画像ともいう)を所定の間隔で順次撮像し、その体内画像についての情報を体外の外部制御装置10200に順次無線送信する。
 外部制御装置10200は、体内情報取得システム10001の動作を統括的に制御する。また、外部制御装置10200は、カプセル型内視鏡10100から送信されてくる体内画像についての情報を受信し、受信した体内画像についての情報に基づいて、表示装置(図示せず)に当該体内画像を表示するための画像データを生成する。
 体内情報取得システム10001では、このようにして、カプセル型内視鏡10100が飲み込まれてから排出されるまでの間、患者の体内の様子を撮像した体内画像を随時得ることができる。
 カプセル型内視鏡10100と外部制御装置10200の構成及び機能についてより詳細に説明する。
 カプセル型内視鏡10100は、カプセル型の筐体10101を有し、その筐体10101内には、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、給電部10115、電源部10116、及び制御部10117が収納されている。
 光源部10111は、例えばLED(light emitting diode)等の光源から構成され、撮像部10112の撮像視野に対して光を照射する。
 撮像部10112は、撮像素子、及び当該撮像素子の前段に設けられる複数のレンズからなる光学系から構成される。観察対象である体組織に照射された光の反射光(以下、観察光という)は、当該光学系によって集光され、当該撮像素子に入射する。撮像部10112では、撮像素子において、そこに入射した観察光が光電変換され、その観察光に対応する画像信号が生成される。撮像部10112によって生成された画像信号は、画像処理部10113に提供される。
 画像処理部10113は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサによって構成され、撮像部10112によって生成された画像信号に対して各種の信号処理を行う。画像処理部10113は、信号処理を施した画像信号を、RAWデータとして無線通信部10114に提供する。
 無線通信部10114は、画像処理部10113によって信号処理が施された画像信号に対して変調処理等の所定の処理を行い、その画像信号を、アンテナ10114Aを介して外部制御装置10200に送信する。また、無線通信部10114は、外部制御装置10200から、カプセル型内視鏡10100の駆動制御に関する制御信号を、アンテナ10114Aを介して受信する。無線通信部10114は、外部制御装置10200から受信した制御信号を制御部10117に提供する。
 給電部10115は、受電用のアンテナコイル、当該アンテナコイルに発生した電流から電力を再生する電力再生回路、及び昇圧回路等から構成される。給電部10115では、いわゆる非接触充電の原理を用いて電力が生成される。
 電源部10116は、二次電池によって構成され、給電部10115によって生成された電力を蓄電する。図26では、図面が煩雑になることを避けるために、電源部10116からの電力の供給先を示す矢印等の図示を省略しているが、電源部10116に蓄電された電力は、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び制御部10117に供給され、これらの駆動に用いられ得る。
 制御部10117は、CPU等のプロセッサによって構成され、光源部10111、撮像部10112、画像処理部10113、無線通信部10114、及び、給電部10115の駆動を、外部制御装置10200から送信される制御信号に従って適宜制御する。
 外部制御装置10200は、CPU,GPU等のプロセッサ、又はプロセッサとメモリ等の記憶素子が混載されたマイクロコンピュータ若しくは制御基板等で構成される。外部制御装置10200は、カプセル型内視鏡10100の制御部10117に対して制御信号を、アンテナ10200Aを介して送信することにより、カプセル型内視鏡10100の動作を制御する。カプセル型内視鏡10100では、例えば、外部制御装置10200からの制御信号により、光源部10111における観察対象に対する光の照射条件が変更され得る。また、外部制御装置10200からの制御信号により、撮像条件(例えば、撮像部10112におけるフレームレート、露出値等)が変更され得る。また、外部制御装置10200からの制御信号により、画像処理部10113における処理の内容や、無線通信部10114が画像信号を送信する条件(例えば、送信間隔、送信画像数等)が変更されてもよい。
 また、外部制御装置10200は、カプセル型内視鏡10100から送信される画像信号に対して、各種の画像処理を施し、撮像された体内画像を表示装置に表示するための画像データを生成する。当該画像処理としては、例えば現像処理(デモザイク処理)、高画質化処理(帯域強調処理、超解像処理、NR(Noise reduction)処理及び/又は手ブレ補正処理等)、並びに/又は拡大処理(電子ズーム処理)等、各種の信号処理を行うことができる。外部制御装置10200は、表示装置の駆動を制御して、生成した画像データに基づいて撮像された体内画像を表示させる。あるいは、外部制御装置10200は、生成した画像データを記録装置(図示せず)に記録させたり、印刷装置(図示せず)に印刷出力させてもよい。
 以上、本開示に係る技術が適用され得る体内情報取得システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部10112に適用され得る。これにより、検出精度が向上する。
(内視鏡手術システムへの応用例)
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図27は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図27では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(light emitting diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注すると共に当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図28は、図27に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部11402に適用され得る。撮像部11402に本開示に係る技術を適用することにより、検出精度が向上する。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
(移動体への応用例)
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図29は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図29に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部11031が接続される。車外情報検出ユニット12030は、撮像部11031に車外の画像を撮像させると共に、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部11031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部11031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部11031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図29の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図30は、撮像部11031の設置位置の例を示す図である。
 図30では、撮像部11031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図30には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
<7.実施例>
 図31は、エナジーハーベスト機能を搭載したイメージセンサ(イメージセンサ700)の概略構成を表したものである。
 イメージセンサ700は、例えば、撮像素子1と、DSP回路710と、通信部720と、電源制御回路730とを有している。
 DSP回路710は、撮像素子1から供給される信号を処理する信号処理回路である。DSP回路710は、例えば撮像素子1からの信号を処理して得られる画像データを出力する。DSP回路710には、さらにニューラルネットワーク処理エンジン(NE)が搭載されていてもよい。DSP回路710には、さらに位置(GNSS)やジャイロセンサが接続されていてもよい。これにより、撮像素子1で取得した画像をNE等によって人の数、顔認識および天候等の物体や状況検出および判断(メタデータ化)を行うことが可能となる。
 通信部720は、DSP回路710において得られた画像データやメタデータを5GやLPWA(Low Power Wide Area)等の通信手段を用いて外部に情報を送信するものである。
 電源制御回路730は、例えばバッテリー(図示せず)からの電力供給を制御するものであり、撮像素子1、DSP回路710および通信部720と互いに接続されている。また、電源制御回路730は、例えば撮像素子1の発電部120において発電された電力が供給されるようにすることで、撮像素子1の駆動に必要な電力を撮像素子1に安定的に供給する方式としてもよい。
 以上、第1~第3の実施の形態および変形例1~4ならびに適用例、応用例および実施例を挙げて説明したが、本開示内容は上記実施の形態などに限定されるものではなく、種々変形が可能である。例えば、上記実施の形態等で説明した各構成要素を全て備えている必要はなく、また、他の構成要素を備えていてもよい。
 また、図4などでは、撮像部110の画素構成の一具体例として、2×2画素共有の構成を示したが、これに限らず、例えば1×2画素共有あるいは2×4画素共有としてもよい。
 なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれの効果であってもよい。
 なお、本開示は以下の様な構成をとることも可能である。以下の構成の本技術によれば、撮像部を構成するセンサ画素の数および面積を削減することなく、また、半導体基板の面積を増加させることなく発電部を備えた撮像素子を構成することができる。よって、優れた画素特性と高い発電量との両立する撮像素子を提供することが可能となる。
(1)
 対向する一の面および他の面を有する半導体基板と、
 前記半導体基板に設けられると共に、光電変換を行う複数のセンサ画素を有する撮像部と、
 前記半導体基板の前記撮像部の周囲に設けられると共に、光電変換を行う発電部と
 を備えた撮像素子。
(2)
 前記半導体基板の前記一の面の上方に光学系が配置され、
 前記撮像部および前記発電部は、前記光学系のイメージサークル内に配置されている、前記(1)に記載の撮像素子。
(3)
 前記撮像部と前記発電部とは電気的に分離されている、前記(1)または(2)に記載の撮像素子。
(4)
 前記半導体基板は、前記撮像部と前記発電部との間に分離部をさらに有し、
 前記撮像部と前記発電部とは、前記分離部によって電気的に分離されている、前記(1)乃至(3)のうちのいずれかに記載の撮像素子。
(5)
 前記分離部は、絶縁膜または不純物領域によって形成されている、前記(4)に記載の撮像素子。
(6)
 前記分離部は、前記半導体基板の前記一の面と前記他の面との間を貫通している、前記(4)または(5)に記載の撮像素子。
(7)
 前記分離部は、前記半導体基板の前記他の面から前記一の面に向かって形成されると共に、前記半導体基板の内部において、前記半導体基板の面内方向に延在している、前記(4)または(5)に記載の撮像素子。
(8)
 前記分離部を構成する前記不純物領域には固定電位が印加されている、前記(5)乃至(7)のうちのいずれかに記載の撮像素子。
(9)
 前記半導体基板は、pn接合を形成する第1の導電型領域と、前記第1の導電型領域内に設けられ、前記第1の導電型領域とは異なる導電型の第2の導電型領域とを有する、前記(1)乃至(8)のうちのいずれかに記載の撮像素子。
(10)
 前記撮像部では、全面に延在する前記第1の導電型領域に、前記センサ画素毎に前記第2の導電型領域が形成されている、前記(9)に記載の撮像素子。
(11)
 前記発電部では、全面に延在する前記第1の導電型領域に、前記第2の導電型領域が串歯状に形成されている、前記(9)または(10)に記載の撮像素子。
(12)
 前記発電部では、全面に延在する前記第1の導電型領域に、前記第2の導電型領域がドット状に形成されている、前記(9)または(10)に記載の撮像素子。
(13)
 前記発電部では、前記半導体基板の面内方向に延在する複数の前記第2の導電型領域が、前記第1の導電型領域を間に積層されている、前記(9)乃至(12)のうちのいずれかに記載の撮像素子。
(14)
 前記発電部は、前記撮像部の周囲から前記半導体基板の前記他の面を延在し、一部に前記撮像部との積層構造を有する、前記(1)乃至(13)のうちのいずれかに記載の撮像素子。
(15)
 前記半導体基板は、前記一の面に凹凸形状を有する、前記(1)乃至(14)のうちのいずれかに記載の撮像素子。
(16)
 前記撮像部は略矩形形状を有し、周縁の少なくとも一辺にダミー画素を有する、前記(1)乃至(15)のうちのいずれかに記載の撮像素子。
(17)
 前記撮像部は、前記半導体基板の外部に、有機材料を含む有機光電変換部をさらに有する、前記(1)乃至(16)のうちのいずれかに記載の撮像素子。
 本出願は、米国特許庁において2019年9月27日に出願された米国特許出願番号62/907170号を基礎として優先権を主張するものであり、この出願の全ての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (17)

  1.  対向する一の面および他の面を有する半導体基板と、
     前記半導体基板に設けられると共に、光電変換を行う複数のセンサ画素を有する撮像部と、
     前記半導体基板の前記撮像部の周囲に設けられると共に、光電変換を行う発電部と
     を備えた撮像素子。
  2.  前記半導体基板の前記一の面の上方に光学系が配置され、
     前記撮像部および前記発電部は、前記光学系のイメージサークル内に配置されている、請求項1に記載の撮像素子。
  3.  前記撮像部と前記発電部とは電気的に分離されている、請求項1に記載の撮像素子。
  4.  前記半導体基板は、前記撮像部と前記発電部との間に分離部をさらに有し、
     前記撮像部と前記発電部とは、前記分離部によって電気的に分離されている、請求項1に記載の撮像素子。
  5.  前記分離部は、絶縁膜または不純物領域によって形成されている、請求項4に記載の撮像素子。
  6.  前記分離部は、前記半導体基板の前記一の面と前記他の面との間を貫通している、請求項4に記載の撮像素子。
  7.  前記分離部は、前記半導体基板の前記他の面から前記一の面に向かって形成されると共に、前記半導体基板の内部において、前記半導体基板の面内方向に延在している、請求項4に記載の撮像素子。
  8.  前記分離部を構成する前記不純物領域には固定電位が印加されている、請求項5に記載の撮像素子。
  9.  前記半導体基板は、pn接合を形成する第1の導電型領域と、前記第1の導電型領域内に設けられ、前記第1の導電型領域とは異なる導電型の第2の導電型領域とを有する、請求項1に記載の撮像素子。
  10.  前記撮像部では、全面に延在する前記第1の導電型領域に、前記センサ画素毎に前記第2の導電型領域が形成されている、請求項9に記載の撮像素子。
  11.  前記発電部では、全面に延在する前記第1の導電型領域に、前記第2の導電型領域が串歯状に形成されている、請求項9に記載の撮像素子。
  12.  前記発電部では、全面に延在する前記第1の導電型領域に、前記第2の導電型領域がドット状に形成されている、請求項9に記載の撮像素子。
  13.  前記発電部では、前記半導体基板の面内方向に延在する複数の前記第2の導電型領域が、前記第1の導電型領域を間に積層されている、請求項9に記載の撮像素子。
  14.  前記発電部は、前記撮像部の周囲から前記半導体基板の前記他の面を延在し、一部に前記撮像部との積層構造を有する、請求項1に記載の撮像素子。
  15.  前記半導体基板は、前記一の面に凹凸形状を有する、請求項1に記載の撮像素子。
  16.  前記撮像部は略矩形形状を有し、周縁の少なくとも一辺にダミー画素を有する、請求項1に記載の撮像素子。
  17.  前記撮像部は、前記半導体基板の外部に、有機材料を含む有機光電変換部をさらに有する、請求項1に記載の撮像素子。
PCT/JP2020/035020 2019-09-27 2020-09-16 撮像素子 WO2021060098A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112020004611.7T DE112020004611T5 (de) 2019-09-27 2020-09-16 Bilderfassungsvorrichtung
JP2021548844A JPWO2021060098A1 (ja) 2019-09-27 2020-09-16
CN202080061981.4A CN114342080A (zh) 2019-09-27 2020-09-16 摄像器件

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962907170P 2019-09-27 2019-09-27
US62/907,170 2019-09-27

Publications (1)

Publication Number Publication Date
WO2021060098A1 true WO2021060098A1 (ja) 2021-04-01

Family

ID=72425795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/035020 WO2021060098A1 (ja) 2019-09-27 2020-09-16 撮像素子

Country Status (5)

Country Link
US (1) US10777611B1 (ja)
JP (1) JPWO2021060098A1 (ja)
CN (1) CN114342080A (ja)
DE (1) DE112020004611T5 (ja)
WO (1) WO2021060098A1 (ja)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS571274A (en) * 1980-06-04 1982-01-06 Agency Of Ind Science & Technol Manufacture of comb-shaped p-n multilayer element
JP2007281144A (ja) * 2006-04-05 2007-10-25 Fujifilm Corp 固体撮像素子及び撮像装置
JP2008066402A (ja) * 2006-09-05 2008-03-21 Fujifilm Corp 撮像素子および撮像装置
JP2010092981A (ja) * 2008-10-06 2010-04-22 Sharp Corp 太陽電池、裏面電極型太陽電池、配線基板および太陽電池の製造方法
JP2010186818A (ja) * 2009-02-10 2010-08-26 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2012199417A (ja) * 2011-03-22 2012-10-18 Kyushu Institute Of Technology 高アスペクト比のトレンチ構造を有する半導体デバイスの製造方法
WO2014007132A1 (ja) * 2012-07-05 2014-01-09 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
US9407845B1 (en) * 2015-03-26 2016-08-02 Amazon Technologies, Inc. Self powering camera
JP2017504966A (ja) * 2014-01-21 2017-02-09 ソニー株式会社 撮像素子、および電子装置
JP2018026373A (ja) * 2016-08-08 2018-02-15 キヤノン株式会社 撮像装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1569276A1 (en) * 2004-02-27 2005-08-31 Heptagon OY Micro-optics on optoelectronics
US10872928B2 (en) * 2018-08-30 2020-12-22 Dpix, Llc Method of manufacturing an enhanced high performance image sensor device
KR102646903B1 (ko) * 2018-09-04 2024-03-12 삼성전자주식회사 이미지 센서

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS571274A (en) * 1980-06-04 1982-01-06 Agency Of Ind Science & Technol Manufacture of comb-shaped p-n multilayer element
JP2007281144A (ja) * 2006-04-05 2007-10-25 Fujifilm Corp 固体撮像素子及び撮像装置
JP2008066402A (ja) * 2006-09-05 2008-03-21 Fujifilm Corp 撮像素子および撮像装置
JP2010092981A (ja) * 2008-10-06 2010-04-22 Sharp Corp 太陽電池、裏面電極型太陽電池、配線基板および太陽電池の製造方法
JP2010186818A (ja) * 2009-02-10 2010-08-26 Sony Corp 固体撮像装置とその製造方法、及び電子機器
JP2012199417A (ja) * 2011-03-22 2012-10-18 Kyushu Institute Of Technology 高アスペクト比のトレンチ構造を有する半導体デバイスの製造方法
WO2014007132A1 (ja) * 2012-07-05 2014-01-09 ソニー株式会社 固体撮像装置およびその製造方法、並びに電子機器
JP2017504966A (ja) * 2014-01-21 2017-02-09 ソニー株式会社 撮像素子、および電子装置
US9407845B1 (en) * 2015-03-26 2016-08-02 Amazon Technologies, Inc. Self powering camera
JP2018026373A (ja) * 2016-08-08 2018-02-15 キヤノン株式会社 撮像装置

Also Published As

Publication number Publication date
JPWO2021060098A1 (ja) 2021-04-01
DE112020004611T5 (de) 2022-07-28
CN114342080A (zh) 2022-04-12
US10777611B1 (en) 2020-09-15

Similar Documents

Publication Publication Date Title
JP7270616B2 (ja) 固体撮像素子および固体撮像装置
US11961862B2 (en) Solid-state imaging element and electronic apparatus
US11398514B2 (en) Solid-state image pickup device, manufacturing method therefor, and electronic apparatus
US11895415B2 (en) Solid-state image device and imaging apparatus
US11990486B2 (en) Solid-state imaging device
WO2021172216A1 (ja) 受光素子、光学デバイス、及び電子機器
JPWO2019131134A1 (ja) 受光素子および電子機器
WO2021235101A1 (ja) 固体撮像装置
WO2021124975A1 (ja) 固体撮像装置および電子機器
US12002825B2 (en) Solid-state imaging device and electronic apparatus with improved sensitivity
JPWO2018180575A1 (ja) 固体撮像素子、電子機器、並びに製造方法
WO2020162196A1 (ja) 撮像装置および撮像システム
WO2019239754A1 (ja) 固体撮像素子および固体撮像素子の製造方法ならびに電子機器
WO2021060098A1 (ja) 撮像素子
WO2024057805A1 (ja) 撮像素子および電子機器
JP2023003799A (ja) 固体撮像装置
JP2022112252A (ja) 光検出素子および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20867838

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021548844

Country of ref document: JP

Kind code of ref document: A

122 Ep: pct application non-entry in european phase

Ref document number: 20867838

Country of ref document: EP

Kind code of ref document: A1