WO2021149577A1 - 固体撮像素子および電子機器 - Google Patents

固体撮像素子および電子機器 Download PDF

Info

Publication number
WO2021149577A1
WO2021149577A1 PCT/JP2021/001009 JP2021001009W WO2021149577A1 WO 2021149577 A1 WO2021149577 A1 WO 2021149577A1 JP 2021001009 W JP2021001009 W JP 2021001009W WO 2021149577 A1 WO2021149577 A1 WO 2021149577A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
unit
light
pixel array
pixels
Prior art date
Application number
PCT/JP2021/001009
Other languages
English (en)
French (fr)
Inventor
博則 星
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2021573104A priority Critical patent/JPWO2021149577A1/ja
Publication of WO2021149577A1 publication Critical patent/WO2021149577A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/77Pixel circuitry, e.g. memories, A/D converters, pixel amplifiers, shared circuits or shared components

Definitions

  • the present disclosure relates to a solid-state image sensor and an electronic device.
  • a solid-state image sensor for example, a back-illuminated CMOS (Complementary Metal Oxide Semiconductor) image sensor having a global shutter function is known.
  • CMOS Complementary Metal Oxide Semiconductor
  • a charge holding unit that temporarily holds the charge generated by the photoelectric conversion unit is provided in the semiconductor substrate. When light is incident on this charge holding portion, unnecessary charges are generated. Then, optical noise is generated due to the unnecessary electric charge, so that the image quality is deteriorated.
  • a light-shielding part for separating the photoelectric conversion part and the charge-holding part is provided, and the non-penetrating light-shielding part is placed on the back surface side (irradiation) in the structure in the layer direction of the pixel.
  • a structure has been proposed in which a structure is formed by digging non-penetratingly from the surface side) (for example, Patent Document 1). The charge accumulated in the photoelectric conversion unit is transferred to the charge holding unit via the non-penetrating portion in the light-shielding unit.
  • An object of the present disclosure is to provide a solid-state image sensor and an electronic device capable of acquiring a higher image quality image.
  • the solid-state image sensor includes pixels including a photoelectric conversion unit that converts light into electric charges by photoelectric conversion, and a charge storage unit that is adjacent to the photoelectric conversion unit and stores charges transferred from the photoelectric conversion unit.
  • the pixels are arranged in a matrix-like arrangement, and the pixels are arranged with respect to the pixel array so that the photoelectric conversion unit is adjacent to the charge storage unit in the direction corresponding to the position in the pixel array. NS.
  • CMOS image sensor which is an example of the solid-state image sensor applicable to each embodiment. It is a figure which shows the outline of the structural example of the unit pixel applicable to each embodiment. It is sectional drawing which shows typically the basic structure of the light-shielding structure applicable to each embodiment. It is a figure for demonstrating the optical structure of the CMOS image sensor applicable to each embodiment. It is a figure for demonstrating the optical structure of the CMOS image sensor applicable to each embodiment. It is sectional drawing which shows typically the structure of an example of a pixel by an existing technique.
  • FIG. 5 is a schematic view of a second example of arrangement of a non-penetrating light-shielding portion and a penetrating light-shielding portion in a pixel as viewed from the incident surface side according to a third modification according to the first embodiment.
  • FIG. 5 is a schematic view of a second example of arrangement of a non-penetrating light-shielding portion and a penetrating light-shielding portion in a pixel as viewed from the incident surface side according to a third modification according to the first embodiment.
  • FIG. 5 is a schematic view of a third example of arrangement of a non-penetrating light-shielding portion and a penetrating light-shielding portion in a pixel according to a third modification according to the first embodiment, as viewed from the incident surface side.
  • It is a schematic diagram which shows typically more specific example of the arrangement of the pixel 20 which concerns on 2nd Embodiment.
  • It is a schematic diagram for demonstrating the optical waveguide which concerns on the modification of 2nd Embodiment.
  • It is a schematic diagram for demonstrating the optical waveguide which concerns on the modification of 2nd Embodiment.
  • It is a schematic diagram for demonstrating the optical waveguide which concerns on the modification of 2nd Embodiment.
  • the solid-state image sensor according to the present disclosure is suitable for use in an image pickup device having a global shutter function.
  • FIG. 1 is a block diagram showing a configuration example of a CMOS (Complementary Metal Oxide Semiconductor) image sensor, which is an example of a solid-state image sensor applicable to each embodiment.
  • CMOS Complementary Metal Oxide Semiconductor
  • the CMOS image sensor 10 has a pixel array unit 11, a vertical drive unit 12, a column processing unit 13, a horizontal drive unit 14, and a system control unit 15.
  • the pixel array unit 11, the vertical drive unit 12, the column processing unit 13, the horizontal drive unit 14, and the system control unit 15 are formed on a semiconductor substrate (chip) (not shown).
  • unit pixels 20 having a photoelectric conversion unit that generates an amount of light charge corresponding to the amount of incident light and accumulates it inside are two-dimensionally arranged in a matrix-like arrangement.
  • the unit pixel 20 has a back-illuminated pixel structure (see FIG. 3).
  • charge the light charge of the amount of charge corresponding to the amount of incident light
  • unit pixel may be simply described as "pixel”.
  • pixel drive lines 16 (161 to 16 m ) are arranged for each row in the left-right direction ( 16 1 to 16 m) of the pixel array of m rows ⁇ n columns (m and n are integers of 1 or more each). formed in the arrangement direction) of the pixels of the pixel rows, the vertical signal line 17 for each column (17 1 ⁇ 17 n) are formed along the arrangement direction) of the pixels in the vertical direction (pixel row in FIG.
  • the vertical signal line 17 is also referred to as VSL.
  • One end of the pixel drive line 16 is connected to the output end corresponding to each line of the vertical drive unit 12.
  • the CMOS image sensor 10 further includes a signal processing unit 18 and a data storage unit 19.
  • the signal processing unit 18 and the data storage unit 19 may be processed by an external signal processing unit provided on a substrate different from the CMOS image sensor 10, for example, a DSP (Digital Signal Processor) or software, and is the same as the CMOS image sensor 10. It may be mounted on a substrate.
  • DSP Digital Signal Processor
  • the vertical drive unit 12 is a pixel drive unit that is composed of a shift register, an address decoder, and the like, and drives each pixel 20 of the pixel array unit 11 simultaneously for all pixels or in line units. Although the specific configuration of the vertical drive unit 12 is not shown, it has a read scanning system and a sweep scanning system, and under the drive of these scanning systems, batch sweeping and batch transfer are performed. It can be carried out.
  • the read-out scanning system selectively scans the unit pixels 20 of the pixel array unit 11 row by row in order to read a signal from the unit pixels 20.
  • row drive rolling shutter operation
  • sweep scanning is performed prior to the read scanning by the time of the shutter speed with respect to the read row in which the read scan is performed by the read scanning system.
  • global exposure global shutter operation
  • batch sweeping is performed prior to batch transfer by the time of the shutter speed.
  • the electronic shutter operation refers to an operation of discarding the light charge of the photoelectric conversion unit and starting a new exposure (starting the accumulation of the light charge).
  • the signal read by the read operation by the read scanning system corresponds to the amount of light incidented after the read operation immediately before or the electronic shutter operation.
  • the period from the read timing by the immediately preceding read operation or the sweep timing by the electronic shutter operation to the read timing by the current read operation is the light charge accumulation period (exposure period) in the unit pixel.
  • the period from batch sweeping to batch transfer is the accumulation period (exposure period).
  • the pixel signal output from each unit pixel 20 of the pixel row selectively scanned by the vertical drive unit 12 is supplied to the column processing unit 13 through each of the vertical signal lines 17.
  • the column processing unit 13 performs predetermined signal processing on the pixel signal output from each unit pixel 20 of the selected row through the vertical signal line 17 for each pixel column of the pixel array unit 11, and the pixel after the signal processing. Hold the signal temporarily.
  • the column processing unit 13 performs at least noise removal processing, for example, CDS (Correlated Double Sampling) processing as signal processing.
  • CDS Correlated Double Sampling
  • the column processing unit 13 can be provided with, for example, an AD (analog-digital) conversion function, and the signal level can be output as a digital signal.
  • the horizontal drive unit 14 is composed of a shift register, an address decoder, and the like, and sequentially selects unit circuits corresponding to the pixel strings of the column processing unit 13. By the selective scanning by the horizontal drive unit 14, the pixel signals signal-processed by the column processing unit 13 are sequentially output to the signal processing unit 18.
  • the system control unit 15 is composed of a timing generator or the like that generates various timing signals, and drives the vertical drive unit 12, the column processing unit 13, the horizontal drive unit 14, and the like based on the various timing signals generated by the timing generator. Take control.
  • the signal processing unit 18 has at least an addition processing function, and performs various signal processing such as addition processing on the pixel signal output from the column processing unit 13.
  • the data storage unit 19 temporarily stores data necessary for the signal processing in the signal processing unit 18.
  • FIG. 2 is a diagram showing an outline of a configuration example of a unit pixel 20 applicable to each embodiment.
  • the unit pixel 20 has, for example, a photodiode (PD) 21 as a photoelectric conversion unit.
  • the photodiode 21 is formed, for example, by forming the p-type layer 211 on the surface side of the substrate and embedding the n-type embedded layer 212 with respect to the p-type well layer 32 formed on the n-type semiconductor substrate 31. It is an embedded photodiode.
  • the n-type embedded layer 212 has an impurity concentration that causes a depletion state when the electric charge is discharged.
  • the unit pixel 20 includes a first transfer gate unit 22, a second transfer gate unit 23, and a charge holding unit (MEM) 24.
  • the first transfer gate portion 22 has a gate electrode 221 arranged at a position straddling the photodiode 21 and the charge holding portion 24.
  • the second transfer gate portion 23 has a gate electrode 231 arranged in the vicinity of the charge holding portion 24.
  • the charge holding portion 24 adopts a configuration in which the p-type layer 241 is used as a surface and is formed by an embedded n-type diffusion region 242.
  • the same operation and effect as when it is formed by the embedded channel can be obtained.
  • the dark current generated at the Si—SiO 2 interface is charged. Since it can be avoided that it is accumulated in the n-type diffusion region 242 of 24, it can contribute to the improvement of image quality.
  • the first transfer gate unit 22 is photoelectrically converted by the photodiode 21 when the drive signal TRY is applied to the gate electrode 221 and transfers the electric charge accumulated inside the photodiode 21 to the charge holding unit 24. Further, the first transfer gate unit 22 functions as a gate for preventing the backflow of electric charge from the charge holding unit 24 to the photodiode 21.
  • the gate electrode 221 functions as a gate for transferring charges from the photodiode 21 to the charge holding unit 24, and also functions as a gate for causing the charge holding unit 24 to hold the charges. ..
  • the gate electrode 221 functions as a gate when the charge is transferred from the charge holding unit 24 to the floating diffusion region (FD: Floating Diffusion) 25, and also functions as a gate for causing the charge holding unit 24 to hold the charge.
  • the floating diffusion region 25 is a charge-voltage conversion unit composed of an n-type layer.
  • the charge holding unit 24 is modulated by applying the drive signal TX to the gate electrode 231. That is, by applying the drive signal TX to the gate electrode 231, the potential of the charge holding unit 24 becomes deeper. As a result, the saturated charge amount of the charge holding unit 24 can be increased as compared with the case where no modulation is applied.
  • the unit pixel 20 further has a third transfer gate unit 26.
  • the third transfer gate unit 26 transfers the charge accumulated in the charge holding unit 24 to the floating diffusion region 25 by applying the drive signal TRG to the gate electrode 261.
  • the floating diffusion region 25 converts the charge transferred from the charge holding unit 24 by the third transfer gate unit 26 into a voltage.
  • the unit pixel 20 further includes a reset transistor 27, an amplification transistor 28, and a selection transistor 29.
  • FIG. 2 shows an example in which an n-channel MOS transistor is used for the reset transistor 27, the amplification transistor 28, and the selection transistor 29, a combination of conductive types of the reset transistor 27, the amplification transistor 28, and the selection transistor 29 is shown. Is not limited to these combinations.
  • the reset transistor 27 is connected between the node of the power supply voltage V rst and the stray diffusion region 25, and resets the stray diffusion region 25 by applying the drive signal RST to the gate electrode.
  • the drain electrode is connected to the node of the power supply voltage V dd
  • the gate electrode is connected to the floating diffusion region 25, and the voltage in the floating diffusion region 25 is read out.
  • the drain electrode is connected to the source electrode of the amplification transistor 28, the source electrode is connected to the vertical signal line 17 (VSL), and the drive signal SEL is applied to the gate electrode to obtain a pixel signal. Select the unit pixel 20 to read out. It is also possible to adopt a configuration in which the selection transistor 29 is connected between the node of the power supply voltage V dd and the drain electrode of the amplification transistor 28.
  • one or a plurality of the reset transistor 27, the amplification transistor 28, and the selection transistor 29 may be omitted depending on the pixel signal reading method.
  • the n-type embedded channel is formed in the p-type well layer 32, but the reverse conductive type may be adopted. In this case, the potential relationships are all reversed.
  • the unit pixel 20 shown in FIG. 2 is also provided with an overflow gate portion 33 for preventing blooming.
  • the overflow gate portion 33 discharges the electric charge of the photodiode 21 to the n-type layer 34 by applying the drive signal OFG to the gate electrode 331 at the start of exposure.
  • a predetermined voltage V dd is applied to the n-type layer 34.
  • the CMOS image sensor 10 starts exposure of all pixels at the same time, ends exposure of all pixels at the same time, and shields the charge accumulated in the photodiode 21 from the charge holding unit. By transferring to 24, a global shutter operation (global exposure) is realized. This global shutter operation makes it possible to realize distortion-free imaging with an exposure period in which all pixels match.
  • FIG. 3 is a cross-sectional view schematically showing the basic structure of the light-shielding structure applicable to each embodiment.
  • the CMOS image sensor 10 has a configuration in which a semiconductor substrate 51, an insulating film layer 52, a first light-shielding film 53, and a wiring layer 54 are laminated from the upper side of the figure.
  • the CMOS image sensor 10 is a back-illuminated solid-state image sensor that captures light emitted from the back surface side opposite to the front surface side on which the wiring layer 54 of the semiconductor substrate 51 is laminated into the photodiode 21.
  • the CMOS image sensor 10 has a configuration in which a second light-shielding film 57 is formed between the incident surface of the semiconductor substrate 51 and the photodiode 21 and the charge holding portion 24 via a multilayer film 56. ..
  • the multilayer film 56 is composed of, for example, a film having a three-layer structure including a fixed charge film, an antireflection film and an insulating film.
  • the insulating film is made of an oxide film such as a SiO 2 film.
  • a passivation film, a color filter, a microlens, etc. are laminated on the back surface side of the semiconductor substrate 51. Further, for example, a support substrate is laminated under the wiring layer 54.
  • the back surface of the semiconductor substrate 51 may be referred to as an incident surface.
  • the surface of the semiconductor substrate 51 that is arranged at the boundary with the wiring layer 54 is referred to as a boundary surface.
  • the surface of the semiconductor substrate 51 of the photodiode 21 on the incident surface side is referred to as a light receiving surface, and the surface opposite to the light receiving surface is referred to as a bottom surface.
  • the surface of the semiconductor substrate 51 of the charge holding portion 24 on the incident surface side is referred to as an upper surface, and the surface opposite to the upper surface is referred to as a bottom surface.
  • the semiconductor substrate 51 is made of, for example, a silicon substrate.
  • a photodiode 21 and a charge holding portion 24 are formed in the semiconductor substrate 51.
  • the photodiode 21 on the left side and the charge holding unit 24 in the drawing are arranged in the same pixel 20, and the photodiode 21 on the right side and the charge holding unit 24 are arranged in different pixels 20 adjacent to each other.
  • the insulating film layer 52 is composed of, for example, a three-layer insulating film of a first insulating film 52A, a second insulating film 52B, and a third insulating film 52C (three-layer structure).
  • the first insulating film 52A and the third insulating film 52C are made of an oxide film such as a SiO 2 film
  • the second insulating film 52B is made of a nitride film such as a SiN film.
  • the first insulating film 52A also serves as an insulating film between the gate electrode 55 and the semiconductor substrate 51.
  • the gate electrode 55 corresponds to, for example, the gate electrode 221 of the first transfer gate portion 22 in FIG.
  • the first light-shielding film 53 is made of a metal having a light-shielding property such as tungsten.
  • the first light-shielding film 53 is provided on the wiring layer 54 side so as to cover at least the forming region of the charge holding portion 24, preferably so as to cover the forming region of the photodiode 21 and the charge holding portion 24.
  • the first light-shielding film 53 is provided for the purpose of preventing light that has passed through the semiconductor substrate 51 without being absorbed by the photodiode 21 from entering the wiring layer 54. By the action of the first light-shielding film 53, the light transmitted through the semiconductor substrate 51 is prevented from being incident on the wiring layer 54, being reflected by the wiring layer 54, and being incident on the charge holding portion 24.
  • the light transmitted through the semiconductor substrate 51 may be reflected by a plane parallel to the semiconductor substrate 51 of the flat portion 53C which is the main body portion of the first light-shielding film 53 and may be incident on the charge holding portion 24. .. Therefore, the first light-shielding film 53 has a protruding portion protruding from the flat portion 53C toward the semiconductor substrate 51 at a portion corresponding to the formation position of the second light-shielding film 57.
  • the first light-shielding film 53 has a protrusion at a portion corresponding to at least one of the non-penetrating light-shielding portion 57B and the penetrating light-shielding portion 57C, which will be described later, preferably both of the second light-shielding film 57. It has 53A and a protrusion 53B.
  • the protruding portion 53A and the protruding portion 53B are integrally formed with the flat portion 53C of the first light-shielding film 53 by a metal having a light-shielding property such as tungsten.
  • the protruding portion 53A and the protruding portion 53B are located along the longitudinal direction of the charge holding portion 24 at a portion on the photodiode 21 side of the second light-shielding film 57, which is closer to the photodiode 21 than directly below the non-penetrating light-shielding portion 57B and the penetrating light-shielding portion 57C. Is formed. That is, the protruding portion 53A is provided in a portion on the photodiode 21 side in the same pixel as directly below the formation position of the non-penetrating light-shielding portion 57B, in a state of protruding from the flat portion 53C toward the semiconductor substrate 51.
  • the protruding portion 53B is provided in a portion on the photodiode 21 side in the pixel adjacent to the position directly below the formation position of the penetrating light-shielding portion 57C, in a state of protruding from the flat portion 53C toward the semiconductor substrate 51.
  • the protruding portion 53A and the protruding portion 53B act to prevent the first light-shielding film 53 from being reflected by the upper surface of the flat portion 53C and incident on the charge holding portion 24.
  • the protrusion amount that is, the height of the protrusion 53A and the protrusion 53B is as high as possible. Is preferable.
  • the heights of the protruding portion 53A and the protruding portion 53B are too high, it is considered that the characteristics such as white spots may be deteriorated due to the influence of plasma damage or the like during processing of the protruding portion 53A and the protruding portion 53B.
  • the height positions of the protruding portion 53A and the protruding portion 53B are composed of a nitride film such as a SiN film, which is an intermediate layer in the three-layer structure insulating film layer 52, as shown in FIG. It is preferably set in the second insulating film 52B.
  • the height positions of the protruding portion 53A and the protruding portion 53B are preferably set in the second insulating film 52B, which is an intermediate layer, but are not limited to this, and the first insulation of the first layer is not limited to this. It may be set in the film 52A, or may be set in the third insulating film 52C of the third layer.
  • the second light-shielding film 57 is made of a light-shielding metal such as tungsten.
  • the second light-shielding film 57 mainly suppresses light incident from the incident surface of the semiconductor substrate 51 from directly or indirectly entering the charge holding portion 24.
  • the second light-shielding film 57 is composed of a surface light-shielding portion 57A, a non-penetrating light-shielding portion 57B, and a penetrating light-shielding portion 57C.
  • the surface light-shielding portion 57A is a third light-shielding portion, and covers a region of the incident surface of the semiconductor substrate 51 except above the light-receiving surface of the photodiode 21. That is, the surface shading portion 57A covers a region of the light receiving surface of the semiconductor substrate 51 excluding the region where the light incident on the photodiode 21 is incident.
  • the non-penetrating light-shielding portion 57B is the first light-shielding portion, and extends from the incident surface of the semiconductor substrate 51 to the middle of the semiconductor substrate 51. Further, in this example, the non-penetrating light-shielding portion 57B is at least arranged between the photodiode 21 and the charge holding portion 24 in the same pixel 20.
  • the penetrating light-shielding portion 57C is a second light-shielding portion, penetrates the semiconductor substrate 51, penetrates the semiconductor substrate 51 to the middle of the insulating film layer 52, in this example, penetrates the first insulating film 52A, and reaches the second insulating film 52B. It is postponed. That is, the penetrating light-shielding portion 57C extends longer than the non-penetrating light-shielding portion 57B. Further, in this example, the penetrating light-shielding portion 57C is arranged between the photodiode 21 and the charge holding portion 24, which are arranged in different pixels 20. That is, at least one photodiode 21 of the pixels 20 adjacent to each other and the other charge holding portion 24 are arranged.
  • Both the non-penetrating light-shielding portion 57B and the penetrating light-shielding portion 57C are trench light-shielding portions formed by digging from the incident surface (first surface) of the semiconductor substrate 51 toward the boundary surface.
  • the thickness of the first insulating film 52A, the second insulating film 52B, and the third insulating film 52C of the insulating film layer 52 will be described.
  • the first insulating film 52A is set to a thickness of, for example, 10 [nm] or more. This is, for example, the thickness required for processing and adjusting the depth of the groove penetrating the semiconductor substrate 51 for forming the penetrating light-shielding portion 57C. However, since the first insulating film 52A also serves as an insulating film between the gate electrode 55 and the semiconductor substrate 51, it is not desirable to make it too thick. Therefore, the thickness of the first insulating film 52A is preferably set in the range of, for example, 10 [nm] to 20 [nm].
  • the second insulating film 52B is set to, for example, a thickness of 50 [nm] or more. This is, for example, a thickness required for processing adjustment of the contact formed in the wiring layer 54 and processing control of the groove penetrating the semiconductor substrate 51 for forming the penetrating light-shielding portion 57C.
  • a groove for forming a contact may reach the semiconductor substrate 51, the semiconductor substrate 51 may be prevented from being damaged due to damage caused by processing the contact, or the semiconductor substrate 51 for forming a penetrating light-shielding portion 57C may be used. This is the thickness required to stop the penetrating groove with the second insulating film 52B.
  • the thickness of the second insulating film 52B is preferably set in the range of, for example, 50 [nm] to 100 [nm].
  • the third insulating film 52C is set to, for example, a thickness of 25 [nm] or more. This is, for example, a thickness required to prevent the third insulating film 52C from being damaged and the second insulating film 52B from being exposed during processing of the first light-shielding film 53. However, it is not desirable that the third insulating film 52C is too thick from the viewpoint of reducing the thickness of the CMOS image sensor 10. Therefore, the thickness of the third insulating film 52C is preferably set in the range of, for example, 30 [nm] to 100 [nm].
  • FIG. 4A is a top view of an example of the pixel array portion 11 of the CMOS image sensor 10 viewed from the incident surface side.
  • FIG. 4B is a side view of an example of the pixel array portion 11 viewed from a plane perpendicular to the incident plane.
  • the lens 60 is arranged with respect to the pixel array unit 11 in which each pixel 20 is arranged in a matrix arrangement.
  • the lens 60 irradiates each pixel 20 of the pixel array unit 11 with the incident light, and is hereinafter referred to as a main lens 60.
  • the position of the optical axis 61 of the main lens 60 coincides with the center position of the pixel array unit 11.
  • each pixel 20 is provided with the color filter 101 and the OCL (On Chip Lens) 100 laminated on the incident surface.
  • the pixels 20 arranged at and near the position of the optical axis 61 of the main lens 60 in the pixel array unit 11 are oriented substantially perpendicular to the incident surface from the main lens 60. Be incident.
  • light is incident on the pixel 20 arranged at a position deviating from the optical axis 61 of the main lens 60 from a more oblique direction with respect to the incident surface as the distance from the position of the optical axis 61 increases.
  • Eye correction may be performed in order to suppress a change in the entrance pupil diameter due to a change in the incident angle of light with respect to the pixel 20 according to the position on the pixel array unit 11.
  • the pupil correction is performed, for example, by adjusting the position and shape of the OCL 100 according to the position of the pixel 20 on the pixel array unit 11.
  • the light incident on the CMOS image sensor 10 is applied to each pixel 20 via the main lens 60.
  • the light emitted from the main lens 60 is incident on the inside of the semiconductor substrate 51 from the incident surface of the semiconductor substrate 51 via the OCL 100 and the color filter 101.
  • This light is received by the photodiode 21, and the photodiode 21 performs photoelectric conversion according to the received light to generate an electric charge.
  • the electric charge generated by the photodiode 21 is provided with a non-penetrating light-shielding portion 57B from directly below the non-penetrating light-shielding portion 57B to the first insulating film 52A by applying a drive signal TRY to the gate electrode 221.
  • the charge holding unit 24 It is transferred to the charge holding unit 24 via the non-existing portion.
  • the charge holding unit 24 accumulates the transferred charge until the drive signal TRG is applied to the gate electrode 261. In this way, the charge holding unit 24 functions as a charge accumulating unit for accumulating charges.
  • the portion from directly below the non-penetrating light-shielding portion 57B to the first insulating film 52A where the non-penetrating light-shielding portion 57B is not provided is referred to as a transfer unit.
  • FIG. 5A is a cross-sectional view schematically showing the structure of an example of the pixel 20 according to the existing technology, and corresponds to the structure shown in FIG. 3 described above.
  • the semiconductor layer 110 corresponds to the semiconductor substrate 51 of FIG. 3
  • the wiring layer 111 corresponds to the wiring layer 54 and the insulating film layer 52 of FIG.
  • the pixel 20 has an optical waveguide structure 102 for guiding the light incident from the OCL 100 through the color filter 101 to the photodiode (PD) 21 with respect to the incident surface of the semiconductor substrate 51. It is provided.
  • FIG. 5B is a schematic view of an example of the arrangement of the trench shading portion in the pixel 20 shown in FIG. 5A, that is, the non-penetrating shading portion 57B and the penetrating shading portion 57C, as viewed from the incident surface side.
  • a penetrating light-shielding portion 57C is provided around the pixel 20 and is provided on the side of the photodiode (PD) 21 adjacent to the charge holding portion (MEM) 24. ..
  • 57B is provided, and a penetrating light-shielding portion 57C is provided in a portion other than the non-penetrating light-shielding portion 57B.
  • a non-penetrating light-shielding portion 57B is provided on a side of the charge holding portion 24 that is partially adjacent to the photodiode 21, and a portion that is not adjacent to the photodiode 21.
  • the electric charge generated by the photoelectric conversion in the photodiode 21 is transferred to the charge holding unit 24 via the transfer unit of the non-penetrating light-shielding unit 57B.
  • the side of the outer circumference of the photodiode 21 where the charge holding portion 24 is not adjacent and which does not constitute the outer circumference of the pixel 20 is referred to as "the charge of the photodiode 21".
  • the description will be given as "a side not adjacent to the holding portion 24".
  • the leakage of the light incident on the photodiode 21 into the charge holding unit 24 will be described more specifically.
  • the light incident on the photodiode 21 may be reflected by the insulating film layer 52 or the like and leak to the charge holding portion 24 via the transfer portion of the non-penetrating light-shielding portion 57B.
  • the light incident on the photodiode 21 and reaching the non-penetrating light-shielding portion 57B may leak to the charge holding portion 24 through the non-penetrating light-shielding portion 57B as diffracted light.
  • the light leaking into the charge holding unit 24 in this way becomes noise for the charge accumulated in the charge holding unit 24.
  • FIG. 6 is a diagram schematically showing an example of arrangement of pixels 20 in the pixel array unit 11 by the existing technology.
  • the pixel 20cn is a pixel arranged at a position corresponding to the optical axis 61.
  • the pixels 20ru, 20rd, 20lu and 20ld are pixels arranged at the four corners of the pixel array unit 11 at the upper right, the lower right, the upper left and the lower left in FIG. 6, respectively.
  • the pixels 20cn, 20ru, 20rd, 20lu, and 20ld are arranged in the pixel array unit 11 in the direction in which the photodiode 21 and the charge holding unit 24 are adjacent to each other uniformly in the pixel array unit 11. .. More specifically, in the figure, the charge holding portions 24 are arranged on the upper part of the pixel 20, and the photodiode 21 is arranged closer to the lower left side of the pixel 20. That is, in the figure, the direction adjacent to the photodiode 21 from the charge holding portion 24 of each pixel 20cn, 20ru, 20rd, 20lu, and 20ld is an oblique lower left direction.
  • the light incident on the pixel 20 is incident on the focused spots 70 cn, 70 ru, 70 rd, 70 lu and 70 ld by the main lens 60, respectively.
  • the light incident on the photodiode 21 transmits the transfer unit of the non-penetrating light-shielding unit 57B, as indicated by arrows C and D, respectively. There is a possibility of leaking to the charge holding unit 24 via the device.
  • the light incident on the photodiode 21 is prevented from leaking to the charge holding unit 24 by the penetrating light shielding unit 57C.
  • each pixel 20 in the pixel array unit 11 by arranging each pixel 20 in the pixel array unit 11 in an orientation corresponding to the position in the pixel array unit 11, light leakage from the photodiode 21 to the charge holding unit 24 is suppressed. do.
  • the orientation of the pixel 20 is defined by the direction in which the photodiode 21 and the charge holding unit 24 are adjacent to each other.
  • the photodiode 21 is arranged closer to the lower left of the pixel 20cn, and the photodiode 21 is adjacent to the charge holding portion 24 in the diagonally lower left direction.
  • the pixel 20cn faces diagonally downward to the left of the pixel array unit 11 on FIG.
  • FIG. 7 is a diagram corresponding to FIG. 6 described above, and is a diagram schematically showing an example of arrangement of pixels 20 in the pixel array unit 11 according to the first embodiment.
  • the upper part of FIG. 7 will be described as the upper part of the pixel array unit 11.
  • each pixel 20 is arranged in the pixel array unit 11 so that the positions of the photodiode 21 and the charge holding unit 24 are symmetrical in the vertical and horizontal directions in the pixel array unit 11.
  • the pixel 20ru in the upper right portion of the pixel array portion 11 is arranged with the charge holding portion 24 at the lower part and the photodiode 21 at the upper right side. That is, the pixels 20ru are arranged in the pixel array unit 11 so as to face diagonally upward to the right.
  • the pixel 20rd at the lower right of the pixel array unit 11 is arranged with the charge holding unit 24 at the upper part and the photodiode 21 at the lower right side. That is, the pixels 20rd are arranged in the pixel array unit 11 toward the lower right direction.
  • the pixel 20lu in the upper left portion of the pixel array portion 11 is arranged with the charge holding portion 24 at the lower part and the photodiode 21 at the upper left side. That is, the pixels 20lu are arranged in the pixel array unit 11 in the diagonally upward left direction. Further, the pixel 20ld at the lower left of the pixel array unit 11 is arranged with the charge holding unit 24 at the upper part and the photodiode 21 at the lower left side. That is, the pixels 20ld are arranged in the pixel array unit 11 toward the lower left direction.
  • the photodiode 21 is arranged in each pixel 20 on the back side of the charge holding unit 24 when viewed from the position of the optical axis 61.
  • each pixel 20 is rotated in its direction according to the position in the pixel array unit 11, and the photodiode 21 is arranged so as to be located on the back side of the charge holding unit 24 when viewed from the position of the optical axis 61.
  • FIGS. 8A and 8B are schematic views schematically showing a more specific example of the arrangement of the pixels 20 according to the first embodiment.
  • the pixel array unit 11 is arranged in a matrix of 6 pixels ⁇ 6 pixels, and each pixel 20 is arranged.
  • the optical axis 61 of the main lens 60 penetrates the center of the pixel array unit 11 perpendicularly to the light receiving surface of the pixel array unit 11.
  • the line passing through the position on the pixel array unit 11 corresponding to the optical axis 61 (referred to as the position corresponding to the optical axis 61) in the column direction of the pixel array unit 11 is the vertical center line, and similarly, the optical axis 61.
  • the line that passes through the position corresponding to the above in the row direction of the pixel array unit 11 is called a horizontal center line.
  • the pixel array unit 11 is divided into four regions symmetrical vertically and horizontally around the position corresponding to the optical axis 61.
  • group # 1 the upper left area
  • group # 2 the lower left area
  • group # 4 the lower right area
  • group # 4 each include a pixel 20 1, 20 2, 20 3 and 20 4 in the arrangement of 3 ⁇ 3 pixels.
  • Groups # 1 and # 3 and groups # 2 and # 4 are arranged symmetrically with respect to the vertical centerline. Further, the groups # 1 and # 2 and the groups # 3 and # 4 are arranged at positions symmetrical with respect to the horizontal center line.
  • the non-penetrating shading portion 57B is provided on the lower side of the side not in contact with the charge holding portion 24 of the photodiode 21, and the penetrating shading portion 57C is in contact with the upper side of the side and the charge holding portion 24 of the photodiode 21. It is provided on the side.
  • the non-penetrating shading portion 57B is provided on the lower side of the side not in contact with the charge holding portion 24 of the photodiode 21, and the penetrating shading portion 57C is in contact with the upper side of the side and the charge holding portion 24 of the photodiode 21. It is provided on the side.
  • Each pixel 20 3 included in the group # 3, which corresponds to FIG. 7, respectively of pixels 20Ld, photodiode 21 Intention to lower left are arranged in the figure, the charge holding portion 24 is placed on top.
  • the non-penetrating shading portion 57B is provided on the upper side of the side that does not contact the charge holding portion 24 of the photodiode 21, and the penetrating shading portion 57C is in contact with the lower side of the side and the charge holding portion 24 of the photodiode 21. It is provided on the side.
  • each pixel 20 4 included in the group # 4, which corresponds to FIG. 7, respectively of pixels 20Rd, photodiodes 21 are arranged close to the lower right side in FIG, the charge holding portion 24 is placed on top .
  • the non-penetrating shading portion 57B is provided on the upper side of the side that does not contact the charge holding portion 24 of the photodiode 21, and the penetrating shading portion 57C is in contact with the lower side of the side and the charge holding portion 24 of the photodiode 21. It is provided on the side.
  • FIG. 8B is a diagram illustrating only the vicinity of the position of the optical axis 61 in FIG. 8A, the pixels 20 1 to 20 4 of each group # 1 to # 4 in more detail.
  • Figure 8B contained in 20 1 to 20 4 respectively each pixel, the third transfer gate portion 26, a reset transistor 27, amplification transistor 28 and selection transistor 29 are shown.
  • the third transfer gate portion 26 is arranged at the position of the charge holding portion 24, and the reset transistor 27, the amplification transistor 28, and the selection transistor 29 are arranged at the position of the photodiode 21. Will be done.
  • the third transfer gate portion 26, a reset transistor 27, the position of the amplification transistor 28 and selection transistor 29 in each pixel 20 1 to 20 4, respectively, are arranged asymmetrically.
  • the third transfer gate portion 26 is arranged close to the left end of the charge holding portion 24.
  • the reset transistor 27 is closer to the lower left side
  • the amplification transistor 28 is closer to the upper center
  • the selection transistor 29 is closer to the middle right side with respect to the photodiode 21.
  • the positional relationship between the respective pixels 20 1 to 20 within 4 contained in the ⁇ # 4 are the same.
  • the third transfer gate portion 26 in the pixel 20 1 to 20 4, the reset transistor 27, the arrangement position of the amplification transistor 28 and selection transistor 29 is merely an example, but is not limited to this example.
  • the third transfer gate portion 26 included in the group # 3 positions of group # 1 and symmetrically with respect to a horizontal center line, the third transfer gate portion 26, a reset transistor 27, also the amplification transistor 28 and selection transistor 29, the horizontal with respect to the center line, the third transfer gate portion 26 of the pixel 20 1, the reset transistor 27, it will be disposed in the amplification transistor 28 and selection transistor 29 and symmetrical. That is, in the pixel 20 3, the third transfer gate portion 26 is arranged close to the right end of the charge holding portion 24. Further, the reset transistor 27 is closer to the upper right side, the amplification transistor 28 is closer to the lower center, and the selection transistor 29 is closer to the middle left side with respect to the photodiode 21.
  • the third transfer gate portion 26 in the group # 4 position of the group # 2 is symmetrical with respect to a horizontal center line
  • the third transfer gate portion 26 of the pixel 20 1, the reset transistor 27, will be disposed in the amplification transistor 28 and selection transistor 29 and symmetrical. That is, in the pixel 20 4, the third transfer gate portion 26 is arranged close to the right end of the charge holding portion 24. Further, the reset transistor 27 is closer to the upper right side, the amplification transistor 28 is closer to the lower center, and the selection transistor 29 is closer to the middle left side with respect to the photodiode 21.
  • each pixel 20 is arranged with respect to the pixel array unit 11 in a direction symmetrical with respect to each of the vertical center line and the horizontal center line of the pixel array unit 11.
  • the photodiode 21 is arranged so as to be located on the back side of the charge holding unit 24 when viewed from the position corresponding to the optical axis 61 of the pixel array unit 11.
  • a surface shading portion 57A is provided on the incident surface side of the charge holding portion 24, and a penetrating shading portion 57C is provided between the charge holding portion 24 and the photodiode 21. Therefore, it is possible to suppress leakage of the light incident on the photodiode 21 into the charge holding portion 24. Therefore, the CMOS image sensor 10 including the pixel array unit 11 is prevented from deteriorating the global shutter function due to the leakage of light into the charge holding unit 24.
  • the column direction of the pixel array unit 11, the group # 1 and # 2, the group # 3 and # 4 and the pixel 20 1 and 20 2 of the position in contact is, in the pixel 20 3 and 20 4 which, Two charge holding portions 24 are lined up.
  • the row direction of the pixel array unit 11, the group # 1 and # 3, and group # 2 and # 4 and the pixel 20 1 and 20 3 of the position in contact is, in the pixel 20 2 and 20 4 which, photodiode 21 Move closer to the positions facing each other.
  • each pixel 20 1 to 20 4 in each group # 1 to # 4 are in contact position, the distance between the photodiode 21 straddling the vertical centerline and a horizontal centerline, each group # It is longer than the distance between the photodiode 21 of each pixel 20 1 to 20 4 in 1 to # 4, respectively.
  • the boundary portions of groups # 1 to # 4 may be discontinuous.
  • an optical waveguide for guiding the light emitted from the OCL 100 to the photodiode 21 is provided between the OCL 100 and the photodiode 21 (semiconductor substrate 51).
  • the surface of the optical waveguide in contact with the OCL 100 has a size corresponding to the OCL 100
  • the surface in contact with the semiconductor substrate 51 has a size corresponding to the opening with respect to the photodiode 21. Connect to the unit.
  • FIGS. 9A-9C are schematic views for explaining the optical waveguide according to the first modification of the first embodiment.
  • Figure 9A is a view corresponding to FIG. 8B described above, the one-to-one to each of the pixels 20 1 to 20 4, and each OCL100, a state for which it is provided with optical waveguides 80 1 to 80 4 It is shown.
  • 9B is a cross-sectional view schematically showing an EE'cross section in the column direction in FIG. 9A
  • FIG. 9C is a cross-sectional view schematically showing a FF'cross section in the row direction in FIG. 9A.
  • OCL100 is provided so as to cover the entire incident surface of the pixel 20 2.
  • the light guide 80 2 as shown in FIGS. 9B and 9C, the cross-sectional area toward the exit surface from the incident surface has a smaller conical shape stepwise.
  • Light guide 80 2, the bottom 81 2, and the position and shape as the opening 104 for the photodiode 21 is caused to substantially match the surface light shielding portion 57A, formed in contact with the semiconductor substrate 51 in the opening 104 Has been done. That is, the light guide 80 2, the bottom surface 81 2 is provided at a position closer to the upper right pixel 20 2 (position closer to the left side of FIG. 9B pixel 20 2 is a column direction of the cross-section) in FIG. 9A ..
  • Group # in the pixel 20 4 included in the 4, light guide 80 4, the bottom 81 4, the pixel in FIG. 9B 20 is a position (a column direction of a section closer to the lower right pixel 20 4 in FIG. 9A position closer to the right side of the 4, in the example of FIG. 9C is a row direction of the cross-section is provided at a position) which closer to the right side of the pixel 204.
  • the optical waveguide 80 1 the bottom surface is provided at a position closer to the upper left of the pixel 20 1 in FIG. 9A.
  • the group in # pixel 20 3 included in the three optical waveguide 80 3, the bottom surface 81 3 In FIG. 9C pixel 20 3 is the position (row direction of a section closer to the lower left of the pixel 20 3 in FIG. 9A It is installed at the position closer to the left side of.
  • Optical waveguides 80 1 to 80 4 are formed embedded in the protective film 103, the refractive index than the protective layer 103 is high material is used.
  • the optical waveguide 80 1 to 80 4 can be SiN, SiON or the like as a material.
  • each of the pixels 20 1 to 20 4 included in each group # 1 to # 4 on the pixel array unit 11, in the direction corresponding to the position on the pixel array section 11 by each optical waveguide 80 1 to 80 4 The pupil is corrected.
  • each pixel 20 1 to 20 4 when placed in a direction corresponding to the position of the pixel array unit 11 can correct the variation in the incidence of light to the photodiode 21.
  • the pixels 20 are rotated according to the groups # 1 to # 4 in which the pixel array unit 11 is divided into four, and the pixels 20 are oriented in different directions in the groups # 1 to # 4. It is arranged. Therefore, in the pixel array unit 11, between the pixels 20 of each element (third transfer gate unit 26, reset transistor 27, amplification transistor 28, and selection transistor 29) included in each pixel 20 aligned in the column direction and the row direction. The intervals at are no longer equal.
  • pixels 20 1 to 20 4 are represented by pixel 20.
  • the third transfer gate portion 26, the reset transistor 27, and the amplification transistor 28 are arranged close to one side in the row direction in the pixel 20. Therefore, the distance between the corresponding elements (third transfer gate portion 26, reset transistor 27, and amplification transistor 28) of the adjacent pixels 20 across the vertical center line is wider than the distance between the other pixels 20.
  • the third transfer gate portion 26 is arranged on one side (lower side in the figure) of the pixel 20 in the column direction. Therefore, the distance between the adjacent pixel 20 across the horizontal center line and the corresponding element (third transfer gate portion 26) is narrower than the distance between the other pixels 20. Due to this difference in the spacing between the elements, the wiring capacitance of the wiring connected to the element and arranged along the row direction or the column direction becomes non-uniform with respect to the element.
  • FIG. 10 is a schematic view showing an example of wiring to each pixel according to a second modification of the first embodiment.
  • the reset transistor 27, and the selection transistor 29 are arranged along the row direction from the outside (vertical drive unit 12). It is supplied via the wiring. Specifically, the drive signal TRG is supplied to each third transfer gate unit 26 via the wiring 92 arranged along the row direction. The drive signal SEL is supplied to each selection transistor 29 via the wiring 91 arranged along the row direction. In FIG. 10, the wiring for supplying the drive signal RST to each reset transistor 27 is omitted in order to avoid complication.
  • power supply voltages V rst and V dd are supplied from the outside to the reset transistor 27 and the amplification transistor 28 via wiring arranged along the column direction.
  • the power supply voltage Vdd is supplied to each amplification transistor 28 via the wiring 90 arranged along the column direction.
  • the wiring for supplying the power supply voltage V rst to each reset transistor 27 is omitted in order to avoid complication.
  • the selection transistor 29 is connected to a vertical signal line 17 (VSL) arranged along the column direction, which transfers the read pixel signal to the outside (column processing unit 13).
  • VSL vertical signal line 17
  • the distance between the adjacent pixel 20 and the third transfer gate portion 26 across the vertical center line is wider than the distance between the other pixels 20. Therefore, for the wiring 92 arranged along the row direction that supplies the drive signal TRG to the third transfer gate unit 26, for example, dummy wiring Dmy 2 is provided according to the difference in the intervals. Further, the distance between the amplification transistors 28 and the amplification transistors 28 of the adjacent pixels 20 straddling the vertical center line is wider than the distance between the other pixels 20. Therefore, for the wiring 90 arranged along the column direction that supplies the power supply voltage V dd to the amplification transistor 28, for example, a dummy wiring Dmy 1 corresponding to the difference in the interval is provided.
  • the selection transistor 29 is arranged at the substantially central portion in the column direction of the pixels 20, the spacing is substantially the same as the spacing of the other portions even in the portion straddling the horizontal center line.
  • the vertical signal line 17 (VSL) is not provided with dummy wiring.
  • the third modification of the first embodiment is another example of the arrangement of the non-penetrating light-shielding portion 57B and the penetrating light-shielding portion 57C in the pixel 20.
  • 11A and 11B are schematic views of an example of arrangement of the non-penetrating light-shielding portion 57B and the penetrating light-shielding portion 57C in the pixel 20 as viewed from the incident surface side according to the third modification according to the first embodiment.
  • FIG. 11A is a second example of the arrangement
  • FIG. 11B is the arrangement.
  • the third example of is shown respectively.
  • FIG. 11A is an example of a pixel 20a in which a non-penetrating light-shielding portion 57B is provided for the central portion of one side of the photodiode 21 that does not contact the charge holding portion 24, and a penetrating light-shielding portion 57C is provided for the other portion.
  • a non-penetrating light-shielding portion 57B is provided at an end opposite to the charge-holding portion 24 on one side not in contact with the charge-holding portion 24 of the photodiode 21, and a penetrating light-shielding portion 57C is provided at the other portion.
  • the pixels 20 are arranged in the pixel array unit 11 in the direction corresponding to the position of the pixel array unit 11. Therefore, in this way, the non-penetrating light-shielding portion 57B for forming the transfer portion for transferring the charge from the photodiode 21 to the charge holding portion 24 is placed anywhere on the side not in contact with the charge holding portion 24 of the photodiode 21. Even if it is arranged, it is possible to suppress the leakage of light from the photodiode 21 to the charge holding unit 24.
  • the arrangement of the pixels 20 on the pixel array unit 11 is divided into four in the vertical and horizontal directions, and in each of the divided regions, the pixels 20 are oriented in the direction corresponding to the position of the region.
  • the arrangement of the pixels 20 on the pixel array unit 11 is divided into two in the vertical or horizontal direction, and in each of the divided regions, the pixels 20 are divided according to the position of the region. Place in the direction.
  • FIG. 12 is a schematic diagram schematically showing a more specific example of the arrangement of the pixels 20 according to the second embodiment.
  • the pixel array unit 11 is arranged in a matrix of 4 pixels ⁇ 4 pixels, and each pixel 20 is arranged.
  • the pixel array unit 11 is divided into two vertically symmetrical regions centered on the position corresponding to the optical axis 61. That is, in FIG. 12, the pixel array unit 11 is divided into two regions by the horizontal center line. Of the two regions, the upper region is referred to as group # 5 and the lower region is referred to as group # 6 in FIG. In the example of FIG. 12, each group # 5 and # 6, respectively including the pixel 20 5 and 20 6 an array of 4 ⁇ 2 pixels.
  • non-through light shielding portion 57B is provided on the lower side of the side not in contact with the charge holding portion 24 of the photodiode 21, through the light-shielding portion 57C includes an upper side of the edge, the charge retention of the photodiode 21 It is provided on the side in contact with the portion 24.
  • each pixel 20 6 included in the group # 6, which corresponds to FIG. 7, respectively of pixels 20Ld, photodiode 21 Intention to lower left are arranged in the figure, the charge holding portion 24 is placed on top.
  • the non-penetrating light-shielding portion 57B is provided on the upper side of the side not in contact with the charge holding portion 24 of the photodiode 21, and the penetrating light-shielding portion 57C is provided on the lower side of the side and the charge holding of the photodiode 21. It is provided on the side in contact with the portion 24.
  • the photodiode 21 is located on the back side of the charge holding portion 24 as viewed from the position corresponding to the optical axis 61 of the pixel array unit 11, Be placed. Therefore, it is possible to suppress leakage of the light incident on the photodiode 21 into the charge holding portion 24. Therefore, the CMOS image sensor 10 including the pixel array unit 11 is prevented from deteriorating the global shutter function due to the leakage of light into the charge holding unit 24.
  • the pixel array unit 11 is divided into two regions in this way, by arranging the pixels 20 in a direction corresponding to the position on the pixel array unit 11, the light is incident on the photodiode 21. It is possible to suppress leakage of the light to the charge holding portion 24.
  • each pixel 20 6 contained for example in the group # 6, the photodiode 21 is arranged close to the lower left side in the figure, although the charge holding portion 24 is located at the top, which Not limited to this example.
  • the optical waveguide for guiding the light emitted from the OCL 100 to the photodiode 21 is provided with the OCL 100 and the photodiode 21. This is an example in which it is provided between the (semiconductor substrate 51) and the (semiconductor substrate 51).
  • FIG. 13A to 13C are schematic views for explaining the optical waveguide according to the modified example of the second embodiment.
  • Figure 13A is a view corresponding to FIG. 9A described above, how the one-to-one to each of the pixels 20 5 and 20 6, and each OCL100, are respectively provided with optical waveguides 80 5 and 80 6 Is shown.
  • 13B is a cross-sectional view schematically showing a GG'cross section in the column direction in FIG. 13A
  • FIG. 13C is a cross-sectional view schematically showing a HH'cross section in the row direction in FIG. 13A.
  • an optical waveguide 80 5 and 80 6, the photodiode 21, the positional relationship is similar to the first modification of the first embodiment described above.
  • OCL100 is provided so as to cover the entire incident surface of the pixel 20 6.
  • Light guide 80 6, the bottom 81 6, and the position and shape as the opening 104 for the photodiode 21 is caused to substantially match the surface light shielding portion 57A, formed in contact with the semiconductor substrate 51 in the opening 104 Has been done. That is, the optical waveguide 80 6, the bottom 81 6, a position closer to the right side of FIG. In 13B pixel 20 6 is the position (column direction of a section closer to the upper right pixel 20 6 in FIG. 13A, the row direction in Figure 13C is a cross-sectional is provided at a position) which closer to the left side of the pixel 20 6.
  • Group # in the pixel 20 5 included in 5 the optical waveguide 80 5 has its bottom surface 81
  • the pixel in FIG. 13B 20 is a position (a column direction of a section closer to the lower right pixel 20 5 in FIG. 13A It is provided at the position closer to the right side of 5.
  • each pixel 20 5 included in each group # 5 to # 6 on the pixel array unit 11 and 20 6 are pupil correction in a direction corresponding to the position on the pixel array unit 11 by optical waveguides 80 5 and 80 6.
  • each pixel 20 5-20 6 when arranged in the direction corresponding to the position of the pixel array unit 11 can correct the variation in the incidence of light to the photodiode 21.
  • the third embodiment of the present disclosure is an example in which the above-mentioned first embodiment and the second embodiment, and the solid-state image sensor according to each of the modified examples are applied to an electronic device.
  • FIG. 14 is a block diagram schematically showing a configuration of an example of an imaging device as an electronic device according to a third embodiment.
  • the image pickup device 1000 includes an image pickup optical system 1001 including a lens group and the like, an image pickup unit 1002, a DSP circuit 1003, a frame memory 1004, a display device 1005, a recording device 1006, an operation system 1007, a power supply system 1008, and the like. ing.
  • the DSP circuit 1003, the frame memory 1004, the display device 1005, the recording device 1006, the operation system 1007, and the power supply system 1008 are connected to each other via the bus line 1009.
  • the imaging optical system 1001 captures incident light (image light) from the subject and forms an image on the imaging surface of the imaging unit 1002.
  • the imaging unit 1002 converts the amount of incident light imaged on the imaging surface by the imaging optical system 1001 into an electric signal in pixel units and outputs it as a pixel signal.
  • the DSP (Digital Signal Processor) circuit 1003 performs general camera signal processing, for example, white balance processing, demosaic processing, gamma correction processing, and the like.
  • the frame memory 1004 is appropriately used for storing data in the process of signal processing in the DSP circuit 1003.
  • a panel-type display device such as a liquid crystal display device or an organic EL (electroluminescence) display device can be applied to the display device 1005, and a moving image or a still image captured by the imaging unit 1002 is displayed.
  • the recording device 1006 records the moving image or still image captured by the imaging unit 1002 on a portable semiconductor memory, an optical disk, a recording medium such as an HDD (Hard Disk Drive), or the like.
  • the operation system 1007 issues operation commands for various functions of the image pickup apparatus 1000 in response to operations by the user.
  • the power supply system 1008 appropriately supplies various power supplies that serve as operating power supplies for the DSP circuit 1003, the frame memory 1004, the display device 1005, the recording device 1006, and the operation system 1007.
  • the CMOS image sensor 10 to which the above-described technique according to the present disclosure is applied can be used as the image pickup unit 1002.
  • the CMOS image sensor 10 to which the technique according to the present disclosure is applied in the back-illuminated type having the charge holding portion 24, the incident of light on the charge holding portion 24 can be suppressed, so that a high-quality photographed image with less noise is captured. Can be obtained.
  • FIG. 15 is a diagram showing the first embodiment and the second embodiment described above, and an example of using the CMOS image sensor 10 according to each modification thereof.
  • CMOS image sensor 10 can be used in various cases for sensing light such as visible light, infrared light, ultraviolet light, and X-ray, as described below.
  • -A device that captures images used for viewing, such as digital cameras and mobile devices with camera functions.
  • in-vehicle sensors that photograph the front, rear, surroundings, inside of the vehicle, etc., surveillance cameras that monitor traveling vehicles and roads, inter-vehicle distance, etc.
  • a device used for traffic such as a distance measuring sensor that measures the distance.
  • -A device used for home appliances such as TVs, refrigerators, and air conditioners in order to take a picture of a user's gesture and operate the device according to the gesture.
  • -Devices used for medical treatment and healthcare such as endoscopes and devices that perform angiography by receiving infrared light.
  • -Devices used for security such as surveillance cameras for crime prevention and cameras for personal authentication.
  • -Devices used for beauty such as a skin measuring device that photographs the skin and a microscope that photographs the scalp.
  • -Devices used for sports such as action cameras and wearable cameras for sports applications.
  • -Agricultural equipment such as cameras for monitoring the condition of fields and crops.
  • FIG. 16 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 16 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101 to be an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an imaging element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the imaging element by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), etc., and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light for photographing an operating part or the like to the endoscope 11100.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as texts, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-division manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to correspond to each of RGB. It is also possible to capture the image in a time-division manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. A range image can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 17 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 includes a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicatively connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the above-mentioned imaging conditions such as frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the lens unit 11401 and the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • it is possible to reduce noise and improve the image quality of the captured image, and it is possible to obtain a clearer surgical site image, so that the operator can surely confirm the surgical site.
  • the technology according to the present disclosure can be further applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 18 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether or not the driver has fallen asleep.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, or vehicle lane deviation warning. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform coordinated control for the purpose of automatic driving that runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 19 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has image pickup units 12101, 12102, 12103, 12104, 12105 as the image pickup unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 19 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, utility poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is used via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the technique according to the present disclosure can be applied to the image pickup unit 12031, it is possible to reduce noise and improve the image quality of the captured image, and it is possible to obtain a photographed image that is easier to see, so that driver fatigue can be reduced. Become.
  • the present technology can also have the following configurations.
  • a photoelectric conversion unit that converts light into electric charges by photoelectric conversion A charge storage unit adjacent to the photoelectric conversion unit and accumulating the charge transferred from the photoelectric conversion unit, and a charge storage unit.
  • Solid-state image sensor (2) The pixel is The photoelectric conversion unit is arranged in the pixel array so as to be located outside the pixel array with respect to the charge storage unit. The solid-state image sensor according to (1) above.
  • Each of the pixels included in the pixel array The direction in which the photoelectric conversion unit is adjacent to the charge storage unit is arranged in a direction symmetrical with respect to a first line passing through a predetermined position of the pixel array.
  • Each of the pixels included in the pixel array Arranged at the predetermined position of the pixel array in a direction further symmetrical with respect to the second line orthogonal to the first line.
  • the predetermined position is a substantially center position in the array of the pixel array.
  • the predetermined position is It is a position corresponding to the optical axis of the lens for irradiating the light receiving surface of the pixel array with light.
  • the solid-state image sensor according to any one of (3) to (5).
  • the pixel is A trench shading portion is further provided on the outer periphery of the photoelectric conversion portion so as to be dug down from the side of the irradiation surface on which the light is irradiated in the pixel.
  • the trench shading part In the pixel a part is a non-penetrating non-penetrating portion and the remaining portion is a penetrating portion penetrating from the irradiation surface to the surface opposite to the irradiation surface.
  • the non-penetrating part Of the outer circumference of the photoelectric conversion unit the photoelectric conversion unit is provided on the trench shading portion on the side that is not adjacent to the charge storage unit and does not form the outer peripheral side of the pixel.
  • the solid-state image sensor according to (7) above. (9) The non-penetrating part Provided on the side of the charge storage portion of the side, The solid-state image sensor according to (8) above. (10) The non-penetrating part Provided in the central part of the side, The solid-state image sensor according to (8) above. (11) The non-penetrating part Provided on the side opposite to the charge storage portion, The solid-state image sensor according to (8) above.
  • the pixel array is It further comprises a wiring connected to an element for driving the pixel, which is included in each of the pixels aligned in the row direction or the column direction of the pixel array.
  • the wiring is Among the pixels, the distances between the corresponding elements included in the first pixel and the second pixel, which are arranged in different directions and adjacent to each other in the alignment direction, and adjacent to each other. Includes dummy wiring according to the difference between the distance between the first pixels or the distance between the second pixels adjacent to each other.
  • the solid-state image sensor according to any one of (1) to (11).
  • the pixel is An optical waveguide that guides the light incident on the first surface to the photoelectric conversion unit is further provided.
  • the optical waveguide The first surface has a shape corresponding to an irradiation unit in which the pixels are irradiated with light, and the second surface from which the light incident from the first surface is emitted is light incident on the photoelectric conversion unit.
  • the shape corresponds to the incident portion, and the second surface is connected to the incident portion.
  • the solid-state image sensor according to any one of (1) to (12).
  • a lens is provided on the first surface of the optical waveguide.
  • a photoelectric conversion unit that converts light into electric charges by photoelectric conversion, A charge storage unit adjacent to the photoelectric conversion unit and accumulating the charge transferred from the photoelectric conversion unit, and a charge storage unit.
  • a pixel array in which the pixels containing the pixels are arranged in a matrix.
  • a solid-state image sensor in which the pixels are arranged with respect to the pixel array so that the photoelectric conversion unit is adjacent to the charge storage unit in a direction corresponding to a position in the pixel array.
  • a signal processing unit that executes signal processing on the pixel signal read from the solid-state image sensor to generate image data, and
  • a storage unit that stores the image data generated by the signal processing unit, and a storage unit.
  • CMOS image sensor 11 pixel array section 12 vertical driving unit 13 the column processing section 17 vertical signal lines 20,20 1, 20 2, 20 3 , 20 4, 20 5, 20 6, 20a, 20b, 20cn, 20ld, 20lu, 20rd, 20ru Pixel 21 Photodiode 24 Charge holding part 26 Third transfer gate part 27 Reset transistor 28 Amplification transistor 29 Selective transistor 51 Semiconductor substrate 54,111 Wiring layer 57B Non-penetrating light-shielding part 57C Penetrating light-shielding part 60 Main lens 61 Optical axis 80 1, 80 2, 80 3, 80 4, 80 5, 80 6 optical waveguide 90, 91, 92 wiring 100 OCL 1000 Imaging device

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

より高画質な撮像画像を取得可能な固体撮像素子および電子機器を提供する。本開示に係る固体撮像素子は、光を光電変換により電荷に変換する光電変換部(21)と、光電変換部に隣接され、光電変換部から転送された電荷を蓄積する電荷蓄積部(24)と、を含む画素が、行列状の配列で配置される画素アレイ(11)を備える。画素は、画素アレイに対し、光電変換部が電荷蓄積部に隣接する方向を、画素アレイ内での位置に応じた方向に向けて配置される。

Description

固体撮像素子および電子機器
 本開示は、固体撮像素子および電子機器に関する。
 固体撮像素子、例えば、グローバルシャッタ機能を有する裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサが知られている。このようなCMOSイメージセンサにおいては、光電変換部で生成された電荷を一時的に保持する電荷保持部が、半導体基板内に設けられる。この電荷保持部に光が入射すると、不要な電荷が発生する。そして、不要な電荷に伴って光学的ノイズが発生するため画質が低下する。
 この電荷保持部への光の入射を抑制するために、光電変換部と電荷保持部とを分離するための遮光部を、画素の層方向の構造において、非貫通の遮光部を裏面側(照射面側)から非貫通に掘り下げて形成する構造が提案されている(例えば特許文献1)。光電変換部に蓄積された電荷は、この遮光部における非貫通部分を介して電荷保持部に転送される。
国際公開第19/069556号
 しかしながら、特許文献1の構成では、光電変換部から電荷保持部への電荷の転送部分、すなわち、遮光部が非貫通となる部分から電荷保持部に対して、回折や反射などにより光が漏れ込むおそれがある。この電荷保持部に対する光の漏れ込みは、ノイズの原因となり、撮像画像の画質の劣化などのグローバルシャッタ機能の低下に繋がる。
 本開示は、より高画質な撮像画像を取得可能な固体撮像素子および電子機器を提供することを目的とする。
 本開示に係る固体撮像素子は、光を光電変換により電荷に変換する光電変換部と、光電変換部に隣接され、光電変換部から転送された電荷を蓄積する電荷蓄積部と、を含む画素が、行列状の配列で配置される画素アレイを備え、画素は、画素アレイに対し、光電変換部が電荷蓄積部に隣接する方向を、画素アレイ内での位置に応じた方向に向けて配置される。
各実施形態に適用可能な固体撮像素子の一例であるCMOSイメージセンサの構成例を示すブロック図である。 各実施形態に適用可能な単位画素の構成例の概略を示す図である。 各実施形態に適用可能な遮光構造の基本構造を模式的に示す断面図である。 各実施形態に適用可能なCMOSイメージセンサの光学的な構成について概略的に説明するための図である。 各実施形態に適用可能なCMOSイメージセンサの光学的な構成について概略的に説明するための図である。 既存技術による画素の一例の構造を模式的に示す断面図である。 画素における非貫通遮光部および貫通遮光部の配置の例を入射面側から見た模式図である。 既存技術による画素の画素アレイ部における配置の例を概略的に示す図である。 第1の実施形態に係る、画素の画素アレイ部における配置の例を概略的に示す図である。 第1の実施形態に係る画素の配置のより具体的な例を模式的に示す模式図である。 第1の実施形態に係る画素の配置のより具体的な例を模式的に示す模式図である。 第1の実施形態の第1の変形例に係る光導波路を説明するための模式図である。 第1の実施形態の第1の変形例に係る光導波路を説明するための模式図である。 第1の実施形態の第1の変形例に係る光導波路を説明するための模式図である。 第1の実施形態の第2の変形例に係る、各画素への配線の例を示す模式図である。 第1の実施形態に係る第3の変形例による、画素における非貫通遮光部および貫通遮光部の配置の第2の例を入射面側から見た模式図である。 第1の実施形態に係る第3の変形例による、画素における非貫通遮光部および貫通遮光部の配置の第3の例を入射面側から見た模式図である。 第2の実施形態に係る画素20の配置のより具体的な例を模式的に示す模式図である。 第2の実施形態の変形例に係る光導波路を説明するための模式図である。 第2の実施形態の変形例に係る光導波路を説明するための模式図である。 第2の実施形態の変形例に係る光導波路を説明するための模式図である。 第3の実施形態に係る電子機器としての撮像装置の一例の構成を概略的に示すブロック図である。 第1の実施形態および第2の実施形態、ならびに、その各変形例に係るCMOSイメージセンサ10を使用する使用例を示す図である。 本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 撮像部の設置位置の例を示す図である。
 以下、本開示の実施形態について、図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより、重複する説明を省略する。
 以下、本開示の実施形態について、下記の順序に従って説明する。
1.各実施形態に適用可能な構成
 1-1.各実施形態に適用可能な固体撮像素子について
 1-2.各実施形態に適用可能な単位画素の構成例について
 1-3.各実施形態に適用可能な、単位画素における遮光構造について
 1-4.各実施形態に適用可能なCMOSイメージセンサの光学的な構成について
2.既存技術の説明
3.第1の実施形態
 3-1.第1の実施形態の第1の変形例
 3-2.第1の実施形態の第2の変形例
 3-3.第1の実施形態の第3の変形例
4.第2の実施形態
 4-1.第2の実施形態の変形例
5.第3の実施形態
6.第4の実施形態
 6-1.内視鏡手術システムに対する適用例
 6-2.移動体への適用例
[1.各実施形態に適用可能な構成]
 先ず、本開示の各実施形態に適用可能な装置構成の例について説明する。本開示に係る固体撮像素子は、グローバルシャッタ機能を有した撮像装置に用いて好適なものである。
(1-1.各実施形態に適用可能な固体撮像素子について)
 図1は、各実施形態に適用可能な固体撮像素子の一例であるCMOS(Complementary Metal Oxide Semiconductor)イメージセンサの構成例を示すブロック図である。
 図1において、CMOSイメージセンサ10は、画素アレイ部11、垂直駆動部12、カラム処理部13、水平駆動部14およびシステム制御部15を有する構成となっている。画素アレイ部11、垂直駆動部12、カラム処理部13、水平駆動部14およびシステム制御部15は、図示しない半導体基板(チップ)上に形成されている。
 画素アレイ部11には、入射光量に応じた電荷量の光電荷を発生して内部に蓄積する光電変換部を有する単位画素20が行列状の配列で2次元配置されている。単位画素20は、裏面照射型の画素構造(図3参照)を有する。以下、入射光量に応じた電荷量の光電荷を、単に「電荷」と記述し、単位画素を、単に「画素」と記述する場合がある。
 画素アレイ部11にはさらに、m行×n列(m、nはそれぞれ1以上の整数)の画素配列に対して行毎に画素駆動線16(161~16m)が図の左右方向(画素行の画素の配列方向)に沿って形成され、列毎に垂直信号線17(171~17n)が図の上下方向(画素列の画素の配列方向)に沿って形成されている。なお、垂直信号線17は、VSLとも称される。画素駆動線16の一端は、垂直駆動部12の各行に対応した出力端に接続されている。
 CMOSイメージセンサ10は、さらに、信号処理部18およびデータ格納部19を備えている。信号処理部18およびデータ格納部19については、CMOSイメージセンサ10とは別の基板に設けられる外部信号処理部、例えばDSP(Digital Signal Processor)やソフトウェアによる処理でもよいし、CMOSイメージセンサ10と同じ基板上に搭載してもよい。
 垂直駆動部12は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部11の各画素20を、全画素同時あるいは行単位等で駆動する画素駆動部である。この垂直駆動部12は、その具体的な構成については図示を省略するが、読み出し走査系および掃き出し走査系を有する構成となっており、これら走査系による駆動の下に、一括掃き出しや一括転送を行うことができる。
 読み出し走査系は、単位画素20から信号を読み出すために、画素アレイ部11の単位画素20を行単位で順に選択走査する。行駆動(ローリングシャッタ動作)の場合、掃き出しについては、読み出し走査系によって読み出し走査が行われる読み出し行に対し、その読み出し走査よりもシャッタスピードの時間分だけ先行して掃き出し走査が行われる。また、グローバル露光(グローバルシャッタ動作)の場合は、一括転送よりもシャッタスピードの時間分だけ先行して一括掃き出しが行われる。
 この掃き出しにより、読み出し行の単位画素20の光電変換部から不要な電荷が掃き出される(リセットされる)。そして、不要電荷の掃き出し(リセット)により、所謂、電子シャッタ動作が行われる。ここで、電子シャッタ動作とは、光電変換部の光電荷を捨てて、新たに露光を開始する(光電荷の蓄積を開始する)動作のことを言う。
 読み出し走査系による読み出し動作によって読み出される信号は、その直前の読み出し動作または電子シャッタ動作以降に入射した光量に対応するものである。行駆動の場合は、直前の読み出し動作による読み出しタイミング、又は電子シャッタ動作による掃出しタイミングから、今回の読み出し動作による読み出しタイミングまでの期間が、単位画素における光電荷の蓄積期間(露光期間)となる。グローバル露光の場合は、一括掃き出しから一括転送までの期間が蓄積期間(露光期間)となる。
 垂直駆動部12によって選択走査された画素行の各単位画素20から出力される画素信号は、垂直信号線17の各々を通してカラム処理部13に供給される。カラム処理部13は、画素アレイ部11の画素列毎に、選択行の各単位画素20から垂直信号線17を通して出力される画素信号に対して所定の信号処理を行うと共に、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理部13は、信号処理として少なくとも、ノイズ除去処理、例えばCDS(Correlated Double Sampling;相関二重サンプリング)処理を行う。このカラム処理部13による相関二重サンプリングにより、リセットノイズや増幅トランジスタ(図2参照)の閾値ばらつき等の画素固有の固定パターンノイズが除去される。なお、カラム処理部13に対し、ノイズ除去処理以外に、例えば、AD(アナログ-デジタル)変換機能を持たせ、信号レベルをデジタル信号で出力することも可能である。
 水平駆動部14は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部13の画素列に対応する単位回路を順番に選択する。この水平駆動部14による選択走査により、カラム処理部13で信号処理された画素信号が順番に信号処理部18に出力される。
 システム制御部15は、各種のタイミング信号を生成するタイミングジェネレータ等によって構成され、タイミングジェネレータで生成された各種のタイミング信号を基に垂直駆動部12、カラム処理部13および水平駆動部14などの駆動制御を行う。
 信号処理部18は、少なくとも加算処理機能を有し、カラム処理部13から出力される画素信号に対して加算処理等の種々の信号処理を行う。データ格納部19は、信号処理部18での信号処理に当たって、その処理に必要なデータを一時的に格納する。
(1-2.各実施形態に適用可能な単位画素の構成例について)
 次に、各実施形態に適用可能な単位画素20の具体的な構成について説明する。図2は、各実施形態に適用可能な単位画素20の構成例の概略を示す図である。単位画素20は、光電変換部として、例えばフォトダイオード(PD)21を有している。フォトダイオード21は、例えば、n型半導体基板31上に形成されたp型ウエル層32に対して、p型層211を基板表面側に形成してn型埋め込み層212を埋め込むことによって形成される埋め込み型フォトダイオードである。なお、n型埋め込み層212は、電荷排出時に空乏状態となる不純物濃度とされる。
 単位画素20は、フォトダイオード21に加えて、第1の転送ゲート部22、第2の転送ゲート部23および電荷保持部(MEM)24を備えている。第1の転送ゲート部22は、フォトダイオード21と電荷保持部24とに跨る位置に配置されたゲート電極221を有する。第2の転送ゲート部23は、電荷保持部24の近傍に配置されたゲート電極231を有する。
 本例の単位画素20では、電荷保持部24について、p型層241を表面として、埋め込み型のn型拡散領域242によって形成した構成が採用されている。このように、電荷保持部24をn型拡散領域242によって形成した場合であっても、埋め込みチャネルによって形成した場合と同様の作用、効果を得ることができる。具体的には、p型ウエル層32の内部にn型拡散領域242を形成し、基板表面側にp型層241を形成することで、Si-SiO2界面で発生する暗電流が電荷保持部24のn型拡散領域242に蓄積されることを回避できるため画質の向上に寄与できる。
 第1の転送ゲート部22は、ゲート電極221に駆動信号TRYが印加されることにより、フォトダイオード21で光電変換され、フォトダイオード21の内部に蓄積された電荷を電荷保持部24に転送する。また、第1の転送ゲート部22は、電荷保持部24からフォトダイオード21への電荷の逆流を阻止するためのゲートとして機能する。
 第2の転送ゲート部23において、ゲート電極221は、フォトダイオード21から電荷保持部24へ電荷を転送するときのゲートとして機能するとともに、電荷保持部24に電荷を保持させるためのゲートとして機能する。ゲート電極221は、電荷保持部24から浮遊拡散領域(FD:Floating Diffusion)25へ電荷を転送するときのゲートとして機能すると共に、電荷保持部24に電荷を保持させるためのゲートとして機能する。浮遊拡散領域25は、n型層から成る電荷電圧変換部である。
 第2の転送ゲート部23においては、ゲート電極231に駆動信号TXが印加されることにより、電荷保持部24に変調がかけられる。すなわち、ゲート電極231に駆動信号TXが印加されることで、電荷保持部24のポテンシャルが深くなる。これにより、電荷保持部24の飽和電荷量を、変調をかけない場合よりも増やすことができる。
 単位画素20は、さらに、第3の転送ゲート部26を有している。第3の転送ゲート部26は、ゲート電極261に駆動信号TRGが印加されることにより、電荷保持部24に蓄積された電荷を、浮遊拡散領域25に転送する。浮遊拡散領域25は、第3の転送ゲート部26によって電荷保持部24から転送された電荷を電圧に変換する。
 単位画素20はさらに、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29を備えている。なお、図2では、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29に、nチャネルのMOSトランジスタを用いた例を示しているが、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29の導電型の組み合わせは、これらの組み合わせに限られるものではない。
 リセットトランジスタ27は、電源電圧Vrstのノードと浮遊拡散領域25との間に接続されており、ゲート電極に駆動信号RSTが印加されることによって浮遊拡散領域25をリセットする。増幅トランジスタ28は、ドレイン電極が電源電圧Vddのノードに接続され、ゲート電極が浮遊拡散領域25に接続されており、浮遊拡散領域25の電圧を読み出す。
 選択トランジスタ29は、例えば、ドレイン電極が増幅トランジスタ28のソース電極に、ソース電極が垂直信号線17(VSL)にそれぞれ接続されており、ゲート電極に駆動信号SELが印加されることで、画素信号を読み出すべき単位画素20を選択する。なお、選択トランジスタ29については、電源電圧Vddのノードと増幅トランジスタ28のドレイン電極との間に接続した構成を採用することも可能である。
 上述した単位画素20の構成例において、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29については、その1つあるいは複数を、画素信号の読み出し方法によっては省略することも可能である。
 また、図2の単位画素20の構成例においては、p型ウエル層32にn型の埋め込みチャネルを形成するようにしたが、逆の導電型を採用するようにしてもよい。この場合、ポテンシャルの関係は全て逆になる。
 また、図2に示した単位画素20には、ブルーミング防止用のオーバーフローゲート部33も設けられている。オーバーフローゲート部33は、露光開始時にそのゲート電極331に駆動信号OFGが印加されることで、フォトダイオード21の電荷をn型層34に排出する。n型層34には、所定の電圧Vddが印加されている。
 上記の単位画素20を有する本実施形態に係るCMOSイメージセンサ10は、全画素同時に露光を開始し、全画素同時に露光を終了し、フォトダイオード21に蓄積された電荷を、遮光された電荷保持部24へ転送することで、グローバルシャッタ動作(グローバル露光)を実現する。このグローバルシャッタ動作により、全画素一致した露光期間による歪みのない撮像の実現が可能となる。
(1-3.各実施形態に適用可能な、単位画素における遮光構造について)
 次に、各実施形態に適用可能な、単位画素20における遮光構造について説明する。
 図3は、各実施形態に適用可能な遮光構造の基本構造を模式的に示す断面図である。図3に示すように、CMOSイメージセンサ10は、図の上側から、半導体基板51、絶縁膜層52、第1の遮光膜53および配線層54が積層された構成となっている。CMOSイメージセンサ10は、半導体基板51の配線層54が積層されている表面側と反対側の裏面側から照射される光をフォトダイオード21内に取り込む裏面照射型の固体撮像素子である。
 すなわち、CMOSイメージセンサ10は、半導体基板51の光が入射する第1の面(裏面)と反対側の第2の面(表面)に、第2の面に近い方から絶縁膜層52、第1の遮光膜53および配線層54が積層された構成となっている。また、CMOSイメージセンサ10は、半導体基板51の入射面およびフォトダイオード21と電荷保持部24との間に、多層膜56を介して、第2の遮光膜57が形成された構成となっている。多層膜56は、例えば、固定電荷膜、反射防止膜および絶縁膜を含む3層構造の膜から成る。絶縁膜は、例えばSiO2膜等の酸化膜から成る。
 なお、図示は省略するが、半導体基板51の裏面側には、例えば、パッシベーション膜、カラーフィルタ、マイクロレンズ等が積層される。また、配線層54の下には、例えば、支持基板が積層される。
 以下、半導体基板51の裏面を入射面と称する場合がある。また、半導体基板51の表面であって、配線層54との境界に配置されている面を境界面と称する。また、フォトダイオード21の半導体基板51の入射面側の面を受光面と称し、受光面と反対側の面を底面と称する。また、電荷保持部24の半導体基板51の入射面側の面を上面と称し、上面と反対側の面を底面と称する。
 半導体基板51は、例えばシリコン基板から成る。半導体基板51内には、フォトダイオード21及び電荷保持部24が形成されている。なお、図内の左側のフォトダイオード21と電荷保持部24とが同じ画素20内に配置され、右側のフォトダイオード21と電荷保持部24とが隣接する異なる画素20内に配置されている。
 絶縁膜層52は、例えば、第1の絶縁膜52A、第2の絶縁膜52Bおよび第3の絶縁膜52Cの3層の絶縁膜から成る(3層構造)。第1の絶縁膜52A及び第3の絶縁膜52Cは、例えばSiO2膜等の酸化膜から成り、第2の絶縁膜52Bは、例えばSiN膜等の窒化膜から成る。第1の絶縁膜52Aは、ゲート電極55と半導体基板51の間の絶縁膜も兼ねている。なお、ゲート電極55は、例えば、図2の第1の転送ゲート部22のゲート電極221に相当する。
 第1の遮光膜53は、例えば、タングステン等の遮光性を有するメタルから成る。第1の遮光膜53は、少なくとも電荷保持部24の形成領域を覆うように、好ましくは、フォトダイオード21および電荷保持部24の形成領域を覆うように配線層54側に設けられている。第1の遮光膜53は、フォトダイオード21で吸収されずに半導体基板51を透過した光が、配線層54に入射することを防止する目的で設けられている。この第1の遮光膜53の作用により、半導体基板51を透過した光が、配線層54に入射し、配線層54で反射されて、電荷保持部24に入射することが抑制される。
 ここで、半導体基板51を透過した光が、第1の遮光膜53の本体部である平坦部53Cの半導体基板51に平行な面で反射されて、電荷保持部24に入射することもあり得る。そこで、第1の遮光膜53は、第2の遮光膜57の形成位置に対応する部位に、平坦部53Cから半導体基板51側に突出する突出部を有している。より具体的には、第1の遮光膜53は、第2の遮光膜57の後述する非貫通遮光部57Bおよび貫通遮光部57Cの少なくとも一方、好ましくは両方の形成位置に対応する部位に突出部53Aおよび突出部53Bを有している。突出部53Aおよび突出部53Bは、タングステン等の遮光性を有するメタルによって第1の遮光膜53の平坦部53Cと一体的に形成される。
 突出部53Aおよび突出部53Bは、第2の遮光膜57の非貫通遮光部57Bおよび貫通遮光部57Cの形成位置の直下よりもフォトダイオード21側の部位に、電荷保持部24の長手方向に沿って形成されている。すなわち、突出部53Aは、非貫通遮光部57Bの形成位置の直下よりも同じ画素内のフォトダイオード21側の部位に、平坦部53Cから半導体基板51側に突出した状態で設けられている。また、突出部53Bは、貫通遮光部57Cの形成位置の直下よりも隣接する画素内のフォトダイオード21側の部位に、平坦部53Cから半導体基板51側に突出した状態で設けられている。
 突出部53Aおよび突出部53Bは、第1の遮光膜53の平坦部53Cの上面で反射されて、電荷保持部24に入射することを防止する作用をなす。第1の遮光膜53の平坦部53Cで反射された光が、電荷保持部24へ入射することを阻止する上では、突出部53Aおよび突出部53Bの突出量、即ち高さは、できるだけ高い方が好ましい。その反面、突出部53Aおよび突出部53Bの高さが高すぎると、突出部53Aおよび突出部53Bの加工時のプラズマダメージ等の影響による白点等の特性悪化の要因となることが考えられる。
 このような観点からすると、突出部53Aおよび突出部53Bの高さ位置は、図3に示すように、3層構造の絶縁膜層52における中間の層である、SiN膜等の窒化膜から成る第2の絶縁膜52B内に設定されることが好ましい。但し、突出部53Aおよび突出部53Bの高さ位置については、中間の層である第2の絶縁膜52B内の設定が好ましいが、これに限られるものではなく、1層目の第1の絶縁膜52A内に設定されてもよいし、3層目の第3の絶縁膜52C内に設定されてもよい。
 第2の遮光膜57は、例えば、タングステン等の遮光性を有するメタルから成る。第2の遮光膜57は、主に半導体基板51の入射面から入射した光が直接又は間接的に電荷保持部24に入射することを抑制する。第2の遮光膜57は、表面遮光部57A、非貫通遮光部57Bおよび貫通遮光部57Cから構成されている。
 表面遮光部57Aは、第3の遮光部であり、半導体基板51の入射面のうち、フォトダイオード21の受光面の上方を除く領域を覆っている。すなわち、表面遮光部57Aは、半導体基板51の受光面のうち、フォトダイオード21への光が入射する領域を除く領域を覆っている。
 非貫通遮光部57Bは、第1の遮光部であり、半導体基板51の入射面から半導体基板51の途中まで延びている。また、この例では、非貫通遮光部57Bは、同じ画素20内のフォトダイオード21と電荷保持部24との間に少なくとも配置されている。
 貫通遮光部57Cは、第2の遮光部であり、半導体基板51を貫通し、絶縁膜層52の途中まで、本例では、第1の絶縁膜52Aを貫通し、第2の絶縁膜52Bまで延在している。すなわち、貫通遮光部57Cは、非貫通遮光部57Bよりも長く延びている。また、この例では、貫通遮光部57Cは、互いに異なる画素20に配置されているフォトダイオード21と電荷保持部24との間に配置されている。すなわち、互いに隣接する画素20の一方のフォトダイオード21と他方の電荷保持部24との間に少なくとも配置されている。
 第1の遮光部である非貫通遮光部57Bと、第2の遮光部である貫通遮光部57Cとは、半導体基板51の入射面(第1の面)に平行な方向において、第3の遮光部である表面遮光部57Aを介して繋がっている。また、フォトダイオード21の側面が、非貫通遮光部57Bと貫通遮光部57Cとによって囲まれている。図3に示す断面では、同じ画素20内のフォトダイオード21と電荷保持部24とが、非貫通遮光部57Bを挟んで隣接している。
 非貫通遮光部57Bおよび貫通遮光部57Cは、共に、半導体基板51の入射面(第1面)から境界面に向けて掘り下げて形成された、トレンチ遮光部である。
 ここで、絶縁膜層52の第1の絶縁膜52A、第2の絶縁膜52Bおよび第3の絶縁膜52Cの厚みの例について説明する。
 第1の絶縁膜52Aは、例えば、10[nm]以上の厚みに設定される。これは、例えば、貫通遮光部57Cを形成するための半導体基板51を貫通する溝の深さの加工調整をするために必要な厚みである。但し、第1の絶縁膜52Aは、ゲート電極55と半導体基板51との間の絶縁膜を兼ねているため、あまり厚くしすぎることは望ましくない。したがって、第1の絶縁膜52Aの厚みは、例えば、10[nm]~20[nm]の範囲内に設定されることが好ましい。
 第2の絶縁膜52Bは、例えば、50[nm]以上の厚みに設定される。これは、例えば、配線層54に形成されるコンタクトの加工調整および貫通遮光部57Cを形成するための半導体基板51を貫通する溝の加工制御のために必要な厚みである。例えば、コンタクトを形成するための溝が半導体基板51にまで達したり、コンタクトの加工によるダメージによって半導体基板51が損傷したりするのを防いだり、貫通遮光部57Cを形成するための半導体基板51を貫通する溝を第2の絶縁膜52Bで止めるために必要な厚みである。但し、第2の絶縁膜52Bは、CMOSイメージセンサ10の薄型化等の観点から、あまり厚くしすぎることは望ましくない。したがって、第2の絶縁膜52Bの厚みは、例えば、50[nm]~100[nm]の範囲内に設定されることが好ましい。
 第3の絶縁膜52Cは、例えば、25[nm]以上の厚みに設定される。これは、例えば、第1の遮光膜53の加工時に、第3の絶縁膜52Cが損傷し、第2の絶縁膜52Bが露出しないようにするために必要な厚みである。但し、第3の絶縁膜52Cは、CMOSイメージセンサ10の薄型化等の観点から、あまり厚くしすぎるのは望ましくない。したがって、第3の絶縁膜52Cの厚みは、例えば、30[nm]~100[nm]の範囲内に設定されることが好ましい。
(1-4.各実施形態に適用可能なCMOSイメージセンサの光学的な構成について)
 次に、図4Aおよび図4Bを用いて、各実施形態に適用可能なCMOSイメージセンサ10の光学的な構成について、概略的に説明する。図4Aは、CMOSイメージセンサ10の画素アレイ部11を、入射面側から見た一例の上面図である。また、図4Bは、画素アレイ部11を入射面に垂直な面から見た一例の側面図である。
 図4Aに示されるように、行列状の配列で各画素20が配置される画素アレイ部11に対して、レンズ60が配置される。レンズ60は、入射された光を画素アレイ部11の各画素20に照射させるもので、以下、主レンズ60と呼ぶ。図4Aおよび図4Bの例では、主レンズ60の光軸61の位置は、画素アレイ部11の中心位置に一致している。また、図4Bに示すように、各画素20は、入射面に対してカラーフィルタ101とOCL(On Chip Lense)100とが積層して設けられる。
 図4Aおよび図4Bから分かるように、画素アレイ部11において主レンズ60の光軸61の位置およびその近傍に配置される画素20には、主レンズ60から入射面に対して略垂直の方向に入射される。一方、主レンズ60の光軸61から外れる位置に配置される画素20には、光軸61の位置から遠ざかるに連れ、入射面に対してより斜め方向から光が入射されることになる。この画素20に対する光の入射角が画素アレイ部11上での位置に応じて変わることによる入射瞳径の変化を抑制するために、瞳補正が行われることがある。瞳補正は、例えば、OCL100の位置や形状を、画素アレイ部11上での画素20の位置に応じて調整することで行われる。
 CMOSイメージセンサ10に対して入射される光は、主レンズ60を介して各画素20に照射される。各画素20において、主レンズ60から照射された光は、OCL100およびカラーフィルタ101を介して、半導体基板51の入射面から半導体基板51内部に入射される。この光は、フォトダイオード21に受光され、フォトダイオード21は、受光した光に応じて光電変換を行い、電荷を生成する。フォトダイオード21により生成された電荷は、ゲート電極221に駆動信号TRYが印加されることにより、非貫通遮光部57Bの直下から第1の絶縁膜52Aまでの、非貫通遮光部57Bが設けられていない部分を介して、電荷保持部24に転送される。電荷保持部24は、転送された電荷を、ゲート電極261に駆動信号TRGが印加されるまで、蓄積する。このように、電荷保持部24は、電荷を蓄積する電荷蓄積部として機能する。
 以下、適宜、非貫通遮光部57Bの直下から第1の絶縁膜52Aまでの、非貫通遮光部57Bが設けられていない部分を、転送部と呼ぶ。
[2.既存技術の説明]
 次に、本開示の説明に先んじて、理解を容易とするために、既存技術について概略的に説明する。既存技術による画素アレイ部11における画素20の配列では、フォトダイオード21に入射された光が、電荷保持部24に漏れ込む現象が発生する場合があった。図5Aおよび図5Bを用いて、既存技術による画素構造におけるフォトダイオード21から電荷保持部24への光の漏れ込みについて説明する。
 図5Aは、既存技術による画素20の一例の構造を模式的に示す断面図であって、上述した図3に示した構造と対応する。なお、図5Aにおいて、半導体層110は、図3の半導体基板51に対応し、配線層111は、図3の配線層54と絶縁膜層52に対応している。また、図5Aの例では、画素20は、半導体基板51の入射面に対して、OCL100からカラーフィルタ101を介して入射された光をフォトダイオード(PD)21に導くための光導波構造102が設けられている。
 図5Bは、図5Aに示す画素20におけるトレンチ遮光部、すなわち非貫通遮光部57Bおよび貫通遮光部57Cの配置の例を入射面側から見た模式図である。図5Bの例では、画素20において、貫通遮光部57Cが画素20の周囲に設けられると共に、フォトダイオード(PD)21の、電荷保持部(MEM)24に隣接する辺に対して設けられている。
 また、図5Bの例では、フォトダイオード21の外周のうち電荷保持部24が隣接しない辺であって、且つ、画素20の外周を構成しない辺に対し、電荷保持部24側に非貫通遮光部57Bが設けられ、当該非貫通遮光部57B以外の部分に貫通遮光部57Cが設けられている。さらに、電荷保持部24のフォトダイオード21に一部が隣接する辺において、フォトダイオード21が隣接しない部分に非貫通遮光部57Bが設けられている。フォトダイオード21において光電変換により生成された電荷は、これら非貫通遮光部57Bの転送部を介して、電荷保持部24に転送される。
 なお、以下では、特に記載の無い限り、「フォトダイオード21の外周のうち電荷保持部24が隣接しない辺であって、且つ、画素20の外周を構成しない辺」を、「フォトダイオード21の電荷保持部24に隣接しない辺」として説明を行う。
 ここで、図5Aを参照し、フォトダイオード21に入射された光の電荷保持部24への漏れ込みについて、より具体的に説明する。フォトダイオード21に入射された光は、例えば、矢印Aで示されるように、絶縁膜層52などで反射されて、非貫通遮光部57Bの転送部を介して電荷保持部24に漏れ込む可能性がある。また、矢印Bで示されるように、フォトダイオード21に入射され非貫通遮光部57Bに到達した光が、回折光として非貫通遮光部57Bを伝い電荷保持部24に漏れ込む可能性もある。このようにして電荷保持部24に漏れ込んだ光は、電荷保持部24に蓄積される電荷に対するノイズとなる。
 図6は、既存技術による画素20の画素アレイ部11における配置の例を概略的に示す図である。図6において、画素20cnは、光軸61に対応した位置に配置される画素である。また、画素20ru、20rd、20luおよび20ldは、それぞれ画素アレイ部11の、図6における右上、右下、左上および左下の四隅に配置される画素である。
 図6の例では、各画素20cn、20ru、20rd、20luおよび20ldは、フォトダイオード21と電荷保持部24とが隣接する方向を画素アレイ部11において一律として、画素アレイ部11に配置されている。より具体的には、図において、それぞれ電荷保持部24が画素20の上部に配置され、フォトダイオード21が画素20の下部左側に寄せて配置されている。すなわち、図において、各画素20cn、20ru、20rd、20luおよび20ldの電荷保持部24からフォトダイオード21への隣接方向は、左下斜めの方向となっていいる。
 各画素20cn、20ru、20rd、20luおよび20ldにおいて、画素20に入射される光は、主レンズ60により、それぞれ集光スポット70cn、70ru、70rd、70luおよび70ldに向けて入射される。このとき、例えば画素アレイ部11の右側に配置される画素20ruおよび20rdでは、それぞれ矢印CおよびDで示されるように、フォトダイオード21に入射された光が、非貫通遮光部57Bの転送部を介して電荷保持部24に漏れ込む可能性がある。
 一方、画素アレイ部11の左側に配置される画素20luおよび20ldにおいては、フォトダイオード21に入射された光は、貫通遮光部57Cにより、電荷保持部24への漏れ込みが阻まれる。
 なお、主レンズ60による光の集光位置を光軸61の方向に沿って変化させることで、電荷保持部24におけるノイズ成分を示すPLS(Parasitic Light Sensitivity)値をある程度改善することが可能である。しかしながら、フォトダイオード21から、電荷保持部24に電荷を転送する転送部に向けて光を入射した場合には、集光位置に依存せずに、PLS値が悪化する。
 本開示の各実施形態では、各画素20を、画素アレイ部11における位置に応じた向きで画素アレイ部11に配置することで、フォトダイオード21から電荷保持部24への光の漏れ込みを抑制する。
 なお、以下では、画素20の向きを、フォトダイオード21と電荷保持部24とが隣接する方向により定義する。図6において、例えば各画素20cnは、フォトダイオード21が画素20cnの左下に寄せて配置され、電荷保持部24に対してフォトダイオード21が左下斜め下の方向に隣接している。この場合、画素20cnは、図6上で、画素アレイ部11の左斜め下の方向を向いているとされる。
[3.第1の実施形態]
 次に、本開示の第1の実施形態について説明する。図7は、上述した図6に対応する図であり、第1の実施形態に係る、画素20の画素アレイ部11における配置の例を概略的に示す図である。なお、以下では、図7の上部を画素アレイ部11の上部として説明を行う。
 第1の実施形態では、各画素20を、フォトダイオード21および電荷保持部24の位置が画素アレイ部11における上下左右で対称となる方向に向けて、画素アレイ部11に配置する。
 すなわち、図7に示されるように、画素アレイ部11の右上部の画素20ruは、電荷保持部24を下部に、フォトダイオード21を上部右側に寄せて配置される。すなわち、画素20ruは、画素アレイ部11において、右斜め上の方向を向けて配置されている。画素アレイ部11の右下部の画素20rdは、電荷保持部24を上部に、フォトダイオード21を下部右側に寄せて配置される。すなわち、画素20rdは、画素アレイ部11において、右斜下の方向に向けて配置されている。画素アレイ部11の左上部の画素20luは、電荷保持部24を下部に、フォトダイオード21を上部左側に寄せて配置される。すなわち、画素20luは、画素アレイ部11において、左斜め上の方向に向けて配置されている。また、画素アレイ部11の左下部の画素20ldは、電荷保持部24を上部に、フォトダイオード21を下部左側に寄せて配置される。すなわち、画素20ldは、画素アレイ部11において、左斜下の方向に向けて配置されている。
 この図7の配置は、換言すれば、各画素20において、フォトダイオード21を、光軸61の位置から見て電荷保持部24の奥側に配置するものである。このように、各画素20を、その方向を画素アレイ部11における位置に応じて回転させて、フォトダイオード21が光軸61の位置から見て電荷保持部24の奥側に位置するように配置することで、フォトダイオード21に入射する光の電荷保持部24への漏れ込みを抑制することができる。
 図8Aおよび図8Bは、第1の実施形態に係る画素20の配置のより具体的な例を模式的に示す模式図である。なお、ここでは、説明のため、画素アレイ部11が6画素×6画素の行列状の配列で、各画素20が配置されているものとする。また、主レンズ60の光軸61は、画素アレイ部11の中心を画素アレイ部11の受光面に対して垂直に貫くものとする。また、光軸61に対応する画素アレイ部11上の位置(光軸61に対応する位置と呼ぶ)を、画素アレイ部11の列方向に通過する線を垂直中心線、同様に、光軸61に対応する位置を画素アレイ部11の行方向に通過する線を水平中心線と呼ぶ。
 図8Aに示すように、画素アレイ部11を光軸61に対応する位置を中心に、上下および左右に対称な4つの領域に分割する。4つの領域のうち左上の領域をグループ#1、右上の領域をグループ#2、左下の領域をグループ#3、右下の領域をグループ#4とする。図8Aの例では、各グループ#1、#2、#3および#4は、それぞれ3画素×3画素の配列で画素201、202、203および204を含む。グループ#1および#3と、グループ#2および#4とが、垂直中心線に対して対称の位置に配置される。また、グループ#1および#2と、グループ#3および#4とが、水平中心線に対して対称の位置に配置される。
 グループ#1に含まれる各画素201は、それぞれ図7の画素20luに対応するもので、図において上部左側に寄せてフォトダイオード21が配置され、下部に電荷保持部24が配置される。非貫通遮光部57Bは、フォトダイオード21の電荷保持部24と接しない辺の下部側に設けられ、貫通遮光部57Cは、当該辺の上部側と、フォトダイオード21の電荷保持部24とが接する辺とに設けられる。
 グループ#2に含まれる各画素202は、それぞれ図7の画素20ruに対応するもので、図において上部右側に寄せてフォトダイオード21が配置され、下部に電荷保持部24が配置される。非貫通遮光部57Bは、フォトダイオード21の電荷保持部24と接しない辺の下部側に設けられ、貫通遮光部57Cは、当該辺の上部側と、フォトダイオード21の電荷保持部24とが接する辺とに設けられる。
 グループ#3に含まれる各画素203は、それぞれ図7の画素20ldに対応するもので、図において下部左側に寄せてフォトダイオード21が配置され、上部に電荷保持部24が配置される。非貫通遮光部57Bは、フォトダイオード21の電荷保持部24と接しない辺の上部側に設けられ、貫通遮光部57Cは、当該辺の下部側と、フォトダイオード21の電荷保持部24とが接する辺とに設けられる。
 また、グループ#4に含まれる各画素204は、それぞれ図7の画素20rdに対応するもので、図において下部右側に寄せてフォトダイオード21が配置され、上部に電荷保持部24が配置される。非貫通遮光部57Bは、フォトダイオード21の電荷保持部24と接しない辺の上部側に設けられ、貫通遮光部57Cは、当該辺の下部側と、フォトダイオード21の電荷保持部24とが接する辺とに設けられる。
 図8Bは、図8Aの光軸61の位置の近傍を抜き出して、各グループ#1~#4の画素201~204をより詳細に示す図である。図8Bでは、各画素201~204それぞれに含まれる、第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29が示されている。図8Bの例では、各画素201~204において、第3の転送ゲート部26が電荷保持部24の位置に配置され、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29がフォトダイオード21の位置に配置される。
 また、図8Bの例では、第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29の位置は、各画素201~204それぞれにおいて、非対称に配置される。例えば、画素201においては、第3の転送ゲート部26は、電荷保持部24の左端に寄せて配置される。また、フォトダイオード21に対して、リセットトランジスタ27が下部左側に寄せて、増幅トランジスタ28が上部中央、選択トランジスタ29が中部右側に寄せて、それぞれ配置されている。
 ここで、第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29、フォトダイオード21および電荷保持部24、ならびに、非貫通遮光部57Bおよび貫通遮光部57Cの、各グループ#1~#4に含まれる各画素201~204内での位置関係は、同一とされる。
 なお、これら画素201~204における第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29の配置位置は一例であって、この例に限定されるものではない。
 第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29を例にとって説明すると、例えば、垂直中心線に対して画素201が含まれるグループ#1と対称の位置のグループ#2に含まれる画素202では、第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29も、当該垂直中心線に対して、画素201の第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29と対称の位置に配置される。すなわち、画素202においては、第3の転送ゲート部26は、電荷保持部24の右端に寄せて配置される。また、フォトダイオード21に対して、リセットトランジスタ27が下部右側に寄せて、増幅トランジスタ28が上部中央、選択トランジスタ29が中部左側に寄せて、それぞれ配置されている。
 一方、水平中心線に対してグループ#1と対称の位置のグループ#3に含まれる画素203では、第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29も、当該水平中心線に対して、画素201の第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29と対称の位置に配置される。すなわち、画素203においては、第3の転送ゲート部26は、電荷保持部24の右端に寄せて配置される。また、フォトダイオード21に対して、リセットトランジスタ27が上部右側に寄せて、増幅トランジスタ28が下部中央、選択トランジスタ29が中部左側に寄せて、それぞれ配置されている。
 同様に、水平中心線に対してグループ#2と対称の位置のグループ#4に含まれる画素204では、第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29も、当該水平中心線に対して、画素201の第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29と対称の位置に配置される。すなわち、画素204においては、第3の転送ゲート部26は、電荷保持部24の右端に寄せて配置される。また、フォトダイオード21に対して、リセットトランジスタ27が上部右側に寄せて、増幅トランジスタ28が下部中央、選択トランジスタ29が中部左側に寄せて、それぞれ配置されている。
 このように、第1の実施形態では、画素アレイ部11に対して、各画素20を、画素アレイ部11の垂直中心線および水平中心線のそれぞれに対して対称の方向に向けて配置している。このとき、各画素20において、フォトダイオード21が、画素アレイ部11の光軸61に対応する位置から見て電荷保持部24の奥側に位置するように、配置される。電荷保持部24の入射面側には表面遮光部57Aが設けられ、電荷保持部24とフォトダイオード21との間には、貫通遮光部57Cが設けられる。そのため、フォトダイオード21に入射する光の電荷保持部24への漏れ込みを抑制することができる。またそのため、当該画素アレイ部11を含むCMOSイメージセンサ10は、電荷保持部24への光の漏れ込みによるグローバルシャッタ機能の低下が防止される。
(3-1.第1の実施形態の第1の変形例)
 次に、第1の実施形態の第1の変形例について説明する。上述した第1の実施形態では、画素アレイ部11垂直中心線および水平中心線に対して対称な4つの領域(グループ#1~#4)に分け、4つの領域それぞれに含まれる画素201~204を、垂直中心線および水平中心線に対して対称となる方向に向けて配置している。そのため、各画素201~204において、例えば画素アレイ部11上において光軸61位置から見た場合のフォトダイオード21とOCL100との位置関係が異なってしまう。
 具体的には、画素アレイ部11の列方向について、グループ#1および#2と、グループ#3および#4とが接する位置の画素201および202と、画素203および204とにおいて、電荷保持部24が2つ並んでしまう。例えば、水平中心線の両側に位置する画素201および203において、画素201の電荷保持部24と、画素203の電荷保持部24とが並ぶ。
 また、画素アレイ部11の行方向について、グループ#1および#3と、グループ#2および#4とが接する位置の画素201および203と、画素202および204とにおいて、フォトダイオード21が互いに対向する位置に寄る。
 このような配置となることで、各グループ#1~#4が接する位置における各画素201~204の、垂直中心線および水平中心線を跨いだフォトダイオード21間の距離が、各グループ#1~#4それぞれにおける各画素201~204のフォトダイオード21間の距離よりも長くなる。これにより、画素アレイ部11から出力される画素信号による画像において、グループ#1~#4の境界部分が不連続になる可能性がある。
 そのため、第1の実施形態の第1の変形例では、OCL100から出射される光をフォトダイオード21に導くための光導波路を、OCL100とフォトダイオード21(半導体基板51)との間に設ける。このとき、光導波路のOCL100に接する面(入射面)は、OCL100と対応する大きさとし、半導体基板51に接する面(出射面)は、フォトダイオード21に対する開口部に対応する大きさとして、当該開口部に接続させる。
 図9A~図9Cは、第1の実施形態の第1の変形例に係る光導波路を説明するための模式図である。図9Aは、上述した図8Bに対応する図であって、画素201~204のそれぞれに対して1対1に、各OCL100と、各光導波路801~804とが設けられる様子が示されている。また、図9Bは、図9Aにおける列方向のE-E’断面、図9Cは、図9Aにおける行方向のF-F’断面をそれぞれ模式的に示す断面図である。
 グループ#2に含まれる画素202を例に取ると、図9Aの例では、OCL100は、画素202の入射面を全体として覆うように設けられる。また、この例では、光導波路802は、図9Bおよび図9Cに示されるように、入射面から出射面にかけて断面積が階段状に小さくなる擂鉢形状を有している。
 光導波路802は、その底面812が、表面遮光部57Aにおけるフォトダイオード21のための開口部104と位置および形状が略一致させられて、当該開口部104において半導体基板51と接するように設けられている。すなわち、光導波路802は、その底面812が、図9Aにおいて画素202の上部右側に寄せた位置(列方向の断面である図9Bでは画素202の左側に寄せた位置)に設けられる。
 一方、グループ#4に含まれる画素204において、光導波路804は、その底面814が、図9Aにおいて画素204の下部右側に寄せた位置(列方向の断面である図9Bでは画素204の右側に寄せた位置、行方向の断面である図9Cの例では画素204の右側に寄せた位置)に設けられる。
 同様に、グループ#1に含まれる画素201において、光導波路801は、その底面が図9Aにおいて画素201の上部左側に寄せた位置に設けられる。また、グループ#3に含まれる画素203において、光導波路803は、その底面813が図9Aにおいて画素203の下部左側に寄せた位置(行方向の断面である図9Cでは画素203の左側に寄せた位置)に設けられる。
 光導波路801~804は、保護膜103に埋め込まれて形成され、当該保護膜103より屈折率が高い材料が用いられる。例えば、保護膜103の材料としてSiO2を用いる場合、光導波路801~804は、SiN、SiONなどを材料とすることができる。
 図9Aおよび図9Bに示されるように、各光導波路801~804は、画素アレイ部11の列方向に対しては、各画素201~204において、水平中心線から見て奥側(すなわちフォトダイオード21側)に光を導くように設けられる。同様に、図9Aおよび図9Cに示されるように、各光導波路801~804は、画素アレイ部11の行方向に対しては、各画素201~204において、垂直中心線から見て奥側(すなわちフォトダイオード21側)に光を導くように設けられる。
 このように、画素アレイ部11上の各グループ#1~#4に含まれる各画素201~204は、各光導波路801~804により画素アレイ部11上に位置に応じた方向に瞳補正される。これにより、各画素201~204を画素アレイ部11の位置に応じた方向に向けて配置した場合の、フォトダイオード21への光の入射のばらつきを補正することができる。
(3-2.第1の実施形態の第2の変形例)
 次に、第1の実施形態の第2の変形例について説明する。上述したように、第1の実施形態では、画素アレイ部11を4分割した各グループ#1~#4に応じて画素20を回転させ、各グループ#1~#4でそれぞれ異なる方向に向けて配置している。そのため、画素アレイ部11において、列方向および行方向に整列する各画素20に含まれる素子(第3の転送ゲート部26、リセットトランジスタ27、増幅トランジスタ28および選択トランジスタ29)それぞれの、画素20間での間隔が等間隔ではなくなる。
 なお、以下において、画素201~204を特に区別する必要が無い場合、これら画素201~204を画素20で代表させて説明を行う。
 図8を参照し、例えば第3の転送ゲート部26、リセットトランジスタ27および増幅トランジスタ28は、画素20において行方向の片側に寄せて配置されている。そのため、垂直中心線を跨いで隣接する画素20の対応する各素子(第3の転送ゲート部26、リセットトランジスタ27および増幅トランジスタ28)との間隔が他の画素20における当該間隔よりも広い。一方、第3の転送ゲート部26は、画素20において列方向の片側(図において下側)に配置されている。そのため、水平中心線を跨いで隣接する画素20の対応する素子(第3の転送ゲート部26)との間隔が他の画素20における当該間隔よりも狭い。この、素子の間隔の違いにより、素子に接続される、行方向あるいは列方向に沿って配置される配線の、素子に対する配線容量が不均一となる。
 第1の実施形態の第2の変形例では、この素子の間隔の違いにより生じる配線容量の不均一を、ダミー配線を設けることで抑制する。図10は、第1の実施形態の第2の変形例に係る、各画素への配線の例を示す模式図である。
 図10に例示されるように、第3の転送ゲート部26、リセットトランジスタ27および選択トランジスタ29は、外部(垂直駆動部12)から駆動信号TRG、RSTおよびSELが、行方向に沿って配置された配線を介して供給される。具体的には、駆動信号TRGは、行方向に沿って配置された配線92を介して各第3の転送ゲート部26に供給される。駆動信号SELは、行方向に沿って配置された配線91を介して各選択トランジスタ29に供給される。なお、図10では、煩雑さを避けるため、駆動信号RSTを各リセットトランジスタ27に供給する配線は、省略されている。
 また、リセットトランジスタ27および増幅トランジスタ28に対して、外部から電源電圧VrstおよびVddが、列方向に沿って配置された配線を介して供給される。電源電圧Vddは、列方向に沿って配置される配線90を介して各増幅トランジスタ28に供給される。なお、図10では、煩雑さを避けるため、電源電圧Vrstを各リセットトランジスタ27に供給する配線は、省略されている。
 さらに、選択トランジスタ29は、読み出された画素信号を外部(カラム処理部13)に転送する、列方向に沿って配置される垂直信号線17(VSL)が接続される。
 図10の例では、第3の転送ゲート部26は、垂直中心線を跨いで隣接する画素20の第3の転送ゲート部26との間隔が他の画素20における当該間隔よりも広い。そのため、駆動信号TRGを第3の転送ゲート部26に供給する、行方向に沿って配置される配線92に対して、例えば当該間隔の差分に応じてダミー配線Dmy2を設ける。また、増幅トランジスタ28は、垂直中心線を跨いで隣接する画素20の増幅トランジスタ28との間隔が他の画素20における当該間隔よりも広い。そのため、電源電圧Vddを増幅トランジスタ28に供給する、列方向に沿って配置される配線90に対して、例えば当該間隔の差分に応じたダミー配線Dmy1を設ける。
 一方、図10の例では、選択トランジスタ29は、画素20の列方向における略中央部に配置されているため、水平中心線を跨ぐ部分においても間隔が他の部分の間隔と略同一となるため、垂直信号線17(VSL)は、ダミー配線を設けない。
 このように、各画素20を画素アレイ部11上の位置に応じた方向に向けて回転させて配置する場合に配線容量の不均一が素子間で発生する配線に対してダミー配線を設けることで、この配線容量の不均一を抑制することができる。
(3-3.第1の実施形態の第3の変形例)
 次に、第1の実施形態の第3の変形例について説明する。第1の実施形態の第3の変形例は、画素20における非貫通遮光部57Bおよび貫通遮光部57Cの配置の他の例である。図11Aおよび図11Bは、第1の実施形態に係る第3の変形例による、画素20における非貫通遮光部57Bおよび貫通遮光部57Cの配置の例を入射面側から見た模式図である。
 ここで、図5Bを用いて説明した画素20における非貫通遮光部57Bおよび貫通遮光部57Cの配置を第1の例とし、図11Aは、当該配置の第2の例、図11Bは、当該配置の第3の例をそれぞれ示している。
 図11Aは、フォトダイオード21の電荷保持部24に接しない一方の辺の中央部に対して非貫通遮光部57Bが設けられ、それ以外の部分に貫通遮光部57Cが設けられる画素20aの例である。また、図11Bは、フォトダイオード21の電荷保持部24に接しない一方の辺の電荷保持部24とは逆側の端に非貫通遮光部57Bが設けられ、それ以外の部分に貫通遮光部57Cが設けられる画素20bの例である。
 既に説明したように、本開示では、画素20の方向を、画素アレイ部11の位置に応じた方向に向けて、画素アレイ部11部に配置する。そのため、このように、フォトダイオード21から電荷保持部24に対して電荷を転送させる転送部を形成するための非貫通遮光部57Bを、フォトダイオード21の電荷保持部24に接しない辺の何処に配置しても、フォトダイオード21から電荷保持部24への光の漏れ込みを抑制することができる。
[4.第2の実施形態]
 次に、本開示の第2の実施形態について説明する。上述の第1の実施形態では、画素アレイ部11上の画素20の配列を垂直および水平方向に4分割し、分割されたそれぞれの領域において、画素20を、領域の位置に応じた方向に向けて配置していた。これに対して、第2の実施形態では、画素アレイ部11上の画素20の配列を、垂直または水平方向に2分割し、分割されたそれぞれの領域において、画素20を領域の位置に応じた方向に向けて配置する。
 図12は、第2の実施形態に係る画素20の配置のより具体的な例を模式的に示す模式図である。なお、図12では、説明のため、画素アレイ部11が4画素×4画素の行列状の配列で、各画素20が配置されているものとする。
 図12の例では、画素アレイ部11を光軸61に対応する位置を中心に、上下に対称な2つの領域に分割する。すなわち、図12では、画素アレイ部11を水平中心線により2つの領域に分割する。2つの領域のうち図12において上側の領域をグループ#5、下側の領域をグループ#6とする。図12の例では、各グループ#5および#6は、それぞれ4画素×2画素の配列で画素205および206を含む。
 グループ#5に含まれる各画素205は、それぞれ例えば図7の画素20ruに対応するもので、図において上部左側に寄せてフォトダイオード21が配置され、下部に電荷保持部24が配置される。画素205において、非貫通遮光部57Bは、フォトダイオード21の電荷保持部24と接しない辺の下部側に設けられ、貫通遮光部57Cは、当該辺の上部側と、フォトダイオード21の電荷保持部24とが接する辺とに設けられる。
 グループ#6に含まれる各画素206は、それぞれ図7の画素20ldに対応するもので、図において下部左側に寄せてフォトダイオード21が配置され、上部に電荷保持部24が配置される。画素206において、非貫通遮光部57Bは、フォトダイオード21の電荷保持部24と接しない辺の上部側に設けられ、貫通遮光部57Cは、当該辺の下部側と、フォトダイオード21の電荷保持部24とが接する辺とに設けられる。
 この図12の各画素205および206の配置によれば、フォトダイオード21が、画素アレイ部11の光軸61に対応する位置から見て電荷保持部24の奥側に位置するように、配置される。そのため、フォトダイオード21に入射する光の電荷保持部24への漏れ込みを抑制することができる。またそのため、当該画素アレイ部11を含むCMOSイメージセンサ10は、電荷保持部24への光の漏れ込みによるグローバルシャッタ機能の低下が防止される。
 このように画素アレイ部11を2つの領域に分割した場合であっても、画素20の方向を、画素アレイ部11上の位置に応じた方向に向けて配置することで、フォトダイオード21に入射する光の電荷保持部24への漏れ込みを抑制することができる。
 なお、図12の例では、例えばグループ#6に含まれる各画素206は、図において下部左側に寄せてフォトダイオード21が配置され、上部に電荷保持部24が配置されているが、これはこの例に限定されない。例えば、グループ#6の各画素206は、図において下部右側に寄せてフォトダイオード21が配置され、上部に電荷保持部24が配置されるようにしてもよい。
(4-1.第2の実施形態の変形例)
 次に、第2の実施形態の変形例について説明する。第2の実施形態の変形例では、上述した第1の実施形態の第1の変形例と同様に、OCL100から出射される光をフォトダイオード21に導くための光導波路を、OCL100とフォトダイオード21(半導体基板51)との間に設けるようにした例である。
 図13A~図13Cは、第2の実施形態の変形例に係る光導波路を説明するための模式図である。図13Aは、上述した図9Aに対応する図であって、画素205および206のそれぞれに対して1対1に、各OCL100と、各光導波路805および806とがそれぞれ設けられる様子を示している。また、図13Bは、図13Aにおける列方向のG-G’断面、図13Cは、図13Aにおける行方向のH-H’断面をそれぞれ模式的に示す断面図である。
 OCL100と、光導波路805および806と、フォトダイオード21と、の位置関係は、上述した第1の実施形態の第1の変形例と同様である。
 グループ#6に含まれる画素206を例に取ると、OCL100は、画素206の入射面を全体として覆うように設けられる。また、光導波路806は、図13Bおよび図13Cに示されるように、入射面から出射面にかけて断面積が階段状に小さくなる擂鉢形状を有している。
 光導波路806は、その底面816が、表面遮光部57Aにおけるフォトダイオード21のための開口部104と位置および形状が略一致させられて、当該開口部104において半導体基板51と接するように設けられている。つまり、光導波路806は、その底面816が、図13Aにおいて画素206の上部右側に寄せた位置(列方向の断面である図13Bでは画素206の右側に寄せた位置、行方向の断面である図13Cでは、画素206の左側に寄せた位置)に設けられる。
 一方、グループ#5に含まれる画素205において、光導波路805は、その底面815が、図13Aにおいて画素205の下部右側に寄せた位置(列方向の断面である図13Bでは画素205の右側に寄せた位置)に設けられる。
 このように、画素アレイ部11上の画素20の配列を、垂直または水平方向に2分割した場合であっても、画素アレイ部11上の各グループ#5~#6に含まれる各画素205および206は、各光導波路805および806により画素アレイ部11上に位置に応じた方向に瞳補正される。これにより、各画素205~206を画素アレイ部11の位置に応じた方向に向けて配置した場合の、フォトダイオード21への光の入射のばらつきを補正することができる。
[5.第3の実施形態]
 次に、本開示の第3の実施形態について説明する。本開示の第3の実施形態は、上述した第1の実施形態および第2の実施形態、ならびに、それらの各変形例に係る固体撮像素子を、電子機器に適用した例である。
 図14は、第3の実施形態に係る電子機器としての撮像装置の一例の構成を概略的に示すブロック図である。図14において、撮像装置1000は、レンズ群等を含む撮像光学系1001、撮像部1002、DSP回路1003、フレームメモリ1004、表示装置1005、記録装置1006、操作系1007および電源系1008等を有している。そして、DSP回路1003、フレームメモリ1004、表示装置1005、記録装置1006、操作系1007および電源系1008がバスライン1009を介して相互に接続された構成となっている。
 撮像光学系1001は、被写体からの入射光(像光)を取り込んで撮像部1002の撮像面上に結像する。撮像部1002は、撮像光学系1001によって撮像面上に結像された入射光の光量を画素単位で電気信号に変換して画素信号として出力する。DSP(Digital Signal Processor)回路1003は、一般的なカメラ信号処理、例えば、ホワイトバランス処理、デモザイク処理、ガンマ補正処理などを行う。
 フレームメモリ1004は、DSP回路1003での信号処理の過程で適宜データの格納に用いられる。表示装置1005は、液晶表示装置や有機EL(electro luminescence)表示装置等のパネル型表示装置を適用でき、撮像部1002で撮像された動画または静止画を表示する。記録装置1006は、撮像部1002で撮像された動画または静止画を、可搬型の半導体メモリや、光ディスク、HDD(Hard Disk Drive)等の記録媒体に記録する。
 操作系1007は、ユーザによる操作に応じて、本撮像装置1000が持つ様々な機能について操作指令を発する。電源系1008は、DSP回路1003、フレームメモリ1004、表示装置1005、記録装置1006および操作系1007の動作電源となる各種の電源を、これら供給対象に対して適宜供給する。
 上述した構成の撮像装置1000において、撮像部1002として、先述した本開示に係る技術が適用されるCMOSイメージセンサ10を用いることができる。本開示に係る技術が適用されるCMOSイメージセンサ10によれば、電荷保持部24を有する裏面照射型において、電荷保持部24への光の入射を抑制できるため、ノイズの少ない高画質の撮影画像を得ることができる。
[6.第4の実施形態]
 次に、第4の実施形態として、本開示に係る、第1の実施形態および第2の実施形態、ならびに、その各変形例によるCMOSイメージセンサ10の適用例について説明する。図15は、上述の第1の実施形態および第2の実施形態、ならびに、その各変形例に係るCMOSイメージセンサ10を使用する使用例を示す図である。
 上述したCMOSイメージセンサ10は、例えば、以下のように、可視光や、赤外光、紫外光、X線等の光をセンシングする様々なケースに使用することができる。
・ディジタルカメラや、カメラ機能付きの携帯機器等の、鑑賞の用に供される画像を撮影する装置。
・自動停止等の安全運転や、運転者の状態の認識等のために、自動車の前方や後方、周囲、車内等を撮影する車載用センサ、走行車両や道路を監視する監視カメラ、車両間等の測距を行う測距センサ等の、交通の用に供される装置。
・ユーザのジェスチャを撮影して、そのジェスチャに従った機器操作を行うために、TVや、冷蔵庫、エアーコンディショナ等の家電に供される装置。
・内視鏡や、赤外光の受光による血管撮影を行う装置等の、医療やヘルスケアの用に供される装置。
・防犯用途の監視カメラや、人物認証用途のカメラ等の、セキュリティの用に供される装置。
・肌を撮影する肌測定器や、頭皮を撮影するマイクロスコープ等の、美容の用に供される装置。
・スポーツ用途等向けのアクションカメラやウェアラブルカメラ等の、スポーツの用に供される装置。
・畑や作物の状態を監視するためのカメラ等の、農業の用に供される装置。
[本開示に係る技術のさらなる適用例]
(6-1.内視鏡手術システムに対する適用例)
 本開示に係る技術(本技術)は、様々な製品へ適用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図16は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図16では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU:Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図17は、図16に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えばカメラヘッド11102のレンズユニット11401および撮像部11402などに適用され得る。これにより、撮像画像の低ノイズ化および高画質化が可能となり、より鮮明な術部画像を得ることができるため、術者が術部を確実に確認することが可能になる。
(6-2.移動体への適用例)
 本開示に係る技術は、さらに様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図18は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図18に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図18の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図19は、撮像部12031の設置位置の例を示す図である。
 図19では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図19には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば撮像部12031に適用され得る。撮像部12031に本開示に係る技術を適用することにより、撮像画像の低ノイズ化および高画質化が可能となり、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 光を光電変換により電荷に変換する光電変換部と、
 前記光電変換部に隣接され、該光電変換部から転送された前記電荷を蓄積する電荷蓄積部と、
を含む画素が、行列状の配列で配置される画素アレイを備え、
 前記画素は、
 前記画素アレイに対し、前記光電変換部が前記電荷蓄積部に隣接する方向を、該画素アレイ内での位置に応じた方向に向けて配置される、
固体撮像素子。
(2)
 前記画素は、
 前記光電変換部が前記電荷蓄積部に対して前記画素アレイの外側に位置する方向に向けて、前記画素アレイに配置される、
前記(1)に記載の固体撮像素子。
(3)
 前記画素アレイに含まれる前記画素のそれぞれは、
 前記光電変換部が前記電荷蓄積部に隣接する方向が、前記画素アレイの所定位置を通る第1の線に対して対称の方向に向けて配置される、
前記(1)または(2)に記載の固体撮像素子。
(4)
 前記画素アレイに含まれる前記画素のそれぞれは、
 前記画素アレイの前記所定位置で前記第1の線と直交する第2の線に対してさらに対称の方向に向けて配置される、
前記(3)に記載の固体撮像素子。
(5)
 前記所定位置は、前記画素アレイの前記配列における略中心位置である、
前記(3)または(4)に記載の固体撮像素子。
(6)
 前記所定位置は、
 前記画素アレイの受光面に対して光を照射するためのレンズの光軸に対応する位置である、
前記(3)乃至(5)の何れかに記載の固体撮像素子。
(7)
 前記画素は、
 前記光電変換部の外周に、前記画素において光が照射される照射面の側から掘り下げられて配されるトレンチ遮光部をさらに備え、
 前記トレンチ遮光部は、
 前記画素において、前記照射面から該照射面の反対側の面に向けて、一部が非貫通の非貫通部とされ、残りの部分が貫通する貫通部とされる、
前記(1)乃至(6)の何れかに記載の固体撮像素子。
(8)
 前記非貫通部は、
 前記光電変換部の外周のうち、前記光電変換部が前記電荷蓄積部と隣接しない辺であり、且つ、前記画素の外周の辺を構成しない辺の前記トレンチ遮光部に設けられる、
前記(7)に記載の固体撮像素子。
(9)
 前記非貫通部は、
 前記辺の前記電荷蓄積部の側に設けられる、
前記(8)に記載の固体撮像素子。
(10)
 前記非貫通部は、
 前記辺の中央部分に設けられる、
前記(8)に記載の固体撮像素子。
(11)
 前記非貫通部は、
 前記辺の、前記電荷蓄積部と反対側に設けられる、
前記(8)に記載の固体撮像素子。
(12)
 前記画素アレイは、
 前記画素アレイの行方向または列方向に整列する画素のそれぞれに含まれる、該画素を駆動するための素子に接続される配線をさらに有し、
 前記配線は、
 前記画素のうち、前記整列の方向において異なる方向を向き且つ隣接して配置される第1の画素と第2の画素と、にそれぞれ含まれる互いに対応する前記素子の間の距離と、互いに隣接する該第1の画素の間の距離、または、互いに隣接する該第2の画素の間の距離と、の差分に応じたダミー配線を含む、
前記(1)乃至(11)の何れかに記載の固体撮像素子。
(13)
 前記画素は、
 第1の面に入射された光を前記光電変換部に導く光導波路をさらに備え、
 前記光導波路は、
 前記第1の面が前記画素に光が照射される照射部と対応する形状であり、該第1の面から入射された光が出射される第2の面が前記光電変換部に光が入射される入射部に対応する形状であり、該第2の面が該入射部に接続される、
前記(1)乃至(12)の何れかに記載の固体撮像素子。
(14)
 前記光導波路の前記第1の面に対してレンズが設けられる、
前記(13)に記載の固体撮像素子。
(15)
 光を光電変換により電荷に変換する光電変換部と、
 前記光電変換部に隣接され、該光電変換部から転送された前記電荷を蓄積する電荷蓄積部と、
を含む画素が、行列状の配列で配置される画素アレイを備え、
 前記画素が、前記画素アレイに対し、前記光電変換部が前記電荷蓄積部に隣接する方向を、該画素アレイ内での位置に応じた方向に向けて配置される固体撮像素子と、
 前記固体撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
 前記信号処理部により生成された前記画像データを記憶する記憶部と、
を有する電子機器。
10 CMOSイメージセンサ
11 画素アレイ部
12 垂直駆動部
13 カラム処理部
17 垂直信号線
20,201,202,203,204,205,206,20a,20b,20cn,20ld,20lu,20rd,20ru 画素
21 フォトダイオード
24 電荷保持部
26 第3の転送ゲート部
27 リセットトランジスタ
28 増幅トランジスタ
29 選択トランジスタ
51 半導体基板
54,111 配線層
57B 非貫通遮光部
57C 貫通遮光部
60 主レンズ
61 光軸
801,802,803,804,805,806 光導波路
90,91,92 配線
100 OCL
1000 撮像装置

Claims (15)

  1.  光を光電変換により電荷に変換する光電変換部と、
     前記光電変換部に隣接され、該光電変換部から転送された前記電荷を蓄積する電荷蓄積部と、
    を含む画素が、行列状の配列で配置される画素アレイを備え、
     前記画素は、
     前記画素アレイに対し、前記光電変換部が前記電荷蓄積部に隣接する方向を、該画素アレイ内での位置に応じた方向に向けて配置される、
    固体撮像素子。
  2.  前記画素は、
     前記光電変換部が前記電荷蓄積部に対して前記画素アレイの外側に位置する方向に向けて、前記画素アレイに配置される、
    請求項1に記載の固体撮像素子。
  3.  前記画素アレイに含まれる前記画素のそれぞれは、
     前記光電変換部が前記電荷蓄積部に隣接する方向が、前記画素アレイの所定位置を通る第1の線に対して対称の方向に向けて配置される、
    請求項1に記載の固体撮像素子。
  4.  前記画素アレイに含まれる前記画素のそれぞれは、
     前記画素アレイの前記所定位置で前記第1の線と直交する第2の線に対してさらに対称の方向に向けて配置される、
    請求項3に記載の固体撮像素子。
  5.  前記所定位置は、前記画素アレイの前記配列における略中心位置である、
    請求項3に記載の固体撮像素子。
  6.  前記所定位置は、
     前記画素アレイの受光面に対して光を照射するためのレンズの光軸に対応する位置である、
    請求項3に記載の固体撮像素子。
  7.  前記画素は、
     前記光電変換部の外周に、前記画素において光が照射される照射面の側から掘り下げられて配されるトレンチ遮光部をさらに備え、
     前記トレンチ遮光部は、
     前記画素において、前記照射面から該照射面の反対側の面に向けて、一部が非貫通の非貫通部とされ、残りの部分が貫通する貫通部とされる、
    請求項1に記載の固体撮像素子。
  8.  前記非貫通部は、
     前記光電変換部の外周のうち、前記光電変換部が前記電荷蓄積部と隣接しない辺であり、且つ、前記画素の外周の辺を構成しない辺の前記トレンチ遮光部に設けられる、
    請求項7に記載の固体撮像素子。
  9.  前記非貫通部は、
     前記辺の前記電荷蓄積部の側に設けられる、
    請求項8に記載の固体撮像素子。
  10.  前記非貫通部は、
     前記辺の中央部分に設けられる、
    請求項8に記載の固体撮像素子。
  11.  前記非貫通部は、
     前記辺の、前記電荷蓄積部と反対側に設けられる、
    請求項8に記載の固体撮像素子。
  12.  前記画素アレイは、
     前記画素アレイの行方向または列方向に整列する画素のそれぞれに含まれる、該画素を駆動するための素子に接続される配線をさらに有し、
     前記配線は、
     前記画素のうち、前記整列の方向において異なる方向を向き且つ隣接して配置される第1の画素と第2の画素と、にそれぞれ含まれる互いに対応する前記素子の間の距離と、互いに隣接する該第1の画素の間の距離、または、互いに隣接する該第2の画素の間の距離と、の差分に応じたダミー配線を含む、
    請求項1に記載の固体撮像素子。
  13.  前記画素は、
     第1の面に入射された光を前記光電変換部に導く光導波路をさらに備え、
     前記光導波路は、
     前記第1の面が前記画素に光が照射される照射部と対応する形状であり、該第1の面から入射された光が出射される第2の面が前記光電変換部に光が入射される入射部に対応する形状であり、該第2の面が該入射部に接続される、
    請求項1に記載の固体撮像素子。
  14.  前記光導波路の前記第1の面に対してレンズが設けられる、
    請求項13に記載の固体撮像素子。
  15.  光を光電変換により電荷に変換する光電変換部と、
     前記光電変換部に隣接され、該光電変換部から転送された前記電荷を蓄積する電荷蓄積部と、
    を含む画素が、行列状の配列で配置される画素アレイを備え、
     前記画素が、前記画素アレイに対し、前記光電変換部が前記電荷蓄積部に隣接する方向を、該画素アレイ内での位置に応じた方向に向けて配置される固体撮像素子と、
     前記固体撮像素子から読み出された画素信号に対して信号処理を実行して画像データを生成する信号処理部と、
     前記信号処理部により生成された前記画像データを記憶する記憶部と、
    を有する電子機器。
PCT/JP2021/001009 2020-01-24 2021-01-14 固体撮像素子および電子機器 WO2021149577A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021573104A JPWO2021149577A1 (ja) 2020-01-24 2021-01-14

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020009913 2020-01-24
JP2020-009913 2020-01-24

Publications (1)

Publication Number Publication Date
WO2021149577A1 true WO2021149577A1 (ja) 2021-07-29

Family

ID=76992193

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/001009 WO2021149577A1 (ja) 2020-01-24 2021-01-14 固体撮像素子および電子機器

Country Status (2)

Country Link
JP (1) JPWO2021149577A1 (ja)
WO (1) WO2021149577A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05315581A (ja) * 1992-02-08 1993-11-26 Philips Gloeilampenfab:Nv 大領域能動マトリックス配列を製造する方法
JP2010123745A (ja) * 2008-11-19 2010-06-03 Sony Corp 固体撮像装置、カメラ
JP2013175494A (ja) * 2011-03-02 2013-09-05 Sony Corp 固体撮像装置、固体撮像装置の製造方法及び電子機器
JP2015026786A (ja) * 2013-07-29 2015-02-05 ソニー株式会社 裏面照射型イメージセンサ、撮像装置、および電子機器
JP2016115855A (ja) * 2014-12-16 2016-06-23 キヤノン株式会社 固体撮像装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05315581A (ja) * 1992-02-08 1993-11-26 Philips Gloeilampenfab:Nv 大領域能動マトリックス配列を製造する方法
JP2010123745A (ja) * 2008-11-19 2010-06-03 Sony Corp 固体撮像装置、カメラ
JP2013175494A (ja) * 2011-03-02 2013-09-05 Sony Corp 固体撮像装置、固体撮像装置の製造方法及び電子機器
JP2015026786A (ja) * 2013-07-29 2015-02-05 ソニー株式会社 裏面照射型イメージセンサ、撮像装置、および電子機器
JP2016115855A (ja) * 2014-12-16 2016-06-23 キヤノン株式会社 固体撮像装置

Also Published As

Publication number Publication date
JPWO2021149577A1 (ja) 2021-07-29

Similar Documents

Publication Publication Date Title
JP7439214B2 (ja) 固体撮像素子および電子機器
JP6947160B2 (ja) 固体撮像素子
WO2020209126A1 (ja) 固体撮像装置
JPWO2020175195A1 (ja) 固体撮像装置および電子機器
US11991463B2 (en) Imaging element, imaging element driving method, and electronic device
JP7341141B2 (ja) 撮像装置および電子機器
US11756971B2 (en) Solid-state imaging element and imaging apparatus
WO2021131318A1 (ja) 固体撮像装置及び電子機器
US20230215889A1 (en) Imaging element and imaging device
WO2021124975A1 (ja) 固体撮像装置および電子機器
JP2021019171A (ja) 固体撮像素子および電子機器
KR20230071123A (ko) 고체 촬상 장치 및 전자 기기
US20230387166A1 (en) Imaging device
US20230025911A1 (en) Imaging device and electronic device
JP2019165066A (ja) 撮像素子、電子機器
WO2021045139A1 (ja) 撮像素子および撮像装置
WO2021149577A1 (ja) 固体撮像素子および電子機器
US12022209B2 (en) Solid-state imaging device and electronic apparatus
WO2021140958A1 (ja) 撮像素子、製造方法、並びに電子機器
US20240205565A1 (en) Solid-state imaging device, electronic apparatus, and mobile body
WO2021215299A1 (ja) 撮像素子および撮像装置
WO2024057806A1 (ja) 撮像装置および電子機器
WO2023037624A1 (ja) 撮像装置および電子機器
WO2021100446A1 (ja) 固体撮像装置及び電子機器
WO2024084991A1 (en) Photodetector, electronic apparatus, and optical element

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21743838

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021573104

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21743838

Country of ref document: EP

Kind code of ref document: A1