WO2024058010A1 - 光検出装置及び電子機器 - Google Patents

光検出装置及び電子機器 Download PDF

Info

Publication number
WO2024058010A1
WO2024058010A1 PCT/JP2023/032397 JP2023032397W WO2024058010A1 WO 2024058010 A1 WO2024058010 A1 WO 2024058010A1 JP 2023032397 W JP2023032397 W JP 2023032397W WO 2024058010 A1 WO2024058010 A1 WO 2024058010A1
Authority
WO
WIPO (PCT)
Prior art keywords
region
cell
light
shielding film
plan
Prior art date
Application number
PCT/JP2023/032397
Other languages
English (en)
French (fr)
Inventor
一平 葭葉
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2024058010A1 publication Critical patent/WO2024058010A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present technology (technology according to the present disclosure) relates to a photodetector and an electronic device, and particularly relates to a photodetector and an electronic device that have a charge holding section.
  • a global shutter type solid-state imaging device has been developed in which a charge holding section that holds charges transferred from a photoelectric conversion section is provided within a pixel separately from a floating diffusion.
  • a charge holding section that holds charges transferred from a photoelectric conversion section is provided within a pixel separately from a floating diffusion.
  • PLS Physical Light Sensitivity
  • a light shielding film may be provided to prevent light from entering the charge holding portion (for example, Patent Document 1).
  • the present technology aims to provide a photodetection device and electronic equipment that can suppress deterioration of captured images.
  • a photodetection device has a plurality of cell regions arranged in row and column directions in a pixel region, and one surface is an element formation surface and the other surface is a light incident surface.
  • the deflection layer includes a first region having a first refractive index and a second region having a second refractive index higher than the first refractive index at different positions in plan view for each cell region.
  • the second region is located at a position overlapping the light shielding film in a plan view.
  • An electronic device includes the above photodetection device and an optical system that causes image light from a subject to form on the photodetection device.
  • FIG. 1 is a chip layout diagram showing a configuration example of a photodetection device according to a first embodiment of the present technology.
  • FIG. 1 is a block diagram showing a configuration example of a photodetection device according to a first embodiment of the present technology.
  • FIG. 2 is an equivalent circuit diagram of a pixel of the photodetection device according to the first embodiment of the present technology.
  • FIG. 1 is a longitudinal cross-sectional view showing a cross-sectional configuration of a pixel of a photodetection device according to a first embodiment of the present technology.
  • FIG. 2 is an explanatory diagram showing how a chief ray is deflected by a deflection layer in the photodetection device according to the first embodiment of the present technology.
  • FIG. 4A is a cross-sectional view showing the positional relationship between the partition wall, the light shielding film, and the second region when viewed in cross section along the line AA in FIG. 4A.
  • FIG. FIG. 2 is an explanatory diagram showing the positional relationship between a first light shielding film, a second light shielding film, and a charge holding section in the photodetection device according to the first embodiment of the present technology.
  • FIG. 2 is an explanatory diagram showing principal rays deflected within a pixel in the photodetection device according to the first embodiment of the present technology.
  • FIG. 1 is a process cross-sectional view showing a method for manufacturing a photodetection device according to a first embodiment of the present technology.
  • FIG. 5A is a process cross-sectional view following FIG. 5A. It is a process cross-sectional view following FIG. 5B. It is a process cross-sectional view following FIG. 5C.
  • FIG. 5D is a process cross-sectional view following FIG. 5D. It is a process cross-sectional view following FIG. 5E. It is a process cross-sectional view following FIG. 5F. It is a process sectional view following FIG. 5G.
  • FIG. 5H is a process cross-sectional view following FIG. 5H.
  • FIG. 5I is a process cross-sectional view following FIG. 5I.
  • FIG. 2 is an explanatory diagram showing principal rays traveling within a pixel in a photodetecting device that does not have a polarization layer.
  • FIG. 3 is a diagram showing the relationship between the output of a pixel 3 and the incident angle of a chief ray in a photodetecting device without a deflection layer.
  • FIG. 3 is a diagram showing the relationship between the output of the pixel 3 and the incident angle of the principal ray in the photodetection device according to the first embodiment of the present technology. It is a top view which shows the planar shape of the 2nd area
  • FIG. 11 is a longitudinal sectional view showing a cross-sectional configuration of a pixel of a photodetection device according to a second modified example of the first embodiment of the present technology.
  • FIG. FIG. 7 is a process cross-sectional view showing a method for manufacturing a photodetection device according to a second modification of the first embodiment of the present technology.
  • FIG. 10A is a process cross-sectional view following FIG. 10A.
  • FIG. 10B is a process cross-sectional view following FIG. 10B.
  • FIG. 7 is a vertical cross-sectional view showing a cross-sectional configuration of a pixel of a photodetecting device according to a third modification of the first embodiment of the present technology.
  • FIG. 7 is a process cross-sectional view showing a method for manufacturing a photodetection device according to a third modification of the first embodiment of the present technology.
  • FIG. 12A is a process cross-sectional view following FIG. 12A.
  • FIG. 7 is a vertical cross-sectional view showing a cross-sectional configuration of a pixel of a photodetecting device according to a fourth modification of the first embodiment of the present technology.
  • 13A is a cross-sectional view showing the positional relationship between the partition wall, the light shielding film, and the second region when viewed in cross section along the line AA in FIG. 13A.
  • FIG. 7 is a vertical cross-sectional view showing a cross-sectional configuration of a pixel of a photodetection device according to a second embodiment of the present technology.
  • FIG. 14A is a cross-sectional view of a pixel showing the distribution of columnar bodies when viewed in cross section along the line AA in FIG. 14A.
  • FIG. 7 is a process cross-sectional view showing a method for manufacturing a photodetection device according to a second embodiment of the present technology.
  • FIG. 15A is a process cross-sectional view following FIG. 15A.
  • FIG. 15B is a process cross-sectional view following FIG. 15B.
  • FIG. 15C is a process cross-sectional view following FIG. 15C.
  • FIG. 15A is a process cross-sectional view following FIG. 15A.
  • FIG. 15B is a process cross-sectional view following FIG. 15B.
  • FIG. 15C is a process cross-sectional view following FIG. 15C.
  • FIG. 7 is a cross-sectional view of a pixel showing a distribution of columnar bodies in a photodetecting device according to a first modification of the second embodiment of the present technology.
  • FIG. 7 is a cross-sectional view of a pixel showing a distribution of columnar bodies in a photodetection device according to a second modification of the second embodiment of the present technology.
  • FIG. 7 is a cross-sectional view of a pixel showing a distribution of columnar bodies in a photodetection device according to a third modification of the second embodiment of the present technology. It is an explanatory view explaining pupil correction in a photodetection device concerning a 3rd embodiment of this art.
  • FIG. 7 It is an explanatory view explaining pupil correction in a photodetection device concerning a 3rd embodiment of this art.
  • FIG. 7 is a vertical cross-sectional view showing a cross-sectional configuration of a pixel of a photodetection device according to a fourth embodiment of the present technology.
  • FIG. 7 is a cross-sectional view of a pixel showing a planar shape of a partition wall of a photodetection device according to a fourth embodiment of the present technology.
  • FIG. 7 is a cross-sectional view of a pixel showing a planar shape of a partition wall of a photodetection device according to a fourth embodiment of the present technology.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of an electronic device.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 1 is a diagram showing an example of a schematic configuration of an endoscopic surgery system.
  • FIG. 2 is a block diagram showing an example of the functional configuration of a camera head and a CCU.
  • CMOS Complementary Metal Oxide Semiconductor
  • a photodetecting device 1 As shown in FIG. 1, a photodetecting device 1 according to a first embodiment of the present technology is mainly configured with a semiconductor chip 2 having a rectangular two-dimensional planar shape when viewed from above. That is, the photodetector 1 is mounted on the semiconductor chip 2. As shown in FIG. 22, this photodetecting device 1 captures image light (incident light 106) from a subject through an optical system (optical lens) 102, and the light intensity of the incident light 106 that is imaged on an imaging surface. is converted into an electrical signal for each pixel and output as a pixel signal.
  • a semiconductor chip 2 on which a photodetector 1 is mounted has a rectangular pixel area 2A provided at the center and a rectangular pixel area 2A provided at the center in a two-dimensional plane including an X direction and a Y direction that intersect with each other.
  • a peripheral region 2B is provided outside the pixel region 2A so as to surround the pixel region 2A.
  • the pixel area 2A is a light receiving surface that receives light collected by the optical system 102 shown in FIG. 22, for example.
  • a plurality of pixels 3 are arranged in a matrix on a two-dimensional plane including the X direction and the Y direction.
  • the pixels 3 are repeatedly arranged in each of the X and Y directions that intersect with each other within a two-dimensional plane.
  • the X direction and the Y direction are perpendicular to each other, for example.
  • the direction perpendicular to both the X direction and the Y direction is the Z direction (thickness direction, lamination direction).
  • the direction perpendicular to the Z direction is the horizontal direction.
  • a plurality of bonding pads 14 are arranged in the peripheral region 2B.
  • Each of the plurality of bonding pads 14 is arranged, for example, along each of the four sides of the semiconductor chip 2 on the two-dimensional plane.
  • Each of the plurality of bonding pads 14 is an input/output terminal used when electrically connecting the semiconductor chip 2 to an external device.
  • the photodetector 1 employs a global shutter method.
  • the global shutter method is basically a method of performing global exposure in which all pixels start exposure at the same time and all pixels end exposure at the same time.
  • all pixels mean all pixels appearing in the image, and dummy pixels and the like are excluded.
  • the global shutter method also includes a method in which global exposure is performed on pixels in a predetermined area rather than all pixels in a portion appearing in an image.
  • the semiconductor chip 2 includes a logic circuit 13.
  • the logic circuit 13 includes a vertical drive circuit 4, a column signal processing circuit 5, a horizontal drive circuit 6, an output circuit 7, a control circuit 8, and the like.
  • the logic circuit 13 is constituted by a CMOS (Complementary MOS) circuit having, for example, an n-channel conductivity type MOSFET (Metal Oxide Semiconductor Field Effect Transistor) and a p-channel conductivity type MOSFET as field effect transistors.
  • CMOS Complementary MOS
  • the vertical drive circuit 4 is composed of, for example, a shift register.
  • the vertical drive circuit 4 sequentially selects desired pixel drive lines 10, supplies pulses for driving the pixels 3 to the selected pixel drive lines 10, and drives each pixel 3 row by row. That is, the vertical drive circuit 4 sequentially selectively scans each pixel 3 in the pixel area 2A in the vertical direction row by row, and detects the signal from the pixel 3 based on the signal charge generated by the photoelectric conversion element of each pixel 3 according to the amount of light received. Pixel signals are supplied to the column signal processing circuit 5 through the vertical signal line 11 (VSL).
  • VSL vertical signal line 11
  • the column signal processing circuit 5 is arranged, for example, for each column of pixels 3, and performs signal processing such as noise removal on the signals output from one row of pixels 3 for each pixel column.
  • the column signal processing circuit 5 performs signal processing such as CDS (Correlated Double Sampling) and AD (Analog Digital) conversion to remove fixed pattern noise specific to pixels.
  • a horizontal selection switch (not shown) is provided at the output stage of the column signal processing circuit 5 and connected between it and the horizontal signal line 12 .
  • the horizontal drive circuit 6 is composed of, for example, a shift register.
  • the horizontal drive circuit 6 sequentially outputs horizontal scanning pulses to the column signal processing circuits 5 to select each of the column signal processing circuits 5 in turn, and selects pixels on which signal processing has been performed from each of the column signal processing circuits 5.
  • the signal is output to the horizontal signal line 12.
  • the output circuit 7 performs signal processing on the pixel signals sequentially supplied from each of the column signal processing circuits 5 through the horizontal signal line 12, and outputs the pixel signals.
  • signal processing for example, buffering, black level adjustment, column variation correction, various digital signal processing, etc. can be used.
  • the control circuit 8 generates clock signals and control signals that serve as operating standards for the vertical drive circuit 4, column signal processing circuit 5, horizontal drive circuit 6, etc., based on the vertical synchronization signal, horizontal synchronization signal, and master clock signal. generate. Then, the control circuit 8 outputs the generated clock signal and control signal to the vertical drive circuit 4, column signal processing circuit 5, horizontal drive circuit 6, and the like.
  • FIG. 3 is an equivalent circuit diagram showing an example of the configuration of the pixel 3.
  • the pixel 3 includes, for example, a photoelectric conversion element PD, a first transfer transistor TRX, a second transfer transistor TRM, a charge retention section MEM, a third transfer transistor TRG, and a charge accumulation region (floating diffusion) FD. and an exhaust transistor OFG. Further, the pixel 3 is electrically connected to the readout circuit 15 via the charge storage region FD.
  • the readout circuit 15 outputs a pixel signal based on the charge output from the pixel 3. In the illustrated example, one readout circuit 15 is provided for every four pixels 3. That is, the four pixels 3 share one readout circuit 15. Here, “sharing" means that the outputs of the four pixels 3 are input to the same readout circuit 15.
  • the readout circuit 15 includes, for example, a reset transistor RST, a selection transistor SEL, and an amplification transistor AMP.
  • the photoelectric conversion element PD photoelectrically converts incident light.
  • the photoelectric conversion element PD performs photoelectric conversion and generates charges according to the amount of received light.
  • the cathode of the photoelectric conversion element PD is electrically connected to the source of the first transfer transistor TRX, and the anode of the photoelectric conversion element PD is electrically connected to a reference potential line (for example, ground GND).
  • the first transfer transistor TRX is connected between the photoelectric conversion element PD and the second transfer transistor TRM, and stores data in the photoelectric conversion element PD according to a control signal applied to the gate electrode (vertical gate electrode TRXG). This is the first transistor that transfers the electric charge being transferred to the second transfer transistor TRM.
  • the first transfer transistor TRX transfers charges from the photoelectric conversion element PD to the charge holding unit MEM.
  • the first transfer transistor TRX has a vertical gate electrode TRXG.
  • the drain of the first transfer transistor TRX is electrically connected to the source of the second transfer transistor TRM, and the gate of the first transfer transistor TRX is connected to the pixel drive line.
  • the second transfer transistor TRM is connected between the first transfer transistor TRX and the third transfer transistor TRG, and controls the potential of the charge storage unit MEM according to a control signal applied to the gate electrode. For example, when the second transfer transistor TRM is turned on, the potential of the charge holding part MEM becomes deep, and when the second transfer transistor TRM is turned off, the potential of the charge holding part MEM becomes shallow. For example, when the first transfer transistor TRX and the second transfer transistor TRM are turned on, the charges accumulated in the photoelectric conversion element PD are transferred to the charge holding unit MEM via the first transfer transistor TRX and the second transfer transistor TRM. will be forwarded to.
  • the drain of the second transfer transistor TRM is electrically connected to the source of the third transfer transistor TRG, and the gate of the second transfer transistor TRM is connected to the pixel drive line.
  • the charge holding unit MEM is a diffusion region that temporarily holds charges accumulated in the photoelectric conversion element PD in order to realize a global shutter function.
  • the charge holding unit MEM holds charges transferred from the photoelectric conversion element PD.
  • the third transfer transistor TRG is connected between the second transfer transistor TRM and the charge storage region FD, and transfers the charges held in the charge storage unit MEM to charges in accordance with a control signal applied to the gate electrode.
  • This is a second transistor that transfers data to the storage region FD.
  • the second transfer transistor TRM is turned off and the third transfer transistor TRG is turned on, the charge held in the charge storage unit MEM is transferred to the charge storage region via the second transfer transistor TRM and the third transfer transistor TRG. Transferred to FD.
  • the drain of the third transfer transistor TRG is electrically connected to the charge storage region FD, and the gate of the third transfer transistor TRG is connected to the pixel drive line.
  • the charge storage region FD is a diffusion region, more specifically a floating diffusion region, that temporarily holds the charge output from the photoelectric conversion element PD via the third transfer transistor TRG.
  • a reset transistor RST is connected to the charge storage region FD, and a vertical signal line VSL (11) is also connected via an amplification transistor AMP and a selection transistor SEL.
  • the drain transistor OFG In the drain transistor OFG, the drain is connected to the power supply line VDD, and the source is connected between the first transfer transistor TRX and the second transfer transistor TRM.
  • the discharge transistor OFG initializes (resets) the photoelectric conversion element PD according to a control signal applied to the gate electrode. For example, when the first transfer transistor TRX and the drain transistor OFG are turned on, the potential of the photoelectric conversion element PD is reset to the potential level of the power supply line VDD. That is, the photoelectric conversion element PD is initialized. Further, the drain transistor OFG forms an overflow path between the first transfer transistor TRX and the power line VDD, for example, and drains the charge overflowing from the photoelectric conversion element PD to the power line VDD.
  • the drain is connected to the power supply line VDD, and the source is connected to the charge storage region FD.
  • the reset transistor RST initializes (resets) each region from the charge storage section MEM to the charge storage region FD according to a control signal applied to the gate electrode. For example, when the third transfer transistor TRG and the reset transistor RST are turned on, the potentials of the charge holding section MEM and the charge storage region FD are reset to the potential level of the power supply line VDD. That is, initialization of the charge holding section MEM and the charge storage region FD is performed.
  • the amplification transistor AMP has a gate electrode connected to the charge storage region FD, a drain connected to the power supply line VDD, and serves as an input part of a source follower circuit that reads out the charge obtained by photoelectric conversion in the photoelectric conversion element PD. That is, the source of the amplification transistor AMP is connected to the vertical signal line VSL via the selection transistor SEL, thereby forming a constant current source and a source follower circuit connected to one end of the vertical signal line VSL.
  • the selection transistor SEL is connected between the source of the amplification transistor AMP and the vertical signal line VSL, and a control signal is supplied as a selection signal to the gate electrode of the selection transistor SEL.
  • the selection transistor SEL becomes conductive when the control signal is turned on, and the pixel 3 connected to the selection transistor SEL becomes selected.
  • the pixel signal output from the amplification transistor AMP is read out to the column signal processing circuit 5 via the vertical signal line VSL.
  • FIG. 4A shows a cross-sectional configuration of the pixel 3 when viewed in cross section along the line BB in FIG. 4C. Note that in FIG. 4A and subsequent drawings, illustrations of a pinning layer that covers the exposed surface of the semiconductor layer, an insulating film that insulates between the metal material and the semiconductor layer 20, and the like may be omitted.
  • the semiconductor chip 2 on which the photodetector 1 is mounted includes a light incident side laminate 60, a semiconductor layer 20, a wiring layer 30, and a support substrate 40, which are laminated in this order. It has a laminated structure.
  • the light incident side laminate 60 includes a deflection layer 70 .
  • the light incident surface side laminate 60 includes, for example, an insulating layer 62, a deflection layer 70, an insulating layer 63, a color filter 64, and an on-chip lens from the second surface S2 side. It has a laminated structure in which a certain microlens 65 is laminated in this order.
  • the semiconductor layer 20 will be explained below.
  • the semiconductor layer 20 is made of a semiconductor substrate.
  • the semiconductor layer 20 is made of, for example, but not limited to, a single crystal silicon substrate, and one surface is a first surface S1 and the other surface is a second surface S2.
  • the second surface S2 may be referred to as a light incidence surface or a back surface
  • the first surface S1 may be referred to as an element forming surface or a principal surface.
  • a plurality of cell regions 20a arranged in row and column directions are provided in a portion of the semiconductor layer 20 corresponding to the pixel region 2A.
  • the cell region 20a is provided for each pixel 3. For example, as shown in FIG.
  • an island-shaped cell region 20a partitioned by a separation region 20b is provided for each pixel 3.
  • the isolation region 20b has, for example, a trench structure in which a groove is formed in the semiconductor layer 20 along the thickness direction, and a material constituting a partition wall 51, which will be described later, is embedded in the formed groove.
  • the cell region 20a has a semiconductor region of a first conductivity type (for example, p type) and a semiconductor region of a second conductivity type (for example, n type) for each cell region 20a, and a partial region within the cell region 20a At , photoelectric conversion is performed. Further, the number of pixels 3 is not limited to that shown in FIG. 4A.
  • FIG. 4C shows the positional relationship between the partition wall 51, the light shielding film 52, which will be described later, and the second region 72, which will be described later, when viewed in cross section along the line AA in FIG. 4A. Further, FIG. 4C shows an example in which pixels in 4 rows and 4 columns are extracted from among the plurality of pixels 3.
  • the cell region 20a is, for example, a quadrilateral such as a square or a rectangle in plan view.
  • the four cell areas 20a arranged in two rows and two columns constitute one cell area aggregate B1.
  • the semiconductor layer 20 has a plurality of cell region aggregates B1 arranged in the row and column directions.
  • the corner located closer to the corner of the cell area aggregate B1 is referred to as the first corner in order to distinguish it from the other three corners. There are cases. Also, among the four corners of the cell area 20a in plan view, the corner located closer to the center of the cell area aggregate B1 is called a second corner in order to distinguish it from the other three corners. May be called. Further, the first corner and the second corner are corners that face each other in the diagonal direction of the cell region 20a. Note that when the first corner and the second corner are not distinguished, they are simply referred to as corners.
  • a portion of the semiconductor layer 20 corresponding to the pixel region 2A includes, for example, the photoelectric conversion element PD shown in FIG. 3, a diffusion region, various transistors, and the like.
  • the photoelectric conversion element PD shown in FIG. 3, a diffusion region, various transistors, and the like.
  • the photoelectric conversion element PD among such elements and diffusion regions, at least the photoelectric conversion element PD, charge storage unit MEM, first transfer transistor TRX, and second transfer transistor TRM are located within each cell region 20a. It is composed of The charge retention portion MEM is located closer to the first surface S1 (closer to the element formation surface) than a light shielding film 52 (described later), more specifically, a first light shielding film 52a, in the thickness direction of the semiconductor layer 20. Note that in FIG. 4A and subsequent drawings, illustration of at least some elements, diffusion regions, etc. may be omitted.
  • the light shielding section 50 includes a partition wall 51, a light shielding film 52, and an inter-pixel light shielding film 53.
  • the partition wall 51 will be explained below.
  • the partition wall 51 has a trench structure that extends along the thickness direction (Z direction) of the semiconductor layer 20 and partitions between the cell regions 20a.
  • the partition wall 51 is FTI (Full Trench Isolation).
  • FIG. 4C a portion of the partition wall 51 extending along the Z direction and the The portion where the cell regions 20a were present partitions the cell regions 20a adjacent to each other in the X direction.
  • the partition wall 51 includes a first partition wall 51a and a second partition wall 51b.
  • the first partition wall 51a has a wall 51a1 extending along the Z direction and the X direction, and a wall 51a2 extending along the Z direction and the Y direction and intersecting the wall 51a1.
  • the wall 51a1 and the wall 51a2 intersect with each other at the center, and the first partition wall 51a has a cross shape in plan view.
  • the second partition wall 51b includes a wall 51b1 extending along the Z direction and the X direction, and a wall 51b2 extending along the Z direction and the Y direction and intersecting the wall 51b1.
  • the wall 51b1 and the wall 51b2 intersect with each other at the center, and the second partition wall 51b has a cross shape in plan view. Note that when the first partition wall 51a and the second partition wall 51b are not distinguished from each other, they are simply referred to as partition walls 51. Further, in plan view, the intersection between the walls 51a1 and 51a2 is called a cross center Ca, and the intersection between the walls 51b1 and 51b2 is called a cross center Cb.
  • the center Cb of the cross is located near the center of the cell area assembly B1, and is located where the four second corners are gathered.
  • the cross center Ca is located near the corner of the cell area assembly B1, and is located where the four first corners come together.
  • the first partition wall 51a and the second partition wall 51b are spaced apart from each other and are not connected to each other.
  • the first partition walls 51a and the second partition walls 51b are alternately arranged along the diagonal direction of the cell region 20a in a plan view. More specifically, in plan view, the cross centers Ca and the cross centers Cb are alternately arranged along the diagonal direction of the cell region 20a. Further, a plurality of cross centers Ca and a plurality of cross centers Cb are arranged along the row direction and the column direction, respectively.
  • one cell region 20a has two adjacent sides out of four sides in a plan view divided by the first division wall 51a, and the remaining two adjacent sides divided by the second division wall 51b. There is.
  • the light-shielding film 52 is provided to make it difficult for light incident on the cell region 20a to enter the charge storage unit MEM. As shown in FIG. 4A, the light shielding film 52 extends along a direction (horizontal direction) perpendicular to the thickness direction (Z direction) of the semiconductor layer 20 and is connected to the partition wall 51.
  • the light shielding film 52 includes a first light shielding film 52a and a second light shielding film 52b located closer to the second surface S2 (light incident surface) than the first light shielding film 52a in the thickness direction.
  • the second light shielding film 52b is connected to the partition wall 51 at a position closer to the second surface S2 than the first light shielding film 52a. As shown in FIG.
  • the first light shielding film 52a is located on one side of the cell region 20a
  • the second light shielding film 52b is located on the other side of the cell region 20a. More specifically, one side of the cell area 20a is the first corner side, which is the corner side of the cell area aggregate B1. Further, the other side of the cell area 20a is the second corner side, and is the center side of the cell area aggregate B1. Note that when the first light shielding film 52a and the second light shielding film 52b are not distinguished from each other, they are simply referred to as the light shielding film 52.
  • the first light shielding film 52a extends along the horizontal direction from the walls 51a1 and 51a2 of the first partition wall 51a. More specifically, in plan view, the first light shielding film 52a extends radially across the cell regions 20a arranged in 2 rows and 2 columns around the cross center Ca, and forms a hexagonal shape together with the first partition wall 51a. ing. Note that the first light shielding film 52a does not reach the second corner. Further, the second light shielding film 52b extends along the horizontal direction from the walls 51b1 and 51b2 of the second partition wall 51b.
  • the second light shielding film 52b extends radially across the cell regions 20a arranged in two rows and two columns around the cross center Cb, and forms a hexagonal shape together with the second partition wall 51b. ing. Note that the second light shielding film 52b does not reach the first corner.
  • the charge retention unit MEM is located at a position closer to one of the one side and the other side of the cell region 20a, more specifically, at a first corner and a second corner in a plan view. It is located near the first corner (center Ca of the cross).
  • the first light-shielding film 52a is located at a position overlapping the charge retention portion MEM in a plan view. In other words, the first light-shielding film 52a is provided at a position overlapping with the charge holding portion MEM in plan view.
  • the first light shielding film 52a and the second light shielding film 52b partially overlap each other in a plan view, so that the light incident on the cell region 20a is not incident on the charge retention portion MEM. hard.
  • the inter-pixel light-shielding film 53 is disposed closer to the semiconductor layer 20 than the microlens 65 in the boundary region of the pixels 3, and blocks stray light leaking from adjacent pixels. More specifically, the inter-pixel light-shielding film 53 is provided along the end of the partition wall 51 closer to the second surface S2.
  • the light shielding part 50 be made of a material that blocks light.
  • the light shielding part 50 may be made of a metal material such as, but not limited to, tungsten, aluminum, copper, etc., for example.
  • the light shielding part 50 is formed of a conductive material, it is necessary to insulate it from the semiconductor layer 20 with an insulating film.
  • the insulating film include, but are not limited to, silicon oxide.
  • a plurality of members among the partition wall 51, the light-shielding film 52, and the inter-pixel light-shielding film 53 may be made of the same material. In this embodiment, a case will be described in which all members, including the partition wall 51, the light-shielding film 52, and the inter-pixel light-shielding film 53, are made of tungsten.
  • the deflection layer 70 is provided at a position facing the second surface S2 (light incident surface) of the cell region 20a in the Z direction.
  • the deflection layer 70 has a first region 71 having a first refractive index and a second region 72 having a second refractive index higher than the first refractive index at different positions in plan view for each cell region 20a,
  • the second region 72 is located at a position overlapping the light shielding film 52 in plan view. More specifically, in plan view, the second region 72 is located at a position overlapping the second light shielding film 52b.
  • the first light shielding film 52a and the first region 71 are on one side of the cell region 20a, and the second light shielding film 52b and the second region 72 are on the other side of the cell region 20a. It's on the side. Then, in plan view, the first light shielding film 52a and the first region 71 are located at a position overlapping with the charge retaining portion MEM.
  • the deflection layer 70 has a first region 71 with a first refractive index at a position overlapping with the first light shielding film 52a in a plan view, and a second region 71 with a higher refractive index higher than the first refractive index at a position overlapping with the second light shielding film 52b. It has a second region 72 of refractive index.
  • the second region 72 of each cell region 20a arranged in two rows and two columns is collectively constituted by one continuous plate-shaped member 73. The thickness of the member 73 is almost uniform and does not vary greatly.
  • the first region 71 of each of the cell regions 20a arranged in two rows and two columns is constituted by a continuous member that collectively constitutes a part of the insulating layer 63. Note that FIG. 4A shows the first region 71 within the illustrated range.
  • the first region 71 is, for example, a portion of the insulating layer 63 that is embedded (located) between the second regions 72 .
  • the chief ray L1 that has entered the photodetector 1 passes through the deflection layer 70 and then enters the cell region 20a.
  • light travels slower in a medium with a high refractive index than in a medium with a low refractive index. Therefore, the chief ray L1 that has entered the deflection layer 70 travels at a slower speed in the second region 72 than in the first region 71, as shown in FIG. 4B. More specifically, the wavefront P of the principal ray L1 advances slower in the second region 72 than in the first region 71.
  • the wavefront P of the principal ray L1 is deflected, and the principal ray L1 is deflected in a direction where the second region 72 of the first region 71 and the second region 72 is located in plan view.
  • the principal ray L1 is transmitted to the first light shielding film 52a in each cell region 20a in plan view.
  • the second light shielding film 52b of the second light shielding film 52b is deflected in a certain direction. More specifically, the chief ray L1 is deflected from the first light shielding film 52a toward the second light shielding film 52b in each cell region 20a. That is, the principal ray L1 is deflected toward the other of the one side and the other side of the cell region 20a.
  • the principal ray L1 that obliquely entered the pixel 3 is deflected by the deflection layer 70 toward the second light shielding film 52b located on the other side of the cell region 20a.
  • the principal ray L1 incident on the pixel 3 obliquely toward the first light shielding film 52a located on one side of the cell region 20a is deflected by the deflection layer 70 to the second light shielding film 52b located on the other side of the cell region 20a. deflected to the side. Thereby, the amount of light reaching the first light shielding film 52a can be suppressed.
  • the principal ray L1 obliquely enters the pixel 3 when, for example, the pixel 3 is located at a position where the image height of the pixel area 2A is high, or when the F value of the optical system is small. Even in such a case, the principal ray L1 is deflected by the deflection layer 70 toward the second light shielding film 52b, making it difficult for it to reach the first light shielding film 52a.
  • the principal ray L1 enters the pixel 3 straight along the Z direction, it is deflected by the deflection layer 70 toward the second light shielding film 52b located on the other side of the cell region 20a. be done.
  • the principal ray L1 enters the pixel 3 straight along the Z direction when, for example, the pixel 3 is located at the center of the image height of the pixel area 2A. Even in such a case, the principal ray L1 is deflected by the deflection layer 70 toward the second light shielding film 52b, making it difficult for it to reach the first light shielding film 52a.
  • the second region 72 (member 73) of the deflection layer 70 is provided in one piece for each cell region aggregate B1, and in a plan view, the second region 72 (member 73) has a hexagonal shape. It has a shape. Further, the second region 72 (member 73) of the deflection layer 70 is located at a position overlapping all (four) second corners in plan view for each cell region aggregate B1. More specifically, in plan view, the second region 72 is located at a position overlapping the cross center Cb located at the center of the cell region aggregate B1, and is located at all four second corners adjacent to the cross center Cb. They are in overlapping positions. Although not labeled in FIG.
  • regions other than the second region 72 correspond to the first region 71 in plan view. Therefore, as shown by the arrow in FIG. 4C, the chief ray L1 is directed to the second corner adjacent to the cross center Cb of the first corner and the second corner in plan view in each cell region 20a. deflected towards. More specifically, the chief ray L1 is deflected from the first corner toward the second corner in each cell region 20a.
  • the deflection characteristics are improved more than when one second region 72 is provided for each cell region 20a.
  • the same effect can be obtained in each of the cell regions 20a arranged in 2 rows and 2 columns arranged to be mirrored.
  • the second region 72 across the cell region 20a the area of the second region 72 is expanded, and the effect of deflecting light is further increased.
  • the deflection layer 70 includes a first material and a second material having a higher refractive index than the first material, the first region 71 is made of the first material, and the second region 72, that is, the member 73 is made of the second material.
  • the first material include, but are not limited to, materials such as silicon oxide (SiO 2 ).
  • the second material include, but are not limited to, silicon nitride (Si 3 N 4 ), silicon oxynitride (SiON), silicon carbide (SiC), zirconium oxide (ZrO 2 ), and titanium oxide (TiO 2 ). ), zinc sulfide (ZnS), and zinc oxide (ZnO).
  • the insulating layer 62 of the light incident side stacked body 60 is made of a known insulating material, such as, but not limited to, silicon oxide.
  • the insulating layer 62 is laminated to cover the inter-pixel light-shielding film 53, and functions as a flattening film that flattens the unevenness caused by providing the inter-pixel light-shielding film 53.
  • the insulating layer 63 is laminated to cover the second region 72 of the deflection layer 70, and functions as a flattening film that flattens the unevenness caused by providing the second region 72. Further, the portion of the insulating layer 63 embedded between the second regions 72, in this embodiment, the portion between the dashed line shown in FIG. 4A and the surface of the insulating layer 62 closer to the microlens 65, It functions as the first region 71 of the deflection layer 70.
  • the insulating layer 63 is made of a first material.
  • the color filter 64 is provided for each cell region 20a (for each pixel 3) on the side of the deflection layer 70 opposite to the semiconductor layer 20 side.
  • the color filter 64 separates the light incident on the cell region 20a into colors.
  • the color filter 64 separates visible light into colors, for example.
  • the color filter is made of, for example, a resin material.
  • a microlens 65 is provided for each pixel 3.
  • the microlens 65 is made of, for example, a resin material.
  • the wiring layer 30 is a multilayer wiring layer stacked on the first surface S1 of the semiconductor layer 20.
  • the wiring layer 30 includes an insulating film 31, wiring 32, vias (contacts) not shown, and the like.
  • the wiring 32 is stacked with an insulating film 31 in between as shown.
  • the insulating film 31 is made of a known insulating material, and is made of, for example, silicon oxide, although it is not limited thereto.
  • the wiring 32 is made of metal material. Examples of the material constituting the wiring layer 30 include, but are not limited to, copper (Cu) and aluminum (Al).
  • the support substrate 40 is provided on the side of the wiring layer 30 opposite to the semiconductor layer 20 side.
  • the support substrate 40 is, for example, but not limited to, a semiconductor substrate made of silicon or the like.
  • a substrate for the semiconductor layer 20w is prepared.
  • a first conductivity type semiconductor region and a second conductivity type semiconductor region are already formed at positions that constitute the photoelectric conversion element PD.
  • the substrate of the semiconductor layer 20w has a plane orientation ⁇ 111> as the first plane S1.
  • etching technology for example, reactive ion etching
  • the vertical groove 51av is formed at a position where the first partition wall 51a is provided in a plan view
  • the vertical groove 51bv is formed at a position where the second partition wall 51b is provided in a plan view.
  • the vertical groove 51av is provided to a depth to form the first light shielding film 52a through the opening HMa of the hard mask HM stacked on the first surface S1.
  • the vertical groove 51bv is provided through the opening HMb of the hard mask HM to a depth that forms the second light shielding film 52b.
  • the vertical groove 51bv is provided deeper than the vertical groove 51av.
  • Such a difference in groove depth is achieved by first filling the opening HMa of the hard mask HM with photoresist, etching a part of the vertical groove 51bv, and then removing the photoresist and forming the vertical groove 51av. It can be formed by etching both the vertical groove 51bv and the vertical groove 51bv.
  • the semiconductor layer 20w is etched to some extent in the ⁇ 111> direction. Therefore, the depth of the vertical grooves 51av and 51bv also takes into account the etching in the ⁇ 111> direction. It is desirable to set it as follows.
  • a protective film m1 is formed on the side walls of the vertical grooves 51av and 51bv.
  • the protective film m1 is, for example, made of silicon oxide or has a laminated structure of silicon nitride and silicon oxide, although it is not limited thereto.
  • the protective film m1 may be made of a material whose etching rate is sufficiently lower than the etching rate of silicon in the crystalline anisotropic etching described later.
  • lateral grooves 52ah and 52bh extending in the horizontal direction are formed using a known crystalline anisotropic etching technique.
  • the crystalline anisotropic etching technique is, for example, etching using an etching solution such as an alkaline aqueous solution, and the etching rate in the ⁇ 110> direction of the semiconductor layer 20w is sufficiently higher than the etching rate in the ⁇ 111> direction. .
  • the horizontal grooves 52ah and 52bh extending in the horizontal direction can be formed.
  • the vertical grooves 51av and 51bv are dug deeper. More specifically, the trench is dug deeper beyond the horizontal grooves 52ah and 52bh. After that, the protective film m1 is removed.
  • the exposed surfaces of the vertical grooves 51av and 51bv and the horizontal grooves 52ah and 52bh are covered with an insulating film m2 using a known film forming technique such as the ALD (Atomic Layer Deposition) method.
  • the insulating film m2 is a known insulating material, such as, but not limited to, a silicon oxide film.
  • the hollow portions in the vertical grooves 51av, 51bv and the horizontal grooves 52ah, 52bh are filled with the sacrificial film SAC.
  • the sacrificial film SAC is made of a material using a selected etchant and having an etching rate sufficiently higher than that of the insulating film m2.
  • the sacrificial film SAC is made of polysilicon, for example, although it is not limited thereto. Note that the portion of the hollow portion near the first surface S1 of the vertical grooves 51av and 51bv is filled and covered with an insulating film m3 instead of the sacrificial film SAC.
  • the insulating film m3 is a known insulating film, for example, but not limited to, a silicon oxide film. Then, planarization is performed using a CMP (chemical mechanical polishing) method, and the hard mask HM is removed.
  • impurity implantation is performed to form diffusion regions such as the charge holding portion MEM and elements such as various transistors.
  • the wiring layer 30 is formed on the first surface S1, and the support substrate 40 is bonded to the side of the wiring layer 30 opposite to the semiconductor layer 20w side.
  • the semiconductor layer 20w is thinned by grinding from the surface opposite to the first surface S1. Grinding is performed using a known method such as, but not limited to, the CMP method. This grinding leaves the semiconductor layer 20, and the surface obtained by the grinding is the second surface S2. Although some illustrations are omitted, as shown in FIG. 5G, the sacrificial film SAC is removed by wet etching using alkaline solution through the opening of the hard mask (not shown), and then the hard mask (not shown) and the insulating film m2 are removed. remove.
  • a pinning layer m4 and an insulating film m5 are sequentially laminated in this order on the exposed surfaces of the vertical grooves 51av, 51bv and the horizontal grooves 52ah, 52bh, and then the vertical grooves 51av, 51bv and the horizontal grooves
  • the hollow portions inside 52ah and 52bh are filled with light shielding material m6.
  • the material constituting the pinning layer m4 include, but are not limited to, hafnium oxide (HfO 2 ), zirconium oxide (ZrO 2 ), tantalum oxide (Ta 2 O 5 ), and the like.
  • the insulating film m5 is a known insulating material, such as, but not limited to, a silicon oxide film.
  • the insulating film m5 is formed using a known film forming technique such as ALD, for example.
  • the light shielding material m6 is a material that constitutes the light shielding part 50.
  • the light-shielding material m6 filled in the hollow portions in the vertical grooves 51av and 51bv constitutes the partition wall 51, and the light-shielding material m6 filled in the hollow portions in the horizontal grooves 52ah and 52bh constitutes the light-shielding film 52.
  • the inter-pixel light-shielding film 53 is formed on the second surface S2 side of the semiconductor layer 20 using known lithography and etching techniques.
  • an insulating film m7 is laminated to cover the inter-pixel light shielding film 53, and the laminated insulating film m7 is planarized to obtain an insulating layer 62.
  • a film m8 made of the second material is formed on the exposed surface of the insulating layer 62.
  • the excess portion of the film m8 is removed using known lithography and etching techniques to obtain the second region 72 (member 73) of the deflection layer 70.
  • an insulating film m9 is laminated to cover the second region 72, and the laminated insulating film m9 is planarized to obtain an insulating layer 63.
  • a part of the insulating layer 63 constitutes a first region 71 of the deflection layer 70 as shown in the figure.
  • the light incident surface side laminate 60 is formed, and the photodetector 1 is almost completed.
  • the semiconductor chip 2 is obtained by cutting the photodetecting device 1 into pieces.
  • Such output asymmetry may cause a difference in the amount of shading between one side of the view angle end of the semiconductor chip 2 and the other side of the view angle end of the semiconductor chip 2 where the incident angle of the principal ray is oblique incidence. Note that the one side of the angle of view and the other side of the angle of view are opposite to each other.
  • the photodetecting device 1 has a plurality of cell regions 20a arranged in the row and column directions in the pixel region 2A, and one surface is an element formation surface.
  • a semiconductor layer 20 whose other surface is a light incident surface, and a deflection layer 70 provided at a position opposite to the light incident surface of the cell region 20a, and a photoelectric conversion element PD and a photoelectric conversion element PD are provided in the cell region 20a.
  • a light shielding film 52 extending along a direction perpendicular to the thickness direction of the semiconductor layer 20, and a charge retention portion MEM located closer to the element formation surface than the light shielding film 52 in the thickness direction of the semiconductor layer 20 are provided.
  • the deflection layer 70 has a first region 71 having a first refractive index and a second region 72 having a second refractive index higher than the first refractive index at different positions in plan view for each cell region 20a.
  • the second region 72 is located at a position overlapping the light shielding film 52 in plan view. Since the photodetector 1 has such a configuration, the principal ray L1 is deflected toward the light shielding film 52, which overlaps the second region 72 in plan view, due to the difference in refractive index between the first region 71 and the second region 72. be done.
  • the light shielding film 52 includes a first light shielding film 52a and a first light shielding film 52a located closer to the light incident surface than the first light shielding film 52a in the thickness direction.
  • the first light shielding film 52a and the first region 71 are located on one side (the first corner side) of the cell region 20a
  • the second light shielding film 52b and the second region 72 are located on one side (the first corner side) of the cell region 20a.
  • the second region 72 is located on the other side (second corner side) of the cell region 20a, and in a plan view, the second region 72 is located at a position overlapping with the second light shielding film 52b.
  • the photodetector 1 Since the photodetector 1 has such a configuration, as shown in FIG. 4E, the principal ray L1 overlaps the second region 72 in plan view due to the difference in refractive index between the first region 71 and the second region 72. The light is deflected toward the second light shielding film 52b, making it difficult to reach the first light shielding film 52a. This makes it difficult for optical path length differences to occur in the principal ray L1 incident on the cell region 20a, and as shown in FIG. It is possible to suppress the output of the pixel 3 from increasing at different angles. Thereby, it is possible to suppress an increase in the difference in the amount of shading between one side of the angle of view and the other side of the angle of view. In addition, deterioration of captured images can be suppressed.
  • the charge retention unit MEM is located closer to one side (the first corner side) of the cell region 20a, and The first light-shielding film 52a and the first region 71 are located at a position overlapping with the charge retaining portion MEM.
  • the principal ray L1 is directed toward the second light shielding film 52b, which is located further away from the charge retention portion MEM in both the thickness direction and the horizontal direction, of the first light shielding film 52a and the second light shielding film 52b. Since the light is deflected toward the charge storage unit MEM, it becomes more difficult for light to enter the charge storage unit MEM, and PLS can be suppressed.
  • the semiconductor layer 20 includes a cell region aggregate B1 that is composed of four cell regions 20a arranged in two rows and two columns and arranged in the row and column directions.
  • the second corner of each of the four cell regions 20a constituting one cell region aggregate B1 is a corner located closer to the center of cell region aggregate B1, and The first corners of the four constituent cell regions 20a are located closer to the corners of the cell region aggregate B1, and the second regions 72 are grouped into one corner for each cell region aggregate B1. It is provided and overlaps all the second corners in plan view for each cell area assembly B1. With such a configuration, the same effect can be obtained in each of the cell regions 20a arranged in 2 rows and 2 columns arranged to be mirrored. Further, by providing the second region 72 across the cell region 20a, the area of the second region 72 is expanded, and the effect of deflecting light is further increased.
  • the portion embedded between the second regions 72 of the insulating layer 63 is the first region 71 of the deflection layer 70; is not limited.
  • the first region 71 may be formed of a layer different from the insulating layer 63.
  • the second region 72 is provided in one for each cell region aggregate B1, but it may be provided in each cell region 20a.
  • the second region 72 (member 73) of the deflection layer 70 has a hexagonal shape in plan view, but the present technology is not limited to this.
  • the second region 72 (member 73) of the photodetecting device 1 according to the first modification of the first embodiment may be circular in plan view as shown in FIG. 8A, or may be circular in plan view as shown in FIG. 8B. It may also be a diamond shape.
  • the member 73 made of the second material is a plate-shaped member and has a substantially uniform thickness, but the present technology is not limited thereto. As shown in FIG. 9, the thickness of the member 73 of the photodetecting device 1 according to the second modification of the first embodiment is not uniform. Further, the first region 71 of the deflection layer 70 is a region that mainly overlaps with the first light-shielding film 52a in a plan view, and the second region 72 is a region that mainly overlaps with the second light-shielding film 52b in a plan view. Both the first region 71 and the second region 72 include both the member 73 and the insulating layer 63, and the thickness of the member 73 in the second region 72 is equal to the thickness of the member 73 in the first region 71. thicker than the thickness of
  • the member 73 has a lens-shaped portion that is thickest at the center of the cell region assembly B1.
  • the thickness of the member 73 gradually decreases from the second region 72 to the first region 71.
  • the refractive index of the deflection layer 70 is changed by changing the thickness of the member 73. More specifically, by making the thickness of the member 73 in the first region 71 thinner than the thickness of the member 73 in the second region 72, the refractive index of the first region 71 (first refractive index) is reduced to the second region 72. (second refractive index).
  • the thinner side constitutes the first area 71
  • the thicker side constitutes the second region 72.
  • the optical path length of the principal ray L1 in the member 73 is shorter than when it is thick, so the delay of the wavefront P becomes smaller. Note that the portion where the thickness of the member 73 is not uniform is formed across a plurality of pixels 3.
  • FIGS. 10A to 10C a method for manufacturing the photodetecting device 1 according to Modification 2 of the first embodiment will be described, focusing on the differences from the above-described first embodiment.
  • steps up to the steps shown in FIG. 5I are performed.
  • a resist pattern RM1 is formed on the exposed surface of the film m8 made of the second material.
  • the resist pattern RM1 is formed at a position that overlaps a portion of the member 73 that is desired to remain lens-shaped in plan view.
  • FIG. 10A a resist pattern RM1 is formed on the exposed surface of the film m8 made of the second material.
  • the resist pattern RM1 is formed at a position that overlaps a portion of the member 73 that is desired to remain lens-shaped in plan view.
  • the resist pattern RM1 is reflowed by heat treatment or the like, and its thickness is made thicker where it is desired to leave the film m8 thicker. Thereafter, the film m8 is etched using the resist pattern RM1 as a mask to obtain the member 73 shown in FIG. 10C. Note that the resist pattern RM1 remaining after etching is peeled off. The subsequent processing is the same as that described in the first embodiment, so the description will be omitted.
  • the thickness of the member 73 gradually becomes thinner from the second region 72, that is, the center of the cell region assembly B1 toward the first region 71. Therefore, the member 73 can also function as a lens that focuses light on the second region 72.
  • the member 73 of the photodetector 1 according to the third modification of the first embodiment includes an inner lens LNZ for each pixel 3.
  • the inner lens LNZ is an on-chip lens, and is provided between the member 73 and the color filter 64.
  • the pixel 3 is arranged in a high density arrangement, it may become difficult for light at a certain angle to enter the semiconductor layer.
  • the inner lens LNZ it is possible to suppress light from hitting the partition walls that partition the pixels. Thereby, deterioration of the oblique incidence characteristics can be suppressed.
  • FIGS. 12A and 12B a method for manufacturing the photodetecting device 1 according to Modification 3 of the first embodiment will be described, focusing on the differences from Modification 2 of the first embodiment described above.
  • an insulating layer 63 made of a known material is laminated to cover the member 73 and planarized.
  • a partition wall 54 for partitioning the pixels 3 is formed at a position overlapping the inter-pixel light-shielding film 53 in plan view.
  • the inner lens LNZ is formed for each pixel 3 using the same forming method as the member 73 described in Modification 2 of the first embodiment. Thereafter, an insulating layer 66 made of a known material is laminated and planarized. Thereafter, using a known method, a partition wall 55 for partitioning the pixels 3 is formed at a position overlapping the partition wall 54 in a plan view.
  • the subsequent processing is as already explained, so the explanation will be omitted.
  • the photodetection device 1 according to the third modification of the first embodiment is the photodetection device 1 according to the first embodiment described above, and the photodetection device 1 according to the second modification of the first embodiment described above, The same effect can be obtained.
  • the light shielding film 52 includes two layers of the first light shielding film 52a and the second light shielding film 52b, but the present technology is not limited thereto.
  • the light-shielding film 52 of the photodetecting device 1 according to the fourth modification of the first embodiment includes only one layer of film made of one light-shielding material, more specifically, a first layer of light-shielding material. Only a light shielding film 52a is provided.
  • FIG. 13A shows the cross-sectional configuration of the pixel 3 when viewed in cross section along the line BB in FIG.
  • one cell area assembly B2 is composed of four cell areas 20a arranged in two rows and two columns with the cross center Ca in the center.
  • a first corner is located closer to the center of the cell area assembly B2, and a second corner is located closer to the corner.
  • the second regions 72 are provided in one unit for each cell region assembly B2, and overlap in plan view with all the first corners of each cell region assembly B2.
  • the first light shielding film 52a and the second region 72 of the deflection layer 70 are on one side of the cell region 20a, more specifically on the first corner side, and the first region 71 of the deflection layer 70 is on the cell region It is located on the other side of 20a, more specifically on the second corner side. Further, as in the case of the first embodiment, the charge retention unit MEM is located at a position closer to one side of the cell region 20a in plan view. Then, in plan view, the first light shielding film 52a and the second region 72 are located at a position overlapping with the charge retaining portion MEM.
  • the principal ray L1 is directed in the direction where the first light shielding film 52a is located in each cell region 20a in plan view. deflected towards. More specifically, the principal ray L1 is deflected in each cell region 20a toward the first light shielding film 52a that overlaps the charge storage portion MEM in plan view. That is, the principal ray L1 is deflected toward one side (the first corner side) of the one side and the other side of the cell region 20a.
  • the principal ray L1 is deflected toward the first light-shielding film 52a, so the optical path length is longer than in the first embodiment. This makes it possible to prevent deterioration of sensitivity and to improve sensitivity.
  • the chief ray L1 is blocked by the first light shielding film 52a, so that it becomes difficult to enter the charge holding unit MEM.
  • FIGS. 14A and 14B A second embodiment of the present technology shown in FIGS. 14A and 14B will be described below.
  • the difference between the photodetecting device 1 according to the second embodiment and the photodetecting device 1 according to the first embodiment described above is that the deflection layer 70 is located on the second surface S2 (light incident surface) side of the cell region 20a.
  • the configuration of the photodetecting device 1 other than that is basically the same as the photodetecting device 1 of the first embodiment described above. Note that the same reference numerals are given to the constituent elements that have already been explained, and the explanation thereof will be omitted.
  • the deflection layer 70 is provided in a portion of the cell region 20a on the second surface S2 side, and extends in the thickness direction of the semiconductor layer 20 from the second surface S2 for each cell region 20a. It includes a plurality of columnar bodies 74 that were previously present.
  • the columnar body 74 is an on-chip pillar, and the dimension in the Z direction is, for example, 0.8 ⁇ m, although it is not limited thereto.
  • the refractive index of the material constituting the columnar body 74 is different from the refractive index of the semiconductor layer 20. More specifically, the refractive index of the material forming the columnar bodies 74 is lower than the refractive index of the semiconductor layer 20. As shown in FIG.
  • the density of the columnar bodies 74 provided in the first region 71 is different from the density of the columnar bodies 74 provided in the second region 72. More specifically, the density of the columnar bodies 74 provided in the first region 71 is higher than the density of the columnar bodies 74 provided in the second region 72.
  • the region with a low refractive index (the region with a high density of columnar bodies 74) is defined as the first region
  • the region with a high refractive index (the region with a low density of columnar bodies 74) is defined as the second region.
  • the refractive index of the deflection layer 70 is changed by changing the density of the columnar bodies 74 between the first region 71 and the second region 72.
  • the refractive index of the first region 71 is made to be higher than the density of the columnar bodies 74 in the second region 72.
  • the refractive index is lower than the refractive index of the region 72 (second refractive index).
  • the refractive index is adjusted by the area ratio of the material forming the semiconductor layer 20 and the material forming the columnar bodies 74 in plan view. In this embodiment, a region of the semiconductor layer 20 with a large area has a high refractive index.
  • the principal ray L1 incident on the pixel 3 is deflected toward the second light shielding film 52b located on the other side (second corner side) of the cell region 20a.
  • the density of the columnar bodies 74 is gradually increased from the other side, which is the cross center Ca side, to the one side, which is the cross center Cb side. It may be.
  • the material forming the columnar bodies 74 is the first material
  • the material forming the semiconductor layer 20 is the second material.
  • the first material include, but are not limited to, materials such as silicon oxide (SiO 2 ).
  • the second material may include, but is not limited to, a substance such as silicon.
  • FIGS. 15A to 15D a method for manufacturing the photodetecting device 1 will be described, focusing on the differences from the first embodiment described above.
  • steps up to the steps shown in FIG. 5F are performed.
  • a hard mask HM1 having an opening HM1a is formed on the second surface S2 of the semiconductor layer 20 using known lithography and etching techniques.
  • the portion of the semiconductor layer 20 exposed from the opening HM1a is etched to form a plurality of holes 74h in which the columnar bodies 74 are to be embedded.
  • hard mask HM1 is removed.
  • an insulating film m10 is deposited on the exposed surface of the semiconductor layer 20 using a known film forming technique such as ALD, and the inside of the hole 74h is filled with the insulating film m10.
  • a known film forming technique such as ALD
  • the sacrificial film SAC is removed by wet etching using alkaline solution through the opening of the hard mask (not shown), and then the hard mask (not shown) and the insulating film m10 are removed. remove.
  • the pinning layer m4 and the insulating film m5 are sequentially laminated in this order on the exposed surface in the hole 74h and the exposed surfaces of the vertical grooves 51av, 51bv and the horizontal grooves 52ah, 52bh.
  • the columnar body 74 is formed in the hole 74h.
  • the insulating film m5 is made of the material that constitutes the columnar body 74.
  • the hollow portions in the vertical grooves 51av, 51bv and the horizontal grooves 52ah, 52bh are filled with a light-shielding material m6.
  • the subsequent processing is the same as in the first embodiment, so the explanation will be omitted.
  • the refractive index of the material forming the columnar bodies 74 is lower than the refractive index of the semiconductor layer 20;
  • the refractive index may be higher than that of the semiconductor layer 20.
  • the refractive index is lower in the area where the semiconductor layer 20 has a larger area in plan view, so by making the density of the columnar bodies 74 in the first region 71 lower than the density of the columnar bodies 74 in the second region 72, , the refractive index of the first region 71 (first refractive index) can be lower than the refractive index of the second region 72 (second refractive index).
  • the refractive index distribution of the deflection layer 70 is different for each color mainly transmitted by the color filter 64.
  • the difference in incident angle characteristics of the output of the pixel 3 depending on the color when the deflection layer 70 is not provided will be explained using FIG. 6B.
  • the asymmetry of the incident angle characteristics of the output of the pixel 3 becomes more pronounced as the wavelength of light becomes longer. Therefore, more light with a long wavelength such as red light may reach the first light shielding film 52a than green light and blue light with short wavelengths, and the amount of light with a long optical path may increase. Ta. This may lead to variations in color ratio. Therefore, it is desirable that light with a longer wavelength be deflected to a greater degree by the deflection layer 70 than light with a shorter wavelength.
  • the deflection layer 70 having the same refractive index configuration when the deflection layer 70 having the same refractive index configuration is applied to light of different colors, light with a shorter wavelength is deflected more than light with a longer wavelength. That is, when the deflection layers 70 having the same refractive index configuration are applied, light with a long wavelength such as red light is deflected by a smaller amount than light with a shorter wavelength such as green light and blue light. Therefore, in this modified example, by changing the refractive index difference between the variable first region 71 and the second region 72 for each color, the variation in color ratio is suppressed from increasing. More specifically, the longer the wavelength of light such as red light, the larger the difference in refractive index between the first region 71 and the second region 72 is provided, thereby suppressing the variation in color ratio from increasing. .
  • the cell area 20a includes a first cell area 20a1, a second cell area 20a2, a third cell area and 20a3, and the color filter 64 is a first color light filter provided for the first cell area 20a1.
  • a third filter 64B for third color light having a shorter wavelength is included. Note that, for example, in the case of the Bayer array, the first color light is red light, the second color light is green light, and the third color light is blue light.
  • the refractive index difference between the first region 71 and the second region 72 of the deflection layer 70 provided in the second cell region 20a2 is The refractive index difference between the first region 71 and the second region 72 of the deflection layer 70 provided in the second cell region 20a2 is greater than the refractive index difference between the first region 71 and the second region 72 provided in the third cell region 20a3. This is larger than the refractive index difference between the first region 71 and the second region 72 of the deflection layer 70 . That is, the configuration is such that the longer the wavelength of light, the greater the difference in refractive index between the first region 71 and the second region 72. Thereby, the longer the wavelength of light, the greater the degree of deflection toward the second light shielding film 52b.
  • the difference in refractive index between the first region 71 and the second region 72 is increased as the wavelength of light becomes longer, so that fluctuations in color ratio are reduced. You can prevent it from getting bigger.
  • the deflection layer 70 is not provided for the third cell region 20a3 for the first color light, and the deflection layer 70 is provided only for the first cell region 20a1 for the first color light and the second cell region 20a2 for the second color light. ing.
  • the third color light having the shortest wavelength has the smallest influence on the asymmetry of the incident angle characteristics of the output of the pixel 3 among the first to third color lights. Therefore, the deflection layer 70 is omitted for the third cell region 20a3 for the third color light. In the example shown in FIG.
  • the refractive index difference between the first region 71 and the second region 72 of the deflection layer 70 provided in the first cell region 20a1 is the same as that of the deflection layer 70 provided in the second cell region 20a2.
  • the refractive index difference between the first region 71 and the second region 72 is larger than that between the first region 71 and the second region 72 of the deflection layer 70 provided in the first cell region 20a1.
  • the refractive index difference between the first region 71 and the second region 72 of the deflection layer 70 provided in the second cell region 20a2 may be the same.
  • the photodetection device 1 according to the second modification of the second embodiment is different from the photodetection device 1 according to the second embodiment described above and the photodetection device 1 according to the first modification of the second embodiment described above, A similar effect can be obtained. Further, in the photodetecting device 1 according to the second modification of the second embodiment, the deflection layer 70 can be omitted for the third cell region 20a3 for the third color light, so the design load and manufacturing cost can be suppressed. can.
  • the first cell region 20a1 for the first color light is In this configuration, only the deflection layer 70 is provided.
  • the first color light having the longest wavelength has the largest influence on the asymmetry of the incident angle characteristics of the output of the pixel 3 among the first to third color lights. Therefore, the deflection layer 70 is provided only in the first cell region 20a1 for the first color light, which has the greatest influence.
  • the photodetection device 1 according to the third modification of the second embodiment is different from the photodetection device 1 according to the second embodiment described above and the photodetection device 1 according to the first modification of the second embodiment described above, A similar effect can be obtained. Further, in the photodetecting device 1 according to the third modification of the second embodiment, the deflection layer 70 is provided only for the first cell region 20a1 for the first color light, so the design load and manufacturing cost can be suppressed.
  • FIG. 19 A third embodiment of the present technology shown in FIG. 19 will be described below.
  • the difference between the photodetection device 1 according to the third embodiment and the photodetection device 1 according to the first embodiment described above is that pupil correction is performed, and the other configuration of the photodetection device 1 is , has basically the same configuration as the photodetecting device 1 of the first embodiment described above.
  • the same reference numerals are given to the constituent elements that have already been explained, and the explanation thereof will be omitted.
  • the member 73 has a lens shape as shown in the drawing.
  • the symbols "71" and "72" of the first region 71 and the second region 72 are not shown, but it is assumed that the second region 72 is located in the thicker part of the member 73. do.
  • region D is located at the center of the pixel region 2A, that is, at the center of the image height.
  • region F is located closer to the edge of the pixel region 2A than region D, that is, at a position where the image height is higher.
  • Region E is located closer to the edge than region D and closer to the center than region F. In this embodiment, regions E and F will be described as examples of regions located closer to the edge than the center of the pixel region 2A.
  • the principal ray L1 enters the pixel 3 at an angle close to perpendicular to the region D located at the center of the image height.
  • the higher the image height the more obliquely the chief ray L1 is incident on the pixel 3.
  • the chief ray L1 is obliquely incident on the pixel 3.
  • the principal ray L1 enters the pixel 3 more obliquely than in the region E.
  • the center of the member 73 is located at the center of the cell region assembly B1 in plan view.
  • the center of the member 73 is located closer to the center of the pixel area 2A than the center of the cell area aggregate B1 in plan view. be.
  • the center of the member 73 is located closer to the center of the pixel area 2A in plan view than in the cell area aggregate B1 located in the area E.
  • the configuration is as follows. Pupil correction is performed by arranging the member 73 as described above at a position where the image height is high.
  • the color filter 64 and the microlens 65 are also arranged at positions closer to the center of the pixel area 2A than the center of the cell area assembly B1, depending on the image height position. Thereby, the principal ray L1 can be deflected toward the second light shielding film 52b regardless of the image height position of the pixel region 2A.
  • the second region 72 is moved closer to the center of the pixel region 2A than the center of the cell region assembly B1.
  • the chief ray L1 can be deflected toward the second light shielding film 52b.
  • the cell area aggregate is the cell area aggregate B1
  • the cell area aggregate may be the cell area aggregate B2.
  • FIGS. 20, 21A, and 21B A fourth embodiment of the present technology shown in FIGS. 20, 21A, and 21B will be described below.
  • the difference between the photodetection device 1 according to the fourth embodiment and the photodetection device 1 according to the first embodiment described above is the configuration of the light shielding part 50, and the other configuration of the photodetection device 1 is basically Generally, the configuration is similar to that of the photodetecting device 1 of the first embodiment described above. Note that the same reference numerals are given to the constituent elements that have already been explained, and the explanation thereof will be omitted.
  • the first partition wall 51a is provided from the first surface S1 side and does not reach the second surface S2.
  • the second partition wall 51b is provided from the second surface S2 side and does not reach the first surface S1.
  • the vertical gate electrode TRXG protrudes from the opening G provided in the first light shielding film 52a.
  • the second partition wall 51b may have an I-type pattern as shown in FIG. 21A, or may have a 1-type pattern as shown in FIG. 21B.
  • the electronic device 100 includes a solid-state imaging device 101, an optical lens 102, a shutter device 103, a drive circuit 104, and a signal processing circuit 105.
  • the electronic device 100 is, for example, an electronic device such as a camera, although it is not limited thereto. Further, the electronic device 100 includes the above-described photodetection device 1 as the solid-state imaging device 101.
  • the optical lens (optical system) 102 forms an image of image light (incident light 106) from the subject onto the imaging surface of the solid-state imaging device 101.
  • image light incident light 106
  • the shutter device 103 controls the light irradiation period and the light blocking period to the solid-state imaging device 101.
  • the drive circuit 104 supplies drive signals that control the transfer operation of the solid-state imaging device 101 and the shutter operation of the shutter device 103.
  • Signal transfer of the solid-state imaging device 101 is performed by a drive signal (timing signal) supplied from the drive circuit 104.
  • the signal processing circuit 105 performs various signal processing on the signals (pixel signals) output from the solid-state imaging device 101.
  • the video signal subjected to signal processing is stored in a storage medium such as a memory, or output to a monitor.
  • the electronic device 100 is not limited to a camera, and may be another electronic device.
  • it may be an imaging device such as a camera module for mobile devices such as mobile phones.
  • the electronic device 100 also includes, as the solid-state imaging device 101, the photodetector 1 according to any one of the first to fourth embodiments and modifications of these embodiments, or the first to fourth embodiments. It is possible to provide a photodetecting device 1 according to a combination of at least two of the above embodiments and modifications of these embodiments.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be realized as a device mounted on any type of moving body such as a car, electric vehicle, hybrid electric vehicle, motorcycle, bicycle, personal mobility, airplane, drone, ship, robot, etc. You can.
  • FIG. 23 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via a communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside vehicle information detection unit 12030, an inside vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio/image output section 12052, and an in-vehicle network I/F (interface) 12053 are illustrated.
  • the drive system control unit 12010 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for the steering mechanism to adjust and the braking device to generate the braking force of the vehicle.
  • the body system control unit 12020 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 12020.
  • the body system control unit 12020 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the external information detection unit 12030 detects information external to the vehicle in which the vehicle control system 12000 is mounted.
  • an imaging section 12031 is connected to the outside-vehicle information detection unit 12030.
  • the vehicle exterior information detection unit 12030 causes the imaging unit 12031 to capture an image of the exterior of the vehicle, and receives the captured image.
  • the external information detection unit 12030 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electrical signal according to the amount of received light.
  • the imaging unit 12031 can output the electrical signal as an image or as distance measurement information.
  • the light received by the imaging unit 12031 may be visible light or non-visible light such as infrared rays.
  • the in-vehicle information detection unit 12040 detects in-vehicle information.
  • a driver condition detection section 12041 that detects the condition of the driver is connected to the in-vehicle information detection unit 12040.
  • the driver condition detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 detects the degree of fatigue or concentration of the driver based on the detection information input from the driver condition detection unit 12041. It may be calculated, or it may be determined whether the driver is falling asleep.
  • the microcomputer 12051 calculates control target values for the driving force generation device, steering mechanism, or braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, Control commands can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. It is possible to perform cooperative control for the purpose of
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generating device, steering mechanism, braking device, etc. based on information about the surroundings of the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040. It is possible to perform cooperative control for the purpose of autonomous driving, etc., which does not rely on operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the outside information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or oncoming vehicle detected by the vehicle exterior information detection unit 12030, and performs cooperative control for the purpose of preventing glare, such as switching from high beam to low beam. It can be carried out.
  • the audio and image output unit 12052 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 12061, a display section 12062, and an instrument panel 12063 are illustrated as output devices.
  • the display unit 12062 may include, for example, at least one of an on-board display and a head-up display.
  • FIG. 24 is a diagram showing an example of the installation position of the imaging section 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, and 12105 as the imaging unit 12031.
  • the imaging units 12101, 12102, 12103, 12104, and 12105 are provided, for example, at positions such as the front nose, side mirrors, rear bumper, back door, and the top of the windshield inside the vehicle 12100.
  • An imaging unit 12101 provided in the front nose and an imaging unit 12105 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 12100.
  • Imaging units 12102 and 12103 provided in the side mirrors mainly capture images of the sides of the vehicle 12100.
  • An imaging unit 12104 provided in the rear bumper or back door mainly captures images of the rear of the vehicle 12100.
  • the images of the front acquired by the imaging units 12101 and 12105 are mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 24 shows an example of the imaging range of the imaging units 12101 to 12104.
  • An imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • imaging ranges 12112 and 12113 indicate imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • an imaging range 12114 shows the imaging range of the imaging unit 12101 provided on the front nose.
  • the imaging range of the imaging unit 12104 provided in the rear bumper or back door is shown. For example, by overlapping the image data captured by the imaging units 12101 to 12104, an overhead image of the vehicle 12100 viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the imaging units 12101 to 12104 may be a stereo camera including a plurality of image sensors, or may be an image sensor having pixels for phase difference detection.
  • the microcomputer 12051 determines the distance to each three-dimensional object within the imaging ranges 12111 to 12114 and the temporal change in this distance (relative speed with respect to the vehicle 12100) based on the distance information obtained from the imaging units 12101 to 12104. In particular, by determining the three-dimensional object that is closest to the vehicle 12100 on its path and that is traveling at a predetermined speed (for example, 0 km/h or more) in approximately the same direction as the vehicle 12100, it is possible to extract the three-dimensional object as the preceding vehicle. can.
  • a predetermined speed for example, 0 km/h or more
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in advance in front of the preceding vehicle, and perform automatic brake control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of autonomous driving, etc., in which the vehicle travels autonomously without depending on the driver's operation.
  • the microcomputer 12051 transfers three-dimensional object data to other three-dimensional objects such as two-wheeled vehicles, regular vehicles, large vehicles, pedestrians, and utility poles based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic obstacle avoidance. For example, the microcomputer 12051 identifies obstacles around the vehicle 12100 into obstacles that are visible to the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceeds a set value and there is a possibility of a collision, the microcomputer 12051 transmits information via the audio speaker 12061 and the display unit 12062. By outputting a warning to the driver via the vehicle control unit 12010 and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • the microcomputer 12051 determines a collision risk indicating the degree of risk of collision with each obstacle, and when the collision risk exceed
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether the pedestrian is present in the images captured by the imaging units 12101 to 12104.
  • pedestrian recognition involves, for example, a procedure for extracting feature points in images captured by the imaging units 12101 to 12104 as infrared cameras, and a pattern matching process is performed on a series of feature points indicating the outline of an object to determine whether it is a pedestrian or not.
  • the audio image output unit 12052 creates a rectangular outline for emphasis on the recognized pedestrian.
  • the display unit 12062 is controlled to display the .
  • the audio image output unit 12052 may control the display unit 12062 to display an icon or the like indicating a pedestrian at a desired position.
  • the technology according to the present disclosure can be applied to the imaging unit 12031 among the configurations described above.
  • the photodetection device 1 described in the above-described embodiment and modification can be applied to the imaging section 12031.
  • Example of application to endoscopic surgery system The technology according to the present disclosure (this technology) can be applied to various products.
  • the technology according to the present disclosure may be applied to an endoscopic surgery system.
  • FIG. 25 is a diagram illustrating an example of a schematic configuration of an endoscopic surgery system to which the technology according to the present disclosure (present technology) can be applied.
  • FIG. 25 shows an operator (doctor) 11131 performing surgery on a patient 11132 on a patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical instruments 11110 such as a pneumoperitoneum tube 11111 and an energy treatment instrument 11112, and a support arm device 11120 that supports the endoscope 11100. , and a cart 11200 loaded with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 whose distal end is inserted into a body cavity of a patient 11132 over a predetermined length, and a camera head 11102 connected to the proximal end of the lens barrel 11101.
  • an endoscope 11100 configured as a so-called rigid scope having a rigid tube 11101 is shown, but the endoscope 11100 may also be configured as a so-called flexible scope having a flexible tube. good.
  • An opening into which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and the light is guided to the tip of the lens barrel. Irradiation is directed toward an observation target within the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct-viewing mirror, a diagonal-viewing mirror, or a side-viewing mirror.
  • An optical system and an image sensor are provided inside the camera head 11102, and reflected light (observation light) from an observation target is focused on the image sensor by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to a camera control unit (CCU) 11201.
  • CCU camera control unit
  • the CCU 11201 is configured with a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and centrally controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal, such as development processing (demosaic processing), for displaying an image based on the image signal.
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on an image signal subjected to image processing by the CCU 11201 under control from the CCU 11201.
  • the light source device 11203 is composed of a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing the surgical site or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • a treatment tool control device 11205 controls driving of an energy treatment tool 11112 for cauterizing tissue, incising, sealing blood vessels, or the like.
  • the pneumoperitoneum device 11206 injects gas into the body cavity of the patient 11132 via the pneumoperitoneum tube 11111 in order to inflate the body cavity of the patient 11132 for the purpose of ensuring a field of view with the endoscope 11100 and a working space for the operator. send in.
  • the recorder 11207 is a device that can record various information regarding surgery.
  • the printer 11208 is a device that can print various types of information regarding surgery in various formats such as text, images, or graphs.
  • the light source device 11203 that supplies irradiation light to the endoscope 11100 when photographing the surgical site can be configured, for example, from a white light source configured by an LED, a laser light source, or a combination thereof.
  • a white light source configured by a combination of RGB laser light sources
  • the output intensity and output timing of each color (each wavelength) can be controlled with high precision, so the white balance of the captured image is adjusted in the light source device 11203. It can be carried out.
  • the laser light from each RGB laser light source is irradiated onto the observation target in a time-sharing manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing, thereby supporting each of RGB. It is also possible to capture images in a time-division manner. According to this method, a color image can be obtained without providing a color filter in the image sensor.
  • the driving of the light source device 11203 may be controlled so that the intensity of the light it outputs is changed at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changes in the light intensity to acquire images in a time-division manner and compositing the images, a high dynamic It is possible to generate an image of a range.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band compatible with special light observation.
  • Special light observation uses, for example, the wavelength dependence of light absorption in body tissues to illuminate the mucosal surface layer by irradiating a narrower band of light than the light used for normal observation (i.e., white light). So-called narrow band imaging is performed in which predetermined tissues such as blood vessels are photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained using fluorescence generated by irradiating excitation light.
  • Fluorescence observation involves irradiating body tissues with excitation light and observing the fluorescence from the body tissues (autofluorescence observation), or locally injecting reagents such as indocyanine green (ICG) into the body tissues and It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be able to supply narrowband light and/or excitation light compatible with such special light observation.
  • FIG. 26 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU 11201 shown in FIG. 25.
  • the camera head 11102 includes a lens unit 11401, an imaging section 11402, a driving section 11403, a communication section 11404, and a camera head control section 11405.
  • the CCU 11201 includes a communication section 11411, an image processing section 11412, and a control section 11413. Camera head 11102 and CCU 11201 are communicably connected to each other by transmission cable 11400.
  • the lens unit 11401 is an optical system provided at the connection part with the lens barrel 11101. Observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and enters the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the imaging unit 11402 is composed of an image sensor.
  • the imaging unit 11402 may include one image sensor (so-called single-plate type) or a plurality of image sensors (so-called multi-plate type).
  • image signals corresponding to RGB are generated by each imaging element, and a color image may be obtained by combining them.
  • the imaging unit 11402 may be configured to include a pair of imaging elements for respectively acquiring right-eye and left-eye image signals corresponding to 3D (dimensional) display. By performing 3D display, the operator 11131 can more accurately grasp the depth of the living tissue at the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each imaging element.
  • the imaging unit 11402 does not necessarily have to be provided in the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is constituted by an actuator, and moves the zoom lens and focus lens of the lens unit 11401 by a predetermined distance along the optical axis under control from the camera head control unit 11405. Thereby, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is configured by a communication device for transmitting and receiving various information to and from the CCU 11201.
  • the communication unit 11404 transmits the image signal obtained from the imaging unit 11402 to the CCU 11201 via the transmission cable 11400 as RAW data.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies it to the camera head control unit 11405.
  • the control signal may include, for example, information specifying the frame rate of the captured image, information specifying the exposure value at the time of capturing, and/or information specifying the magnification and focus of the captured image. Contains information about conditions.
  • the above imaging conditions such as the frame rate, exposure value, magnification, focus, etc. may be appropriately specified by the user, or may be automatically set by the control unit 11413 of the CCU 11201 based on the acquired image signal. good.
  • the endoscope 11100 is equipped with so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is configured by a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • the image signal and control signal can be transmitted by electrical communication, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal, which is RAW data, transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site etc. by the endoscope 11100 and the display of the captured image obtained by imaging the surgical site etc. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display a captured image showing the surgical site, etc., based on the image signal subjected to image processing by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image using various image recognition techniques. For example, the control unit 11413 detects the shape and color of the edge of an object included in the captured image to detect surgical tools such as forceps, specific body parts, bleeding, mist when using the energy treatment tool 11112, etc. can be recognized.
  • the control unit 11413 may use the recognition result to superimpose and display various types of surgical support information on the image of the surgical site. By displaying the surgical support information in a superimposed manner and presenting it to the surgeon 11131, it becomes possible to reduce the burden on the surgeon 11131 and allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 connecting the camera head 11102 and the CCU 11201 is an electrical signal cable compatible with electrical signal communication, an optical fiber compatible with optical communication, or a composite cable thereof.
  • communication is performed by wire using the transmission cable 11400, but communication between the camera head 11102 and the CCU 11201 may be performed wirelessly.
  • the technology according to the present disclosure can be applied to the imaging unit 11402 of the camera head 11102 among the configurations described above.
  • the photodetection device 1 described in the above-described embodiments and modifications can be applied to the imaging unit 11402.
  • the present technology can be applied to all light detection devices, including not only the solid-state imaging device as an image sensor described above, but also a ranging sensor that measures distance, also called a ToF (Time of Flight) sensor.
  • a distance measurement sensor emits illumination light toward an object, detects the reflected light that is reflected back from the object's surface, and measures the flight from the time the illumination light is emitted until the reflected light is received. This is a sensor that calculates the distance to an object based on time.
  • the structure of this ranging sensor the structure of the pixel 3 described above can be adopted.
  • the supporting substrate 40 was attached to the side of the wiring layer 30 opposite to the semiconductor layer 20 side, but the photodetecting device 1 is a laminate in which two or more semiconductor substrates are stacked and stacked. It may be a type CIS (CMOS Image Sensor). In that case, at least one of the logic circuit 13 and the readout circuit 15 may be provided on a different semiconductor substrate from the semiconductor substrate on which the cell region 20a is provided.
  • CIS CMOS Image Sensor
  • the materials listed as constituting the above-mentioned components may contain additives, impurities, and the like.
  • the present technology may have the following configuration.
  • a semiconductor layer having a plurality of cell regions arranged in row and column directions in a pixel region, one surface being an element formation surface and the other surface being a light incident surface; a deflection layer provided at a position facing the light entrance surface of the cell region, or provided at a portion of the cell region on the light entrance surface side,
  • the cell region includes a photoelectric conversion element, a light shielding film extending in a direction perpendicular to the thickness direction of the semiconductor layer, and a light shielding film located closer to the element formation surface than the light shielding film in the thickness direction of the semiconductor layer.
  • the deflection layer has a first region having a first refractive index and a second region having a second refractive index higher than the first refractive index at different positions in plan view for each cell region, The second region is located at a position overlapping the light shielding film in plan view, Photodetection device.
  • the light shielding film includes a first light shielding film and a second light shielding film located closer to the light incident surface than the first light shielding film in the thickness direction, In plan view, the first light shielding film and the first region are on one side of the cell region, and the second light shielding film and the second region are on the other side of the cell region, The photodetecting device according to (1), wherein the second region is located at a position overlapping the second light shielding film in plan view. (3) In plan view, the charge holding portion is located at a position closer to the one side of the cell region, The photodetecting device according to (2), wherein the first light-shielding film and the first region are located at a position overlapping the charge holding section in plan view.
  • the cell region is quadrangular in plan view and has a first corner and a second corner that are opposite to each other,
  • the photodetecting device according to (2) or (3) wherein the one side of the cell area is the first corner side, and the other side of the cell area is the second corner side.
  • the charge holding portion is located near the first corner,
  • the photodetection device according to (4) wherein the first light-shielding film and the first region are located at a position overlapping the charge holding portion in plan view.
  • the semiconductor layer has a plurality of cell region aggregates each consisting of the four cell regions arranged in two rows and two columns and arranged in the row and column directions,
  • the second corner portions of the four cell regions constituting one cell region aggregate are corners located closer to the center of the cell region aggregate;
  • the first corner of each of the cell regions is a corner located closer to the corner of the cell region aggregate; (4) or (4), wherein the second area is provided in one unit for each cell area aggregate, and overlaps all the second corners in plan view for each cell area aggregate.
  • the photodetection device according to item 5).
  • the light-shielding film includes only one layer of film made of one light-shielding material, In plan view, the light shielding film and the second region are on one side of the cell region, and the first region is on the other side of the cell region, In plan view, the charge holding portion is located at a position closer to the one side of the cell region, The photodetection device according to (1), wherein the light shielding film and the second region are located at a position overlapping with the charge holding portion in plan view.
  • the cell area is quadrangular in plan view and has a first corner and a second corner facing each other, The photodetecting device according to (7), wherein the one side of the cell area is the first corner side, and the other side of the cell area is the second corner side.
  • the semiconductor layer has a plurality of cell region aggregates each consisting of the four cell regions arranged in two rows and two columns and arranged in the row and column directions,
  • the first corner portions of the four cell regions constituting one cell region aggregate are corners located near the center of the cell region aggregate;
  • the second corner of each of the cell regions is a corner located closer to the corner of the cell region aggregate;
  • the second region is provided collectively for each cell region aggregate, and overlaps all the first corners in plan view for each cell area aggregate.
  • the deflection layer is provided at a position facing the light incident surface of the cell region, and includes a first material and a second material having a higher refractive index than the first material, The photodetecting device according to any one of (1) to (9), wherein the first region is made of the first material, and the second region is made of the second material.
  • the deflection layer is provided at a position facing the light incident surface of the cell region, and includes a first material and a second material having a higher refractive index than the first material, The photodetector according to any one of (1) to (9), wherein the second material in the second region is thicker than the second material in the first region.
  • the photodetection device wherein the thickness of the second material gradually decreases from the second region to the first region.
  • the deflection layer is provided in a portion of the cell region on the light incident surface side, and includes a plurality of columnar bodies extending from the light incident surface in the thickness direction of the semiconductor layer for each cell region, The refractive index of the material constituting the columnar body is different from the refractive index of the semiconductor layer, The density of the columnar bodies provided in the first region is different from the density of the columnar bodies provided in the second region, (1) to (5), (7), and (8). ).
  • the refractive index of the material constituting the columnar body is lower than the refractive index of the semiconductor layer,
  • the cell area includes a first cell area, a second cell area, and a third cell area,
  • the color filter includes a first filter for a first color light provided for the first cell area, and a second filter for a second color light provided for the second cell area and having a shorter wavelength than the first color light.
  • the difference in refractive index between the first region and the second region of the deflection layer provided in the first cell region is the difference in refractive index between the first region and the second region of the deflection layer provided in the second cell region. larger than the refractive index difference with the region, The refractive index difference between the first region and the second region of the deflection layer provided in the second cell region is the same as the difference in refractive index between the first region and the second region of the deflection layer provided in the third cell region.
  • a color filter provided on a side opposite to the semiconductor layer side of the deflection layer;
  • the cell area includes a first cell area, a second cell area, and a third cell area,
  • the color filter includes a first filter for a first color light provided for the first cell area, and a second filter for a second color light provided for the second cell area and having a shorter wavelength than the first color light.
  • a second filter, and a third filter for third color light which is provided for the third cell region and has a shorter wavelength than the second color light;
  • the photodetection device according to (13) or (14), wherein the deflection layer is provided only for the first cell region, or only for the first cell region and the second cell region.
  • the photodetection device according to (15) or (16), wherein the first color light is red, the second color light is green, and the third color light is blue.
  • the center of the second area is at the center of the cell area aggregate in plan view, In the cell area aggregate located closer to the edge than the center of the pixel area, in plan view, the center of the second area is located closer to the center of the pixel area than the center of the cell area aggregate.
  • the cell region includes a first transistor capable of transferring signal charges from the photoelectric conversion element to the charge storage region, a charge storage region, and a second transistor capable of transferring signal charges from the charge storage region to the charge storage region.
  • the photodetection device according to any one of (1) to (18), comprising: (20) comprising a photodetection device and an optical system that forms an image of image light from a subject on the photodetection device,
  • the photodetection device includes: a semiconductor layer having a plurality of cell regions arranged in row and column directions in a pixel region, one surface being an element formation surface and the other surface being a light incident surface; a deflection layer provided at a position facing the light entrance surface of the cell region, or provided at a portion of the cell region on the light entrance surface side,
  • the cell region includes a photoelectric conversion element, a light shielding film extending in a direction perpendicular to the thickness direction of the semiconductor layer, and a light shielding film located closer to the element
  • the deflection layer has a first region having a first refractive index and a second region having a second refractive index higher than the first refractive index at different positions in plan view for each cell region, The second region is located at a position overlapping the light shielding film in plan view, Electronics.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

撮影画像の劣化を抑制可能な光検出装置を提供する。光検出装置は、画素領域において行方向及び列方向に配列された複数のセル領域を有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層と、セル領域の光入射面に対向した位置に設けられた、若しくは、セル領域の光入射面側の部分に設けられた偏向層と、を備え、セル領域内には、光電変換素子と、半導体層の厚み方向に垂直な方向に沿って延在した遮光膜と、半導体層の厚み方向において遮光膜より素子形成面寄りに位置した電荷保持部と、が設けられていて、偏向層は、セル領域毎に、平面視で異なる位置に、第1屈折率を有する第1領域と、第1屈折率より高い第2屈折率を有する第2領域とを有し、第2領域は、平面視で遮光膜と重なる位置にある。

Description

光検出装置及び電子機器
 本技術(本開示に係る技術)は、光検出装置及び電子機器に関し、特に、電荷保持部を有する光検出装置及び電子機器に関する。
 光電変換部から転送された電荷を保持する電荷保持部を、フローティングディフュージョンとは別に画素内に備えたグローバルシャッタ方式の固体撮像装置が開発されている。このような固体撮像装置において、電荷保持部に光が入射すると、電荷保持部でPLS(Parasitic Light Sensitivity)と呼ばれノイズが生じる可能性がある。そこで、光が電荷保持部に入射しないように、遮光膜を設ける場合がある(例えば特許文献1)。
特開2013-098446
 固体撮像装置において、光の入射角度によっては画素の出力に変化が生じる場合があった。本技術は、撮影画像の劣化を抑制可能な光検出装置及び電子機器を提供することを目的とする。
 本技術の一態様に係る光検出装置は、画素領域において行方向及び列方向に配列された複数のセル領域を有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層と、上記セル領域の上記光入射面に対向した位置に設けられた、若しくは、上記セル領域の上記光入射面側の部分に設けられた偏向層と、を備え、上記セル領域内には、光電変換素子と、上記半導体層の厚み方向に垂直な方向に沿って延在した遮光膜と、上記半導体層の厚み方向において上記遮光膜より上記素子形成面寄りに位置した電荷保持部と、が設けられていて、上記偏向層は、上記セル領域毎に、平面視で異なる位置に、第1屈折率を有する第1領域と、上記第1屈折率より高い第2屈折率を有する第2領域とを有し、上記第2領域は、平面視で上記遮光膜と重なる位置にある。
 本技術の一態様に係る電子機器は、上記光検出装置と、上記光検出装置に被写体からの像光を結像させる光学系と、を備える。
本技術の第1実施形態に係る光検出装置の一構成例を示すチップレイアウト図である。 本技術の第1実施形態に係る光検出装置の一構成例を示すブロック図である。 本技術の第1実施形態に係る光検出装置の画素の等価回路図である。 本技術の第1実施形態に係る光検出装置の画素の断面構成を示す縦断面図である。 本技術の第1実施形態に係る光検出装置において、偏向層により主光線が偏向される様子を示す説明図である。 図4AのA-A切断線に沿って断面視した時の、区画壁と、遮光膜と、第2領域との位置関係を示す横断面図である。 本技術の第1実施形態に係る光検出装置において、第1遮光膜と、第2遮光膜と、電荷保持部との位置関係を示す説明図である。 本技術の第1実施形態に係る光検出装置において、画素内で偏向された主光線を示す説明図である。 本技術の第1実施形態に係る光検出装置の製造方法を示す工程断面図である。 図5Aに引き続く工程断面図である。 図5Bに引き続く工程断面図である。 図5Cに引き続く工程断面図である。 図5Dに引き続く工程断面図である。 図5Eに引き続く工程断面図である。 図5Fに引き続く工程断面図である。 図5Gに引き続く工程断面図である。 図5Hに引き続く工程断面図である。 図5Iに引き続く工程断面図である。 偏向層を有さない光検出装置において、画素内を進む主光線を示す説明図である。 偏向層を有さない光検出装置において、画素3の出力と主光線の入射角度との関係を示す図である。 本技術の第1実施形態に係る光検出装置において、画素3の出力と主光線の入射角度との関係を示す図である。 本技術の第1実施形態の変形例1に係る第2領域の平面形状を示す平面図である。 本技術の第1実施形態の変形例1に係る第2領域の平面形状を示す平面図である。 本技術の第1実施形態の変形例2に係る光検出装置の画素の断面構成を示す縦断面図である。 本技術の第1実施形態の変形例2に係る光検出装置の製造方法を示す工程断面図である。 図10Aに引き続く工程断面図である。 図10Bに引き続く工程断面図である。 本技術の第1実施形態の変形例3に係る光検出装置の画素の断面構成を示す縦断面図である。 本技術の第1実施形態の変形例3に係る光検出装置の製造方法を示す工程断面図である。 図12Aに引き続く工程断面図である。 本技術の第1実施形態の変形例4に係る光検出装置の画素の断面構成を示す縦断面図である。 図13AのA-A切断線に沿って断面視した時の、区画壁と、遮光膜と、第2領域との位置関係を示す横断面図である。 本技術の第2実施形態に係る光検出装置の画素の断面構成を示す縦断面図である。 図14AのA-A切断線に沿って断面視した時の、柱状体の分布を示す画素の横断面図である。 本技術の第2実施形態に係る光検出装置の製造方法を示す工程断面図である。 図15Aに引き続く工程断面図である。 図15Bに引き続く工程断面図である。 図15Cに引き続く工程断面図である。 本技術の第2実施形態の変形例1に係る光検出装置の、柱状体の分布を示す画素の横断面図である。 本技術の第2実施形態の変形例2に係る光検出装置の、柱状体の分布を示す画素の横断面図である。 本技術の第2実施形態の変形例3に係る光検出装置の、柱状体の分布を示す画素の横断面図である。 本技術の第3実施形態に係る光検出装置における瞳補正を説明する説明図である。 本技術の第4実施形態に係る光検出装置の画素の断面構成を示す縦断面図である。 本技術の第4実施形態に係る光検出装置の区画壁の平面形状を示す画素の横断面図である。 本技術の第4実施形態に係る光検出装置の区画壁の平面形状を示す画素の横断面図である。 電子機器の概略的な構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。
 以下において、図面を参照して本開示の実施形態を説明する。以下の説明で参照する図面の記載において、同一又は類似の部分には同一又は類似の符号を付し、重複する説明を省略する。但し、図面は模式的なものであり、厚みと平面寸法との関係、各装置や各部材の厚みの比率等は現実のものと異なることに留意すべきである。したがって、具体的な厚みや寸法は以下の説明を参酌して判定すべきものである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、本技術を説明するのに適した図面を採用しているため、図面相互間において構成の相違がある場合がある。
 また、以下の説明における上下等の方向の定義は、単に説明の便宜上の定義であって、本開示の技術的思想を限定するものではない。例えば、対象を90°回転して観察すれば上下は左右に変換して読まれ、180°回転して観察すれば上下は反転して読まれることは勿論である。
 なお、本明細書中に記載される効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
 説明は以下の順序で行う。
1.第1実施形態
2.第2実施形態
3.第3実施形態
4.第4実施形態
5.第5実施形態
   電子機器への応用例
   移動体への応用例
   内視鏡手術システムへの応用例
 [第1実施形態]
 この実施形態では、裏面照射型のCMOS(Complementary Metal Oxide Semiconductor)イメージセンサである光検出装置に本技術を適用した一例について説明する。
 ≪光検出装置の全体構成≫
 まず、光検出装置1の全体構成について説明する。図1に示すように、本技術の第1実施形態に係る光検出装置1は、平面視したときの二次元平面形状が方形状の半導体チップ2を主体に構成されている。すなわち、光検出装置1は、半導体チップ2に搭載されている。この光検出装置1は、図22に示すように、光学系(光学レンズ)102を介して被写体からの像光(入射光106)を取り込み、撮像面上に結像された入射光106の光量を画素単位で電気信号に変換して画素信号として出力する。
 図1に示すように、光検出装置1が搭載された半導体チップ2は、互いに交差するX方向及びY方向を含む二次元平面において、中央部に設けられた方形状の画素領域2Aと、この画素領域2Aの外側に画素領域2Aを囲むようにして設けられた周辺領域2Bとを備えている。
 画素領域2Aは、例えば図22に示す光学系102により集光される光を受光する受光面である。そして、画素領域2Aには、X方向及びY方向を含む二次元平面において複数の画素3が行列状に配置されている。換言すれば、画素3は、二次元平面内で互いに交差するX方向及びY方向のそれぞれの方向に繰り返し配置されている。なお、本実施形態においては、一例としてX方向とY方向とが直交している。また、X方向とY方向との両方に直交する方向がZ方向(厚み方向、積層方向)である。また、Z方向に垂直な方向が水平方向である。
 図1に示すように、周辺領域2Bには、複数のボンディングパッド14が配置されている。複数のボンディングパッド14の各々は、例えば、半導体チップ2の二次元平面における4つの辺の各々の辺に沿って配列されている。複数のボンディングパッド14の各々は、半導体チップ2を外部装置と電気的に接続する際に用いられる入出力端子である。
 <グローバルシャッタ方式>
 光検出装置1は、グローバルシャッタ方式を採用している。グローバルシャッタ方式とは、基本的には全画素同時に露光を開始し、全画素同時に露光を終了するグローバル露光を行う方式である。ここで、全画素とは、画像に現れる部分の画素の全てということであり、ダミー画素等は除外される。また、時間差や画像の歪みが大きくならない程度に十分小さければ、全画素同時ではなく、複数行(例えば、数十行)単位でグローバル露光を行いながら、グローバル露光を行う領域を移動する方式もグローバルシャッタ方式に含まれる。また、画像に表れる部分の画素の全てでなく、所定領域の画素に対してグローバル露光を行う方式もグローバルシャッタ方式に含まれる。
 <ロジック回路>
 図2に示すように、半導体チップ2は、ロジック回路13を備えている。ロジック回路13は、垂直駆動回路4、カラム信号処理回路5、水平駆動回路6、出力回路7及び制御回路8などを含んでいる。ロジック回路13は、電界効果トランジスタとして、例えば、nチャネル導電型のMOSFET(Metal Oxide Semiconductor Field Effect Transistor)及びpチャネル導電型のMOSFETを有するCMOS(Complenentary MOS)回路で構成されている。
 垂直駆動回路4は、例えばシフトレジスタによって構成されている。垂直駆動回路4は、所望の画素駆動線10を順次選択し、選択した画素駆動線10に画素3を駆動するためのパルスを供給し、各画素3を行単位で駆動する。即ち、垂直駆動回路4は、画素領域2Aの各画素3を行単位で順次垂直方向に選択走査し、各画素3の光電変換素子が受光量に応じて生成した信号電荷に基づく画素3からの画素信号を、垂直信号線11(VSL)を通してカラム信号処理回路5に供給する。
 カラム信号処理回路5は、例えば画素3の列毎に配置されており、1行分の画素3から出力される信号に対して画素列毎にノイズ除去等の信号処理を行う。例えばカラム信号処理回路5は、画素固有の固定パターンノイズを除去するためのCDS(Correlated Double Sampling:相関2重サンプリング)及びAD(Analog Digital)変換等の信号処理を行う。カラム信号処理回路5の出力段には水平選択スイッチ(図示せず)が水平信号線12との間に接続されて設けられる。
 水平駆動回路6は、例えばシフトレジスタによって構成されている。水平駆動回路6は、水平走査パルスをカラム信号処理回路5に順次出力することによって、カラム信号処理回路5の各々を順番に選択し、カラム信号処理回路5の各々から信号処理が行われた画素信号を水平信号線12に出力させる。
 出力回路7は、カラム信号処理回路5の各々から水平信号線12を通して順次に供給される画素信号に対し、信号処理を行って出力する。信号処理としては、例えば、バッファリング、黒レベル調整、列ばらつき補正、各種デジタル信号処理等を用いることができる。
 制御回路8は、垂直同期信号、水平同期信号、及びマスタクロック信号に基づいて、垂直駆動回路4、カラム信号処理回路5、及び水平駆動回路6等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路8は、生成したクロック信号や制御信号を、垂直駆動回路4、カラム信号処理回路5、及び水平駆動回路6等に出力する。
 <画素>
 図3は、画素3の一構成例を示す等価回路図である。画素3は、例えば、光電変換素子PDと、第1転送トランジスタTRXと、第2転送トランジスタTRMと、電荷保持部MEMと、第3転送トランジスタTRGと、電荷蓄積領域(フローティングディフュージョン:Floating Diffusion)FDと、排出トランジスタOFGとを有している。また、画素3は、電荷蓄積領域FDを介して読出し回路15に電気的に接続されている。読出し回路15は、画素3から出力された電荷に基づく画素信号を出力する。読出し回路15は、図示の例では、4つの画素3ごとに一つ設けられている。すなわち、4つの画素3は、1つの読出し回路15を共有している。ここで、「共有」とは、4つの画素3の出力が、同じ一つの読出し回路15に入力されることを指している。読出し回路15は、例えば、リセットトランジスタRSTと、選択トランジスタSELと、増幅トランジスタAMPとを有している。
 光電変換素子PDは、入射した光を光電変換する。光電変換素子PDは、光電変換を行って受光量に応じた電荷を発生する。光電変換素子PDのカソードが第1転送トランジスタTRXのソースに電気的に接続されており、光電変換素子PDのアノードが基準電位線(例えばグラウンドGND)に電気的に接続されている。
 第1転送トランジスタTRXは、光電変換素子PDと第2転送トランジスタTRMとの間に接続されており、ゲート電極(垂直ゲート電極TRXG)に印加される制御信号に応じて、光電変換素子PDに蓄積されている電荷を第2転送トランジスタTRMに転送する第1トランジスタである。第1転送トランジスタTRXは、光電変換素子PDから電荷保持部MEMに電荷を転送する。第1転送トランジスタTRXは、垂直ゲート電極TRXGを有している。第1転送トランジスタTRXのドレインが第2転送トランジスタTRMのソースに電気的に接続されており、第1転送トランジスタTRXのゲートは画素駆動線に接続されている。
 第2転送トランジスタTRMは、第1転送トランジスタTRXと第3転送トランジスタTRGとの間に接続されており、ゲート電極に印加される制御信号に応じて、電荷保持部MEMのポテンシャルを制御する。例えば、第2転送トランジスタTRMがオンしたとき、電荷保持部MEMのポテンシャルが深くなり、第2転送トランジスタTRMがオフしたとき、電荷保持部MEMのポテンシャルが浅くなる。そして、例えば、第1転送トランジスタTRXおよび第2転送トランジスタTRMがオンすると、光電変換素子PDに蓄積されている電荷が、第1転送トランジスタTRXおよび第2転送トランジスタTRMを介して、電荷保持部MEMに転送される。第2転送トランジスタTRMのドレインが第3転送トランジスタTRGのソースに電気的に接続されており、第2転送トランジスタTRMのゲートは画素駆動線に接続されている。
 電荷保持部MEMは、グローバルシャッタ機能を実現するために、光電変換素子PDに蓄積された電荷を一時的に保持する拡散領域である。電荷保持部MEMは、光電変換素子PDから転送された電荷を保持する。
 第3転送トランジスタTRGは、第2転送トランジスタTRMと電荷蓄積領域FDとの間に接続されており、ゲート電極に印加される制御信号に応じて、電荷保持部MEMに保持されている電荷を電荷蓄積領域FDに転送する第2トランジスタである。例えば、第2転送トランジスタTRMがオフし、第3転送トランジスタTRGがオンすると、電荷保持部MEMに保持されている電荷が、第2転送トランジスタTRMおよび第3転送トランジスタTRGを介して、電荷蓄積領域FDに転送される。第3転送トランジスタTRGのドレインが電荷蓄積領域FDに電気的に接続されており、第3転送トランジスタTRGのゲートは画素駆動線に接続されている。
 電荷蓄積領域FDは、第3転送トランジスタTRGを介して光電変換素子PDから出力された電荷を一時的に保持する拡散領域、より具体的には浮遊拡散領域である。電荷蓄積領域FDには、例えば、リセットトランジスタRSTが接続されるとともに、増幅トランジスタAMPおよび選択トランジスタSELを介して垂直信号線VSL(11)が接続されている。
 排出トランジスタOFGでは、ドレインが電源線VDDに接続され、ソースが第1転送トランジスタTRXと第2転送トランジスタTRMの間に接続されている。排出トランジスタOFGは、ゲート電極に印加される制御信号に応じて、光電変換素子PDを初期化(リセット)する。例えば、第1転送トランジスタTRXおよび排出トランジスタOFGがオンすると、光電変換素子PDの電位が電源線VDDの電位レベルにリセットされる。すなわち、光電変換素子PDの初期化が行われる。また、排出トランジスタOFGは、例えば、第1転送トランジスタTRXと電源線VDDの間にオーバーフローパスを形成し、光電変換素子PDから溢れた電荷を電源線VDDに排出する。
 リセットトランジスタRSTでは、ドレインが電源線VDDに接続され、ソースが電荷蓄積領域FDに接続されている。リセットトランジスタRSTは、ゲート電極に印加される制御信号に応じて、電荷保持部MEMから電荷蓄積領域FDまでの各領域を初期化(リセット)する。例えば、第3転送トランジスタTRGおよびリセットトランジスタRSTがオンすると、電荷保持部MEMおよび電荷蓄積領域FDの電位が電源線VDDの電位レベルにリセットされる。すなわち、電荷保持部MEMおよび電荷蓄積領域FDの初期化が行われる。
 増幅トランジスタAMPは、ゲート電極が電荷蓄積領域FDに接続され、ドレインが電源線VDDに接続されており、光電変換素子PDでの光電変換によって得られる電荷を読み出すソースフォロワ回路の入力部となる。すなわち、増幅トランジスタAMPは、ソースが選択トランジスタSELを介して垂直信号線VSLに接続されることにより、垂直信号線VSLの一端に接続される定電流源とソースフォロワ回路を構成する。
 選択トランジスタSELは、増幅トランジスタAMPのソースと垂直信号線VSLとの間に接続されており、選択トランジスタSELのゲート電極には、選択信号として制御信号が供給される。選択トランジスタSELは、制御信号がオンすると導通状態となり、選択トランジスタSELに連結された画素3が選択状態となる。画素3が選択状態になると、増幅トランジスタAMPから出力される画素信号が垂直信号線VSLを介してカラム信号処理回路5に読み出される。
 ≪光検出装置の具体的な構成≫
 次に、光検出装置1の具体的な構成について、図4Aから図4Eまでを用いて説明する。図4Aは、図4CのB-B切断線に沿って断面視した時の画素3の断面構成を示している。なお、図4A及びそれ以降の図面において、半導体層の露出面を覆うピニング層、及び金属材料と半導体層20との間を絶縁する絶縁膜等の図示を省略している場合がある。
 <光検出装置の積層構造>
 図4Aに示すように、光検出装置1が搭載された半導体チップ2は、光入射面側積層体60と、半導体層20と、配線層30と、支持基板40と、をこの順で積層した積層構造を備えている。光入射面側積層体60は、偏向層70を含んでいる。光入射面側積層体60は、これには限定されないが、例えば、第2の面S2側から、絶縁層62と、偏向層70と、絶縁層63と、カラーフィルタ64と、オンチップレンズであるマイクロレンズ65と、をこの順で積層した積層構造を有する。以下、半導体層20から説明する。
 <半導体層>
 半導体層20は、半導体基板で構成されている。半導体層20は、これには限定されないが、例えば、単結晶シリコン基板で構成されていて、一方の面が第1の面S1であり、他方の面が第2の面S2である。なお、第2の面S2を光入射面又は裏面と呼び、第1の面S1を素子形成面又は主面と呼ぶこともある。半導体層20の画素領域2Aに相当する部分には、行方向及び列方向に配列された複数のセル領域20aが設けられている。セル領域20aは、画素3毎に設けられている。例えば、図4Aに示すように、半導体層20の画素領域2Aに相当する部分には、分離領域20bで区画された島状のセル領域20aが画素3毎に設けられている。そして、分離領域20bは、例えば、半導体層20に厚み方向に沿って溝を形成し、形成した溝内に後述の区画壁51を構成する材料を埋め込んだトレンチ構造である。セル領域20aは、セル領域20a毎に、第1導電型(例えばp型)の半導体領域と、第2導電型(例えばn型)の半導体領域とを有し、セル領域20a内の一部領域において、光電変換が行われる。また、画素3の数は、図4Aに限定されるものではない。
 図4Cは、図4AのA-A切断線に沿って断面視した時の、区画壁51と、後述の遮光膜52と、後述の第2領域72との位置関係を示している。また、図4Cは、複数の画素3のうち、4行4列の画素を抜き出して例示している。セル領域20aは、平面視で、例えば正方形や長方形等の四角形である。そして、2行2列の4つのセル領域20aは、1つのセル領域集合体B1を構成している。そして、半導体層20は、行方向及び列方向に配列されたセル領域集合体B1を複数有している。平面視におけるセル領域20aの4つの角部のうち、前記セル領域集合体B1の角部寄りに位置する角部を、それ以外の3つの角部と区別するために、第1角部と呼ぶ場合がある。また、平面視におけるセル領域20aの4つの角部のうち、前記セル領域集合体B1の中央寄りに位置する角部を、それ以外の3つの角部と区別するために、第2角部と呼ぶ場合がある。また、第1角部及び第2角部は、セル領域20aの対角線方向に対向する角部である。なお、第1角部と第2角部とを区別しない場合、単に角部と呼ぶ。
 半導体層20の画素領域2Aに相当する部分には、例えば、図3に示した光電変換素子PD、拡散領域、及び各種トランジスタ等が構成されている。例えば、図4Aに示す例では、そのような素子及び拡散領域のうち、少なくとも、光電変換素子PD、電荷保持部MEM、第1転送トランジスタTRX、及び第2転送トランジスタTRMが、各セル領域20a内に構成されている。電荷保持部MEMは、半導体層20の厚み方向において、後述の遮光膜52、より具体的には第1遮光膜52aより第1の面S1寄り(素子形成面寄り)に位置している。なお、図4A及びそれ以降の図面において、少なくとも一部の素子及び拡散領域等の図示を省略する場合がある。
 <遮光部>
 遮光部50は、区画壁51と、遮光膜52と、画素間遮光膜53と、を有する。以下、区画壁51から説明する。図4Aに示すように、区画壁51は、半導体層20の厚み方向(Z方向)に沿って延在し、セル領域20a同士の間を区画するトレンチ構造を有している。本実施形態では、区画壁51は、FTI(Full Trench Isolation)である。図4Cに示すように、区画壁51のうちZ方向及びX方向に沿って延在した部分が、Y方向に隣接するセル領域20a同士の間を区画し、Z方向及びY方向に沿って延在した部分が、X方向に隣接するセル領域20a同士の間を区画している。
 区画壁51は、第1区画壁51aと、第2区画壁51bとを含む。第1区画壁51aは、Z方向及びX方向に沿って延在する壁51a1と、Z方向及びY方向に沿って延在し且つ壁51a1に交差する壁51a2とを有する。壁51a1と壁51a2とは互いの中央部において交差していて、第1区画壁51aは平面視で十字形を呈している。同様に、第2区画壁51bは、Z方向及びX方向に沿って延在する壁51b1と、Z方向及びY方向に沿って延在し且つ壁51b1に交差する壁51b2とを有する。壁51b1と壁51b2とは互いの中央部において交差していて、第2区画壁51bは平面視で十字形を呈している。なお、第1区画壁51aと第2区画壁51bとを互いに区別しない場合、単に区画壁51と呼ぶ。また、平面視において、壁51a1と壁51a2との交点を十字中心Caと呼び、壁51b1と壁51b2との交点を十字中心Cbと呼ぶ。十字中心Cbは、セル領域集合体B1の中央付近に位置し、4つの第2角部が集まったところに位置している。そして、十字中心Caは、セル領域集合体B1の角部付近に位置し、4つの第1角部が集まったところに位置している。
 第1区画壁51aと第2区画壁51bとは互いに間隔を空けて設けられていて、互いに接続されていない。そして、セル領域20aの平面視対角線方向に沿って、第1区画壁51aと第2区画壁51bとが交互に配列されている。より具体的には、平面視において、十字中心Caと十字中心Cbとが、セル領域20aの対角線方向に沿って交互に配列されている。また、十字中心Ca及び十字中心Cbは、それぞれ行方向及び列方向に沿って複数配列されている。このような構成により、1つのセル領域20aは、平面視の4辺のうち隣接する2辺が第1区画壁51aにより区画され、残りの隣接する2辺が第2区画壁51bにより区画されている。
 遮光膜52は、セル領域20aに入射した光が電荷保持部MEMに入射し難くするために設けられている。図4Aに示すように、遮光膜52は、半導体層20の厚み方向(Z方向)に垂直な方向(水平方向)に沿って延在し、区画壁51に接続されている。遮光膜52は、第1遮光膜52aと、厚み方向において第1遮光膜52aより第2の面S2(光入射面)寄りに位置する第2遮光膜52bとを含む。換言すると、第2遮光膜52bは、第1遮光膜52aより第2の面S2寄りの位置において、区画壁51に接続されている。そして、図4Cに示すように、平面視で、第1遮光膜52aはセル領域20aの一方側にあり、第2遮光膜52bはセル領域20aの他方側にある。より具体的には、セル領域20aの一方側は第1角部側であり、セル領域集合体B1の角部側である。また、セル領域20aの他方側は第2角部側であり、セル領域集合体B1の中央側である。なお、第1遮光膜52aと第2遮光膜52bとを互いに区別しない場合、単に遮光膜52と呼ぶ。
 第1遮光膜52aは、第1区画壁51aの壁51a1及び壁51a2から水平方向に沿って延在している。より具体的には、第1遮光膜52aは、平面視で、十字中心Caを中心に2行2列のセル領域20aに亘って放射状に延び、第1区画壁51aとあわせて六角形状をなしている。なお、第1遮光膜52aは、第2角部には達していない。また、第2遮光膜52bは、第2区画壁51bの壁51b1及び壁51b2から水平方向に沿って延在している。より具体的には、第2遮光膜52bは、平面視で、十字中心Cbを中心に2行2列のセル領域20aに亘って放射状に延び、第2区画壁51bとあわせて六角形状をなしている。なお、第2遮光膜52bは、第1角部には達していない。
 図4Dに示すように、電荷保持部MEMは、平面視で、セル領域20aの一方側と他方側とのうちの一方側寄りの位置、より具体的には第1角部と第2角部とのうちの第1角部(十字中心Ca)寄りの位置にある。そして、第1遮光膜52aは、平面視で電荷保持部MEMと重なる位置にある。換言すると、平面視で電荷保持部MEMと重なる位置に第1遮光膜52aが設けられている。また、図4Cに示すように、第1遮光膜52aと第2遮光膜52bとは、平面視においてその一部分が互いに重なり合っているので、セル領域20aに入射した光が電荷保持部MEMに入射し難い。
 図4Aに示すように、画素間遮光膜53は、画素3の境界の領域でマイクロレンズ65より半導体層20側に配置され、隣接する画素から漏れ込む迷光を遮蔽する。より具体的には、画素間遮光膜53は、区画壁51の第2の面S2側寄りの端部に沿って設けられている。
 遮光部50は、光を遮光する材料で構成することが望ましい。遮光部50は、これには限定されないが、例えば、タングステン、アルミニウム、銅等の金属材料から構成しても良い。遮光部50を導電性の材料により形成した場合には、半導体層20との間を絶縁膜により絶縁する必要がある。絶縁膜としては、これには限定されないが、例えば、酸化シリコンを挙げることができる。また、区画壁51と、遮光膜52と、画素間遮光膜53とのうちの複数の部材を同じ材料で構成しても良い。本実施形態では、区画壁51と、遮光膜52と、画素間遮光膜53との全ての部材を、タングステンにより構成する場合について、説明する。
 <偏向層>
 図4Aに示すように、偏向層70は、Z方向において、セル領域20aの第2の面S2(光入射面)に対向した位置に設けられている。偏向層70は、セル領域20a毎に平面視で異なる位置に、第1屈折率を有する第1領域71と、第1屈折率より高い第2屈折率を有する第2領域72とを有し、第2領域72は、平面視で遮光膜52と重なる位置にある。より具体的には、平面視で、第2領域72は第2遮光膜52bと重なる位置にある。また、1つのセル領域20a内において、平面視で、第1遮光膜52a及び第1領域71はセル領域20aの一方側にあり、第2遮光膜52b及び第2領域72はセル領域20aの他方側にある。そして、平面視で、第1遮光膜52a及び第1領域71は、電荷保持部MEMと重なる位置にある。換言すると、偏向層70は、平面視で第1遮光膜52aに重なる位置に第1屈折率の第1領域71を有し、第2遮光膜52bに重なる位置に第1屈折率より高い第2屈折率の第2領域72を有している。なお、本実施形態では、2行2列のセル領域20a各々が有する第2領域72を、まとめて1つの連続した平板状の部材73で構成している。部材73の厚みはほぼ均一であり、大きく変化している訳ではない。また、2行2列のセル領域20a各々が有する第1領域71を、まとめて絶縁層63の一部を構成する連続した部材で構成している。なお、図4Aには、図示された範囲内で第1領域71を示している。第1領域71は、例えば、絶縁層63のうちの第2領域72同士の間に埋め込まれた(位置した)部分である。
 光検出装置1に入射した主光線L1は、偏向層70を通過した後セル領域20aに入射する。一般的に、光は、屈折率が高い媒体において、屈折率が低い媒体より、進む速度が遅い。そのため、偏向層70に入射した主光線L1は、図4Bに示すように、第2領域72における進行速度が第1領域71における進行速度より、遅くなる。より具体的には、主光線L1の波面Pは、第2領域72において第1領域71より遅く進む。その結果、主光線L1の波面Pが偏向され、主光線L1が、平面視で、第1領域71と第2領域72とのうちの第2領域72がある方向へ向けて偏向される。そして、図4Eに示すように、第2領域72は平面視で第2遮光膜52bと重なる位置にあるので、主光線L1は、各セル領域20aにおいて、平面視で、第1遮光膜52aと第2遮光膜52bとのうちの第2遮光膜52bがある方向へ向けて偏向される。より具体的には、主光線L1は、各セル領域20aにおいて、第1遮光膜52aから第2遮光膜52bへ向けて偏向される。すなわち、主光線L1はセル領域20aの一方側と他方側とのうちの他方側へ向けて偏向される。
 これにより、斜めに画素3に入射した主光線L1が、偏向層70により、セル領域20aの他方側に位置する第2遮光膜52bへ向けて偏向される。例えば、セル領域20aの一方側に位置する第1遮光膜52aへ向けて斜めに画素3に入射した主光線L1が、偏向層70により、セル領域20aの他方側に位置する第2遮光膜52b側へ向けて偏向される。これにより、第1遮光膜52aまで達する光の量を抑制できる。主光線L1が斜めに画素3に入射するのは、例えば、画素3が画素領域2Aの像高が高い位置にある場合や、光学系のF値が小さい場合である。そのような場合であっても、主光線L1が、偏向層70により、第2遮光膜52bへ向けて偏向されるので、第1遮光膜52aまで到達し難くなる。
 また、主光線L1は、画素3に対してZ方向に沿って真直ぐに入射した場合であっても、偏向層70により、セル領域20aの他方側に位置する第2遮光膜52bへ向けて偏向される。主光線L1がZ方向に沿って真直ぐに画素3に入射するのは、例えば、画素3が画素領域2Aの像高中央にある場合である。そのような場合であっても、主光線L1が、偏向層70により、第2遮光膜52bへ向けて偏向されるので、第1遮光膜52aまで到達し難くなる。
 また、図4Cに示すように、本実施形態では、偏向層70の第2領域72(部材73)は、セル領域集合体B1毎に1つにまとめて設けられていて、平面視で、六角形状をなしている。また、偏向層70の第2領域72(部材73)は、セル領域集合体B1毎に全ての(4つの)第2角部に平面視で重なる位置にある。より具体的には、平面視で、第2領域72は、セル領域集合体B1の中央に位置する十字中心Cbに重なる位置にあり、十字中心Cbに隣接する4つの第2角部の全てに重なる位置にある。また、図4Cでは符号を付していないが、平面視で第2領域72以外の領域が第1領域71に相当する。そのため、図4Cの矢印で示すように、主光線L1は、各セル領域20aにおいて、平面視で、第1角部と第2角部とのうちの十字中心Cbに隣接する第2角部へ向けて偏向される。より具体的には、主光線L1は、各セル領域20aにおいて、第1角部から第2角部へ向けて偏向される。
 なお、2行2列の4つのセル領域20aに対して1つの第2領域72を設ける場合の方が、セル領域20a毎に第2領域72を設ける場合より、偏向特性が向上する。例えば、1つの第2領域72を設けることにより、ミラー対象に配置された2行2列のセル領域20aのそれぞれで同じ効果を得ることができる。また、セル領域20aを跨いで第2領域72を設けることにより、第2領域72の領域が広がり、光を偏向する効果がより大きくなる。
 偏向層70は、第1材料と、第1材料より屈折率が高い第2材料とを含み、第1領域71は第1材料製であり、第2領域72すなわち部材73は第2材料製である。第1材料として、これには限定されないが、例えば、酸化シリコン(SiO)等の物質を挙げることができる。また、第2材料として、これには限定されないが、例えば、窒化シリコン(Si)、酸窒化シリコン(SiON)、シリコンカーバイド(SiC)、酸化ジルコニウム(ZrO)、酸化チタン(TiO)、硫化亜鉛(ZnS)、及び酸化亜鉛(ZnO)等の物質を挙げることができる。
 <光入射面側積層体>
 図4Aに示すように、光入射面側積層体60の絶縁層62は、公知の絶縁材料からなり、これには限定されないが、例えば、酸化シリコン製である。絶縁層62は、画素間遮光膜53を覆うように積層されていて、画素間遮光膜53を設けたことによる凹凸を平坦化する平坦化膜として機能する。
 絶縁層63は、偏向層70の第2領域72を覆うように積層されていて、第2領域72を設けたことによる凹凸を平坦化する平坦化膜として機能する。また、絶縁層63のうちの第2領域72同士の間に埋め込まれた部分、本実施形態では、図4Aに示す一点鎖線と絶縁層62のマイクロレンズ65寄りの面との間の部分は、偏向層70の第1領域71として機能する。絶縁層63は、第1材料により構成されている。
 カラーフィルタ64は、偏向層70の半導体層20側とは反対側にセル領域20a毎(画素3毎)に設けられている。カラーフィルタ64は、セル領域20aへの入射光を色分離する。カラーフィルタ64は、例えば、可視光を色分離する。カラーフィルタは、例えば樹脂性の材料で構成されている。マイクロレンズ65は、画素3毎に設けられている。マイクロレンズ65は、例えば樹脂性の材料で構成されている。
 <配線層及び支持基板>
 配線層30は、半導体層20の第1の面S1に対して積層された多層配線層である。配線層30は、絶縁膜31、配線32、及び図示しないビア(コンタクト)等を含む。配線32は、図示のように絶縁膜31を介して積層されている。絶縁膜31は、公知の絶縁材料で構成されていて、これには限定されないが、例えば、酸化シリコンからなる。配線32は、金属材料製である。配線層30を構成する材料として、これには限定されないが、例えば、銅(Cu)及びアルミニウム(Al)を挙げることができる。
 支持基板40は、配線層30の半導体層20側とは反対側に設けられている。支持基板40は、これには限定されないが、例えば、シリコン等の半導体基板である。
 ≪光検出装置の製造方法≫
 以下、図5Aから図5Jまでを参照して、光検出装置1の製造方法について説明する。まず、図5Aに示すように、半導体層20wの基板を用意する。半導体層20wには、光電変換素子PDを構成する位置に、第1導電型の半導体領域及び第2導電型の半導体領域がすでに構成してある。また、半導体層20wの基板は、面方位<111>を第1の面S1として有する。そして、公知のリソグラフィ技術及びエッチング技術(例えば、反応性イオンエッチング)を用いて、第1の面S1側から半導体層20wに対して、深さが異なる縦溝51avと縦溝51bvとを形成する。縦溝51avは、平面視で第1区画壁51aを設ける位置に形成し、縦溝51bvは、平面視で第2区画壁51bを設ける位置に形成する。縦溝51avは、第1の面S1に積層したハードマスクHMの開口部HMaを介して、第1遮光膜52aを形成する深さまで設けられている。そして、縦溝51bvは、ハードマスクHMの開口部HMbを介して、第2遮光膜52bを形成する深さまで設けられている。縦溝51bvを縦溝51avより深く設けている。このような溝の深さの違いは、まず、ハードマスクHMの開口部HMaをフォトレジストで埋めた上で縦溝51bvの一部をエッチングし、その後フォトレジストを除去した上で縦溝51avと縦溝51bvとの両方のエッチングを行うことにより、形成可能である。なお、後述の結晶性異方性エッチングにおいて、半導体層20wは、<111>方向にも幾分エッチングされる、従って、縦溝51av,51bvの深さは、<111>方向へのエッチングも考慮して設定されることが望ましい。
 また、図5Aに示すように、縦溝51av及び縦溝51bvの側壁に、保護膜m1を形成する。保護膜m1は、これには限定されないが、例えば、酸化シリコン製、又は窒化シリコンと酸化シリコンとの積層構造を有する。保護膜m1は、後述の結晶性異方性エッチングにおいて、そのエッチングレートが、シリコンのエッチングレートより十分低い材料により構成されていれば良い。保護膜m1は、成膜後、エッチバックにより縦溝51av及び縦溝51bvの底部に位置した部分を除去し、サイドウォールとする。
 次に、図5Bに示すように、公知の結晶性異方性エッチング技術を用いて、水平方向に沿って延びた横溝52ah及び横溝52bhを形成する。結晶性異方性エッチング技術は、例えば、アルカリ水溶液などのエッチング溶液を用いたエッチングであり、半導体層20wの<110>方向のエッチングレートが<111>方向のエッチングレートに対して、十分に高い。これにより、水平方向に沿って延びた横溝52ah及び横溝52bhを形成することができる。
 そして、図5Cに示すように、縦溝51av及び縦溝51bvをさらに深く掘り進める。より具体的には、横溝52ah及び横溝52bhを超えてさらに深く掘り進める。その後、保護膜m1を除去する。
 次に、図5Dに示すように、例えばALD(Atomic Layer Deposition)法等の公知の成膜技術を用いて、縦溝51av,51bv及び横溝52ah,52bhの露出面を、絶縁膜m2で覆う。絶縁膜m2は公知の絶縁材料であり、これには限定されないが、例えば、酸化シリコン膜である。そして、縦溝51av,51bv及び横溝52ah,52bh内の空洞部分を、犠牲膜SACで充填する。犠牲膜SACは、選択されたエッチャントにし、そのエッチングレートが絶縁膜m2のエッチングレートより十分高い材料により構成されている。犠牲膜SACは、これには限定されないが、例えば、ポリシリコン製である。なお、空洞部分のうち縦溝51av,51bvの第1の面S1付近の部分は、犠牲膜SACではなく絶縁膜m3で充填し、蓋をする。絶縁膜m3は公知の絶縁膜であり、これには限定されないが、例えば、酸化シリコン膜である。そして、CMP(化学機械研磨)法で平坦化し、ハードマスクHMを除去する。
 その後、図5Eに示すように、不純物注入により電荷保持部MEM等の拡散領域、及び各種トランジスタ等の素子を形成する。そして、第1の面S1に対して配線層30を形成し、配線層30の半導体層20w側とは反対側に支持基板40を貼り合わせる。
 次に、図5Fに示すように、半導体層20wを、第1の面S1とは反対側の面から研削して薄くする。研削は、これには限定されないが、例えば、CMP法のような公知の方法を用いて行う。この研削により半導体層20が残され、研削によって得られた面が第2の面S2である。そして、一部図示を省略するが、図5Gに示すように、図示しないハードマスクの開口部を通してアルカリ液を用いたウェットエッチングにより犠牲膜SACを除去し、その後、図示しないハードマスク及び絶縁膜m2を除去する。
 その後、図5Hに示すように、縦溝51av,51bv及び横溝52ah,52bhの露出面に対して、ピニング層m4及び絶縁膜m5をこの順で順次積層し、その後、縦溝51av,51bv及び横溝52ah,52bh内の空洞部分を、遮光材料m6で充填する。ピニング層m4を構成する材料として、これには限定されないが、例えば、酸化ハフニウム(HfO)、酸化ジルコニウム(ZrO)、及び酸化タンタル(Ta)などを挙げることができる。絶縁膜m5は公知の絶縁材料であり、これには限定されないが、例えば、酸化シリコン膜である。絶縁膜m5は、例えばALD法等の公知の成膜技術を用いて、成膜される。遮光材料m6は、遮光部50を構成する材料である。縦溝51av,51bv内の空洞部分に充填された遮光材料m6は区画壁51を構成し、横溝52ah,52bh内の空洞部分に充填された遮光材料m6は遮光膜52を構成する。その後、公知のリソグラフィ技術及びエッチング技術を用いて、半導体層20の第2の面S2側に、画素間遮光膜53を形成する。
 次に、図5Iに示すように、画素間遮光膜53を覆うように絶縁膜m7を積層し、積層した絶縁膜m7を平坦化して、絶縁層62を得る。そして、絶縁層62の露出面に第2材料からなる膜m8を成膜する。そして、図5Jに示すように、公知のリソグラフィ技術及びエッチング技術を用いて、膜m8のうち余分な部分を除去して、偏向層70の第2領域72(部材73)を得る。その後、第2領域72を覆うように絶縁膜m9を積層し、積層した絶縁膜m9を平坦化して、絶縁層63を得る。そして、絶縁層63の一部が図示のように偏向層70の第1領域71を構成する。
 その後、光入射面側積層体60を形成し、光検出装置1がほぼ完成する。そして、光検出装置1を個片化することにより、半導体チップ2を得る。
 ≪第1実施形態の主な効果≫
 以下、第1実施形態の主な効果を説明するが、その前に、図6Aに示す、偏向層70を有さない光検出装置について説明する。図6Aに示す光検出装置では、偏向層70を有さないので、主光線L1が第2遮光膜52bへ向けて偏向されていなかった。そのため、主光線L1の入射角度によっては、第1遮光膜52aと第2遮光膜52bとのうちの第1遮光膜52aに主光線L1が多く当たる場合と、第2遮光膜52bに主光線L1が多く当たる場合とがあった。第1遮光膜52aに主光線L1が多く当たる場合、第2遮光膜52bに主光線L1が多く当たる場合と比べて光路長が長くなり、半導体層20が実効的に厚く見え、感度が良くなっていた。そのため、図6Bに示すように、画素3の出力の入射角特性に、矢印で示すような非対称性が生じる可能性があった。より具体的には、矢印で示すように、特定の入射角度において画素3の出力が大きくなる可能性があった。
 そして、このような出力の非対称性により、主光線の入射角が斜入射になる半導体チップ2の画角端一方側と画角端他方側とにおいてシェーディング量に差が生じる可能性があった。なお、画角端一方側と画角端他方側とは互いに対向した画角端である。
 これに対して、本技術の第1実施形態に係る光検出装置1は、画素領域2Aにおいて行方向及び列方向に配列された複数のセル領域20aを有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層20と、セル領域20aの光入射面に対向した位置に設けられた偏向層70と、を備え、セル領域20a内には、光電変換素子PDと、半導体層20の厚み方向に垂直な方向に沿って延在した遮光膜52と、半導体層20の厚み方向において遮光膜52より素子形成面寄りに位置した電荷保持部MEMと、が設けられていて、偏向層70は、セル領域20a毎に、平面視で異なる位置に、第1屈折率を有する第1領域71と、第1屈折率より高い第2屈折率を有する第2領域72とを有し、第2領域72は、平面視で遮光膜52と重なる位置にある。光検出装置1がこのような構成を有するので、第1領域71と第2領域72との屈折率差により、主光線L1が、平面視で第2領域72と重なる遮光膜52へ向けて偏向される。
 より具体的には、本技術の第1実施形態に係る光検出装置1では、遮光膜52は、第1遮光膜52aと、厚み方向において第1遮光膜52aより光入射面寄りに位置する第2遮光膜52bとを含み、平面視で、第1遮光膜52a及び第1領域71はセル領域20aの一方側(第1角部側)にあり、第2遮光膜52b及び第2領域72はセル領域20aの他方側(第2角部側)にあり、平面視で、第2領域72は第2遮光膜52bと重なる位置にある。光検出装置1がこのような構成を有するので、図4Eに示すように、第1領域71と第2領域72との屈折率差により、主光線L1が、平面視で第2領域72と重なる第2遮光膜52bへ向けて偏向され、第1遮光膜52aまで到達し難くなる。これにより、セル領域20aに入射する主光線L1に光路長差が生じ難くなり、図7に示すように、画素3の出力の入射角特性の非対称性が大きくなるのを抑制でき、特定の入射角度において画素3の出力が大きくなるのを抑制できる。これにより、画角端一方側と画角端他方側とにおいてシェーディング量の差が大きくなるのを抑制できる。そして、撮影画像の劣化を抑制できる。
 また、本技術の第1実施形態に係る光検出装置1では、平面視で、電荷保持部MEMはセル領域20aの一方側(第1角部側)寄りの位置にあり、平面視で、第1遮光膜52a及び第1領域71は、電荷保持部MEMと重なる位置にある。このように、主光線L1は、第1遮光膜52aと第2遮光膜52bとのうち、厚み方向と水平方向との両方において電荷保持部MEMからより離れた位置にある第2遮光膜52bへ向けて偏向されるので、電荷保持部MEMに光がより入射し難くなり、PLSを抑制することができる。
 また、本技術の第1実施形態に係る光検出装置1では、半導体層20は、2行2列の4つのセル領域20aからなり且つ行方向及び列方向に配列されたセル領域集合体B1を複数有し、一のセル領域集合体B1を構成する4つのセル領域20aが有する第2角部はセル領域集合体B1の中央寄りに位置する角部であり、一のセル領域集合体B1を構成する4つのセル領域20aが有する第1角部は、セル領域集合体B1の角部寄りに位置する角部であり、第2領域72は、セル領域集合体B1毎に1つにまとめて設けられていて且つセル領域集合体B1毎に全ての第2角部に平面視で重なっている。このような構成により、ミラー対象に配置された2行2列のセル領域20aのそれぞれで同じ効果を得ることができる。また、セル領域20aを跨いで第2領域72を設けることにより、第2領域72の領域が広がり、光を偏向する効果がより大きくなる。
 なお、第1実施形態に係る光検出装置1では、絶縁層63のうちの第2領域72同士の間に埋め込まれた部分を偏向層70の第1領域71としていたが、本技術はこれには限定されない。第1領域71を、絶縁層63とは別の層により形成しても良い。
 また、第1実施形態に係る光検出装置1では、第2領域72をセル領域集合体B1毎に1つにまとめて設けていたが、セル領域20a毎に設けても良い。
 ≪第1実施形態の変形例≫
 以下、第1実施形態の変形例について、説明する。
 <変形例1>
 第1実施形態に係る光検出装置1において、偏向層70の第2領域72(部材73)は平面視で六角形状をなしていたが、本技術はこれには限定されない。第1実施形態の変形例1に係る光検出装置1の第2領域72(部材73)は、図8Aに示すように平面視で円形であっても良いし、図8Bに示すように平面視でひし形であっても良い。
 この第1実施形態の変形例1に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1と同様の効果が得られる。
 <変形例2>
 第1実施形態に係る光検出装置1において、第2材料からなる部材73は板状の部材でありその厚みがほぼ均一であったが、本技術はこれには限定されない。図9に示すように、第1実施形態の変形例2に係る光検出装置1の部材73は、その厚みが均一ではない。また、偏向層70の第1領域71は、平面視で主に第1遮光膜52aと重なる領域であり、第2領域72は、平面視で主に第2遮光膜52bと重なる領域である。そして、第1領域71と第2領域72との両方とも、部材73と絶縁層63との両方の層を含んでいて、第2領域72における部材73の厚みは、第1領域71における部材73の厚みより厚い。
 部材73は、図示は省略するが、セル領域集合体B1の中央においてその厚みが最も厚くなったレンズ状の部分を有している。そして、部材73の厚みは、第2領域72から第1領域71へ向けて徐々に薄くなっている。本実施形態では、部材73の厚みを変えることにより、偏向層70の屈折率を変えている。より具体的には、第1領域71における部材73の厚みを、第2領域72における部材73の厚みより薄くすることにより、第1領域71の屈折率(第1屈折率)を第2領域72の屈折率(第2屈折率)より低くしている。換言すると、セル領域20aの他方側(第2角部側)から一方側(第1角部側)へ向けて徐々に薄くなっている部材73のうち、薄い側が第1領域71を構成し、厚い側が第2領域72を構成している。部材73の厚みが薄い場合、厚い場合と比べて、部材73における主光線L1の光路長が短くなるので、波面Pの遅れが小さくなる。なお、部材73の厚みが均一ではない部分は、複数の画素3に亘って形成されている。
 以下、図10Aから図10Cまでを参照して、第1実施形態の変形例2に係る光検出装置1の製造方法について、上述の第1実施形態と異なる部分を中心に説明する。まず、第1実施形態で説明した処理のうち、図5Iに示す工程まで行う。そして、図10Aに示すように、第2材料からなる膜m8の露出面に、レジストパターンRM1を形成する。レジストパターンRM1は、平面視で部材73のうちレンズ状に残したい部分と重なる位置に、形成する。次に、図10Bに示すように、熱処理等によりレジストパターンRM1をリフローさせ、その厚みを、膜m8を厚く残したい部分程厚くなるようにしている。その後、レジストパターンRM1をマスクとして、膜m8をエッチングし、図10Cに示す部材73を得る。なお、エッチング後に残ったレジストパターンRM1は、剥離する。これ以降の処理は第1実施形態で説明した処理と同様であるので、説明を省略する。
 この第1実施形態の変形例2に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1と同様の効果が得られる。
 また、第1実施形態の変形例2に係る光検出装置1では、部材73の厚みは、第2領域72すなわちセル領域集合体B1の中央から第1領域71へ向けて徐々に薄くなっているので、部材73が第2領域72へ光を集めるレンズとしても機能することができる。
 <変形例3>
 図11に示すように、第1実施形態の変形例3に係る光検出装置1の部材73は、画素3毎にインナーレンズLNZを備えている。インナーレンズLNZはオンチップレンズであり、部材73とカラーフィルタ64との間に設けられている。画素3を高配化すると、ある角度の光が半導体層に入射し難くなる場合がある。インナーレンズLNZを設けると、画素同士を区画する区画壁に光が当たるのを抑制できる。これにより、斜入射特性が劣化するのを抑制できる。
 以下、図12A及び図12Bを参照して、第1実施形態の変形例3に係る光検出装置1の製造方法について、上述の第1実施形態の変形例2と異なる部分を中心に説明する。まず、第1実施形態の変形例2において説明した図10Cの状態から、部材73を覆うように公知の材料からなる絶縁層63を積層し、平坦化する。その後、図12Aに示すように、公知の方法を用いて、平面視で画素間遮光膜53に重なる位置に、画素3同士の間を区画する区画壁54を形成する。
 次に、図12Bに示すように、第1実施形態の変形例2で説明した部材73と同じ形成方法を用いて、画素3毎にインナーレンズLNZを形成する。その後、公知の材料からなる絶縁層66を積層し、平坦化する。その後、公知の方法を用いて、平面視で区画壁54に重なる位置に、画素3同士の間を区画する区画壁55を形成する。これ以降の処理は、すでに説明した通りであるので、説明を省略する。
 この第1実施形態の変形例3に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1、及び上述の第1実施形態の変形例2に係る光検出装置1と同様の効果が得られる。
 また、第1実施形態の変形例3に係る光検出装置1では、斜入射特性が劣化するのを抑制できる。
 <変形例4>
 第1実施形態に係る光検出装置1において、遮光膜52は第1遮光膜52aと第2遮光膜52bとの2層の遮光膜を備えていたが、本技術はこれには限定されない。図13A及び図13Bに示すように、第1実施形態の変形例4に係る光検出装置1の遮光膜52は、一の遮光性の材料から成る一層の膜のみ、より具体的には第1遮光膜52aのみを備えている。また、第1実施形態に係る光検出装置1において、偏向層70の第2領域72はセル領域20aの他方側にあったが、第1実施形態の変形例4に係る光検出装置1の第2領域72セル領域20aの一方側にある。なお、図13Aは、図13のB-B切断線に沿って断面視した時の画素3の断面構成を示している。
 図13Bに示すように、本変形例では、十字中心Caを中央にした2行2列の4つのセル領域20aで1つのセル領域集合体B2を構成している。セル領域集合体B2の中央寄りには第1角部が位置していて、角部寄りには第2角部が位置している。そして、第2領域72は、セル領域集合体B2毎に1つにまとめて設けられていて且つセル領域集合体B2毎に全ての第1角部に平面視で重なっている。
 平面視で、第1遮光膜52a及び偏向層70の第2領域72はセル領域20aの一方側、より具体的には第1角部側にあり、偏向層70の第1領域71はセル領域20aの他方側、より具体的には第2角部側にある。また、電荷保持部MEMは、第1実施形態の場合と同様に、平面視で、セル領域20aの一方側寄りの位置にある。そして、平面視で、第1遮光膜52a及び第2領域72は、電荷保持部MEMと重なる位置にある。
 図13Aに示すように、第2領域72は平面視で第1遮光膜52aと重なる位置にあるので、主光線L1は、各セル領域20aにおいて、平面視で、第1遮光膜52aがある方向へ向けて偏向される。より具体的には、主光線L1は、各セル領域20aにおいて、平面視で電荷保持部MEMに重なる第1遮光膜52aへ向けて偏向される。すなわち、主光線L1はセル領域20aの一方側と他方側とのうちの一方側(第1角部側)へ向けて偏向される。
 この第1実施形態の変形例4に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1と同様の効果が得られる。
 また、第1実施形態の変形例4に係る光検出装置1では、主光線L1は、第1遮光膜52aへ向けて偏向されるので、第1実施形態の場合より光路長が長くなる。これにより、感度が劣化することを抑制でき、また、感度を良くすることができる。
 また、第1実施形態の変形例4に係る光検出装置1では、主光線L1は、第1遮光膜52aにより遮られるので、電荷保持部MEMに入射し難くなる。
 [第2実施形態]
 図14A及び図14Bに示す本技術の第2実施形態について、以下に説明する。本第2実施形態に係る光検出装置1が上述の第1実施形態に係る光検出装置1と相違するのは、偏向層70がセル領域20aの第2の面S2(光入射面)側の部分に設けられている点であり、それ以外の光検出装置1の構成は、基本的に上述の第1実施形態の光検出装置1と同様の構成になっている。なお、すでに説明した構成要素については、同じ符号を付してその説明を省略する。
 図14Aに示すように、偏向層70は、セル領域20aの第2の面S2側の部分に設けられていて、且つセル領域20a毎に第2の面S2から半導体層20の厚み方向に延在した柱状体74を複数含んでいる。柱状体74は、オンチップピラーであり、Z方向の寸法は、これには限定されないが、例えば、0.8μmである。柱状体74を構成する材料の屈折率は、半導体層20の屈折率とは異なる。より具体的には、柱状体74を構成する材料の屈折率は、半導体層20の屈折率より低い。そして、図14Bに示すように、第1領域71に設けられた柱状体74の密度は、第2領域72に設けられた柱状体74の密度とは異なる構成である。より具体的には、第1領域71に設けられた柱状体74の密度は、第2領域72に設けられた柱状体74の密度より高い構成である。換言すると、屈折率が低い領域(柱状体74の密度が高い領域)を第1領域とし、屈折率が高い領域(柱状体74の密度が低い領域)を第2領域としている。本実施形態では、第1領域71と第2領域72とで柱状体74の密度を変えることにより、偏向層70の屈折率を変えている。より具体的には、第1領域71における柱状体74の密度を、第2領域72における柱状体74の密度より高くすることにより、第1領域71の屈折率(第1屈折率)を第2領域72の屈折率(第2屈折率)より低くしている。換言すると、平面視で、半導体層20を構成する材料と、柱状体74を構成する材料との面積の比率で、屈折率を調整している。本実施形態では、本実施形態の場合、半導体層20の面積の多い領域が、屈折率が高くなる構成である。このような構成により、画素3に入射した主光線L1が、セル領域20aの他方側(第2角部側)に位置する第2遮光膜52bへ向けて偏向される。なお、図14Bに示すように、セル領域20aを平面視した場合に、十字中心Ca側である他方側から、十字中心Cb側である一方側へ、柱状体74の密度を徐々に高くする構成であっても良い。
 柱状体74を構成する材料は、第1材料であり、半導体層20を構成する材料は、第2材料である。第1材料として、これには限定されないが、例えば、酸化シリコン(SiO)等の物質を挙げることができる。また、第2材料として、これには限定されないが、例えば、シリコン等の物質を挙げることができる。
 ≪光検出装置の製造方法≫
 以下、図15Aから図15Dまでを参照して、光検出装置1の製造方法について、上述の第1実施形態と異なる部分を中心に説明する。まず、第1実施形態で説明した処理のうち、図5Fに示す工程まで行う。そして、図15Aに示すように、半導体層20の第2の面S2に対して、公知のリソグラフィ技術及びエッチング技術を用いて、開口部HM1aを有するハードマスクHM1を形成する。そして、公知のエッチング技術を用いて、半導体層20の開口部HM1aから露出する部分をエッチングし、柱状体74を埋め込むための穴74hを複数形成する。その後、ハードマスクHM1を除去する。
 次に、図15Bに示すように、例えばALD法等の公知の成膜技術を用いて、半導体層20の露出面に絶縁膜m10を堆積させ、穴74h内を絶縁膜m10で埋める。その後、一部図示を省略するが、図15Cに示すように、図示しないハードマスクの開口部を通してアルカリ液を用いたウェットエッチングにより犠牲膜SACを除去し、その後、図示しないハードマスク及び絶縁膜m10を除去する。
 そして、図15Dに示すように、穴74h内の露出面と、縦溝51av,51bv及び横溝52ah,52bhの露出面とに対して、ピニング層m4及び絶縁膜m5をこの順で順次積層する。穴74h内部を絶縁膜m5で埋めることにより、穴74h内に柱状体74を形成する。絶縁膜m5は、柱状体74を構成する材料製である。その後、第1実施形態の場合と同様に、縦溝51av,51bv及び横溝52ah,52bh内の空洞部分を、遮光材料m6で充填する。これ以降の処理は、第1実施形態の場合と同様であるので、説明を省略する。
 ≪第2実施形態の主な効果≫
 この第2実施形態に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1と同様の効果が得られる。
 なお、第2実施形態に係る光検出装置1では、柱状体74を構成する材料の屈折率が半導体層20の屈折率より低い構成であったが、柱状体74を構成する材料の屈折率が半導体層20の屈折率より高い構成であっても良い。その場合、平面視で半導体層20の面積の多い領域が、屈折率が低くなるので、第1領域71における柱状体74の密度を、第2領域72における柱状体74の密度より低くすることにより、第1領域71の屈折率(第1屈折率)を第2領域72の屈折率(第2屈折率)より低くすることができる。
 ≪第2実施形態の変形例≫
 以下、第2実施形態の変形例について、説明する。
 <変形例1>
 第2実施形態の変形例1に係る光検出装置1では、図16に示すように、カラーフィルタ64が主に透過させる色毎に、偏向層70の屈折率分布が異なる構成である。
 まず、本変形例について説明する前に、図6Bを用いて、偏向層70を設けない場合の画素3の出力の入射角特性の、色による違いについて説明する。画素3の出力の入射角特性の非対称性は、光の波長が長いほどより顕著になる。そのため、赤色光のような波長の長い光は、波長が短い緑色光及び青色光より、第1遮光膜52aまでより多く到達する可能性があり、光路が長い光の量が増える可能性があった。そして、これにより、色比率の変動が生じる可能性があった。そこで、波長が長い光は、それより波長が短い光より、偏向層70による偏向の程度を大きくすることが望ましい。また、同じ屈折率構成を有する偏向層70を異なる色の光に対して適用した場合、波長の短い光の方が波長の長い光より多く偏向される。すなわち、同じ屈折率構成を有する偏向層70を適用した場合、赤色光のように波長の長い光は、緑色光及び青色光のような波長の短い光に比べて偏向される量が小さくなる。そこで、本変形例では、色毎に変第1領域71と第2領域72との屈折率差を変えることにより、色比率の変動が大きくなるのを抑制している。より具体的には、赤色光のような波長の長い光ほど、第1領域71と第2領域72との屈折率差を大きく設けることにより、色比率の変動が大きくなるのを抑制している。
 セル領域20aは、第1セル領域20a1と、第2セル領域20a2と、第3セル領域と20a3、を含み、カラーフィルタ64は、第1セル領域20a1に対して設けられた第1色光用の第1フィルタ64Rと、第2セル領域20a2に対して設けられ且つ第1色光より波長が短い第2色光用の第2フィルタ64Gと、第3セル領域と20a3に対して設けられ且つ第2色光より波長が短い第3色光用の第3フィルタ64Bと、を含んでいる。なお、例えばBayer配列の場合、第1色光が赤色光であり、第2色光が緑色光であり、第3色光が青色光である。そして、第1セル領域20a1に設けられた偏向層70の第1領域71と第2領域72との屈折率差は、第2セル領域20a2に設けられた偏向層70の第1領域71と第2領域72との屈折率差より大きく、第2セル領域20a2に設けられた偏向層70の第1領域71と第2領域72との屈折率差は、第3セル領域と20a3に設けられた偏向層70の第1領域71と第2領域72との屈折率差より大きい。すなわち、光の波長が長くなるほど第1領域71と第2領域72との屈折率差を大きくした構成である。これにより、波長の長い光ほど、第2遮光膜52bへ向けた偏向の程度を大きくできる。
 この第2実施形態の変形例1に係る光検出装置1であっても、上述の第2実施形態に係る光検出装置1と同様の効果が得られる。
 また、第2実施形態の変形例1に係る光検出装置1では、光の波長が長くなるほど第1領域71と第2領域72との屈折率差を大きくしているので、色比率の変動が大きくなるのを抑制できる。
 <変形例2>
 第2実施形態の変形例2に係る光検出装置1では、図17に示すように、第1セル領域20a1から第3セル領域20a3までのうち、入射する主光線の波長が最も短い第3色光用の第3セル領域20a3に対して偏向層70を設けておらず、第1色光用の第1セル領域20a1と第2色光用の第2セル領域20a2とに対してのみ偏向層70を設けている。波長が最も短い第3色光は、画素3の出力の入射角特性の非対称性に与える影響が、第1色光から第3色光までのうちで最も小さい。そのため、第3色光用の第3セル領域20a3に対して偏向層70を省略している。なお、図17に示す例では、第1セル領域20a1に設けられた偏向層70の第1領域71と第2領域72との屈折率差は、第2セル領域20a2に設けられた偏向層70の第1領域71と第2領域72との屈折率差より大きくなっているが、第1セル領域20a1に設けられた偏向層70の第1領域71と第2領域72との屈折率差と、第2セル領域20a2に設けられた偏向層70の第1領域71と第2領域72との屈折率差とが同じであっても良い。
 この第2実施形態の変形例2に係る光検出装置1であっても、上述の第2実施形態に係る光検出装置1及び上述の第2実施形態の変形例1に係る光検出装置1と同様の効果が得られる。また、第2実施形態の変形例2に係る光検出装置1では、第3色光用の第3セル領域20a3に対して偏向層70を省略することができるので、設計の負荷及び製造コストを抑制できる。
 <変形例3>
 第2実施形態の変形例3に係る光検出装置1では、図18に示すように、第1セル領域20a1から第3セル領域20a3までのうち、第1色光用の第1セル領域20a1に対してのみ偏向層70を設けた構成である。
 波長が最も長い第1色光は、画素3の出力の入射角特性の非対称性に与える影響が、第1色光から第3色光までのうちで最も大きい。そのため、影響が最も大きい第1色光用の第1セル領域20a1に対してのみ偏向層70を設けている。
 この第2実施形態の変形例3に係る光検出装置1であっても、上述の第2実施形態に係る光検出装置1及び上述の第2実施形態の変形例1に係る光検出装置1と同様の効果が得られる。また、第2実施形態の変形例3に係る光検出装置1では、第1色光用の第1セル領域20a1に対してのみ偏向層70を設けるので、設計の負荷及び製造コストを抑制できる。
 [第3実施形態]
 図19に示す本技術の第3実施形態について、以下に説明する。本第3実施形態に係る光検出装置1が上述の第1実施形態に係る光検出装置1と相違するのは、瞳補正を行っている点であり、それ以外の光検出装置1の構成は、基本的に上述の第1実施形態の光検出装置1と同様の構成になっている。なお、すでに説明した構成要素については、同じ符号を付してその説明を省略する。なお、本実施形態では、図示のように、部材73がレンズ状をなしている場合について、説明する。また、図19において、第1領域71及び第2領域72の符号「71」、「72」の図示を省略しているが、第2領域72は、部材73の厚みが厚い部分にあるものとする。
 図19に示すように、画素領域2Aを平面視した場合に、領域Dは、画素領域2Aの中央部すなわち像高中央にある。これに対して、領域Fは、領域Dより画素領域2Aの縁部寄りすなわち像高が高い位置にある。領域Eは、領域Dより縁部寄り且つ領域Fより中央部寄りの位置にある。本実施形態では、画素領域2Aの中央部より縁部寄りに位置する領域として、領域E,Fを例として説明する。
 主光線L1は、像高中央にある領域Dにおいては、画素3に対して垂直に近い角度で入射する。これに対して、像高が高くなればなるほど、主光線L1は、画素3に対してより斜めに入射する。領域E,Fでは、主光線L1は画素3に対して斜めに入射する。また、領域Fでは、領域Eと比べて、主光線L1は画素3に対してより斜めに入射する。
 領域Dに位置するセル領域集合体B1では、平面視で、部材73の中央は、セル領域集合体B1の中央にある構成である。これに対して、領域E,Fに位置するセル領域集合体B1において、平面視で、部材73の中央は、セル領域集合体B1の中央より画素領域2Aの中央部寄りの位置にある構成である。さらには、領域Fに位置するセル領域集合体B1においては、領域Eに位置するセル領域集合体B1と比べて、平面視で、部材73の中央は、より画素領域2Aの中央部寄りの位置にある構成である。像高が高い位置において部材73を上述のように配置することにより、瞳補正している。なお、カラーフィルタ64及びマイクロレンズ65についても、部材73と同様に、像高位置に応じて、セル領域集合体B1の中央より画素領域2Aの中央部寄りの位置に配置されている。これにより、画素領域2Aの像高位置によらず、主光線L1を第2遮光膜52bへ向けて偏向することができる。
 この第3実施形態に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1と同様の効果が得られる。
 また、第3実施形態に係る光検出装置1では、像高が高い位置にある画素3であっても、第2領域72を、セル領域集合体B1の中央より画素領域2Aの中央部寄りに配置することにより、主光線L1を第2遮光膜52bへ向けて偏向することができる。
 なお、第3実施形態に係る光検出装置1では、セル領域集合体がセル領域集合体B1である場合について説明したが、セル領域集合体はセル領域集合体B2であっても良い。
 [第4実施形態]
 図20、図21A、及び図21Bに示す本技術の第4実施形態について、以下に説明する。本第4実施形態に係る光検出装置1が上述の第1実施形態に係る光検出装置1と相違するのは、遮光部50の構成であり、それ以外の光検出装置1の構成は、基本的に上述の第1実施形態の光検出装置1と同様の構成になっている。なお、すでに説明した構成要素については、同じ符号を付してその説明を省略する。
 図20に示すように、第1区画壁51aは、第1の面S1側から設けられていて、第2の面S2には達していない。そして、第2区画壁51bは、第2の面S2側から設けられていて、第1の面S1には達していない。また、垂直ゲート電極TRXGは、第1遮光膜52aに設けられた開口Gから突出している。なお、平面視した場合、第2区画壁51bは、図21Aに示すようにI型パターンであっても良いし、図21Bに示すように1型パターンであっても良い。
 この第4実施形態に係る光検出装置1であっても、上述の第1実施形態に係る光検出装置1と同様の効果が得られる。
 [第5実施形態]
 <1.電子機器への応用例>
 次に、図22に示す応用例の電子機器100について説明する。電子機器100は、固体撮像装置101と、光学レンズ102と、シャッタ装置103と、駆動回路104と、信号処理回路105とを備えている。電子機器100は、これに限定されないが、例えば、カメラ等の電子機器である。また、電子機器100は、固体撮像装置101として、上述の光検出装置1を備えている。
 光学レンズ(光学系)102は、被写体からの像光(入射光106)を固体撮像装置101の撮像面上に結像させる。これにより、固体撮像装置101内に一定期間にわたって信号電荷が蓄積される。シャッタ装置103は、固体撮像装置101への光照射期間及び遮光期間を制御する。駆動回路104は、固体撮像装置101の転送動作及びシャッタ装置103のシャッタ動作を制御する駆動信号を供給する。駆動回路104から供給される駆動信号(タイミング信号)により、固体撮像装置101の信号転送を行う。信号処理回路105は、固体撮像装置101から出力される信号(画素信号)に各種信号処理を行う。信号処理が行われた映像信号は、メモリ等の記憶媒体に記憶され、或いはモニタに出力される。
 このような構成により、電子機器100では、固体撮像装置101において画素3の出力の入射角特性の非対称性が大きくなることを抑制できるので、映像信号の画質の向上を図ることができる。
 なお、電子機器100は、カメラに限られるものではなく、他の電子機器であっても良い。例えば、携帯電話機等のモバイル機器向けカメラモジュール等の撮像装置であっても良い。
 また、電子機器100は、固体撮像装置101として、第1実施形態から第4実施形態まで、及びそれら実施形態の変形例のいずれかに係る光検出装置1、又は第1実施形態から第4実施形態まで、及びそれら実施形態の変形例のうちの少なくとも2つの組み合わせに係る光検出装置1を備えることができる。
 <2.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図23は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図23に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図23の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図24は、撮像部12031の設置位置の例を示す図である。
 図24では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図24には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、撮像部12031に適用され得る。具体的には、上述の実施形態及び変形例において説明した光検出装置1は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 <3.内視鏡手術システムへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図25は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図25では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザ光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザ光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザ光源それぞれからのレーザ光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図26は、図25に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、カメラヘッド11102の撮像部11402に適用され得る。具体的には、上述の実施形態及び変形例において説明した光検出装置1は、撮像部11402に適用することができる。撮像部11402に本開示に係る技術を適用することにより、より見やすい撮影画像を得ることができるため、術者が術部を確実に確認することが可能になる。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 [その他の実施形態]
 上記のように、本技術は第1実施形態から第5実施形態までによって記載したが、この開示の一部をなす論述及び図面は本技術を限定するものであると理解すべきではない。この開示から当業者には様々な代替の実施形態、実施例及び運用技術が明らかとなろう。
 例えば、第1実施形態から第5実施形態までにおいて説明したそれぞれの技術的思想を互いに組み合わせることも可能である。それぞれの技術的思想に沿った種々の組み合わせが可能である。
 また、本技術は、上述したイメージセンサとしての固体撮像装置の他、ToF(Time of Flight)センサともよばれる距離を測定する測距センサなども含む光検出装置全般に適用することができる。測距センサは、物体に向かって照射光を発光し、その照射光が物体の表面で反射され返ってくる反射光を検出し、照射光が発光されてから反射光が受光されるまでの飛行時間に基づいて物体までの距離を算出するセンサである。この測距センサの構造として、上述した画素3の構造を採用することができる。
 また、上述の実施形態では配線層30の半導体層20側とは反対側に支持基板40を貼り合わせていたが、光検出装置1は、二枚以上の半導体基板が重ね合わされて積層された積層型CIS(CMOS Image Sensor、CMOSイメージセンサ)であっても良い。その場合、ロジック回路13及び読出し回路15のうちの少なくとも一方は、それら半導体基板のうちのセル領域20aが設けられた半導体基板とは異なる基板に設けられても良い。
 また、例えば、上述の構成要素を構成するとして挙げられた材料は、添加物や不純物等を含んでいても良い。
 このように、本技術はここでは記載していない様々な実施形態等を含むことは勿論である。したがって、本技術の技術的範囲は上記の説明から妥当な特許請求の範囲に記載された発明特定事項によってのみ定められるものである。
 また、本明細書に記載された効果はあくまでも例示であって限定されるものでは無く、また他の効果があっても良い。
 なお、本技術は、以下のような構成としてもよい。
(1)
 画素領域において行方向及び列方向に配列された複数のセル領域を有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層と、
 前記セル領域の前記光入射面に対向した位置に設けられた、若しくは、前記セル領域の前記光入射面側の部分に設けられた偏向層と、を備え、
 前記セル領域内には、光電変換素子と、前記半導体層の厚み方向に垂直な方向に沿って延在した遮光膜と、前記半導体層の厚み方向において前記遮光膜より前記素子形成面寄りに位置した電荷保持部と、が設けられていて、
 前記偏向層は、前記セル領域毎に、平面視で異なる位置に、第1屈折率を有する第1領域と、前記第1屈折率より高い第2屈折率を有する第2領域とを有し、
 前記第2領域は、平面視で前記遮光膜と重なる位置にある、
 光検出装置。
(2)
 前記遮光膜は、第1遮光膜と、厚み方向において前記第1遮光膜より前記光入射面寄りに位置する第2遮光膜とを含み、
 平面視で、前記第1遮光膜及び前記第1領域は前記セル領域の一方側にあり、前記第2遮光膜及び前記第2領域は前記セル領域の他方側にあり、
 平面視で、前記第2領域は前記第2遮光膜と重なる位置にある、(1)に記載の光検出装置。
(3)
 平面視で、前記電荷保持部は前記セル領域の前記一方側寄りの位置にあり、
 平面視で、前記第1遮光膜及び前記第1領域は、前記電荷保持部と重なる位置にある、(2)に記載の光検出装置。
(4)
 前記セル領域は、平面視で四角形であり且つ対向する第1角部と第2角部とを有し、
 前記セル領域の前記一方側は前記第1角部側であり、前記セル領域の前記他方側は前記第2角部側である、(2)又は(3)に記載の光検出装置。
(5)
 平面視で、前記電荷保持部は前記第1角部寄りの位置にあり、
 平面視で、前記第1遮光膜及び前記第1領域は、前記電荷保持部と重なる位置にある、(4)に記載の光検出装置。
(6)
 前記半導体層は、2行2列の4つの前記セル領域からなり且つ行方向及び列方向に配列されたセル領域集合体を複数有し、
 一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第2角部は前記セル領域集合体の中央寄りに位置する角部であり、一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第1角部は、前記セル領域集合体の角部寄りに位置する角部であり、
 前記第2領域は、前記セル領域集合体毎に1つにまとめて設けられていて且つ前記セル領域集合体毎に全ての前記第2角部に平面視で重なっている、(4)又は(5)に記載の光検出装置。
(7)
 前記遮光膜は、一の遮光性の材料から成る一層の膜のみを含み、
 平面視で、前記遮光膜及び前記第2領域は前記セル領域の一方側にあり、前記第1領域は前記セル領域の他方側にあり、
 平面視で、前記電荷保持部は前記セル領域の前記一方側寄りの位置にあり、
 平面視で、前記遮光膜及び前記第2領域は、前記電荷保持部と重なる位置にある、(1)に記載の光検出装置。
(8)
 前記セル領域は、平面視で四角形であり且つ互いに対向する第1角部と第2角部とを有し、
 前記セル領域の前記一方側は前記第1角部側であり、前記セル領域の前記他方側は前記第2角部側である、(7)に記載の光検出装置。
(9)
 前記半導体層は、2行2列の4つの前記セル領域からなり且つ行方向及び列方向に配列されたセル領域集合体を複数有し、
 一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第1角部は前記セル領域集合体の中央寄りに位置する角部であり、一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第2角部は、前記セル領域集合体の角部寄りに位置する角部であり、
 前記第2領域は、前記セル領域集合体毎に1つにまとめて設けられていて且つ前記セル領域集合体毎に全ての前記第1角部に平面視で重なっている、(8)に記載の光検出装置。
(10)
 前記偏向層は、前記セル領域の前記光入射面に対向した位置に設けられていて、且つ第1材料と前記第1材料より屈折率が高い第2材料とを含み、
 前記第1領域は前記第1材料製であり、前記第2領域は前記第2材料製である、(1)から(9)のいずれかに記載の光検出装置。
(11)
 前記偏向層は、前記セル領域の前記光入射面に対向した位置に設けられていて、且つ第1材料と前記第1材料より屈折率が高い第2材料とを含み、
 前記第2領域における前記第2材料の厚みは、前記第1領域における前記第2材料の厚みより厚い、(1)から(9)のいずれかに記載の光検出装置。
(12)
 前記第2材料の厚みは、前記第2領域から前記第1領域へ向けて徐々に薄くなっている、(11)に記載の光検出装置。
(13)
 前記偏向層は、前記セル領域の前記光入射面側の部分に設けられていて、且つ前記セル領域毎に前記光入射面から前記半導体層の厚み方向に延在した柱状体を複数含み、
 前記柱状体を構成する材料の屈折率は、前記半導体層の屈折率とは異なり、
 前記第1領域に設けられた前記柱状体の密度は、前記第2領域に設けられた前記柱状体の密度とは異なる構成である、(1)から(5)、(7)、及び(8)のいずれかに記載の光検出装置。
(14)
 前記柱状体を構成する材料の屈折率は、前記半導体層の屈折率より低く、
 前記第1領域に設けられた前記柱状体の密度は、前記第2領域に設けられた前記柱状体の密度より高い構成である、(13)に記載の光検出装置。
(15)
 前記偏向層の前記半導体層側とは反対側に設けられたカラーフィルタを有し、
 前記セル領域は、第1セル領域と、第2セル領域と、第3セル領域と、を含み、
 前記カラーフィルタは、前記第1セル領域に対して設けられた第1色光用の第1フィルタと、前記第2セル領域に対して設けられ且つ前記第1色光より波長が短い第2色光用の第2フィルタと、前記第3セル領域に対して設けられ且つ前記第2色光より波長が短い第3色光用の第3フィルタと、を含み、
 前記第1セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差は、前記第2セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差より大きく、
 前記第2セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差は、前記第3セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差より大きい、(13)又は(14)に記載の光検出装置。
(16)
 前記偏向層の前記半導体層側とは反対側に設けられたカラーフィルタを有し、
 前記セル領域は、第1セル領域と、第2セル領域と、第3セル領域と、を含み、
 前記カラーフィルタは、前記第1セル領域に対して設けられた第1色光用の第1フィルタと、前記第2セル領域に対して設けられ且つ前記第1色光より波長が短い第2色光用の第2フィルタと、前記第3セル領域に対して設けられ且つ前記第2色光より波長が短い第3色光用の第3フィルタと、を含み、
 前記第1セル領域に対してのみ、又は前記第1セル領域と前記第2セル領域とに対してのみ、前記偏向層が設けられている、(13)又は(14)に記載の光検出装置。
(17)
 前記第1色光は赤色であり、前記第2色光は緑色であり、前記第3色光は青色である、(15)又は(16)に記載の光検出装置。
(18)
 前記画素領域の中央部に位置する前記セル領域集合体において、平面視で、前記第2領域の中央は前記セル領域集合体の中央にあり、
 前記画素領域の前記中央部より縁部寄りに位置する前記セル領域集合体において、平面視で、前記第2領域の中央は、前記セル領域集合体の中央より前記画素領域の前記中央部寄りの位置にある、(6)又は(9)に記載の光検出装置。
(19)
 前記セル領域は、前記光電変換素子から前記電荷保持部へ信号電荷を転送可能な第1トランジスタと、電荷蓄積領域と、前記電荷保持部から前記電荷蓄積領域へ信号電荷を転送可能な第2トランジスタとを有している、(1)から(18)のいずれかに記載の光検出装置。
(20)
 光検出装置と、前記光検出装置に被写体からの像光を結像させる光学系と、を備え、
 前記光検出装置は、
 画素領域において行方向及び列方向に配列された複数のセル領域を有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層と、
 前記セル領域の前記光入射面に対向した位置に設けられた、若しくは、前記セル領域の前記光入射面側の部分に設けられた偏向層と、を備え、
 前記セル領域内には、光電変換素子と、前記半導体層の厚み方向に垂直な方向に沿って延在した遮光膜と、前記半導体層の厚み方向において前記遮光膜より前記素子形成面寄りに位置した電荷保持部と、が設けられていて、
 前記偏向層は、前記セル領域毎に、平面視で異なる位置に、第1屈折率を有する第1領域と、前記第1屈折率より高い第2屈折率を有する第2領域とを有し、
 前記第2領域は、平面視で前記遮光膜と重なる位置にある、
 電子機器。
 本技術の範囲は、図示され記載された例示的な実施形態に限定されるものではなく、本技術が目的とするものと均等な効果をもたらす全ての実施形態をも含む。さらに、本技術の範囲は、請求項により画される発明の特徴の組み合わせに限定されるものではなく、全ての開示されたそれぞれの特徴のうち特定の特徴のあらゆる所望する組み合わせによって画されうる。
 1 光検出装置
 2 半導体チップ
 3 画素
 4 垂直駆動回路
 5 カラム信号処理回路
 6 水平駆動回路
 7 出力回路
 8 制御回路
 10 画素駆動線
 11 垂直信号線
 12 水平信号線
 13 ロジック回路
 14 ボンディングパッド
 15 回路
 20 半導体層
 20a セル領域
 20a1 第1セル領域
 20a2 第2セル領域
 20a3 第3セル領域
 20b 分離領域
 30 配線層
 50 遮光部
 51 区画壁
 51a 第1区画壁
 51b 第2区画壁
 52 遮光膜
 52a 第1遮光膜
 52b 第2遮光膜
 53 画素間遮光膜
 60 光入射面側積層体
 62 絶縁層
 64 カラーフィルタ
 64R 第1フィルタ
 64G 第2フィルタ
 64B 第3フィルタ
 65 マイクロレンズ
 70 偏向層
 71 第1領域
 72 第2領域
 73 部材
 74 柱状体
 100 電子機器
 101 固体撮像装置
 102 光学系(光学レンズ)
 103 シャッタ装置
 104 駆動回路
 105 信号処理回路
 106 入射光
 AMP 増幅トランジスタ
 B1,B2 セル領域集合体
 Ca,Cb 十字中心
 FD 電荷蓄積領域
 L1 主光線
 LNZ インナーレンズ
 MEM 電荷保持部
 PD 光電変換素子
 S1 第1の面
 S2 第2の面
 OFG 排出トランジスタ
 RST リセットトランジスタ
 SEL 選択トランジスタ
 TRG 第3転送トランジスタ
 TRM 第2転送トランジスタ
 TRX 第1転送トランジスタ
 TRXG 垂直ゲート電極

Claims (20)

  1.  画素領域において行方向及び列方向に配列された複数のセル領域を有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層と、
     前記セル領域の前記光入射面に対向した位置に設けられた、若しくは、前記セル領域の前記光入射面側の部分に設けられた偏向層と、を備え、
     前記セル領域内には、光電変換素子と、前記半導体層の厚み方向に垂直な方向に沿って延在した遮光膜と、前記半導体層の厚み方向において前記遮光膜より前記素子形成面寄りに位置した電荷保持部と、が設けられていて、
     前記偏向層は、前記セル領域毎に、平面視で異なる位置に、第1屈折率を有する第1領域と、前記第1屈折率より高い第2屈折率を有する第2領域とを有し、
     前記第2領域は、平面視で前記遮光膜と重なる位置にある、
     光検出装置。
  2.  前記遮光膜は、第1遮光膜と、厚み方向において前記第1遮光膜より前記光入射面寄りに位置する第2遮光膜とを含み、
     平面視で、前記第1遮光膜及び前記第1領域は前記セル領域の一方側にあり、前記第2遮光膜及び前記第2領域は前記セル領域の他方側にあり、
     平面視で、前記第2領域は前記第2遮光膜と重なる位置にある、請求項1に記載の光検出装置。
  3.  平面視で、前記電荷保持部は前記セル領域の前記一方側寄りの位置にあり、
     平面視で、前記第1遮光膜及び前記第1領域は、前記電荷保持部と重なる位置にある、請求項2に記載の光検出装置。
  4.  前記セル領域は、平面視で四角形であり且つ対向する第1角部と第2角部とを有し、
     前記セル領域の前記一方側は前記第1角部側であり、前記セル領域の前記他方側は前記第2角部側である、請求項2に記載の光検出装置。
  5.  平面視で、前記電荷保持部は前記第1角部寄りの位置にあり、
     平面視で、前記第1遮光膜及び前記第1領域は、前記電荷保持部と重なる位置にある、請求項4に記載の光検出装置。
  6.  前記半導体層は、2行2列の4つの前記セル領域からなり且つ行方向及び列方向に配列されたセル領域集合体を複数有し、
     一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第2角部は前記セル領域集合体の中央寄りに位置する角部であり、一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第1角部は、前記セル領域集合体の角部寄りに位置する角部であり、
     前記第2領域は、前記セル領域集合体毎に1つにまとめて設けられていて且つ前記セル領域集合体毎に全ての前記第2角部に平面視で重なっている、請求項4に記載の光検出装置。
  7.  前記遮光膜は、一の遮光性の材料から成る一層の膜のみを含み、
     平面視で、前記遮光膜及び前記第2領域は前記セル領域の一方側にあり、前記第1領域は前記セル領域の他方側にあり、
     平面視で、前記電荷保持部は前記セル領域の前記一方側寄りの位置にあり、
     平面視で、前記遮光膜及び前記第2領域は、前記電荷保持部と重なる位置にある、請求項1に記載の光検出装置。
  8.  前記セル領域は、平面視で四角形であり且つ互いに対向する第1角部と第2角部とを有し、
     前記セル領域の前記一方側は前記第1角部側であり、前記セル領域の前記他方側は前記第2角部側である、請求項7に記載の光検出装置。
  9.  前記半導体層は、2行2列の4つの前記セル領域からなり且つ行方向及び列方向に配列されたセル領域集合体を複数有し、
     一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第1角部は前記セル領域集合体の中央寄りに位置する角部であり、一の前記セル領域集合体を構成する4つの前記セル領域が有する前記第2角部は、前記セル領域集合体の角部寄りに位置する角部であり、
     前記第2領域は、前記セル領域集合体毎に1つにまとめて設けられていて且つ前記セル領域集合体毎に全ての前記第1角部に平面視で重なっている、請求項8に記載の光検出装置。
  10.  前記偏向層は、前記セル領域の前記光入射面に対向した位置に設けられていて、且つ第1材料と前記第1材料より屈折率が高い第2材料とを含み、
     前記第1領域は前記第1材料製であり、前記第2領域は前記第2材料製である、請求項1に記載の光検出装置。
  11.  前記偏向層は、前記セル領域の前記光入射面に対向した位置に設けられていて、且つ第1材料と前記第1材料より屈折率が高い第2材料とを含み、
     前記第2領域における前記第2材料の厚みは、前記第1領域における前記第2材料の厚みより厚い、請求項1に記載の光検出装置。
  12.  前記第2材料の厚みは、前記第2領域から前記第1領域へ向けて徐々に薄くなっている、請求項11に記載の光検出装置。
  13.  前記偏向層は、前記セル領域の前記光入射面側の部分に設けられていて、且つ前記セル領域毎に前記光入射面から前記半導体層の厚み方向に延在した柱状体を複数含み、
     前記柱状体を構成する材料の屈折率は、前記半導体層の屈折率とは異なり、
     前記第1領域に設けられた前記柱状体の密度は、前記第2領域に設けられた前記柱状体の密度とは異なる構成である、請求項1に記載の光検出装置。
  14.  前記柱状体を構成する材料の屈折率は、前記半導体層の屈折率より低く、
     前記第1領域に設けられた前記柱状体の密度は、前記第2領域に設けられた前記柱状体の密度より高い構成である、請求項13に記載の光検出装置。
  15.  前記偏向層の前記半導体層側とは反対側に設けられたカラーフィルタを有し、
     前記セル領域は、第1セル領域と、第2セル領域と、第3セル領域と、を含み、
     前記カラーフィルタは、前記第1セル領域に対して設けられた第1色光用の第1フィルタと、前記第2セル領域に対して設けられ且つ前記第1色光より波長が短い第2色光用の第2フィルタと、前記第3セル領域に対して設けられ且つ前記第2色光より波長が短い第3色光用の第3フィルタと、を含み、
     前記第1セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差は、前記第2セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差より大きく、
     前記第2セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差は、前記第3セル領域に設けられた前記偏向層の前記第1領域と前記第2領域との屈折率差より大きい、請求項13に記載の光検出装置。
  16.  前記偏向層の前記半導体層側とは反対側に設けられたカラーフィルタを有し、
     前記セル領域は、第1セル領域と、第2セル領域と、第3セル領域と、を含み、
     前記カラーフィルタは、前記第1セル領域に対して設けられた第1色光用の第1フィルタと、前記第2セル領域に対して設けられ且つ前記第1色光より波長が短い第2色光用の第2フィルタと、前記第3セル領域に対して設けられ且つ前記第2色光より波長が短い第3色光用の第3フィルタと、を含み、
     前記第1セル領域に対してのみ、又は前記第1セル領域と前記第2セル領域とに対してのみ、前記偏向層が設けられている、請求項13に記載の光検出装置。
  17.  前記第1色光は赤色であり、前記第2色光は緑色であり、前記第3色光は青色である、請求項16に記載の光検出装置。
  18.  前記画素領域の中央部に位置する前記セル領域集合体において、平面視で、前記第2領域の中央は前記セル領域集合体の中央にあり、
     前記画素領域の前記中央部より縁部寄りに位置する前記セル領域集合体において、平面視で、前記第2領域の中央は、前記セル領域集合体の中央より前記画素領域の前記中央部寄りの位置にある、請求項6に記載の光検出装置。
  19.  前記セル領域は、前記光電変換素子から前記電荷保持部へ信号電荷を転送可能な第1トランジスタと、電荷蓄積領域と、前記電荷保持部から前記電荷蓄積領域へ信号電荷を転送可能な第2トランジスタとを有している、請求項1に記載の光検出装置。
  20.  光検出装置と、前記光検出装置に被写体からの像光を結像させる光学系と、を備え、
     前記光検出装置は、
     画素領域において行方向及び列方向に配列された複数のセル領域を有し且つ一方の面が素子形成面であり他方の面が光入射面である半導体層と、
     前記セル領域の前記光入射面に対向した位置に設けられた、若しくは、前記セル領域の前記光入射面側の部分に設けられた偏向層と、を備え、
     前記セル領域内には、光電変換素子と、前記半導体層の厚み方向に垂直な方向に沿って延在した遮光膜と、前記半導体層の厚み方向において前記遮光膜より前記素子形成面寄りに位置した電荷保持部と、が設けられていて、
     前記偏向層は、前記セル領域毎に、平面視で異なる位置に、第1屈折率を有する第1領域と、前記第1屈折率より高い第2屈折率を有する第2領域とを有し、
     前記第2領域は、平面視で前記遮光膜と重なる位置にある、
     電子機器。
PCT/JP2023/032397 2022-09-13 2023-09-05 光検出装置及び電子機器 WO2024058010A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-145227 2022-09-13
JP2022145227 2022-09-13

Publications (1)

Publication Number Publication Date
WO2024058010A1 true WO2024058010A1 (ja) 2024-03-21

Family

ID=90275175

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/032397 WO2024058010A1 (ja) 2022-09-13 2023-09-05 光検出装置及び電子機器

Country Status (1)

Country Link
WO (1) WO2024058010A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054545A1 (ja) * 2018-09-14 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020137370A1 (ja) * 2018-12-27 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021100675A1 (ja) * 2019-11-18 2021-05-27 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021117648A1 (ja) * 2019-12-13 2021-06-17 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2022181155A1 (ja) * 2021-02-26 2022-09-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020054545A1 (ja) * 2018-09-14 2020-03-19 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2020137370A1 (ja) * 2018-12-27 2020-07-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021100675A1 (ja) * 2019-11-18 2021-05-27 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置および電子機器
WO2021117648A1 (ja) * 2019-12-13 2021-06-17 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2022181155A1 (ja) * 2021-02-26 2022-09-01 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器

Similar Documents

Publication Publication Date Title
US11881495B2 (en) Solid-state imaging apparatus, method for manufacturing the same, and electronic device
WO2020175195A1 (ja) 固体撮像装置および電子機器
WO2018051604A1 (ja) 固体撮像素子、撮像装置、及び固体撮像素子の製造方法
JP7452962B2 (ja) 撮像装置
WO2020100607A1 (ja) 撮像装置
WO2020137370A1 (ja) 固体撮像装置および電子機器
WO2020137285A1 (ja) 撮像素子および撮像素子の製造方法
WO2019220861A1 (ja) 固体撮像素子および固体撮像素子の製造方法
WO2024058010A1 (ja) 光検出装置及び電子機器
WO2021045139A1 (ja) 撮像素子および撮像装置
WO2020262265A1 (ja) 半導体装置、電子機器及び半導体装置の製造方法
WO2019176302A1 (ja) 撮像素子および撮像素子の製造方法
WO2023248926A1 (ja) 撮像素子及び電子機器
WO2023021740A1 (ja) 撮像素子、撮像装置、製造方法
WO2023248925A1 (ja) 撮像素子及び電子機器
WO2024057470A1 (ja) 光検出装置およびその製造方法、並びに電子機器
WO2023249016A1 (ja) 撮像素子および撮像装置
WO2021241010A1 (ja) 受光素子、固体撮像装置及び電子機器
WO2023249116A1 (ja) 撮像素子及び電子機器
WO2023112479A1 (ja) 受光装置および電子機器
WO2024057806A1 (ja) 撮像装置および電子機器
WO2023042462A1 (ja) 光検出装置、光検出装置の製造方法、及び電子機器
WO2024014326A1 (ja) 光検出装置
WO2024057814A1 (ja) 光検出装置および電子機器
WO2023234069A1 (ja) 撮像装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23865365

Country of ref document: EP

Kind code of ref document: A1