WO2023145606A1 - 撮像装置及び電子機器 - Google Patents

撮像装置及び電子機器 Download PDF

Info

Publication number
WO2023145606A1
WO2023145606A1 PCT/JP2023/001543 JP2023001543W WO2023145606A1 WO 2023145606 A1 WO2023145606 A1 WO 2023145606A1 JP 2023001543 W JP2023001543 W JP 2023001543W WO 2023145606 A1 WO2023145606 A1 WO 2023145606A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
imaging device
pixel
thickness direction
imaging
Prior art date
Application number
PCT/JP2023/001543
Other languages
English (en)
French (fr)
Inventor
尚之 佐藤
康史 三好
啓示 大島
正永 深沢
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023145606A1 publication Critical patent/WO2023145606A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to imaging devices and electronic devices.
  • phase difference detection pixels on the entire surface of the pixel array section of the imaging device.
  • a pair of pixels are provided for phase difference detection, and a pixel separation section is provided to optically and electrically separate the pair of pixels.
  • the light incident on the pixels is reflected by the pixel separation section described above, which may deteriorate the accuracy of phase difference detection (separation ratio) and cause color mixture.
  • the present disclosure proposes an imaging device and an electronic device that can reduce reflection and suppress deterioration in the accuracy of phase difference detection and occurrence of color mixture between adjacent imaging elements.
  • a semiconductor substrate and a plurality of imaging elements arranged in a matrix on the semiconductor substrate and performing photoelectric conversion on incident light, each of the plurality of imaging elements: a plurality of pixels provided adjacent to each other in a predetermined unit area of the semiconductor substrate and having photoelectric conversion portions; and a pixel separation portion separating the plurality of pixels, wherein the pixel separation portion is , provided so as to penetrate at least a part of the semiconductor substrate along the thickness direction of the semiconductor substrate, and at least one of the surfaces of the pixel separation portion has an uneven surface.
  • An apparatus is provided.
  • an electronic device equipped with an imaging device that includes a semiconductor substrate and a plurality of imaging elements that are arranged in a matrix on the semiconductor substrate and perform photoelectric conversion on incident light.
  • each of the plurality of image pickup elements includes a plurality of pixels provided adjacent to each other within a predetermined unit region of the semiconductor substrate, and having a photoelectric conversion portion; and a pixel separating the plurality of pixels.
  • the pixel separation section is provided to penetrate at least a part of the semiconductor substrate along the thickness direction of the semiconductor substrate, and at least one of the surfaces of the pixel separation section.
  • An electronic device is provided, wherein one surface is an uneven surface.
  • FIG. 1 is an explanatory diagram showing a planar configuration example of an imaging device 1 according to an embodiment of the present disclosure
  • FIG. It is a schematic diagram of the cross section of the image pick-up element 100a which concerns on a comparative example.
  • 1 is a schematic cross-sectional view (part 1) of an imaging device 100 according to a first embodiment of the present disclosure
  • FIG. 2 is a schematic diagram (part 2) of a cross section of the imaging element 100 according to the first embodiment of the present disclosure
  • FIG. 4A is a cross-sectional view for explaining a part of the manufacturing process of the manufacturing method of the imaging device 100 according to the first embodiment of the present disclosure
  • FIG. 3 is a schematic cross-sectional view of an imaging device 100 according to Modification 1 of the first embodiment of the present disclosure
  • FIG. 10 is a cross-sectional view for explaining a part of the manufacturing process of the method for manufacturing the imaging element 100 according to Modification 1 of the first embodiment of the present disclosure
  • FIG. 10 is a schematic cross-sectional view (Part 1) of an imaging device 100 according to Modification 2 of the first embodiment of the present disclosure
  • FIG. 10 is a schematic diagram (part 2) of a cross section of the imaging device 100 according to Modification 2 of the first embodiment of the present disclosure
  • FIG. 10 is a schematic diagram (part 3) of a cross section of the imaging element 100 according to Modification 2 of the first embodiment of the present disclosure
  • FIG. 10 is an explanatory diagram (Part 1) for describing the second embodiment of the present disclosure
  • FIG. 11 is an explanatory diagram (part 2) for describing the second embodiment of the present disclosure
  • FIG. 4 is a schematic diagram of a cross section of an imaging device 100 according to a second embodiment of the present disclosure
  • FIG. 10 is a schematic cross-sectional view of an imaging device 100 according to a modification of the second embodiment of the present disclosure
  • FIG. 11 is a schematic diagram (part 1) of a cross section of an imaging device 100 according to a third embodiment of the present disclosure
  • FIG. 10 is a schematic diagram (part 2) of a cross section of the imaging element 100 according to the third embodiment of the present disclosure
  • FIG. 11 is a schematic diagram (part 3) of a cross section of the imaging element 100 according to the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram (part 4) of a cross section of the imaging element 100 according to the third embodiment of the present disclosure;
  • FIG. 11 is a schematic cross-sectional view (Part 1) of an imaging device 100 according to Modification 1 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram (Part 2) of a cross section of an imaging device 100 according to Modification 1 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic cross-sectional view (Part 1) of an imaging device 100 according to Modification 2 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic cross-sectional view (Part 2) of an imaging device 100 according to Modification 2 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram (part 3) of a cross section of an imaging device 100 according to modification 2 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram (part 4) of a cross section of an imaging device 100 according to modification 2 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram of a cross section of an imaging device 100 according to a fourth embodiment of the present disclosure;
  • FIG. 11 is a perspective view of an imaging device 100 according to a fourth embodiment of the present disclosure;
  • FIG. 11 is a schematic cross-sectional view (Part 2) of an imaging device 100 according to Modification 2 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram (part 3) of a cross section of an imaging device 100 according to modification 2 of the third embodiment of the present disclosure;
  • FIG. 11 is a schematic diagram (part 4) of
  • FIG. 14 is a cross-sectional view for explaining a part of the manufacturing process of the manufacturing method of the imaging device 100 according to the fourth embodiment of the present disclosure
  • FIG. 11 is a schematic cross-sectional view of an imaging device 100 according to Modification 1 of the fourth embodiment of the present disclosure
  • FIG. 20 is an explanatory diagram (part 1) for explaining detailed workability of the imaging element 100 according to Modification 2 of the fourth embodiment of the present disclosure
  • FIG. 21 is an explanatory diagram (Part 2) for explaining detailed workability of the imaging element 100 according to Modification 2 of the fourth embodiment of the present disclosure
  • FIG. 20 is an explanatory diagram (part 3) for explaining detailed workability of the imaging device 100 according to Modification 2 of the fourth embodiment of the present disclosure
  • FIG. 3 is an explanatory diagram showing a plane of an imaging element 100 according to an embodiment (modification) of the present disclosure
  • FIG. 10 is an explanatory diagram showing a part of a cross section of the semiconductor substrate 300 of the imaging element 100 for each structure according to the embodiment (modification) of the present disclosure
  • 7 is an explanatory diagram showing an example of a schematic functional configuration of a camera 700 to which technology according to the present disclosure may be applied
  • FIG. 9 is a block diagram showing an example of a schematic functional configuration of a smart phone 900 to which technology according to the present disclosure may be applied
  • drawings referred to in the following description are drawings for describing one embodiment of the present disclosure and for facilitating understanding thereof. may differ from Furthermore, the imaging device shown in the drawings can be appropriately modified in design in consideration of the following description and known techniques.
  • drawings referred to in the following description are drawings for describing one embodiment of the present disclosure and for facilitating understanding thereof. may differ from Furthermore, the imaging device shown in the drawings can be appropriately modified in design in consideration of the following description and known techniques.
  • the vertical direction of the laminated structure of the imaging device is the same as when the light receiving surface on which the incident light enters the imaging device faces upward. It corresponds to the relative direction and may differ from the vertical direction according to the actual gravitational acceleration.
  • shapes and dimensions expressed in the following descriptions refer not only to shapes and dimensions defined mathematically or geometrically, but also to the operations of the imaging device and the manufacturing process of the imaging device. It means that similar shapes and dimensions including differences in degrees (errors and strains) are also included. Furthermore, “same” or “substantially the same” used for specific shapes and dimensions in the following description does not mean only when they are completely matched mathematically or geometrically, It also includes the case where there is a difference (error/distortion) to an allowable degree in the operation of the imaging device and the manufacturing process of the imaging device.
  • electrically connecting means connecting a plurality of elements directly or indirectly through other elements.
  • sharing means using one other element (eg, on-chip lens, etc.) between mutually different elements (eg, pixels, etc.).
  • FIG. 1 is an explanatory diagram showing a planar configuration example of an imaging device 1 according to an embodiment of the present disclosure.
  • the imaging device 1 according to the embodiment of the present disclosure has a plurality of imaging elements (first imaging element, second imaging element) 100 arranged in a matrix on a semiconductor substrate 300 made of silicon, for example. and a peripheral circuit section provided to surround the pixel array section 20 .
  • the imaging apparatus 1 includes a vertical driving circuit portion 21, a column signal processing circuit portion 22, a horizontal driving circuit portion 23, an output circuit portion 24, a control circuit portion 25, etc. as the peripheral circuit portion. Details of each block of the imaging device 1 will be described below.
  • the pixel array section 20 has a plurality of imaging elements 100 two-dimensionally arranged in a matrix along the row and column directions on a semiconductor substrate 300 .
  • Each imaging element 100 is an element that performs photoelectric conversion on incident light, and includes a photoelectric conversion unit (not shown) and a plurality of pixel transistors (for example, MOS (Metal-Oxide-Semiconductor) transistors) (not shown). ).
  • MOS Metal-Oxide-Semiconductor
  • each imaging device 100 can photoelectrically convert light having wavelengths in different wavelength bands (first wavelength band, second wavelength band).
  • the pixel transistor includes four MOS transistors, for example, a transfer transistor, a selection transistor, a reset transistor, and an amplification transistor.
  • a plurality of imaging elements 100 are arranged two-dimensionally according to, for example, the Bayer arrangement.
  • the Bayer arrangement means that the imaging elements 100 that generate electric charge by absorbing light having a green wavelength (for example, wavelength 495 nm to 570 nm) are arranged in a checkered pattern, and the remaining part is arranged in a red wavelength (for example, wavelength 620 nm). 750 nm), and the image sensor 100 that absorbs light with a blue wavelength (for example, a wavelength of 450 nm to 495 nm) and generates charges alternately for each row. It is an array pattern that looks like they are lined up. A detailed structure of the imaging element 100 will be described later.
  • the vertical drive circuit unit 21 is formed of, for example, a shift register, selects the pixel drive wiring 26, supplies the selected pixel drive wiring 26 with a pulse for driving the image sensor 100, and drives the image sensor 100 in row units. drive. That is, the vertical drive circuit section 21 sequentially selectively scans the image sensors 100 of the pixel array section 20 in the vertical direction (vertical direction in FIG. A pixel signal based on the signal charge generated according to the amount of light received is supplied through the vertical signal line 27 to the column signal processing circuit section 22 which will be described later.
  • the column signal processing circuit unit 22 is arranged for each column of the image sensor 100, and performs signal processing such as noise removal on pixel signals output from the image sensor 100 for one row for each pixel column.
  • the column signal processing circuit unit 22 performs signal processing such as CDS (Correlated Double Sampling) and AD (Analog-Digital) conversion in order to remove pixel-specific fixed pattern noise.
  • the horizontal driving circuit section 23 is formed of, for example, a shift register, and sequentially outputs horizontal scanning pulses to sequentially select each of the column signal processing circuit sections 22 described above, and output pixels from each of the column signal processing circuit sections 22 .
  • a signal is output to the horizontal signal line 28 .
  • the output circuit section 24 performs signal processing on the pixel signals sequentially supplied from each of the column signal processing circuit sections 22 through the horizontal signal line 28 and outputs the processed signal.
  • the output circuit section 24 may function, for example, as a functional section that performs buffering, or may perform processing such as black level adjustment, column variation correction, and various digital signal processing. Note that buffering refers to temporarily storing pixel signals in order to compensate for differences in processing speed and transfer speed when exchanging pixel signals.
  • the input/output terminal 29 is a terminal for exchanging signals with an external device.
  • Control circuit unit 25 receives an input clock and data for instructing an operation mode and the like, and outputs data such as internal information of the imaging device 1 . That is, the control circuit unit 25 generates a clock signal and a clock signal that serve as a reference for the operation of the vertical drive circuit unit 21, the column signal processing circuit unit 22, the horizontal drive circuit unit 23, and the like based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock. Generate control signals. The control circuit unit 25 then outputs the generated clock signal and control signal to the vertical drive circuit unit 21, the column signal processing circuit unit 22, the horizontal drive circuit unit 23, and the like.
  • imaging device 1 is not limited to the configuration shown in FIG.
  • the comparative example means the imaging device 100a that the inventors of the present invention have repeatedly studied before making the embodiment of the present disclosure.
  • the pixel array unit 20 of the imaging device 1 is used to further improve the autofocus function while avoiding deterioration of the captured image, that is, to improve the accuracy of phase difference detection. It was created during the study of providing phase difference detection pixels on the entire surface of the (all pixel phase difference detection).
  • an image sensor 100a that can function as one image sensor during imaging and as a pair of phase difference detection pixels during phase difference detection is provided over the entire surface of the pixel array section 20 (dual photo sensor). diode structure).
  • phase difference detection pixels are provided on the entire surface, it is possible to improve the accuracy of phase difference detection.
  • an element is provided for optically and electrically separating the phase difference detection pixels in order to avoid mixing the outputs of the pair of phase difference detection pixels during phase difference detection.
  • an overflow path is provided between a pair of phase difference detection pixels in order to avoid degradation of captured images. Specifically, during normal imaging, when the charge of one of the phase difference detection pixels is about to be saturated, the charge is transferred to the other pixel via the overflow path, thereby Pixel saturation can be avoided. By providing such an overflow path, it is possible to ensure the linearity of pixel signals output from the image sensor 100a and prevent degradation of captured images.
  • FIG. 2 is a schematic diagram of a cross section of an imaging device 100a according to a comparative example, and more specifically corresponds to a cross section obtained by cutting the imaging device 100a along the thickness direction of the semiconductor substrate 300.
  • FIG. 2 is a schematic diagram of a cross section of an imaging device 100a according to a comparative example, and more specifically corresponds to a cross section obtained by cutting the imaging device 100a along the thickness direction of the semiconductor substrate 300.
  • the imaging element 100a has an on-chip lens 200, a color filter 202, a light blocking section 204, a semiconductor substrate 300, and a transfer gate 400. Furthermore, in this comparative example, the semiconductor substrate 300 has a pair of pixels 302a and 302b each having a photoelectric conversion unit (not shown). In addition, the semiconductor substrate 300 has a pixel separation portion 304 that separates the pair of pixels 302a and 302b, and an element separation wall 310 that surrounds the pixels 302a and 302b. and a diffused region 306 .
  • the laminated structure of the imaging element 100a according to the comparative example will be described below, and the description will be made in the order from the upper side (light receiving surface 300a side) to the lower side (surface 300b) in FIG.
  • the imaging device 100a is provided above the light receiving surface 300a of the semiconductor substrate 300, and has one on-chip lens 200 that collects incident light onto a photoelectric conversion unit (not shown).
  • the imaging device 100a has a structure in which a pair of pixels 302a and 302b are provided for one on-chip lens 200.
  • FIG. That is, the on-chip lens 200 is shared by two pixels 302a, 302b.
  • the incident light condensed by the on-chip lens 200 passes through the color filter 202 provided below the on-chip lens 200 and irradiates each of the photoelectric conversion units (not shown) of the pair of pixels 302a and 302b. be done.
  • the color filter 202 is either a color filter that transmits a red wavelength component, a color filter that transmits a green wavelength component, or a color filter that transmits a blue wavelength component. Note that the color filter 202 may not be provided in this comparative example.
  • a light shielding portion 204 is provided on the light receiving surface 300a of the semiconductor substrate 300 so as to surround the color filters 202 .
  • the light shielding portion 204 is provided between the adjacent imaging elements 100a, thereby suppressing crosstalk between the adjacent imaging elements 100a and further improving the accuracy of phase difference detection. Shading can be performed between
  • photoelectric conversion portions (not shown) having impurities of the first conductivity type (eg, n-type) are adjacent to each other. are provided for each of the pixels 302a and 302b.
  • the photoelectric conversion unit can absorb light having a red wavelength component, a green wavelength component, or a blue wavelength component that is incident through the color filter 202, and can generate charges.
  • the photoelectric conversion unit of the pixel 302a and the photoelectric conversion unit of the pixel 302b can function as a pair of phase difference detection pixels during phase difference detection.
  • the phase difference can be detected by detecting the difference between the pixel signals based on the charges generated by the photoelectric conversion units of the pixels 302a and 302b.
  • the pair of phase difference detection pixels 302a and 302b can also function as one imaging element 100a.
  • the photoelectric conversion unit changes its generated charge amount, that is, its sensitivity, depending on the incident angle of light with respect to its own optical axis (the axis perpendicular to the light receiving surface 300a).
  • the photoelectric conversion unit has the highest sensitivity when the incident angle is 0 degrees. They have a line-symmetrical relationship. Therefore, in the photoelectric conversion unit of the pixel 302a and the photoelectric conversion unit of the pixel 302b, light from the same point is incident at different angles of incidence, and an amount of charge corresponding to the angle of incidence is generated. A shift (phase difference) occurs in the .
  • the phase difference can be detected by detecting the difference between the pixel signals based on the amount of charge generated by the photoelectric conversion unit of the pixel 302a and the photoelectric conversion unit of the pixel 302b. Therefore, such a difference (phase difference) between pixel signals is detected as a difference signal in a detection unit (not shown) of the output circuit unit 24, for example, and the defocus amount is calculated based on the detected phase difference, Autofocus can be achieved by adjusting (moving) an imaging lens (not shown).
  • the phase difference is detected as the difference between the pixel signals of the photoelectric conversion unit of the pixel 302a and the photoelectric conversion unit of the pixel 302b, but the present comparative example is not limited to this. do not have.
  • the phase difference may be detected as a ratio of pixel signals of the photoelectric conversion unit of the pixel 302a and the photoelectric conversion unit of the pixel 302b.
  • the two pixels 302 a and 302 b are physically (optically) and electrically separated by the pixel separating section 304 .
  • the pixel separating portion 304 is provided as a DTI (Deep Trench Isolation) so as to extend along the thickness direction of the semiconductor substrate 300 from the side of the surface 300b facing the light receiving surface 300a in the semiconductor substrate 300.
  • a trench (not shown) and a material embedded in the trench, such as silicon oxide film (SiO 2 ), silicon nitride film, amorphous silicon, polycrystalline silicon, aluminum, tungsten, or other oxide film or metal film.
  • the pixel separating portion 304 since the pixel separating portion 304 penetrates through a portion of the semiconductor substrate 300, the pair of pixels 302a and 302b can be effectively separated. The accuracy of phase difference detection can be further improved.
  • the pixel separating portion 304 is not particularly limited as long as it is provided so as to penetrate at least a part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 . .
  • a diffusion region 306 containing impurities of the second conductivity type may be formed around the pixel isolation portion 304 .
  • the pair of pixels 302a and 302b can be electrically separated to prevent color mixture, thereby further improving the accuracy of phase difference detection.
  • an impurity of the first conductivity type (for example, n-type) is introduced above the pixel separation section 304 (light-receiving surface 300a) by, for example, ion implantation.
  • a diffusion region (not shown) is formed.
  • the diffusion regions function as overflow paths (also referred to herein as "paths") (indicated by arrows in FIG. 2) through which charges generated between pixels 302a, 302b can be exchanged. can do. Specifically, when the charge of one of the pixels 302a and 302b is about to be saturated during normal imaging, the charge is transferred to the other pixel through the overflow path, thereby pixel saturation can be avoided.
  • the overflow path is not limited to being provided above the pixel separation section 304, and may be provided below the pixel separation section 304, for example.
  • the pixels 302a and 302b in the unit area are surrounded, the semiconductor substrate 300 is penetrated along the thickness direction of the semiconductor substrate 300, and the adjacent imaging element 100a is physically separated.
  • An element isolation wall 310 is provided to effectively separate the elements.
  • the element isolation wall 310 is formed by a trench (not shown) provided to penetrate the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 and an oxide film or a metal film embedded in the trench. Consist of materials.
  • a diffusion region 306 containing impurities of the second conductivity type may be formed around the device isolation wall 310 .
  • the charges generated by the photoelectric conversion units (not shown) of the pixels 302a and the photoelectric conversion units (not shown) of the pixels 302b are generated on the surface of the semiconductor substrate 300 opposite to the light receiving surface 300a.
  • the data is transferred through the transfer gate 400 of the transfer transistor (a type of pixel transistor) provided on 300b.
  • the transfer gate 400 can be made of, for example, a metal film.
  • the charge is accumulated in a floating diffusion portion (charge accumulation portion) (not shown) provided in a semiconductor region having a first conductivity type (for example, n-type) provided in the semiconductor substrate 300, for example. good too.
  • the floating diffusion portion is not limited to being provided in the semiconductor substrate 300, but is provided in another substrate (not shown) stacked on the semiconductor substrate 300, for example. may be
  • a plurality of various pixel transistors (not shown) other than the above-described transfer transistors may be provided for reading charges as pixel signals.
  • the pixel transistor may be provided on the semiconductor substrate 300 or may be provided on another substrate (not shown) stacked on the semiconductor substrate 300 .
  • the pixel separation unit 304 physically separates the pair of pixels 302a and 302b, the diffusion region 306 electrically separates the pair of pixels 302a and 302b, and the Since an overflow path (not shown) is provided between them, it is possible to avoid deterioration of the captured image while improving the accuracy of phase difference detection.
  • the pair of pixels 302a and 302b can be effectively separated by the pixel separation unit 304 and the diffusion region 306, and as a result, the occurrence of color mixture can be suppressed, and the accuracy of phase difference detection can be improved. can be further improved.
  • the comparative example since an overflow path is provided, when the charge of one of the pixels 302a and 302b is about to be saturated during normal imaging, the other pixel is charged via the overflow path. Saturation of one pixel can be avoided by moving the charge to one pixel. Therefore, according to the comparative example, by providing such an overflow path, it is possible to ensure the linearity of the pixel signals output from the image sensor 100a and prevent deterioration of the captured image.
  • the pixel separation unit 304 separates the two pixels (photoelectric conversion units (not shown)) 302a and 302b physically (optically) and electrically isolated.
  • light that obliquely enters the light receiving surface 300a of the image sensor 100a is reflected by the side surface of the pixel separation section 304 of the image sensor 100a.
  • phase difference detection accuracy separation ratio
  • phase difference detection is susceptible to noise, and high-speed autofocus operation becomes difficult.
  • color mixture occurs between the adjacent imaging elements 100a that detect different colors of light.
  • the present inventors have come to create the embodiments of the present disclosure described below.
  • reflection on the surface of the pixel separation portion 304 is reduced by making the surface of the pixel separation portion 304 uneven.
  • it is possible to suppress the deterioration of the phase difference detection accuracy of the pixels 302a and 302b in the same image sensor 100 and the occurrence of color mixture between the adjacent image sensors 100 that detect different colors of light. can be done.
  • the details of such embodiments of the present disclosure will be sequentially described below.
  • FIG. 3 is a schematic cross-sectional view of the imaging device 100 according to the first embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the thickness direction of the semiconductor substrate 300.
  • FIG. 4 is also a schematic cross-sectional view of the imaging device 100 according to the first embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along line AA' shown in FIG. It is a diagram. 3 and 4, the illustration of the diffusion region 306 or part thereof is omitted for the sake of clarity. Further, in the following description, elements common to those of the comparative example are denoted by common reference numerals in the drawings, and descriptions thereof are omitted.
  • the imaging device 100 has an on-chip lens 200, a color filter 202, a light blocking portion 204, a semiconductor substrate 300, and a transfer gate 400, as in the comparative example.
  • the semiconductor substrate 300 has a pair of pixels 302a and 302b each having a photoelectric conversion unit (not shown).
  • the semiconductor substrate 300 also has a pixel separation portion 304 separating the pair of pixels 302a and 302b and an element separation wall 310 surrounding the pixels 302a and 302b.
  • the image sensor 100 may include a diffusion region 306 provided around the pixel separation section 304 and the device separation wall 310 .
  • the layered structure of the imaging device 100 according to the present embodiment will be described below, and the description will be made in the order from the upper side (light receiving surface 300a side) to the lower side (surface 300b) in FIG.
  • the imaging device 100 As shown in FIG. 3, the imaging device 100 according to the present embodiment is provided above the light receiving surface 300a of the semiconductor substrate 300, and condenses incident light on a photoelectric conversion portion (not shown), as in the comparative example. It has one on-chip lens 200 .
  • the imaging device 100 has a structure in which a pair of pixels 302 a and 302 b are provided for one on-chip lens 200 . That is, the on-chip lens 200 is shared by two pixels 302a, 302b.
  • the on-chip lens 200 can be made of, for example, a silicon nitride film (SiN), or a resin material such as a styrene resin, an acrylic resin, a styrene-acrylic copolymer resin, or a siloxane resin. can.
  • SiN silicon nitride film
  • resin material such as a styrene resin, an acrylic resin, a styrene-acrylic copolymer resin, or a siloxane resin. can.
  • the incident light condensed by the on-chip lens 200 passes through the color filter 202 provided below the on-chip lens 200 and irradiates each of the photoelectric conversion units (not shown) of the pair of pixels 302a and 302b. be done.
  • the color filter 202 is either a color filter that transmits a red wavelength component, a color filter that transmits a green wavelength component, or a color filter that transmits a blue wavelength component.
  • color filter 202 may be formed from a material having pigments or dyes dispersed in a transparent binder such as silicone. Note that the color filter 202 may not be provided in this embodiment.
  • a light shielding portion 204 is provided on the light receiving surface 300a of the semiconductor substrate 300 so as to surround the color filters 202 .
  • the light shielding portion 204 is provided between the adjacent imaging elements 100a to suppress crosstalk between the adjacent imaging elements 100 and further improve the accuracy of phase difference detection. Shading can be performed between The light shielding portion 204 can be made of, for example, a metal material containing tungsten (W), aluminum (Al), copper (Cu), titanium (Ti), molybdenum (Mo), nickel (Ni), or the like.
  • photoelectric conversion units having impurities of the first conductivity type (eg, n-type) are arranged in predetermined unit regions in the semiconductor substrate 300 of the second conductivity type (eg, p-type). It is provided for each adjacent pixel 302a, 302b.
  • the photoelectric conversion unit absorbs light having a red wavelength component, a green wavelength component, or a blue wavelength component that is incident through the color filter 202, and generates charges.
  • the photoelectric conversion unit of the pixel 302a and the photoelectric conversion unit of the pixel 302b can function as a pair of phase difference detection pixels during phase difference detection.
  • the phase difference can be detected by detecting the difference between the pixel signals based on the charges generated by the photoelectric conversion units of the pixels 302a and 302b.
  • the pair of phase difference detection pixels 302a and 302b can also function as one imaging element 100 as in the comparative example.
  • the pixel separation portion 304 is formed as a DTI (Deep Trench Isolation) part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the side of the surface 300b facing the light receiving surface 300a. and a high refractive index material embedded in the trench (not shown).
  • the high refractive index material is made of a material having a refractive index (for example, 2.1 to 2.5) close to the refractive index (3.8) of silicon of the semiconductor substrate 300.
  • the pixel separation section 304 is formed with such a high refractive index material, the refractive index difference with the semiconductor substrate 300 can be reduced, and the reflection on the surface of the pixel separation section 304 can be suppressed.
  • the pixel separating section 304 is provided near the center of the image sensor 100 so as to extend vertically in the figure.
  • the side surface of the pixel separating portion 304 is formed of an uneven surface having unevenness 320.
  • the side surface of the pixel separation section 304 is configured by the surface having the unevenness 320. Light is scattered by the unevenness 320, and the specular reflection intensity on the side surface of the pixel separation section 304 is reduced. , the reflection can be suppressed.
  • the unevenness 320 of the pixel separating portion 304 has a hemispherical convex portion.
  • the unevenness 320 is not limited to a hemispherical shape, and may have a conical or pyramidal convex portion. However, in this embodiment, from the viewpoint of reducing reflection, it is preferable that the unevenness 320 has a hemispherical convex portion.
  • the unevenness 320 of the pixel separation section 304 in this embodiment may be periodic or may not be circumferential.
  • the unevenness 320 is periodic, according to optical simulations by the present inventors, it has been found that if the unevenness 320 is repeated at a period of, for example, about 200 nm, an effect of reducing reflection can be obtained.
  • the side surface of the pixel separation section 304 is configured by the surface having the unevenness 320, so that the reflection on the side surface of the pixel separation section 304 can be suppressed.
  • a diffusion region 306 containing impurities of the second conductivity type may be formed around the pixel isolation portion 304 .
  • the pair of pixels 302a and 302b can be electrically separated to prevent color mixture, thereby further improving the accuracy of phase difference detection.
  • impurities of the first conductivity type are introduced above the pixel separation section 304 (on the side of the light receiving surface 300a) by, for example, ion implantation.
  • a diffusion region (not shown) is thereby formed.
  • the diffusion region can serve as an overflow path (indicated by arrows in FIG. 3) through which charge generated between pixels 302a, 302b can be exchanged.
  • the charge of one of the pixels 302a and 302b is about to be saturated during normal imaging, the charge is transferred to the other pixel through the overflow path, thereby pixel saturation can be avoided.
  • the semiconductor substrate 300 surrounds the pixels 302a and 302b in the unit area and extends along the thickness direction of the semiconductor substrate 300.
  • An element isolation wall 310 is provided to penetrate the .
  • the element separation wall 310 can physically separate the adjacent imaging elements 100 that detect different colors of light.
  • the element isolation wall 310 includes a trench (not shown) provided to penetrate the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300, and a silicon substrate embedded in the trench. It is made of a material such as oxide film, silicon nitride film, amorphous silicon, polycrystalline silicon, titanium oxide film, aluminum, tungsten, or other oxide film or metal film.
  • the side surface of the element isolation wall 310 may be formed of an uneven surface having unevenness 320 like the side surface of the pixel isolation portion 304 .
  • a diffusion region 306 containing impurities of the second conductivity type may be formed around the device isolation wall 310 .
  • the diffusion regions 306 can be formed by conformal doping of impurities of the second conductivity type (eg, p-type) through the device isolation walls 310 .
  • the charges generated by the photoelectric conversion units (not shown) of the pixels 302a and the photoelectric conversion units (not shown) of the pixels 302b are transferred to the light receiving surface 300a of the semiconductor substrate 300 and is transferred through the transfer gate 400 of the transfer transistor (a type of pixel transistor) provided on the surface 300b located on the opposite side.
  • the transfer gate 400 can be made of, for example, a metal film.
  • the charge is accumulated in a floating diffusion portion (charge accumulation portion) (not shown) provided in a semiconductor region having a first conductivity type (for example, n-type) provided in the semiconductor substrate 300, for example. good too.
  • the floating diffusion portion is not limited to being provided in the semiconductor substrate 300.
  • the floating diffusion portion is provided in another substrate (not shown) stacked on the semiconductor substrate 300. may have been
  • a plurality of various pixel transistors (not shown) other than the above-described transfer transistors may be provided for reading charges as pixel signals.
  • the pixel transistor may be provided on the semiconductor substrate 300 or may be provided on another substrate (not shown) stacked on the semiconductor substrate 300 .
  • reflection on the side surface of the pixel separation section 304 can be suppressed by configuring the side surface of the pixel separation section 304 with the surface having the unevenness 320 .
  • this embodiment it is possible to suppress the deterioration of the phase difference detection accuracy of the pixels 302a and 302b in the same image sensor 100 and the occurrence of color mixture between the adjacent image sensors 100.
  • FIG. Note that the imaging device 100 according to the present embodiment is not limited to the configurations shown in FIGS. 3 and 4.
  • FIG. 5 is a cross-sectional view for explaining a part of the manufacturing process of the method for manufacturing the imaging device 100 according to this embodiment. corresponds to the cross-sectional view shown in FIG.
  • a trench penetrating through the semiconductor substrate 300 is formed in the semiconductor substrate 300, and an insulating material is embedded in the trench to form an element isolation wall 310.
  • an element isolation wall 310 As shown in FIG. A region of the semiconductor substrate 300 surrounded by the device isolation wall 310 becomes a unit region in which one imaging device 100 is provided.
  • a trench is formed through a portion of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the surface 300b of the semiconductor substrate 300 .
  • the trench is formed so that the side surface of the trench is uneven.
  • a mask having a pattern of trenches is formed on the surface 300 b of the semiconductor substrate 300 .
  • the Bosch method which is a type of RIE (Reactive Ion Etching), is used to etch the semiconductor substrate 300 along the openings of the mask while controlling the bias and the deposition/etching ratio, thereby forming trenches having uneven shapes. can do.
  • the etching of the semiconductor substrate 300 and the protection of the etched side wall (deposition on the surface) are performed while being repeated, so that it is possible to form a trench having an uneven shape.
  • the pixel separation section 304 shown second from the left in FIG. 5 can be formed.
  • the color filter 202 and the on-chip lens 200 are formed.
  • the imaging device 100 according to this embodiment can be formed as described above.
  • the pixel separating portion 304 is not limited to penetrating through a portion of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the surface 300b side.
  • the pixel separation section 304 may penetrate a part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the light receiving surface 300a side. Therefore, the configuration of the imaging element 100 according to Modification 1 of the present embodiment will be described with reference to FIG.
  • FIG. 6 is a schematic diagram of a cross section of the imaging device 100 according to Modification 1 of the present embodiment, and corresponds to the cross section of FIG.
  • elements common to those of the above-described embodiment are denoted by common reference numerals in the drawings, and descriptions thereof are omitted.
  • a pixel separation portion 304 separating two pixels (photoelectric conversion portions (not shown)) 302a and 302b is arranged from the light receiving surface 300a side in the thickness direction of the semiconductor substrate 300. , and a high refractive index material embedded in the trench (not shown) provided so as to penetrate a part of the semiconductor substrate 300 . Also in this modified example, reflection on the surface of the pixel separation section 304 can be suppressed by forming the pixel separation section 304 with the high refractive index material.
  • the unevenness 320 of the pixel separating portion 304 has a hemispherical convex portion.
  • the unevenness 320 is not limited to a hemispherical shape, and may have a conical or pyramidal convex portion.
  • impurities of the first conductivity type are introduced below the pixel separation section 304 (on the surface 300b side) by, for example, ion implantation.
  • a diffusion region (not shown) is formed by .
  • the diffusion region can act as an overflow path (indicated by arrows in FIG. 6) through which charge generated between pixels 302a, 302b can be exchanged.
  • by providing an overflow path it is possible to ensure the linearity of the pixel signals output from the image sensor 100 and prevent deterioration of the captured image.
  • reflection on the side surface of the pixel separation section 304 can be suppressed by configuring the side surface of the pixel separation section 304 with the surface having the unevenness 320 .
  • FIG. 7 is a cross-sectional view for explaining a part of the manufacturing process of the manufacturing method of the imaging device 100 according to this modified example. corresponds to the cross-sectional view shown in FIG.
  • a wiring layer 402 including pixel transistors, wiring, and the like is formed on the surface 300b of the semiconductor substrate 300. Furthermore, a trench penetrating through the semiconductor substrate 300 is formed in the semiconductor substrate 300, and an insulating material is embedded in the trench to form an element isolation wall 310, thereby obtaining the configuration shown on the left side of FIG. can be done.
  • a trench is formed through part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the light receiving surface 300 a of the semiconductor substrate 300 .
  • the above-mentioned Bosch method is used to form the trenches so that the side surfaces of the trenches are uneven.
  • a pixel separation portion 304 shown second from the left in FIG. 7 can be formed.
  • the color filter 202 and the on-chip lens 200 are formed on the light receiving surface 300a of the semiconductor substrate 300.
  • FIG. As described above, the imaging device 100 according to this modified example can be formed.
  • the period of the unevenness 320 of the pixel separation unit 304 is not limited to being substantially the same in all the imaging devices 100, and is determined according to the wavelength of light detected by the imaging device 100.
  • the length of the pixel separating portion 304 along the thickness of the semiconductor substrate 300 may be changed according to the wavelength of light detected by the imaging element 100 . Therefore, the configuration of the imaging device 100 according to Modification 2 of the present embodiment will be described with reference to FIGS. 8 to 10.
  • FIG. FIG. 8 is a schematic diagram of a cross section of the imaging device 100 according to Modification 2 of the first embodiment of the present disclosure, and more specifically, a schematic cross section of the imaging device 100 cut along the plane of the semiconductor substrate 300.
  • FIG. 9 and 10 are schematic cross-sectional views of an imaging device 100 according to Modification 2 of the first embodiment of the present disclosure. Specifically, the imaging device 100 is cut along the thickness direction of the semiconductor substrate 300. 8, that is, a schematic view of a cross section of the semiconductor substrate 300 taken along line CC′ shown in FIG. 8 to 10, the illustration of the diffusion region 306 or part thereof is omitted for the sake of clarity. Further, in the following description, elements common to those of the above-described embodiment are denoted by common reference numerals in the drawings, and descriptions thereof will be omitted.
  • the side surface of the pixel separating portion 304 is formed of an uneven surface having unevenness 320, as in the present embodiment.
  • the period of the unevenness 320 on the side surface of the pixel separation section 304 of the imaging element 100R that detects red light is equal to that of green light (for example, wavelengths of 495 nm to 570 nm).
  • the period of the unevenness 320 on the side surface of the pixel separation section 304 of the imaging device 100G that detects green light is the same as the period of the unevenness 320 on the side surface of the pixel separation section 304 of the imaging device 100B that detects blue light (for example, wavelengths of 450 nm to 495 nm). longer than the cycle. That is, in this modified example, the shorter the wavelength of the light detected by the imaging device 100, the shorter the period of the unevenness 320.
  • the period of the unevenness 320 by setting the period of the unevenness 320 to the vicinity of the wavelength according to the wavelength of light, the light scattering effect of the unevenness 320 can be favorably brought out and the effect of suppressing reflection can be enhanced.
  • the imaging device 100 detects infrared light (for example, a wavelength of 800 nm or more)
  • the period of the unevenness 320 on the side surface of the pixel separation section 304 is set to detect red light. It is preferable to make the period longer than the period of the unevenness 320 on the side surface of the pixel separating portion 304 of the image sensor 100R.
  • the pixel separation along the thickness of the semiconductor substrate 300 is possible.
  • the length of the portion 304 may be substantially the same among the imaging elements 100R, 100G, and 100B.
  • the length of the pixel separation section 304 along the thickness of the semiconductor substrate 300 is Alternatively, it may be changed according to the wavelength of light detected by the imaging device 100 .
  • the length along the thickness direction of the semiconductor substrate 300 of the pixel separation section 304 of the imaging element 100R that detects red light (for example, wavelengths of 620 nm to 750 nm) detects green light (for example, wavelengths of 495 nm to 570 nm). It is shorter than the length along the thickness direction of the semiconductor substrate 300 of the pixel separation portion 304 of the imaging device 100G.
  • the length of the pixel separation portion 304 of the image pickup device 100G that detects green light along the thickness direction of the semiconductor substrate 300 is the same as that of the pixel separation portion 304 of the image pickup device 100B that detects blue light (for example, wavelengths of 450 nm to 495 nm). , is shorter than the length along the thickness direction of the semiconductor substrate 300 .
  • the distance r from the upper surface of the pixel separating section 304 of the image sensor 100R that detects red light to the light receiving surface 300a is the distance from the upper surface of the pixel separating section 304 of the image sensor 100G that detects green light to the light receiving surface 300a. longer than g. Furthermore, the distance g from the upper surface of the pixel separation section 304 of the image sensor 100G that detects green light to the light receiving surface 300a is the distance b from the upper surface of the pixel separation section 304 of the image sensor 100B that detects blue light to the light receiving surface 300a. long compared to
  • the length of the pixel separation portion 304 of the image sensor 100 that detects infrared light is the same as the length of the pixel separation portion 304 of the image sensor 100R that detects red light. It is preferably short compared to the length of 304 .
  • FIG. 12 is a graph showing changes in potential with respect to depth (Z) starting from the light receiving surface 300a at the center of the imaging element 100 in the semiconductor substrate 300.
  • the distance from the upper surface of the pixel separating portion 304 to the light receiving surface 300a (the length a shown in FIG. 11) is +10%, +5%, -5%, and -10% with respect to the median value.
  • the potential changes sensitively as it changes.
  • the charge transfer and separation ratio characteristics between the pixels 302a and 302b change greatly. Specifically, if the length a is long relative to the median value, the potential will be low, making separation between the pixels 302a and 302b difficult. Also, when the length a is shorter than the median value, the potential becomes high, making it difficult to transfer between the pixels 302a and 302b.
  • FIG. 13 is a schematic cross-sectional view of the imaging device 100 according to the second embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the thickness direction of the semiconductor substrate 300. .
  • illustration of the diffusion region 306 is omitted for the sake of clarity.
  • elements common to those of the first embodiment and the comparative example are denoted by common reference numerals in the drawings, and descriptions thereof will be omitted.
  • the pixel separating portion 304 that separates the two pixels 302a and 302b passes through part of the semiconductor substrate 300 from the light receiving surface 300a along the thickness direction of the semiconductor substrate 300. and a separation portion (second separation portion) 304a provided to penetrate part of the semiconductor substrate 300 from the surface 300b facing the light receiving surface 300a.
  • the pixel separation portion 304 is configured by the separation portion 304b extending from the light receiving surface 300a and the separation portion 304a extending from the surface 300b, so that the pixel separation portion 304 extends along the thickness direction of the semiconductor substrate 300. It becomes possible to form while suppressing variation in length. As a result, in this embodiment, variations in charge transfer and separation ratio characteristics can be suppressed between the pixels 302a and 302b.
  • the separating portions 304a and 304b are preferably made of a high refractive index material.
  • the difference in refractive index with respect to the semiconductor substrate 300 can be reduced, and reflection on the surfaces of the isolation portions 304a and 304b can be suppressed. can be done.
  • the side surfaces of the separating portions 304a and 304b are configured with uneven surfaces having unevenness 320.
  • the side surfaces of the separating portions 304a and 304b are configured by the surfaces having the unevenness 320. Light is scattered by the unevenness 320, and the specular reflection intensity on the side surfaces of the separating portions 304a and 304b increases. It becomes small, and so-called reflection can be suppressed.
  • the unevenness 320 of the pixel separating portion 304 has a hemispherical convex portion.
  • the unevenness 320 is not limited to a hemispherical shape, and may have a conical or pyramidal convex portion.
  • the period of the unevenness 320 of the pixel separation unit 304 may be changed according to the wavelength of the light detected by the imaging element 100, as in the second modification of the first embodiment.
  • a second layer is formed above the isolation portion 304a (on the side of the light receiving surface 300a) and below the isolation portion 304b (on the side of the surface 300b) by, for example, ion implantation.
  • a diffusion region (not shown) is formed by introducing an impurity of one conductivity type (for example, n-type). The diffusion region can act as an overflow path (indicated by arrows in FIG. 13) through which charge generated between pixels 302a, 302b can be exchanged.
  • the imaging device 100 according to this embodiment is not limited to the configuration shown in FIG. 13 .
  • the imaging element 100 can be formed as follows. First, as in the first embodiment, a trench that partially penetrates the semiconductor substrate 300 is formed along the thickness direction of the semiconductor substrate 300 from the surface 300b of the semiconductor substrate 300 . At this time, the trench is formed so that the side surface of the trench is uneven. Further, the isolation portion 304a is formed by embedding a high refractive material in the trench.
  • impurities of a first conductivity type for example, n-type
  • a diffusion region which becomes an overflow path
  • the length of the separation portion 304a is measured, and the length of the separation portion 304b is determined based on the measurement result. Further, a region of the semiconductor substrate 300 on the light-receiving surface side of the separation portion 304a is aligned so as to overlap with the separation portion 304a. A trench is formed through the portion. At this time, the trench is formed so that the side surface of the trench is uneven. Then, the isolation portion 304b is formed by embedding a high refractive index material in the trench.
  • the isolation portion 304a is formed first, and the isolation portion 304b is formed based on the length of the isolation portion 304a. It becomes possible to form while suppressing variations. As a result, in this embodiment, variations in charge transfer and separation ratio characteristics can be suppressed between the pixels 302a and 302b.
  • FIG. 14 is a schematic cross-sectional view of the imaging device 100 according to the modification of the second embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the thickness direction of the semiconductor substrate 300. It is a diagram. In FIG. 14, illustration of the diffusion region 306 is omitted for the sake of clarity. Further, in the following description, elements common to those of the first embodiment and the comparative example are denoted by common reference numerals in the drawings, and descriptions thereof will be omitted.
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304a of the imaging element 100R that detects red light (for example, wavelengths of 620 nm to 750 nm) corresponds to green light (for example, wavelengths 495 nm to 570 nm) is shorter than the length along the thickness direction of the semiconductor substrate 300 of the separation portion 304a of the imaging device 100G.
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304a of the imaging device 100G that detects green light is the same as that of the separating portion 304a of the imaging device 100B that detects blue light (for example, wavelengths of 450 nm to 495 nm).
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304b of the imaging device 100R that detects red light is equal to that of the imaging device that detects green light (for example, wavelengths of 495 nm to 570 nm). It is longer than the length along the thickness direction of the semiconductor substrate 300 of the separation portion 304b of 100G.
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304b of the imaging device 100G that detects green light is the same as that of the separating portion 304b of the imaging device 100B that detects blue light (for example, wavelengths of 450 nm to 495 nm). It is longer than the length along the thickness direction of 300 .
  • the slits (more specifically, overflow paths) ( 14) can be positioned deeper in the semiconductor substrate 300 as the imaging element 100 detects light having a longer wavelength.
  • the longer the wavelength of light the deeper it reaches the semiconductor substrate 300. Therefore, according to the present embodiment, by changing the positions of the slits according to the wavelength of the light detected by the imaging device 100, the separating portions 304a and 304b are separated from each other. It is possible to suppress the reflection of light by the side surface of the .
  • the slit between the separating portions 304a and 304b of the image pickup device 100 that detects infrared light is used to separate the image pickup device 100R that detects red light. It is preferably located deeper than the slit between the portions 304a, 304b.
  • FIG. 15 is a schematic cross-sectional view of the imaging device 100 according to the third embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the plane of the semiconductor substrate 300 .
  • 16 to 18 are schematic cross-sectional views of an imaging device 100 according to the third embodiment of the present disclosure. More specifically, a cross section of the imaging device 100 cut along the thickness direction of the semiconductor substrate 300, that is, 16 is a schematic cross-sectional view of the semiconductor substrate 300 taken along line DD′ shown in FIG. 15.
  • FIG. 15 is a schematic cross-sectional view of the imaging device 100 according to the third embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the plane of the semiconductor substrate 300 . More specifically, a cross section of the imaging device 100 cut along the thickness direction of the semiconductor substrate 300, that is, 16 is a schematic cross-sectional view of the semiconductor substrate 300 taken along line DD′ shown in FIG. 15.
  • the pixel separation section 304 is provided in the vicinity of the center of the image sensor 100 so as to extend vertically in the figure.
  • the pixel separation section 304 is provided so as to extend from end to end of the imaging device 100 along the vertical direction in the figure. .
  • the side surface of the pixel separating portion 304 has unevenness 320 having a hemispherical convex portion, but in the present embodiment, as shown in FIG. , the pixel separation unit 304 itself has a shape in which a plurality of circles are connected in plan view. In the present embodiment, by forming the pixel separating portion 304 in such a shape, reflection can be further reduced.
  • the size (diameter) of the circle forming the pixel separation unit 304 may be changed according to the wavelength of light detected by the imaging device 100. Specifically, as shown in FIG. 15, the size of the circle of the pixel separation unit 304 of the image sensor 100R that detects red light (for example, wavelengths of 620 nm to 750 nm) is larger than that for detecting green light (for example, wavelengths of 495 nm to 570 nm). It is larger than the size of the circle of the pixel separation section 304 of the imaging device 100G.
  • the size of the circle of the pixel separation section 304 of the image sensor 100G that detects green light is larger than the size of the circle of the pixel separation section 304 of the image sensor 100G that detects blue light (for example, wavelengths of 450 nm to 495 nm). big.
  • the size (diameter) of the circle forming the pixel separation section 304 by setting the size (diameter) of the circle forming the pixel separation section 304 to be close to the wavelength, the light scattering effect due to the unevenness of the pixel separation section 304 can be favorably brought out, and the effect of suppressing reflection can be obtained. can be enhanced.
  • the imaging device 100 detects infrared light (for example, a wavelength of 800 nm or more)
  • the size of the circle forming the pixel separation unit 304 is the same as that for detecting red light. It is preferable to make it larger than the size of the circle forming the pixel separation section 304 of the image sensor 100R.
  • the The length of the pixel separating section 304 may be substantially the same among the imaging elements 100R, 100G, and 100B.
  • the pixel separation section 304 along the thickness of the semiconductor substrate 300 may also be changed according to the wavelength of light detected by the imaging device 100 .
  • the length along the thickness direction of the semiconductor substrate 300 of the pixel separation section 304 of the imaging element 100R that detects red light (for example, wavelengths of 620 nm to 750 nm) detects green light (for example, wavelengths of 495 nm to 570 nm). It is shorter than the length along the thickness direction of the semiconductor substrate 300 of the pixel separation portion 304 of the imaging device 100G.
  • the length of the pixel separation portion 304 of the image pickup device 100G that detects green light along the thickness direction of the semiconductor substrate 300 is the same as that of the pixel separation portion 304 of the image pickup device 100B that detects blue light (for example, wavelengths of 450 nm to 495 nm). , is shorter than the length along the thickness direction of the semiconductor substrate 300 .
  • the distance r from the upper surface of the pixel separating section 304 of the image sensor 100R that detects red light to the light receiving surface 300a is the distance from the upper surface of the pixel separating section 304 of the image sensor 100G that detects green light to the light receiving surface 300a. longer than g. Furthermore, the distance g from the upper surface of the pixel separation section 304 of the image sensor 100G that detects green light to the light receiving surface 300a is the distance b from the upper surface of the pixel separation section 304 of the image sensor 100B that detects blue light to the light receiving surface 300a. long compared to
  • the length of the pixel separation portion 304 of the image sensor 100 that detects infrared light is the same as the length of the pixel separation portion 304 of the image sensor 100R that detects red light. It is preferably short compared to the length of 304 .
  • the length along the thickness direction of the semiconductor substrate 300 of the pixel separation section 304 of the image sensor 100R that detects red light is equal to that for green light (for example, wavelength 495 nm).
  • 570 nm may be longer than the length along the thickness direction of the semiconductor substrate 300 .
  • the length of the pixel separation portion 304 of the image pickup device 100G that detects green light along the thickness direction of the semiconductor substrate 300 is the same as that of the pixel separation portion 304 of the image pickup device 100B that detects blue light (for example, wavelengths of 450 nm to 495 nm).
  • the distance r from the top surface of the pixel separation section 304 of the image sensor 100R that detects red light to the light receiving surface 300a is the distance r from the top surface of the pixel separation section 304 of the image sensor 100G that detects green light. It is shorter than the distance g to the light receiving surface 300a.
  • the distance g from the upper surface of the pixel separation section 304 of the image sensor 100G that detects green light to the light receiving surface 300a is the distance b from the upper surface of the pixel separation section 304 of the image sensor 100B that detects blue light to the light receiving surface 300a. short compared to Although not shown in FIG. 18, in the case of the image sensor 100 that detects infrared light (for example, a wavelength of 800 nm or more), the length of the pixel separation section 304 of the image sensor 100R that detects red light is can be longer.
  • imaging device 100 is not limited to the configurations shown in FIGS. 15 to 18.
  • FIG. 15 is not limited to the configurations shown in FIGS. 15 to 18.
  • FIG. 19 is a schematic cross-sectional view of the imaging device 100 according to Modification 1 of the third embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the plane of the semiconductor substrate 300 It is a diagram.
  • FIG. 20 is a schematic diagram of a cross section of an imaging device 100 according to Modification 1 of the third embodiment of the present disclosure. That is, it is a schematic diagram of a cross section of the semiconductor substrate 300 taken along line EE' shown in FIG.
  • the pixel separation unit 304 itself has a shape in which a plurality of circles are connected in plan view.
  • the sizes of the circles forming the separating portion 304 are substantially the same.
  • the pixel separating portion 304 is provided along the thickness direction of the semiconductor substrate 300 so as to penetrate through a portion of the semiconductor substrate 300 from the surface 300b ( a first separation portion) 304a, and a separation provided so as to penetrate a part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the separation portion (first separation portion) 304a toward the light receiving surface 300a. section (second separation section) 304b.
  • the side surface of the separating portion 304a is flat, and the side surface of the separating portion 304b has hemispherical unevenness 320.
  • the length d of the separation portion 304a on the side of the surface 300b is preferably about 200 nm.
  • the entire length of the pixel separation section 304 along the thickness of the semiconductor substrate 300 of each of the imaging elements 100R, 100G, and 100B may be substantially the same.
  • FIG. 21 is a schematic cross-sectional view of an imaging device 100 according to Modification 2 of the third embodiment of the present disclosure, and more specifically, a schematic cross-sectional view of the imaging device 100 cut along the plane of the semiconductor substrate 300.
  • FIG. 22 to 24 are schematic cross-sectional views of an imaging device 100 according to Modification 2 of the third embodiment of the present disclosure. Specifically, the imaging device 100 is cut along the thickness direction of the semiconductor substrate 300. 21, that is, a schematic diagram of a cross section of the semiconductor substrate 300 taken along line FF' shown in FIG.
  • the size of the circle forming the pixel separation unit 304 may be changed according to the wavelength of light detected by the image sensor 100, as in the present embodiment. .
  • the pixel separation portion 304 is a separation portion provided along the thickness direction of the semiconductor substrate 300 so as to penetrate a portion of the semiconductor substrate 300 from the surface 300b. 304a, and a separation portion 304b provided so as to penetrate a part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the separation portion 304a toward the light receiving surface 300a.
  • the entire length of the pixel separation section 304 along the thickness of the semiconductor substrate 300 of each of the imaging elements 100R, 100G, and 100B may be substantially the same.
  • the length of the separating portion 304b along the thickness of the semiconductor substrate 300 may also be changed according to the wavelength of the light detected by the imaging element 100. Specifically, the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304b of the imaging element 100R that detects red light (for example, wavelengths of 620 nm to 750 nm) detects green light (for example, wavelengths of 495 nm to 570 nm). It may be shorter than the length along the thickness direction of the semiconductor substrate 300 of the separation portion 304b of the imaging device 100G.
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304b of the imaging device 100G that detects green light is equal to It may be shorter than the length along the thickness direction of the semiconductor substrate 300 .
  • the longer the wavelength of the light to be detected the longer the distance from the light receiving surface 300a of the separating portion 304b. Since the longer the wavelength of the light, the deeper it reaches the semiconductor substrate 300, according to this modification, by doing so, it is possible to suppress the reflection of the light from the side surface of the separating portion 304b.
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304b of the imaging element 100R that detects red light is equal to that of green light (for example, wavelengths of 495 nm to 750 nm).
  • 570 nm may be longer than the length along the thickness direction of the semiconductor substrate 300 .
  • the length along the thickness direction of the semiconductor substrate 300 of the separating portion 304b of the imaging device 100G that detects green light is equal to It may be longer than the length along the thickness direction of the semiconductor substrate 300 .
  • reflection on the side surfaces of the pixel separation section 304 is reduced by making the side surfaces of the pixel separation section 304 uneven.
  • incident light is reflected even on the upper surface of the pixel separation unit 304 located on the light receiving surface 300a side, the accuracy of phase difference detection between the pixels 302a and 302b in the same image sensor 100 is deteriorated, and the adjacent image sensors Color mixing between 100 occurred.
  • reflection on the upper surface of the pixel separation section 304 is reduced by making the upper surface of the pixel separation section 304 on the side of the light receiving surface 300a uneven.
  • FIG. FIG. 25 is a schematic diagram of a cross section of the imaging device 100 according to the fourth embodiment of the present disclosure. Specifically, FIG. is an enlarged view of a portion of the. Moreover, FIG. 26 is a perspective view of the imaging device 100 according to the fourth embodiment of the present disclosure. In FIG. 25, illustration of the diffusion region 306 is omitted for the sake of clarity. Further, in the following description, elements common to those of the first embodiment and the comparative example are denoted by common reference numerals in the drawings, and descriptions thereof will be omitted.
  • a pixel separation unit 304 for separating two pixels (photoelectric conversion units (not shown)) 302a and 302b is a DTI.
  • a trench (not shown) provided to penetrate a part of the semiconductor substrate 300 along the thickness direction of the semiconductor substrate 300 from the side of the surface 300b facing the light receiving surface 300a, and embedded in the trench and a high refractive index material.
  • the upper surface of the pixel separation section 304 is configured with an uneven surface having projections 330 .
  • the upper surface of the pixel separation section 304 has a pyramid-shaped protrusion 330 .
  • the convex portion 330 is not limited to a pyramidal shape, and may have a conical or hemispherical convex portion.
  • the area indicated by the broken line in the enlarged view of FIG. It has a refractive index that is the average value with the index (A).
  • the area indicated by the dashed line has a refractive index that is the average value of the refractive index (B) of the high refractive index material forming the pixel separation section 304 and the refractive index (A) of silicon forming the semiconductor substrate 300. It will happen. Furthermore, since there is a region having two average refractive indices between the semiconductor substrate 300 and the pixel separation section 304, the refractive index difference becomes small and reflection on the upper surface of the pixel separation section 304 is suppressed. be able to.
  • the height of the convex portion 330 in this embodiment is preferably, for example, about several hundred nm.
  • the imaging device 100 according to this embodiment is not limited to the configurations shown in FIGS. 25 and 26. FIG.
  • FIG. 27 is a cross-sectional view for explaining a part of the manufacturing process of the method for manufacturing the imaging device 100 according to this embodiment, and in detail corresponds to the cross-sectional view shown in FIG.
  • a trench penetrating through the semiconductor substrate 300 is formed in the semiconductor substrate 300, and an insulating material is embedded in the trench to form an element isolation wall 310.
  • a mask 500 is formed on the surface of the semiconductor substrate 300 .
  • a pattern is formed on a mask 500 using a DSA (Directed Self Assembly) material, and dry etching is performed on the pattern to transfer the uneven shape.
  • DSA is a method of spontaneously forming regular fine patterns by utilizing the chemical properties (phase separation phenomenon) of polymers and the like.
  • the shape of the pattern can be easily changed by changing the composition of the polymer or the like.
  • etching is further advanced along the transferred unevenness to form a trench having unevenness at the bottom. Furthermore, by embedding a high-refractive-refraction material in the trench formed in this manner, a pixel isolation portion 304 can be formed as shown in the fourth from the left side of FIG.
  • the imaging device 100 according to this embodiment can be formed as described above.
  • FIG. 28 is a schematic diagram of a cross section of the imaging device 100 according to Modification 1 of the fourth embodiment of the present disclosure. It is a schematic diagram. In FIG. 28, illustration of the diffusion region 306 is omitted for the sake of clarity. Further, in the following description, elements common to those of the first embodiment and the comparative example are denoted by common reference numerals in the drawings, and descriptions thereof will be omitted.
  • convex portions 330 may also be formed on the upper surface of the pixel separating portion 304 having uneven side surfaces as in the embodiments described so far.
  • the upper surface of the pixel separation section 304 may have a hemispherical convex section 330 .
  • the upper surface of the pixel separation section 304 may have pyramid-shaped projections 330 provided periodically.
  • the upper surface of the pixel separation section 304 may have convex sections 330 provided at random.
  • the first conductivity type is the n-type
  • the second conductivity type is the p-type
  • the imaging device 100 using electrons as signal charges has been described.
  • Embodiments are not limited to such examples.
  • this embodiment can be applied to the imaging device 100 in which the first conductivity type is p-type, the second conductivity type is n-type, and holes are used as signal charges.
  • the semiconductor substrate 300 does not necessarily have to be a silicon substrate, and may be another substrate (eg, SOI (Silicon On Insulator) substrate, SiGe substrate, etc.). Also, the semiconductor substrate 300 may be one in which a semiconductor structure or the like is formed on such various substrates.
  • SOI Silicon On Insulator
  • SiGe substrate SiGe substrate
  • the imaging device 1 is not limited to an imaging device that detects the distribution of the amount of incident visible light and captures an image.
  • the present embodiment includes an imaging device that captures an image of the distribution of incident amounts of infrared rays, X-rays, particles, etc., and a fingerprint that detects the distribution of other physical quantities such as pressure and capacitance and captures the image. It can be applied to an imaging device (physical quantity distribution detection device) such as a detection sensor.
  • the imaging device 1 according to the embodiment of the present disclosure can be manufactured by using methods, devices, and conditions that are used for manufacturing general semiconductor devices. That is, the imaging device 1 according to the present embodiment can be manufactured using the existing manufacturing process of semiconductor devices.
  • PVD Physical Vapor Deposition
  • CVD Chemical Vapor Deposition
  • ALD Atomic Layer Deposition
  • PVD method vacuum deposition method, EB (electron beam) deposition method, various sputtering methods (magnetron sputtering method, RF (Radio Frequency)-DC (Direct Current) combined bias sputtering method, ECR (Electron Cyclotron Resonance) sputtering method , facing target sputtering method, high frequency sputtering method, etc.), ion plating method, laser ablation method, molecular beam epitaxy method (MBE (Molecular Beam Epitaxy) method), and laser transfer method.
  • MBE molecular beam epitaxy
  • CVD methods include plasma CVD, thermal CVD, metal-organic (MO) CVD, and optical CVD.
  • other methods include electrolytic plating method, electroless plating method, spin coating method; immersion method; casting method; microcontact printing method; drop casting method; screen printing method, inkjet printing method, offset printing method, gravure printing.
  • Various printing methods such as printing method, flexographic printing method; stamp method; spray method; air doctor coater method, blade coater method, rod coater method, knife coater method, squeeze coater method, reverse roll coater method, transfer roll coater method, gravure coater method , kiss coater method, cast coater method, spray coater method, slit orifice coater method and calendar coater method.
  • planarization techniques include a CMP (Chemical Mechanical Polishing) method, a laser planarization method, a reflow method, and the like.
  • FIG. 32 is an explanatory diagram showing a plane of the imaging element 100 according to the present embodiment (modification), and in detail corresponds to a cross section of the imaging element 100 cut along the planar direction of the semiconductor substrate 300 .
  • FIG. 33 is an explanatory diagram showing a part of the cross section of the imaging device 100 for each structure according to the present embodiment (modification), that is, the semiconductor substrate 300 for each structure. ' lines correspond to cross sections obtained by cutting the semiconductor substrate 300 for each structure. Although not shown in FIG. 33, it is assumed that the surface of the pixel separation portion 304 is uneven.
  • the pixel separation unit 304 can be in the form of either RDTI (rear surface DTI) or FDTI (front surface DTI).
  • trench T3 is formed in the thickness direction of semiconductor substrate 300 .
  • This trench T3 is filled with a high refractive material.
  • the trench T3 is formed in a tapered shape that widens inward from the surface of the semiconductor substrate 300, but it is not limited to this.
  • the trench T3 may be formed straight so as to be orthogonal (or substantially orthogonal) to the surface of the semiconductor substrate 300 .
  • RDTI is a structure in which a trench T3 is formed from the light receiving surface 300a of the semiconductor substrate 300 to the middle of the semiconductor substrate 300.
  • FIG. FDTI is a structure in which a trench is formed from the surface 300 b of the semiconductor substrate 300 to the middle of the semiconductor substrate 300 .
  • FIG. 34 is an explanatory diagram showing an example of a schematic functional configuration of a camera 700 to which the technology according to the present disclosure (the present technology) can be applied.
  • the camera 700 has an imaging device 702, an optical lens 710, a shutter mechanism 712, a drive circuit unit 714, and a signal processing circuit unit 716.
  • the optical lens 710 forms an image of image light (incident light) from a subject on the imaging surface of the imaging device 702 .
  • signal charges are accumulated in the imaging element 100 of the imaging device 702 for a certain period of time.
  • the shutter mechanism 712 controls a light irradiation period and a light shielding period for the imaging device 702 by opening and closing.
  • the drive circuit unit 714 supplies drive signals for controlling the signal transfer operation of the imaging device 702, the shutter operation of the shutter mechanism 712, and the like.
  • the imaging device 702 performs signal transfer based on the drive signal (timing signal) supplied from the drive circuit unit 714 .
  • the signal processing circuit unit 716 performs various signal processing. For example, the signal processing circuit unit 716 outputs the signal-processed video signal to a storage medium (not shown) such as a memory or to a display unit (not shown).
  • the imaging element 100 according to the embodiment of the present disclosure can be applied to the imaging device 702 of the camera 700.
  • FIG. 35 is a block diagram showing an example of a schematic functional configuration of a smartphone 900 to which the technology (the present technology) according to the present disclosure can be applied.
  • a smartphone 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903.
  • Smartphone 900 also includes storage device 904 , communication module 905 , and sensor module 907 .
  • Smartphone 900 further includes imaging device 909 , display device 910 , speaker 911 , microphone 912 , input device 913 and bus 914 .
  • the smartphone 900 may have a processing circuit such as a DSP (Digital Signal Processor) in place of the CPU 901 or together with it.
  • DSP Digital Signal Processor
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or part of the operations within the smartphone 900 according to various programs recorded in the ROM 902, RAM 903, storage device 904, or the like.
  • a ROM 902 stores programs and calculation parameters used by the CPU 901 .
  • the RAM 903 temporarily stores programs used in the execution of the CPU 901, parameters that change as appropriate during the execution, and the like.
  • the CPU 901 , ROM 902 and RAM 903 are interconnected by a bus 914 .
  • the storage device 904 is a data storage device configured as an example of a storage unit of the smartphone 900 .
  • the storage device 904 is composed of, for example, a magnetic storage device such as a HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, or the like.
  • the storage device 904 stores programs executed by the CPU 901, various data, and various data acquired from the outside.
  • the communication module 905 is, for example, a communication interface configured with a communication device for connecting to the communication network 906.
  • the communication module 905 can be, for example, a communication card for wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), or WUSB (Wireless USB).
  • the communication module 905 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various types of communication, or the like.
  • a communication network 906 connected to the communication module 905 is a wired or wireless network, such as the Internet, home LAN, infrared communication, or satellite communication.
  • the sensor module 907 is, for example, a motion sensor (eg, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.), a biological information sensor (eg, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.), or a position sensor (eg, GNSS (Global Navigation Satellite system) receiver, etc.) and various sensors.
  • a motion sensor eg, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.
  • a biological information sensor eg, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.
  • GNSS Global Navigation Satellite system
  • the imaging device 909 is provided on the surface of the smartphone 900 and can image an object or the like located on the back side or the front side of the smartphone 900 .
  • the imaging device 909 includes an imaging device 100 such as a CMOS (Complementary MOS) image sensor to which the technology according to the present disclosure (this technology) can be applied, and imaging signal processing for signals photoelectrically converted by the imaging device. and a signal processing circuit (not shown) for applying
  • the imaging device 909 further includes an optical system mechanism (not shown) composed of an imaging lens, a zoom lens, a focus lens, etc., and a drive system mechanism (not shown) for controlling the operation of the optical system mechanism. can be done.
  • the image sensor collects incident light from an object as an optical image
  • the signal processing circuit photoelectrically converts the formed optical image pixel by pixel, and reads the signal of each pixel as an image signal. , a captured image can be obtained by performing image processing.
  • the display device 910 is provided on the surface of the smartphone 900 and can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electro Luminescence) display.
  • the display device 910 can display an operation screen, captured images acquired by the imaging device 909 described above, and the like.
  • the speaker 911 can output, for example, the voice of a call, the voice accompanying the video content displayed by the display device 910 described above, and the like to the user.
  • the microphone 912 can collect, for example, the user's call voice, voice including commands for activating functions of the smartphone 900 , and ambient environment voice of the smartphone 900 .
  • the input device 913 is, for example, a device operated by a user, such as a button, keyboard, touch panel, or mouse.
  • the input device 913 includes an input control circuit that generates an input signal based on information input by the user and outputs the signal to the CPU 901 .
  • the user can input various data to the smartphone 900 and instruct processing operations.
  • a configuration example of the smartphone 900 has been shown above.
  • Each component described above may be configured using general-purpose members, or may be configured by hardware specialized for the function of each component. Such a configuration can be changed as appropriate according to the technical level of implementation.
  • the present technology can also take the following configuration.
  • a semiconductor substrate a plurality of imaging elements arranged in a matrix on the semiconductor substrate and performing photoelectric conversion on incident light; with Each of the plurality of imaging elements, a plurality of pixels provided adjacent to each other in a predetermined unit area of the semiconductor substrate and having photoelectric conversion portions; a pixel separation unit that separates the plurality of pixels; has The pixel separation section is provided along the thickness direction of the semiconductor substrate so as to penetrate at least a portion of the semiconductor substrate, At least one surface of the surfaces of the pixel separation section is an uneven surface, Imaging device.
  • the plurality of imaging elements are a first imaging device that photoelectrically converts light having a wavelength in a first wavelength band; a second imaging device that photoelectrically converts light having a wavelength in a second wavelength band shorter than the first wavelength band; including, The imaging device according to any one of (1) to (4) above.
  • each of the plurality of imaging elements further includes an on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels.
  • the imaging device according to (9) The imaging device according to (8) above, wherein the pixel separation section is provided so as to penetrate a part of the semiconductor substrate from the surface facing the light receiving surface along the thickness direction of the semiconductor substrate.
  • the length of the pixel separating portion of the first imaging element along the thickness direction of the semiconductor substrate is the length of the pixel separating portion of the second imaging element along the thickness direction of the semiconductor substrate.
  • the length of the pixel separating portion of the first imaging element along the thickness direction of the semiconductor substrate is the length of the pixel separating portion of the second imaging element along the thickness direction of the semiconductor substrate.
  • the length of the pixel separating portion of the first imaging element along the thickness direction of the semiconductor substrate is the same as the length of the pixel separating portion of the second imaging element along the thickness direction of the semiconductor substrate.
  • the imaging device according to (9) or (10) which are substantially the same.
  • the pixel separation unit is a first separating portion provided to penetrate a portion of the semiconductor substrate from a surface facing the light receiving surface along the thickness direction of the semiconductor substrate; a second separating portion provided to penetrate a part of the semiconductor substrate along the thickness direction of the semiconductor substrate from the first separating portion toward the light receiving surface; consists of A side surface of the first separating portion is flat, A side surface of the second separation portion is the uneven surface,
  • the length of the first separation portion of the pixel separation portion of the first imaging device along the thickness direction of the semiconductor substrate is equal to the first separation of the pixel separation portion of the second imaging device.
  • the imaging device according to (8) above, wherein the pixel separating section is provided so as to penetrate a part of the semiconductor substrate from the light receiving surface along the thickness direction of the semiconductor substrate.
  • the pixel separation unit is a first separating portion provided to penetrate a part of the semiconductor substrate from the light receiving surface along the thickness direction of the semiconductor substrate; a second separating portion provided to penetrate a portion of the semiconductor substrate from the surface facing the light receiving surface; consisting of The imaging device according to (8) above.
  • each of the plurality of imaging elements has two of the pixels, The imaging device according to any one of (1) to (17) above.
  • Each of the plurality of imaging elements an element isolation wall surrounding a predetermined unit region of the semiconductor substrate and penetrating the semiconductor substrate along the thickness direction of the semiconductor substrate;
  • the imaging device according to any one of (1) to (18) above.
  • (20) a semiconductor substrate; a plurality of imaging elements arranged in a matrix on the semiconductor substrate and performing photoelectric conversion on incident light;
  • An electronic device equipped with an imaging device comprising Each of the plurality of imaging elements, a plurality of pixels provided adjacent to each other in a predetermined unit area of the semiconductor substrate and having photoelectric conversion portions; a pixel separation unit that separates the plurality of pixels; has The pixel separation section is provided along the thickness direction of the semiconductor substrate so as to penetrate at least a portion of the semiconductor substrate, At least one surface of the surfaces of the pixel separation section is an uneven surface, Electronics.
  • Imaging device 20 pixel array section 21 vertical drive circuit section 22 column signal processing circuit section 23 horizontal drive circuit section 24 output circuit section 25 control circuit section 26 pixel drive wiring 27 vertical signal line 28 horizontal signal line 29 input/output Terminals 100, 100a, 100B, 100G, 100R Imaging element 200 On-chip lens 202 Color filter 204 Light shielding part 300 Semiconductor substrate 300a Light receiving surface 300b Surface 302a, 302b Pixels 304 Pixel separation parts 304a, 304b Separation part 306 Diffusion region 310 Element separation wall 320 unevenness 330 convex portion 400 transfer gate 402 wiring layer 500 mask 700 camera 710 optical lens 712 shutter mechanism 714 drive circuit unit 716 signal processing circuit unit 900 smartphone 901 CPU 902 ROMs 903 RAM 904 storage device 905 communication module 906 communication network 907 sensor module 910 display device 911 speaker 912 microphone 913 input device 914 bus

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

半導体基板(300)と、前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子(100)とを備え、前記複数の撮像素子のそれぞれは、前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素(302a、302b)と、前記複数の画素を分離する画素分離部(304)とを有し、前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、撮像装置を提供する。

Description

撮像装置及び電子機器
 本開示は、撮像装置及び電子機器に関する。
 撮像画像の劣化を避けつつ、オートフォーカス機能をさらに向上させるために、撮像装置の画素アレイ部の全面に位相差検出画素を設けることが提案されている。このような画素においては、位相差検出のために一対の画素が設けられ、さらに、当該一対の画素を光学的、且つ、電気的に分離するために、画素分離部が設けられる。
米国特許出願公開第2018/0219040号明細書 米国特許出願公開第2019/0296070号明細書
 しかしながら、上述した画素分離部により、画素に入射した光が反射され、位相差検出の精度(分離比)を悪くしたり、混色が発生したりすることがあった。
 そこで、本開示では、反射を低減して、位相差検出の精度の劣化や、隣接する撮像素子間における混色の発生を抑えることができる、撮像装置及び電子機器を提案する。
 本開示によれば、半導体基板と、前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子とを備え、前記複数の撮像素子のそれぞれは、前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素と、前記複数の画素を分離する画素分離部とを有し、前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、撮像装置が提供される。
 また、本開示によれば、半導体基板と、前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子とを備える撮像装置を搭載する電子機器であって、前記複数の撮像素子のそれぞれは、前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素と、前記複数の画素を分離する画素分離部とを有し、前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、電子機器が提供される。
本開示の実施形態に係る撮像装置1の平面構成例を示す説明図である。 比較例に係る撮像素子100aの断面の模式図である。 本開示の第1の実施形態に係る撮像素子100の断面の模式図(その1)である。 本開示の第1の実施形態に係る撮像素子100の断面の模式図(その2)である。 本開示の第1の実施形態に係る撮像素子100の製造方法の製造工程の一部を説明するための断面図である。 本開示の第1の実施形態の変形例1に係る撮像素子100の断面の模式図である。 本開示の第1の実施形態の変形例1に係る撮像素子100の製造方法の製造工程の一部を説明するための断面図である。 本開示の第1の実施形態の変形例2に係る撮像素子100の断面の模式図(その1)である。 本開示の第1の実施形態の変形例2に係る撮像素子100の断面の模式図(その2)である。 本開示の第1の実施形態の変形例2に係る撮像素子100の断面の模式図(その3)である。 本開示の第2の実施形態を説明するための説明図(その1)である。 本開示の第2の実施形態を説明するための説明図(その2)である。 本開示の第2の実施形態に係る撮像素子100の断面の模式図である。 本開示の第2の実施形態の変形例に係る撮像素子100の断面の模式図である。 本開示の第3の実施形態に係る撮像素子100の断面の模式図(その1)である。 本開示の第3の実施形態に係る撮像素子100の断面の模式図(その2)である。 本開示の第3の実施形態に係る撮像素子100の断面の模式図(その3)である。 本開示の第3の実施形態に係る撮像素子100の断面の模式図(その4)である。 本開示の第3の実施形態の変形例1に係る撮像素子100の断面の模式図(その1)である。 本開示の第3の実施形態の変形例1に係る撮像素子100の断面の模式図(その2)である。 本開示の第3の実施形態の変形例2に係る撮像素子100の断面の模式図(その1)である。 本開示の第3の実施形態の変形例2に係る撮像素子100の断面の模式図(その2)である。 本開示の第3の実施形態の変形例2に係る撮像素子100の断面の模式図(その3)である。 本開示の第3の実施形態の変形例2に係る撮像素子100の断面の模式図(その4)である。 本開示の第4の実施形態に係る撮像素子100の断面の模式図である。 本開示の第4の実施形態に係る撮像素子100の斜視図である。 本開示の第4の実施形態に係る撮像素子100の製造方法の製造工程の一部を説明するための断面図である。 本開示の第4の実施形態の変形例1に係る撮像素子100の断面の模式図である。 本開示の第4の実施形態の変形例2に係る撮像素子100の詳細施工性を説明するための説明図(その1)である。 本開示の第4の実施形態の変形例2に係る撮像素子100の詳細施工性を説明するための説明図(その2)である。 本開示の第4の実施形態の変形例2に係る撮像素子100の詳細施工性を説明するための説明図(その3)である。 本開示の実施形態(変形例)に係る撮像素子100の平面を示す説明図である。 本開示の実施形態(変形例)に係る構造毎の撮像素子100の半導体基板300の断面の一部を示す説明図である。 本開示に係る技術が適用され得るカメラ700の概略的な機能構成の一例を示す説明図である。 本開示に係る技術が適用され得るスマートフォン900の概略的な機能構成の一例を示すブロック図である。
 以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下の説明で参照される図面は、本開示の一実施形態の説明とその理解を促すための図面であり、わかりやすくするために、図中に示される形状や寸法、比などは実際と異なる場合がある。さらに、図中に示される撮像装置は、以下の説明と公知の技術を参酌して適宜、設計変更することができる。
 また、以下の説明で参照される図面は、本開示の一実施形態の説明とその理解を促すための図面であり、わかりやすくするために、図中に示される形状や寸法、比などは実際と異なる場合がある。さらに、図中に示される撮像装置は、以下の説明と公知の技術を参酌して適宜、設計変更することができる。また、撮像装置の断面図を用いた説明においては、特に断りがない限り、撮像装置の積層構造の上下方向は、撮像装置に対して入射する光が入ってくる受光面を上とした場合の相対方向に対応し、実際の重力加速度に従った上下方向とは異なる場合がある。
 また、以下の説明において表現される形状や寸法は、数学的又は幾何学的に定義される形状お及び寸法だけを意味するだけでなく、撮像装置の動作及び撮像装置の製造工程において許容される程度の違い(誤差・ひずみ)を含む類似形状や寸法も含むことを意味する。さらに、以下の説明において具体的な形状や寸法に対して使用される「同一」又は「略同一」は、数学的又は幾何学的に完全に一致している場合だけを意味するものではなく、撮像装置の動作及び撮像装置の製造工程において許容される程度の違い(誤差・ひずみ)を有する場合も含まれているものとする。
 さらに、以下の説明において、「電気的に接続する」とは、複数の要素の間を、直接的に、もしくは、他の要素を介して間接的に接続することを意味する。
 また、以下の説明においては、「共有」とは、互いに異なる要素(例えば、画素等)間で1つの他の要素(例えば、オンチップレンズ等)を共に利用することである。
 なお、説明は以下の順序で行うものとする。
  1. 撮像装置の概略構成
  2. 比較例
    2.1 比較例について
    2.2 詳細構成
    2.3 背景
  3. 第1の実施形態
   3.1 詳細構成
   3.2 製造方法
   3.3 変形例1
   3.4 変形例2
  4. 第2の実施形態
   4.1 背景
   4.2 詳細構成
   4.3 変形例
  5. 第3の実施形態
   5.1 詳細構成
   5.2 変形例1
   5.3 変形例2
  6. 第4の実施形態
   6.1 背景
   6.2 詳細構成
   6.3 製造方法
   6.4 変形例1
   6.5 変形例2
  7. まとめ
    7.1 まとめ
    7.2 その他の形態
  8. 応用例
    8.1 カメラへの応用例
    8.2 スマートフォンへの応用例
  9. 補足
 <<1. 撮像装置の概略構成>>
 まずは、図1を参照して、本開示の実施形態に係る撮像装置1の概略構成について説明する。図1は、本開示の実施形態に係る撮像装置1の平面構成例を示す説明図である。図1に示すように、本開示の実施形態に係る撮像装置1は、例えばシリコンからなる半導体基板300上に、複数の撮像素子(第1の撮像素子、第2の撮像素子)100がマトリック状に配置されている画素アレイ部20と、当該画素アレイ部20を取り囲むように設けられた周辺回路部とを有する。さらに、上記撮像装置1には、当該周辺回路部として、垂直駆動回路部21、カラム信号処理回路部22、水平駆動回路部23、出力回路部24、制御回路部25等が含まれる。以下に、撮像装置1の各ブロックの詳細について説明する。
 (画素アレイ部20)
 画素アレイ部20は、半導体基板300上に、行方向及び列方向に沿ってマトリックス状に、2次元配置された複数の撮像素子100を有する。各撮像素子100は、入射された光に対して光電変換を行う素子であって、光電変換部(図示省略)と、複数の画素トランジスタ(例えばMOS(Metal-Oxide-Semiconductor)トランジスタ)(図示省略)とを有している。詳細には、各撮像素子100は、異なる波長帯域(第1の波長帯域、第2の波長帯域)の波長を持つ光に対して光電変換を行うことができる。そして、当該画素トランジスタは、例えば、転送トランジスタ、選択トランジスタ、リセットトランジスタ、及び、増幅トランジスタの4つのMOSトランジスタを含む。さらに、画素アレイ部20においては、例えばベイヤー配列に従って、複数の撮像素子100が2次元状に配列している。ここで、ベイヤー配列とは、緑色の波長(例えば波長495nm~570nm)をもつ光を吸収して電荷を発生する撮像素子100が市松状に並び、残りの部分に、赤色の波長(例えば波長620nm~750nm)をもつ光を吸収して電荷を発生する撮像素子100と、青色の波長(例えば波長450nm~495nm)をもつ光を吸収して電荷を発生する撮像素子100とが一列ごとに交互に並ぶような、配列パターンである。なお、撮像素子100の詳細構造については後述する。
 (垂直駆動回路部21)
 垂直駆動回路部21は、例えばシフトレジスタによって形成され、画素駆動配線26を選択し、選択された画素駆動配線26に撮像素子100を駆動するためのパルスを供給し、行単位で撮像素子100を駆動する。すなわち、垂直駆動回路部21は、画素アレイ部20の各撮像素子100を行単位で順次垂直方向(図1中の上下方向)に選択走査し、各撮像素子100の光電変換部(図示省略)の受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線27を通して後述するカラム信号処理回路部22に供給する。
 (カラム信号処理回路部22)
 カラム信号処理回路部22は、撮像素子100の列ごとに配置されており、1行分の撮像素子100から出力される画素信号に対して画素列ごとにノイズ除去等の信号処理を行う。例えば、カラム信号処理回路部22は、画素固有の固定パターンノイズを除去するためにCDS(Correlated Double Sampling:相関2重サンプリング)およびAD(Analog-Degital)変換等の信号処理を行う。
 (水平駆動回路部23)
 水平駆動回路部23は、例えばシフトレジスタによって形成され、水平走査パルスを順次出力することによって、上述したカラム信号処理回路部22の各々を順番に選択し、カラム信号処理回路部22の各々から画素信号を水平信号線28に出力させる。
 (出力回路部24)
 出力回路部24は、上述したカラム信号処理回路部22の各々から水平信号線28を通して順次に供給される画素信号に対し、信号処理を行って出力する。出力回路部24は、例えば、バッファリング(buffering)を行う機能部として機能してもよく、もしくは、黒レベル調整、列ばらつき補正、各種デジタル信号処理等の処理を行ってもよい。なお、バッファリングとは、画素信号のやり取りの際に、処理速度や転送速度の差を補うために、一時的に画素信号を保存することをいう。さらに、入出力端子29は、外部装置との間で信号のやり取りを行うための端子である。
 (制御回路部25)
 制御回路部25は、入力クロックと、動作モード等を指令するデータを受け取り、また撮像装置1の内部情報等のデータを出力する。すなわち、制御回路部25は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路部21、カラム信号処理回路部22及び水平駆動回路部23等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路部25は、生成したクロック信号や制御信号を、垂直駆動回路部21、カラム信号処理回路部22及び水平駆動回路部23等に出力する。
 なお、本実施形態に係る撮像装置1は、図1に示すような構成に限定されるものではない。
 <<2. 比較例>>
 <2.1 比較例について>
 次に、本開示の実施形態の詳細を説明する前に、本発明者らが本開示の実施形態を創作する前に検討していた比較例について説明する。まずは、比較例が創作された背景について説明する。なお、ここで、比較例とは、本発明者らが本開示の実施形態をなす前に検討を重ねていた撮像素子100aのことを意味するものとする。
 本開示の実施形態と比較される比較例は、撮像画像の劣化を避けつつ、オートフォーカス機能をさらに向上させる、すなわち、位相差検出の精度を向上させるために、撮像装置1の画素アレイ部20の全面に位相差検出画素を設ける(全画素位相差検出)検討を進める中で創作された。比較例においては、撮像時には1つの撮像素子として機能し、且つ、位相差検出時には一対の位相差検出画素として機能することができる撮像素子100aが、画素アレイ部20の全面に設けられる(デュアルフォトダイオード構造)。全画素位相差検出を可能とする比較例においては、全面に位相差検出画素を設けていることから、位相差検出の精度を向上させることができる。
 さらに、比較例においては、位相差検出の際に一対の位相差検出画素の出力が混ざることを避けるための、位相差検出画素を光学的、且つ、電気的に分離する要素が設けられる。加えて、比較例においては、撮像画像の劣化を避けるべく、一対の位相差検出画素の間にオーバーフローパスが設けられる。詳細には、通常の撮像時に、位相差検出画素のいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバーフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、このようなオーバーフローパスを設けることで、撮像素子100aから出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 以下、このような比較例の撮像素子100aの詳細構成について順次説明する。
 <2.2 詳細構成>
 図2を参照して、比較例に係る撮像素子100aの詳細構成を説明する。図2は、比較例に係る撮像素子100aの断面の模式図であり、詳細には、撮像素子100aを半導体基板300の厚み方向に沿って切断した断面に対応する。
 図2に示すように、比較例に係る撮像素子100aは、オンチップレンズ200と、カラーフィルタ202と、遮光部204と、半導体基板300と、転送ゲート400とを有する。さらに、本比較例においては、半導体基板300は、光電変換部(図示省略)をそれぞれ有する一対の画素302a、302bを有する。また、半導体基板300は、これら一対の画素302a、302bを分離する画素分離部304を有し、画素302a、302bを取り囲む素子分離壁310と、画素分離部304及び素子分離壁310の周囲に設けられた拡散領域306とを有する。
 以下に、比較例に係る撮像素子100aの積層構造について説明するが、以下の説明においては、図2中の上側(受光面300a側)から下側(表面300b)に向かう順に従って説明する。
 図2に示すように、撮像素子100aは、半導体基板300の受光面300aの上方に設けられ、入射光を光電変換部(図示省略)に集光する1つのオンチップレンズ200を有する。当該撮像素子100aにおいては、1つのオンチップレンズ200に対し、一対の画素302a、302bが設けられた構造を持つ。すなわち、オンチップレンズ200は、2つの画素302a、302bにより共有されている。
 そして、オンチップレンズ200により集光された入射光は、オンチップレンズ200の下方に設けられたカラーフィルタ202を介して、一対の画素302a、302bの光電変換部(図示省略)のそれぞれに照射される。当該カラーフィルタ202は、赤色の波長成分を透過するカラーフィルタ、緑色の波長成分を透過するカラーフィルタ、又は、青色の波長成分を透過するカラーフィルタのいずれかである。なお、本比較例においては、カラーフィルタ202は設けられていなくてもよい。
 また、カラーフィルタ202を取り囲むように、半導体基板300の受光面300a上に、遮光部204が設けられている。当該遮光部204は、隣り合う撮像素子100aの間に設けられることにより、隣り合う撮像素子100a間でのクロストークを抑制し、位相差検出の際の精度をより向上させるために、撮像素子100aの間の遮光を行うことができる。
 さらに、例えば第2の導電型(例えばp型)の半導体基板300内の所定の単位領域に、第1の導電型(例えばn型)の不純物を持つ光電変換部(図示省略)が、互いに隣接する画素302a、302bごとに設けられている。光電変換部は、カラーフィルタ202を介して入射された、赤色の波長成分、緑色の波長成分、又は、青色の波長成分を有する光を吸収して、電荷を生成することができる。そして、本比較例においては、画素302aの光電変換部と画素302bの光電変換部とは、位相差検出時には、一対の位相差検出画素として機能することができる。すなわち、本比較例においては、画素302aの光電変換部と画素302bの光電変換部とで生成した電荷に基づく画素信号の差分を検出することにより、位相差を検出することができる。加えて、本比較例においては、一対の位相差検出画素302a、302bは、1つの撮像素子100aとして機能することもできる。
 詳細には、光電変換部(図示省略)は、自身の光軸(受光面300aに垂直な軸)に対する光の入射角に依存して、生成する電荷量、すなわち感度が変化する。例えば、光電変換部は、入射角が0度である場合には、最も感度が高く、さらに、光電変換部の感度は、入射角に対して、入射角が0度のときを対象軸とした線対称の関係を有している。従って、画素302aの光電変換部と画素302bの光電変換部とにおいては、同じ点からの光が異なる入射角で入射され、入射角に応じた量の電荷をそれぞれ生成することから、検出する像にずれ(位相差)が生じることとなる。すなわち、画素302aの光電変換部と画素302bの光電変換部とで生成した電荷量に基づく画素信号の差分を検出することにより、位相差を検出することができる。そこで、このような画素信号の差(位相差)を、例えば、出力回路部24の検出部(図示省略)において差分信号として検出し、検出した位相差に基づいて、デフォーカス量を算出し、結像レンズ(図示省略)を調整(移動)することで、オートフォーカスを実現することができる。なお、上述の説明においては、位相差を画素302aの光電変換部と画素302bの光電変換部の画素信号の差として検出するとして説明したが、本比較例においては、これに限定されるものではない。本比較例においては、例えば、画素302aの光電変換部と画素302bの光電変換部の画素信号の比として位相差を検出してもよい。
 さらに、比較例においては、2つの画素302a、302bは、画素分離部304によって物理的(光学的)に、且つ、電気的に分離されている。当該画素分離部304は、DTI(Deep Trench Isolation)として、半導体基板300内を、その受光面300aと対向する表面300b側から、当該半導体基板300の厚み方向に沿って延伸するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた、シリコン酸化膜(SiO)、シリコン窒化膜、アモルファスシリコン、多結晶シリコン、アルミニウム、タングステン等の酸化膜や金属膜からなる材料とからなる。本比較例においては、画素分離部304は、半導体基板300の一部を貫通することから、一対の画素302a、302bを効果的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。なお、本変形例においては、画素分離部304は、半導体基板300の厚み方向に沿って、半導体基板300の少なくとも一部を貫通するように設けられていればよく、特に限定されるものではない。
 さらに、本比較例においては、画素分離部304の周囲には、第2の導電型(例えばp型)の不純物を含む拡散領域306が形成されてもよい。当該拡散領域306を設けることにより、一対の画素302a、302bを電気的に分離し、混色を起こさないようにすることができることから、位相差検出の精度をより向上させることができる。
 さらに、比較例においては、図2に示すように、画素分離部304の上方(受光面300a)には、例えばイオン注入によって第1の導電型(例えばn型)の不純物が導入されることにより拡散領域(図示省略)が形成される。当該拡散領域は、画素302a、302bの間で生成された電荷をやり取りすることができるオーバーフローパス(本明細書では、「パス」と称する場合もある)(図2中矢印で示される)として機能することができる。具体的には、通常の撮像時に、画素302a、302bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバーフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、このようなオーバーフローパスを設けることにより、撮像素子100aから出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。なお、本変形例においては、オーバーフローパスは、画素分離部304の上方に設けられていることに限定されるものではなく、例えば、画素分離部304の下方に設けられていてもよい。
 また、比較例においては、半導体基板300内には、単位領域内の画素302a、302bを取り囲み、且つ、半導体基板300の厚み方向に沿って半導体基板300を貫通し、隣り合う撮像素子100aを物理的に分離する、素子分離壁310が設けられている。素子分離壁310は、半導体基板300を、当該半導体基板300の厚み方向に沿って貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた酸化膜や金属膜からなる材料とからなる。
 さらに、比較例においては、素子分離壁310の周囲には、第2の導電型(例えばp型)の不純物を含む拡散領域306が形成されてもよい。
 さらに、比較例においては、画素302aの光電変換部(図示省略)と画素302bの光電変換部(図示省略)で生成された電荷は、半導体基板300の受光面300aとは反対側に位置する表面300b上に設けられた転送トランジスタ(画素トランジスタの1種)の転送ゲート400を介して、転送されることとなる。転送ゲート400は、例えば金属膜から形成することができる。そして、当該電荷は、例えば、半導体基板300内に設けられた第1の導電型(例えばn型)を持つ半導体領域に設けられたフローティングディフュージョン部(電荷蓄積部)(図示省略)に蓄積されてもよい。なお、比較例においては、上記フローティングディフュージョン部は、半導体基板300内に設けられていることに限定されるものではなく、例えば、半導体基板300に積層された他の基板(図示省略)に設けられていてもよい。
 さらに、半導体基板300の表面300b上には、電荷を画素信号として読み出したりする、上述した転送トランジスタ以外の複数の各種の画素トランジスタ(図示省略)が設けられていてもよい。さらに、比較例においては、当該画素トランジスタは、半導体基板300に設けられていてもよく、もしくは、半導体基板300に積層された他の基板(図示省略)に設けられていてもよい。
 以上説明したように、比較例によれば、位相差検出時には、一対の画素302a、302bを物理的に分離する画素分離部304と電気的に分離する拡散領域306と、一対の画素302a、302bの間にオーバーフローパス(図示省略)とを設けていることから、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。詳細には、比較例においては、上記画素分離部304及び拡散領域306により、一対の画素302a、302bを効果的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。さらに、比較例においては、オーバーフローパスを設けていることから、通常の撮像時に、画素302a、302bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバーフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。従って、比較例によれば、このようなオーバーフローパスを設けることにより、撮像素子100aから出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 <2.3 背景>
 次に、図2を参照して、本発明者らが創作した本開示の実施形態を創作するに至った背景について説明する。
 図2に示される比較例においては、先に説明したように、画素分離部304により、2つの画素(光電変換部(図示省略))302a、302bは、物理的(光学的)に、且つ、電気的に分離されている。しかしながら、図2中の矢印(図中細い矢印)で示されるように、撮像素子100aの受光面300aに対して斜めに入射する光は、撮像素子100aの画素分離部304の側面によって反射されて、画素302の光電変換部(図示省略)や、撮像素子100aに隣接する撮像素子100aの画素302の光電変換部(図示省略)に到達する。このような場合、同一撮像素子100aにおける画素302a、302bの位相差検出の精度(分離比)を悪くなることから、位相差検出がノイズの影響を受けやすくなり、高速オートフォーカス動作が難しくなる場合がある。さらに、このような場合においては、隣接する、互いに異なる色の光を検出する撮像素子100a間において混色の発生を招くこととなる。
 そこで、本発明者らは、このような状況を鑑みて、以下に説明する本開示の実施形態を創作するに至った。本発明者らが創作した本開示の実施形態においては、画素分離部304の表面を凹凸状の表面とすることで、画素分離部304の表面での反射を低減する。その結果、本実施形態においては、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する、互いに異なる色の光を検出する撮像素子100間における混色の発生を抑えることができる。以下、このような本開示の実施形態の詳細を順次説明する。
 <<3. 第1の実施形態>>
 <3.1 詳細構成>
 まずは、図3及び図4を参照して、本開示の第1の実施形態に係る撮像素子100の詳細構成について説明する。図3は、本開示の第1の実施形態に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面の模式図である。図4も、本開示の第1の実施形態に係る撮像素子100の断面の模式図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した場合の断面の模式図である。なお、図3及び図4においては、わかりやすくするために、拡散領域306又はその一部の図示を省略している。また、以下の説明においては、比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 図3に示すように、本実施形態に係る撮像素子100は、比較例と同様に、オンチップレンズ200と、カラーフィルタ202と、遮光部204と、半導体基板300と、転送ゲート400とを有する。さらに、本実施形態においても、半導体基板300は、光電変換部(図示省略)をそれぞれ有する一対の画素302a、302bを有する。また、半導体基板300は、これら一対の画素302a、302bを分離する画素分離部304と画素302a、302bを取り囲む素子分離壁310とを有する。さらに、本実施形態委おいては、図示を省略しているものの、撮像素子100は、画素分離部304及び素子分離壁310の周囲に設けられた拡散領域306を含んでいてもよい。
 以下に、本実施形態に係る撮像素子100の積層構造について説明するが、以下の説明においては、図3中の上側(受光面300a側)から下側(表面300b)に向かう順に従って説明する。
 図3に示すように、本実施形態に係る撮像素子100は、比較例と同様に、半導体基板300の受光面300aの上方に設けられ、入射光を光電変換部(図示省略)に集光する1つのオンチップレンズ200を有する。当該撮像素子100においては、1つのオンチップレンズ200に対し、一対の画素302a、302bが設けられた構造を持つ。すなわち、オンチップレンズ200は、2つの画素302a、302bにより共有されている。なお、オンチップレンズ200は、例えば、シリコン窒化膜(SiN)、又は、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル共重合系樹脂、もしくは、シロキサン系樹脂等の樹脂系材料によって形成することができる。
 そして、オンチップレンズ200により集光された入射光は、オンチップレンズ200の下方に設けられたカラーフィルタ202を介して、一対の画素302a、302bの光電変換部(図示省略)のそれぞれに照射される。当該カラーフィルタ202は、赤色の波長成分を透過するカラーフィルタ、緑色の波長成分を透過するカラーフィルタ、又は、青色の波長成分を透過するカラーフィルタのいずれかである。例えば、カラーフィルタ202は、例えば、シリコーン等の透明バインダ中に顔料又は染料が分散させた材料から形成することができる。なお、本実施形態においては、カラーフィルタ202は設けられていなくてもよい。
 また、カラーフィルタ202を取り囲むように、半導体基板300の受光面300a上に、遮光部204が設けられている。当該遮光部204は、隣り合う撮像素子100aの間に設けられることにより、隣り合う撮像素子100間でのクロストークを抑制し、位相差検出の際の精度をより向上させるために、撮像素子100aの間の遮光を行うことができる。遮光部204は、例えば、タングステン(W)、アルミニウム(Al)、銅(Cu)、チタン(Ti)、モリブデン(Mo)、ニッケル(Ni)等を含む金属材料等から形成することができる。
 さらに、例えば、第2の導電型(例えばp型)の半導体基板300内の所定の単位領域に、第1の導電型(例えばn型)の不純物を持つ光電変換部(図示省略)が、互いに隣接する画素302a、302bごとに設けられている。光電変換部は、先に説明したように、カラーフィルタ202を介して入射された、赤色の波長成分、緑色の波長成分、又は、青色の波長成分を有する光を吸収して、電荷を生成する。そして、本実施形態においても、比較例と同様に、画素302aの光電変換部と画素302bの光電変換部とは、位相差検出時には、一対の位相差検出画素として機能することができる。すなわち、本実施形態においては、画素302aの光電変換部と画素302bの光電変換部とで生成した電荷に基づく画素信号の差分を検出することにより、位相差を検出することができる。加えて、本実施形態においては、比較例と同様に、一対の位相差検出画素302a、302bは、1つの撮像素子100として機能することもできる。
 さらに、本実施形態においては、図3及び図4に示すように、2つの画素(光電変換部(図示省略))302a、302bは、画素分離部304によって物理的(光学的)に、且つ、電気的に分離されている。当該画素分離部304は、図3に示すように、DTI(Deep Trench Isolation)として、受光面300aと対向する表面300b側から、当該半導体基板300の厚み方向に沿って、半導体基板300の一部を貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた、高屈折率材料とからなる。例えば、上記高屈折率材料は、半導体基板300のシリコンの屈折率(3.8)に近い屈折率(例えば、2.1~2.5)を持つ材料からなり、例えば、チタン酸化膜(TiO)、タンタル酸化膜(TaO)を挙げることができる。本実施形態においては、このような高屈折率材料で画素分離部304を形成することにより、半導体基板300との屈折率差を小さくし、画素分離部304の表面での反射を抑えることができる。また、本実施形態においては、図4に示すように、当該画素分離部304は、撮像素子100の中心近傍に、図中上下方向に延伸するように設けられている。
 さらに、本実施形態においては、図3及び図4に示すように、画素分離部304の側面は凹凸320を持つ凹凸状の表面から構成される。本実施形態においては、画素分離部304の側面を、凹凸320を有する表面によって構成することにより、凹凸320により光が散乱されることにより、画素分離部304の側面での鏡面反射強度が小さくなり、反射を抑えることができる。詳細には、図3及び図4に示されるように、画素分離部304の凹凸320は、半球状の凸部を有する。なお、本実施形態においては、凹凸320は、半球状に限定されるものではなく、円錐状又は角錐状の凸部を有していてもよい。しかしながら、本実施形態においては、反射を低減する観点からは、凹凸320は、半球状の凸部を有することが好ましい。
 また、本発明者らの検討によれば、本実施形態における画素分離部304の凹凸320は、周期的であってもよく、もしくは、周囲的でなくてもよい。凹凸320が周期的である場合、本発明者らによる光学シミュレーションによれば、当該凹凸320は、例えば200nm程度の周期で繰り返されるものであれば、反射を低減する効果が得られることが分かっている。
 すなわち、本実施形態においては、画素分離部304の側面を、凹凸320を有する表面によって構成することにより、画素分離部304の側面での反射を抑えることができる。
 さらに、本実施形態においても、図示を省略しているものの、画素分離部304の周囲には、第2の導電型(例えばp型)の不純物を含む拡散領域306が形成されてもよい。当該拡散領域306を設けることにより、一対の画素302a、302bを電気的に分離し、混色を起こさないようにすることができることから、位相差検出の精度をより向上させることができる。
 さらに、本実施形態においては、図3に示すように、画素分離部304の上方(受光面300a側)には、例えばイオン注入によって第1の導電型(例えばn型)の不純物が導入されることにより拡散領域(図示省略)が形成される。当該拡散領域は、画素302a、302bの間で生成された電荷をやり取りすることができるオーバーフローパス(図3中矢印で示される)として機能することができる。具体的には、通常の撮像時に、画素302a、302bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバーフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、このようなオーバーフローパスを設けることにより、撮像素子100から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 また、本実施形態においては、図3及び図4に示すように、半導体基板300内には、単位領域内の画素302a、302bを取り囲み、且つ、半導体基板300の厚み方向に沿って半導体基板300を貫通する素子分離壁310が設けられている。素子分離壁310は、隣り合う、互いに異なる色の光を検出する撮像素子100を物理的に分離することができる。詳細には、素子分離壁310は、半導体基板300を、当該半導体基板300の厚み方向に沿って貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた、シリコン酸化膜、シリコン窒化膜、アモルファスシリコン、多結晶シリコン、チタン酸化膜、アルミニウム、タングステン等の酸化膜や金属膜からなる材料とからなる。なお、本実施形態においては、素子分離壁310の側面は、画素分離部304の側面と同様に、凹凸320を持つ凹凸状の表面から構成されてもよい。このようにすることで、素子分離壁310の側面での反射を抑えることができることから、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する撮像素子100間における混色の発生を抑えることができる。
 さらに、本実施形態においては、図4に示すように、素子分離壁310の周囲には、第2の導電型(例えばp型)の不純物を含む拡散領域306が形成されてもよい。例えば、素子分離壁310を介した、第2の導電型(例えばp型)の不純物のコンフォーマルドーピングによって、上記拡散領域306を形成することができる。
 さらに、本実施形態においても、比較例と同様に、画素302aの光電変換部(図示省略)と画素302bの光電変換部(図示省略)で生成された電荷は、半導体基板300の受光面300aとは反対側に位置する表面300b上に設けられた転送トランジスタ(画素トランジスタの1種)の転送ゲート400を介して、転送されることとなる。転送ゲート400は、例えば金属膜から形成することができる。そして、当該電荷は、例えば、半導体基板300内に設けられた第1の導電型(例えばn型)を持つ半導体領域に設けられたフローティングディフュージョン部(電荷蓄積部)(図示省略)に蓄積されてもよい。なお、本実施形態においては、上記フローティングディフュージョン部は、半導体基板300内に設けられていることに限定されるものではなく、例えば、半導体基板300に積層された他の基板(図示省略)に設けられていてもよい。
 さらに、半導体基板300の表面300b上には、電荷を画素信号として読み出したりする、上述した転送トランジスタ以外の複数の各種の画素トランジスタ(図示省略)が設けられていてもよい。さらに、本実施形態においても、当該画素トランジスタは、半導体基板300に設けられていてもよく、もしくは、半導体基板300に積層された他の基板(図示省略)に設けられていてもよい。
 以上のように、本実施形態においては、画素分離部304の側面を、凹凸320を有する表面によって構成することにより、画素分離部304の側面での反射を抑えることができる。その結果、本実施形態においては、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する撮像素子100間における混色の発生を抑えることができる。なお、本実施形態に係る撮像素子100は、図3及び図4に示される構成に限定されるものではない。
 <3.2 製造方法>
 次に、本実施形態に係る撮像素子100の製造工程(製造方法)の一部について、図5を参照して説明する。図5は、本実施形態に係る撮像素子100の製造方法の製造工程の一部を説明するための断面図であり、詳細には、図3に示す断面図に対応する断面図と、図4に示す断面図とに対応する。
 まずは、図5の左側に示すように、半導体基板300に半導体基板300を貫通するトレンチを形成し、当該トレンチ内に絶縁材料を埋め込むことにより、素子分離壁310を形成する。当該素子分離壁310で囲まれた半導体基板300の領域が、1つの撮像素子100が設けられる単位領域となる。
 次に、半導体基板300の表面300bから半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するトレンチを形成する。この際、当該トレンチの側面が凹凸状になるように上記トレンチを形成する。例えば、半導体基板300の表面300b上に、トレンチのパターンを有するマスクを形成する。さらに、RIE(Reactive Ion Etching)の1種であるBosch法においてバイアスや堆積/エッチング比をコントロールしながら、マスクの開口部に沿って半導体基板300をエッチングすることにより、凹凸形状を持つトレンチを形成することができる。Bosch法では、半導体基板300に対するエッチングとエッチング側壁の保護(表面への堆積)とを繰り返しながら行うことから、凹凸形状を持つトレンチを形成することが可能である。そして、このように形成したトレンチに、高屈折材料を埋め込むことにより、図5の左側から2番目に示すような画素分離部304を形成することができる。
 さらに、図5の左側から3番目に示すように、半導体基板300の表面300b上に、画素トランジスタや配線等を含む配線層402を形成する。次に、図5の右側に示すように、半導体基板300の受光面300a上に、カラーフィルタ202やオンチップレンズ200を形成する。
 以上のようにして、本実施形態に係る撮像素子100を形成することができる。
 <3.3 変形例1>
 上述の実施形態においては、画素分離部304は、表面300b側から、当該半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するものに限定されるものではない。例えば、画素分離部304は、受光面300a側から、当該半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するものであってもよい。そこで、このような本実施形態の変形例1に係る撮像素子100の構成を、図6を参照して説明する。図6は、本実施形態の変形例1に係る撮像素子100の断面の模式図であって、図3に断面に対応する。なお、以下の説明においては、上述した本実施形態と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本変形例においては、図6に示すように、2つの画素(光電変換部(図示省略))302a、302bを分離する画素分離部304は、受光面300a側から、当該半導体基板300の厚み方向に沿って、半導体基板300の一部を貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた、高屈折率材料とからなる。本変形例においても、上記高屈折率材料で画素分離部304を形成することにより、画素分離部304の表面での反射を抑えることができる。
 さらに、本変形例においても、図6に示すように、画素分離部304の側面は、凹凸320を持つ凹凸状の表面から構成される。詳細には、図6に示されるように、画素分離部304の凹凸320は、半球状の凸部を有する。なお、本変形例においても、凹凸320は、半球状に限定されるものではなく、円錐状又は角錐状の凸部を有していてもよい。
 さらに、本変形例においては、図6に示すように、画素分離部304の下方(表面300b側)には、例えばイオン注入によって第1の導電型(例えばn型)の不純物が導入されることにより拡散領域(図示省略)が形成される。当該拡散領域は、画素302a、302bの間で生成された電荷をやり取りすることができるオーバーフローパス(図6中矢印で示される)として機能することができる。そして、本変形例においても、オーバーフローパスを設けることにより、撮像素子100から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 なお、図6のB-B´線で撮像素子100を切断した場合の断面は、先に説明した図4と同様であるため、ここでは説明を省略する。
 以上のように、本変形例においては、画素分離部304の側面を、凹凸320を有する表面によって構成することにより、画素分離部304の側面での反射を抑えることができる。その結果、本変形例においては、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する撮像素子100間における混色の発生を抑えることができる。
 次に、本変形例に係る撮像素子100の製造工程(製造方法)の一部について、図7を参照して説明する。図7は、本変形例に係る撮像素子100の製造方法の製造工程の一部を説明するための断面図であり、詳細には、図6に示す断面図に対応する断面図と、図4に示す断面図とに対応する。
 まずは、半導体基板300の表面300b上に、画素トランジスタや配線等を含む配線層402を形成する。さらに、半導体基板300に半導体基板300を貫通するトレンチを形成し、当該トレンチ内に絶縁材料を埋め込むことにより、素子分離壁310を形成することにより、図7の左側に示すような形態を得ることができる。
 次に、半導体基板300の受光面300aから半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するトレンチを形成する。この際、上述したBosch法を用いて、当該トレンチの側面が凹凸状になるように上記トレンチを形成する。そして、このように形成したトレンチに、高屈折材料を埋め込むことにより、図7の左側から2番目に示すような画素分離部304を形成することができる。
 さらに、図7の右側に示すように、半導体基板300の受光面300a上に、カラーフィルタ202やオンチップレンズ200を形成する。以上のようにして、本変形例に係る撮像素子100を形成することができる。
 <3.4 変形例2>
 また、本実施形態においては、画素分離部304の凹凸320の周期は、全ての撮像素子100で略同一であることに限定されるものではなく、撮像素子100の検出する光の波長に応じて変化させてもよく、もしくは、半導体基板300の厚みに沿った画素分離部304の長さは、撮像素子100の検出する光の波長に応じて変化させてもよい。そこで、このような本実施形態の変形例2に係る撮像素子100の構成を、図8から図10を参照して説明する。図8は、本開示の第1の実施形態の変形例2に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の平面に沿って切断した断面の模式図である。図9及び図10は、本開示の第1の実施形態の変形例2に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面、すなわち、図8に示すC-C´線で半導体基板300を切断した断面の模式図である。なお、図8から図10においては、わかりやすくするために、拡散領域306又はその一部の図示を省略している。また、以下の説明においては、上述した本実施形態と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本変形例においては、図8に示すように、本実施形態と同様に、画素分離部304の側面は凹凸320を持つ凹凸状の表面から構成される。
 本変形例においては、図8に示すように、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの画素分離部304の側面の凹凸320の周期は、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの画素分離部304の側面の凹凸320の周期に比べて長い。さらに、緑色光を検出する撮像素子100Gの画素分離部304の側面の凹凸320の周期は、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの画素分離部304の側面の凹凸320の周期に比べて長い。すなわち、本変形例においては、撮像素子100の検出する光の波長が短くなるほど、凹凸320の周期を小さくする。
 本変形例においては、光の波長に応じて凹凸320の周期を波長近傍にすることにより、凹凸320による光の散乱効果を好適に引き出し、反射を抑制する効果を高めることができる。なお、図8には、図示されていないが、赤外光(例えば波長800nm以上)を検出する撮像素子100であれば、その画素分離部304の側面の凹凸320の周期は、赤色光を検出する撮像素子100Rの画素分離部304の側面の凹凸320の周期に比べて長くすることが好ましい。
 さらに、図9に示すように、画素分離部304の凹凸320の周期を撮像素子100の検出する光の波長に応じて変化させた場合であっても、半導体基板300の厚みに沿った画素分離部304の長さは、撮像素子100R、100G、100Bにおいて略同一であってもよい。
 もしくは、図10に示すように、画素分離部304の凹凸320の周期を撮像素子100の検出する光の波長に応じて変化させた場合、半導体基板300の厚みに沿った画素分離部304の長さも、撮像素子100の検出する光の波長に応じて変化させてもよい。
 詳細には、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの画素分離部304の、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの画素分離部304の、半導体基板300の厚み方向に沿った長さに比べて短い。さらに、緑色光を検出する撮像素子100Gの画素分離部304の、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの画素分離部304の、半導体基板300の厚み方向に沿った長さに比べて短い。
 言い換えると、赤色光を検出する撮像素子100Rの画素分離部304の上面から受光面300aまでの距離rは、緑色光を検出する撮像素子100Gの画素分離部304の上面から受光面300aまでの距離gに比べて長い。さらに、緑色光を検出する撮像素子100Gの画素分離部304の上面から受光面300aまでの距離gは、青色光を検出する撮像素子100Bの画素分離部304の上面から受光面300aまでの距離bに比べて長い。
 光の波長が長いほど半導体基板300の深くに到達することから、上述したように、画素分離部304の長さを変えることにより、画素分離部304の側面による光の反射を抑えることができる。なお、図10には、図示されていないが、赤外光(例えば波長800nm以上)を検出する撮像素子100の画素分離部304の長さは、赤色光を検出する撮像素子100Rの画素分離部304の長さに比べて短くすることが好ましい。
 <<4. 第2の実施形態>>
 <4.1 背景>
 次に、本発明者らが創作した本開示の第2の実施形態について説明する。まずは、図11及び図12を参照して、本発明者らが第2の実施形態を創作するに至った背景について説明する。図11及び図12は、本実施形態を説明するための説明図である。
 図12は、半導体基板300内の、撮像素子100の中心における受光面300aを起点とする深さ(Z)に対するポテンシャルの変化を示すグラフである。図12によれば、画素分離部304の上面から受光面300aまでの距離(図11に示す長さa)が、中央値に対して、+10%、+5%、-5%、-10%と変化することにより、ポテンシャルが敏感に変化することがわかる。そして、このようにポテンシャルが敏感に変化すると、画素302a、302b間での、電荷の転送及び分離比特性が大きく変化することとなる。詳細には、長さaが中央値に対して長い場合には、ポテンシャルが低くなることから、画素302a、302b間での分離が難しくなる。また、長さaが中央値に対して短い場合には、ポテンシャルが高くなることから、画素302a、302b間での転送が難しくなる。
 しかしながら、画素分離部304を精度よく形成することが難しく、画素分離部304の長さにばらつきが生じることが避けられなかった。従って、画素302a、302b間での、電荷の転送及び分離比特性にばらつきが生じることを避けることが難しかった。
 そこで、本発明者らは、このような状況を鑑みて、以下に説明する本開示の第2の実施形態を創作するに至った。
 <4.2 詳細構成>
 まずは、図13を参照して、本開示の第2の実施形態に係る撮像素子100の詳細構成について説明する。図13は、本開示の第2の実施形態に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面の模式図である。なお、図13においては、わかりやすくするために、拡散領域306の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本実施形態においては、図13に示すように、2つの画素302a、302bを分離する画素分離部304は、半導体基板300の厚み方向に沿って、受光面300aから半導体基板300の一部を貫通するように設けられる分離部(第1の分離部)304bと、受光面300aと対向する表面300bから半導体基板300の一部を貫通するように設けられる分離部(第2の分離部)304aとから構成される。本実施形態においては、画素分離部304を受光面300aから延伸する分離部304bと表面300bから延伸する分離部304aとで構成することにより、画素分離部304の半導体基板300の厚み方向に沿った長さのばらつきを抑えながら形成することが可能となる。その結果、本実施形態においては、画素302a、302b間での、電荷の転送及び分離比特性にばらつきを抑えることができる。
 さらに、本実施形態においても、分離部304a、304bは、高屈折率材料から形成されることが好ましい。本実施形態においては、このような高屈折率材料で分離部304a、304bを形成することにより、半導体基板300との屈折率差を小さくし、分離部304a、304bの表面での反射を抑えることができる。
 加えて、本実施形態においても、図13に示すように、分離部304a、304bの側面は、凹凸320を持つ凹凸状の表面から構成される。本実施形態においては、分離部304a、304bの側面を、凹凸320を有する表面によって構成することにより、凹凸320により光が散乱されることにより、分離部304a、304bの側面での鏡面反射強度が小さくなり、いわゆる反射を抑えることができる。詳細には、図13に示されるように、画素分離部304の凹凸320は、半球状の凸部を有する。なお、本実施形態においては、凹凸320は、半球状に限定されるものではなく、円錐状又は角錐状の凸部を有していてもよい。
 なお、本実施形態においても、第1の実施形態の変形例2と同様に、画素分離部304の凹凸320の周期を、撮像素子100の検出する光の波長に応じて変化させてもよい。
 さらに、本実施形態においては、図13に示すように、分離部304aの上方(受光面300a側)であって、且つ、分離部304bの下方(表面300b側)には、例えばイオン注入によって第1の導電型(例えばn型)の不純物が導入されることにより拡散領域(図示省略)が形成される。当該拡散領域は、画素302a、302bの間で生成された電荷をやり取りすることができるオーバーフローパス(図13中矢印で示される)として機能することができる。なお、本実施形態に係る撮像素子100は、図13に示される構成に限定されるものではない。
 また、本実施形態に係る撮像素子100は、以下のように形成することができる。まず、第1の実施形態と同様に、半導体基板300の表面300bから半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するトレンチを形成する。この際、当該トレンチの側面が凹凸状になるようにトレンチを形成する。さらに、当該トレンチに、高屈折材料を埋め込むことにより、分離部304aを形成する。
 次に、分離部304aの上方(受光面側)の半導体基板300の領域に、例えばイオン注入によって第1の導電型(例えばn型)の不純物が導入されることによりオーバーフローパスとなる拡散領域(図示省略)を形成する。
 そして、分離部304aの長さを計測し、計測結果に基づき、分離部304bの長さを決定する。さらに、分離部304aの受光面側の半導体基板300の領域に、分離部304aと重なるように位置合わせ行い、半導体基板300の受光面300aから半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するトレンチを形成する。この際、当該トレンチの側面が凹凸状になるようにトレンチを形成する。そして、当該トレンチに、高屈折材料を埋め込むことにより、分離部304bを形成する。
 このように、分離部304aを先に形成し、分離部304aの長さに基づき、分離部304bを形成することから、画素分離部304全体の、半導体基板300の厚み方向に沿った長さのばらつきを抑えながら形成することが可能となる。その結果、本実施形態においては、画素302a、302b間での、電荷の転送及び分離比特性にばらつきを抑えることができる。
 <4.3 変形例>
 また、本実施形態においては、半導体基板300の厚みに沿った分離部304a、304bの長さは、撮像素子100の検出する光の波長に応じて変化させてもよい。そこで、このような本実施形態の変形例に係る撮像素子100の構成を、図14を参照して説明する。図14は、本開示の第2の実施形態の変形例に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面の模式図である。なお、図14においては、わかりやすくするために、拡散領域306の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 詳細には、図14に示すように、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの分離部304aの、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの分離部304aの、半導体基板300の厚み方向に沿った長さに比べて短い。緑色光を検出する撮像素子100Gの分離部304aの、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの分離部304aの、半導体基板300の厚み方向に沿った長さに比べて短い。さらに、図14に示すように、赤色光を検出する撮像素子100Rの分離部304bの、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの分離部304bの、半導体基板300の厚み方向に沿った長さに比べて長い。緑色光を検出する撮像素子100Gの分離部304bの、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの分離部304bの、半導体基板300の厚み方向に沿った長さに比べて長い。
 本実施形態においては、各撮像素子100R、100G、100Bの分離部304a、304bの長さを上述のようにすることで、分離部304a、304bが対向するスリット(詳細には、オーバーフローパス)(図14中矢印で示される)の位置を、長い波長を持つ光を検出する撮像素子100ほど、半導体基板300の深い場所にすることができる。光の波長が長いほど半導体基板300の深くに到達することから、本実施形態によれば、撮像素子100の検出する光の波長に応じて上記スリットの位置を変えることにより、分離部304a、304bの側面による光の反射を抑えることができる。なお、図14には、図示されていないが、赤外光(例えば波長800nm以上)を検出する撮像素子100の分離部304a、304bの間のスリットは、赤色光を検出する撮像素子100Rの分離部304a、304bの間のスリットよりも深くに位置するようにすることが好ましい。
 <<5. 第3の実施形態>>
 <5.1 詳細構成>
 次に、図15から図18を参照して、本開示の第3の実施形態に係る撮像素子100の詳細構成について説明する。図15は、本開示の第3の実施形態に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の平面に沿って切断した断面の模式図である。図16から図18は、本開示の第3の実施形態に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面、すなわち、図15に示すD-D´線で半導体基板300を切断した断面の模式図である。なお、図15から図18においては、わかりやすくするために、拡散領域306又はその一部の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 先に説明した第1の実施形態においては、図4に示すように、画素分離部304は、撮像素子100の中心近傍に、図中上下方向の延伸するように設けられている。一方、本実施形態においては、図15に示すように、本実施形態においては、画素分離部304は、撮像素子100の端から端を図中上下方向に沿って延伸するように設けられている。
 また、先に説明した第1の実施形態においては、画素分離部304の側面は、半球状等の凸部を持つ凹凸320を持っていたが、本実施形態においては、図15に示すように、画素分離部304自体が、平面視において複数の円が連なるような形状を持つ。本実施形態においては、画素分離部304をこのような形状にすることにより、より反射を低減することができる。
 また、本実施形態においても、図15に示すように、画素分離部304を構成する円の大きさ(直径)を、撮像素子100の検出する光の波長に応じて変化させてもよい。詳細には、図15に示されるように、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの画素分離部304の円の大きさは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの画素分離部304の円の大きさに比べて大きい。また、緑色光を検出する撮像素子100Gの画素分離部304の円の大きさは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Gの画素分離部304の円の大きさに比べて大きい。
 本実施形態においては、画素分離部304を構成する円の大きさ(直径)を波長近傍にすることにより、画素分離部304の凹凸による光の散乱効果を好適に引き出し、反射を抑制する効果を高めることができる。なお、図15には、図示されていないが、赤外光(例えば波長800nm以上)を検出する撮像素子100であれば、その画素分離部304を構成する円の大きさは、赤色光を検出する撮像素子100Rの画素分離部304を構成する円の大きさに比べて大きくすることが好ましい。
 さらに、図16に示すように、画素分離部304を構成する円の大きさを撮像素子100の検出する光の波長に応じて変化させた場合であっても、半導体基板300の厚みに沿った画素分離部304の長さは、撮像素子100R、100G、100Bにおいて略同一であってもよい。
 もしくは、図17に示すように、画素分離部304を構成する円の大きさを撮像素子100の検出する光の波長に応じて変化させた場合、半導体基板300の厚みに沿った画素分離部304の長さも、撮像素子100の検出する光の波長に応じて変化させてもよい。
 詳細には、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの画素分離部304の、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの画素分離部304の、半導体基板300の厚み方向に沿った長さに比べて短い。さらに、緑色光を検出する撮像素子100Gの画素分離部304の、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの画素分離部304の、半導体基板300の厚み方向に沿った長さに比べて短い。
 言い換えると、赤色光を検出する撮像素子100Rの画素分離部304の上面から受光面300aまでの距離rは、緑色光を検出する撮像素子100Gの画素分離部304の上面から受光面300aまでの距離gに比べて長い。さらに、緑色光を検出する撮像素子100Gの画素分離部304の上面から受光面300aまでの距離gは、青色光を検出する撮像素子100Bの画素分離部304の上面から受光面300aまでの距離bに比べて長い。
 光の波長が長いほど半導体基板300の深くに到達することから、上述したように、画素分離部304の長さを変えることにより、画素分離部304の側面による光の反射を抑えることができる。なお、図17には、図示されていないが、赤外光(例えば波長800nm以上)を検出する撮像素子100の画素分離部304の長さは、赤色光を検出する撮像素子100Rの画素分離部304の長さに比べて短くすることが好ましい。
 もしくは、図18に示すように、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの画素分離部304の、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの画素分離部304の、半導体基板300の厚み方向に沿った長さに比べて長くしてもよい。さらに、緑色光を検出する撮像素子100Gの画素分離部304の、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの画素分離部304の、半導体基板300の厚み方向に沿った長さに比べて長くしてもよい。言い換えると、図18の例では、赤色光を検出する撮像素子100Rの画素分離部304の上面から受光面300aまでの距離rは、緑色光を検出する撮像素子100Gの画素分離部304の上面から受光面300aまでの距離gに比べて短い。さらに、緑色光を検出する撮像素子100Gの画素分離部304の上面から受光面300aまでの距離gは、青色光を検出する撮像素子100Bの画素分離部304の上面から受光面300aまでの距離bに比べて短い。なお、図18には、図示されていないが、赤外光(例えば波長800nm以上)を検出する撮像素子100であれば、赤色光を検出する撮像素子100Rの画素分離部304の長さに比べて、長くしてもよい。
 なお、本実施形態に係る撮像素子100は、図15から図18に示される構成に限定されるものではない。
 <5.2 変形例1>
 次に、図19及び図20を参照して、本開示の第3の実施形態の変形例1に係る撮像素子100の詳細構成について説明する。図19は、本開示の第3の実施形態の変形例1に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の平面に沿って切断した断面の模式図である。図20は、本開示の第3の実施形態の変形例1に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面、すなわち、図19に示すE-E´線で半導体基板300を切断した断面の模式図である。なお、図19及び図20においては、わかりやすくするために、拡散領域306又はその一部の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本変形例においては、図19に示すように、画素分離部304自体が、平面視において複数の円が連なるような形状を持つが、いずれの撮像素子100R、100G、100Bであっても、画素分離部304を構成する円の大きさは略同一となっている。
 さらに、本変形例においては、図20に示すように、画素分離部304は、半導体基板300の厚み方向に沿って、表面300bから半導体基板300の一部を貫通するように設けられる分離部(第1の分離部)304aと、分離部(第1の分離部)304aから受光面300aに向かって、半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するように設けられる分離部(第2の分離部)304bとから構成される。さらに、本変形例においては、分離部304aの側面は平坦であり、分離部304bの側面は半球状の凹凸320を持つ。また、表面300b側の分離部304aの長さdは、200nm程度であることが好ましい。
 本変形例においては、受光面300aから入射する光が到達する可能性がある深さまでは、画素分離部304の側面を凹凸状にすることで、当該側面での反射を抑制することができる。さらに、本変形例においては、光が到達する可能性が少ない深さでは、画素分離部304の側面を平坦にすることで、画素分離部304となるトレンチの形成を容易にすることができる。
 また、この場合、図20に示すように、各撮像素子100R、100G、100Bの、半導体基板300の厚みに沿った画素分離部304の全体の長さも、略同一としてもよい。
 <5.3 変形例2>
 次に、図21から図24を参照して、本開示の第3の実施形態の変形例2に係る撮像素子100の詳細構成について説明する。図21は、本開示の第3の実施形態の変形例2に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の平面に沿って切断した断面の模式図である。図22から図24は、本開示の第3の実施形態の変形例2に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面、すなわち、図21に示すF-F´線で半導体基板300を切断した断面の模式図である。なお、図21から図24においては、わかりやすくするために、拡散領域306又はその一部の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本変形例においては、本実施形態と同様に、図21に示すように、画素分離部304を構成する円の大きさを、撮像素子100の検出する光の波長に応じて変化させてもよい。そして、図21の例においては、図22に示すように、画素分離部304は、半導体基板300の厚み方向に沿って、表面300bから半導体基板300の一部を貫通するように設けられる分離部304aと、分離部304aから受光面300aに向かって、半導体基板300の厚み方向に沿って半導体基板300の一部を貫通するように設けられる分離部304bとから構成されてもよい。さらに、図21に示すように、各撮像素子100R、100G、100Bの、半導体基板300の厚みに沿った画素分離部304の全体の長さも、略同一としてもよい。
 もしくは、図23に示すように、半導体基板300の厚みに沿った分離部304bの長さも、撮像素子100の検出する光の波長に応じて変化させてもよい。詳細には、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの分離部304bの、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの分離部304bの、半導体基板300の厚み方向に沿った長さに比べて短くしてもよい。さらに、緑色光を検出する撮像素子100Gの分離部304bの、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの分離部304bの、半導体基板300の厚み方向に沿った長さに比べて短くしてもよい。本変形例においては、このようにすることで、分離部304bの受光面300aからの距離が、検出する光の波長が長いほど長くなることとなる。そして、光の波長が長いほど半導体基板300の深くに到達することから、本変形例によれば、このようにすることで、分離部304bの側面による光の反射を抑えることができる。
 もしくは、図24に示すように、赤色光(例えば波長620nm~750nm)を検出する撮像素子100Rの分離部304bの、半導体基板300の厚み方向に沿った長さは、緑色光(例えば波長495nm~570nm)を検出する撮像素子100Gの分離部304bの、半導体基板300の厚み方向に沿った長さに比べて長くしてもよい。さらに、緑色光を検出する撮像素子100Gの分離部304bの、半導体基板300の厚み方向に沿った長さは、青色光(例えば波長450nm~495nm)を検出する撮像素子100Bの分離部304bの、半導体基板300の厚み方向に沿った長さに比べて長くしてもよい。
 <<6. 第4の実施形態>>
 <6.1 背景>
 次に、本発明者らが創作した本開示の第4の実施形態について説明する。まずは、本発明者らが第4の実施形態を創作するに至った背景について説明する。
 これまで説明してきた実施形態においては、画素分離部304の側面を凹凸状の表面とすることで、画素分離部304の側面での反射を低減していた。しかしながら、画素分離部304の受光面300a側に位置する上面においても、入射光の反射が生じることから、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する撮像素子100間における混色が生じていた。
 そこで、本発明者らは、このような状況を鑑みて、以下に説明する本開示の第4の実施形態を創作するに至った。
 本発明者らが創作した第4の実施形態においては、画素分離部304の受光面300a側の上面を凹凸状の表面とすることで、画素分離部304の上面での反射を低減する。その結果、本実施形態によれば、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する撮像素子100間における混色の発生を抑えることができる。
 <6.2 詳細構成>
 次に、図25及び図26を参照して、本開示の第4の実施形態に係る撮像素子100の詳細構成について説明する。図25は、本開示の第4の実施形態に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の平面に沿って切断した断面の模式図と、断面の一部の拡大図である。また、図26は、本開示の第4の実施形態に係る撮像素子100の斜視図である。なお、図25においては、わかりやすくするために、拡散領域306の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本実施形態においては、これまで説明した実施形態と同様に、図25に示すように、2つの画素(光電変換部(図示省略))302a、302bを分離する画素分離部304は、DTIとして、受光面300aと対向する表面300b側から、当該半導体基板300の厚み方向に沿って、半導体基板300の一部を貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた高屈折率材料とからなる。
 さらに、本実施形態においては、図25及び図26に示すように、画素分離部304の上面は凸部330を持つ凹凸状の表面から構成される。詳細には、図25及び図26に示されるように、画素分離部304の上面は、角錐状の凸部330を有する。なお、本実施形態においては、凸部330は、角錐状に限定されるものではなく、円錐状又は半球状の凸部を有していてもよい。
 詳細には、本実施形態においては、図25の拡大図において破線で示される領域は、画素分離部304を構成する高屈折率材料の屈折率(B)と半導体基板300を構成するシリコンの屈折率(A)との平均値となる屈折率を有することとなる。
 具体的には、反射は、入射角と光入射界面の屈折率差によって決定される。また、フレネル反射(垂直成分)は、入射光強度Iに対し、上記屈折率を含む下記数式(1)で示すことができる。
フレネル反射強度(垂直成分)=I×{(A-B)/(A+B)}・・・(1)
 従って、破線で示される領域は、画素分離部304を構成する高屈折率材料の屈折率(B)と半導体基板300を構成するシリコンの屈折率(A)との平均値となる屈折率を有することとなる。さらに、半導体基板300から画素分離部304との間に、2つの平均値をなる屈折率を持つ領域が存在することから、屈折率差が小さくなり、画素分離部304の上面での反射を抑えることができる。
 なお、本実施形態における凸部330の高さは、例えば数100nm程度であることが好ましい。また、本実施形態に係る撮像素子100は、図25及び図26に示される構成に限定されるものではない。
 <6.3 製造方法>
 次に、本実施形態に係る撮像素子100の製造工程(製造方法)の一部について、図27を参照して説明する。図27は、本実施形態に係る撮像素子100の製造方法の製造工程の一部を説明するための断面図であり、詳細には、図25に示す断面図に対応する。
 まず、図27の左側に示すように、半導体基板300に半導体基板300を貫通するトレンチを形成し、当該トレンチ内に絶縁材料を埋め込むことにより、素子分離壁310を形成する。さらに、半導体基板300の表面上にマスク500を形成する。
 次に、図27の左側から2番目に示すように、マスク500に、DSA(Directed Self Assembly)材料でパターンを形成し、パターンに対してドライエッチングを行うことにより、凹凸形状を転写する。DSAは、ポリマー等の化学的特性(相分離現象)を利用して規則性を持つ微細なパターンを自発的に形成する方法である。DSAにおいては、ポリマー等の配合を変えることで、容易にパターンの形状等を変えることができる。
 さらに、図27の左側から3番目に示すように、転写された凹凸に沿って、ドライエッチングをさらに進めると、底部に凹凸を持つトレンチが形成される。さらに、このように形成したトレンチに高屈折材料を埋め込むことにより、図27の左側から4番目に示すような、画素分離部304を形成することができる。
 さらに、図27の右側に示すように、半導体基板300の表面300b上に、画素トランジスタや配線等を含む配線層402と、半導体基板300の受光面300a上に、カラーフィルタ202やオンチップレンズ200を形成する。
 以上のようにして、本実施形態に係る撮像素子100を形成することができる。
 <6.4 変形例1>
 次に、図28を参照して、本開示の第4の実施形態の変形例1に係る撮像素子100の詳細構成について説明する。図28は、本開示の第4の実施形態の変形例1に係る撮像素子100の断面の模式図であり、詳細には、撮像素子100を半導体基板300の厚み方向に沿って切断した断面の模式図である。なお、図28においては、わかりやすくするために、拡散領域306の図示を省略している。また、以下の説明においては、第1の実施形態及び比較例と共通する要素については、図中に共通の符号を付して、その説明を省略するものとする。
 本実施形態の変形例としては、図28に示すように、これまで説明した実施形態のような凹凸状の側面を持つ画素分離部304の上面にも、凸部330を形成してもよい。
 <6.5 変形例2>
 次に、図29から図31を参照して、本開示の第4の実施形態の変形例2に係る撮像素子100の詳細構成について説明する。図29から図31は、本開示の第4の実施形態の変形例2に係る撮像素子100の詳細構成を説明するための説明図である。詳細には、各図の上段に、撮像素子100を半導体基板300の厚み方向に沿って切断した断面の模式図を示し、下段に、撮像素子100の斜視図を示す。
 本変形例においては、図29に示すように、画素分離部304の上面は、半球状の凸部330を有していてもよい。
 また、本変形例においては、図30に示すように、画素分離部304の上面は、周期的に設けられた角錐状の凸部330を有していてもよい。
 さらに、本変形例においては、図31に示すように、画素分離部304の上面は、ランダムに設けられた凸部330を有していてもよい。
 <<7. まとめ>>
 <7.1 まとめ>
 以上のように、本開示の実施形態によれば画素分離部304の側面が凹凸320を有することにより、画素分離部304の側面での反射を抑えることができる。その結果、本実施形態においては、同一撮像素子100における画素302a、302bの位相差検出の精度の劣化や、隣接する撮像素子100間における混色の発生を抑えることができる。
 なお、上述した本開示の実施形態の説明においては、裏面照射型CMOSイメージセンサ構造に適用した場合について説明したが、本開示の実施形態はこれに限定されるものではなく、他の構造に適用されてもよい。
 なお、上述した本開示の実施形態においては、第1の導電型をn型とし、第2の導電型をp型とし、電子を信号電荷として用いた撮像素子100について説明したが、本開示の実施形態はこのような例に限定されるものではない。例えば、本実施形態は、第1の導電型をp型とし、第2の導電型をn型とし、正孔を信号電荷として用いる撮像素子100に適用することが可能である。
 また、上述した本開示の実施形態においては、半導体基板300は、必ずしもシリコン基板でなくてもよく、他の基板(例えば、SOI(Silicon On Insulator)基板やSiGe基板など)であっても良い。また、上記半導体基板300は、このような種々の基板上に半導体構造等が形成されたものでも良い。
 さらに、本開示の実施形態に係る撮像装置1は、可視光の入射光量の分布を検知して画像として撮像する撮像装置に限定されるものではない。例えば、本実施形態は、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像する撮像装置や、圧力や静電容量など、他の物理量の分布を検知して画像として撮像する指紋検出センサ等の撮像装置(物理量分布検知装置)に対して適用することができる。
 また、本開示の実施形態に係る撮像装置1は、一般的な半導体装置の製造に用いられる、方法、装置、及び条件を用いることで製造することが可能である。すなわち、本実施形態に係る撮像装置1は、既存の半導体装置の製造工程を用いて製造することが可能である。
 なお、上述の方法としては、例えば、PVD(Physical Vapor Deposition)法、CVD(Chemical Vapor Deposition)法及びALD(Atomic Layer Deposition)法等を挙げることができる。PVD法としては、真空蒸着法、EB(電子ビーム)蒸着法、各種スパッタリング法(マグネトロンスパッタリング法、RF(Radio Frequency)-DC(Direct Current)結合形バイアススパッタリング法、ECR(Electron Cyclotron Resonance)スパッタリング法、対向ターゲットスパッタリング法、高周波スパッタリング法等)、イオンプレーティング法、レーザーアブレーション法、分子線エピタキシー法(MBE(Molecular Beam Epitaxy)法)、レーザー転写法を挙げることができる。また、CVD法としては、プラズマCVD法、熱CVD法、有機金属(MO)CVD法、光CVD法を挙げることができる。さらに、他の方法としては、電解メッキ法や無電解メッキ法、スピンコート法;浸漬法;キャスト法;マイクロコンタクトプリント法;ドロップキャスト法;スクリーン印刷法やインクジェット印刷法、オフセット印刷法、グラビア印刷法、フレキソ印刷法といった各種印刷法;スタンプ法;スプレー法;エアドクタコーター法、ブレードコーター法、ロッドコーター法、ナイフコーター法、スクイズコーター法、リバースロールコーター法、トランスファーロールコーター法、グラビアコーター法、キスコーター法、キャストコーター法、スプレーコーター法、スリットオリフィスコーター法、カレンダーコーター法といった各種コーティング法を挙げることができる。さらに、パターニング法としては、シャドーマスク、レーザー転写、フォトリソグラフィー等の化学的エッチング、紫外線やレーザー等による物理的エッチング等を挙げることができる。加えて、平坦化技術としては、CMP(Chemical Mechanical Polishing)法、レーザー平坦化法、リフロー法等を挙げることができる。
 <7.2 その他の形態>
 なお、上述した本開示の実施形態においては、画素分離部304の構成について説明したが、本開示の実施形態に係る構成はこれに限定されるものではない。ここで、図32及び図33を参照して、画素分離部304の各種態様について説明する。
 図32は、本実施形態(変形例)に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を半導体基板300の平面方向に沿って切断した断面に対応する。図33は、本実施形態(変形例)に係る構造毎の撮像素子100、すなわち構造毎の半導体基板300の断面の一部を示す説明図であり、詳細には、図32に示すG-G´線で構造毎の半導体基板300を切断した断面に対応する。なお、図33では図示が省略されているが、画素分離部304の表面は凹凸状であるものとする。
 図33に示すように、画素分離部304は、RDTI(裏面DTI)、FDTI(表面DTI)のいずれかの形態であることができる。これらの形態において、トレンチT3は半導体基板300の厚さ方向に形成される。このトレンチT3には、高屈折材料が埋め込まれる。なお、図33の例では、トレンチT3は半導体基板300の面から内部に向かって広がるテーパー形状に形成されているが、これに限られるものではない。例えば、トレンチT3は、半導体基板300の面に直交(又は略直交)するように真っすぐ形成されてもよい。
 RDTIは、半導体基板300の受光面300aから半導体基板300の途中までトレンチT3を形成する構造である。FDTIは、半導体基板300の表面300bから半導体基板300の途中までトレンチを形成する構造である。
 <<8. 応用例>>
 <8.1 カメラへの応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、カメラ等に適用されてもよい。そこで、図34を参照して、本技術を適用した電子機器としての、カメラ700の構成例について説明する。図34は、本開示に係る技術(本技術)が適用され得るカメラ700の概略的な機能構成の一例を示す説明図である。
 図34に示すように、カメラ700は、撮像装置702、光学レンズ710、シャッタ機構712、駆動回路ユニット714、及び、信号処理回路ユニット716を有する。光学レンズ710は、被写体からの像光(入射光)を撮像装置702の撮像面上に結像させる。これにより、撮像装置702の撮像素子100内に、一定期間、信号電荷が蓄積される。シャッタ機構712は、開閉することにより、撮像装置702への光照射期間及び遮光期間を制御する。駆動回路ユニット714は、撮像装置702の信号の転送動作やシャッタ機構712のシャッタ動作等を制御する駆動信号をこれらに供給する。すなわち、撮像装置702は、駆動回路ユニット714から供給される駆動信号(タイミング信号)に基づいて信号転送を行うこととなる。信号処理回路ユニット716は、各種の信号処理を行う。例えば、信号処理回路ユニット716は、信号処理を行った映像信号を例えばメモリ等の記憶媒体(図示省略)に出力したり、表示部(図示省略)に出力したりする。
 このように、本開示の実施形態に係る撮像素子100は、カメラ700の撮像装置702に適用することができる。
 <8.2 スマートフォンへの応用例>
 本開示に係る技術(本技術)は、さらに様々な製品へ応用することができる。例えば、本開示に係る技術は、スマートフォン等に適用されてもよい。そこで、図35を参照して、本技術を適用した電子機器としての、スマートフォン900の構成例について説明する。図35は、本開示に係る技術(本技術)が適用され得るスマートフォン900の概略的な機能構成の一例を示すブロック図である。
 図35に示すように、スマートフォン900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、及びRAM(Random Access Memory)903を含む。また、スマートフォン900は、ストレージ装置904、通信モジュール905、及びセンサモジュール907を含む。さらに、スマートフォン900は、撮像装置909、表示装置910、スピーカ911、マイクロフォン912、入力装置913、及びバス914を含む。また、スマートフォン900は、CPU901に代えて、又はこれとともに、DSP(Digital Signal Processor)等の処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、又はストレージ装置904等に記録された各種プログラムに従って、スマートフォン900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。CPU901、ROM902、及びRAM903は、バス914により相互に接続されている。また、ストレージ装置904は、スマートフォン900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置904は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス等により構成される。このストレージ装置904は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータ等を格納する。
 通信モジュール905は、例えば、通信ネットワーク906に接続するための通信デバイスなどで構成された通信インタフェースである。通信モジュール905は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、WUSB(Wireless USB)用の通信カード等であり得る。また、通信モジュール905は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。通信モジュール905は、例えば、インターネットや他の通信機器との間で、TCP(Transmission Control Protocol)/IP(Internet Protocol)等の所定のプロトコルを用いて信号等を送受信する。また、通信モジュール905に接続される通信ネットワーク906は、有線又は無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信又は衛星通信等である。
 センサモジュール907は、例えば、モーションセンサ(例えば、加速度センサ、ジャイロセンサ、地磁気センサ等)、生体情報センサ(例えば、脈拍センサ、血圧センサ、指紋センサ等)、又は位置センサ(例えば、GNSS(Global Navigation Satellite System)受信機等)等の各種のセンサを含む。
 撮像装置909は、スマートフォン900の表面に設けられ、スマートフォン900の裏側又は表側に位置する対象物等を撮像することができる。詳細には、撮像装置909は、本開示に係る技術(本技術)が適用され得るCMOS(Complementary MOS)イメージセンサ等の撮像素子100と、撮像素子で光電変換された信号に対して撮像信号処理を施す信号処理回路(図示省略)とを含んで構成することができる。さらに、撮像装置909は、撮像レンズ、ズームレンズ、及びフォーカスレンズ等により構成される光学系機構(図示省略)及び、上記光学系機構の動作を制御する駆動系機構(図示省略)をさらに有することができる。そして、上記撮像素子は、対象物からの入射光を光学像として集光し、上記信号処理回路は、結像された光学像を画素単位で光電変換し、各画素の信号を撮像信号として読み出し、画像処理することにより撮像画像を取得することができる。
 表示装置910は、スマートフォン900の表面に設けられ、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等の表示装置であることができる。表示装置910は、操作画面や、上述した撮像装置909が取得した撮像画像などを表示することができる。
 スピーカ911は、例えば、通話音声や、上述した表示装置910が表示する映像コンテンツに付随する音声等を、ユーザに向けて出力することができる。
 マイクロフォン912は、例えば、ユーザの通話音声、スマートフォン900の機能を起動するコマンドを含む音声や、スマートフォン900の周囲環境の音声を集音することができる。
 入力装置913は、例えば、ボタン、キーボード、タッチパネル、マウス等、ユーザによって操作される装置である。入力装置913は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置913を操作することによって、スマートフォン900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 以上、スマートフォン900の構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
 <<9. 補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 半導体基板と、
 前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備え、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素と、
 前記複数の画素を分離する画素分離部と、
 を有し、
 前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、
 前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、
 撮像装置。
(2)
 前記画素分離部は、高屈折率材料からなる、上記(1)に記載の撮像装置。
(3)
 前記凹凸状の表面は、半球状、円錐状又は角錐状の凸部を有する、上記(1)又は(2)に記載の撮像装置。
(4)
 前記画素分離部の側面の少なくとも一部は、前記凹凸状の表面である、上記(1)~(3)のいずれか1つに記載の撮像装置。
(5)
 前記複数の撮像素子は、
 第1の波長帯域の波長を持つ光に対して光電変換を行う第1の撮像素子と、
 前記第1の波長帯域に比べて短い第2の波長帯域の波長を持つ光に対して光電変換を行う第2の撮像素子と、
 を含む、
 上記(1)~(4)のいずれか1つに記載の撮像装置。
(6)
 前記第1の撮像素子の前記画素分離部の面の凹凸の周期は、前記第2の撮像素子の前記画素分離部の面の凹凸の周期に比べて長い、上記(5)に記載の撮像装置。
(7)
 前記第1の撮像素子の前記画素分離部の面の凹凸の周期は、前記第2の撮像素子の前記画素分離部の面の凹凸の周期と略同一である、上記(5)に記載の撮像装置。
(8)
 前記複数の撮像素子のそれぞれは、前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズをさらに有する、上記(5)~(7)のいずれか1つに記載の撮像装置。
(9)
 前記画素分離部は、前記半導体基板の厚み方向に沿って、前記受光面と対向する表面から前記半導体基板の一部を貫通するように設けられる、上記(8)に記載の撮像装置。
(10)
 前記画素分離部の、前記受光面側に位置する上面は、凹凸状の表面である、上記(9)に記載の撮像装置。
(11)
 前記第1の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さに比べて長い、上記(9)又は(10)に記載の撮像装置。
(12)
 前記第1の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さに比べて短い、上記(9)又は(10)に記載の撮像装置。
(13)
 前記第1の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さと略同一である、上記(9)又は(10)に記載の撮像装置。
(14)
 前記画素分離部は、
 前記半導体基板の厚み方向に沿って、前記受光面と対向する表面から前記半導体基板の一部を貫通するように設けられる第1の分離部と、
 前記第1の分離部から前記受光面に向かって、前記半導体基板の厚み方向に沿って、前記半導体基板の一部を貫通するように設けられる第2の分離部と、
 からなり、
 前記第1の分離部の側面は平坦であり、
 前記第2の分離部の側面は前記凹凸状の表面である、
 上記(8)に記載の撮像装置。
(15)
 前記第1の撮像素子の前記画素分離部の前記第1の分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の前記第1の分離部の、前記半導体基板の厚み方向に沿った長さと略同一である、上記(14)に記載の撮像装置。
(16)
 前記画素分離部は、前記半導体基板の厚み方向に沿って、前記受光面から前記半導体基板の一部を貫通するように設けられる、上記(8)に記載の撮像装置。
(17)
 前記画素分離部は、
 前記半導体基板の厚み方向に沿って、前記受光面から前記半導体基板の一部を貫通するように設けられる第1の分離部と、
 前記受光面と対向する表面から前記半導体基板の一部を貫通するように設けられる第2の分離部と、
 からなる、
 上記(8)に記載の撮像装置。
(18)
 前記複数の撮像素子のそれぞれは、2つの前記画素を有する、
 上記(1)~(17)のいずれか1つに記載の撮像装置。
(19)
 前記複数の撮像素子のそれぞれは、
 前記半導体基板の所定の単位領域内を取り囲み、且つ、前記半導体基板の厚み方向に沿って前記半導体基板を貫通する素子分離壁を有する、
 上記(1)~(18)のいずれか1つに記載の撮像装置。
(20)
 半導体基板と、
 前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備える撮像装置を搭載する電子機器であって、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素と、
 前記複数の画素を分離する画素分離部と、
 を有し、
 前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、
 前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、
 電子機器。
  1、702、909  撮像装置
  20  画素アレイ部
  21  垂直駆動回路部
  22  カラム信号処理回路部
  23  水平駆動回路部
  24  出力回路部
  25  制御回路部
  26  画素駆動配線
  27  垂直信号線
  28  水平信号線
  29  入出力端子
  100、100a、100B、100G、100R  撮像素子
  200  オンチップレンズ
  202  カラーフィルタ
  204  遮光部
  300  半導体基板
  300a  受光面
  300b  表面
  302a、302b  画素
  304  画素分離部
  304a、304b  分離部
  306  拡散領域
  310  素子分離壁
  320  凹凸
  330  凸部
  400  転送ゲート
  402  配線層
  500  マスク
  700  カメラ
  710  光学レンズ
  712  シャッタ機構
  714  駆動回路ユニット
  716  信号処理回路ユニット
  900  スマートフォン
  901  CPU
  902  ROM
  903  RAM
  904  ストレージ装置
  905  通信モジュール
  906  通信ネットワーク
  907  センサモジュール
  910  表示装置
  911  スピーカ
  912  マイクロフォン
  913  入力装置
  914  バス

Claims (20)

  1.  半導体基板と、
     前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
     を備え、
     前記複数の撮像素子のそれぞれは、
     前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素と、
     前記複数の画素を分離する画素分離部と、
     を有し、
     前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、
     前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、
     撮像装置。
  2.  前記画素分離部は、高屈折率材料からなる、請求項1に記載の撮像装置。
  3.  前記凹凸状の表面は、半球状、円錐状又は角錐状の凸部を有する、請求項1に記載の撮像装置。
  4.  前記画素分離部の側面の少なくとも一部は、前記凹凸状の表面である、請求項1に記載の撮像装置。
  5.  前記複数の撮像素子は、
     第1の波長帯域の波長を持つ光に対して光電変換を行う第1の撮像素子と、
     前記第1の波長帯域に比べて短い第2の波長帯域の波長を持つ光に対して光電変換を行う第2の撮像素子と、
     を含む、
     請求項1に記載の撮像装置。
  6.  前記第1の撮像素子の前記画素分離部の面の凹凸の周期は、前記第2の撮像素子の前記画素分離部の面の凹凸の周期に比べて長い、請求項5に記載の撮像装置。
  7.  前記第1の撮像素子の前記画素分離部の面の凹凸の周期は、前記第2の撮像素子の前記画素分離部の面の凹凸の周期と略同一である、請求項5に記載の撮像装置。
  8.  前記複数の撮像素子のそれぞれは、前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズをさらに有する、請求項5に記載の撮像装置。
  9.  前記画素分離部は、前記半導体基板の厚み方向に沿って、前記受光面と対向する表面から前記半導体基板の一部を貫通するように設けられる、請求項8に記載の撮像装置。
  10.  前記画素分離部の、前記受光面側に位置する上面は、凹凸状の表面である、請求項9に記載の撮像装置。
  11.  前記第1の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さに比べて長い、請求項9に記載の撮像装置。
  12.  前記第1の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さに比べて短い、請求項9に記載の撮像装置。
  13.  前記第1の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の、前記半導体基板の厚み方向に沿った長さと略同一である、請求項9に記載の撮像装置。
  14.  前記画素分離部は、
     前記半導体基板の厚み方向に沿って、前記受光面と対向する表面から前記半導体基板の一部を貫通するように設けられる第1の分離部と、
     前記第1の分離部から前記受光面に向かって、前記半導体基板の厚み方向に沿って、前記半導体基板の一部を貫通するように設けられる第2の分離部と、
     からなり、
     前記第1の分離部の側面は平坦であり、
     前記第2の分離部の側面は前記凹凸状の表面である、
     請求項8に記載の撮像装置。
  15.  前記第1の撮像素子の前記画素分離部の前記第1の分離部の、前記半導体基板の厚み方向に沿った長さは、前記第2の撮像素子の前記画素分離部の前記第1の分離部の、前記半導体基板の厚み方向に沿った長さと略同一である、請求項14に記載の撮像装置。
  16.  前記画素分離部は、前記半導体基板の厚み方向に沿って、前記受光面から前記半導体基板の一部を貫通するように設けられる、請求項8に記載の撮像装置。
  17.  前記画素分離部は、
     前記半導体基板の厚み方向に沿って、前記受光面から前記半導体基板の一部を貫通するように設けられる第1の分離部と、
     前記受光面と対向する表面から前記半導体基板の一部を貫通するように設けられる第2の分離部と、
     からなる、
     請求項8に記載の撮像装置。
  18.  前記複数の撮像素子のそれぞれは、2つの前記画素を有する、
     請求項1に記載の撮像装置。
  19.  前記複数の撮像素子のそれぞれは、
     前記半導体基板の所定の単位領域内を取り囲み、且つ、前記半導体基板の厚み方向に沿って前記半導体基板を貫通する素子分離壁を有する、
     請求項1に記載の撮像装置。
  20.  半導体基板と、
     前記半導体基板上にマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
     を備える撮像装置を搭載する電子機器であって、
     前記複数の撮像素子のそれぞれは、
     前記半導体基板の所定の単位領域内に互いに隣接するように設けられ、且つ、光電変換部を有する複数の画素と、
     前記複数の画素を分離する画素分離部と、
     を有し、
     前記画素分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板の少なくとも一部を貫通するように設けられ、
     前記画素分離部の有する面のうちの少なくとも1つの面は、凹凸状の表面である、
     電子機器。
PCT/JP2023/001543 2022-01-26 2023-01-19 撮像装置及び電子機器 WO2023145606A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022010191 2022-01-26
JP2022-010191 2022-01-26

Publications (1)

Publication Number Publication Date
WO2023145606A1 true WO2023145606A1 (ja) 2023-08-03

Family

ID=87471795

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/001543 WO2023145606A1 (ja) 2022-01-26 2023-01-19 撮像装置及び電子機器

Country Status (1)

Country Link
WO (1) WO2023145606A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160043119A1 (en) * 2014-08-05 2016-02-11 Kyung Ho Lee Image pixel, image sensor including the same, and image processing system including the same
WO2018150902A1 (ja) * 2017-02-17 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
US20190132506A1 (en) * 2017-10-30 2019-05-02 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor
JP2020065026A (ja) * 2018-10-19 2020-04-23 キヤノン株式会社 光電変換装置
JP2020077650A (ja) * 2018-11-05 2020-05-21 ソニーセミコンダクタソリューションズ株式会社 撮像素子および製造方法、並びに電子機器
WO2021251270A1 (ja) * 2020-06-10 2021-12-16 ソニーセミコンダクタソリューションズ株式会社 光検出装置の製造方法、光検出装置及び電子機器

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160043119A1 (en) * 2014-08-05 2016-02-11 Kyung Ho Lee Image pixel, image sensor including the same, and image processing system including the same
WO2018150902A1 (ja) * 2017-02-17 2018-08-23 ソニーセミコンダクタソリューションズ株式会社 撮像素子および電子機器
US20190132506A1 (en) * 2017-10-30 2019-05-02 Taiwan Semiconductor Manufacturing Co., Ltd. Image sensor
JP2020065026A (ja) * 2018-10-19 2020-04-23 キヤノン株式会社 光電変換装置
JP2020077650A (ja) * 2018-11-05 2020-05-21 ソニーセミコンダクタソリューションズ株式会社 撮像素子および製造方法、並びに電子機器
WO2021251270A1 (ja) * 2020-06-10 2021-12-16 ソニーセミコンダクタソリューションズ株式会社 光検出装置の製造方法、光検出装置及び電子機器

Similar Documents

Publication Publication Date Title
US11329078B2 (en) Solid-state imaging device, method of manufacturing a solid-state imaging device, and electronic apparatus
US10396119B2 (en) Unit pixel of image sensor, image sensor including the same and method of manufacturing image sensor
US9978786B2 (en) Solid-state image-capturing device and production method thereof, and electronic appliance
KR102618068B1 (ko) 고체 촬상 소자 및 그 제조 방법, 및 전자 기기
US7989859B2 (en) Backside illuminated imaging sensor with silicide light reflecting layer
KR20170043140A (ko) 이미지 센서
CN108369949B (zh) 固态成像元件、成像设备和用于制造固态成像元件的方法
CN104934453A (zh) 固体摄像装置
JP2011151421A (ja) 固体撮像素子および固体撮像素子の製造方法及び画像撮影装置
JP2010199154A (ja) 固体撮像素子
TW202303951A (zh) 與深溝渠隔離結構整合之金屬網格結構
WO2023145606A1 (ja) 撮像装置及び電子機器
US8247847B2 (en) Solid-state imaging device and manufacturing method therefor
JP7346434B2 (ja) 固体撮像装置及び電子機器
JP2014049671A (ja) 半導体装置およびその製造方法
JP2011151420A (ja) 固体撮像素子および固体撮像素子の製造方法及び画像撮影装置
JP2017054992A (ja) 固体撮像装置および固体撮像装置の製造方法
WO2024018934A1 (ja) 撮像装置
WO2022124139A1 (ja) 固体撮像装置、調整方法及び電子機器
US20220278148A1 (en) Tilted transfer gate for advanced cmos image sensor
JP2007335694A (ja) 固体撮像素子およびその製造方法、電子情報機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23746819

Country of ref document: EP

Kind code of ref document: A1