WO2021193915A1 - 撮像装置及び電子機器 - Google Patents

撮像装置及び電子機器 Download PDF

Info

Publication number
WO2021193915A1
WO2021193915A1 PCT/JP2021/012841 JP2021012841W WO2021193915A1 WO 2021193915 A1 WO2021193915 A1 WO 2021193915A1 JP 2021012841 W JP2021012841 W JP 2021012841W WO 2021193915 A1 WO2021193915 A1 WO 2021193915A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor substrate
image pickup
light receiving
receiving surface
region
Prior art date
Application number
PCT/JP2021/012841
Other languages
English (en)
French (fr)
Inventor
松本 晃
光一郎 財津
慶次 西田
水輝 西田
一孝 厳樫
伊藤 大介
康史 三好
純平 山元
田中 裕介
寧 浜本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP21774140.4A priority Critical patent/EP4131429A4/en
Priority to CN202180015763.1A priority patent/CN115152022A/zh
Priority to US17/910,890 priority patent/US20230143387A1/en
Priority to JP2022510734A priority patent/JPWO2021193915A1/ja
Priority to DE112021001917.1T priority patent/DE112021001917T5/de
Priority to KR1020227032259A priority patent/KR20220159374A/ko
Publication of WO2021193915A1 publication Critical patent/WO2021193915A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14683Processes or apparatus peculiar to the manufacture or treatment of these devices or parts thereof
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets

Definitions

  • This disclosure relates to an imaging device and an electronic device.
  • a semiconductor substrate and a plurality of imaging devices that are arranged on the semiconductor substrate in a matrix along the row direction and the column direction and perform photoelectric conversion on the incident light are provided.
  • Each of the plurality of image pickup elements is provided in the semiconductor substrate so as to be adjacent to each other, surrounds the plurality of pixels containing the first conductive type impurity, the plurality of pixels, and penetrates the semiconductor substrate.
  • An element separation wall provided so as to be provided, an on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels, and an area surrounded by the element separation wall.
  • first separating portion for separating the plurality of pixels, and the first separating portion is provided so as to extend in the thickness direction of the semiconductor substrate and is located around the first separating portion.
  • a first diffusion region containing impurities of a second conductive type having a conductive type opposite to that of the first conductive type is provided in the region extending in the thickness direction of the semiconductor substrate.
  • a semiconductor substrate and a plurality of imaging elements that are arranged on the semiconductor substrate in a matrix along the row direction and the column direction and perform photoelectric conversion on the incident light are provided.
  • Each of the plurality of image pickup elements is provided in the semiconductor substrate so as to be adjacent to each other, and includes a plurality of pixels containing the first conductive type impurities, a pixel separation wall for separating the plurality of pixels, and a pixel separation wall. It has an on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels, and the pixel separation wall is formed from the light receiving surface along the thickness direction of the semiconductor substrate.
  • the region that is provided so as to extend halfway through the semiconductor substrate and is located on the side opposite to the light receiving surface with respect to the pixel separation wall in the thickness direction of the semiconductor substrate is different from that of the first conductive type.
  • An image pickup apparatus is provided that contains a second conductive type impurity having the opposite conductive type.
  • a semiconductor substrate and a plurality of imaging devices that are arranged on the semiconductor substrate in a matrix along the row direction and the column direction and perform photoelectric conversion on the incident light are provided.
  • Each of the plurality of image pickup elements is provided in the semiconductor substrate so as to be adjacent to each other, and surrounds the plurality of pixels including the first conductive type impurity and the plurality of pixels.
  • the element separation wall provided so as to penetrate the semiconductor substrate, the on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels, and the element separation wall.
  • the first separating portion is provided in the above-mentioned region and has a first separating portion for separating the plurality of pixels, and the first separating portion is provided so as to extend in the thickness direction of the semiconductor substrate.
  • a first diffusion region containing impurities of a second conductive type having a conductive type opposite to that of the first conductive type is formed.
  • Electronic devices provided are provided.
  • FIG. 3 is an explanatory diagram (No. 3) showing a part of a cross section of the image sensor 100 for each color according to the eighth embodiment of the present disclosure.
  • FIG. 5 is an explanatory diagram (No. 5) showing a part of a cross section of the image pickup device 100 according to the eighth embodiment of the present disclosure. It is a process sectional view for demonstrating a part of the manufacturing process of the image pickup device 100 which concerns on 8th Embodiment of this disclosure.
  • FIG. 3 is an explanatory diagram (No. 3) showing a part of a cross section of the image pickup device 100 according to the ninth embodiment of the present disclosure.
  • FIG. 4 which shows a part of the cross section of the image pickup device 100 which concerns on 9th Embodiment of this disclosure.
  • FIG. 5 is an explanatory diagram (No. 5) showing a part of a cross section of the image pickup device 100 according to the ninth embodiment of the present disclosure.
  • FIG. 6 is an explanatory diagram (No. 6) showing a part of a cross section of the image pickup device 100 according to the ninth embodiment of the present disclosure.
  • FIG. 7 is an explanatory diagram (No. 7) showing a part of a cross section of the image pickup device 100 according to the ninth embodiment of the present disclosure.
  • It is explanatory drawing (the 2) which shows the plane of the image pickup device 100 which concerns on 9th Embodiment of this disclosure.
  • FIG. 2 is a process cross-sectional view (No. 2) for explaining a part of the manufacturing process of the image pickup device 100 according to the ninth embodiment of the present disclosure.
  • FIG. 3 is an explanatory diagram (No. 3) showing a plane of the image sensor 100 according to the tenth embodiment of the present disclosure.
  • FIG. 6 is an explanatory diagram (No. 6) showing a plane of the image sensor 100 according to the tenth embodiment of the present disclosure.
  • FIG. (7) which shows the plane of the image pickup device 100 which concerns on tenth Embodiment of this disclosure.
  • drawing (the 1) which shows the plane of the image pickup device 100 which concerns on 11th Embodiment of this disclosure.
  • FIG. 3 is an explanatory diagram (No. 3) showing a plane of the image sensor 100 according to the eleventh embodiment of the present disclosure. It is explanatory drawing (the 4) which shows the plane of the image pickup device 100 which concerns on 11th Embodiment of this disclosure.
  • FIG. 3 is an explanatory diagram (No. 3) showing a cross section of the image pickup device 100 according to the twelfth embodiment of the present disclosure. It is explanatory drawing (the 4) which shows the cross section of the image pickup device 100 which concerns on the twelfth embodiment of this disclosure.
  • FIG. 5 is an explanatory diagram (No. 5) showing a cross section of the image pickup device 100 according to the twelfth embodiment of the present disclosure.
  • FIG. 6 is an explanatory diagram (No. 6) showing both sides and a cross section of the image pickup device 100 according to the twelfth embodiment of the present disclosure. It is explanatory drawing (7) which shows the cross section of the image pickup device 100 which concerns on the twelfth embodiment of this disclosure.
  • FIG. 9 is an explanatory diagram (No. 9) showing both sides and a cross section of the image pickup device 100 according to the twelfth embodiment of the present disclosure. It is explanatory drawing (the 10) which shows both sides and the cross section of the image pickup device 100 which concerns on the twelfth embodiment of this disclosure.
  • 11 is an explanatory diagram (11) showing both sides of the image sensor 100 according to the twelfth embodiment of the present disclosure. It is explanatory drawing (12) which shows both sides of the image sensor 100 which concerns on the twelfth embodiment of this disclosure.
  • FIG. 3 is an explanatory diagram (No. 3) showing a plane of the image sensor 100 according to the thirteenth embodiment of the present disclosure.
  • a plurality of components having substantially the same or similar functional configurations may be distinguished by adding different numbers after the same reference numerals. However, if it is not necessary to distinguish each of the plurality of components having substantially the same or similar functional configurations, only the same reference numerals are given. Further, similar components of different embodiments may be distinguished by adding different alphabets after the same reference numerals. However, if it is not necessary to distinguish each of the similar components, only the same reference numerals are given.
  • the drawings referred to in the following description are drawings for explaining one embodiment of the present disclosure and promoting its understanding, and for the sake of clarity, the shapes, dimensions, ratios, etc. shown in the drawings are actually shown. May differ from.
  • the image pickup apparatus shown in the drawing can be appropriately redesigned in consideration of the following description and known techniques.
  • the vertical direction of the laminated structure of the image pickup device corresponds to the relative direction when the light receiving surface on which the light incident on the image pickup device enters is facing up. It may differ from the vertical direction according to the actual gravitational acceleration.
  • the dimensions expressed in the following description not only mean the dimensions defined mathematically or geometrically, but also the degree of difference (error / strain) that is allowed in the operation of the image pickup device and the manufacturing process of the image pickup device. ) Is also included. Furthermore, the term "substantially identical" used for specific dimensions in the following description does not mean only when they are mathematically or geometrically perfectly matched, but also the operation of the imaging device and imaging. It shall be included that there is an allowable difference (error / strain) in the manufacturing process of the device.
  • electrically connecting means connecting a plurality of elements directly or indirectly via other elements.
  • sharing means using one other element (for example, an on-chip lens) together between elements different from each other (for example, a pixel or the like).
  • FIG. 1 is an explanatory diagram showing a plan configuration example of the image pickup apparatus 1 according to the embodiment of the present disclosure.
  • the image pickup apparatus 1 according to the embodiment of the present disclosure includes a pixel array unit 20 in which a plurality of image pickup elements 100 are arranged in a matric manner on a semiconductor substrate 10 made of silicon, for example, and the pixels. It has a peripheral circuit unit provided so as to surround the array unit 20.
  • the image pickup apparatus 1 includes a vertical drive circuit unit 21, a column signal processing circuit unit 22, a horizontal drive circuit unit 23, an output circuit unit 24, a control circuit unit 25, and the like as the peripheral circuit unit. The details of each block of the image pickup apparatus 1 will be described below.
  • the pixel array unit 20 has a plurality of image pickup elements 100 arranged two-dimensionally on the semiconductor substrate 10 in a matrix along the row direction and the column direction.
  • Each image pickup element 100 is an element that performs photoelectric conversion with respect to the incident light, and has a photoelectric conversion unit (not shown) and a plurality of pixel transistors (for example, MOS (Metal-Oxide-Semiconductor) transistors) (not shown). ) And.
  • the pixel transistor includes, for example, four MOS transistors: a transfer transistor, a selection transistor, a reset transistor, and an amplification transistor.
  • a plurality of image pickup devices 100 are arranged two-dimensionally according to, for example, a Bayer arrangement.
  • image pickup devices 100 that absorb light having a green wavelength (for example, a wavelength of 495 nm to 570 nm) and generate a charge are arranged in a checkered pattern, and the remaining portion has a red wavelength (for example, a wavelength of 620 nm).
  • the image sensor 100 that absorbs light having a wavelength of up to 750 nm and generates a charge, and the image sensor 100 that absorbs light having a blue wavelength (for example, a wavelength of 450 nm to 495 nm) and generates a charge are alternately arranged in a row. It is an array pattern that is lined up. The detailed structure of the image sensor 100 will be described later.
  • the vertical drive circuit unit 21 is formed by, for example, a shift register, selects the pixel drive wiring 26, supplies a pulse for driving the image pickup element 100 to the selected pixel drive wiring 26, and causes the image pickup element 100 in a row unit. Drive. That is, the vertical drive circuit unit 21 selectively scans each image sensor 100 of the pixel array unit 20 in a row-by-row vertical direction (vertical direction in FIG. 1), and a photoelectric conversion unit (not shown) of each image sensor 100. A pixel signal based on the signal charge generated according to the amount of received light is supplied to the column signal processing circuit unit 22 described later through the vertical signal line 27.
  • the column signal processing circuit unit 22 is arranged for each column of the image sensor 100, and performs signal processing such as noise removal for each pixel signal output from the image sensor 100 for one row.
  • the column signal processing circuit unit 22 performs signal processing such as CDS (Correlated Double Sampling: Correlation Double Sampling) and AD (Analog-Digital) conversion in order to remove fixed pattern noise peculiar to pixels.
  • CDS Correlated Double Sampling: Correlation Double Sampling
  • AD Analog-Digital
  • the horizontal drive circuit unit 23 is formed by, for example, a shift register, and by sequentially outputting horizontal scanning pulses, each of the above-mentioned column signal processing circuit units 22 is sequentially selected, and pixels from each of the column signal processing circuit units 22. The signal is output to the horizontal signal line 28.
  • the output circuit unit 24 performs signal processing on pixel signals sequentially supplied from each of the column signal processing circuit units 22 described above through the horizontal signal line 28 and outputs the signals.
  • the output circuit unit 24 may function as, for example, a functional unit that performs buffering, or may perform processing such as black level adjustment, column variation correction, and various digital signal processing. Note that buffering refers to temporarily storing pixel signals in order to compensate for differences in processing speed and transfer speed when exchanging pixel signals.
  • the input / output terminal 29 is a terminal for exchanging signals with an external device.
  • Control circuit unit 25 receives an input clock and data for instructing an operation mode and the like, and outputs data such as internal information of the image pickup apparatus 1. That is, the control circuit unit 25 is based on the vertical synchronization signal, the horizontal synchronization signal, and the master clock, and is a clock signal that serves as a reference for the operation of the vertical drive circuit unit 21, the column signal processing circuit unit 22, the horizontal drive circuit unit 23, and the like. Generate a control signal. Then, the control circuit unit 25 outputs the generated clock signal and control signal to the vertical drive circuit unit 21, the column signal processing circuit unit 22, the horizontal drive circuit unit 23, and the like.
  • the present inventors in order to improve the accuracy of the phase difference detection in the all-pixel phase difference detection, to avoid mixing the outputs of the pair of phase difference detection pixels in the phase difference detection.
  • the idea was to provide an element that physically and electrically separates the phase difference detection pixels.
  • the present inventors have conceived to provide an overflow path between a pair of phase difference detection pixels in order to avoid deterioration of the captured image in all pixel phase difference detection. Specifically, when the charge of one of the phase difference detection pixels is about to saturate during normal imaging, the charge is transferred to the other pixel via the overflow path, thereby causing one of the pixels. Pixel saturation can be avoided. By providing such an overflow path, the linearity of the pixel signal output from the image pickup device can be ensured, and deterioration of the captured image can be prevented.
  • the present inventors have created an embodiment according to the present disclosure, which makes it possible to avoid deterioration of the captured image while improving the accuracy of phase difference detection. rice field.
  • the details of the embodiments according to the present disclosure created by the present inventors will be sequentially described below.
  • FIGS. 2 and 3 are explanatory views showing a part of a cross section of the image pickup device 100 according to the present embodiment. Specifically, the image pickup device 100 is cut at different positions along the thickness direction of the semiconductor substrate 10. Corresponds to the cross section.
  • the image sensor 100 includes an on-chip lens 200, a color filter 202, a light-shielding portion (light-shielding film) 204, and a semiconductor substrate 10 as in the comparative example. , And transfer gates 400a and 400b.
  • the semiconductor substrate 10 has a pair of pixels 300a and 300b each having a photoelectric conversion unit 302.
  • the semiconductor substrate 10 has a protruding portion (an example of a first separating portion) 304 that separates the pair of pixels 300a and 300b, and has an element separation wall 310 that surrounds the pixels 300a and 300b, and the protruding portion 304 and the element.
  • FIG. 2 corresponds to a cross section in which the image sensor 100 is cut at a position where the above-mentioned protrusion 304 is cut
  • FIG. 3 shows the space between the protrusions 304 facing each other (see slit 312 and FIG. 4).
  • the image sensor 100 is provided above the light receiving surface 10a of the semiconductor substrate 10 and has one on-chip lens 200 that collects the incident light on the photoelectric conversion unit 302.
  • the image sensor 100 has a structure in which a pair of pixels 300a and 300b are provided for one on-chip lens 200. That is, the on-chip lens 200 is shared by the two pixels 300a and 300b.
  • the on-chip lens 200 may be formed of, for example, a silicon nitride film (SiN) or a resin-based material such as a styrene resin, an acrylic resin, a styrene-acrylic copolymer resin, or a siloxane resin. can.
  • the color filter 202 is either a color filter that transmits a red wavelength component, a color filter that transmits a green wavelength component, or a color filter that transmits a blue wavelength component.
  • the color filter 202 can be formed from a material in which a pigment or dye is dispersed in a transparent binder such as silicone.
  • a light-shielding portion 204 is provided on the light-receiving surface 10a of the semiconductor substrate 10 so as to surround the color filter 202.
  • the light-shielding portion 204 can be formed of, for example, a metal material containing tungsten (W), aluminum (Al), copper (Cu), titanium (Ti), molybdenum (Mo), nickel (Ni), or the like.
  • the photoelectric conversion unit 302 having the impurities of the first conductive type (for example, N type) in the semiconductor substrate 10 of the second conductive type (for example, P type) is adjacent to each of the pixels 300a and 300b. It is provided in. As described above, the photoelectric conversion unit 302 absorbs light L having a red wavelength component, a green wavelength component, or a blue wavelength component incident through the color filter 202 to charge an electric charge. Generate. Then, in the present embodiment, the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b can function as a pair of phase difference detection pixels at the time of phase difference detection. That is, in the present embodiment, the phase difference can be detected by detecting the difference in the pixel signal based on the electric charge generated by the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b.
  • the phase difference can be detected by detecting the difference in the pixel signal based on the electric charge generated by the photoelectric
  • the photoelectric conversion unit 302 changes the amount of charge generated, that is, the sensitivity, depending on the incident angle of light with respect to its own optical axis (axis perpendicular to the light receiving surface). For example, the photoelectric conversion unit 302 has the highest sensitivity when the incident angle is 0 degrees, and the sensitivity of the photoelectric conversion unit 302 is the target axis when the incident angle is 0 degrees with respect to the incident angle. It has a line-symmetrical relationship. Therefore, in the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b, light from the same point is incident at different angles of incidence, and an amount of electric charge corresponding to the angle of incidence is generated.
  • phase difference can be detected by detecting the difference in the pixel signal based on the amount of electric charge generated by the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b. Therefore, such a difference in pixel signals (phase difference) is detected as a difference signal by, for example, a detection unit (not shown) of the output circuit unit 24, and the defocus amount is calculated based on the detected phase difference. Autofocus can be achieved by adjusting (moving) the imaging lens (not shown).
  • the phase difference is detected as the difference between the pixel signals of the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b, but the present embodiment is limited to this.
  • the phase difference may be detected as the ratio of the pixel signals of the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b.
  • the protruding portion 304 serves as a penetrating DTI (Deep Research Isolation) in a groove portion (trench) (not shown) provided so as to penetrate the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10 and in the trench. It is made of an embedded material composed of an oxide film (SiO), a silicon nitride film, an amorphous silicon, a polycrystalline silicon, a titanium oxide film (TiO), an oxide film such as aluminum or tungsten, or a metal film.
  • DTI Deep Research Isolation
  • Trench not shown
  • It is made of an embedded material composed of an oxide film (SiO), a silicon nitride film, an amorphous silicon, a polycrystalline silicon, a titanium oxide film (TiO), an oxide film such as aluminum or tungsten, or a metal film.
  • the accuracy of the phase difference detection deteriorates.
  • the protruding portion 304 penetrates the semiconductor substrate 10
  • the pair of pixels 300a and 300b can be effectively physically separated, and as a result, the occurrence of color mixing is suppressed and the phase difference is achieved.
  • the accuracy of detection can be further improved.
  • a slit 312 (see FIG. 4) corresponding to the space between the two protrusions 304 is provided near the center of the image sensor 100.
  • the region of the slit 312 (an example of a region located around the protrusion 304 and extending in the thickness direction of the semiconductor substrate 10) is subjected to conformal doping via the protrusion 304.
  • Second conductive type (for example, P type) impurities are diffused to form a diffusion region 306 (an example of the first diffusion region) (details, as will be described later, the diffusion region 306 is a device separation. It is also formed around the wall 310).
  • the pair of pixels 300a and 300b can be electrically separated to prevent color mixing.
  • the depth in the semiconductor substrate 10 is deepened by the conformal doping via the protruding portion 304 (here, the depth is the semiconductor substrate 10).
  • a diffusion region 306 can be formed on the back surface 10a and the front surface 10b of the semiconductor substrate 10 along the thickness direction). Therefore, in the present embodiment, since the desired diffusion region 306 can be formed with high accuracy, the pair of pixels 300a and 300b can be effectively electrically separated, and as a result, the occurrence of color mixing is suppressed. , The accuracy of phase difference detection can be further improved. The details of the region of the slit 312 will be described later.
  • a first conductive type (for example, N type) impurity is implanted below the diffusion region 306 provided in the slit 312 (on the surface 10b side) by ion implantation.
  • a diffusion region 320 is formed.
  • the diffusion region 320 is formed by ion-implanting the first conductive type impurity into the lower region in the diffusion region 306 described above so as to make a hole in the diffusion region 306. Then, the diffusion region 320 functions as an overflow path capable of exchanging the electric charges generated between the pixels 300a and 300b.
  • a gate (not shown) may be provided on the surface 10b of the semiconductor substrate 10 between the transfer gates 400a and 400b.
  • the pair of pixels 300a and 300b are electrically separated at the time of phase difference detection, and an overflow path is formed in the region on the surface 10b side of the slit 312 at the time of normal imaging. Channels may be formed.
  • the semiconductor substrate 10 is provided with an element separation wall 310 that surrounds the pixels 300a and 300b and physically separates the adjacent image pickup elements 100.
  • the element separation wall 310 includes a groove (trench) (not shown) provided so as to penetrate the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10, and a silicon oxide film and silicon embedded in the trench. It is made of a material composed of an oxide film such as a nitride film, amorphous silicon, polycrystalline silicon, a titanium oxide film, aluminum or tungsten, or a metal film. That is, the protrusion 304 and the element separation wall 310 may be formed of the same material.
  • the element separation wall 310 and the projecting portion 304 have the same configuration, they can have an integrated form, and therefore can be formed at the same time.
  • the protruding portion 304 can be formed at the same time as the element separation wall 310, so that the increase in the process process of the image pickup device 100 can be suppressed.
  • the electric charges generated by the photoelectric conversion unit 302 of the pixel 300a and the photoelectric conversion unit 302 of the pixel 300b are provided on the surface 10b located on the side opposite to the light receiving surface 10a of the semiconductor substrate 10.
  • the transfer transistor (one of the pixel transistors described above) is transferred via the transfer gates 400a and 400b.
  • the transfer gates 400a and 400b can be formed from, for example, a metal film.
  • the charge is accumulated in, for example, a floating diffusion portion (charge storage portion) (not shown) provided in a semiconductor region having a first conductive type (for example, N type) provided in the semiconductor substrate 10. May be good.
  • the floating diffusion portion is not limited to being provided in the semiconductor substrate 10, and is provided, for example, on another substrate (not shown) laminated on the semiconductor substrate 10. It may have been.
  • a plurality of pixel transistors (not shown) other than the transfer transistor described above, which are used for reading the electric charge as a pixel signal or the like, may be provided.
  • the pixel transistor may be provided on the semiconductor substrate 10 or may be provided on another substrate (not shown) laminated on the semiconductor substrate 10.
  • FIG. 4 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the AA'line shown in FIG.
  • the pixels 300a and 300b adjacent to each other are separated by a protruding portion 304 formed integrally with the element separation wall 310.
  • the element separation wall 310 projects toward the center O of the image sensor 100 along the row direction, and two projecting portions (first) facing each other. (Example) of the separation part) 304.
  • the region between the two protrusions 304 located near the center of the image sensor 100 is referred to as a slit 312.
  • impurities of the second conductive type are diffused through the protrusion 304 by conformal doping, and diffused so as to surround the protrusion 304.
  • Region 306 is formed.
  • the pair of pixels 300a and 300b can be electrically separated to prevent color mixing.
  • the second conductive type impurities are diffused through the element separation wall 310, and the diffusion region 306 is formed along the element separation wall 310.
  • the two projecting portions 304 are provided at the center of the image pickup element 100 in the row direction when the image pickup element 100 is viewed from above the light receiving surface 10a, and the projecting lengths (lengths in the column direction) are mutually different. It is almost the same. Then, as described above, the two protrusions 304 are provided so as to penetrate the semiconductor substrate 10.
  • the width of the protruding portion 304 is not particularly limited as long as the pair of pixels 300a and 300b can be separated.
  • the projecting portion 304 and the element separation wall 310 according to the present embodiment described so far have a form as shown in FIG. 5, which is a transmission perspective view of the image pickup device 100 according to the present embodiment. That is, the protrusion 304 and the element separation wall 310 according to the present embodiment are provided so as to penetrate the semiconductor substrate 10. Further, a slit 312 is provided near the center of the image pickup device 100 between the two protrusions 304.
  • the slit 312 is located near the center O of the image sensor 100, the scattering of light by the protruding portion 304 is suppressed. Therefore, according to the present embodiment, the light incident on the center O of the image sensor 100 can be incident on the photoelectric conversion unit 302 without being scattered. As a result, according to the present embodiment, the image sensor 100 can more reliably capture the light incident on the center O of the image sensor 100, so that deterioration of the image sensor can be avoided.
  • the first conductive type impurities are introduced by ion implantation, and a channel serving as an overflow path is provided. Can be formed. Therefore, according to the present embodiment, the pair of pixels 300a and 300b can be separated at the time of phase difference detection, and an overflow path can be formed at the time of normal shooting. Therefore, the accuracy of the phase difference detection can be improved and the captured image can be captured. Deterioration can be avoided.
  • the present embodiment since impurities can be introduced into the region of the slit 312 through the protrusion 304 by conformal doping to form the diffusion region 306, it is possible to avoid using ion implantation. .. Therefore, according to the present embodiment, since ion implantation is not used, it is possible to avoid the introduction of impurities into the photoelectric conversion unit 302, and it is possible to avoid shrinkage and damage of the photoelectric conversion unit 302. Furthermore, by using conformal doping, it is possible to repair crystal defects while applying a high temperature to uniformly diffuse impurities. As a result, according to the present embodiment, it is possible to suppress a decrease in the sensitivity of the image sensor 100 and a reduction in the dynamic range.
  • the element separation wall 310 projects toward the center O of the image sensor 100 along the row direction, and two protrusions facing each other. It may have a part (an example of a first separation part) 304. Further, in this case, the two projecting portions 304 may be provided at the center of the image pickup element 100 in the row direction when the image pickup element 100 is viewed from above the light receiving surface 10a.
  • the diffusion region 306 that electrically separates the pair of pixels 300a and 300b from the protruding portion 304 that physically separates the pair of pixels 300a and 300b, and the pair of pixels 300a and 300b. Since the diffusion region 320 and the like for electrically separating the two are provided, it is possible to improve the accuracy of phase difference detection and avoid deterioration of the captured image. Specifically, in the present embodiment, the pair of pixels 300a and 300b can be effectively separated by the protrusion 304 and the diffusion region 306, and as a result, the occurrence of color mixing is suppressed and the accuracy of phase difference detection is suppressed. Can be further improved.
  • the overflow path is provided, when the charge of one of the pixels 300a and 300b is about to be saturated during normal imaging, the overflow path is used. By transferring the charge to the other pixel, saturation of one pixel can be avoided. Therefore, according to the present embodiment, by providing such an overflow path, the linearity of the pixel signal output from the image pickup device 100 can be ensured, and deterioration of the captured image can be prevented.
  • the present embodiment since impurities can be diffused into the region of the slit 312 through the protrusion 304 by conformal doping to form the diffusion region 306, it is possible to avoid using ion implantation. .. Therefore, according to the present embodiment, since ion implantation is not used, it is possible to avoid the introduction of impurities into the photoelectric conversion unit 302, and it is possible to avoid shrinkage and damage of the photoelectric conversion unit 302. Furthermore, by using conformal doping, it is possible to repair crystal defects while applying a high temperature to uniformly diffuse impurities. As a result, according to the present embodiment, it is possible to suppress a decrease in the sensitivity of the image sensor 100 and a reduction in the dynamic range.
  • the diffusion region 306 can be formed in a deep region in the semiconductor substrate 10 by conformal doping through the protruding portion 304. Therefore, in the present embodiment, since the desired diffusion region 306 can be formed with high accuracy, the pair of pixels 300a and 300b can be effectively electrically separated, and as a result, the occurrence of color mixing is suppressed. , The accuracy of phase difference detection can be further improved. Further, according to the present embodiment, since the element separation wall 310 and the projecting portion 304 have the same form, the projecting portion 304 can be formed at the same time as the element separation wall 310, which is a process step of the image pickup device 100. The increase can be suppressed.
  • the slit 312 is provided in the center O of the image sensor 100, the scattering of light by the protruding portion 304 is suppressed, and the light incident on the center O of the image sensor 100 is scattered. It can be incident on the photoelectric conversion unit 302 without any problem.
  • the image sensor 100 can more reliably capture the light incident on the center O of the image sensor 100, so that deterioration of the image sensor can be avoided.
  • FIG. 6 is an explanatory diagram showing a configuration example of the light-shielding portion 204 according to the present embodiment
  • FIG. 7 is an explanatory diagram showing a configuration example of the light-shielding portion 204 according to a modified example of the present embodiment.
  • the figure shown in the lower row corresponds to the cross section of the image sensor 100 cut along the line AA'shown in FIG. 3, and the figure shown in the upper row is BB shown in FIG. Corresponds to the cross section of the image sensor 100 cut along the'line.
  • the light-shielding portion (light-shielding film) 204 is placed on the element separation wall 310 on the element separation wall 310. It may be provided along the line.
  • the light-shielding portion (light-shielding film) 204 is placed on the element separation wall 310. Not only may it be provided along the element separation wall 310, but it may also be provided along the protrusion 304 on the protrusion 304 (an example of the first separation portion).
  • FIG. 8 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the AA'line shown in FIG.
  • the element separation wall 310 is in the row direction toward the center O (not shown) of the image sensor 100. It has two protrusions (an example of a first separation) 304 that project along and face each other. Further, the protruding lengths of the two protruding portions 304 are different from each other.
  • the two projecting portions 304 may project along the row direction toward the center O (not shown) of the image sensor 100.
  • the protrusions 304 are not limited to being provided in two so as to face each other, and for example, one may be provided.
  • a second conductive type for example, P type
  • P type the conductive type impurity
  • the two protrusions 304 are not limited to being provided at the center of the image pickup device 100 in the row direction when the image pickup device 100 is viewed from above the light receiving surface 10a. , In the row direction, it may be provided at a position deviated from the center of the image sensor 100 by a predetermined distance. Therefore, a third embodiment of the present disclosure will be described in which the two protrusions 304 are provided at positions deviated from the center of the image pickup device 100 by a predetermined distance in the row direction with reference to FIG. 9.
  • FIG. 9 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the AA'line shown in FIG.
  • the element separation walls 310 face each other when the image sensor 100 is viewed from above the light receiving surface 10a, and are oriented along the row direction. It has two projecting portions (an example of a first separating portion) 304. Further, in the present embodiment, these projecting portions 304 are provided at positions deviated from the center of the image pickup device 100 by a predetermined distance in the row direction. In the present embodiment, the predetermined distance is not particularly limited.
  • the two protrusions 304 are not limited to the form shown in FIG. 9, for example, the two protrusions protruding along the row direction (of the first separation portion).
  • Example In the case of 304, it may be provided at a position deviated from the center of the image sensor 100 by a predetermined distance in the row direction.
  • the present embodiment may be combined with the second embodiment described above, and therefore the protruding lengths of the two protrusions 304 may be different from each other.
  • the element separation walls 310 face each other when the image pickup device 100 is viewed from above the light receiving surface 10a, and face each other in the row direction. It has two protrusions (an example of a first separation) 304 protruding along. Further, in the present embodiment, a plurality of rectangular additional walls 308 are arranged in a dot shape between the protrusions 304 (slit 312). The additional wall 308 is provided so as to penetrate the semiconductor substrate 10 in the same manner as the protrusion 304. In addition, although not shown in FIG. 10, a second conductive type (for example, P type) impurity is introduced around the additional wall 308 by conformal doping through the additional wall 308. The formed diffusion region 306 is provided.
  • P type for example, P type
  • a plurality of additional walls 308 are provided between the two protrusions 304 (slit 312), and a diffusion region 306 is also provided around the additional walls 308 to sufficiently provide a pair of pixels 300a and 300b. It is possible to secure more separation. Further, in the present embodiment, by providing the additional wall 308 in a dot shape, the scattering of light by the additional wall 308 is suppressed, and the light incident on the center O (not shown) of the image sensor 100 is scattered. It can be incident on the photoelectric conversion unit 302 without any light. As a result, according to the present embodiment, the image sensor 100 can more reliably capture the light incident on the center O of the image sensor 100, so that deterioration of the image sensor can be avoided.
  • the cross section of the additional wall 308 is not limited to the rectangular shape as shown in FIG. 10, and the number of the additional walls 308 is also 2 as shown in FIG. The number is not limited to one, and may be one or three or more.
  • one additional wall 308a is arranged between the two protrusions 304 (slit 312), and the additional wall 308a may be used as the back surface DTI. ..
  • the back surface DTI forms a trench that penetrates halfway through the semiconductor substrate 10 from the light receiving surface 10a (back surface) side of the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10, and an oxide film or the like is embedded in the trench. Is formed by.
  • a channel serving as the overflow path is formed.
  • the cross section of the additional wall 308a is not limited to the rectangular shape as shown in FIG. 11, and the number of the additional walls 308a is also 2 as shown in FIG. The number is not limited to one, and may be one or three or more.
  • a second conductivity is provided by ion implantation between the two protrusions 304 (slit 312).
  • a diffusion region 306a (an example of a first diffusion region) formed by introducing a mold (for example, P-type) impurity may be provided.
  • the protruding portion 304 may be formed of a material different from that of the element separation wall 310.
  • FIG. 13 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the AA'line shown in FIG.
  • the projecting portion 304 and the element separation wall 310 are made of a material made of an oxide film such as a silicon oxide film, a silicon nitride film, an amorphous silicon, polycrystalline silicon, a titanium oxide film, aluminum, tungsten, or a metal film. Consists of. Therefore, in the present embodiment, as shown in FIG. 13, the material selected from the above-mentioned materials, and the protrusion 304 and the element separation wall 310 may be formed from different materials.
  • the element separation wall 310 is formed of a silicon oxide film
  • the protruding portion 304 is formed of a titanium oxide film having a high refractive index, which has a small difference in refractive index from the silicon forming the semiconductor substrate 10.
  • the scattering of light by the protruding portion 304 is suppressed, and the light incident on the center O (not shown) of the image sensor 100 can be incident on the photoelectric conversion unit 302 without being scattered.
  • the image sensor 100 can more reliably capture the light incident on the center O of the image sensor 100, so that deterioration of the image sensor can be avoided.
  • the protrusion 304 is not limited to being formed of a titanium oxide film, and for example, another material may be used as long as the material has a small difference in refractive index from the material forming the semiconductor substrate 10. There may be.
  • FIG. 14 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the AA'line shown in FIG.
  • the element separation walls 310 project toward the center of the image sensor 100 along the row direction and mutually.
  • the four protrusions 304 and 324 are provided so as to penetrate the semiconductor substrate 10.
  • a diffusion region 306 an example of a first diffusion region and an example of a second diffusion region.
  • a first conductive type for example, N type
  • a diffusion region 320 that functions as an overflow path is formed.
  • the inside of the image sensor 100 is separated into four pixels 300a, 300b, 300c, and 300d by such four protrusions 304.
  • one image sensor 100 can detect the phase difference in both the row direction and the column direction.
  • the present invention is not limited to the four protrusions 304 and 324, and four or more protrusions may be provided (for example, eight).
  • FIG. 15 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the AA'line shown in FIG.
  • a pixel separation wall (an example of a separation portion) 334 composed of a back surface DTI is provided between the pair of pixels 300a and 300b.
  • the back surface DTI forms a trench that penetrates from the light receiving surface 10a (back surface) side of the semiconductor substrate 10 to the middle of the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10 and is inside the trench. It is formed by embedding an oxide film or the like in the.
  • the region on the surface 10b side of the pixel separation wall 334, which is not penetrated by the pixel separation wall 334 is the overflow path.
  • an overflow path may be formed by introducing a first conductive type impurity into the region by ion implantation.
  • the pixel separation wall 334 may or may not be in contact with the element separation wall 310, and is not particularly limited. If they are not in contact with each other, a second conductive type (for example, P type) impurity is formed by conformal doping via the element separation wall 310 or ion implantation between the pixel separation wall 334 and the element separation wall 310. Is formed by introducing the above, and a diffusion region (not shown) that electrically separates the pair of pixels 300a and 300b is provided.
  • the pair of pixels 300a and 300b are effective by providing the pixel separation wall 334 composed of the back surface DTI that physically separates the pair of pixels 300a and 300b at the time of phase difference detection.
  • the occurrence of color mixing can be suppressed and the accuracy of phase difference detection can be further improved.
  • the charge of one of the pixels 300a and 300b is likely to be saturated during normal imaging due to the overflow path located in the region on the surface 10b side of the pixel separation wall 334, By transferring the charge to the other pixel through the overflow path, saturation of one pixel can be avoided.
  • the linearity of the pixel signal output from the image pickup device 100 can be ensured and the deterioration of the captured image can be prevented.
  • a pixel separation wall 334 formed by introducing a second conductive type (for example, P type) impurity by ion implantation is provided between the pair of pixels 300a and 300b. May be done. Even in such a modification, the pixel separation wall 334 formed by ion implantation extends from the light receiving surface 10a (back surface) side of the semiconductor substrate 10 to the middle of the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. It is formed in a penetrating form. In the modification, the region on the surface 10b side of the pixel separation wall 334, which is not penetrated by the pixel separation wall 334, is the overflow path in the thickness direction of the semiconductor substrate 10.
  • a second conductive type for example, P type
  • the overflow path may be formed by preventing impurities from being implanted into the region on the surface 10b side of the pixel separation wall 334 at the time of ion implantation for forming the pixel separation wall 334. It may be formed by introducing a first conductive type impurity into the region by ion implantation. In this modification as well, the pixel separation wall 334 may or may not be in contact with the element separation wall 310, and is not particularly limited.
  • the pair of pixels 300a and 300b can be effectively electrically separated, and as a result, the pair of pixels 300a and 300b can be effectively electrically separated. It is possible to suppress the occurrence of color mixing and further improve the accuracy of phase difference detection. Further, in the present embodiment, when the charge of one of the pixels 300a and 300b is likely to be saturated during normal imaging due to the overflow path located in the region on the surface 10b side of the pixel separation wall 334, By transferring the charge to the other pixel through the overflow path, saturation of one pixel can be avoided. By providing such an overflow path, the linearity of the pixel signal output from the image pickup device 100 can be ensured, and deterioration of the captured image can be prevented.
  • FIG. 16 is an explanatory diagram showing a configuration example of the light-shielding portion 204 according to the present embodiment.
  • the figure shown in the lower row corresponds to a cross section obtained by cutting the image sensor 100 along the line AA'shown in FIG. 3, and the figure shown in the upper row is the line BB'shown in FIG. Corresponds to the cross section of the image sensor 100 cut.
  • the light-shielding portion (light-shielding film) 204 is placed on the element separation wall 310. It may have two projecting portions 206 that are provided along the element separation wall 310 and project toward the center O of the image sensor 100 along the row direction and face each other. Alternatively, in the present embodiment and the modified example, the light-shielding portion 204 may be provided along the element separation wall 310 and may not have the protruding portion 206.
  • FIG. 17 is an explanatory view showing a part of a cross section of the image pickup device 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image pickup device 100 cut along the thickness direction of the semiconductor substrate 10.
  • FIG. 18 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the CC'line shown in FIG. FIG.
  • FIG. 19 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the DD'line shown in FIG.
  • FIG. 20 is an explanatory view showing a part of a cross section of the image pickup device 100 according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the line EE shown in FIG.
  • FIG. 21 is an explanatory view showing a part of a cross section of the image sensor 100 for each color according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. ..
  • one additional wall 308b is arranged between the two protrusions 304 (slit 312), and the additional wall 308b is designated as a surface DTI. ..
  • the surface DTI forms a trench extending from the surface 10b side, which is the opposite surface of the light receiving surface 10a of the semiconductor substrate 10, to the middle of the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. It is formed by embedding an oxide film or the like in the trench. By adjusting the depth of the trench, it is possible to adjust the length of the semiconductor substrate 10 in the thickness direction of the additional wall 308b.
  • a channel serving as the overflow path may be formed by introducing impurities into the region on the back surface 10a side of the additional wall 308b, which is not penetrated by the additional wall 308b.
  • the additional wall 308b extends from the surface 10b, which is the surface opposite to the light receiving surface 10a of the semiconductor substrate 10, to the middle of the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10 (the substrate thickness direction). Provided. As a result, the length of the additional wall 308b in the substrate thickness direction becomes shorter than the length of the two protrusions 304 in the substrate thickness direction. Therefore, since the end surface (the surface on the light receiving surface 10a side) of the additional wall 308b is separated from the light receiving surface 10a, scattering of incident light by the additional wall 308b in the vicinity of the light receiving surface 10a can be suppressed.
  • the volume of the additional wall 308b can be reduced on the light receiving surface 10a side, and the incident light can be reliably scattered in the vicinity of the light receiving surface 10a by the additional wall 308b. Can be suppressed.
  • incident light may be scattered by two protrusions 304 arranged near the center of the image sensor 100 on the light receiving surface 10a, which may cause deterioration of color mixing.
  • the suppression of sensitivity decrease may be insufficient.
  • the additional wall 308b disappears near the center of the image sensor 100 on the light receiving surface 10a side, and incident light scattering can be suppressed. As a result, it is possible to suppress color mixing, a decrease in sensitivity, a decrease in the amount of saturated charge, and the like.
  • the additional wall 308b is formed according to the wavelength of the incident light in each of the RGB (Red, Green, Blue) image pickup elements 100, that is, the photoelectric conversion depth.
  • the trench depth for this purpose may be adjusted.
  • the trench depth is set to be shallow.
  • the trench depth is set deep.
  • the trench depth is set between the trench depth of the R pixel and the trench depth of the B pixel.
  • the trench depth that is, the length of the additional wall 308a in the substrate thickness direction may be determined according to the wavelength of the incident light incident on the light receiving surface 10a. This makes it possible to minimize the scattering of incident light for each color. As a result, it is possible to suppress incident light scattering according to the wavelength of the incident light, so that it is possible to reliably suppress color mixing, a decrease in sensitivity, a decrease in the amount of saturated charge, and the like.
  • FIG. 22 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment. Specifically, FIG. 22 is a cross section obtained by cutting the image sensor 100 along a plane direction (a direction orthogonal to the thickness direction of the semiconductor substrate 10). handle.
  • FIG. 23 is an explanatory view showing a part of a cross section of the image sensor 100 for each color according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. .. FIG.
  • FIG. 24 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 25 is an explanatory view showing a part of a cross section of the image sensor 100 for each color according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. ..
  • the width of the central portion of the additional wall 308b (for example, the length in the row direction) is the width of both ends of the additional wall 308b (for example, the length in the row direction). For example, it may be narrower than the length in the row direction).
  • the length of the central portion of the additional wall 308b in the substrate thickness direction may be shorter than the length of both end portions of the additional wall 308b in the substrate thickness direction.
  • the line width of the central portion of the additional wall 308b is reduced with respect to both ends, and the depth of the trench for forming the central portion of the additional wall 308b is made shallower in the substrate thickness direction of the central portion of the additional wall 308b.
  • the width of the central portion of the additional wall 308b is narrower than that of both ends of the additional wall 308b, and the length of the central portion of the semiconductor substrate 10 in the thickness direction is the both ends of the additional wall 308b.
  • the present invention is not limited to this, and either the width or the length thereof may be reduced. Further, the width of the additional wall 308b may be shorter than the width of the two protrusions 304.
  • the individual widths (for example, the lengths in the row direction) of the two protrusions 304 are the widths of the additional wall 308b (for example, the length in the row direction). For example, it may be narrower than the length in the row direction).
  • the two protrusions 304 may be provided so as to extend from the surface 10b of the semiconductor substrate 10 to the middle of the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. At this time, the length of the additional wall 308b in the substrate thickness direction may be shorter than the length of the two protrusions 304 in the individual substrate thickness direction.
  • the line widths of the two protrusions 304 are narrowed, and the depth of the trench for forming the two protrusions 304 is made shallow.
  • the volume of the two protrusions 304 can be reduced in addition to the volume of the wall 308b, scattering of incident light by the additional wall 308b and the two protrusions 304 in the vicinity of the light receiving surface 10a can be reliably suppressed.
  • the individual widths of the two protrusions 304 are narrower than, but not limited to, the width of the additional wall 308b, and are not limited to, for example, one of the two protrusions 304.
  • the width may be narrower than the width of the additional wall 308b.
  • FIG. 26 is a process cross-sectional view for explaining a part of the manufacturing process of the image pickup device 100 according to the present embodiment. Specifically, FIG. 26 is a cross-sectional view obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. handle.
  • a mask M1 such as a photomask is formed on the surface 10b of the semiconductor substrate 10 (see the first figure from the left in FIG. 26).
  • the mask M1 is formed, for example, by laminating a photoresist layer on the surface 10b of the semiconductor substrate 10 by a spin coating method or the like, and patterning the photoresist layer in accordance with a trench forming pattern.
  • a mask M2 that functions as a protective layer is formed on the mask M1, and a part of the trench T1 for forming the element separation wall 310 is formed by etching such as dry etching (second from the left in FIG. 26). reference). After that, the mask M2 is removed (see the third figure from the left in FIG.
  • etching is performed to form a trench T1 for forming the element separation wall 310 and a trench T2 for forming the additional wall 308b.
  • a material such as an oxide film is embedded in the trench T1 and the trench T2 to form the element separation wall 310 and the additional wall 308b.
  • the mask M1 is also removed, and the image sensor 100 having the final structure is formed through a post-process.
  • the effect related to the other embodiment can be obtained. That is, it is possible to avoid deterioration of the captured image while improving the accuracy of phase difference detection. Further, since the end surface of the additional wall 308b (the surface on the light receiving surface 10a side) is separated from the light receiving surface 10a and the volume of the additional wall 308b can be reduced on the light receiving surface 10a side, the additional wall 308b or the protrusion Scattering of incident light near the light receiving surface 10a by the unit 304 can be suppressed.
  • FIG. 27 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 27 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 28 is an explanatory view showing a part of a cross section of the image pickup device 100 according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10.
  • FIG. 29 is an explanatory view showing a part of a cross section of the image sensor 100 of the comparative example according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. ..
  • the diffusion region 306b is formed in a shape that expands from the front surface 10b of the semiconductor substrate 10 toward the inside of the semiconductor substrate 10 and narrows from the inside of the semiconductor substrate 10 toward the back surface 10a of the semiconductor substrate 10. That is, the diffusion region 306b has a first region R1 extending from the front surface 10b of the semiconductor substrate 10 toward the inside of the semiconductor substrate 10 and a second region R1 narrowing from the inside of the semiconductor substrate 10 toward the back surface 10a of the semiconductor substrate 10. It has a region R2. These first region R1 and second region R2 are connected.
  • the central axis of the first region R1 and the central axis of the second region R2 are positioned so as not to deviate from each other, but the present invention is not limited to this, and for example, left and right. It may be positioned so as to deviate in the direction (for example, the row direction). This also applies to the configurations shown in FIGS. 30 to 35 below.
  • the diffusion region 306b is formed in a shape that expands from the front surface 10b of the semiconductor substrate 10 toward the inside of the semiconductor substrate 10 and narrows from the inside of the semiconductor substrate 10 toward the back surface 10a of the semiconductor substrate 10.
  • the diffusion region 306b is narrower than the diffusion region 306a (see FIG. 29), so that the photoelectric conversion region can be widened.
  • the diffusion region 306b can be deformed as follows. Therefore, the detailed configuration of the diffusion region 306b will be described with reference to FIGS. 30 to 35.
  • 30 to 35 are explanatory views showing a part of a cross section of the image sensor 100 according to the present embodiment, and more specifically, correspond to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. ..
  • the diffusion region 306b may be formed so that the first region R1 and the second region R2 are separated from each other without being connected. Even in the diffusion region 306b having such a shape, it is possible to suppress the spread of the diffusion region 306b, and the photoelectric conversion region can be widened.
  • the first region R1 and the second region R2 are compared with the first region R1 and the second region R2 shown in FIG. 28. It may be formed so as to be thin. The first region R1 and the second region R2 are connected. In the diffusion region 306b having such a shape, it is possible to further suppress the spread of the diffusion region 306b as compared with the first region R1 and the second region R2 shown in FIG. 28, and the photoelectric conversion region is surely widened. be able to.
  • the impurity concentrations in the first region R1 and the second region R2 are the first region R1 and the second region shown in FIG. 28. It may be formed so as to be darker than R2.
  • the first region R1 and the second region R2 are connected. According to such a diffusion region 306b, potential adjustment (potential design) can be easily performed by changing the impurity concentrations in the first region R1 and the second region R2.
  • the diffusion region 306b has a length (depth) in the substrate thickness direction of the first region R1 as a length (depth) in the substrate thickness direction of the second region R2. It may be formed to be longer than the depth).
  • the first region R1 and the second region R2 are connected. According to such a diffusion region 306b, potential adjustment (potential design) can be easily performed by changing the lengths of the first region R1 and the second region R2 in the thickness direction of each substrate.
  • the diffusion region 306b may be formed so that the lengths of the first region R1 and the second region R2 in the thickness direction of the individual substrates are different.
  • the substrate of the second region R2 may be formed in the opposite manner to the above. It may be formed so that the length in the thickness direction is longer than the length in the substrate thickness direction of the first region R1.
  • the diffusion region 306b may be formed so that the first region R1 is thinner than the second region R2. That is, the length in the direction orthogonal to the substrate thickness direction in the first region R1 is shorter than the length in the direction orthogonal to the substrate thickness direction in the first region R1.
  • the first region R1 and the second region R2 are connected. According to such a diffusion region 306b, potential adjustment (potential design) can be easily performed by changing the individual thicknesses of the first region R1 and the second region R2.
  • the diffusion region 306b may be formed so that the individual thicknesses of the first region R1 and the second region R2 are different.
  • the second region R2 is the first region R1 as described above. It may be formed to be thinner.
  • the diffusion region 306b may be formed so that the impurity concentration in the first region R1 is lower than the impurity concentration in the second region R2.
  • the first region R1 and the second region R2 are connected.
  • potential adjustment potential design
  • the diffusion region 306b may be formed so that the individual impurity concentrations of the first region R1 and the second region R2 are different.
  • the impurity concentration of the second region R2 is the first. It may be formed so as to be thinner than the impurity concentration in the region R1 of.
  • Ion implantation is performed to form the diffusion regions 306b having various shapes as shown in FIGS. 28, 30 to 35.
  • various conditions such as power, implantation time, processing temperature, and electric field are adjusted. By appropriately adjusting these various conditions, it is possible to obtain diffusion regions 306b having various shapes as shown in FIGS. 28, 30 to 35.
  • one additional wall 308 may be provided between the two protrusions 304 (slit 312).
  • a diffusion region 306b is provided between each of the two protrusions 304 and one additional wall 308 (two regions).
  • the cross section of the image sensor 100 cut along the GG'line shown in FIG. 36 is the same as the cross section shown by FIG. 28, and the cross section of the image sensor 100 cut along the HH'line shown in FIG. 36 is the same as the cross section shown in FIG. It is the same as the cross section shown in FIG. 34.
  • a potential gradient see the white arrow in FIG. 36
  • the electric charge can be easily rolled (moved) toward the transfer gates 400a and 400b. That is, potential adjustment (potential design) such as forming a potential gradient can be easily performed by combining various shapes of the first region R1 and the second region R2 constituting the diffusion region 306b, a combination of impurity concentrations, and the like. be able to.
  • FIGS. 37 and 38 are process cross-sectional views for explaining a part of the manufacturing process of the image pickup apparatus 1 according to the present embodiment. Note that, in FIGS. 37 and 38, for the sake of clarity, only the main parts of the imaging apparatus 1 related to the present embodiment are shown, and the other parts are not shown.
  • a photodiode, a floating diffusion (all not shown), transfer gates 400a and 400b, an element separation wall 310, a protrusion 304, and the like are formed.
  • Ion implantation is performed on the semiconductor substrate 10 of the above.
  • ion implantation is performed from the surface 10b of the first semiconductor substrate 10.
  • the first semiconductor substrate 10 and the second semiconductor substrate 11 are joined via the interlayer insulating film 10A.
  • CMP Chemical Mechanical Polishing
  • a grinder, or the like is used for the first semiconductor substrate 10, and thinning is performed from the back surface 10a of the first semiconductor substrate 10 as shown in the middle of FIG.
  • ion implantation is executed again into the first semiconductor substrate 10.
  • ion implantation is performed from the back surface 10a of the first semiconductor substrate 10.
  • the support substrate 12 is bonded to the first semiconductor substrate 10, and for example, activation annealing is executed.
  • various transistors, signal lines (for example, pixel drive wiring 26, horizontal signal line 28, etc.) and the like are formed on the second semiconductor substrate 11.
  • the logic substrate 13 is joined to the second semiconductor substrate 11.
  • the logic board 13 has a plurality of circuits such as various circuit units 21 to 25, for example.
  • a CMP, a grinder, or the like is used for the support substrate 12, and the wall thickness is reduced as shown in the lower part of FIG. 38.
  • the effect related to the other embodiment can be obtained. That is, it is possible to avoid deterioration of the captured image while improving the accuracy of phase difference detection.
  • the diffusion region 306b is formed in a shape that extends from the front surface 10b of the semiconductor substrate 10 toward the inside of the semiconductor substrate 10 and narrows from the inside of the semiconductor substrate 10 toward the back surface 10a of the semiconductor substrate 10. As a result, the diffusion region 306b (see FIG. 28) is narrower than the diffusion region 306a (see FIG. 29), so that the photoelectric conversion region can be widened.
  • the protruding portion 304 may be composed of the extending portion 304a and the protruding portion 304b.
  • FIG. 39 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 40 is an explanatory view showing a part of a cross section of the image pickup device 100 according to the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the I-I'line shown in FIG. 39.
  • FIG. 41 is an explanatory view showing a part of a cross section of the image pickup device 100 according to the comparative example of the present embodiment, and more specifically, corresponds to a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. ..
  • the two protrusions 304 have an extension portion 304a and a protrusion 304b, respectively.
  • the extending portion 304a is connected to the element separation wall 310 and extends in the row direction from the element separation wall 310.
  • the protrusion 304b is provided at the end of the extension 304a and extends in the row direction.
  • the shape of the stretched portion 304a and the shape of the protruding portion 304b are rectangular, and in the example of FIG. 39, the protruding portion 304 has a T-shape.
  • Each protrusion 304b has facing surfaces S1 facing each other. When viewed from above the light receiving surface 10a, the individual width of each facing surface S1 (for example, the length in the row direction) is wider than the individual line width (for example, the length in the row direction) of each extending portion 304a.
  • a diffusion layer that is, a diffusion region 306 is formed only by conformal doping on the wall surface of the element separation wall 310, and the slit 312 is filled with the diffusion region 306. Be done. This is because the two protrusions 304 forming the slit 312 are formed straight so as to be orthogonal to the light receiving surface 10a. That is, the shape of the slit 312 is not a tapered shape but a linear shape.
  • the processed shape of the full trench may become a tapered shape due to the influence of the microloading effect during etching.
  • the region of the slit 312 may not be completely filled by the diffusion region 306, and sufficient potential separation may not be possible.
  • the etching rate can be improved in the case of forming a trench (sparse) with a wide line width as compared with the case of forming a trench (dense) with a narrow line width.
  • the etching rate is increased and the shape of the slit 312 is tapered as compared with the case where the protruding portion 304 is formed only by the stretched portion 304a. It is possible to make a linear shape without. As a result, ion implantation can be omitted and an increase in the number of manufacturing steps can be suppressed. Further, since the verticality of the slit 312 (verticality of the trench) is improved, the saturation charge amount Qs can be improved as compared with the case where ion implantation is indispensable, and further, the color mixing and the quantum efficiency Qe can be improved. In addition, it is possible to reduce crystal defect damage and improve white spots.
  • FIG. 42 is a graph showing the relationship between the width of the slit 312 and the width of the protrusion 304 according to the present embodiment.
  • the line width (length in the row direction) of the stretched portion 304a is L1
  • the width of the protrusion 304b length in the row direction
  • the semiconductor substrate 10 Assuming that the width (length in the row direction) of the slit 312 on the back surface 10a side is L3 and the width (length in the row direction) of the slit 312 on the front surface 10b side of the semiconductor substrate 10 is L4, as shown in FIG.
  • a graph showing the relationship between "L2 / L1 (ratio)” and “L4-L3 (difference)” is required. From this graph, by making the width L2 of the protrusion 304b 1.2 times or more the line width L1 of the stretched portion 304a, the slit 312 can be made vertical, and a sufficient effect can be obtained at a practical level. can. Further, when verticalization is required, it is desirable that the width L2 of the protrusion 304b is 1.4 times or more the line width L1 of the stretched portion 304a.
  • the formation position of the slit 312 it is also possible to move the formation position of the slit 312 in the row direction. In this case, the length of the stretched portion 304a (for example, the length in the row direction) is adjusted. Such movement of the formation position of the slit 312 is also possible in the subsequent configurations of FIGS. 45 to 50.
  • the transfer gates 400a and 400b and the floating diffusion region can be separated from the blooming path region for transfer and transfer. It is possible to improve the margin for white spots and the like.
  • FIG. 43 is a process cross-sectional view for explaining a part of the manufacturing process of the image pickup device 100 according to the present embodiment.
  • FIG. 43 is a cross-sectional view of the semiconductor substrate 10 cut along the LL'line shown in FIG. 39.
  • FIG. 44 is a process cross-sectional view for explaining a part of the manufacturing process of the image pickup device 100 according to the present embodiment.
  • FIG. 44 is a cross-sectional view of the semiconductor substrate 10 cut along the line I-I shown in FIG. Corresponds to.
  • the mask M1 (for example, an inorganic mask such as SiO 2) is formed on the back surface 10a (or the front surface 10b) of the semiconductor substrate 10.
  • the mask M2 is formed on the mask M1.
  • the mask M2 is formed, for example, by laminating a photoresist layer on the mask M1 on the surface 10b of the semiconductor substrate 10 by a spin coating method or the like, and patterning the photoresist layer according to a trench forming pattern.
  • the protrusion 304 and the trench for forming the element separation wall 310 are formed by etching such as dry etching, and the mask M2 is removed.
  • conformal doping is performed to form the diffusion region 306.
  • a material such as an oxide film is embedded in each trench to form a protruding portion 304 and an element separation wall 310.
  • the mask M1 is removed, and the image sensor 100 having the final structure is formed through a post-process.
  • the protruding portion 304 can be deformed as follows. Therefore, the detailed configuration of the protruding portion 304 will be described with reference to FIGS. 45 to 50.
  • 45 to 50 are explanatory views showing a plane of the image sensor 100 according to the present embodiment, and more specifically, correspond to a cross section of the image sensor 100 cut along the plane direction.
  • the protruding portion 304 has a stretched portion 304a and a protruding portion 304b.
  • the extending portion 304a is connected to the element separation wall 310 and extends in the row direction from the element separation wall 310.
  • the protrusion 304b is provided at the end of the extension 304a and extends in the row direction.
  • the shape of the stretched portion 304a and the shape of the protrusion 304b are rectangular, and in the example of FIG. 45, the shape of the protrusion 304 is T-shaped.
  • the protrusion 304b has a facing surface S1 facing the wall surface of the element separation wall 310.
  • the width of the facing surface S1 of the protrusion 304b (for example, the length in the row direction) is longer than the line width of the extension portion 304a (for example, the length in the row direction).
  • the two protrusions 304 are each bent in the middle so that the slit 312 is formed to be slanted.
  • Each protrusion 304 has facing surfaces S1 facing each other.
  • the individual lengths of the facing surfaces S1 eg, the length in the tilt direction
  • the individual line widths of the two protrusions 304 eg, the length in the row direction.
  • each protrusion 304 is formed so as to be displaced in the row direction.
  • Each protrusion 304 has facing surfaces S1 facing each other.
  • the individual length of each facing surface S1 (for example, the length in the column direction) is longer than the individual line width (for example, the length in the row direction) of each protrusion 304.
  • the two protrusions 304 have an extension portion 304a and a protrusion 304b, respectively.
  • the extending portion 304a is connected to the element separation wall 310 and extends in the row direction from the element separation wall 310.
  • the protrusion 304b is provided at the end of the extension 304a, and is formed in a shape extending in the row direction and the column direction.
  • the shape of the stretched portion 304a is rectangular, and in the example of FIG. 48, the shape of the protrusion 304b is L-shaped.
  • Each protrusion 304 has facing surfaces S1 facing each other.
  • each additional wall 308c in addition to the two protruding portions 304, two additional walls (an example of the separating portion) 308c are provided so as to face each other with the center of the image sensor 100 in between. Has been done.
  • Each additional wall 308c has facing surfaces S1 facing each other. When viewed from above the light receiving surface 10a, the individual length of each facing surface S1 (for example, the length in the column direction) is longer than the individual line width (for example, the length in the row direction) of each protrusion 304.
  • the two protrusions 304 have an extension portion 304a and a protrusion 304b, respectively.
  • the configuration of the protrusion 304b when viewed from above the light receiving surface 10a, is the same as that of FIG. 39 except that the shape is circular.
  • the shape of the protrusion 304b may be various shapes such as an elliptical shape and a trapezoidal shape in addition to the circular shape.
  • the effect related to the other embodiment can be obtained. That is, it is possible to avoid deterioration of the captured image while improving the accuracy of phase difference detection.
  • the width of the facing surface S1 of the protruding portion 304 (for example, the length in the row direction) is wider than the line width (for example, the length in the row direction) of the extending portion 304a of the protruding portion 304.
  • the etching rate on the facing surface S1 side of the protruding portion 304 can be increased, and the shape of the slit 312 can be made into a linear shape instead of a tapered shape.
  • the verticality of the slit 312 verticality of the trench
  • the saturation charge amount Qs can be improved as compared with the case where ion implantation is indispensable, and further, the color mixing and the quantum efficiency Qe can be improved.
  • FIG. 51 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 52 is an explanatory view showing a plane of the image sensor 100 according to the comparative example of the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 according to the comparative example cut along the plane direction.
  • the two pixel separation walls 334a are arranged in a row direction so as to face each other with the center of the image sensor 100 in between.
  • Each pixel separation wall 334a is separated from the element separation wall 310 without contacting the element separation wall 310, and is further separated from each other.
  • the individual shape of each pixel separation wall 334a is rectangular.
  • the diffusion region 306 includes a first region 306A and a second region 306B.
  • the first region 306A is a region formed by a solid phase diffusion process for each trench for forming the two pixel separation barriers 334a.
  • the second region 306B is a region formed by a solid phase diffusion process on the trench for forming the device separation wall 310. That is, the diffusion from the trench corresponding to the element separation wall 310 on the outer periphery and the diffusion from each trench corresponding to the two protrusions 304 occur independently, so that the diffusion region 306 becomes the first region 306A and the first region 306A. It will have 2 regions 306B.
  • the boron diffusion region 306 is formed. It will be formed widely.
  • the wide formation of the diffusion region 306 causes a decrease in the saturated charge amount. Therefore, as described above, by arranging the element separation wall 310 and the two pixel separation walls 334a apart from each other and forming the separation structure independently, it is possible to independently diffuse the solid phase of the separation structure.
  • boron is diffused by a solid phase diffusion process (an example of a diffusion process), but the diffusion process is not limited to the solid phase diffusion process, and the diffusion process is not limited to the solid phase diffusion process. It is also possible to use a doping technique that performs doping.
  • the two pixel separation walls 334a are positioned on the center line passing through the center of the image sensor 100, but the present invention is not limited to this, and for example, the left-right direction of FIG. 51 (as an example). , In the row direction). This also applies to the configurations shown in FIGS. 54 to 57 below.
  • FIG. 53 is a process cross-sectional view for explaining a part of the manufacturing process of the image pickup device 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image pickup device 100 cut along a plane direction.
  • the individual trenches T4 for forming the two pixel separation walls 334a are formed at internal positions away from the formation position of the element separation wall 310 (from the left of FIG. 53). See the first figure).
  • a solid phase diffusion process is then used for those trenches T4 to form a solid phase diffusion layer (eg P-type layer) or first region 306A around each trench T4 and then into those trenches T4.
  • a material such as an oxide film is embedded to form a pixel separation wall 334a (see the second figure from the left in FIG. 53).
  • a trench T5 for forming the element separation wall 310 is formed in a rectangular shape of a predetermined size surrounding each trench T4, and a solid phase diffusion process is used for the trench T5 to form a solid phase diffusion layer (for example, a P-type layer).
  • a solid phase diffusion layer for example, a P-type layer.
  • a second region 306B is formed around the trench T5, and finally, a material such as an oxide film is embedded in the trench T5 to form an element separation wall 310 (see the third figure from the left in FIG. 53). ).
  • the diffusion region 306 including the first region 306A and the second region 306B is formed.
  • the pixel separation wall 334a can be deformed as follows. Therefore, the detailed configuration of the pixel separation wall 334a will be described with reference to FIGS. 54 to 57.
  • 54 to 57 are explanatory views showing a plane of the image sensor 100 according to the present embodiment, and more specifically, correspond to a cross section of the image sensor 100 cut along the plane direction.
  • each pixel separation wall 334a is separated from the element separation wall 310 without contacting the element separation wall 310, and is further separated from each other.
  • the individual shapes of the pixel separation walls 334a are rectangular, and the pixel separation walls 334a are arranged so as to form a cross shape.
  • two pixel separation walls 334a having a plane area smaller than those pixel separation walls 334a are provided. These pixel separation walls 334a having a small area (size) are arranged in the row direction so as to face each other with the center of the image sensor 100 in between. Individual parts of the two pixel separation walls 334a are located in the region between the other two pixel separation walls 334a.
  • the individual shape of each pixel separation wall 334a is rectangular.
  • each pixel separation wall 334a is provided.
  • the four pixel separation walls 334a are arranged in dots in the row direction passing through the center of the image sensor 100.
  • Each pixel separation wall 334a is separated from the element separation wall 310 without contacting the element separation wall 310, and is further separated from each other.
  • each pixel separation wall 334a when viewed from above the light receiving surface 10a, each pixel separation wall 334a has a rectangular shape, and each pixel separation wall 334a is arranged on one straight line.
  • the two pixel separation walls 334a are formed in a circular shape when viewed from above the light receiving surface 10a.
  • the configuration of each pixel separation wall 334a is the same as that of FIG. 51 except that the shape is circular.
  • the shape of the pixel separation wall 334a may be various shapes such as an elliptical shape and a trapezoidal shape in addition to the circular shape.
  • the effect related to the other embodiment can be obtained. That is, it is possible to avoid deterioration of the captured image while improving the accuracy of phase difference detection. Further, by arranging the element separation wall 310 and each pixel separation wall 334a separately and forming the separation structure independently, it becomes possible to independently perform a diffusion process such as solid phase diffusion of the separation structure. , It is possible to suppress a decrease in the amount of saturated electric charge.
  • FIG. 58 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 59 is an explanatory view showing both sides and a cross section of the image sensor 100 according to the present embodiment, and the cross section corresponds to a cross section obtained by cutting the image sensor 100 along the MM'line shown in FIG. 58.
  • FIG. 60 is an explanatory diagram showing the relationship between the slit width (length of the slit gap) of the image pickup device 100 according to the present embodiment, the light collection characteristic, and the pixel characteristic.
  • the pair of protruding portions 304 are formed in a tapered shape in which the separation distance (slit width) from each other gradually changes in the depth direction.
  • the distance between the pair of protrusions 304 from each other gradually increases in the depth direction from the front surface 10b toward the back surface (light receiving surface) 10a (from the upper surface to the lower surface in FIG. 58) (a). ⁇ B).
  • the protrusion amount As a result, it is possible to secure the protrusion amount as a whole while keeping the light receiving surface 10a side of the pair of projecting portions 304 away from the center.
  • FIG. 60 it is possible to reduce light scattering while maintaining the pixel characteristics, and it is possible to eliminate the trade-off between the light collection characteristics and the pixel characteristics.
  • ba 2 ⁇ (t / tan ( ⁇ )).
  • a is the length of the slit 312 on the front surface 10b side
  • b is the length of the slit 312 on the back surface (light receiving surface) 10a side
  • t is the thickness (in the depth direction) from the front surface 10b to the back surface 10a.
  • Length where ⁇ is the taper angle of the slit 312 with respect to the surface 10b. Even if the taper angle ⁇ is small, there is a large difference in the slit width from the front surface 10b to the back surface 10a depending on the thickness t from the front surface 10b to the back surface 10a.
  • the pair of protrusions 304 can be deformed as follows. Therefore, the detailed configuration of the pair of protrusions 304 will be described with reference to FIGS. 61 to 71.
  • 61, 65, 68, and 69 are explanatory views showing both sides and a cross section of the image sensor 100 according to the present embodiment, respectively.
  • 62 to 64 and 66 are explanatory views showing a cross section of the image pickup device 100 according to the present embodiment, respectively.
  • 67, 70, and 71 are explanatory views showing both sides of the image pickup device 100 according to the present embodiment.
  • the pair of protrusions 304 are separated from each other by a predetermined depth in the depth direction from the front surface 10b to the back surface 10a (from the upper surface to the lower surface in FIG. 61). It is substantially the same, and is formed so as to gradually widen in the depth direction from the middle in the depth direction (a ⁇ b).
  • the trench shape in the condensing portion is dominant, so it is effective if the condensing portion is changed.
  • the separation distance on the back surface (light receiving surface) 10a side is preferably wide because it is effective for light collection, and the separation distance on the front surface 10b side is preferably wide from the viewpoint of potential design.
  • the central separation distance is effective for Qs, so it is better to be narrow.
  • the pair of projecting portions 304 are separated from each other in multiple stages in the depth direction from the front surface 10b to the back surface 10a (from the upper surface to the lower surface in FIG. 63). Each is formed to change.
  • the distance between the pair of protrusions 304 changes in two steps in the depth direction, and the distance on the front surface 10b side is narrower than the distance on the back surface 10a (). a ⁇ b). Therefore, each of the pair of protrusions 304 has a step.
  • the separation distance of the pair of protrusions 304 may change discontinuously rather than continuously, and may change in multiple steps such as three steps or four steps instead of two steps.
  • the pair of protrusions 304 are separated from each other in two steps in the depth direction from the front surface 10b to the back surface 10a (from the upper surface to the lower surface in FIG. 64). It is formed so as to gradually widen in the depth direction from the middle of the depth direction (a ⁇ c ⁇ b).
  • the intermediate taper shape shown in FIGS. 61 and 62, the multi-stage processing shape shown in FIG. 63, and the like may be combined.
  • one protruding portion 304 has a depth of separation distance from the element separation wall 310 from the front surface 10b to the back surface 10a (from the upper surface to the lower surface in FIG. 65). It is formed so as to gradually widen in the direction (a ⁇ b).
  • one protrusion 304 changes in two steps in the depth direction from the front surface 10b to the back surface 10a (from the upper surface to the lower surface in FIG. 66). It is formed.
  • the separation distance on the front surface 10b side is narrower than the separation distance on the back surface 10a side (a ⁇ b).
  • the four protrusions 304 are gradually separated from each other by the pair of protrusions 304 facing each other from the front surface 10b toward the back surface 10a in the depth direction. It is formed to be wide (a ⁇ b). These protrusions 304 are arranged in a cross shape.
  • the intermediate taper shape shown in FIGS. 61 and 62 and the multi-step processing shown in FIG. 63 are applied to a plurality of protruding portions 304 such as one protruding portion 304 and four protruding portions 304. Shapes and the like may be applied, or they may be applied in combination.
  • one protruding portion 304 has a line width (direction orthogonal to the stretching direction) from the front surface 10b to the back surface 10a (from the upper surface to the lower surface in FIG. 69).
  • the width is formed so as to gradually narrow in the depth direction (d> e).
  • the distance between the protruding portion 304 and the element separation wall 310 gradually increases from the front surface 10b toward the back surface 10a along the depth direction (a ⁇ b).
  • the four pixel separation walls 334a are formed so that the individual line widths gradually narrow in the depth direction from the front surface 10b to the back surface 10a. There is. These pixel separation walls 334a are arranged in dots in the row direction passing through the center of the image sensor 100. Each pixel separation wall 334a is separated from the element separation wall 310 without contacting the element separation wall 310, and is further separated from each other.
  • the gap (width of the slit 312) of the slit 312 on the light receiving surface 10a side scattering by each protruding portion 304 is suppressed, and the light collecting characteristic is particularly effective in the vicinity of the light receiving surface 10a.
  • FIG. 72 is a process cross-sectional view for explaining a part of the manufacturing process of the image pickup device 100 according to the present embodiment. Specifically, FIG. 72 is a cross section obtained by cutting the semiconductor substrate 10 along the thickness direction of the semiconductor substrate 10. handle.
  • FFTI surface FTI: Full Trench Isolation
  • the semiconductor substrate 10 and the bonded substrate 501 are bonded to each other to reduce the wall thickness.
  • the thinned semiconductor substrate 10 is backfilled, and the color filter 202 and the on-chip lens 200 are laminated.
  • the bonded substrate 502 for example, a logic substrate, a semiconductor substrate, or the like is used.
  • FIG. 73 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 74 is an explanatory view showing a plane of the image sensor 100 according to the comparative example of the present embodiment, and more specifically, corresponds to a cross section of the image sensor 100 according to the comparative example cut along the plane direction.
  • the two transfer gates 400a and 400b are positioned on one end side (for example, the upper side of FIG. 73) of the cell region surrounded by the element separation wall 310.
  • the cell region is included in the image sensor 100.
  • the cell area is square.
  • the FD unit 601 is a floating diffusion shared by two adjacent cell areas (see the dotted line area in FIG. 73).
  • the FD unit 601 is positioned on one end side (for example, the upper side of FIG. 73) of the cell region.
  • the shape of the FD portion 601 is not a regular octagon but an octagon having a long side and a short side.
  • the FD portion 601 is horizontally long, and in the FD portion 601 the length in the direction orthogonal to the extending direction of the protruding portion 304 is longer than the length in the extending direction of the protruding portion 304.
  • the FD unit 601 for example, Poly—Si (polycrystalline Si) is used.
  • the ground portion 602 is a ground portion shared by two adjacent cell areas (see the dotted line area in FIG. 73).
  • the ground portion 602 is positioned on one end side (for example, the lower side of FIG. 73) of the cell region.
  • the shape of the ground portion 602 is not a regular octagon but an octagon having a long side and a short side.
  • the ground portion 602 is horizontally long, and in the ground portion 602, the length in the direction orthogonal to the extending direction of the protruding portion 304 is longer than the length in the extending direction of the protruding portion 304.
  • As the ground portion 602 for example, Poly—Si (polycrystalline Si) is used.
  • the ground portion 602 is a ground (GND) potential and functions as, for example, a well contact.
  • the width g of the slit 312 (the length in the vertical direction of FIG. 74) is the slit shown in FIG. 75. It is narrower than the width f of 312 (the length in the vertical direction in FIG. 75).
  • the region (divided portion) of the slit 312 comes closer to the FD portion 601 (for example, N + diffusion layer) and the ground portion 602 (for example, P + diffusion layer). Therefore, the FD portion 601 and the ground portion 602 may interfere with the region of the slit 312, resulting in an increase in variation in single pixel Qs, deterioration of FD white spots, and the like.
  • the shapes of the FD portion 601 and the ground portion 602 are each horizontally long.
  • the length of the protruding portion 304 in the extending direction is shorter than the length in the direction orthogonal to the extending direction of the protruding portion 304.
  • the FD portion 601 and the ground portion 602 are separated from the region (divided portion) of the slit 312 as compared with FIG. 74.
  • the shapes of the transfer gates 400a and 400b for example, the shape of the transfer gates 400a and 400b on the slit 312 side can be enlarged to improve the transfer (improve the transfer characteristics) and suppress the variation of the potential barrier. be able to.
  • the ground portion 602 can be deformed as follows. Therefore, the detailed configuration of the ground portion 602 will be described with reference to FIGS. 75 to 78.
  • 75 to 78 are explanatory views showing a plane of the image sensor 100 according to the present embodiment, and in detail, correspond to a cross section of the image sensor 100 cut along the plane direction.
  • ground portions 602 are provided at two corners of the cell region. These ground portions 602 are ground portions shared by four adjacent cell regions. In the example of FIG. 75, it is provided at the lower left and lower right of the four corners of the cell area. Each ground portion 602 is deviated from the FD portion 601 by half the cell pitch (length in the left-right direction in FIG. 75) of the cell region. As a result, each ground portion 602 is farther away from the region of the slit 312 than in FIGS. 73 and 74. Therefore, it is possible to reliably suppress an increase in single-pixel Qs variation and deterioration of FD white spots.
  • the ground portion 602 shown in FIG. 75 is provided so as to be rotated by 90 degrees (other configurations are the same as those in FIG. 75). As a result, each ground portion 602 is farther away from the region of the slit 312 than in FIG. 75. Therefore, it is possible to more reliably suppress an increase in single-pixel Qs variation and deterioration of FD white spots.
  • the ground portion 602 shown in FIG. 75 is formed in a regular octagon shape (other configurations are the same as those in FIG. 75). Even in this case, each ground portion 602 is separated from the region of the slit 312 as compared with FIG. 74. Therefore, it is possible to reliably suppress an increase in single-pixel Qs variation and deterioration of FD white spots.
  • the FD portion 601 shown in FIG. 77 is formed in a regular octagonal shape, and the shapes of the transfer gates 400a and 400b are the same as those in FIG. 74 (other configurations). Is the same as in FIG. 77). Even in this case, each ground portion 602 is separated from the region of the slit 312 as compared with FIG. 74. Therefore, it is possible to reliably suppress an increase in single-pixel Qs variation and deterioration of FD white spots.
  • the shapes of the FD portion 601 and the ground portion 602 may be the same (see FIGS. 73 to 76 and 78) or may be different (see FIG. 77). Further, the shape of the FD portion 601 or the ground portion 602 may be a shape having a long side and a short side, for example, a shape symmetrical in the vertical and horizontal directions (see FIGS. 73 to 78), or a shape asymmetrical in the vertical and horizontal directions. It may be.
  • the FD unit 601 and the ground unit 602 are arranged in an array (for example, in a matrix along the row direction and the column direction), but may be arranged at the same pitch as the cell pitch of the cell region, or half of each other. They may be arranged with the pitch shifted.
  • the shape of the FD portion 601 and the ground portion 602 may be, for example, another polygonal shape or an elliptical shape in addition to the octagonal shape having the long side and the short side.
  • the image pickup device 100 in which the first conductive type is N-type, the second conductive type is P-type, and electrons are used as signal charges has been described.
  • the embodiment is not limited to such an example.
  • this embodiment can be applied to an image pickup device 100 in which the first conductive type is P-type, the second conductive type is N-type, and holes are used as signal charges.
  • the semiconductor substrate 10 does not necessarily have to be a silicon substrate, and may be another substrate (for example, an SOI (Silicon On Insulator) substrate, a SiGe substrate, or the like). Further, the semiconductor substrate 10 may have a semiconductor structure or the like formed on such various substrates.
  • SOI Silicon On Insulator
  • the image pickup device 1 is not limited to the image pickup device 1 that detects the distribution of the incident light amount of visible light and captures the image as an image.
  • the present embodiment includes an imaging device that captures the distribution of incident amounts of infrared rays, X-rays, particles, etc. as an image, and fingerprints that detect the distribution of other physical quantities such as pressure and capacitance and capture the image as an image. It can be applied to an image pickup device (physical quantity distribution detection device) such as a detection sensor.
  • the image pickup apparatus 1 according to the embodiment of the present disclosure can be manufactured by using the methods, devices, and conditions used for manufacturing a general semiconductor device. That is, the image pickup apparatus 1 according to the present embodiment can be manufactured by using the manufacturing process of the existing semiconductor device.
  • Examples of the above-mentioned method include a PVD (Physical Vapor Deposition) method, a CVD (Chemical Vapor Deposition) method, and an ALD (Atomic Layer Deposition) method.
  • the PVD method includes a vacuum vapor deposition method, an EB (electron beam) vapor deposition method, various sputtering methods (magnetron sputtering method, RF (Radio Frequency) -DC (Direct Curent) combined bias sputtering method, and ECR (Electron Cyclotron Resonance) sputtering method.
  • examples of the CVD method include a plasma CVD method, a thermal CVD method, an organometallic (MO) CVD method, and an optical CVD method.
  • Various printing methods such as method and flexo printing method; stamp method; spray method; air doctor coater method, blade coater method, rod coater method, knife coater method, squeeze coater method, reverse roll coater method, transfer roll coater method, gravure coater method.
  • Kiss coater method, cast coater method, spray coater method, slit orifice coater method, calendar coater method and various other coating methods can be mentioned.
  • examples of the patterning method include chemical etching such as shadow mask, laser transfer, and photolithography, and physical etching by ultraviolet rays, laser, and the like.
  • examples of the flattening technique include a CMP (Chemical Mechanical Polishing) method, a laser flattening method, and a reflow method.
  • the protrusion an example of the separation part 304,324, the additional wall (an example of the separation part) 308, 308a, 308b, 308c, and the pixel separation wall (an example of the separation part) 334.
  • the structure of 334a has been described, the structure according to the embodiment of the present disclosure is not limited thereto.
  • various aspects of the structure of each part will be described in detail with reference to FIGS. 79 to 84.
  • FIG. 79 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment (modification example), and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 80 is an explanatory view showing a part of a cross section of the image sensor 100 for each structure, that is, the semiconductor substrate 10 for each structure according to the present embodiment (modification example), and in detail, FIG. It corresponds to the cross section obtained by cutting the semiconductor substrate 10 for each structure with a ′ line.
  • the pixel separation wall 334 has a structure of any one of RDTI (back surface DTI), FDTI (front surface DTI), FFTI (front surface FTI: Full Trench Isolation), RFTI (back surface FTI), and RDTI + FDTI. Is formed in.
  • the trench T3 is formed in the thickness direction of the semiconductor substrate 10. A material such as an oxide film is embedded in the trench T3.
  • the trench T3 is formed in a tapered shape extending inward from the surface of the semiconductor substrate 10, but the trench T3 is not limited to this.
  • the trench T3 may be formed straight so as to be orthogonal (or substantially orthogonal) to the surface of the semiconductor substrate 10.
  • the RDTI has a structure in which the trench T3 is formed from the back surface 10a (light receiving surface 10a) of the semiconductor substrate 10 to the middle of the semiconductor substrate 10.
  • the FDTI has a structure in which a trench is formed from the surface 10b of the semiconductor substrate 10 (the surface opposite to the light receiving surface 10a) to the middle of the semiconductor substrate 10.
  • the FFTI has a structure formed by penetrating the trench T3 from the front surface 10b to the back surface 10a of the semiconductor substrate 10.
  • RFTI is a method of forming the semiconductor substrate 10 by penetrating the trench T3 from the back surface 10a to the front surface 10b.
  • RDTI + FDTI is a method in which the above-mentioned RDTI and FDTI are combined. In this RDTI + FDTI, the trench T3 extending from the back surface 10a and the trench T3 extending from the front surface 10b are connected near the center in the thickness direction of the semiconductor substrate 10.
  • FIG. 81 is an explanatory view showing a plane of the image sensor 100 according to the present embodiment (modification example), and more specifically, corresponds to a cross section of the image sensor 100 cut along the plane direction.
  • FIG. 82 is an explanatory view showing a part of a cross section of the image sensor 100 for each structure, that is, the semiconductor substrate 10 for each structure according to the present embodiment (modification example). It corresponds to the cross section obtained by cutting the semiconductor substrate 10 for each structure with a ′ line.
  • the protruding portion 304 is formed in any one of RDTI, FDTI, FFTI, RFTI, and RDTI + FDTI structure, similarly to the pixel separation wall 334 described above (see FIG. 80).
  • the trench T3 is formed in the thickness direction of the semiconductor substrate 10.
  • the trench T3 is formed so that the protruding portion 304 comes into contact with the element separation wall 310 and does not separate from each other.
  • a material such as an oxide film is embedded in the trench T3.
  • the trench T3 is formed in a tapered shape extending inward from the surface of the semiconductor substrate 10, but the trench T3 is not limited to this.
  • the trench T3 may be formed straight so as to be orthogonal (or substantially orthogonal) to the surface of the semiconductor substrate 10.
  • the pixel separation wall 334 as shown in FIG. 79, another structure may be used in addition to one pixel separation wall 334 that is not in contact with the element separation wall 310.
  • a plurality of pixel separation walls 334 may be formed in a row in a dot shape so as to be non-contact with the element separation wall 310.
  • the number of pixel separation walls 334 is 6, but the number is not limited.
  • the pixel separation wall 334 may be formed so that both ends thereof come into contact with the element separation wall 310.
  • the pixel separation wall 334 is formed in the column direction, but the present invention is not limited to this, and the pixel separation wall 334 may be formed in the row direction, for example.
  • the second protrusion 324 and the pixel separation wall 334a and the additional walls 308, 308a, 308b, 308c according to each of the above embodiments have the above-mentioned RDTI and FDTI.
  • FFTI, RFTI, RDTI + FDTI structures can be applied.
  • the embodiment of the present disclosure may be applied to other structures such as structures.
  • the embodiments of the present disclosure may be applied to a two-layer laminated CIS, a three-layer laminated CIS, a two-stage pixel CIS, and the like.
  • the application to the two-stage pixel CIS is an example, and the application to the one-stage pixel is also possible.
  • the structures of the two-layer laminated CIS, the three-layer laminated CIS, and the two-stage pixel CIS will be described in detail with reference to FIGS. 85 to 87.
  • FIG. 85 shows an example of a two-layer laminated structure to which the embodiment of the present disclosure can be applied.
  • FIG. 85 is an explanatory view showing a cross section of a two-layer laminated structure to which the image pickup apparatus 1 according to the embodiment of the present disclosure can be applied.
  • the image pickup apparatus 1 has a pixel region (pixel array unit 20) and a control circuit on the side of the first semiconductor substrate 31 by means of one through-connection conductor 84 formed on the first semiconductor substrate 31.
  • the unit 25 and a logic circuit (not shown) on the side of the second semiconductor substrate 45 are electrically connected to each other. That is, in the example of FIG. 85, the first semiconductor substrate 31 and the second semiconductor substrate 45 are laminated, and these semiconductor substrates 31 and 45 are electrically connected by the through connecting conductor 84.
  • the wiring 53 of the uppermost layer of the second semiconductor substrate 45 is reached from the back surface 31b side of the first semiconductor substrate through the first semiconductor substrate 31, and the uppermost layer of the first semiconductor substrate 31.
  • a through connection hole 85 that reaches the wiring 40 of the above is formed.
  • the through connection conductor 84 connecting the wiring 40 on the pixel region and the control circuit section 25 side and the wiring 53 on the logic circuit side in the through connection hole 85. Embed.
  • the wiring 40 of each layer is connected to each other so that the wiring 40 of the uppermost layer to be connected becomes the connection end.
  • a photodiode (PD) serving as a photoelectric conversion part of each pixel is formed in the semiconductor well region 32 of the first semiconductor substrate 31. Further, a source / drain region 33 of each pixel transistor is formed in the semiconductor well region 32.
  • the semiconductor well region 32 is formed by introducing, for example, a p-type impurity, and the source / drain region 33 is formed by introducing, for example, an n-type impurity.
  • the photodiode (PD) and the source / drain region 33 of each pixel transistor are formed by ion implantation from the substrate surface.
  • the photodiode (PD) has an n-type semiconductor region 34 and a p-type semiconductor region 35 on the surface side of the substrate.
  • a gate electrode 36 is formed on the surface of a substrate constituting a pixel via a gate insulating film, and pixel transistors Tr1 and Tr2 are formed by a source / drain region 33 paired with the gate electrode 36.
  • the pixel transistor Tr1 adjacent to the photodiode (PD) corresponds to a transfer transistor, and its source / drain region corresponds to floating diffusion (FD).
  • FD floating diffusion
  • Each unit pixel is separated by the element separation region 38.
  • MOS transistors Tr3 and Tr4 constituting the control circuit are formed on the first semiconductor substrate 31.
  • the MOS transistors Tr3 and Tr4 are formed by an n-type source / drain region 33 and a gate electrode 36 formed via a gate insulating film.
  • a first layer interlayer insulating film 39 is formed on the surface of the first semiconductor substrate 31, and a connecting conductor 44 connected to a required transistor is formed in the interlayer insulating film 39.
  • a multilayer wiring layer 41 is formed by a plurality of layers of wiring 40 via an interlayer insulating film 39 so as to connect to each connecting conductor 44.
  • a plurality of MOS transistors forming a logic circuit separated by the element separation region 50 are formed in the p-type semiconductor well region 46 on the surface side of the second semiconductor substrate 45.
  • Each of the MOS transistors Tr6, Tr7, and Tr8 has a pair of n-type source / drain regions 47 and a gate electrode 48 formed via a gate insulating film.
  • a first layer interlayer insulating film 49 is formed on the surface of the second semiconductor substrate 45, and a connecting conductor 54 for connecting to a required transistor is formed in the interlayer insulating film 49.
  • a connecting conductor 51 that penetrates from the surface of the interlayer insulating film 49 to a desired depth in the second semiconductor substrate 45 is provided.
  • an insulating film 52 for insulating the connecting conductor 51 and the semiconductor substrate 45 is provided.
  • the multilayer wiring layer 55 is formed by providing the wiring 53 having a plurality of layers in the interlayer insulating film 49 so as to connect to each connecting conductor 54 and the connecting conductor 51 for taking out the electrodes.
  • the first semiconductor substrate 31 and the second semiconductor substrate 45 are bonded so that the multilayer wiring layers 41 and 55 face each other.
  • red (R), green (G), and blue (B) on-chip color filters 74 are provided on the flattening film 73 corresponding to each pixel, and on the flattening film 73, for example, red (R), green (G), and blue (B) on-chip color filters 74 are provided.
  • An on-chip microlens 75 is provided.
  • an opening 77 corresponding to the connecting conductor 51 is provided, and a spherical electrode bump 78 electrically connected to the connecting conductor 51 through the opening 77 is provided.
  • FIG. 86 shows an example of a three-layer laminated structure to which the embodiment of the present disclosure can be applied.
  • FIG. 86 is an explanatory view showing a cross section of a three-layer laminated structure to which the image pickup apparatus 1 according to the embodiment of the present disclosure can be applied.
  • the image pickup apparatus 1 has a three-layer laminated structure in which the first semiconductor substrate 211, the second semiconductor substrate 212, and the third semiconductor substrate 213 are laminated.
  • a memory circuit is formed in addition to the first semiconductor substrate 211 on which the sensor circuit is formed and the second semiconductor substrate 212 on which the logic circuit is formed. It is composed of a third semiconductor substrate 213.
  • the logic circuit and the memory circuit are configured to operate with input / output of signals to and from the outside.
  • a photodiode (PD) 234 serving as a pixel photoelectric conversion unit is formed on the first semiconductor substrate 211, and a source / drain region of each pixel transistor is formed in the semiconductor well region. NS. Further, a gate electrode is formed on the surface of the first semiconductor substrate 211 via a gate insulating film, and a pixel transistor Tr1 and a pixel transistor Tr2 are provided by a source / drain region paired with the gate electrode. Specifically, the pixel transistor Tr1 adjacent to the photodiode (PD) 234 corresponds to the transfer transistor, and its source / drain region corresponds to floating diffusion (FD). Further, the first semiconductor substrate 211 is provided with an interlayer insulating film (not shown), and a connecting conductor 244 connected to the pixel transistors Tr1 and Tr2 is provided in the interlayer insulating film.
  • the first semiconductor substrate 211 is provided with a contact 265 used for electrical connection with the second semiconductor substrate 212.
  • the contact 265 is connected to the contact 311 of the second semiconductor substrate 212, which will be described later, and is also connected to the pad 280a of the first semiconductor substrate 211.
  • a logic circuit is formed on the second semiconductor substrate 212. Specifically, a MOS transistor Tr6, a MOS transistor Tr7, and a MOS transistor Tr8, which are a plurality of transistors constituting a logic circuit, are formed in a p-type semiconductor well region (not shown) of the second semiconductor substrate 212. There is. Further, in the second semiconductor substrate 212, a connecting conductor 254 connected to the MOS transistor Tr6, the MOS transistor Tr7, and the MOS transistor Tr8 is formed.
  • the second semiconductor substrate 212 is formed with a contact 311 used for electrical connection with the first semiconductor substrate 211 and the third semiconductor substrate 213.
  • the contact 311 is connected to the contact 265 of the first semiconductor substrate 211 and also to the pad 330a of the third semiconductor substrate 213.
  • a memory circuit is formed on the third semiconductor substrate 213. Specifically, a MOS transistor Tr11, a MOS transistor Tr12, and a MOS transistor Tr13, which are a plurality of transistors constituting the memory circuit, are formed in the p-type semiconductor well region (not shown) of the third semiconductor substrate 213. There is.
  • a MOS transistor Tr11 a MOS transistor Tr12, and a connection conductor 344 connected to the MOS transistor Tr13 are formed.
  • FIG. 87 shows an example of a two-stage pixel structure to which the embodiment of the present disclosure can be applied.
  • FIG. 87 is an explanatory view showing a cross section of a two-stage pixel structure to which the image pickup apparatus 1 according to the embodiment of the present disclosure can be applied.
  • the first substrate 80 is configured by laminating an insulating layer 86 on a semiconductor substrate 11.
  • the first substrate 80 has an insulating layer 86 as a part of the interlayer insulating film 87.
  • the insulating layer 86 is provided in the gap between the semiconductor substrate 11 and the semiconductor substrate 21A described later.
  • the first substrate 80 has a photodiode PD (83), a transfer transistor TR, and a floating diffusion FD.
  • the first substrate 80 has a configuration in which a transfer transistor TR and a floating diffusion FD are provided on a portion of the semiconductor substrate 11 on the surface side (the side opposite to the light incident surface side, the second substrate 20A side).
  • the transfer transistor TR has a planar transfer gate TG.
  • the transfer gate TG is not limited to such a configuration, and may be a vertical transfer gate penetrating the well layer 42.
  • the second substrate 20A is configured by laminating an insulating layer 88 on the semiconductor substrate 21A.
  • the second substrate 20A has an insulating layer 88 as a part of the interlayer insulating film 87.
  • the insulating layer 88 is provided in the gap between the semiconductor substrate 21A and the semiconductor substrate 81.
  • the second substrate 20A has a read-out circuit 22A.
  • the second substrate 20A has a configuration in which the readout circuit 22A is provided on the surface side (third substrate 30 side) of the semiconductor substrate 21A.
  • the second substrate 20A is attached to the first substrate 80 with the back surface of the semiconductor substrate 21A facing the front surface side of the semiconductor substrate 11. That is, the second substrate 20A is attached to the first substrate 80 face-to-back.
  • the second substrate 20A further has an insulating layer 89 penetrating the semiconductor substrate 21A in the same layer as the semiconductor substrate 21A.
  • the second substrate 20A has an insulating layer 89 as a part of the interlayer insulating
  • the laminate composed of the first substrate 80 and the second substrate 20A has an interlayer insulating film 87 and a through wiring 90 provided in the interlayer insulating film 87. Specifically, the through wiring 90 is electrically connected to the floating diffusion FD and the connection wiring 91 described later.
  • the second substrate 20A further has, for example, a wiring layer 56 on the insulating layer 88.
  • the wiring layer 56 further has, for example, a plurality of pad electrodes 58 in the insulating layer 57.
  • Each pad electrode 58 is made of, for example, a metal such as Cu (copper) or Al (aluminum).
  • Each pad electrode 58 is exposed on the surface of the wiring layer 56.
  • Each pad electrode 58 is used for electrical connection between the second substrate 20A and the third substrate 30 and for bonding the second substrate 20A and the third substrate 30.
  • the third substrate 30 is configured by, for example, laminating an interlayer insulating film 61 on a semiconductor substrate 81. As will be described later, the third substrate 30 is attached to the second substrate 20A with the surfaces on the front side facing each other.
  • the third substrate 30 has a configuration in which a logic circuit 82 is provided on a portion of the semiconductor substrate 81 on the surface side.
  • the third substrate 30 further has, for example, a wiring layer 62 on the interlayer insulating film 61.
  • the wiring layer 62 has, for example, an insulating layer 92 and a plurality of pad electrodes 64 provided in the insulating layer 92.
  • the plurality of pad electrodes 64 are electrically connected to the logic circuit 82.
  • Each pad electrode 64 is made of, for example, Cu (copper).
  • Each pad electrode 64 is exposed on the surface of the wiring layer 62.
  • Each pad electrode 64 is used for electrical connection between the second substrate 20A and the third substrate 30 and for bonding the second substrate 20A and the third
  • transistors other than the transfer gates 400a and 400b for example, CMOS transistors
  • the floating diffusion FD is provided at a position adjacent to the transfer gates 400a and 400b.
  • the pixel transistor regions Ra and Rb are formed so as to sandwich the pixel region Rc including the pixels 300a and 300b.
  • the selection transistor SEL and the amplification transistor AMP are arranged in the pixel transistor area Ra on the left side in FIG.
  • the reset transistor RST is arranged in the pixel transistor area Rb on the right side in FIG. 88.
  • the pixel sharing method, transistor arrangement, photodiode embedded structure, and the like according to FIG. 88 are merely examples, and are not limited thereto.
  • the image pickup elements 100 shown in FIG. 88 are arranged as shown in FIG. 89 (repeated arrangement), and the selection transistor SEL, the amplification transistor AMP, and the reset transistor RST are arranged in the individual pixel transistor regions Ra and Rb of each image pickup element 100.
  • the FD transfer transistors FDG may be arranged one by one.
  • the FD transfer transistor FDG is used when switching the conversion efficiency.
  • the arrangement of each transistor may be uniform or uneven with respect to each pixel transistor region Ra and Rb.
  • a plurality of amplification transistors AMP may be arranged with respect to the four image pickup devices 100, and these amplification transistor AMPs may be arranged in parallel.
  • FIG. 90 is an explanatory diagram showing an example of a schematic functional configuration of the camera 700 to which the technique according to the present disclosure (the present technique) can be applied.
  • the camera 700 includes an image pickup device 702, an optical lens 710, a shutter mechanism 712, a drive circuit unit 714, and a signal processing circuit unit 716.
  • the optical lens 710 forms an image of image light (incident light) from the subject on the image pickup surface of the image pickup apparatus 702.
  • the signal charge is accumulated in the image pickup device 100 of the image pickup apparatus 702 for a certain period of time.
  • the shutter mechanism 712 controls the light irradiation period and the light blocking period of the image pickup apparatus 702 by opening and closing.
  • the drive circuit unit 714 supplies drive signals for controlling the signal transfer operation of the image pickup apparatus 702, the shutter operation of the shutter mechanism 712, and the like.
  • the image pickup apparatus 702 performs signal transfer based on the drive signal (timing signal) supplied from the drive circuit unit 714.
  • the signal processing circuit unit 716 performs various signal processing. For example, the signal processing circuit unit 716 outputs the signal-processed video signal to a storage medium (not shown) such as a memory, or outputs it to a display unit (not shown).
  • FIG. 91 is a block diagram showing an example of a schematic functional configuration of a smartphone 900 to which the technology according to the present disclosure (the present technology) can be applied.
  • the smartphone 900 includes a CPU (Central Processing Unit) 901, a ROM (Read Only Memory) 902, and a RAM (Random Access Memory) 903.
  • the smartphone 900 also includes a storage device 904, a communication module 905, and a sensor module 907.
  • the smartphone 900 includes an image pickup device 909, a display device 910, a speaker 911, a microphone 912, an input device 913, and a bus 914.
  • the smartphone 900 may have a processing circuit such as a DSP (Digital Signal Processor) in place of or in combination with the CPU 901.
  • DSP Digital Signal Processor
  • the CPU 901 functions as an arithmetic processing device and a control device, and controls all or a part of the operation in the smartphone 900 according to various programs recorded in the ROM 902, the RAM 903, the storage device 904, and the like.
  • the ROM 902 stores programs, calculation parameters, and the like used by the CPU 901.
  • the RAM 903 primarily stores a program used in the execution of the CPU 901, parameters that change appropriately in the execution, and the like.
  • the CPU 901, ROM 902, and RAM 903 are connected to each other by a bus 914.
  • the storage device 904 is a data storage device configured as an example of the storage unit of the smartphone 900.
  • the storage device 904 is composed of, for example, a magnetic storage device such as an HDD (Hard Disk Drive), a semiconductor storage device, an optical storage device, and the like.
  • the storage device 904 stores programs executed by the CPU 901, various data, various data acquired from the outside, and the like.
  • the communication module 905 is a communication interface composed of, for example, a communication device for connecting to the communication network 906.
  • the communication module 905 may be, for example, a communication card for a wired or wireless LAN (Local Area Network), Bluetooth (registered trademark), WUSB (Wireless USB), or the like. Further, the communication module 905 may be a router for optical communication, a router for ADSL (Asymmetric Digital Subscriber Line), a modem for various communications, or the like.
  • the communication module 905 transmits and receives signals and the like to and from the Internet and other communication devices using a predetermined protocol such as TCP (Transmission Control Protocol) / IP (Internet Protocol).
  • the communication network 906 connected to the communication module 905 is a network connected by wire or wirelessly, and is, for example, the Internet, a home LAN, infrared communication, satellite communication, or the like.
  • the sensor module 907 is, for example, a motion sensor (for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.), a biometric information sensor (for example, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.), or a position sensor (for example, GNSS (Global Navigation)). Includes various sensors such as Satellite System) receiver, etc.).
  • a motion sensor for example, an acceleration sensor, a gyro sensor, a geomagnetic sensor, etc.
  • a biometric information sensor for example, a pulse sensor, a blood pressure sensor, a fingerprint sensor, etc.
  • GNSS Global Navigation
  • Includes various sensors such as Satellite System) receiver, etc. etc.
  • the image pickup device 909 is provided on the surface of the smartphone 900 and can image an object or the like located on the back side or the front side of the smartphone 900. Specifically, the image pickup device 909 is applied to an image pickup element (not shown) such as a CMOS (Complementary MOS) image sensor to which the technique (the present technology) according to the present disclosure can be applied, and a signal photoelectrically converted by the image pickup device. It can be configured to include a signal processing circuit (not shown) that performs image pickup signal processing. Further, the image pickup apparatus 909 further includes an optical system mechanism (not shown) composed of an image pickup lens, a zoom lens, a focus lens, and the like, and a drive system mechanism (not shown) that controls the operation of the optical system mechanism.
  • an image pickup element such as a CMOS (Complementary MOS) image sensor to which the technique (the present technology) according to the present disclosure can be applied
  • CMOS Complementary MOS
  • the image pickup apparatus 909 further includes an optical system mechanism
  • the image sensor collects the incident light from the object as an optical image
  • the signal processing circuit photoelectrically converts the imaged optical image on a pixel-by-pixel basis and reads out the signal of each pixel as an image pickup signal.
  • the captured image can be acquired by image processing.
  • the display device 910 is provided on the surface of the smartphone 900, and can be, for example, a display device such as an LCD (Liquid Crystal Display) or an organic EL (Electroluminescence) display.
  • the display device 910 can display an operation screen, an image captured by the image pickup device 909 described above, and the like.
  • the speaker 911 can output, for example, call voice, voice associated with the video content displayed by the display device 910 described above, and the like to the user.
  • the microphone 912 can collect, for example, the voice of the user's call, the voice including the command to activate the function of the smartphone 900, and the voice of the surrounding environment of the smartphone 900.
  • the input device 913 is a device operated by the user, such as a button, a keyboard, a touch panel, and a mouse.
  • the input device 913 includes an input control circuit that generates an input signal based on the information input by the user and outputs the input signal to the CPU 901.
  • the user can input various data to the smartphone 900 and instruct the processing operation.
  • the configuration example of the smartphone 900 is shown above.
  • Each of the above-mentioned components may be configured by using general-purpose members, or may be configured by hardware specialized for the function of each component. Such a configuration can be appropriately changed depending on the technical level at the time of implementation.
  • FIG. 92 is a diagram showing an example of a schematic configuration of an endoscopic surgery system to which the technique according to the present disclosure (the present technique) can be applied.
  • FIG. 92 shows a surgeon (doctor) 11131 performing surgery on patient 11132 on patient bed 11133 using the endoscopic surgery system 11000.
  • the endoscopic surgery system 11000 includes an endoscope 11100, other surgical tools 11110 such as an abdominal tube 11111 and an energy treatment tool 11112, and a support arm device 11120 that supports the endoscope 11100.
  • a cart 11200 equipped with various devices for endoscopic surgery.
  • the endoscope 11100 is composed of a lens barrel 11101 in which a region having a predetermined length from the tip is inserted into the body cavity of the patient 11132, and a camera head 11102 connected to the base end of the lens barrel 11101.
  • the endoscope 11100 configured as a so-called rigid mirror having a rigid barrel 11101 is illustrated, but the endoscope 11100 may be configured as a so-called flexible mirror having a flexible barrel. good.
  • An opening in which an objective lens is fitted is provided at the tip of the lens barrel 11101.
  • a light source device 11203 is connected to the endoscope 11100, and the light generated by the light source device 11203 is guided to the tip of the lens barrel by a light guide extending inside the lens barrel 11101, and is an objective. It is irradiated toward the observation target in the body cavity of the patient 11132 through the lens.
  • the endoscope 11100 may be a direct endoscope, a perspective mirror, or a side endoscope.
  • An optical system and an image pickup element are provided inside the camera head 11102, and the reflected light (observation light) from the observation target is focused on the image pickup element by the optical system.
  • the observation light is photoelectrically converted by the image sensor, and an electric signal corresponding to the observation light, that is, an image signal corresponding to the observation image is generated.
  • the image signal is transmitted as RAW data to the camera control unit (CCU: Camera Control Unit) 11201.
  • CCU Camera Control Unit
  • the CCU11201 is composed of a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), and the like, and comprehensively controls the operations of the endoscope 11100 and the display device 11202. Further, the CCU 11201 receives an image signal from the camera head 11102, and performs various image processing on the image signal for displaying an image based on the image signal, such as development processing (demosaic processing).
  • a CPU Central Processing Unit
  • GPU Graphics Processing Unit
  • the display device 11202 displays an image based on the image signal processed by the CCU 11201 under the control of the CCU 11201.
  • the light source device 11203 is composed of, for example, a light source such as an LED (Light Emitting Diode), and supplies irradiation light to the endoscope 11100 when photographing an operating part or the like.
  • a light source such as an LED (Light Emitting Diode)
  • LED Light Emitting Diode
  • the input device 11204 is an input interface for the endoscopic surgery system 11000.
  • the user can input various information and input instructions to the endoscopic surgery system 11000 via the input device 11204.
  • the user inputs an instruction to change the imaging conditions (type of irradiation light, magnification, focal length, etc.) by the endoscope 11100.
  • the treatment tool control device 11205 controls the drive of the energy treatment tool 11112 for cauterizing, incising, sealing a blood vessel, or the like of a tissue.
  • the pneumoperitoneum device 11206 uses a gas in the pneumoperitoneum tube 11111 to inflate the body cavity of the patient 11132 for the purpose of securing the field of view by the endoscope 11100 and securing the work space of the operator.
  • the recorder 11207 is a device capable of recording various information related to surgery.
  • the printer 11208 is a device capable of printing various information related to surgery in various formats such as texts, images, and graphs.
  • the light source device 11203 that supplies the irradiation light to the endoscope 11100 when photographing the surgical site can be composed of, for example, an LED, a laser light source, or a white light source composed of a combination thereof.
  • a white light source is configured by combining RGB laser light sources, the output intensity and output timing of each color (each wavelength) can be controlled with high accuracy. Therefore, the light source device 11203 adjusts the white balance of the captured image. It can be carried out.
  • the laser light from each of the RGB laser light sources is irradiated to the observation target in a time-divided manner, and the drive of the image sensor of the camera head 11102 is controlled in synchronization with the irradiation timing to support each of RGB. It is also possible to capture the image in a time-divided manner. According to this method, a color image can be obtained without providing a color filter on the image sensor.
  • the drive of the light source device 11203 may be controlled so as to change the intensity of the output light at predetermined time intervals.
  • the drive of the image sensor of the camera head 11102 in synchronization with the timing of changing the light intensity to acquire an image in a time-divided manner and synthesizing the image, so-called high dynamic without blackout and overexposure. Range images can be generated.
  • the light source device 11203 may be configured to be able to supply light in a predetermined wavelength band corresponding to special light observation.
  • special light observation for example, by utilizing the wavelength dependence of light absorption in body tissue to irradiate light in a narrow band as compared with the irradiation light (that is, white light) in normal observation, the surface layer of the mucous membrane.
  • a so-called narrow band imaging is performed in which a predetermined tissue such as a blood vessel is photographed with high contrast.
  • fluorescence observation may be performed in which an image is obtained by fluorescence generated by irradiating with excitation light.
  • the body tissue is irradiated with excitation light to observe the fluorescence from the body tissue (autofluorescence observation), or a reagent such as indocyanine green (ICG) is locally injected into the body tissue and the body tissue is injected. It is possible to obtain a fluorescence image by irradiating excitation light corresponding to the fluorescence wavelength of the reagent.
  • the light source device 11203 may be configured to be capable of supplying narrow band light and / or excitation light corresponding to such special light observation.
  • FIG. 93 is a block diagram showing an example of the functional configuration of the camera head 11102 and CCU11201 shown in FIG. 92.
  • the camera head 11102 includes a lens unit 11401, an imaging unit 11402, a driving unit 11403, a communication unit 11404, and a camera head control unit 11405.
  • CCU11201 has a communication unit 11411, an image processing unit 11412, and a control unit 11413.
  • the camera head 11102 and CCU11201 are communicably connected to each other by a transmission cable 11400.
  • the lens unit 11401 is an optical system provided at a connection portion with the lens barrel 11101.
  • the observation light taken in from the tip of the lens barrel 11101 is guided to the camera head 11102 and incident on the lens unit 11401.
  • the lens unit 11401 is configured by combining a plurality of lenses including a zoom lens and a focus lens.
  • the image pickup unit 11402 is composed of an image pickup element.
  • the image sensor constituting the image pickup unit 11402 may be one (so-called single plate type) or a plurality (so-called multi-plate type).
  • each image pickup element may generate an image signal corresponding to each of RGB, and a color image may be obtained by synthesizing them.
  • the image pickup unit 11402 may be configured to have a pair of image pickup elements for acquiring image signals for the right eye and the left eye corresponding to 3D (Dimensional) display, respectively.
  • the 3D display enables the operator 11131 to more accurately grasp the depth of the biological tissue in the surgical site.
  • a plurality of lens units 11401 may be provided corresponding to each image pickup element.
  • the imaging unit 11402 does not necessarily have to be provided on the camera head 11102.
  • the imaging unit 11402 may be provided inside the lens barrel 11101 immediately after the objective lens.
  • the drive unit 11403 is composed of an actuator, and the zoom lens and focus lens of the lens unit 11401 are moved by a predetermined distance along the optical axis under the control of the camera head control unit 11405. As a result, the magnification and focus of the image captured by the imaging unit 11402 can be adjusted as appropriate.
  • the communication unit 11404 is composed of a communication device for transmitting and receiving various information to and from the CCU11201.
  • the communication unit 11404 transmits the image signal obtained from the image pickup unit 11402 as RAW data to the CCU 11201 via the transmission cable 11400.
  • the communication unit 11404 receives a control signal for controlling the drive of the camera head 11102 from the CCU 11201 and supplies the control signal to the camera head control unit 11405.
  • the control signal includes, for example, information to specify the frame rate of the captured image, information to specify the exposure value at the time of imaging, and / or information to specify the magnification and focus of the captured image, and the like. Contains information about the condition.
  • the imaging conditions such as the frame rate, exposure value, magnification, and focus may be appropriately specified by the user, or may be automatically set by the control unit 11413 of CCU11201 based on the acquired image signal. good.
  • the so-called AE (Auto Exposure) function, AF (Auto Focus) function, and AWB (Auto White Balance) function are mounted on the endoscope 11100.
  • the camera head control unit 11405 controls the drive of the camera head 11102 based on the control signal from the CCU 11201 received via the communication unit 11404.
  • the communication unit 11411 is composed of a communication device for transmitting and receiving various information to and from the camera head 11102.
  • the communication unit 11411 receives an image signal transmitted from the camera head 11102 via the transmission cable 11400.
  • the communication unit 11411 transmits a control signal for controlling the drive of the camera head 11102 to the camera head 11102.
  • Image signals and control signals can be transmitted by telecommunications, optical communication, or the like.
  • the image processing unit 11412 performs various image processing on the image signal which is the RAW data transmitted from the camera head 11102.
  • the control unit 11413 performs various controls related to the imaging of the surgical site and the like by the endoscope 11100 and the display of the captured image obtained by the imaging of the surgical site and the like. For example, the control unit 11413 generates a control signal for controlling the drive of the camera head 11102.
  • control unit 11413 causes the display device 11202 to display an image captured by the surgical unit or the like based on the image signal processed by the image processing unit 11412.
  • the control unit 11413 may recognize various objects in the captured image by using various image recognition techniques. For example, the control unit 11413 detects the shape, color, and the like of the edge of an object included in the captured image to remove surgical tools such as forceps, a specific biological part, bleeding, and mist when using the energy treatment tool 11112. Can be recognized.
  • the control unit 11413 may superimpose and display various surgical support information on the image of the surgical unit by using the recognition result. By superimposing and displaying the surgical support information and presenting it to the surgeon 11131, it is possible to reduce the burden on the surgeon 11131 and to allow the surgeon 11131 to proceed with the surgery reliably.
  • the transmission cable 11400 that connects the camera head 11102 and CCU11201 is an electric signal cable that supports electric signal communication, an optical fiber that supports optical communication, or a composite cable thereof.
  • the communication is performed by wire using the transmission cable 11400, but the communication between the camera head 11102 and the CCU11201 may be performed wirelessly.
  • the above is an example of an endoscopic surgery system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the endoscope 11100, the camera head 11102 (imaging unit 11402), the CCU 11201 (image processing unit 11412), and the like) among the configurations described above.
  • the technique according to the present disclosure may be applied to other, for example, a microscopic surgery system.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 94 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the imaging unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the outside information detection unit 12030 or the inside information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the vehicle. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 95 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the vehicle 12100 has imaging units 12101, 12102, 12103, 12104, 12105 as imaging units 12031.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the image pickup unit 12101 provided on the front nose and the image pickup section 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the images in front acquired by the imaging units 12101 and 12105 are mainly used for detecting a preceding vehicle or a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 95 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100). By obtaining can. Further, the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform coordinated control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • automatic braking control including follow-up stop control
  • automatic acceleration control including follow-up start control
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 is used via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the present technology can also have the following configurations.
  • Each of the plurality of image pickup elements A plurality of pixels provided in the semiconductor substrate so as to be adjacent to each other and containing the first conductive type impurities, and An element separation wall provided so as to surround the plurality of pixels and penetrate the semiconductor substrate.
  • An on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels.
  • a first separation unit provided in a region surrounded by the element separation wall and separating the plurality of pixels, and a first separation unit.
  • the first separation portion is provided so as to extend in the thickness direction of the semiconductor substrate.
  • the region located around the first separation portion and extending in the thickness direction of the semiconductor substrate contains a first conductive type impurity having a conductive type opposite to that of the first conductive type. Diffusion area is provided, Imaging device.
  • Two of the first separation parts are provided. When viewed from above the light receiving surface, the two first separation portions are stretched so as to separate the plurality of pixels and face each other.
  • the first diffusion region is provided in the region between the two first separations.
  • An overflow path for exchanging saturated charges between the plurality of pixels is provided in the region between the two first separation portions.
  • Each of the two first separation portions is provided so as to penetrate the semiconductor substrate along the thickness direction of the semiconductor substrate.
  • Each of the two first separation portions is from the light receiving surface of the semiconductor substrate or the surface opposite to the light receiving surface of the semiconductor substrate to the middle of the semiconductor substrate along the thickness direction of the semiconductor substrate. Provided to stretch, The imaging device according to (2) or (3) above.
  • the two first separation portions When viewed from above the light receiving surface, the two first separation portions project from the element separation wall toward the center of the image sensor and face each other.
  • the two first separation portions project from the element separation wall along the row direction when viewed from above the light receiving surface.
  • the two first separation portions are provided so as to be located at the center of the image pickup device in the row direction when viewed from above the light receiving surface.
  • the imaging device according to (7) above. (9) The two first separation portions are provided at positions deviated from the center of the image pickup device by a predetermined distance in the row direction when viewed from above the light receiving surface.
  • the imaging device according to (7) above. (10) The two first separation portions project from the element separation wall along the row direction when viewed from above the light receiving surface.
  • the two first separation portions are provided so as to be located at the center of the image pickup device in the row direction when viewed from above the light receiving surface.
  • the two first separation portions are provided at positions deviated from the center of the image pickup device by a predetermined distance in the row direction when viewed from above the light receiving surface.
  • (13) When viewed from above the light receiving surface, the lengths of the two first separation portions are the same.
  • (14) When viewed from above the light receiving surface, the lengths of the two first separation portions are different from each other.
  • the imaging device according to any one of (2) to (12) above. the two first separating portions each extend in a direction different from the extending direction, and further have two second separating portions facing each other.
  • Each of the two second separation portions is provided so as to extend in the thickness direction of the semiconductor substrate.
  • a second diffusion region containing the second conductive type impurities is provided in the region between the two second separation portions.
  • the imaging device according to any one of (2) to (14) above. (16) It has one or more additional walls provided between the two first separations.
  • the imaging device according to any one of (2) to (15) above. (17) The additional wall is provided so as to penetrate the semiconductor substrate.
  • the additional wall is provided so as to extend from the light receiving surface to the middle of the semiconductor substrate along the thickness direction of the semiconductor substrate.
  • the additional wall is provided so as to extend from the surface of the semiconductor substrate opposite to the light receiving surface to the middle of the semiconductor substrate along the thickness direction of the semiconductor substrate.
  • the length of the additional wall in the thickness direction is determined according to the wavelength of the incident light incident on the light receiving surface.
  • the imaging device according to (19) above. (21) When viewed from above the light receiving surface, the width of the central portion of the additional wall is narrower than the width of both ends of the additional wall.
  • the length of the central portion of the additional wall in the thickness direction is shorter than the length of both ends of the additional wall in the thickness direction.
  • the width of both or one of the two first separation portions is narrower than the width of the additional wall.
  • the two first separation portions are provided so as to extend from the surface of the semiconductor substrate opposite to the light receiving surface to the middle of the semiconductor substrate along the thickness direction of the semiconductor substrate.
  • the length of the additional wall in the thickness direction is shorter than the length of both or one of the two first separation portions in the thickness direction.
  • the element separation wall and the two first separation portions are made of the same material.
  • the element separation wall and the two first separation portions are made of different materials.
  • the two first protrusions are made of titanium oxide.
  • the plurality of image pickup elements When viewed from above the light receiving surface, the plurality of image pickup elements further have a light-shielding film provided along the element separation wall on the element separation wall.
  • the light-shielding film is provided along the two first separation portions.
  • the first diffusion region is formed in a shape that expands from the light receiving surface toward the inside of the semiconductor substrate and narrows from the inside of the semiconductor substrate toward the surface of the semiconductor substrate opposite to the light receiving surface.
  • the first diffusion region is A first region extending from the light receiving surface toward the inside of the semiconductor substrate, and A second region narrowing from the inside of the semiconductor substrate toward the surface of the semiconductor substrate opposite to the light receiving surface, and Have, The imaging device according to (31) above. (33) The first region and the second region are separated.
  • the lengths of the first region and the second region in the thickness direction are different.
  • the length of the first region in the thickness direction is longer than the length of the second region in the thickness direction.
  • the imaging device according to (34) above. The length of each of the first region and the second region in the direction orthogonal to the thickness direction is different.
  • the imaging device according to any one of (32) to (35) above. The length of the first region in the direction orthogonal to the thickness direction is shorter than the length of the second region in the direction orthogonal to the thickness direction.
  • the imaging device according to (36) above. (38) The concentrations of the impurities in the first region and the second region are different.
  • the imaging device according to any one of (32) to (37) above. (39) The concentration of the impurities in the first region is lower than the concentration of the impurities in the first region.
  • the first diffusion region is provided between the two first separations and at least one additional wall, respectively.
  • Each of the two first diffusion regions has a different shape and extends from the light receiving surface toward the inside of the semiconductor substrate from the inside of the semiconductor substrate to the surface of the semiconductor substrate opposite to the light receiving surface. It is formed in a shape that narrows toward The imaging device according to any one of (16) to (25) above.
  • the first separation part is The stretched portion connected to the element separation wall and The facing surface facing the wall surface of the element separation wall and Have, When viewed from above the light receiving surface, the width of the facing surface of the first separating portion is wider than the line width of the extending portion.
  • the first separation part is Further having a protrusion provided at the end of the stretched portion and having the facing surface.
  • the imaging device according to (41) above. (43) Each of the two first separations The stretched portion connected to the element separation wall and Opposing faces facing each other, Have, When viewed from above the light receiving surface, the width of the individual facing surfaces of the two first separation portions is wider than the individual line widths of the two extension portions.
  • Each of the two first separations Further having a protrusion provided at the end of the stretched portion and having the facing surface.
  • the imaging device according to (43) above. (45) When viewed from above the light receiving surface, it has two additional walls provided so as to face each other with the center of the image sensor in between.
  • the imaging device according to any one of (2) to (44) above. (46)
  • Each of the two first separation portions is provided at a position separated from the element separation wall.
  • the imaging device according to any one of (2) to (45) above. (47) Three or more of the first separation portions are provided.
  • the first separation part is provided with four parts.
  • the two first separation portions are provided in the row direction so as to face each other with the center of the image pickup element in between when viewed from above the light receiving surface.
  • the two first separation portions are provided in the row direction so as to face each other with the center of the image pickup element in between when viewed from above the light receiving surface.
  • the imaging device according to (47) above.
  • the individual sizes of the two first separations arranged in the column direction are different from the individual sizes of the two first separations arranged in the row direction.
  • the first diffusion region is A first region formed by a diffusion process on individual trenches to form the two first separations, A second region formed by a diffusion process on the trench for forming the device separation barrier, and Have, The imaging device according to any one of (2) to (49) above.
  • (51) With a semiconductor substrate A plurality of image pickup elements arranged on the semiconductor substrate in a matrix along the row direction and the column direction and performing photoelectric conversion on the incident light.
  • Each of the plurality of image pickup elements A plurality of pixels provided in the semiconductor substrate so as to be adjacent to each other and containing the first conductive type impurities, and A pixel separation barrier that separates the plurality of pixels, An on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels.
  • the pixel separation wall is provided so as to extend from the light receiving surface to the middle of the semiconductor substrate along the thickness direction of the semiconductor substrate. In the thickness direction of the semiconductor substrate, the region located on the side opposite to the light receiving surface with respect to the pixel separation wall contains impurities of the second conductive type having a conductive type opposite to the first conductive type. include, Imaging device.
  • a semiconductor substrate A plurality of image pickup elements arranged on the semiconductor substrate in a matrix along the row direction and the column direction and performing photoelectric conversion on the incident light. Equipped with an imaging device that has Each of the plurality of image pickup elements A plurality of pixels provided in the semiconductor substrate so as to be adjacent to each other and containing the first conductive type impurities, and An element separation wall provided so as to surround the plurality of pixels and penetrate the semiconductor substrate. An on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels. A first separation unit provided in a region surrounded by the element separation wall and separating the plurality of pixels, and a first separation unit. Have, The first separation portion is provided so as to extend in the thickness direction of the semiconductor substrate.
  • the region located around the first separation portion and extending in the thickness direction of the semiconductor substrate contains a first conductive type impurity having a conductive type opposite to that of the first conductive type.
  • Diffusion area is provided, Electronics. (addition)
  • An electronic device including the imaging device according to any one of (1) to (51) above.
  • the imaging apparatus described. With a semiconductor substrate A plurality of image pickup elements arranged on the semiconductor substrate in a matrix along the row direction and the column direction and performing photoelectric conversion on the incident light.
  • An image pickup device equipped with Each of the plurality of image pickup elements A plurality of pixels provided in the semiconductor substrate so as to be adjacent to each other and containing the first conductive type impurities, and An element separation wall provided so as to surround the plurality of pixels and penetrate the semiconductor substrate.
  • An on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels.
  • the element separation wall has two first protrusions that project toward the center of the image pickup device and face each other when viewed from above the light receiving surface. Each of the two first protrusions is provided so as to penetrate the semiconductor substrate.
  • a first diffusion region containing impurities of the second conductive type having a conductive type opposite to that of the first conductive type is provided.
  • Imaging device. With a semiconductor substrate A plurality of image pickup elements arranged on the semiconductor substrate in a matrix along the row direction and the column direction and performing photoelectric conversion on the incident light.
  • An image pickup device equipped with Each of the plurality of image pickup elements A plurality of pixels provided in the semiconductor substrate so as to be adjacent to each other and containing the first conductive type impurities, and An element separation wall provided so as to surround the plurality of pixels and penetrate the semiconductor substrate.
  • An on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels.
  • the element separation wall has a first protruding portion that protrudes toward the center of the image pickup device when viewed from above the light receiving surface.
  • the first protrusion is provided so as to penetrate the semiconductor substrate.
  • a second conductive type having a conductive type opposite to the first conductive type
  • a first diffusion region containing impurities is provided, Imaging device.
  • An image pickup device equipped with Each of the plurality of image pickup elements A plurality of pixels provided in the semiconductor substrate so as to be adjacent to each other and containing the first conductive type impurities, and A pixel separation barrier that separates the plurality of pixels, An on-chip lens provided above the light receiving surface of the semiconductor substrate so as to be shared by the plurality of pixels.
  • the pixel separation barrier contains impurities of a second conductive type having a conductive type opposite to that of the first conductive type. Imaging device.
  • Image sensor 10 Semiconductor substrate 10a Light receiving surface 10b Surface 20 Pixel array part 21 Vertical drive circuit part 22 Column signal processing circuit part 23 Horizontal drive circuit part 24 Output circuit part 25 Control circuit part 26 Pixel drive wiring 27 Vertical signal line 28 Horizontal signal Line 29 Input / output terminal 100 Image sensor 200 On-chip lens 202 Color filter 204 Light-shielding part 300a, 300b, 300c, 300d Pixel 302 Photoelectric conversion part 304, 324 Projection part 304a Extension part 304b Protrusion part 306, 306a, 306b, 320 Diffusion region 306A First area 306B Second area 308, 308a, 308b, 308c Additional wall 310 Element separation wall 312 Slit 334, 334a Pixel separation wall 400a, 400b Transfer gate R1 First area R2 Second area

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

複数の撮像素子(100)を備える撮像装置(1)であって、前記複数の撮像素子のそれぞれは、第1の導電型の不純物を含む複数の画素(300a、300b)と、前記複数の画素を取り囲み、且つ、半導体基板(10)を貫通するように設けられた素子分離壁(310)と、前記複数の画素が共有するように前記半導体基板の受光面(10a)の上方に設けられたオンチップレンズ(200)と、前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部(304)とを有し、前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域(306)が設けられる、撮像装置を提供する。

Description

撮像装置及び電子機器
 本開示は、撮像装置及び電子機器に関する。
 近年、撮像装置においては、オートフォーカス機能として、一対の位相差検出画素を用いて位相差を検出する手法が採用されている。このような例としては、下記の特許文献1に開示されている撮像素子を挙げることができる。当該特許文献1に開示の技術においては、受光面上に、被写体の撮像を行う有効画素と、上述のような位相差を検出する位相差検出画素との両方が、別々に設けられている。
特開2000-292685号公報
 しかしながら、上記特許文献1に開示の技術においては、被写体の撮像画像を取得する際、位相差検出画素で得られる情報は、撮像画素からの情報と同様の情報として利用することが難しい。そのため、位相差検出画素の周辺の有効画素からの情報を用いて、位相差検出画素に対応する画素の画像に対して補間を行い、撮像画像を生成することとなる。すなわち、上記特許文献1に開示の技術においては、位相差検出を行うために位相差検出画素を設けることから、位相差検出画素に対応する撮像画像の情報の欠損による、撮像画像の劣化を避けることが難しい。
 そこで、本開示では、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる撮像装置及び電子機器を提案する。
 本開示によれば、半導体基板と、前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、を備え、前記複数の撮像素子のそれぞれは、前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部と、を有し、前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、撮像装置が提供される。
 また、本開示によれば、半導体基板と、前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、を備え、前記複数の撮像素子のそれぞれは、前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、前記複数の画素を分離する画素分離壁と、前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、を有し、前記画素分離壁は、前記半導体基板の厚み方向に沿って、前記受光面から、前記半導体基板の途中まで延伸するように設けられ、前記半導体基板の厚み方向において、前記画素分離壁に対して、前記受光面と反対側に位置する領域は、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む、撮像装置が提供される。
 さらに、本開示によれば、半導体基板と、前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、を有する撮像装置を備え、前記複数の撮像素子のそれぞれは、前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部と、を有し、前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、電子機器が提供される。
本開示の実施形態に係る撮像装置1の平面構成例を示す説明図である。 本開示の第1の実施形態に係る撮像素子100の断面の一部を示す説明図(その1)である。 本開示の第1の実施形態に係る撮像素子100の断面の一部を示す説明図(その2)である。 本開示の第1の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第1の実施形態に係る撮像素子100の透過斜視図である。 本開示の第1の実施形態に係る遮光部204の構成例を示す説明図である。 本開示の第1の実施形態の変形例に係る遮光部204の構成例を示す説明図である。 本開示の第2の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第3の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第4の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の第4の実施形態に係る撮像素子100の平面を示す説明図(その2)である。 本開示の第4の実施形態に係る撮像素子100の平面を示す説明図(その3)である。 本開示の第5の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第6の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第7の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第7の実施形態に係る遮光部204の構成例を示す説明図である。 本開示の第8の実施形態に係る撮像素子100の断面の一部を示す説明図(その1)である。 本開示の第8の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の第8の実施形態に係る撮像素子100の平面を示す説明図(その2)である。 本開示の第8の実施形態に係る撮像素子100の断面の一部を示す説明図(その2)である。 本開示の第8の実施形態に係る色毎の撮像素子100の断面の一部を示す説明図(その3)である。 本開示の第8の実施形態に係る撮像素子100の平面を示す説明図(その3)である。 本開示の第8の実施形態に係る撮像素子100の断面の一部を示す説明図(その4)である。 本開示の第8の実施形態に係る撮像素子100の平面を示す説明図(その4)である。 本開示の第8の実施形態に係る撮像素子100の断面の一部を示す説明図(その5)である。 本開示の第8の実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図である。 本開示の第9の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その1)である。 本開示の第9の実施形態の比較例に係る撮像素子100の断面の一部を示す説明図である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その2)である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その3)である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その4)である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その5)である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その6)である。 本開示の第9の実施形態に係る撮像素子100の断面の一部を示す説明図(その7)である。 本開示の第9の実施形態に係る撮像素子100の平面を示す説明図(その2)である。 本開示の第9の実施形態に係る撮像装置1の製造工程の一部を説明するためのプロセス断面図(その1)である。 本開示の第9の実施形態に係る撮像装置1の製造工程の一部を説明するためのプロセス断面図(その2)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の第10の実施形態に係る撮像素子100の断面の一部を示す説明図である。 本開示の第10の実施形態の比較例に係る撮像素子100の断面の一部を示す説明図である。 本開示の第10の実施形態に係るスリット幅と突出部幅との関係を示すグラフである。 本開示の第9の実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図(その1)である。 本開示の第9の実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図(その2)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その2)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その3)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その4)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その5)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その6)である。 本開示の第10の実施形態に係る撮像素子100の平面を示す説明図(その7)である。 本開示の第11の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の第11の実施形態の比較例に係る撮像素子100の平面を示す説明図である。 本開示の第11の実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図である。 本開示の第11の実施形態に係る撮像素子100の平面を示す説明図(その2)である。 本開示の第11の実施形態に係る撮像素子100の平面を示す説明図(その3)である。 本開示の第11の実施形態に係る撮像素子100の平面を示す説明図(その4)である。 本開示の第11の実施形態に係る撮像素子100の平面を示す説明図(その5)である。 本開示の第12の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の第12の実施形態に係る撮像素子100の両面及び断面を示す説明図(その1)である。 本開示の第12の実施形態に係る撮像素子100のスリット幅と集光特性及び画素特性との関係を示す説明図である。 本開示の第12の実施形態に係る撮像素子100の両面及び断面を示す説明図(その2)である。 本開示の第12の実施形態に係る撮像素子100の断面を示す説明図(その3)である。 本開示の第12の実施形態に係る撮像素子100の断面を示す説明図(その4)である。 本開示の第12の実施形態に係る撮像素子100の断面を示す説明図(その5)である。 本開示の第12の実施形態に係る撮像素子100の両面及び断面を示す説明図(その6)である。 本開示の第12の実施形態に係る撮像素子100の断面を示す説明図(その7)である。 本開示の第12の実施形態に係る撮像素子100の両面を示す説明図(その8)である。 本開示の第12の実施形態に係る撮像素子100の両面及び断面を示す説明図(その9)である。 本開示の第12の実施形態に係る撮像素子100の両面及び断面を示す説明図(その10)である。 本開示の第12の実施形態に係る撮像素子100の両面を示す説明図(その11)である。 本開示の第12の実施形態に係る撮像素子100の両面を示す説明図(その12)である。 本開示の第12の実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図である。 本開示の第13の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の第13の実施形態の比較例に係る撮像素子100の平面を示す説明図である。 本開示の第13の実施形態に係る撮像素子100の平面を示す説明図(その2)である。 本開示の第13の実施形態に係る撮像素子100の平面を示す説明図(その3)である。 本開示の第13の実施形態に係る撮像素子100の平面を示す説明図(その4)である。 本開示の第13の実施形態に係る撮像素子100の平面を示す説明図(その5)である。 本開示の他の実施形態に係る撮像素子100の平面を示す説明図(その1)である。 本開示の他の実施形態に係る構造毎の撮像素子100の断面の一部を示す説明図(その1)である。 本開示の他の実施形態に係る撮像素子100の平面を示す説明図である(その2)。 本開示の他の実施形態に係る構造毎の撮像素子100の断面の一部を示す説明図である(その2)。 本開示の他の実施形態に係る撮像素子100の平面を示す説明図である(その3)。 本開示の他の実施形態に係る撮像素子100の平面を示す説明図である(その4)。 本開示の実施形態に係る撮像装置1が適用可能な2層積層型構造の断面を示す説明図である。 本開示の実施形態に係る撮像装置1が適用可能な3層積層型構造の断面を示す説明図である。 本開示の実施形態に係る撮像装置1が適用可能な2段画素構造の断面を示す説明図である。 本開示の実施形態に係る撮像素子100の平面を示す説明図である。 本開示の実施形態に係る複数の撮像素子100の平面を示す説明図である。 カメラの概略的な機能構成の一例を示す説明図である。 スマートフォンの概略的な機能構成の一例を示すブロック図である。 内視鏡手術システムの概略的な構成の一例を示す図である。 カメラヘッド及びCCUの機能構成の一例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。なお、以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、本明細書および図面において、実質的に同一または類似の機能構成を有する複数の構成要素を、同一の符号の後に異なる数字を付して区別する場合がある。ただし、実質的に同一または類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。また、異なる実施形態の類似する構成要素については、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、類似する構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下の説明で参照される図面は、本開示の一実施形態の説明とその理解を促すための図面であり、わかりやすくするために、図中に示される形状や寸法、比などは実際と異なる場合がある。さらに、図中に示される撮像装置は、以下の説明と公知の技術を参酌して適宜、設計変更することができる。また、撮像装置の断面図を用いた説明においては、撮像装置の積層構造の上下方向は、撮像装置に対して入射する光が入ってくる受光面を上とした場合の相対方向に対応し、実際の重力加速度に従った上下方向とは異なる場合がある。
 以下の説明において表現される寸法は、数学的又は幾何学的に定義される寸法だけを意味するだけでなく、撮像装置の動作及び撮像装置の製造工程において許容される程度の違い(誤差・ひずみ)を含む寸法も含むことを意味する。さらに、以下の説明において具体的な寸法に対して使用される「略同一」は、数学的又は幾何学的に完全に一致している場合だけを意味するものではなく、撮像装置の動作及び撮像装置の製造工程において許容される程度の違い(誤差・ひずみ)を有する場合も含まれているものとする。
 さらに、以下の説明において、「電気的に接続する」とは、複数の要素の間を、直接的に、もしくは、他の要素を介して間接的に接続することを意味する。
 また、以下の説明においては、「共有」とは、互いに異なる要素(例えば、画素等)間で1つの他の要素(例えば、オンチップレンズ等)を共に利用することである。
 なお、説明は以下の順序で行うものとする。
  1. 撮像装置の概略構成
  2. 本発明者らが本開示に係る実施形態を創作するに至った背景
  3. 第1の実施形態
     3.1 断面構成
     3.2 平面構成
     3.3 変形例
  4. 第2の実施形態
  5. 第3の実施形態
  6. 第4の実施形態
  7. 第5の実施形態
  8. 第6の実施形態
  9. 第7の実施形態
  10. 第8の実施形態
  11. 第9の実施形態
  12. 第10の実施形態
  13. 第11の実施形態
  14. 第12の実施形態
  15. 第13の実施形態
  16. まとめ
  17. カメラへの応用例
  18. スマートフォンへの応用例
  19. 内視鏡手術システムへの応用例
  20. 移動体への応用例
  21. 補足
 <<1.撮像装置の概略構成>>
 まずは、図1を参照して、本開示の実施形態に係る撮像装置1の概略構成について説明する。図1は、本開示の実施形態に係る撮像装置1の平面構成例を示す説明図である。図1に示すように、本開示の実施形態に係る撮像装置1は、例えばシリコンからなる半導体基板10上に、複数の撮像素子100がマトリック状に配置されている画素アレイ部20と、当該画素アレイ部20を取り囲むように設けられた周辺回路部とを有する。さらに、上記撮像装置1には、当該周辺回路部として、垂直駆動回路部21、カラム信号処理回路部22、水平駆動回路部23、出力回路部24、制御回路部25等が含まれる。以下に、撮像装置1の各ブロックの詳細について説明する。
 (画素アレイ部20)
 画素アレイ部20は、半導体基板10上に、行方向及び列方向に沿ってマトリックス状に、2次元配置された複数の撮像素子100を有する。各撮像素子100は、入射された光に対して光電変換を行う素子であって、光電変換部(図示省略)と、複数の画素トランジスタ(例えばMOS(Metal-Oxide-Semiconductor)トランジスタ)(図示省略)とを有している。そして、当該画素トランジスタは、例えば、転送トランジスタ、選択トランジスタ、リセットトランジスタ、及び、増幅トランジスタの4つのMOSトランジスタを含む。さらに、画素アレイ部20においては、例えばベイヤー配列に従って、複数の撮像素子100が2次元状に配列している。ここで、ベイヤー配列とは、緑色の波長(例えば波長495nm~570nm)をもつ光を吸収して電荷を発生する撮像素子100が市松状に並び、残りの部分に、赤色の波長(例えば波長620nm~750nm)をもつ光を吸収して電荷を発生する撮像素子100と、青色の波長(例えば波長450nm~495nm)をもつ光を吸収して電荷を発生する撮像素子100とが一列ごとに交互に並ぶような、配列パターンである。なお、撮像素子100の詳細構造については後述する。
 (垂直駆動回路部21)
 垂直駆動回路部21は、例えばシフトレジスタによって形成され、画素駆動配線26を選択し、選択された画素駆動配線26に撮像素子100を駆動するためのパルスを供給し、行単位で撮像素子100を駆動する。すなわち、垂直駆動回路部21は、画素アレイ部20の各撮像素子100を行単位で順次垂直方向(図1中の上下方向)に選択走査し、各撮像素子100の光電変換部(図示省略)の受光量に応じて生成された信号電荷に基づく画素信号を、垂直信号線27を通して後述するカラム信号処理回路部22に供給する。
 (カラム信号処理回路部22)
 カラム信号処理回路部22は、撮像素子100の列ごとに配置されており、1行分の撮像素子100から出力される画素信号に対して画素列ごとにノイズ除去等の信号処理を行う。例えば、カラム信号処理回路部22は、画素固有の固定パターンノイズを除去するためにCDS(Correlated Double Sampling:相関2重サンプリング)およびAD(Analog-Degital)変換等の信号処理を行う。
 (水平駆動回路部23)
 水平駆動回路部23は、例えばシフトレジスタによって形成され、水平走査パルスを順次出力することによって、上述したカラム信号処理回路部22の各々を順番に選択し、カラム信号処理回路部22の各々から画素信号を水平信号線28に出力させる。
 (出力回路部24)
 出力回路部24は、上述したカラム信号処理回路部22の各々から水平信号線28を通して順次に供給される画素信号に対し、信号処理を行って出力する。出力回路部24は、例えば、バッファリング(buffering)を行う機能部として機能してもよく、もしくは、黒レベル調整、列ばらつき補正、各種デジタル信号処理等の処理を行ってもよい。なお、バッファリングとは、画素信号のやり取りの際に、処理速度や転送速度の差を補うために、一時的に画素信号を保存することをいう。さらに、入出力端子29は、外部装置との間で信号のやり取りを行うための端子である。
 (制御回路部25)
 制御回路部25は、入力クロックと、動作モード等を指令するデータを受け取り、また撮像装置1の内部情報等のデータを出力する。すなわち、制御回路部25は、垂直同期信号、水平同期信号及びマスタクロックに基づいて、垂直駆動回路部21、カラム信号処理回路部22及び水平駆動回路部23等の動作の基準となるクロック信号や制御信号を生成する。そして、制御回路部25は、生成したクロック信号や制御信号を、垂直駆動回路部21、カラム信号処理回路部22及び水平駆動回路部23等に出力する。
 <<2. 本発明者らが本開示に係る実施形態を創作するに至った背景>>
 次に、本開示に係る実施形態の詳細を説明する前に、本発明者らが本開示に係る実施形態を創作するに至った背景について説明する。
 ところで、本発明者らは、撮像画像の劣化を避けつつ、オートフォーカス機能をさらに向上させる、すなわち、位相差検出の精度を向上させるために、撮像装置1の画素アレイ部20の全面に位相差検出画素を設けることについて(全画素位相差検出)、鋭意検討を進めていた。このような状況の中、撮像時には1つの撮像素子として機能し、且つ、位相差検出時には一対の位相差検出画素として機能する撮像素子を、画素アレイ部20の全面に設けることが検討された(デュアルフォトダイオード構造)。このような全画素位相差検出においては、全面に位相差検出画素を設けていることから、位相差検出の精度を向上させることができ、さらには、すべての撮像素子で撮像を行うことができることから、撮像画像の劣化を避けることができる。
 さらに、本発明者らは、全画素位相差検出において、位相差検出の精度を向上させるために、位相差検出の際に、一対の位相差検出画素の出力が混ざることを避けるための、位相差検出画素を物理的且つ電気的に分離する要素を設けることを着想した。加えて、本発明者らは、全画素位相差検出において、撮像画像の劣化を避けるべく、一対の位相差検出画素の間にオーバフローパスを設けることを着想した。詳細には、通常の撮像時に、位相差検出画素のいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、このようなオーバフローパスを設けることで、撮像素子から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 すなわち、上述のような着眼点に基づき、本発明者らは、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることを可能にする、本開示に係る実施形態を創作するに至った。以下に、本発明者らが創作した本開示に係る実施形態の詳細について順次説明する。
 <<3. 第1の実施形態>>
 <3.1 断面構成>
 まずは、図2及び図3を参照して、本開示の第1の実施形態に係る撮像素子100の断面構成を説明する。図2及び図3は、本実施形態に係る撮像素子100の断面の一部を示す説明図であり、詳細には、撮像素子100を半導体基板10の厚み方向に沿って、異なる位置で切断した断面に対応する。
 図2及び図3に示すように、本実施形態に係る撮像素子100は、比較例と同様に、オンチップレンズ200と、カラーフィルタ202と、遮光部(遮光膜)204と、半導体基板10と、転送ゲート400a、400bとを有する。さらに、本実施形態においては、半導体基板10は、光電変換部302をそれぞれ有する一対の画素300a、300bを有する。また、半導体基板10は、これら一対の画素300a、300bを分離する突出部(第1の分離部の一例)304を有し、画素300a、300bを取り囲む素子分離壁310と、突出部304及び素子分離壁310の周囲に設けられた拡散領域306とを含む。以下に、本実施形態に係る撮像素子100の積層構造について説明するが、以下の説明においては、図2及び図3中の上側(受光面10a側)から下側に向かう順に従って説明する。なお、図2は、上述した突出部304を切断するような位置で、撮像素子100を切断した断面に対応し、図3は、互いに向かい合う突出部304の間(スリット312、図4 参照)の領域を切断するような位置で撮像素子100を切断した断面に対応する。
 図2及び図3に示すように、撮像素子100は、半導体基板10の受光面10aの上方に設けられ、入射光を光電変換部302に集光する1つのオンチップレンズ200を有する。当該撮像素子100においては、1つのオンチップレンズ200に対し、一対の画素300a、300bが設けられた構造を持つ。すなわち、オンチップレンズ200は、2つの画素300a、300bにより共有されている。なお、オンチップレンズ200は、例えば、シリコン窒化膜(SiN)、又は、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル共重合系樹脂、もしくは、シロキサン系樹脂等の樹脂系材料によって形成することができる。
 そして、オンチップレンズ200により集光された入射光は、オンチップレンズ200の下方に設けられたカラーフィルタ202を介して、一対の画素300a、300bの光電変換部302のそれぞれに照射される。当該カラーフィルタ202は、赤色の波長成分を透過するカラーフィルタ、緑色の波長成分を透過するカラーフィルタ、又は、青色の波長成分を透過するカラーフィルタのいずれかである。例えば、カラーフィルタ202は、例えば、シリコーン等の透明バインダ中に顔料又は染料が分散させた材料から形成することができる。
 また、カラーフィルタ202を取り囲むように、半導体基板10の受光面10a上に、遮光部204が設けられている。当該遮光部204は、隣り合う撮像素子100の間に設けられることにより、隣り合う撮像素子100間でのクロストークを抑制し、位相差検出の際の精度をより向上させるために、撮像素子100の間の遮光を行うことができる。遮光部204は、例えば、タングステン(W)、アルミニウム(Al)、銅(Cu)、チタン(Ti)、モリブデン(Mo)、ニッケル(Ni)等を含む金属材料等から形成することができる。
 さらに、例えば、第2の導電型(例えばP型)の半導体基板10内に、第1の導電型(例えばN型)の不純物を持つ、光電変換部302が、互いに隣接する画素300a、300bごとに設けられている。光電変換部302は、先に説明したように、カラーフィルタ202を介して入射された、赤色の波長成分、緑色の波長成分、又は、青色の波長成分を有する光Lを吸収して、電荷を生成する。そして、本実施形態においては、画素300aの光電変換部302と画素300bの光電変換部302とは、位相差検出時には、一対の位相差検出画素として機能することができる。すなわち、本実施形態においては、画素300aの光電変換部302と画素300bの光電変換部302とで生成した電荷に基づく画素信号の差分を検出することにより、位相差を検出することができる。
 詳細には、光電変換部302は、自身の光軸(受光面に垂直な軸)に対する光の入射角に依存して、生成する電荷量、すなわち感度が変化する。例えば、光電変換部302は、入射角が0度である場合には、最も感度が高く、さらに、光電変換部302の感度は、入射角に対して、入射角が0度のときを対象軸とした線対称の関係を有している。従って、画素300aの光電変換部302と画素300bの光電変換部302とにおいては、同じ点からの光が異なる入射角で入射され、入射角に応じた量の電荷をそれぞれ生成することから、検出する像にずれ(位相差)が生じることとなる。すなわち、画素300aの光電変換部302と画素300bの光電変換部302とで生成した電荷量に基づく画素信号の差分を検出することにより、位相差を検出することができる。そこで、このような画素信号の差(位相差)を、例えば、出力回路部24の検出部(図示省略)において差分信号として検出し、検出した位相差に基づいて、デフォーカス量を算出し、結像レンズ(図示省略)を調整(移動)することで、オートフォーカスを実現することができる。なお、上述の説明においては、位相差を画素300aの光電変換部302と画素300bの光電変換部302の画素信号の差として検出するとして説明したが、本実施形態においては、これに限定されるものではなく、例えば、画素300aの光電変換部302と画素300bの光電変換部302の画素信号の比として位相差を検出してもよい。
 さらに、本実施形態においては、2つの光電変換部302は、突出部304によって物理的に分離されている。当該突出部304は、貫通DTI(Deep Trench Isolation)として、半導体基板10を、当該半導体基板10の厚み方向に沿って貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた、シリコン酸化膜(SiO)、シリコン窒化膜、アモルファスシリコン、多結晶シリコン、チタン酸化膜(TiO)、アルミニウム、タングステン等の酸化膜や金属膜からなる材料とからなる。撮像素子100においては、位相差検出時に、一対の画素300a、300bの出力した画素信号が互いに混じり合い、混色を生じた場合には、位相差検出の精度が劣化する。本実施形態においては、突出部304は、半導体基板10を貫通することから、一対の画素300a、300bを効果的に物理的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。
 さらに、受光面10a側から撮像素子100を見た場合、撮像素子100の中心近傍に、2つの突出部304の間に対応するスリット312(図4 参照)が設けられている。また、半導体基板10内の、当該スリット312の領域(突出部304の周囲に位置して半導体基板10の厚み方向に延伸する領域の一例)には、コンフォーマルドーピングにより、突出部304を介して、第2の導電型(例えばP型)の不純物が拡散され、拡散領域306(第1の拡散領域の一例)が形成される(詳細には、後述するように、拡散領域306は、素子分離壁310の周囲にも形成される)。当該拡散領域306は、位相差検出の精度をより向上させるため、一対の画素300a、300bを電気的に分離し、混色を起こさないようにすることができる。さらに、本実施形態においては、突出部304は半導体基板10を貫通することから、突出部304を介したコンフォーマルドーピングによって、半導体基板10内の深く(ここで、深さとは、半導体基板10の厚さ方向に沿って、当該半導体基板10の裏面10a及び表面10bに対する距離)に拡散領域306を形成することができる。従って、本実施形態においては、精度よく所望の拡散領域306を形成することができることから、一対の画素300a、300bを効果的に電気的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。なお、スリット312の領域の詳細については、後述する。
 さらに、本実施形態においては、図3に示すように、スリット312に設けられた拡散領域306の下方(表面10b側)には、イオン注入によって第1の導電型(例えばN型)の不純物が導入されることにより拡散領域320が形成される。詳細には、上述した拡散領域306内の下側領域に、第1の導電型の不純物をイオン注入し、拡散領域306に穴をあけるようにすることで、拡散領域320が形成される。そして、当該拡散領域320は、画素300a、300bの間で生成された電荷をやり取りすることができるオーバフローパスとして機能する。具体的には、通常の撮像時に、画素300a、300bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、このようなオーバフローパスを設けることにより、撮像素子100から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。また、本実施形態においては、イオン注入によって拡散領域320を形成する代わりに、半導体基板10の表面10bの、転送ゲート400a、400bの間等にゲート(図示省略)を設けてもよい。この場合、当該ゲートに印加する電圧を調整することにより、位相差検出時には一対の画素300a、300bを電気的に分離し、通常の撮像時には、スリット312の表面10b側の領域にオーバフローパスとなるチャネルを形成してもよい。
 また、本実施形態においては、半導体基板10内には、画素300a、300bを取り囲み、隣り合う撮像素子100を物理的に分離する、素子分離壁310が設けられている。素子分離壁310は、半導体基板10を、当該半導体基板10の厚み方向に沿って貫通するように設けられた溝部(トレンチ)(図示省略)と、当該トレンチに埋め込まれた、シリコン酸化膜、シリコン窒化膜、アモルファスシリコン、多結晶シリコン、チタン酸化膜、アルミニウム、タングステン等の酸化膜や金属膜からなる材料とからなる。すなわち、突出部304と素子分離壁310とは、同一の材料から形成されてもよい。なお、本実施形態においては、素子分離壁310と突出部304とは、同様の構成を持つことから、両者が一体となった形態を持つことができ、従って、同時に形成することができる。その結果、本実施形態によれば、素子分離壁310と同時に突出部304を形成することができることから、撮像素子100のプロセス工程の増加を抑えることができる。
 さらに、本実施形態においては、画素300aの光電変換部302と画素300bの光電変換部302で生成された電荷は、半導体基板10の受光面10aとは反対側に位置する表面10b上に設けられた転送トランジスタ(上述した画素トランジスタの1種)の転送ゲート400a、400bを介して、転送されることとなる。転送ゲート400a、400bは、例えば金属膜から形成することができる。そして、当該電荷は、例えば、半導体基板10内に設けられた第1の導電型(例えばN型)を持つ半導体領域に設けられたフローティングディフュージョン部(電荷蓄積部)(図示省略)に蓄積されてもよい。なお、本実施形態においては、上記フローティングディフュージョン部は、半導体基板10内に設けられていることに限定されるものではなく、例えば、半導体基板10に積層された他の基板(図示省略)に設けられていてもよい。
 さらに、半導体基板10の表面10b上には、電荷を画素信号として読み出したりするため等に用いる、上述した転送トランジスタ以外の複数の画素トランジスタ(図示省略)が設けられていてもよい。さらに、本実施形態においては、当該画素トランジスタは、半導体基板10に設けられていてもよく、もしくは、半導体基板10に積層された他の基板(図示省略)に設けられていてもよい。
 <3.2 平面構成>
 次に、図4を参照して、本開示の第1の実施形態に係る撮像素子100の平面構成を説明する。図4は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 図4に示すように、本実施形態においては、互いに隣接する画素300a、300bは、素子分離壁310と一体となって形成された突出部304によって分離されている。詳細には、素子分離壁310は、撮像素子100を受光面10aの上方から見た場合、撮像素子100の中心Oに向かって、列方向に沿って突出し、互いに向かい合う2つの突出部(第1の分離部の一例)304を有している。ここで、受光面10a側から撮像素子100を見た場合、撮像素子100の中心近傍に位置する、2つの突出部304の間の領域をスリット312と呼ぶものとする。当該スリット312の領域には、先に説明したように、コンフォーマルドーピングにより、第2の導電型(例えばP型)の不純物が突出部304を介して拡散され、突出部304を囲むように拡散領域306が形成される。先に説明したように、当該拡散領域306は、位相差検出の精度をより向上させるため、一対の画素300a、300bを電気的に分離し、混色を起こさないようにすることができる。さらに、本実施形態においては、コンフォーマルドーピングにより、第2の導電型の不純物が素子分離壁310を介して拡散され、素子分離壁310に沿って拡散領域306が形成される。
 さらに、2つの突出部304は、撮像素子100を受光面10aの上方から見た場合、行方向における撮像素子100の中心に設けられており、突出する長さ(列方向の長さ)は互いに略同一である。そして、先に説明したように、2つの突出部304は、半導体基板10を貫通するように設けられている。なお、本実施形態においては、突出部304の幅は、一対の画素300a、300bを分離できれば、特に限定されるものではない。
 さらに、これまで説明した、本実施形態に係る突出部304及び素子分離壁310は、本実施形態に係る撮像素子100の透過斜視図である図5に示すような形態を有する。すなわち、本実施形態に係る突出部304及び素子分離壁310は、半導体基板10を貫通するように設けられている。さらに、2つの突出部304の間には、撮像素子100の中心近傍にスリット312が設けられている。
 このように、本実施形態においては、撮像素子100の中心O近傍にスリット312があることから、突出部304による光の散乱が抑えられる。従って、本実施形態によれば、撮像素子100の中心Oに入射した光は、散乱されることなく光電変換部302に入射することができる。その結果、本実施形態によれば、撮像素子100は、当該撮像素子100の中心Oに入射する光をより確実に捉えることができることから、撮像画素の劣化を避けることができる。
 さらに、本実施形態においては、先に説明したように、例えば、当該スリット312の表面10b側の領域には、イオン注入により、第1の導電型の不純物が導入され、オーバフローパスとなるチャネルを形成することができる。従って、本実施形態によれば、位相差検出時には一対の画素300a、300bを分離しつつ、通常撮影時にはオーバフローパスを形成することができることから、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。
 さらに、本実施形態においては、コンフォーマルドーピングにより突出部304を介して不純物をスリット312の領域へ導入して、拡散領域306を形成することができることから、イオン注入を用いることを避けることができる。従って、本実施形態によれば、イオン注入を用いないことから、光電変換部302への不純物の導入を避けることができ、光電変換部302の縮小やダメージを避けることができる。さらに、コンフォーマルドーピングを用いることにより、高温を印加して不純物を均一に拡散させつつ、結晶欠陥を補修することができる。その結果、本実施形態によれば、撮像素子100の感度の低下やダイナミックレンジの縮小を抑えることができる。
 なお、本実施形態においては、素子分離壁310は、撮像素子100を受光面10aの上方から見た場合、撮像素子100の中心Oに向かって、行方向に沿って突出し、互いに向かい合う2つの突出部(第1の分離部の一例)304を有していてもよい。さらに、この場合、2つの突出部304は、撮像素子100を受光面10aの上方から見た場合、列方向における撮像素子100の中心に設けられていてもよい。
 以上説明したように、本実施形態によれば、位相差検出時には、一対の画素300a、300bを物理的に分離する突出部304と電気的に分離する拡散領域306と、一対の画素300a、300bを電気的に分離する拡散領域320等とを設けていることから、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。詳細には、本実施形態においては、上記突出部304及び拡散領域306により、一対の画素300a、300bを効果的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。さらに、本実施形態においては、オーバフローパスを設けていることから、通常の撮像時に、画素300a、300bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。従って、本実施形態によれば、このようなオーバフローパスを設けることにより、撮像素子100から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 さらに、本実施形態においては、コンフォーマルドーピングにより突出部304を介して不純物をスリット312の領域へ拡散させて、拡散領域306を形成することができることから、イオン注入を用いることを避けることができる。従って、本実施形態によれば、イオン注入を用いないことから、光電変換部302への不純物の導入を避けることができ、光電変換部302の縮小やダメージを避けることができる。さらに、コンフォーマルドーピングを用いることにより、高温を印加して不純物を均一に拡散させつつ、結晶欠陥を補修することができる。その結果、本実施形態によれば、撮像素子100の感度の低下やダイナミックレンジの縮小を抑えることができる。
 また、本実施形態においては、突出部304は半導体基板10を貫通することから、突出部304を介したコンフォーマルドーピングによって、半導体基板10内の深い領域に拡散領域306を形成することができる。従って、本実施形態においては、精度よく所望の拡散領域306を形成することができることから、一対の画素300a、300bを効果的に電気的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。また、本実施形態によれば、素子分離壁310と突出部304とは同様の形態を持つことから、素子分離壁310と同時に突出部304を形成することができ、撮像素子100のプロセス工程の増加を抑えることができる。
 加えて、本実施形態においては、撮像素子100の中心Oにスリット312が設けられることから、突出部304による光の散乱が抑えられ、撮像素子100の中心Oに入射した光は、散乱されることなく光電変換部302に入射することができる。その結果、本実施形態によれば、撮像素子100は、当該撮像素子100の中心Oに入射する光をより確実に捉えることができることから、撮像画素の劣化を避けることができる。
 <3.3 変形例>
 本実施形態においては、遮光部(遮光膜)204は、以下のように変形することができる。そこで、図6及び図7を参照して、遮光部204の詳細構成について説明する。図6は、本実施形態に係る遮光部204の構成例を示す説明図であり、図7は、本実施形態の変形例に係る遮光部204の構成例を示す説明図である。なお、図6及び図7においては、下段に示す図は、図3に示すA-A´線で撮像素子100を切断した断面に対応し、上段に示す図は、図3に示すB-B´線で撮像素子100を切断した断面に対応する。
 本実施形態においては、例えば、図6に示すように、受光面10aの上方から撮像素子100を見た場合、遮光部(遮光膜)204は、素子分離壁310上に、素子分離壁310に沿って設けられてもよい。
 また、本実施形態の変形例においては、例えば、図7に示すように、受光面10aの上方から撮像素子100を見た場合、遮光部(遮光膜)204は、素子分離壁310上に、素子分離壁310に沿って設けられているだけでなく、突出部304(第1の分離部の一例)上に、突出部304に沿って設けられていてもよい。
 <<4. 第2の実施形態>>
 本開示の実施形態においては、撮像素子100を受光面10aの上方から見た場合、2つの突出部304の突出する長さ(列方向の長さ)は、互いに略同一であることに限定されるものではなく、互いに異なっていてもよい。そこで、図8を参照して、突出する長さが互いに異なる、本開示の第2の実施形態を説明する。図8は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 図8に示すように、本実施形態においては、素子分離壁310は、撮像素子100を受光面10aの上方から見た場合、撮像素子100の中心O(図示省略)に向かって、列方向に沿って突出し、互いに向かい合う2つの突出部(第1の分離部の一例)304を有している。さらに、2つの突出部304の突出する長さは、互いに異なっている。
 なお、本実施形態においては、上記2つの突出部304は、撮像素子100の中心O(図示省略)に向かって、行方向に沿って突出していてもよい。さらに、本実施形態においては、突出部304は、互いに向かい合うように2つ設けられていることに限定されるものではなく、例えば、1つ設けられていてもよい。この場合、突出部304と当該突出部304に対向する素子分離壁310の部分との間の領域には、コンフォーマルドーピングにより、第2の導電型(例えばP型)の不純物が突出部304及び素子分離壁310を介して拡散され、拡散領域(第1の拡散領域の一例)306が形成される。
 <<5. 第3の実施形態>>
 本開示の実施形態においては、2つの突出部304は、撮像素子100を受光面10aの上方から見た場合、行方向における撮像素子100の中心に設けられていることに限定されるものではなく、行方向において、撮像素子100の中心から所定の距離だけずれた位置に設けていてもよい。そこで、図9を参照して、2つの突出部304が、行方向において、撮像素子100の中心から所定の距離だけずれた位置に設けられた、本開示の第3の実施形態を説明する。図9は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 図9に示すように、本実施形態においては、第1の実施形態と同様に、素子分離壁310は、撮像素子100を受光面10aの上方から見た場合、互いに向かい合い、列方向に沿って突出する、2つの突出部(第1の分離部の一例)304を有する。さらに、本実施形態においては、これら突出部304は、行方向において、撮像素子100の中心から所定の距離だけずれた位置に設けている。なお、本実施形態においては、所定の距離は、特に限定されるものではい。
 また、本実施形態においては、2つの突出部304は、図9に示すような形態に限定されるものではなく、例えば、行方向に沿って突出する2つの突出部(第1の分離部の一例)304の場合、列方向において、撮像素子100の中心から所定の距離だけずれた位置に設けていてもよい。加えて、本実施形態は、上述した第2の実施形態と組み合わせてもよく、従って、2つの突出部304の突出する長さは、互いに異なっていてもよい。
 <<6. 第4の実施形態>>
 ところで、撮像素子100の平面サイズが大きい場合には、突出部304や拡散領域306では、一対の画素300a、300bを十分に分離することができない可能性がある。そこで、このような場合、一対の画素300a、300bの十分な分離を確保するために、2つの突出部304の間に、付加壁308等をさらに設けることが考えられる。以下に、図10から図12を参照して、このような実施形態を本開示の第4の実施形態として説明する。図10から図12は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 まずは、図10に示すように、本実施形態においては、第1の実施形態と同様に、素子分離壁310は、撮像素子100を受光面10aの上方から見た場合、互いに向かい合い、列方向に沿って突出する、2つの突出部(第1の分離部の一例)304を有する。さらに、本実施形態においては、これら突出部304の間(スリット312)には、矩形状の複数の付加壁308がドット状に配置されている。当該付加壁308は、突出部304と同様に、半導体基板10を貫通するように設けられている。加えて、図10においては、図示を省略するものの、付加壁308の周囲も、付加壁308を介したコンフォーマルドーピングによって、第2の導電型(例えばP型)の不純物が導入されることにより形成された拡散領域306が設けられている。
 本実施形態においては、2つの突出部304の間(スリット312)に、複数の付加壁308を設け、付加壁308の周囲にも拡散領域306を設けることにより、一対の画素300a、300bの十分な分離をより確保することができる。さらに、本実施形態においては、付加壁308をドット状に設けることにより、付加壁308による光の散乱が抑えられ、撮像素子100の中心O(図示省略)に入射した光は、散乱されることなく光電変換部302に入射することができる。その結果、本実施形態によれば、撮像素子100は、当該撮像素子100の中心Oに入射する光をより確実に捉えることができることから、撮像画素の劣化を避けることができる。
 なお、本実施形態においては、付加壁308の断面は、図10に示すような矩形状であることに限定されるものではなく、さらに、付加壁308の数も、図10に示すような2つに限定されるものではなく、1つないしは3つ以上であってもよい。
 また、図11に示すように、本実施形態においては、2つの突出部304の間(スリット312)に、1つの付加壁308aが配置されており、当該付加壁308aを、裏面DTIとしてもよい。裏面DTIは、半導体基板10の受光面10a(裏面)側から、半導体基板10の厚み方向に沿って、当該半導体基板10の途中まで貫くトレンチを形成し、当該トレンチ内に酸化膜等を埋め込むことにより形成される。この場合、当該付加壁308aが貫いていない、付加壁308aの表面10b側の領域に不純物を導入することにより、上記オーバフローパスとなるチャネルが形成される。
 なお、本実施形態においては、付加壁308aの断面は、図11に示すような矩形状であることに限定されるものではなく、さらに、付加壁308aの数も、図11に示すような2つに限定されるものではなく、1つないしは3つ以上であってもよい。
 また、撮像素子100の平面サイズが大きい場合には、拡散領域306では、一対の画素300a、300bを十分に分離することができない可能性がある。そこで、このような場合、一対の画素300a、300bの十分な分離を確保するために、図12に示すように、2つの突出部304の間(スリット312)に、イオン注入によって第2の導電型(例えばP型)の不純物を導入することによって形成された拡散領域306a(第1の拡散領域の一例)が設けられていてもよい。
 <<7. 第5の実施形態>>
 また、本開示の実施形態においては、突出部304は、素子分離壁310と異なる材料から形成されてもよい。以下に、図13を参照して、このような実施形態を本開示の第5の実施形態として説明する。図13は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 先に説明したように、突出部304と素子分離壁310とは、シリコン酸化膜、シリコン窒化膜、アモルファスシリコン、多結晶シリコン、チタン酸化膜、アルミニウム、タングステン等の酸化膜や金属膜からなる材料からなる。そこで、本実施形態においては、図13に示すように、上述した材料から選択される材料であって、且つ、突出部304と素子分離壁310とを、互いに異なる材料から形成してもよい。
 より具体的には、例えば、素子分離壁310をシリコン酸化膜で形成し、突出部304を、半導体基板10を形成するシリコンと屈折率差が少ない、高屈折率のチタン酸化膜で形成する。このようにすることで、突出部304による光の散乱を抑制し、撮像素子100の中心O(図示省略)に入射した光は、散乱されることなく光電変換部302に入射することができる。その結果、本実施形態によれば、撮像素子100は、当該撮像素子100の中心Oに入射する光をより確実に捉えることができることから、撮像画素の劣化を避けることができる。なお、本実施形態においては、突出部304をチタン酸化膜で形成することに限定されるものではなく、例えば、半導体基板10をなす材料との屈折率差が小さな材料であれば他の材料であってもよい。
 <<8. 第6の実施形態>>
 さらに、本開示の実施形態においては、2つの突出部304を設けることに限定されるものではなく、2つ以上の複数の突出部304が設けられていてもよい。以下に、図14を参照して、このような実施形態を本開示の第6の実施形態として説明する。図14は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 図14に示すように、本実施形態においては、素子分離壁310は、撮像素子100を受光面10aの上方から見た場合、撮像素子100の中心に向かって、列方向に沿って突出し、互いに向かい合う2つの突出部(第1の分離部の一例)304と、撮像素子100の中心に向かって、行方向に沿って突出し、互いに向かい合う2つの突出部(第2の分離部の一例)324とを有する。そして、上記4つの突出部304、324は、半導体基板10を貫通するように設けられている。
 さらに、本実施形態においては、図14では図示を省略するものの、互いに向かい合う2つの突出部304の間(スリット312)、及び、互いに向かい合う2つの突出部324の間(スリット312)には、突出部304、324を介したコンフォーマルドーピングにより、第2の導電型(例えばP型)の不純物が導入され、拡散領域306(第1の拡散領域の一例、第2の拡散領域の一例)を形成することができる。さらに、本実施形態においても、スリット312に設けられた拡散領域306の下方(表面10b側)には、イオン注入によって第1の導電型(例えばN型)の不純物が導入されることにより形成され、オーバフローパスとして機能する拡散領域320が形成される。
 図14の場合には、このような4つの突出部304によって、撮像素子100内は4つの画素300a、300b、300c、300dに分離されることとなる。この場合、1つの撮像素子100によって、行方向及び列方向の両方向の位相差を検出することができる。なお、本実施形態においては、4つの突出部304、324に限定されるものではなく、4つ以上の突出部が設けられていてもよい(例えば、8つ等)。
 <<9. 第7の実施形態>>
 さらに、本開示の実施形態においては、一対の画素300a、300bを分離する、裏面DTIからなる画素分離壁334を設けてもよい。以下に、図15を参照して、このような実施形態を本開示の第7の実施形態として説明する。図15は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図3に示すA-A´線で撮像素子100を切断した断面に対応する。
 図15に示すように、本実施形態においては、一対の画素300a、300bの間には、裏面DTIからなる画素分離壁(分離部の一例)334が設けられている。裏面DTIは、先に説明したように、半導体基板10の受光面10a(裏面)側から、半導体基板10の厚み方向に沿って、当該半導体基板10の途中まで貫くトレンチを形成し、当該トレンチ内に酸化膜等を埋め込むことにより形成される。この場合、半導体基板10の厚み方向において、当該画素分離壁334が貫いていない、画素分離壁334の表面10b側の領域が、オーバフローパスとなる。もしくは、本実施形態においては、当該領域に、イオン注入により第1の導電型の不純物が導入されることにより、オーバフローパスを形成してもよい。なお、本実施形態においては、画素分離壁334は、素子分離壁310に接していてもよく、接していなくてもよく、特に限定されるものではない。また、接していない場合には、素子分離壁310を介したコンフォーマルドーピングや、画素分離壁334と素子分離壁310との間に対するイオン注入によって、第2の導電型(例えばP型)の不純物が導入されることにより形成され、一対の画素300a、300bを電気的に分離する拡散領域(図示省略)が設けられる。
 以上説明したように、本実施形態によれば、位相差検出時には一対の画素300a、300bを物理的に分離する裏面DTIからなる画素分離壁334を設けることにより、一対の画素300a、300bを効果的に物理的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。さらに、本実施形態においては、画素分離壁334の表面10b側の領域に位置するオーバフローパスにより、通常の撮像時に画素300a、300bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、本実施形態によれば、このようなオーバフローパスを設けることにより、撮像素子100から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 さらに、本実施形態においては、一対の画素300a、300bの間には、イオン注入によって、第2の導電型(例えばP型)の不純物が導入されることにより形成された画素分離壁334が設けられてもよい。このような変形例においても、イオン注入により形成された画素分離壁334は、半導体基板10の受光面10a(裏面)側から、半導体基板10の厚み方向に沿って、当該半導体基板10の途中まで貫くような形態で形成される。当該変形例においては、半導体基板10の厚み方向において、当該画素分離壁334が貫いていない、画素分離壁334の表面10b側の領域が、オーバフローパスとなる。そして、当該オーバフローパスは、画素分離壁334の形成のためのイオン注入の際に、画素分離壁334の表面10b側の領域に不純物が注入されないようにすることで形成してもよく、もしくは、当該領域に、イオン注入により第1の導電型の不純物が導入されることにより形成してもよい。なお、本変形例においても、画素分離壁334は、素子分離壁310に接していてもよく、接していなくてもよく、特に限定されるものではない。
 以上説明したように、本変形例によれば、イオン注入で形成された画素分離壁334を設けることにより、一対の画素300a、300bを効果的に電気的に分離することができ、その結果、混色の発生を抑え、位相差検出の精度をより向上させることができる。さらに、本実施形態においては、画素分離壁334の表面10b側の領域に位置するオーバフローパスにより、通常の撮像時に画素300a、300bのいずれか一方の画素の電荷が飽和しそうになった際には、上記オーバフローパスを介して他方の画素に電荷を移動させることにより、一方の画素の飽和を避けることができる。そして、このようなオーバフローパスを設けることにより、撮像素子100から出力される画素信号のリニアリティを確保し、撮像画像の劣化を防ぐことができる。
 また、本実施形態においては、遮光部(遮光膜)204は、以下のように変形することができる。そこで、図16を参照して、遮光部204の詳細構成について説明する。図16は、本実施形態に係る遮光部204の構成例を示す説明図である。なお、図16においては、下段に示す図は、図3に示すA-A´線で撮像素子100を切断した断面に対応し、上段に示す図は、図3に示すB-B´線で撮像素子100を切断した断面に対応する。
 本実施形態及び変形例においては、例えば、図16の上段に示すように、受光面10aの上方から撮像素子100を見た場合、遮光部(遮光膜)204は、素子分離壁310上に、素子分離壁310に沿って設けられ、且つ、撮像素子100の中心Oに向かって、列方向に沿って突出し、互いに向かい合う2つの突出部206を有していてもよい。もしくは、本実施形態及び変形例においては、当該遮光部204は、素子分離壁310に沿って設けられ、上記突出部206を有していなくてもよい。
 <<10. 第8の実施形態>>
 また、本開示の実施形態においては、1つの付加壁308bを表面DTIとしてもよい。以下に、図17から図21を参照して、このような実施形態を本開示の第8の実施形態として説明する。図17は、本実施形態に係る撮像素子100の断面の一部を示す説明図であり、詳細には、撮像素子100を半導体基板10の厚み方向に沿って切断した断面に対応する。図18は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図17に示すC-C´線で撮像素子100を切断した断面に対応する。図19は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、図17に示すD-D´線で撮像素子100を切断した断面に対応する。図20は、本実施形態に係る撮像素子100の断面の一部を示す説明図であり、詳細には、図17に示すE-E´線で半導体基板10を切断した断面に対応する。図21は、本実施形態に係る色毎の撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図17から図20に示すように、本実施形態においては、2つの突出部304の間(スリット312)に、1つの付加壁308bが配置されており、当該付加壁308bが表面DTIとされる。表面DTIは、図20に示すように、半導体基板10の受光面10aの反対面である表面10b側から、半導体基板10の厚み方向に沿って、当該半導体基板10の途中まで延伸するトレンチを形成し、当該トレンチ内に酸化膜等を埋め込むことにより形成される。このトレンチの深さの調整により、付加壁308bにおける半導体基板10の厚み方向の長さを調整することが可能である。表面DTIの場合、当該付加壁308bが貫いていない、付加壁308bの裏面10a側の領域に不純物を導入することにより、上記オーバフローパスとなるチャネルが形成されてもよい。
 つまり、付加壁308bは、半導体基板10の厚み方向(基板厚み方向)に沿って、半導体基板10における受光面10aの反対側の面である表面10bから、半導体基板10の途中まで延伸するように設けられる。これにより、付加壁308bの基板厚み方向の長さは、2つの突出部304の基板厚み方向の長さよりも短くなる。したがって、付加壁308bの端面(受光面10a側の面)が受光面10aから離れるため、付加壁308bによる受光面10a付近での入射光の散乱を抑制できる。また、フルトレンチにより付加壁308bを形成する場合に比べ、受光面10a側において付加壁308bの体積を縮小することが可能であり、付加壁308bによる受光面10a付近での入射光の散乱を確実に抑制できる。
 ここで、例えば、図2から図5の例では、受光面10aの撮像素子100の中央近傍に配置されている2つの突出部304により入射光が散乱し、これが混色悪化の要因となる場合があり、また、感度低下抑制が不十分となる場合がある。この場合、2つの突出部304のスリット312を長くすることで入射光散乱を抑制することは可能であるが、2つの突出部304を用いたコンフォーマルドーピングの効果が減じ、飽和電荷量Qsが低下する。そこで、前述のように、付加壁308bを表面DTIとすることで、受光面10a側の撮像素子100の中央近傍に付加壁308bが無くなり、入射光散乱が抑えられる。これにより、混色や感度低下、飽和電荷量の低下等を抑制することができる。
 また、図21に示すように、本実施形態においては、RGB(Red、Green、Blue)の各撮像素子100での入射光の波長、すなわち光電変換深さに応じて、付加壁308bを形成するためのトレンチの深さ(トレンチ深さ)が調整されてもよい。R画素では、深部で光電変換が生じるため、トレンチ深さが浅く設定される。例えば、トレンチ深さは、トレンチ深さZ=3200nm(波長700nmが50%吸収される)である。B画素では、浅部で光電変換が生じるため、トレンチ深さが深く設定される。例えば、トレンチ深さは、トレンチ深さZ=350nm(波長450nmが50%吸収される)である。G画素では、Blue比深部、Red比浅部で光電変換が生じるため、トレンチ深さがR画素のトレンチ深さとB画素のトレンチ深さの間に設定される。例えば、トレンチ深さは、トレンチ深さZ=1000nm(波長550nmが50%吸収される)である。
 このように、トレンチ深さ、すなわち付加壁308aの基板厚み方向の長さは、受光面10aに入射する入射光の波長に応じて決定されてもよい。これにより、色ごとに入射光の散乱を最小化することができる。その結果、入射光の波長に応じ、入射光散乱を抑制することが可能となるので、混色や感度低下、飽和電荷量の低下等を確実に抑制することができる。
 また、本実施形態においては、付加壁308bを以下のように変形することができる。そこで、図22から図25を参照して、付加壁308bの詳細構成について説明する。図22は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向(半導体基板10の厚み方向に直交する方向)に沿って切断した断面に対応する。図23は、本実施形態に係る色毎の撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。図24は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図25は、本実施形態に係る色毎の撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図22に示すように、本実施形態においては、受光面10aの上方から見た場合、付加壁308bの中央部の幅(例えば行方向の長さ)は、付加壁308bの両端部の幅(例えば行方向の長さ)よりも狭くてもよい。また、図23に示すように、付加壁308bの中央部の基板厚み方向の長さは、付加壁308bの両端部の基板厚み方向の長さよりも短くてもよい。
 このように、付加壁308bの中央部の線幅を両端部に対して縮小し、付加壁308bの中央部形成用のトレンチの深さを浅くして付加壁308bの中央部の基板厚さ方向の長さを短くすることで、付加壁308bの中央部の端面を狭くしつつ受光面10aから離すことが可能なり、また、受光面10a側において付加壁308bの体積を縮小することが可能になる。これにより、付加壁308bによる受光面10a付近での入射光の散乱を確実に抑制できる。
 なお、図22及び図23の例では、付加壁308bの中央部の幅が付加壁308bの両端部に比べて狭く、半導体基板10の中央部の厚み方向の長さが付加壁308bの両端部に比べて短くされているが、これに限られるものではなく、それらの幅及び長さのどちらか一方が縮小されていてもよい。また、付加壁308bの幅が2つの突出部304の幅より短くされてもよい。
 また、図24に示すように、本実施形態においては、受光面10aの上方から見た場合、2つの突出部304の個々の幅(例えば行方向の長さ)は、付加壁308bの幅(例えば行方向の長さ)よりも狭くてもよい。また、図25に示すように、2つの突出部304は、半導体基板10の厚み方向に沿って、半導体基板10の表面10bから、半導体基板10の途中まで延伸するように設けられてもよい。このとき、付加壁308bの基板厚み方向の長さは、2つの突出部304の個々の基板厚み方向の長さよりも短くてもよい。
 このように、付加壁308bの基板厚さ方向の長さを短くすることに加え、2つの突出部304の線幅を細くし、さらに、2つの突出部304形成用のトレンチの深さを浅くして各突出部304の個々の基板厚さ方向の長さを短くすることで、付加壁308bの端面及び2つの突出部304の端面を受光面10aから離し、また、受光面10a側において付加壁308bの体積に加え、2つの突出部304の体積を縮小することが可能になるので、付加壁308bや2つの突出部304による受光面10a付近での入射光の散乱を確実に抑制できる。
 なお、図24及び図25の例では、2つの突出部304の個々の幅は、付加壁308bの幅よりも狭いが、これに限られるものではなく、例えば、2つの突出部304の一方の幅が、付加壁308bの幅よりも狭くてもよい。
 ここで、撮像素子100の製造工程(製造方法)の一部について図26を参照して説明する。図26は、本実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図26に示すように、本実施形態においては、半導体基板10の表面10b上にフォトマスク等のマスクM1が形成される(図26中の左から一番目の図参照)。マスクM1は、例えば、半導体基板10の表面10b上にフォトレジスト層をスピンコート法等により積層し、そのフォトレジスト層をトレンチ形成用パターンに合わせてパターニングすることによって形成される。次いで、マスクM1上に保護層として機能するマスクM2が形成され、素子分離壁310形成用のトレンチT1の一部がドライエッチング等のエッチングにより形成される(図26中の左から二番目の図参照)。その後、マスクM2が除去され(図26中の左から三番目の図参照)、さらに、エッチングが実行され、素子分離壁310形成用のトレンチT1と、付加壁308b形成用のトレンチT2が形成される(図26中の左から四番目の図参照)。後工程において、コンフォーマルドーピング等が実行され、トレンチT1やトレンチT2には、酸化膜等の材料が埋め込まれ、素子分離壁310や付加壁308bが形成される。その後、マスクM1も除去され、後工程を介して最終構造の撮像素子100が形成される。
 以上説明したように、本実施形態(変形例も含む)によれば、他の実施形態(変形例も含む)に係る効果を得ることができる。すなわち、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。また、付加壁308bの端面(受光面10a側の面)が受光面10aから離れ、さらに、受光面10a側において付加壁308bの体積を縮小することが可能であることから、付加壁308b又は突出部304による受光面10a付近での入射光の散乱を抑制することができる。
 <<11. 第9の実施形態>>
 また、本開示の実施形態においては、2つの突出部304の間(スリット312)に、イオン注入によって不純物を導入することによって形成された拡散領域306b(第1の拡散領域の一例)が設けられていてもよい。以下に、図27から図29を参照して、このような実施形態を本開示の第9の実施形態として説明する。図27は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図28は、本実施形態に係る撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。図29は、本実施形態に係る比較例の撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図28に示すように、本実施形態においては、イオン注入が半導体基板10の表面10b及び裏面10aの両面から実行される。これにより、拡散領域306bは、半導体基板10の表面10bから半導体基板10の内部に向けて広がり、半導体基板10の内部から半導体基板10の裏面10aに向けて狭くなる形状に形成される。つまり、拡散領域306bは、半導体基板10の表面10bから半導体基板10の内部に向けて広がる第1の領域R1と、半導体基板10の内部から半導体基板10の裏面10aに向けて狭くなる第2の領域R2とを有する。これらの第1の領域R1及び第2の領域R2は接続されている。
 なお、図28の例では、第1の領域R1の中心軸と第2の領域R2の中心軸がずれずに一致するように位置付けられているが、これに限られるものではなく、例えば、左右方向(一例として、行方向)にずれるように位置付けられてもよい。これは、以降の図30から図35に示す構成でも同様である。
 ここで、図29に示すように、イオン注入が半導体基板10の表面10bからだけ実行されると、半導体基板10の厚み方向に拡散が大きく広がり、半導体基板10の表面10bから裏面10aまで広がり続ける拡散領域306aが形成される。このため、光電変換領域が狭くなってしまう。そこで、図28に示すように、イオン注入が半導体基板10の表面10b及び裏面10aの両面から実行される。これにより、拡散領域306bは、半導体基板10の表面10bから半導体基板10の内部に向けて広がり、半導体基板10の内部から半導体基板10の裏面10aに向けて狭くなる形状に形成される。その結果、拡散領域306b(図28参照)は、拡散領域306a(図29参照)に比べて狭くなるので、光電変換領域を広くすることができる。
 また、本実施形態においては、拡散領域306bを以下のように変形することができる。そこで、図30から図35を参照して、拡散領域306bの詳細構成について説明する。図30から図35は、本実施形態に係る撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図30に示すように、本実施形態においては、拡散領域306bは、第1の領域R1及び第2の領域R2が接続されずに離間するように形成されてもよい。このような形状の拡散領域306bでも、拡散領域306bの広がりを抑えることが可能であり、光電変換領域を広くすることができる。
 また、図31に示すように、本実施形態においては、拡散領域306bは、第1の領域R1及び第2の領域R2が、図28に示す第1の領域R1及び第2の領域R2に比べて細くなるように形成されてもよい。第1の領域R1及び第2の領域R2は接続されている。このような形状の拡散領域306bでは、図28に示す第1の領域R1及び第2の領域R2に比べ、拡散領域306bの広がりをより抑えることが可能であり、光電変換領域を確実に広くすることができる。
 また、図32に示すように、本実施形態においては、拡散領域306bは、第1の領域R1及び第2の領域R2の不純物濃度が、図28に示す第1の領域R1及び第2の領域R2に比べて濃くなるように形成されてもよい。第1の領域R1及び第2の領域R2は接続されている。このような拡散領域306bによれば、第1の領域R1及び第2の領域R2の不純物濃度を変えることで、ポテンシャル調整(ポテンシャル設計)を容易に行うことができる。
 また、図33に示すように、本実施形態においては、拡散領域306bは、第1の領域R1の基板厚み方向の長さ(深さ)が第2の領域R2の基板厚み方向の長さ(深さ)より長くなるように形成されてもよい。第1の領域R1及び第2の領域R2は接続されている。このような拡散領域306bによれば、第1の領域R1及び第2の領域R2の個々の基板厚み方向の長さを変えることで、ポテンシャル調整(ポテンシャル設計)を容易に行うことができる。なお、拡散領域306bは、第1の領域R1及び第2の領域R2の個々の基板厚み方向の長さが異なるように形成されればよく、例えば、前述と逆に第2の領域R2の基板厚み方向の長さが第1の領域R1の基板厚み方向の長さより長くなるように形成されてもよい。
 また、図34に示すように、本実施形態においては、拡散領域306bは、第1の領域R1が第2の領域R2より細くなるように形成されてもよい。つまり、第1の領域R1における基板厚み方向に直交する方向の長さが、第1の領域R1における基板厚み方向に直交する方向の長さより短くなる。第1の領域R1及び第2の領域R2は接続されている。このような拡散領域306bによれば、第1の領域R1及び第2の領域R2の個々の太さを変えることで、ポテンシャル調整(ポテンシャル設計)を容易に行うことができる。なお、拡散領域306bは、第1の領域R1及び第2の領域R2の個々の太さが異なるように形成されればよく、例えば、前述と逆に第2の領域R2が第1の領域R1より細くなるように形成されてもよい。
 また、図35に示すように、本実施形態においては、拡散領域306bは、第1の領域R1の不純物濃度が第2の領域R2の不純物濃度より薄くなるように形成されてもよい。第1の領域R1及び第2の領域R2は接続されている。このような拡散領域306bによれば、第1の領域R1及び第2の領域R2の個々の不純物濃度を変えることで、ポテンシャル調整(ポテンシャル設計)を容易に行うことができる。なお、拡散領域306bは、第1の領域R1及び第2の領域R2の個々の不純物濃度が異なるように形成されればよく、例えば、前述と逆に第2の領域R2の不純物濃度が第1の領域R1の不純物濃度より薄くなるように形成されてもよい。
 なお、図28、図30から図35のような各種形状の拡散領域306bを形成するため、イオン注入が実行される。このイオン注入時には、パワーや注入時間、処理温度、電界等の各種条件が調整される。この各種条件が適宜調整されることで、図28、図30から図35のような各種形状の拡散領域306bを得ることが可能である。
 また、図36に示すように、本実施形態においては、2つの突出部304の間(スリット312)に、1つの付加壁308が設けられてもよい。この場合、2つの突出部304の個々と1つの付加壁308との間(2つの領域)には、拡散領域306bがそれぞれ設けられている。また、図36に示すG-G´線で撮像素子100を切断した断面は、図28に示す断面と同じであり、図36に示すH-H´線で撮像素子100を切断した断面は、図34に示す断面と同じである。このような構成では、例えば、ポテンシャル勾配(図36中の白抜き矢印参照)を形成することが可能となる。これにより、転送ゲート400a、400bに向かって電荷を転がりやすく(移動しやすく)することができる。つまり、拡散領域306bを構成する第1の領域R1及び第2の領域R2の各種形状の組み合わせや不純物濃度の組み合わせ等により、ポテンシャル勾配を形成すること等のポテンシャル調整(ポテンシャル設計)を容易に行うことができる。
 ここで、撮像装置1の製造工程(製造方法)の一部について図37及び図38を参照して説明する。図37及び図38は、本実施形態に係る撮像装置1の製造工程の一部を説明するためのプロセス断面図である。なお、図37及び38においては、わかりやすくするために、本実施形態に関係する撮像装置1の要部のみを示し、他の部分については図示を省略する。
 図37の上段に示すように、本実施形態においては、例えば、フォトダイオードやフローティングディフュージョン(いずれも図示省略)、転送ゲート400a、400b、素子分離壁310、突出部304等が形成された第1の半導体基板10に対してイオン注入が実行される。このとき、図37の例では、第1の半導体基板10の表面10bからイオン注入が行われる。その後、第1の半導体基板10と第2の半導体基板11とが層間絶縁膜10Aを介して接合される。その後、第1の半導体基板10に対し、CMP(Chemical Mechanical Polishing)やグラインダー等が用いられ、第1の半導体基板10の裏面10aから、図37の中段に示すように、薄肉化が行われる。その後、例えば、活性化アニール等が実行され、次いで、第1の半導体基板10に対して再度イオン注入が実行される。このとき、図37の例では、第1の半導体基板10の裏面10aからイオン注入が行われる。その後、図37の下段に示すように、第1の半導体基板10に対して支持基板12が接合され、例えば、活性化アニールが実行される。
 次いで、図38の上段に示すように、第2の半導体基板11に対して、例えば、各種トランジスタや信号線(例えば、画素駆動配線26や水平信号線28等)等が形成される。そして、図38の中段に示すように、第2の半導体基板11に対して、ロジック基板13が接合される。ロジック基板13は、例えば、各種回路部21~25等の複数の回路を有する。その後、支持基板12に対し、CMPやグラインダー等が用いられ、図38の下段に示すように、薄肉化が行われる。
 以上説明したように、本実施形態(変形例も含む)によれば、他の実施形態(変形例も含む)に係る効果を得ることができる。すなわち、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。また、拡散領域306bは、半導体基板10の表面10bから半導体基板10の内部に向けて広がり、半導体基板10の内部から半導体基板10の裏面10aに向けて狭くなる形状に形成される。その結果、拡散領域306b(図28参照)は、拡散領域306a(図29参照)に比べて狭くなるので、光電変換領域を広くすることができる。
 <<12. 第10の実施形態>>
 また、本開示の実施形態においては、突出部304が延伸部304a及び突起部304bにより構成されていてもよい。以下に、図39から図41を参照して、このような実施形態を本開示の第10の実施形態として説明する。図39は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図40は、本実施形態に係る撮像素子100の断面の一部を示す説明図であり、詳細には、図39に示すI-I´線で半導体基板10を切断した断面に対応する。図41は、本実施形態の比較例に係る撮像素子100の断面の一部を示す説明図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図39に示すように、本実施形態においては、2つの突出部304は、延伸部304a及び突起部304bをそれぞれ有している。延伸部304aは、素子分離壁310につながっており、素子分離壁310から列方向に延伸している。突起部304bは、延伸部304aの端部に設けられており、行方向に延伸している。受光面10aの上方から見た場合、延伸部304aの形状及び突起部304bの形状は矩形状であり、図39の例では、突出部304はT字形状になっている。各突起部304bは、互いに向かい合う対向面S1をそれぞれ有している。受光面10aの上方から見た場合、各対向面S1の個々の幅(例えば行方向の長さ)は、各延伸部304aの個々の線幅(例えば行方向の長さ)よりも広い。
 このような構成によれば、図40に示すように、素子分離壁310の壁面に拡散層(ドーピング層)、すなわち拡散領域306がコンフォーマルドーピングのみで形成され、スリット312は拡散領域306により埋められる。これは、スリット312を形成する2つの突出部304が、受光面10aに対して直交するように真っすぐ形成されているためである。つまり、スリット312の形状がテーパー形状ではなく、直線形状になっているためである。
 例えば、図41に示すように、フルトレンチの加工形状が、エッチング時のマイクロローディング効果の影響によりテーパー形状になることがある。この場合、コンフォーマルドーピングのみでは、スリット312の領域が拡散領域306により完全に埋められず、十分なポテンシャル分離をできないことがある。この対策としては、スリット312にイオン注入を行うことが望ましいが、これは製造工程の増加につながってしまう。通常、線幅が狭いトレンチ(密)を形成する場合に比べ、線幅が広いトレンチ(疎)を形成する場合の方が、エッチングレートを向上させることができる。そこで、延伸部304aに突起部304bを設けて突出部304を構成することで、延伸部304aだけで突出部304を構成する場合に比べ、エッチングレートを高くし、スリット312の形状をテーパー形状ではなく、直線形状にすることが可能となる。これにより、イオン注入を省略し、製造工程数の増加を抑えることができる。また、スリット312の垂直性(トレンチの垂直性)が向上するため、イオン注入が必須となる場合に比べ、飽和電荷量Qsを改善することができ、さらに、混色や量子効率Qeを改善することができ、また、結晶欠陥ダメージを低減して白点を改善することができる。
 ここで、図42は、本実施形態に係るスリット312の幅と突出部304の幅との関係を示すグラフである。図39に示すように、延伸部304aの線幅(行方向の長さ)をL1とし、突起部304bの幅(行方向の長さ)をL2とし、図41に示すように、半導体基板10の裏面10a側のスリット312の幅(列方向の長さ)をL3とし、半導体基板10の表面10b側のスリット312の幅(列方向の長さ)をL4とすると、図42に示すように、「L2/L1(比率)」と「L4-L3(差分)」との関係を示すグラフが求められる。このグラフから、延伸部304aの線幅L1に対して、突起部304bの幅L2を1.2倍以上にすることで、スリット312が垂直化され、実用化レベルで十分に効果を得ることができる。さらに垂直化を求める場合には、延伸部304aの線幅L1に対して、突起部304bの幅L2を1.4倍以上にすることが望ましい。
 なお、スリット312の形成位置を列方向に移動させることも可能である。この場合には、延伸部304aの長さ(例えば列方向の長さ)を調整することになる。このようなスリット312の形成位置の移動は、以降の図45から図50の構成でも可能である。スリット312の形成位置を移動させ、例えば、ブルーミングパス領域を中央ではなく端に持っていくことで、転送ゲート400a、400bやフローティングディフュージョン領域と、ブルーミングパス領域を離すことが可能であり、転送や白点等に対するマージンを向上させることができる。
 ここで、撮像素子100の製造工程(製造方法)の一部について図43及び図44を参照して説明する。図43は、本実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図であり、詳細には、図39に示すL-L´線で半導体基板10を切断した断面に対応する。図44は、本実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図であり、詳細には、図39に示すI-I´線で半導体基板10を切断した断面に対応する。
 図43及び図44に示すように、本実施形態においては、半導体基板10の裏面10a(又は表面10b)上にマスクM1(例えば、SiO等の無機マスク)が形成される。その後、マスクM1上にマスクM2が形成される。このマスクM2は、例えば、半導体基板10の表面10b上のマスクM1にフォトレジスト層をスピンコート法等により積層し、そのフォトレジスト層をトレンチ形成用パターンに合わせてパターニングすることによって形成される。次いで、突出部304や素子分離壁310形成用のトレンチがドライエッチング等のエッチングにより形成され、マスクM2が除去される。そして、例えば、コンフォーマルドーピングが実行され、拡散領域306が形成される。その後、各トレンチに酸化膜等の材料が埋め込まれ、突出部304や素子分離壁310が形成される。最後に、マスクM1が除去され、後工程を介して最終構造の撮像素子100が形成される。
 また、本実施形態においては、突出部304を以下のように変形することができる。そこで、図45から図50を参照して、突出部304の詳細構成について説明する。図45から図50は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。
 図45に示すように、本実施形態においては、突出部304は、延伸部304a及び突起部304bを有している。延伸部304aは、素子分離壁310につながっており、素子分離壁310から列方向に延伸している。突起部304bは、延伸部304aの端部に設けられており、行方向に延伸している。受光面10aの上方から見た場合、延伸部304aの形状及び突起部304bの形状は矩形状であり、図45の例では、突出部304の形状はT字形状になっている。突起部304bは、素子分離壁310の壁面に向かい合う対向面S1を有している。受光面10aの上方から見た場合、突起部304bの対向面S1の幅(例えば行方向の長さ)は、延伸部304aの線幅(例えば行方向の長さ)よりも長い。
 また、図46に示すように、本実施形態においては、2つの突出部304は、それぞれ途中で折れ曲がってスリット312が斜めになるように形成されている。各突出部304は、互いに向かい合う対向面S1をそれぞれ有している。受光面10aの上方から見た場合、各対向面S1の個々の長さ(例えば傾斜方向の長さ)は、2つの突出部304の個々の線幅(例えば行方向の長さ)よりも長い。
 また、図47に示すように、本実施形態においては、2つの突出部304は、それぞれ行方向にずれるように形成されている。各突出部304は、互いに向かい合う対向面S1をそれぞれ有している。受光面10aの上方から見た場合、各対向面S1の個々の長さ(例えば列方向の長さ)は、各突出部304の個々の線幅(例えば行方向の長さ)よりも長い。
 また、図48に示すように、本実施形態においては、2つの突出部304は、延伸部304a及び突起部304bをそれぞれ有している。延伸部304aは、素子分離壁310につながっており、素子分離壁310から列方向に延伸している。突起部304bは、延伸部304aの端部に設けられており、行方向及び列方向に延伸する形状に形成されている。受光面10aの上方から見た場合、延伸部304aの形状は矩形状であり、図48の例では、突起部304bの形状はL字形状になっている。各突出部304は、互いに向かい合う対向面S1をそれぞれ有している。受光面10aの上方から見た場合、各対向面S1の個々の長さ(例えば行方向及び列方向の長さ)は、各延伸部304aの個々の線幅(例えば行方向の長さ)よりも長い。
 また、図49に示すように、本実施形態においては、2つの突出部304に加え、2つの付加壁(分離部の一例)308cが、撮像素子100の中心を間にして対向するように設けられている。各付加壁308cは、互いに向かい合う対向面S1をそれぞれ有している。受光面10aの上方から見た場合、各対向面S1の個々の長さ(例えば列方向の長さ)は、各突出部304の個々の線幅(例えば行方向の長さ)よりも長い。
 また、図50に示すように、本実施形態においては、2つの突出部304は、延伸部304a及び突起部304bをそれぞれ有している。図50の例では、受光面10aの上方から見た場合、突起部304bの形状が円形状である以外の構成は、図39の構成と同じである。なお、突起部304bの形状は、円形状以外にも、楕円形状や台形形状等の各種形状であってもよい。
 以上説明したように、本実施形態(変形例も含む)によれば、他の実施形態(変形例も含む)に係る効果を得ることができる。すなわち、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。また、突出部304の対向面S1の幅(例えば行方向の長さ)は、突出部304の延伸部304aの線幅(例えば行方向の長さ)よりも広い。これにより、突出部304の対向面S1側のエッチングレートを高くし、スリット312の形状をテーパー形状ではなく、直線形状にすることが可能となる。これにより、イオン注入を省略し、製造工程数の増加を抑えることができる。また、スリット312の垂直性(トレンチの垂直性)が向上するため、イオン注入が必須となる場合に比べ、飽和電荷量Qsを改善することができ、さらに、混色や量子効率Qeを改善することができ、また、結晶欠陥ダメージを低減して白点を改善することができる。
 <<13. 第11の実施形態>>
 また、本開示の実施形態においては、2つの画素分離壁(分離部の一例)334aが設けられてもよい。以下に、図51及び図52を参照して、このような実施形態を本開示の第11の実施形態として説明する。図51は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図52は、本実施形態の比較例に係る撮像素子100の平面を示す説明図であり、詳細には、比較例に係る撮像素子100を平面方向に沿って切断した断面に対応する。
 図51に示すように、本実施形態においては、2つの画素分離壁334aは、撮像素子100の中心を間にして対向するように列方向に並べられている。各画素分離壁334aは、素子分離壁310に接触せずに素子分離壁310から離間しており、さらに、互いに離間している。図51の例では、受光面10aの上方から見た場合、各画素分離壁334aの個々の形状は矩形状である。
 拡散領域306は、第1の領域306A及び第2の領域306Bを含む。第1の領域306Aは、2つの画素分離壁334aを形成するための各トレンチに対する固相拡散プロセスにより形成された領域である。第2の領域306Bは、素子分離壁310を形成するためのトレンチに対する固相拡散プロセスにより形成された領域である。つまり、外周の素子分離壁310に対応するトレンチからの拡散と、2つの突出部304に対応する各トレンチからの拡散が独立して起こることで、拡散領域306は、第1の領域306A及び第2の領域306Bを有することになる。
 ここで、2つの画素間の分離を強めるためには、例えば、トレンチ側壁に成膜したドープ酸化シリコンから固相拡散によってボロン(Boron)を拡散させる方法を用いることが可能である。この場合、図52に示すような構造において、外周の素子分離壁310に対応するトレンチからの拡散と、2つの突出部304に対応する各トレンチからの拡散が同時に起こり、ボロンの拡散領域306は広く形成されてしまう。この拡散領域306が広く形成されることで、飽和電荷量の低下が生じてしまう。そこで、前述のように、素子分離壁310と2つの画素分離壁334aを離して配置し、分離構造を独立して形成することによって、分離構造の固相拡散を独立して行うことが可能になるので、飽和電荷量の低下を抑えることができる。すなわち、素子分離壁310に対応するトレンチからの拡散と、2つの突出部304に対応する各トレンチからの拡散が独立で起こるため、拡散領域306の広さを抑えることが可能となり、飽和電荷量の低下を抑えることができる。
 なお、本実施形態においては、固相拡散プロセス(拡散プロセスの一例)により、例えばボロンを拡散させるが、拡散プロセスとしては、固相拡散プロセスに限るものではなく、プラズマドーピング等、側壁から熱によってドーピングを行うドーピング技術を用いることも可能である。
 また、図51の例では、2つの画素分離壁334aは、撮像素子100の中心を通る中心線上に位置付けられているが、これに限られるものではなく、例えば、図51の左右方向(一例として、行方向)にずれるように位置付けられてもよい。これは、以降の図54から図57に示す構成でも同様である。
 ここで、撮像素子100の製造工程(製造方法)の一部について図53を参照して説明する。図53は、本実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。
 図53に示すように、本実施形態においては、2つの画素分離壁334a形成用の個々のトレンチT4が、素子分離壁310の形成位置から離れた内部位置に形成される(図53の左から一番目の図参照)。次いで、それらのトレンチT4に対して固相拡散プロセスが用いられ、固相拡散層(例えばP型層)すなわち第1の領域306Aが各トレンチT4の周囲に形成され、その後、それらのトレンチT4に酸化膜等の材料が埋め込まれ、画素分離壁334aが形成される(図53の左から二番目の図参照)。次いで、素子分離壁310形成用のトレンチT5が、各トレンチT4を囲む所定サイズの矩形状に形成され、そのトレンチT5に対して固相拡散プロセスが用いられ、固相拡散層(例えばP型層)すなわち第2の領域306BがトレンチT5の周囲に形成され、最後に、トレンチT5に酸化膜等の材料が埋め込まれ、素子分離壁310が形成される(図53の左から三番目の図参照)。これにより、第1の領域306A及び第2の領域306Bを含む拡散領域306が形成される。
 また、本実施形態においては、画素分離壁334aを以下のように変形することができる。そこで、図54から図57を参照して、画素分離壁334aの詳細構成について説明する。図54から図57は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。
 図54に示すように、本実施形態においては、4つの画素分離壁334aが設けられている。4つの画素分離壁334aのうち2つが撮像素子100の中心を間にして対向するように列方向に並べられており、他の2つが撮像素子100の中心を間にして対向するように行方向に並べられている。各画素分離壁334aは、素子分離壁310に接触せずに素子分離壁310から離間しており、さらに、互いに離間している。図54の例では、受光面10aの上方から見た場合、各画素分離壁334aの個々の形状は矩形状であり、各画素分離壁334aは十字形状を形成するように配置されている。
 また、図55に示すように、本実施形態においては、2つの画素分離壁334aに加え、それらの画素分離壁334aより平面の面積が小さい2つの画素分離壁334aが設けられている。これらの面積(大きさ)が小さい画素分離壁334aは、撮像素子100の中心を間にして対向するように行方向に並べられている。この2つの画素分離壁334aの個々の一部は、他の2つの画素分離壁334aの間の領域に位置する。図55の例では、受光面10aの上方から見た場合、各画素分離壁334aの個々の形状は矩形状である。
 また、図56に示すように、本実施形態においては、4つの画素分離壁334aが設けられている。4つの画素分離壁334aは、撮像素子100の中心を通る列方向にドット状に並べられている。各画素分離壁334aは、素子分離壁310に接触せずに素子分離壁310から離間しており、さらに、互いに離間している。図56の例では、受光面10aの上方から見た場合、各画素分離壁334aの個々の形状は矩形状であり、各画素分離壁334aは一本の直線上に配置されている。
 また、図57に示すように、本実施形態においては、2つの画素分離壁334aは、受光面10aの上方から見た場合、円形状にそれぞれ形成されている。図57の例では、受光面10aの上方から見た場合、各画素分離壁334aの形状が円形状である以外の構成は、図51の構成と同じである。なお、画素分離壁334aの形状は、円形状以外にも、楕円形状や台形形状等の各種形状であってもよい。
 以上説明したように、本実施形態(変形例も含む)によれば、他の実施形態(変形例も含む)に係る効果を得ることができる。すなわち、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。また、素子分離壁310と各画素分離壁334aを離して配置し、分離構造を独立して形成することによって、分離構造の固相拡散等の拡散プロセスを独立して行うことが可能になるので、飽和電荷量の低下を抑えることができる。
 <<14. 第12の実施形態>>
 本開示の実施形態においては、一対の突出部304は、互いの離間距離が深さ方向(高さ方向)に略同一であることに限定されるものではなく、異なっていてもよい。そこで、図58から図60を参照して、このような実施形態を本開示の第12の実施形態として説明する。図58は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図59は、本実施形態に係る撮像素子100の両面及び断面を示す説明図であり、その断面は図58に示すM-M´線で撮像素子100を切断した断面に対応する。図60は、本実施形態に係る撮像素子100のスリット幅(スリットの間隙の長さ)と集光特性及び画素特性との関係を示す説明図である。
 図58及び図59に示すように、本実施形態においては、一対の突出部304は、互いの離間距離(スリット幅)が深さ方向に徐々に変化するテーパー形状に形成されている。図59の例では、一対の突出部304の互いの離間距離は、表面10bから裏面(受光面)10a(図58の上面から下面)に向かって深さ方向に徐々に広くなっている(a<b)。これにより、一対の突出部304の受光面10a側を中心から遠ざけつつ、全体としては突き出し量を確保することができる。図60に示すように、画素特性を維持しつつも光の散乱を低減することが可能であり、集光特性と画素特性とのトレードオフを解消することができる。
 ここで、b-a=2×(t/tan(θ))という関係がある。なお、aは表面10b側のスリット312の長さであり、bは裏面(受光面)10a側のスリット312の長さであり、tは表面10bから裏面10aまでの厚さ(深さ方向の長さ)であり、θは表面10bに対するスリット312のテーパー角である。このテーパー角θが小さくても、表面10bから裏面10aまでの厚さt次第で、表面10bから裏面10aまでのスリット幅に大きな差が生じる。
 また、本実施形態においては、一対の突出部304を以下のように変形することができる。そこで、図61から図71を参照して、一対の突出部304の詳細構成について説明する。図61、図65、図68及び図69は、それぞれ、本実施形態に係る撮像素子100の両面及び断面を示す説明図である。図62から図64、図66は、それぞれ、本実施形態に係る撮像素子100の断面を示す説明図である。図67、図70及び図71は、本実施形態に係る撮像素子100の両面を示す説明図である。
 図61に示すように、本実施形態においては、一対の突出部304は、表面10bから裏面10a(図61の上面から下面)に向かって、互いの離間距離が深さ方向に所定深さだけ略同一であり、深さ方向の途中から深さ方向に徐々に広くなるように形成されている(a<b)。なお、混色悪化に関しては集光部でのトレンチ形状が支配的であるため、集光部に変化がついていれば有効である。
 また、図62に示すように、本実施形態においては、一対の突出部304は、表面10bから裏面10a(図62の上面から下面)に向かって、互いの離間距離が深さ方向に徐々に狭くなり、深さ方向に所定深さだけ略同一となり、深さ方向の途中から深さ方向に徐々に広くなるように形成されている(a=b>c)。なお、a<bやa>bであってもよい。裏面(受光面)10a側の離間距離は集光に効くため広い方がよく、また、表面10b側の離間距離はポテンシャル設計の観点から広い方がよい。中央の離間距離はQsに効くため狭い方がよい。
 また、図63に示すように、本実施形態においては、一対の突出部304は、表面10bから裏面10a(図63の上面から下面)に向かって、互いの離間距離が深さ方向に多段で変化するようにそれぞれ形成されている。図63の例では、一対の突出部304の互いの離間距離は、深さ方向に二段階で変化しており、表面10b側の離間距離が裏面10a側の離間距離よりも狭くなっている(a<b)。このため、一対の突出部304は、それぞれ段差を有する。このように一対の突出部304の離間距離は、連続的でなく不連続に変化してもよく、二段階でなく、三段階や四段階等の多段階で変化してもよい。
 また、図64に示すように、本実施形態においては、一対の突出部304は、表面10bから裏面10a(図64の上面から下面)に向かって、互いの離間距離が深さ方向に二段階で変化し、深さ方向の途中から深さ方向に徐々に広くなるように形成されている(a<c<b)。このように、図61や図62に示す途中テーパー形状や図63に示す多段加工形状等を組み合わせてもよい。
 また、図65に示すように、本実施形態においては、1つの突出部304は、表面10bから裏面10a(図65の上面から下面)に向かって、素子分離壁310との離間距離が深さ方向に徐々に広くなるように形成されている(a<b)。
 また、図66に示すように、本実施形態においては、1つの突出部304は、表面10bから裏面10a(図66の上面から下面)に向かって、深さ方向に二段階で変化するように形成されている。図66の例では、表面10b側の離間距離が裏面10a側の離間距離よりも狭くなっている(a<b)。
 また、図67に示すように、本実施形態においては、4つの突出部304は、表面10bから裏面10aに向かって、対向する一対の突出部304の互いの離間距離が深さ方向に徐々に広くなるように形成されている(a<b)。これらの突出部304は、十字形状に配置されている。
 なお、図65から図67に示すように、1つの突出部304や4つの突出部304等の複数の突出部304に対し、図61や図62に示す途中テーパー形状や図63に示す多段加工形状等を適用してもよく、また、それらを組み合わせて適用してもよい。
 また、図68に示すように、本実施形態においては、一対の突出部304は、表面10bから裏面10a(図68の上面から下面)に向かって、個々の線幅(延伸方向に直交する方向の幅)が深さ方向に徐々に狭くなるように形成されている(d>e)。なお、一対の突出部304の互いの離間距離は、深さ方向に略同一である(a=b)。
 また、図69に示すように、本実施形態においては、1つの突出部304は、表面10bから裏面10a(図69の上面から下面)に向かって、その線幅(延伸方向に直交する方向の幅)が深さ方向に徐々に狭くなるように形成されている(d>e)。なお、突出部304と素子分離壁310との離間距離は、表面10bから裏面10aに向かって、深さ方向に沿って徐々に広くなっている(a<b)。
 また、図70に示すように、本実施形態においては、4つの画素分離壁334aは、表面10bから裏面10aに向かって、個々の線幅が深さ方向に徐々に狭くなるように形成されている。これらの画素分離壁334aは、撮像素子100の中心を通る列方向にドット状に並べられている。各画素分離壁334aは、素子分離壁310に接触せずに素子分離壁310から離間しており、さらに、互いに離間している。
 また、図71に示すように、本実施形態においては、4つの突出部304は、表面10bから裏面10aに向かって、個々の線幅(延伸方向に直交する方向の幅)が深さ方向に徐々に狭くなるように形成されている(d<e)。これらの突出部304は、十字形状に配置されている。なお、向かい合う一対の突出部304の互いの離間距離は、深さ方向に略同一である(a=b)。
 以上のように、受光面10a側でスリット312の間隙(スリット312の幅)を広げることで、各突出部304による散乱が抑えられ、集光特性は特に受光面10a近傍が支配的に効くため、集光特性と画素特性とを両立させることができる。また、受光面10a側でスリット312の間隙を広げるだけでなく、突出部304の線幅も受光面10a側で細めることで、突出部304による散乱が抑えられるので、混色を抑制することができる。
 なお、受光面10a側でスリット312の間隙を広げること及び突出部304の線幅を細めることの一方だけを行ってもよく、また、それらの両方を行ってもよい。つまり、図61から図71に示す構成を単独で用いてもよく、また、組み合わせて用いてもよい。
 ここで、撮像素子100の製造工程(製造方法)の一部について図72を参照して説明する。図72は、本実施形態に係る撮像素子100の製造工程の一部を説明するためのプロセス断面図であり、詳細には、半導体基板10を半導体基板10の厚み方向に沿って切断した断面に対応する。
 図72に示すように、本実施形態においては、半導体基板10に対してFFTI(表面FTI:Full Trench Isolation)加工が実行され、材料が埋め込まれる。その後、各種工程後(中略)、半導体基板10と貼り合わせ基板501が貼り合わされ、薄肉化が行われる。薄肉化が行われた半導体基板10に対して埋戻しが行われ、カラーフィルタ202及びオンチップレンズ200が積層される。なお、貼り合わせ基板502としては、例えば、ロジック基板や半導体基板等が用いられる。
 <<15. 第13の実施形態>>
 また、本開示の実施形態においては、2つの転送ゲート400a、400b、FD部(フローティングディフュージョン部)601及びグランド部602は、図73に示すように、配置されてもよい。以下に、図73及び図74を参照して、このような実施形態を本開示の第13の実施形態として説明する。図73は、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図74は、本実施形態の比較例に係る撮像素子100の平面を示す説明図であり、詳細には、比較例に係る撮像素子100を平面方向に沿って切断した断面に対応する。
 図73に示すように、本実施形態においては、2つの転送ゲート400a、400bは、素子分離壁310により囲まれるセル領域の一端側(例えば、図73の上側)に位置付けられている。セル領域は撮像素子100に含まれる。図73の例では、セル領域は正方形である。
 FD部601は、隣接する2つのセル領域で共有のフローティングディフュージョンである(図73中の点線領域 参照)。このFD部601は、セル領域の一端側(例えば、図73の上側)に位置付けられている。図73の例では、FD部601の形状は、正八角形ではなく、長辺及び短辺を有する八角形の形状である。具体的には、FD部601は横長であり、FD部601において、突出部304の延伸方向に直交する方向の長さは、突出部304の延伸方向の長さより長い。FD部601としては、例えば、Poly-Si(多結晶Si)が用いられる。
 グランド部602は、隣接する2つのセル領域で共有のグランド部である(図73中の点線領域 参照)。このグランド部602は、セル領域の一端側(例えば、図73の下側)に位置付けられている。図73の例では、グランド部602の形状は、正八角形ではなく、長辺及び短辺を有する八角形の形状である。具体的には、グランド部602は横長であり、グランド部602において、突出部304の延伸方向に直交する方向の長さは、突出部304の延伸方向の長さより長い。グランド部602としては、例えば、Poly-Si(多結晶Si)が用いられる。グランド部602は、グランド(GND)電位であり、例えば、ウェルコンタクトとして機能する。
 ここで、図74に示すように、FD部601及びグランド部602のそれぞれの形状が正八角形である場合、スリット312の幅g(図74の上下方向の長さ)は、図75に示すスリット312の幅f(図75の上下方向の長さ)よりも狭い。このような図74において、光学的要因(Qe向上・混色抑制)の観点、あるいは、更なる微細化で、セル領域のセルピッチ(図74の上下方向の長さ)に対してスリット312の幅gの比率が高くされる。例えば、図74に示すスリット312の幅gが広くなると、スリット312の領域(分断部)と、FD部601(例えば、N+拡散層)及びグランド部602(例えば、P+拡散層)が近づく。このため、FD部601及びグランド部602が、スリット312の領域と干渉し、単画素Qsばらつきの増加やFD白点劣化等が生ずることがある。
 そこで、本実施形態では、図73に示すように、FD部601及びグランド部602のそれぞれの形状は、横長の形状にされる。例えば、FD部601及びグランド部602のそれぞれにおいて、突出部304の延伸方向の長さは、突出部304の延伸方向に直交する方向の長さより短い。これにより、FD部601及びグランド部602は、図74に比べ、スリット312の領域(分断部)から離れる。したがって、FD部601及びグランド部602の拡散が、スリット312の領域のポテンシャルに与える影響が抑制されるので、単画素Qsばらつきの増加やFD白点劣化等を抑えることができる。また、各転送ゲート400a、400bの形状、例えば、転送ゲート400a、400bにおけるスリット312側の形状を拡大することが可能となり、転送改善(転送特性の向上)やポテンシャル障壁のばらつきの抑制を実現することができる。
 また、本実施形態においては、グランド部602を以下のように変形することができる。そこで、図75から図78を参照して、グランド部602の詳細構成について説明する。図75から図78は、それぞれ、本実施形態に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。
 図75に示すように、本実施形態においては、グランド部602がセル領域の四隅の二つに設けられている。これらのグランド部602は、隣接する4つのセル領域で共有のグランド部である。図75の例では、セル領域の四隅の左下と右下に設けられている。各グランド部602は、FD部601に対して、セル領域のセルピッチ(図75中の左右方向の長さ)の半分だけずれる。これにより、各グランド部602は、図73や図74に比べ、スリット312の領域からより離れる。したがって、単画素Qsばらつきの増加やFD白点劣化等を確実に抑えることができる。
 また、図76に示すように、本実施形態においては、図75に示すグランド部602が90度回転されて設けられている(他の構成は図75と同様である)。これにより、各グランド部602は、図75に比べ、スリット312の領域からより離れる。したがって、単画素Qsばらつきの増加やFD白点劣化等をより確実に抑えることができる。
 また、図77に示すように、本実施形態においては、図75に示すグランド部602が正八角形に形成されている(他の構成は図75と同様である)。この場合でも、各グランド部602は、図74に比べ、スリット312の領域から離れる。したがって、単画素Qsばらつきの増加やFD白点劣化等を確実に抑えることができる。
 また、図78に示すように、本実施形態においては、図77に示すFD部601が正八角形に形成されており、各転送ゲート400a、400bの形状は図74と同じである(他の構成は図77と同様である)。この場合でも、各グランド部602は、図74に比べ、スリット312の領域から離れる。したがって、単画素Qsばらつきの増加やFD白点劣化等を確実に抑えることができる。
 なお、FD部601及びグランド部602の形状は、同じあっても(図73から図76、図78 参照)、異なってもよい(図77 参照)。また、FD部601又はグランド部602の形状は、長辺及び短辺を有する形状、例えば、上下左右対称な形状であってもよく(図73から図78 参照)、あるいは、上下左右非対称な形状であってもよい。
 また、FD部601及びグランド部602は、アレイ状(例えば、行方向及び列方向に沿ってマトリックス状)に並べられるが、セル領域のセルピッチと同じピッチで並べられてもよく、あるいは、互いに半ピッチずらされて並べられてもよい。
 また、FD部601やグランド部602の形状は、長辺及び短辺を有する八角形の形状以外にも、例えば、他の多角形の形状でもよく、また、楕円形状であってもよい。
 <<16. まとめ>>
 以上説明したように、本開示の各実施形態によれば、位相差検出時には一対の画素300a、300bを分離する要素を設けていることから、また、当該分離する要素に加え、通常撮影時にオーバフローパスとしての機能する要素を設けていることから、位相差検出の精度を向上させつつ、撮像画像の劣化を避けることができる。
 なお、上述した本開示の実施形態においては、裏面照射型CMOSイメージセンサ構造に適用した場合について説明したが、本開示の実施形態はこれに限定されるものではなく、他の構造に適用されてもよい。
 なお、上述した本開示の実施形態においては、第1の導電型をN型とし、第2の導電型をP型とし、電子を信号電荷として用いた撮像素子100について説明したが、本開示の実施形態はこのような例に限定されるものではない。例えば、本実施形態は、第1の導電型をP型とし、第2の導電型をN型とし、正孔を信号電荷として用いる撮像素子100に適用することが可能である。
 また、上述した本開示の実施形態においては、半導体基板10は、必ずしもシリコン基板でなくてもよく、他の基板(例えば、SOI(Silicon On Insulator)基板やSiGe基板など)であっても良い。また、上記半導体基板10は、このような種々の基板上に半導体構造等が形成されたものでも良い。
 さらに、本開示の実施形態に係る撮像装置1は、可視光の入射光量の分布を検知して画像として撮像する撮像装置に限定されるものではない。例えば、本実施形態は、赤外線やX線、あるいは粒子等の入射量の分布を画像として撮像する撮像装置や、圧力や静電容量など、他の物理量の分布を検知して画像として撮像する指紋検出センサ等の撮像装置(物理量分布検知装置)に対して適用することができる。
 また、本開示の実施形態に係る撮像装置1は、一般的な半導体装置の製造に用いられる、方法、装置、及び条件を用いることで製造することが可能である。すなわち、本実施形態に係る撮像装置1は、既存の半導体装置の製造工程を用いて製造することが可能である。
 なお、上述の方法としては、例えば、PVD(Physical Vapor Deposition)法、CVD(Chemical Vapor Deposition)法及びALD(Atomic Layer Deposition)法等を挙げることができる。PVD法としては、真空蒸着法、EB(電子ビーム)蒸着法、各種スパッタリング法(マグネトロンスパッタリング法、RF(Radio Frequency)-DC(Direct Current)結合形バイアススパッタリング法、ECR(Electron Cyclotron Resonance)スパッタリング法、対向ターゲットスパッタリング法、高周波スパッタリング法等)、イオンプレーティング法、レーザーアブレーション法、分子線エピタキシー法(MBE(Molecular Beam Epitaxy)法)、レーザー転写法を挙げることができる。また、CVD法としては、プラズマCVD法、熱CVD法、有機金属(MO)CVD法、光CVD法を挙げることができる。さらに、他の方法としては、電解メッキ法や無電解メッキ法、スピンコート法;浸漬法;キャスト法;マイクロコンタクトプリント法;ドロップキャスト法;スクリーン印刷法やインクジェット印刷法、オフセット印刷法、グラビア印刷法、フレキソ印刷法といった各種印刷法;スタンプ法;スプレー法;エアドクタコーター法、ブレードコーター法、ロッドコーター法、ナイフコーター法、スクイズコーター法、リバースロールコーター法、トランスファーロールコーター法、グラビアコーター法、キスコーター法、キャストコーター法、スプレーコーター法、スリットオリフィスコーター法、カレンダーコーター法といった各種コーティング法を挙げることができる。さらに、パターニング法としては、シャドーマスク、レーザー転写、フォトリソグラフィー等の化学的エッチング、紫外線やレーザー等による物理的エッチング等を挙げることができる。加えて、平坦化技術としては、CMP(Chemical Mechanical Polishing)法、レーザー平坦化法、リフロー法等を挙げることができる。
 なお、上述した本開示の実施形態においては、突出部(分離部の一例)304、324、付加壁(分離部の一例)308、308a、308b、308c、画素分離壁(分離部の一例)334、334aの構造について説明したが、本開示の実施形態に係る構造はこれに限定されるものではない。ここで、各部の構造の各種態様について図79から図84を参照して詳しく説明する。
 図79は、本実施形態(変形例)に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図80は、本実施形態(変形例)に係る構造毎の撮像素子100、すなわち構造毎の半導体基板10の断面の一部を示す説明図であり、詳細には、図79に示すJ-J´線で構造毎の半導体基板10を切断した断面に対応する。
 図79及び図80に示すように、画素分離壁334は、RDTI(裏面DTI)、FDTI(表面DTI)、FFTI(表面FTI:Full Trench Isolation)、RFTI(裏面FTI)、RDTI+FDTIのいずれかの構造に形成されている。これらの構造において、トレンチT3は半導体基板10の厚さ方向に形成される。このトレンチT3には、酸化膜等の材料が埋め込まれる。なお、図80の例では、トレンチT3は半導体基板10の面から内部に向かって広がるテーパー形状に形成されているが、これに限られるものではない。例えば、トレンチT3は、半導体基板10の面に直交(又は略直交)するように真っすぐ形成されてもよい。
 RDTIは、半導体基板10の裏面10a(受光面10a)から半導体基板10の途中までトレンチT3を形成する構造である。FDTIは、半導体基板10の表面10b(受光面10aと反対の面)から半導体基板10の途中までトレンチを形成する構造である。FFTIは、半導体基板10の表面10bから裏面10aまでトレンチT3を貫通させて形成する構造である。RFTIは、半導体基板10の裏面10aから表面10bまでトレンチT3を貫通させて形成する方法である。RDTI+FDTIは、前述のRDTI及びFDTIを組み合わせた方法である。このRDTI+FDTIでは、裏面10aから延びるトレンチT3と表面10bから延びるトレンチT3とが半導体基板10の厚さ方向の中央付近でつながる。
 図81は、本実施形態(変形例)に係る撮像素子100の平面を示す説明図であり、詳細には、撮像素子100を平面方向に沿って切断した断面に対応する。図82は、本実施形態(変形例)に係る構造毎の撮像素子100、すなわち構造毎の半導体基板10の断面の一部を示す説明図であり、詳細には、図81に示すK-K´線で構造毎の半導体基板10を切断した断面に対応する。
 図81及び図82に示すように、突出部304は、前述の画素分離壁334と同様(図80参照)、RDTI、FDTI、FFTI、RFTI、RDTI+FDTIのいずれかの構造に形成されている。これらの構造において、トレンチT3は半導体基板10の厚さ方向に形成される。このとき、トレンチT3は、図82に示すように、突出部304が素子分離壁310と接触して互いに離間しないように形成される。このトレンチT3には、酸化膜等となる材料が埋め込まれる。図82の例では、トレンチT3は半導体基板10の面から内部に向かって広がるテーパー形状に形成されているが、これに限られるものではない。例えば、トレンチT3は、半導体基板10の面に直交(又は略直交)するように真っすぐ形成されてもよい。
 ここで、画素分離壁334としては、図79に示すように、素子分離壁310と非接触である1つの画素分離壁334以外にも、他の構造が用いられてもよい。例えば、図83に示すように、複数の画素分離壁334が、素子分離壁310と非接触になるよう、ドット状に一列に形成されてもよい。図83の例では、画素分離壁334の数は6個であるが、その数は限定されるものではない。また、図84に示すように、画素分離壁334が、その両端が素子分離壁310に接触するように形成されてもよい。なお、図79、図83及び図84の例では、画素分離壁334は列方向に形成されているが、これに限られるものではなく、例えば、行方向に形成されてもよい。
 また、前述の画素分離壁334や突出部304だけではなく、前述の各実施形態に係る第2の突出部324や画素分離壁334a、付加壁308、308a、308b、308cに前述のRDTI、FDTI、FFTI、RFTI、RDTI+FDTIの構造を適用することが可能である。
 なお、上述した本開示の実施形態においては、一層のCMOSイメージセンサ構造に適用した場合について説明したが、本開示の実施形態はこれに限定されるものではなく、積層型のCMOSイメージセンサ(CIS)構造等の他の構造に適用されてもよい。例えば、図85から図87に示すように、2層積層CIS、3層積層CIS、2段画素CIS等に本開示の実施形態が適用されもよい。2段画素CISへの適用は一例であり、1段画素への適用も可能である。ここで、2層積層CIS、3層積層CIS、2段画素CISの構造について図85から図87を参照して詳しく説明する。
 (2層積層CIS)
 図85に、本開示の実施形態が適用可能な2層積層型構造の一例を示す。図85は、本開示の実施形態に係る撮像装置1が適用可能な2層積層型構造の断面を示す説明図である。
 図85で示される構造においては、撮像装置1は、第1の半導体基板31に形成する1つの貫通接続導体84によって、第1の半導体基板31側の画素領域(画素アレイ部20)及び制御回路部25と、第2の半導体基板45側のロジック回路(図示省略)とを電気的に接続して構成される。すなわち、図85の例では、第1の半導体基板31と第2の半導体基板45とが積層され、これらの半導体基板31、45とは、貫通接続導体84によって電気的に接続される。詳細には、第1の半導体基板の裏面31b側から第1の半導体基板31を貫通して第2の半導体基板45の最上層の配線53に達し、且つ、第1の半導体基板31の最上層の配線40に達する貫通接続孔85を形成する。貫通接続孔85の内壁面に絶縁膜63を形成した後、貫通接続孔85内に、上記画素領域及び制御回路部25側の配線40と、ロジック回路側の配線53を接続する貫通接続導体84を埋め込む。図85では、貫通接続導体84が最上層の配線40と接続されるので、この接続される最上層の配線40が接続端となるように各層の配線40が相互に接続される。
 図85に示す構造では、第1の半導体基板31の半導体ウェル領域32には、各画素の光電変換部となるフォトダイオード(PD)が形成されている。さらに、当該半導体ウェル領域32に各画素トランジスタのソース/ドレイン領域33が形成されている。半導体ウェル領域32は、例えばp型の不純物を導入して形成され、ソース/ドレイン領域33は、例えばn型の不純物を導入して形成される。具体的には、フォトダイオード(PD)及び各画素トランジスタのソース/ドレイン領域33は、基板表面からのイオン注入により形成される。
 また、フォトダイオード(PD)は、n型半導体領域34と基板表面側のp型半導体領域35を有する。画素を構成する基板表面上にはゲート絶縁膜を介してゲート電極36が形成され、ゲート電極36と対のソース/ドレイン領域33により画素トランジスタTr1、Tr2が形成される。例えば、フォトダイオード(PD)に隣接する画素トランジスタTr1が転送トランジスタに相当し、そのソース/ドレイン領域がフローティングディフュージョン(FD)に相当する。各単位画素は、素子分離領域38で分離される。
 また、第1の半導体基板31には、制御回路を構成する各MOSトランジスタTr3、Tr4が形成されている。MOSトランジスタTr3、Tr4は、n型のソース/ドレイン領域33と、ゲート絶縁膜を介して形成したゲート電極36とにより形成される。さらに、第1の半導体基板31の表面上には、1層目の層間絶縁膜39が形成され、当該層間絶縁膜39内に、所要のトランジスタに接続する接続導体44が形成される。加えて、各接続導体44に接続するように、層間絶縁膜39を介して複数層の配線40により、多層配線層41を形成される。
 また、図85に示されるように、第2の半導体基板45の表面側のp型の半導体ウェル領域46には、素子分離領域50で分離されたロジック回路を構成する複数のMOSトランジスタが形成されている。各MOSトランジスタTr6、Tr7、Tr8は、それぞれ1対のn型のソース/ドレイン領域47と、ゲート絶縁膜を介して形成したゲート電極48を有する。また、第2の半導体基板45の表面上には、1層目の層間絶縁膜49を形成され、当該層間絶縁膜49内には、所要のトランジスタに接続する接続導体54を形成されている。さらに層間絶縁膜49の表面から第2の半導体基板45内の所望の深さまで貫通する接続導体51が設けられている。さらに、接続導体51と半導体基板45とを絶縁するための絶縁膜52が設けられている。
 また、各接続導体54及び電極取り出し用の接続導体51に接続するように、層間絶縁膜49内に複数層の配線53を設けることにより、多層配線層55を形成する。
 さらに、図85に示すように、第1の半導体基板31と第2の半導体基板45とは、互いの多層配線層41及び55が向き合うように、貼り合わされている。
 また、図85に示すように、平坦化膜73上に各画素に対応して例えば赤(R)、緑(G)、青(B)のオンチップカラーフィルタ74が設けられ、その上にはオンチップマイクロレンズ75が設けられる。
 一方、第2の半導体基板45側では、接続導体51に対応する開口77が設けられ、開口77を通じて接続導体51に電気的に接続した球状をなす電極バンプ78が設けられる。
 (3層積層CIS)
 図86に、本開示の実施形態が適用可能な3層積層型構造の一例を示す。図86は、本開示の実施形態に係る撮像装置1が適用可能な3層積層型構造の断面を示す説明図である。
 図86に示される構造においては、撮像装置1は、第1の半導体基板211と、第2の半導体基板212と、第3の半導体基板213とが積層され、3層積層構造をなす。詳細には、図86に示される構造においては、例えば、センサ回路が形成された第1の半導体基板211、ロジック回路が形成された第2の半導体基板212に加えて、メモリ回路が形成された第3の半導体基板213からなる。なお、ロジック回路及びメモリ回路は、それぞれ外部との信号の入出力を伴って動作するように構成されている。
 図86に示されるように、第1の半導体基板211には、画素の光電変換部となるフォトダイオード(PD)234が形成され、その半導体ウェル領域に各画素トランジスタのソース/ドレイン領域が形成される。さらに、第1の半導体基板211の基板表面上にはゲート絶縁膜を介してゲート電極が形成され、ゲート電極と対のソース/ドレイン領域により画素トランジスタTr1、画素トランジスタTr2が設けられている。詳細には、フォトダイオード(PD)234に隣接する画素トランジスタTr1が転送トランジスタに相当し、そのソース/ドレイン領域がフローティングディフュージョン(FD)に相当する。また、第1の半導体基板211には、層間絶縁膜(図示省略)が設けられ、層間絶縁膜内には、画素トランジスタTr1、Tr2に接続する接続導体244が設けられている。
 さらに、第1の半導体基板211には、第2の半導体基板212との電気的接続に用いられるコンタクト265が設けられている。コンタクト265は、後述する第2の半導体基板212のコンタクト311に接続されるとともに、第1の半導体基板211のパッド280aにも接続されている。
 一方、第2の半導体基板212には、ロジック回路が形成されている。詳細には、第2の半導体基板212のp型の半導体ウェル領域(図示省略)に、ロジック回路を構成する複数のトランジスタである、MOSトランジスタTr6、MOSトランジスタTr7、及びMOSトランジスタTr8が形成されている。また、第2の半導体基板212においては、MOSトランジスタTr6、MOSトランジスタTr7、及びMOSトランジスタTr8に接続する接続導体254が形成されている。
 さらに、第2の半導体基板212には、第1の半導体基板211及び第3の半導体基板213との電気的接続に用いられるコンタクト311が形成されている。コンタクト311は、第1の半導体基板211のコンタクト265に接続されるとともに、第3の半導体基板213のパッド330aにも接続されている。
 さらに、第3の半導体基板213には、メモリ回路が形成される。詳細には、第3の半導体基板213のp型の半導体ウェル領域(図示省略)に、メモリ回路を構成する複数のトランジスタである、MOSトランジスタTr11、MOSトランジスタTr12、及びMOSトランジスタTr13が形成されている。
 さらに、第3の半導体基板213においては、MOSトランジスタTr11,MOSトランジスタTr12、及びMOSトランジスタTr13に接続する接続導体344が形成されている。
 (2段画素CIS)
 図87に、本開示の実施形態が適用可能な2段画素構造の一例を示す。図87は、本開示の実施形態に係る撮像装置1が適用可能な2段画素構造の断面を示す説明図である。
 図87に示される構造においては、第1基板80は、半導体基板11上に絶縁層86を積層して構成されている。第1基板80は、層間絶縁膜87の一部として、絶縁層86を有している。絶縁層86は、半導体基板11と、後述の半導体基板21Aとの間隙に設けられている。第1基板80は、フォトダイオードPD(83)、転送トランジスタTRおよびフローティングディフュージョンFDを有している。第1基板80は、半導体基板11の表面側(光入射面側とは反対側、第2基板20A側)の部分に、転送トランジスタTRおよびフローティングディフュージョンFDが設けられた構成となっている。
 図87に示される構造においては、転送トランジスタTRが、平面型の転送ゲートTGを有している。しかしながら、このような構成に限定されるものではなく、転送ゲートTGは、ウェル層42を貫通する縦型の転送ゲートであってもよい。
 第2基板20Aは、半導体基板21A上に絶縁層88を積層して構成されている。第2基板20Aは、層間絶縁膜87の一部として、絶縁層88を有している。絶縁層88は、半導体基板21Aと、半導体基板81との間隙に設けられている。第2基板20Aは、読み出し回路22Aを有している。詳細には、第2基板20Aは、半導体基板21Aの表面側(第3基板30側)の部分に読み出し回路22Aが設けられた構成となっている。第2基板20Aは、半導体基板11の表面側に半導体基板21Aの裏面を向けて第1基板80に貼り合わされている。つまり、第2基板20Aは、第1基板80に、フェイストゥーバックで貼り合わされている。第2基板20Aは、さらに、半導体基板21Aと同一の層内に、半導体基板21Aを貫通する絶縁層89を有している。第2基板20Aは、層間絶縁膜87の一部として、絶縁層89を有している。
 第1基板80および第2基板20Aからなる積層体は、層間絶縁膜87と、層間絶縁膜87内に設けられた貫通配線90を有している。具体的には、貫通配線90は、フローティングディフュージョンFDおよび後述の接続配線91に電気的に接続されている。第2基板20Aは、さらに、例えば、絶縁層88上に配線層56を有している。
 配線層56は、さらに、例えば、絶縁層57内に複数のパッド電極58を有している。各パッド電極58は、例えば、Cu(銅)、Al(アルミニウム)等の金属で形成されている。各パッド電極58は、配線層56の表面に露出している。各パッド電極58は、第2基板20Aと第3基板30との電気的な接続と、第2基板20Aと第3基板30との貼り合わせに用いられる。
 第3基板30は、例えば、半導体基板81上に層間絶縁膜61を積層して構成されている。なお、第3基板30は、後述するように、第2基板20Aに、表面側の面同士で貼り合わされている。第3基板30は、半導体基板81の表面側の部分にロジック回路82が設けられた構成となっている。第3基板30は、さらに、例えば、層間絶縁膜61上に配線層62を有している。配線層62は、例えば、絶縁層92と、絶縁層92内に設けられた複数のパッド電極64を有している。複数のパッド電極64は、ロジック回路82と電気的に接続されている。各パッド電極64は、例えば、Cu(銅)で形成されている。各パッド電極64は、配線層62の表面に露出している。各パッド電極64は、第2基板20Aと第3基板30との電気的な接続と、第2基板20Aと第3基板30との貼り合わせに用いられる。
 なお、本開示の技術を一段画素(通常のCIS)に適用した場合、一例として、図88に示すように、撮像素子100において、各転送ゲート400a、400b以外のトランジスタ(例えば、CMOSトランジスタ)を2つの画素トランジスタ領域Ra、Rbに配置することも可能である。フローティングディフュージョンFDは、転送ゲート400a、400bに隣接する位置に設けられている。図88の例では、各画素トランジスタ領域Ra、Rbは、各画素300a及び300bを含む画素領域Rcを挟むように形成されている。図88中の左側の画素トランジスタ領域Raには、選択トランジスタSEL及び増幅トランジスタAMPが配置されており、図88中の右側の画素トランジスタ領域Rbには、リセットトランジスタRSTが配置されている。図88に係る画素共有方式やトランジスタの配置、フォトダイオードの埋込構造等はあくまでも一例であり、これに限定されるものではない。
 また、図88に示す撮像素子100を図89に示すように配置し(繰り返し配置)、各撮像素子100の個々の画素トランジスタ領域Ra、Rbに、選択トランジスタSEL、増幅トランジスタAMP、リセットトランジスタRST、FD転送トランジスタFDGが一つずつ配置されてもよい。FD転送トランジスタFDGは、変換効率を切り替える際に用いられる。各トランジスタの配置は、各画素トランジスタ領域Ra、Rbに対して均等であってもよく、不均等であってもよい。例えば、4つの撮像素子100に対して増幅トランジスタAMPを複数配置してもよく、それらの増幅トランジスタAMPを並列に配置することも可能である。
 <<17. カメラへの応用例>>
 本開示に係る技術(本技術)は、さらに様々な製品へ応用することができる。例えば、本開示に係る技術は、カメラ等に適用されてもよい。そこで、図90を参照して、本技術を適用した電子機器としての、カメラ700の構成例について説明する。図90は、本開示に係る技術(本技術)が適用され得るカメラ700の概略的な機能構成の一例を示す説明図である。
 図90に示すように、カメラ700は、撮像装置702、光学レンズ710、シャッタ機構712、駆動回路ユニット714、及び、信号処理回路ユニット716を有する。光学レンズ710は、被写体からの像光(入射光)を撮像装置702の撮像面上に結像させる。これにより、撮像装置702の撮像素子100内に、一定期間、信号電荷が蓄積される。シャッタ機構712は、開閉することにより、撮像装置702への光照射期間及び遮光期間を制御する。駆動回路ユニット714は、撮像装置702の信号の転送動作やシャッタ機構712のシャッタ動作等を制御する駆動信号をこれらに供給する。すなわち、撮像装置702は、駆動回路ユニット714から供給される駆動信号(タイミング信号)に基づいて信号転送を行うこととなる。信号処理回路ユニット716は、各種の信号処理を行う。例えば、信号処理回路ユニット716は、信号処理を行った映像信号を例えばメモリ等の記憶媒体(図示省略)に出力したり、表示部(図示省略)に出力したりする。
 <<18. スマートフォンへの応用例>>
 本開示に係る技術(本技術)は、さらに様々な製品へ応用することができる。例えば、本開示に係る技術は、スマートフォン等に適用されてもよい。そこで、図91を参照して、本技術を適用した電子機器としての、スマートフォン900の構成例について説明する。図91は、本開示に係る技術(本技術)が適用され得るスマートフォン900の概略的な機能構成の一例を示すブロック図である。
 図91に示すように、スマートフォン900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、及びRAM(Random Access Memory)903を含む。また、スマートフォン900は、ストレージ装置904、通信モジュール905、及びセンサモジュール907を含む。さらに、スマートフォン900は、撮像装置909、表示装置910、スピーカ911、マイクロフォン912、入力装置913、及びバス914を含む。また、スマートフォン900は、CPU901に代えて、又はこれとともに、DSP(Digital Signal Processor)等の処理回路を有してもよい。
 CPU901は、演算処理装置及び制御装置として機能し、ROM902、RAM903、又はストレージ装置904等に記録された各種プログラムに従って、スマートフォン900内の動作全般又はその一部を制御する。ROM902は、CPU901が使用するプログラムや演算パラメータなどを記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一次記憶する。CPU901、ROM902、及びRAM903は、バス914により相互に接続されている。また、ストレージ装置904は、スマートフォン900の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置904は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス等により構成される。このストレージ装置904は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種のデータ等を格納する。
 通信モジュール905は、例えば、通信ネットワーク906に接続するための通信デバイスなどで構成された通信インタフェースである。通信モジュール905は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、WUSB(Wireless USB)用の通信カード等であり得る。また、通信モジュール905は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。通信モジュール905は、例えば、インターネットや他の通信機器との間で、TCP(Transmission Control Protocol)/IP(Internet Protocol)等の所定のプロトコルを用いて信号等を送受信する。また、通信モジュール905に接続される通信ネットワーク906は、有線又は無線によって接続されたネットワークであり、例えば、インターネット、家庭内LAN、赤外線通信又は衛星通信等である。
 センサモジュール907は、例えば、モーションセンサ(例えば、加速度センサ、ジャイロセンサ、地磁気センサ等)、生体情報センサ(例えば、脈拍センサ、血圧センサ、指紋センサ等)、又は位置センサ(例えば、GNSS(Global Navigation Satellite System)受信機等)等の各種のセンサを含む。
 撮像装置909は、スマートフォン900の表面に設けられ、スマートフォン900の裏側又は表側に位置する対象物等を撮像することができる。詳細には、撮像装置909は、本開示に係る技術(本技術)が適用され得るCMOS(Complementary MOS)イメージセンサ等の撮像素子(図示省略)と、撮像素子で光電変換された信号に対して撮像信号処理を施す信号処理回路(図示省略)とを含んで構成することができる。さらに、撮像装置909は、撮像レンズ、ズームレンズ、及びフォーカスレンズ等により構成される光学系機構(図示省略)及び、上記光学系機構の動作を制御する駆動系機構(図示省略)をさらに有することができる。そして、上記撮像素子は、対象物からの入射光を光学像として集光し、上記信号処理回路は、結像された光学像を画素単位で光電変換し、各画素の信号を撮像信号として読み出し、画像処理することにより撮像画像を取得することができる。
 表示装置910は、スマートフォン900の表面に設けられ、例えば、LCD(Liquid Crystal Display)、有機EL(Electro Luminescence)ディスプレイ等の表示装置であることができる。表示装置910は、操作画面や、上述した撮像装置909が取得した撮像画像などを表示することができる。
 スピーカ911は、例えば、通話音声や、上述した表示装置910が表示する映像コンテンツに付随する音声等を、ユーザに向けて出力することができる。
 マイクロフォン912は、例えば、ユーザの通話音声、スマートフォン900の機能を起動するコマンドを含む音声や、スマートフォン900の周囲環境の音声を集音することができる。
 入力装置913は、例えば、ボタン、キーボード、タッチパネル、マウス等、ユーザによって操作される装置である。入力装置913は、ユーザが入力した情報に基づいて入力信号を生成してCPU901に出力する入力制御回路を含む。ユーザは、この入力装置913を操作することによって、スマートフォン900に対して各種のデータを入力したり処理動作を指示したりすることができる。
 以上、スマートフォン900の構成例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。かかる構成は、実施する時々の技術レベルに応じて適宜変更され得る。
 <<19. 内視鏡手術システムへの応用例>>
 本開示に係る技術(本技術)は、さらに様々な製品へ応用することができる。例えば、本開示に係る技術は、内視鏡手術システムに適用されてもよい。
 図92は、本開示に係る技術(本技術)が適用され得る内視鏡手術システムの概略的な構成の一例を示す図である。
 図92では、術者(医師)11131が、内視鏡手術システム11000を用いて、患者ベッド11133上の患者11132に手術を行っている様子が図示されている。図示するように、内視鏡手術システム11000は、内視鏡11100と、気腹チューブ11111やエネルギー処置具11112等の、その他の術具11110と、内視鏡11100を支持する支持アーム装置11120と、内視鏡下手術のための各種の装置が搭載されたカート11200と、から構成される。
 内視鏡11100は、先端から所定の長さの領域が患者11132の体腔内に挿入される鏡筒11101と、鏡筒11101の基端に接続されるカメラヘッド11102と、から構成される。図示する例では、硬性の鏡筒11101を有するいわゆる硬性鏡として構成される内視鏡11100を図示しているが、内視鏡11100は、軟性の鏡筒を有するいわゆる軟性鏡として構成されてもよい。
 鏡筒11101の先端には、対物レンズが嵌め込まれた開口部が設けられている。内視鏡11100には光源装置11203が接続されており、当該光源装置11203によって生成された光が、鏡筒11101の内部に延設されるライトガイドによって当該鏡筒の先端まで導光され、対物レンズを介して患者11132の体腔内の観察対象に向かって照射される。なお、内視鏡11100は、直視鏡であってもよいし、斜視鏡又は側視鏡であってもよい。
 カメラヘッド11102の内部には光学系及び撮像素子が設けられており、観察対象からの反射光(観察光)は当該光学系によって当該撮像素子に集光される。当該撮像素子によって観察光が光電変換され、観察光に対応する電気信号、すなわち観察像に対応する画像信号が生成される。当該画像信号は、RAWデータとしてカメラコントロールユニット(CCU: Camera Control Unit)11201に送信される。
 CCU11201は、CPU(Central Processing Unit)やGPU(Graphics Processing Unit)等によって構成され、内視鏡11100及び表示装置11202の動作を統括的に制御する。さらに、CCU11201は、カメラヘッド11102から画像信号を受け取り、その画像信号に対して、例えば現像処理(デモザイク処理)等の、当該画像信号に基づく画像を表示するための各種の画像処理を施す。
 表示装置11202は、CCU11201からの制御により、当該CCU11201によって画像処理が施された画像信号に基づく画像を表示する。
 光源装置11203は、例えばLED(Light Emitting Diode)等の光源から構成され、術部等を撮影する際の照射光を内視鏡11100に供給する。
 入力装置11204は、内視鏡手術システム11000に対する入力インタフェースである。ユーザは、入力装置11204を介して、内視鏡手術システム11000に対して各種の情報の入力や指示入力を行うことができる。例えば、ユーザは、内視鏡11100による撮像条件(照射光の種類、倍率及び焦点距離等)を変更する旨の指示等を入力する。
 処置具制御装置11205は、組織の焼灼、切開又は血管の封止等のためのエネルギー処置具11112の駆動を制御する。気腹装置11206は、内視鏡11100による視野の確保及び術者の作業空間の確保の目的で、患者11132の体腔を膨らめるために、気腹チューブ11111を介して当該体腔内にガスを送り込む。レコーダ11207は、手術に関する各種の情報を記録可能な装置である。プリンタ11208は、手術に関する各種の情報を、テキスト、画像又はグラフ等各種の形式で印刷可能な装置である。
 なお、内視鏡11100に術部を撮影する際の照射光を供給する光源装置11203は、例えばLED、レーザー光源又はこれらの組み合わせによって構成される白色光源から構成することができる。RGBレーザー光源の組み合わせにより白色光源が構成される場合には、各色(各波長)の出力強度及び出力タイミングを高精度に制御することができるため、光源装置11203において撮像画像のホワイトバランスの調整を行うことができる。また、この場合には、RGBレーザー光源それぞれからのレーザー光を時分割で観察対象に照射し、その照射タイミングに同期してカメラヘッド11102の撮像素子の駆動を制御することにより、RGBそれぞれに対応した画像を時分割で撮像することも可能である。当該方法によれば、当該撮像素子にカラーフィルタを設けなくても、カラー画像を得ることができる。
 また、光源装置11203は、出力する光の強度を所定の時間ごとに変更するようにその駆動が制御されてもよい。その光の強度の変更のタイミングに同期してカメラヘッド11102の撮像素子の駆動を制御して時分割で画像を取得し、その画像を合成することにより、いわゆる黒つぶれ及び白とびのない高ダイナミックレンジの画像を生成することができる。
 また、光源装置11203は、特殊光観察に対応した所定の波長帯域の光を供給可能に構成されてもよい。特殊光観察では、例えば、体組織における光の吸収の波長依存性を利用して、通常の観察時における照射光(すなわち、白色光)に比べて狭帯域の光を照射することにより、粘膜表層の血管等の所定の組織を高コントラストで撮影する、いわゆる狭帯域光観察(Narrow Band Imaging)が行われる。あるいは、特殊光観察では、励起光を照射することにより発生する蛍光により画像を得る蛍光観察が行われてもよい。蛍光観察では、体組織に励起光を照射し当該体組織からの蛍光を観察すること(自家蛍光観察)、又はインドシアニングリーン(ICG)等の試薬を体組織に局注するとともに当該体組織にその試薬の蛍光波長に対応した励起光を照射し蛍光像を得ること等を行うことができる。光源装置11203は、このような特殊光観察に対応した狭帯域光及び/又は励起光を供給可能に構成され得る。
 図93は、図92に示すカメラヘッド11102及びCCU11201の機能構成の一例を示すブロック図である。
 カメラヘッド11102は、レンズユニット11401と、撮像部11402と、駆動部11403と、通信部11404と、カメラヘッド制御部11405と、を有する。CCU11201は、通信部11411と、画像処理部11412と、制御部11413と、を有する。カメラヘッド11102とCCU11201とは、伝送ケーブル11400によって互いに通信可能に接続されている。
 レンズユニット11401は、鏡筒11101との接続部に設けられる光学系である。鏡筒11101の先端から取り込まれた観察光は、カメラヘッド11102まで導光され、当該レンズユニット11401に入射する。レンズユニット11401は、ズームレンズ及びフォーカスレンズを含む複数のレンズが組み合わされて構成される。
 撮像部11402は、撮像素子で構成される。撮像部11402を構成する撮像素子は、1つ(いわゆる単板式)であってもよいし、複数(いわゆる多板式)であってもよい。撮像部11402が多板式で構成される場合には、例えば各撮像素子によってRGBそれぞれに対応する画像信号が生成され、それらが合成されることによりカラー画像が得られてもよい。あるいは、撮像部11402は、3D(Dimensional)表示に対応する右目用及び左目用の画像信号をそれぞれ取得するための1対の撮像素子を有するように構成されてもよい。3D表示が行われることにより、術者11131は術部における生体組織の奥行きをより正確に把握することが可能になる。なお、撮像部11402が多板式で構成される場合には、各撮像素子に対応して、レンズユニット11401も複数系統設けられ得る。
 また、撮像部11402は、必ずしもカメラヘッド11102に設けられなくてもよい。例えば、撮像部11402は、鏡筒11101の内部に、対物レンズの直後に設けられてもよい。
 駆動部11403は、アクチュエータによって構成され、カメラヘッド制御部11405からの制御により、レンズユニット11401のズームレンズ及びフォーカスレンズを光軸に沿って所定の距離だけ移動させる。これにより、撮像部11402による撮像画像の倍率及び焦点が適宜調整され得る。
 通信部11404は、CCU11201との間で各種の情報を送受信するための通信装置によって構成される。通信部11404は、撮像部11402から得た画像信号をRAWデータとして伝送ケーブル11400を介してCCU11201に送信する。
 また、通信部11404は、CCU11201から、カメラヘッド11102の駆動を制御するための制御信号を受信し、カメラヘッド制御部11405に供給する。当該制御信号には、例えば、撮像画像のフレームレートを指定する旨の情報、撮像時の露出値を指定する旨の情報、並びに/又は撮像画像の倍率及び焦点を指定する旨の情報等、撮像条件に関する情報が含まれる。
 なお、上記のフレームレートや露出値、倍率、焦点等の撮像条件は、ユーザによって適宜指定されてもよいし、取得された画像信号に基づいてCCU11201の制御部11413によって自動的に設定されてもよい。後者の場合には、いわゆるAE(Auto Exposure)機能、AF(Auto Focus)機能及びAWB(Auto White Balance)機能が内視鏡11100に搭載されていることになる。
 カメラヘッド制御部11405は、通信部11404を介して受信したCCU11201からの制御信号に基づいて、カメラヘッド11102の駆動を制御する。
 通信部11411は、カメラヘッド11102との間で各種の情報を送受信するための通信装置によって構成される。通信部11411は、カメラヘッド11102から、伝送ケーブル11400を介して送信される画像信号を受信する。
 また、通信部11411は、カメラヘッド11102に対して、カメラヘッド11102の駆動を制御するための制御信号を送信する。画像信号や制御信号は、電気通信や光通信等によって送信することができる。
 画像処理部11412は、カメラヘッド11102から送信されたRAWデータである画像信号に対して各種の画像処理を施す。
 制御部11413は、内視鏡11100による術部等の撮像、及び、術部等の撮像により得られる撮像画像の表示に関する各種の制御を行う。例えば、制御部11413は、カメラヘッド11102の駆動を制御するための制御信号を生成する。
 また、制御部11413は、画像処理部11412によって画像処理が施された画像信号に基づいて、術部等が映った撮像画像を表示装置11202に表示させる。この際、制御部11413は、各種の画像認識技術を用いて撮像画像内における各種の物体を認識してもよい。例えば、制御部11413は、撮像画像に含まれる物体のエッジの形状や色等を検出することにより、鉗子等の術具、特定の生体部位、出血、エネルギー処置具11112の使用時のミスト等を認識することができる。制御部11413は、表示装置11202に撮像画像を表示させる際に、その認識結果を用いて、各種の手術支援情報を当該術部の画像に重畳表示させてもよい。手術支援情報が重畳表示され、術者11131に提示されることにより、術者11131の負担を軽減することや、術者11131が確実に手術を進めることが可能になる。
 カメラヘッド11102及びCCU11201を接続する伝送ケーブル11400は、電気信号の通信に対応した電気信号ケーブル、光通信に対応した光ファイバ、又はこれらの複合ケーブルである。
 ここで、図示する例では、伝送ケーブル11400を用いて有線で通信が行われていたが、カメラヘッド11102とCCU11201との間の通信は無線で行われてもよい。
 以上、本開示に係る技術が適用され得る内視鏡手術システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、内視鏡11100や、カメラヘッド11102(の撮像部11402)、CCU11201(の画像処理部11412)等)に適用され得る。
 なお、ここでは、一例として内視鏡手術システムについて説明したが、本開示に係る技術は、その他、例えば、顕微鏡手術システム等に適用されてもよい。
 <<20. 移動体への応用例>>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図94は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図94に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図94の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図95は、撮像部12031の設置位置の例を示す図である。
 図95では、車両12100は、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。撮像部12101及び12105で取得される前方の画像は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図95には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031等に適用され得る。
 <<21. 補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 半導体基板と、
 前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備え、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
 前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、
 前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
 前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部と、
 を有し、
 前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、
 前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、
 撮像装置。
(2)
 前記第1の分離部は、2つ設けられ、
 2つの前記第1の分離部は、前記受光面の上方から見た場合、前記複数の画素を分離するようにそれぞれ延伸し、互いに向かい合う、
 前記第1の拡散領域は、前記2つの第1の分離部の間の領域に設けられる、
 上記(1)に記載の撮像装置。
(3)
 前記2つの第1の分離部の間の領域には、前記複数の画素の間で飽和電荷をやり取りするオーバフローパスが設けられる、
 上記(2)に記載の撮像装置。
(4)
 前記2つの第1の分離部のそれぞれは、前記半導体基板の厚み方向に沿って、前記半導体基板を貫通するように設けられる、
 上記(2)又は(3)に記載の撮像装置。
(5)
 前記2つの第1の分離部のそれぞれは、前記半導体基板の厚み方向に沿って、前記半導体基板の前記受光面又は前記半導体基板における前記受光面の反対側の面から、前記半導体基板の途中まで延伸するように設けられる、
 上記(2)又は(3)に記載の撮像装置。
(6)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記撮像素子の中心に向かって前記素子分離壁から突出し、互いに向かい合う、
 上記(2)から(5)のいずれか一つに記載の撮像装置。
(7)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記列方向に沿って前記素子分離壁から突出する、
 上記(2)から(6)のいずれか一つに記載の撮像装置。
(8)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記行方向において、前記撮像素子の中心に位置するように設けられている、
 上記(7)に記載の撮像装置。
(9)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記行方向において、前記撮像素子の中心から所定の距離だけずれた位置に設けられている、
 上記(7)に記載の撮像装置。
(10)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記行方向に沿って前記素子分離壁から突出する、
 上記(2)から(6)のいずれか一つに記載の撮像装置。
(11)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記列方向において、前記撮像素子の中心に位置するように設けられている、
 上記(10)に記載の撮像装置。
(12)
 前記2つの第1の分離部は、前記受光面の上方から見た場合、前記列方向において、前記撮像素子の中心から所定の距離だけずれた位置に設けられている、
 上記(10)に記載の撮像装置。
(13)
 前記受光面の上方から見た場合、前記2つの第1の分離部の長さは同一である、
 上記(2)から(12)のいずれか一つに記載の撮像装置。
(14)
 前記受光面の上方から見た場合、前記2つの第1の分離部の長さは互いに異なる、
 上記(2)から(12)のいずれか一つに記載の撮像装置。
(15)
 前記受光面の上方から見た場合、前記2つの第1の分離部の個々が延伸する方向と異なる方向に沿ってそれぞれ延伸し、互いに向かい合う2つの第2の分離部をさらに有し、
 前記2つの第2の分離部のそれぞれは、前記半導体基板の厚み方向に延伸するように設けられ、
 前記2つの第2の分離部の間の領域には、前記第2の導電型の不純物を含む第2の拡散領域が設けられる、
 上記(2)から(14)のいずれか一つに記載の撮像装置。
(16)
 前記2つの第1の分離部の間に設けられた1つ又は複数の付加壁を有する、
 上記(2)から(15)のいずれか一つに記載の撮像装置。
(17)
 前記付加壁は、前記半導体基板を貫通するように設けられる、
 上記(16)に記載の撮像装置。
(18)
 前記付加壁は、前記半導体基板の厚み方向に沿って、前記受光面から、前記半導体基板の途中まで延伸するように設けられる、
 上記(16)に記載の撮像装置。
(19)
 前記付加壁は、前記半導体基板の厚み方向に沿って、前記半導体基板における前記受光面の反対側の面から、前記半導体基板の途中まで延伸するように設けられる、
 上記(16)に記載の撮像装置。
(20)
 前記付加壁の前記厚み方向の長さは、前記受光面に入射する入射光の波長に応じて決定されている、
 上記(19)に記載の撮像装置。
(21)
 前記受光面の上方から見た場合、前記付加壁の中央部の幅は前記付加壁の両端部の幅よりも狭い、
 上記(19)又は(20)に記載の撮像装置。
(22)
 前記付加壁の中央部の前記厚み方向の長さは、前記付加壁の両端部の前記厚み方向の長さよりも短い、
 上記(19)から(21)のいずれか一つに記載の撮像装置。
(23)
 前記受光面の上方から見た場合、前記2つの第1の分離部の両方又は一方の幅は前記付加壁の幅よりも狭い、
 上記(19)から(22)のいずれか一つに記載の撮像装置。
(24)
 前記2つの第1の分離部は、前記半導体基板の厚み方向に沿って、前記半導体基板における前記受光面の反対側の面から、前記半導体基板の途中まで延伸するように設けられる、
 上記(19)から(23)のいずれか一つに記載の撮像装置。
(25)
 前記付加壁の前記厚み方向の長さは、前記2つの第1の分離部の両方又は一方の前記厚み方向の長さよりも短い、
 上記(24)に記載の撮像装置。
(26)
 前記素子分離壁と前記2つの第1の分離部とは、同一の材料からなる、
 上記(2)から(25)のいずれか一つに記載の撮像装置。
(27)
 前記素子分離壁と前記2つの第1の分離部とは、互いに異なる材料からなる、
 上記(2)から(25)のいずれか一つに記載の撮像装置。
(28)
 前記2つの第1の突出部は、酸化チタンからなる、
 上記(2)から(25)のいずれか一つに記載の撮像装置。
(29)
 前記複数の撮像素子は、前記受光面の上方から見た場合、前記素子分離壁上に、前記素子分離壁に沿って設けられた遮光膜をさらに有する、
 上記(2)から(28)のいずれか一つに記載の撮像装置。
(30)
 前記遮光膜は、前記2つの第1の分離部に沿って設けられる、
 上記(29)に記載の撮像装置。
(31)
 前記第1の拡散領域は、前記受光面から前記半導体基板の内部に向けて広がり前記半導体基板の内部から前記半導体基板における前記受光面の反対側の面に向けて狭くなる形状に形成されている、
 上記(2)から(30)のいずれか一つに記載の撮像装置。
(32)
 前記第1の拡散領域は、
 前記受光面から前記半導体基板の内部に向けて広がる第1の領域と、
 前記半導体基板の内部から前記半導体基板における前記受光面の反対側の面に向けて狭くなる第2の領域と、
 を有する、
 上記(31)に記載の撮像装置。
(33)
 前記第1の領域及び前記第2の領域は離間している、
 上記(32)に記載の撮像装置。
(34)
 前記第1の領域及び前記第2の領域のそれぞれの前記厚み方向の長さは異なっている、
 上記(32)又は(33)に記載の撮像装置。
(35)
 前記第1の領域の前記厚み方向の長さは、前記第2の領域の前記厚み方向の長さより長くなっている、
 上記(34)に記載の撮像装置。
(36)
 前記第1の領域及び前記第2の領域のそれぞれの前記厚み方向に直交する方向の長さは異なっている、
 上記(32)から(35)のいずれか一つに記載の撮像装置。
(37)
 前記第1の領域の前記厚み方向に直交する方向の長さは、前記第2の領域の前記厚み方向に直交する方向の長さより短くなっている、
 上記(36)に記載の撮像装置。
(38)
 前記第1の領域及び前記第2の領域のそれぞれの前記不純物の濃度は異なっている、
 上記(32)から(37)のいずれか一つに記載の撮像装置。
(39)
 前記第1の領域の前記不純物の濃度は、前記第1の領域の前記不純物の濃度より薄くなっている、
 上記(38)に記載の撮像装置。
(40)
 前記第1の拡散領域は、前記2つの第1の分離部と少なくとも1つの前記付加壁との間にそれぞれ設けられ、
 2つの前記第1の拡散領域のそれぞれは、異なる形状であって、前記受光面から前記半導体基板の内部に向けて広がり前記半導体基板の内部から前記半導体基板における前記受光面の反対側の面に向けて狭くなる形状に形成されている、
 上記(16)から(25)のいずれか一つに記載の撮像装置。
(41)
 前記第1の分離部は、
 前記素子分離壁につながる延伸部と、
 前記素子分離壁の壁面に向かい合う対向面と、
 を有し、
 前記受光面の上方から見た場合、前記第1の分離部の前記対向面の幅は、前記延伸部の線幅よりも広い、
 上記(1)から(40)のいずれか一つに記載の撮像装置。
(42)
 前記第1の分離部は、
 前記延伸部の端部に設けられ、前記対向面を有する突起部をさらに有する、
 上記(41)に記載の撮像装置。
(43)
 前記2つの第1の分離部のそれぞれは、
 前記素子分離壁につながる延伸部と、
 互いに向かい合う対向面と、
 を有し、
 前記受光面の上方から見た場合、前記2つの第1の分離部の個々の前記対向面の幅は、2つの前記延伸部の個々の線幅よりも広い、
 上記(2)から(40)のいずれか一つに記載の撮像装置。
(44)
 前記2つの第1の分離部のそれぞれは、
 前記延伸部の端部に設けられ、前記対向面を有する突起部をさらに有する、
 上記(43)に記載の撮像装置。
(45)
 前記受光面の上方から見た場合、前記撮像素子の中心を間にして対向するように設けられた2つの付加壁を有する、
 上記(2)から(44)のいずれか一つに記載の撮像装置。
(46)
 前記2つの第1の分離部のそれぞれは、前記素子分離壁から離間する位置に設けられる、
 上記(2)から(45)のいずれか一つに記載の撮像装置。
(47)
 前記第1の分離部は、3つ以上設けられる、
 上記(46)に記載の撮像装置。
(48)
 前記第1の分離部は、4つ設けられ、
 2つの前記第1の分離部は、前記受光面の上方から見た場合、前記撮像素子の中心を間にして対向するように前記列方向に設けられ、
 2つの前記第1の分離部は、前記受光面の上方から見た場合、前記撮像素子の中心を間にして対向するように前記行方向に設けられる、
 上記(47)に記載の撮像装置。
(49)
 前記列方向に並ぶ2つの前記第1の分離部の個々の大きさと、前記行方向に並ぶ2つの前記第1の分離部の個々の大きさとは異なる、
 上記(48)に記載の撮像装置。
(50)
 前記第1の拡散領域は、
 前記2つの第1の分離部を形成するための個々のトレンチに対する拡散プロセスにより形成された第1の領域と、
 前記素子分離壁を形成するためのトレンチに対する拡散プロセスにより形成された第2の領域と、
 を有する、
 上記(2)から(49)のいずれか一つに記載の撮像装置。
(51)
 半導体基板と、
 前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備え、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
 前記複数の画素を分離する画素分離壁と、
 前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
 を有し、
 前記画素分離壁は、前記半導体基板の厚み方向に沿って、前記受光面から、前記半導体基板の途中まで延伸するように設けられ、
 前記半導体基板の厚み方向において、前記画素分離壁に対して、前記受光面と反対側に位置する領域は、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む、
 撮像装置。
(52)
 半導体基板と、
 前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を有する撮像装置を備え、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
 前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、
 前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
 前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部と、
 を有し、
 前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、
 前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、
 電子機器。
(追加)
(53)
 上記(1)から(51)のいずれか一つに記載の撮像装置を備える電子機器。
(54)
 前記材料は、酸化シリコン、窒化シリコン、アモルファスシリコン、多結晶シリコン、酸化チタン、アルミニウム、及び、タングステンからなる群から選択された少なくとも1種以上の材料からなる、上記(26)又は(27)に記載の撮像装置。
(55)
 半導体基板と、
 前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備える撮像装置であって、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
 前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、
 前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
 を有し、
 前記素子分離壁は、前記受光面の上方から見た場合、前記撮像素子の中心に向かって突出し、互いに向かい合う2つの第1の突出部を有し、
 前記2つの第1の突出部のそれぞれは、前記半導体基板を貫通するように設けられ、
 前記2つの第1の突出部の間の領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、
 撮像装置。
(56)
 半導体基板と、
 前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備える撮像装置であって、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
 前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、
 前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
 を有し、
 前記素子分離壁は、前記受光面の上方から見た場合、前記撮像素子の中心に向かって突出する第1の突出部を有し、
 前記第1の突出部は、前記半導体基板を貫通するように設けられ、
 前記第1の突出部と当該第1の突出部に対向する前記素子分離壁の部分との間の領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、
 撮像装置。
(57)
 半導体基板と、
 前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
 を備える撮像装置であって、
 前記複数の撮像素子のそれぞれは、
 前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
 前記複数の画素を分離する画素分離壁と、
 前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
 を有し、
 前記画素分離壁は、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む、
 撮像装置。
  1  撮像装置
  10  半導体基板
  10a  受光面
  10b  表面
  20  画素アレイ部
  21  垂直駆動回路部
  22  カラム信号処理回路部
  23  水平駆動回路部
  24  出力回路部
  25  制御回路部
  26  画素駆動配線
  27  垂直信号線
  28  水平信号線
  29  入出力端子
  100  撮像素子
  200  オンチップレンズ
  202  カラーフィルタ
  204  遮光部
  300a、300b、300c、300d  画素
  302  光電変換部
  304、324  突出部
  304a  延伸部
  304b  突起部
  306、306a、306b、320  拡散領域
  306A  第1の領域
  306B  第2の領域
  308、308a、308b、308c  付加壁
  310  素子分離壁
  312  スリット
  334、334a  画素分離壁
  400a、400b  転送ゲート
  R1  第1の領域
  R2  第2の領域

Claims (20)

  1.  半導体基板と、
     前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
     を備え、
     前記複数の撮像素子のそれぞれは、
     前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
     前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、
     前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
     前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部と、
     を有し、
     前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、
     前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、
     撮像装置。
  2.  前記第1の分離部は、2つ設けられ、
     2つの前記第1の分離部は、前記受光面の上方から見た場合、前記複数の画素を分離するようにそれぞれ延伸し、互いに向かい合う、
     前記第1の拡散領域は、前記2つの第1の分離部の間の領域に設けられる、
     請求項1に記載の撮像装置。
  3.  前記2つの第1の分離部は、前記受光面の上方から見た場合、前記列方向に沿って前記素子分離壁から突出する、
     請求項2に記載の撮像装置。
  4.  前記2つの第1の分離部は、前記受光面の上方から見た場合、前記行方向において、前記撮像素子の中心に位置するように設けられている、
     請求項3に記載の撮像装置。
  5.  前記2つの第1の分離部は、前記受光面の上方から見た場合、前記行方向において、前記撮像素子の中心から所定の距離だけずれた位置に設けられている、
     請求項3に記載の撮像装置。
  6.  前記2つの第1の分離部は、前記受光面の上方から見た場合、前記行方向に沿って前記素子分離壁から突出する、
     請求項2に記載の撮像装置。
  7.  前記2つの第1の分離部は、前記受光面の上方から見た場合、前記列方向において、前記撮像素子の中心に位置するように設けられている、
     請求項6に記載の撮像装置。
  8.  前記2つの第1の分離部は、前記受光面の上方から見た場合、前記列方向において、前記撮像素子の中心から所定の距離だけずれた位置に設けられている、
     請求項6に記載の撮像装置。
  9.  前記受光面の上方から見た場合、前記2つの第1の分離部の長さは同一である、
     請求項2に記載の撮像装置。
  10.  前記受光面の上方から見た場合、前記2つの第1の分離部の長さは互いに異なる、
     請求項2に記載の撮像装置。
  11.  前記受光面の上方から見た場合、前記2つの第1の分離部の個々が延伸する方向と異なる方向に沿ってそれぞれ延伸し、互いに向かい合う2つの第2の分離部をさらに有し、
     前記2つの第2の分離部のそれぞれは、前記半導体基板の厚み方向に延伸するように設けられ、
     前記2つの第2の分離部の間の領域には、前記第2の導電型の不純物を含む第2の拡散領域が設けられる、
     請求項2に記載の撮像装置。
  12.  前記2つの第1の分離部の間に設けられた1つ又は複数の付加壁を有する、
     請求項2に記載の撮像装置。
  13.  前記付加壁は、前記半導体基板を貫通するように設けられる、
     請求項12に記載の撮像装置。
  14.  前記付加壁は、前記半導体基板の厚み方向に沿って、前記受光面から、前記半導体基板の途中まで延伸するように設けられる、
     請求項12に記載の撮像装置。
  15.  前記素子分離壁と前記2つの第1の分離部とは、同一の材料からなる、
     請求項2に記載の撮像装置。
  16.  前記素子分離壁と前記2つの第1の分離部とは、互いに異なる材料からなる、
     請求項2に記載の撮像装置。
  17.  前記複数の撮像素子は、前記受光面の上方から見た場合、前記素子分離壁上に、前記素子分離壁に沿って設けられた遮光膜をさらに有する、
     請求項2に記載の撮像装置。
  18.  前記遮光膜は、前記2つの第1の分離部に沿って設けられる、
     請求項17に記載の撮像装置。
  19.  半導体基板と、
     前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
     を備え、
     前記複数の撮像素子のそれぞれは、
     前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
     前記複数の画素を分離する画素分離壁と、
     前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
     を有し、
     前記画素分離壁は、前記半導体基板の厚み方向に沿って、前記受光面から、前記半導体基板の途中まで延伸するように設けられ、
     前記半導体基板の厚み方向において、前記画素分離壁に対して、前記受光面と反対側に位置する領域は、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む、
     撮像装置。
  20.  半導体基板と、
     前記半導体基板上に行方向及び列方向に沿ってマトリックス状に配列し、入射された光に対して光電変換を行う、複数の撮像素子と、
     を有する撮像装置を備え、
     前記複数の撮像素子のそれぞれは、
     前記半導体基板内に互いに隣接するように設けられ、第1の導電型の不純物を含む複数の画素と、
     前記複数の画素を取り囲み、且つ、前記半導体基板を貫通するように設けられた素子分離壁と、
     前記複数の画素が共有するように前記半導体基板の受光面の上方に設けられたオンチップレンズと、
     前記素子分離壁により取り囲まれた領域に設けられ、前記複数の画素を分離する第1の分離部と、
     を有し、
     前記第1の分離部は、前記半導体基板の厚み方向に延伸するように設けられ、
     前記第1の分離部の周囲に位置して前記半導体基板の厚み方向に延伸する領域には、前記第1の導電型とは反対の導電型を持つ第2の導電型の不純物を含む第1の拡散領域が設けられる、
     電子機器。
PCT/JP2021/012841 2020-03-27 2021-03-26 撮像装置及び電子機器 WO2021193915A1 (ja)

Priority Applications (6)

Application Number Priority Date Filing Date Title
EP21774140.4A EP4131429A4 (en) 2020-03-27 2021-03-26 IMAGING DEVICE AND ELECTRONIC DEVICE
CN202180015763.1A CN115152022A (zh) 2020-03-27 2021-03-26 摄像装置和电子设备
US17/910,890 US20230143387A1 (en) 2020-03-27 2021-03-26 Distance measuring system
JP2022510734A JPWO2021193915A1 (ja) 2020-03-27 2021-03-26
DE112021001917.1T DE112021001917T5 (de) 2020-03-27 2021-03-26 Bildgebungsvorrichtung und elektronische vorrichtung
KR1020227032259A KR20220159374A (ko) 2020-03-27 2021-03-26 촬상 장치 및 전자 기기

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2020-058752 2020-03-27
JP2020058752 2020-03-27
JP2020-217344 2020-12-25
JP2020217344 2020-12-25

Publications (1)

Publication Number Publication Date
WO2021193915A1 true WO2021193915A1 (ja) 2021-09-30

Family

ID=77891971

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/012841 WO2021193915A1 (ja) 2020-03-27 2021-03-26 撮像装置及び電子機器

Country Status (8)

Country Link
US (1) US20230143387A1 (ja)
EP (1) EP4131429A4 (ja)
JP (1) JPWO2021193915A1 (ja)
KR (1) KR20220159374A (ja)
CN (1) CN115152022A (ja)
DE (1) DE112021001917T5 (ja)
TW (1) TW202207484A (ja)
WO (1) WO2021193915A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153245A1 (ja) * 2022-02-08 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2023234069A1 (ja) * 2022-05-30 2023-12-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2024018934A1 (ja) * 2022-07-22 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2024057739A1 (ja) * 2022-09-14 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出装置の製造方法、及び電子機器
WO2024154666A1 (ja) * 2023-01-20 2024-07-25 ソニーセミコンダクタソリューションズ株式会社 半導体装置
WO2024185419A1 (ja) * 2023-03-08 2024-09-12 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び撮像装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292685A (ja) 1999-04-01 2000-10-20 Olympus Optical Co Ltd 撮像素子
JP2009158800A (ja) * 2007-12-27 2009-07-16 Nikon Corp 固体撮像素子及びこれを用いた撮像装置
JP2013084742A (ja) * 2011-10-07 2013-05-09 Canon Inc 光電変換装置および撮像システム
JP2017212351A (ja) * 2016-05-26 2017-11-30 キヤノン株式会社 撮像装置
JP2018201015A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11411030B2 (en) * 2017-02-17 2022-08-09 Sony Semiconductor Solutions Corporation Imaging element and electronic apparatus

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000292685A (ja) 1999-04-01 2000-10-20 Olympus Optical Co Ltd 撮像素子
JP2009158800A (ja) * 2007-12-27 2009-07-16 Nikon Corp 固体撮像素子及びこれを用いた撮像装置
JP2013084742A (ja) * 2011-10-07 2013-05-09 Canon Inc 光電変換装置および撮像システム
JP2017212351A (ja) * 2016-05-26 2017-11-30 キヤノン株式会社 撮像装置
JP2018201015A (ja) * 2017-05-29 2018-12-20 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置、及び電子機器

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023153245A1 (ja) * 2022-02-08 2023-08-17 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
WO2023234069A1 (ja) * 2022-05-30 2023-12-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置および電子機器
WO2024018934A1 (ja) * 2022-07-22 2024-01-25 ソニーセミコンダクタソリューションズ株式会社 撮像装置
WO2024057739A1 (ja) * 2022-09-14 2024-03-21 ソニーセミコンダクタソリューションズ株式会社 光検出装置、光検出装置の製造方法、及び電子機器
WO2024154666A1 (ja) * 2023-01-20 2024-07-25 ソニーセミコンダクタソリューションズ株式会社 半導体装置
WO2024185419A1 (ja) * 2023-03-08 2024-09-12 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び撮像装置

Also Published As

Publication number Publication date
EP4131429A1 (en) 2023-02-08
KR20220159374A (ko) 2022-12-02
DE112021001917T5 (de) 2023-02-23
TW202207484A (zh) 2022-02-16
JPWO2021193915A1 (ja) 2021-09-30
US20230143387A1 (en) 2023-05-11
EP4131429A4 (en) 2023-10-11
CN115152022A (zh) 2022-10-04

Similar Documents

Publication Publication Date Title
WO2021193915A1 (ja) 撮像装置及び電子機器
WO2021193254A1 (ja) 撮像装置及び電子機器
CN112913024A (zh) 摄像元件和电子设备
WO2020189534A1 (ja) 撮像素子および半導体素子
WO2020241717A1 (ja) 固体撮像装置
WO2021125116A1 (ja) 受光装置
WO2022209365A1 (ja) 撮像装置、撮像装置の製造方法、及び、電子機器
US20240204014A1 (en) Imaging device
WO2021124974A1 (ja) 撮像装置
EP4404250A1 (en) Light detecting device, method for manufacturing light detecting device, and electronic instrument
WO2021140958A1 (ja) 撮像素子、製造方法、並びに電子機器
WO2020129712A1 (ja) 撮像装置
JP2021097215A (ja) 受光素子及び受光装置
WO2023047632A1 (ja) 撮像装置及び電子機器
WO2024154666A1 (ja) 半導体装置
WO2022124131A1 (ja) 受光素子、受光装置及び電子機器
WO2021117589A1 (ja) 受光素子及び受光装置
WO2024142627A1 (en) Photodetector and electronic apparatus
WO2023210238A1 (ja) 光検出装置及び電子機器
WO2022145190A1 (ja) 固体撮像装置および電子機器
WO2024127853A1 (ja) 光検出装置及び電子機器
WO2022014461A1 (ja) 撮像素子
WO2022014400A1 (ja) 配線構造およびその製造方法、ならびに撮像装置
TW202422862A (zh) 光檢測裝置
TW202433740A (zh) 半導體裝置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21774140

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022510734

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021774140

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2021774140

Country of ref document: EP

Effective date: 20221027