WO2020158164A1 - 撮像素子および撮像素子の製造方法 - Google Patents

撮像素子および撮像素子の製造方法 Download PDF

Info

Publication number
WO2020158164A1
WO2020158164A1 PCT/JP2019/046975 JP2019046975W WO2020158164A1 WO 2020158164 A1 WO2020158164 A1 WO 2020158164A1 JP 2019046975 W JP2019046975 W JP 2019046975W WO 2020158164 A1 WO2020158164 A1 WO 2020158164A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
pixel
polarization
light
photoelectric conversion
Prior art date
Application number
PCT/JP2019/046975
Other languages
English (en)
French (fr)
Inventor
納土 晋一郎
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2020158164A1 publication Critical patent/WO2020158164A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to an image sensor and a method for manufacturing the image sensor. More specifically, the present invention relates to an image sensor including a polarization unit for detecting the polarization of incident light and a method for manufacturing the image sensor.
  • a polarizing unit that transmits incident light in a specific polarization direction is arranged in the pixel
  • the image pickup device configured as above is used.
  • the polarization unit By disposing the polarization unit in the pixel, it is possible to acquire the polarization information of the incident light from the subject. Based on this polarization information, it is possible to generate an image in which incident light in a specific polarization direction, for example, reflected light from a water pool or a glass surface is removed.
  • a polarization element configured by a wire grid can be adopted.
  • This wire grid is an array of a plurality of conductive lines arranged at a predetermined pitch. Incident light in a polarization direction parallel to the direction in which a plurality of lines are arranged is transmitted through a polarizing element formed by a wire grid, and incident light in a polarization direction perpendicular to the direction in which a plurality of lines is arranged is attenuated by the polarizing element (for example, Patent Document 1 See 1.).
  • the normal component of the surface of the subject By acquiring the polarization information of the subject, it is possible to detect the normal component of the surface of the subject.
  • the direction of the surface of the subject can be acquired from the detected normal component, and the three-dimensional shape of the subject can be grasped.
  • an image is generated on the basis of image signals from a plurality of pixels provided with polarization sections having different polarization directions (angles), and a change in luminance with respect to a change in polarization direction of the polarization section is detected.
  • the normal component can be represented by an azimuth angle and a zenith angle in polar coordinates. Since the reflected light from the specific surface of the subject is polarized in this specific direction, the brightness periodically changes according to the change in the polarization direction of the polarization unit.
  • the azimuth angle is detected based on the polarization direction corresponding to the maximum value of the changing brightness.
  • the degree of polarization is generated from the maximum value and the minimum value of the brightness that changes according to the polarization direction. This degree of polarization can be applied to the Fresnel equation to generate the zenith angle.
  • the polarization element based on the wire grid returns to the original polarization direction when rotated by 180°, so the detected normal component has an indefiniteness of 180°. Specifically, it becomes difficult to detect whether the surface of the subject is a concave portion or a convex portion.
  • the phase difference pixel is a pixel for detecting the focus position of the subject in order to perform auto-focusing of the photographing lens arranged outside the image sensor. It is possible to detect the phase difference in the vertical and horizontal directions with respect to the subject, and detect the deviation from the focus position and the deviation direction (so-called front focus and rear focus) based on the detected phase difference.
  • the phase difference pixel When acquiring the three-dimensional shape of the subject, it is possible to grasp the state of the unevenness of the surface of the subject based on the direction of the shift of the focus position. It is possible to solve the problem of 180° indeterminacy.
  • a global shutter type image sensor As the image sensor. This is because the global shutter type image sensor can perform simultaneous exposure on all pixels, and can detect the phase difference with high accuracy even when the subject moves.
  • a rolling shutter-type image sensor that sequentially performs exposure and outputs image signals for each row causes a shift in the exposure timing between pixels arranged in different rows, resulting in focal plane Cause distortion. Further, even when the phase difference pixels are arranged in different rows, the detected phase difference includes an error due to a time shift.
  • a global shutter type image pickup device Even in the global shutter type image sensor, the image signals generated in the pixels are sequentially output for each row. Therefore, in a global shutter type image pickup device, it is necessary to temporarily store the image signal after exposure in each pixel. This is because the time from the exposure to the output of the image signal is different for each row.
  • a charge holding unit that holds a charge generated by photoelectrically converting incident light from a subject by a photoelectric conversion unit of the pixel at the time of exposure is arranged for each pixel. After simultaneous exposure of all pixels, the generated charges are held in the charge holding unit, converted into an image signal based on the timing of image signal output, and output. Thereby, a global shutter can be realized.
  • the light shielding portion includes a lid portion that covers the back surface side of the charge holding portion, which is a surface on which incident light is incident, and an embedded portion that is formed by forming a groove penetrating the semiconductor substrate and embedding a metal material in the groove. Composed.
  • the embedding part is also arranged between other adjacent pixels.
  • this light-shielding portion By disposing this light-shielding portion, it is possible to prevent stray light from entering the charge holding portion and prevent the charge from flowing into the charge holding portion from the photoelectric conversion portion or the adjacent pixel, thereby reducing noise.
  • the conventional technique described above has a problem in that the manufacturing process of the image sensor is complicated because it includes the polarization unit and the light shielding unit.
  • the present disclosure has been made in view of the above-mentioned problems, and it is an object of the present disclosure to simplify a manufacturing method of an image sensor that acquires polarization information of a subject.
  • a first aspect thereof is a plurality of pixels in which photoelectric conversion units that are formed on a semiconductor substrate and that perform photoelectric conversion of incident light are arranged. And a separation region that separates the photoelectric conversion units of the plurality of pixels, and a polarization unit that is made of the same material as the separation region and that transmits incident light in a specific polarization direction and allows the incident light to enter the photoelectric conversion unit. It is an image pickup device comprising.
  • the polarization unit may be composed of a plurality of band-shaped conductors arranged at a predetermined pitch.
  • the polarizing section may be composed of a plurality of laminated layers, and the separation region may be composed of the same material as at least one of the plurality of layers.
  • the polarization unit may be formed at the same time as the separation region.
  • a pixel circuit that is arranged in each of the plurality of pixels and that generates an image signal based on charges generated by photoelectric conversion in the photoelectric conversion unit may be further included.
  • the pixel circuit may include a holding unit that holds the generated electric charge, and an image signal generation unit that generates an image signal based on the held electric charge.
  • a second separation region that is made of the same material as the separation region and separates the holding unit and the photoelectric conversion unit, and a light shielding unit that shields the holding unit from light are further provided. It may be provided.
  • the light shielding portion may be made of the same material as the polarizing portion.
  • the light-shielding portion may have a film thickness different from that of the polarizing portion.
  • the said polarizing part is comprised by the several layer laminated
  • a pixel light-shielding portion that shields the photoelectric conversion portion in the pixel in the peripheral portion of the area where the plurality of pixels are arranged and that is made of the same material as the polarizing portion is further provided. May be.
  • a phase difference pixel for detecting the image plane phase difference by dividing the incident light from the subject into the pupils may be further provided.
  • the retardation pixel may include a retardation pixel light shielding portion which is made of the same material as the polarizing portion and in which the opening for pupil division is arranged.
  • a control circuit for exchanging electric signals with the pixels may be further provided.
  • a control circuit light-shielding portion that is made of the same material as that of the polarizing portion and shields the control circuit may be further provided.
  • a second aspect of the present disclosure is a separation region that separates the photoelectric conversion units of the plurality of pixels in a semiconductor substrate in which a plurality of pixels in which photoelectric conversion units that perform photoelectric conversion of incident light are arranged are formed. And a step of forming a polarization part that transmits incident light of a specific polarization direction and makes it enter the photoelectric conversion part with the same material as that of the separation region.
  • Adopting the above-mentioned aspect brings about the effect of forming the separation region and the polarization part by the same process. It is assumed that the manufacturing method of the image sensor is simplified.
  • FIG. 3 is a block diagram showing a configuration example of an image sensor according to an embodiment of the present disclosure. It is a figure showing an example of composition of an image sensor concerning an embodiment of this indication.
  • FIG. 3 is a circuit diagram showing a configuration example of a pixel according to the first embodiment of the present disclosure.
  • FIG. 3 is a plan view showing a configuration example of a pixel according to the first embodiment of the present disclosure.
  • FIG. 3 is a cross-sectional view showing a configuration example of a pixel according to the first embodiment of the present disclosure. It is a figure showing an example of a manufacturing method of an image sensor concerning a 1st embodiment of this indication. It is a figure showing an example of a manufacturing method of an image sensor concerning a 1st embodiment of this indication.
  • FIG. 3 is a block diagram showing a configuration example of an image sensor according to an embodiment of the present disclosure. It is a figure showing an example of composition of an image sensor concerning an embodiment of this indication.
  • FIG. 3 is a circuit
  • FIG. 6 is a cross-sectional view showing a configuration example of a pixel according to a second embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view showing a configuration example of a pixel according to a third embodiment of the present disclosure. It is a figure which shows the structural example of the polarization part which concerns on 3rd Embodiment of this indication.
  • FIG. 14 is a circuit diagram showing a configuration example of a pixel according to a fourth embodiment of the present disclosure. It is a top view showing the example of composition of the pixel concerning a 4th embodiment of this indication.
  • FIG. 16 is a cross-sectional view showing a configuration example of a pixel according to a fourth embodiment of the present disclosure.
  • FIG. 11 is a cross-sectional view showing a configuration example of a pixel according to a third embodiment of the present disclosure. It is a figure which shows the structural example of the polarization part which concerns on 3rd Embodiment of this indication.
  • FIG. 16 is a cross-sectional view showing a configuration example of a pixel according to a fifth embodiment of the present disclosure. It is a block diagram showing an example of schematic structure of a camera which is an example of an imaging device to which this indication can be applied. It is a figure which shows the structural example of the image processing part which concerns on 7th Embodiment of this indication. It is a figure showing an example of detection of a normal line concerning a 7th embodiment of this indication. It is a figure showing an example of polarization information concerning a 7th embodiment of this indication. It is a figure which shows an example of the phase difference information which concerns on 7th Embodiment of this indication. It is a figure which shows an example of the depth map which concerns on 7th Embodiment of this indication.
  • FIG. 1 is a block diagram showing a configuration example of an image sensor according to an embodiment of the present disclosure.
  • the image sensor 1 shown in FIG. 1 includes a pixel array section 10, a vertical drive section 20, a column signal processing section 30, and a control section 40.
  • the pixel array unit 10 is configured by arranging the pixels 100 in a two-dimensional lattice shape.
  • the pixel 100 produces
  • the pixel 100 has a photoelectric conversion unit that generates an electric charge according to the applied light.
  • the pixel 100 further includes a pixel circuit. This pixel circuit generates an image signal based on the charges generated by the photoelectric conversion unit. Generation of the image signal is controlled by a control signal generated by the vertical drive unit 20 described later.
  • signal lines 11 and 12 are arranged in an XY matrix.
  • the signal line 11 is a signal line for transmitting a control signal of a pixel circuit in the pixel 100, is arranged for each row of the pixel array section 10, and is commonly wired to the pixels 100 arranged in each row.
  • the signal line 12 is a signal line for transmitting an image signal generated by the pixel circuit of the pixel 100, is arranged for each column of the pixel array unit 10, and is commonly wired to the pixels 100 arranged in each column. It These photoelectric conversion units and pixel circuits are formed on a semiconductor substrate.
  • the vertical drive unit 20 generates a control signal for the pixel circuit of the pixel 100.
  • the vertical drive unit 20 transmits the generated control signal to the pixel 100 via the signal line 11 in the figure.
  • the column signal processing unit 30 processes the image signal generated by the pixel 100.
  • the column signal processing unit 30 processes the image signal transmitted from the pixel 100 via the signal line 12 in the figure.
  • the processing in the column signal processing unit 30 corresponds to, for example, analog-digital conversion for converting an analog image signal generated in the pixel 100 into a digital image signal.
  • the image signal processed by the column signal processing unit 30 is output as the image signal of the image sensor 1.
  • the control unit 40 controls the entire image sensor 1.
  • the control unit 40 controls the image sensor 1 by generating and outputting a control signal for controlling the vertical drive unit 20 and the column signal processing unit 30.
  • the control signal generated by the control unit 40 is transmitted to the vertical drive unit 20 and the column signal processing unit 30 via the signal lines 41 and 42, respectively.
  • the vertical drive unit 20, the column signal processing unit 30, and the control unit 40 are examples of the control circuit described in the claims.
  • FIG. 2 is a diagram illustrating a configuration example of the image sensor according to the embodiment of the present disclosure.
  • FIG. 1 is a plan view showing a configuration example of the image sensor 1.
  • the pixel array section 10 is arranged in the central portion.
  • phase difference pixels 301 and 302 are arranged in addition to the pixel 100.
  • the phase difference pixels 301 and 302 are pixels that detect the image plane phase difference of the subject by dividing the subject into pupils.
  • the phase difference pixels 301 and 302 divide the subject into pupils in the left-right direction of the drawing. Specifically, the phase difference pixels 301 and 302 are shielded from light on the right side and the left side of the photoelectric conversion unit, respectively.
  • a plurality of such phase difference pixels 301 and 302 are arranged in the pixel array section 10.
  • the light-shielding pixels 200 are arranged on the peripheral portion of the pixel array unit 10.
  • the light-shielded pixel 200 is a pixel in which the entire surface of the photoelectric conversion unit is shielded from light.
  • the light-shielded pixel 200 is a pixel for detecting the black level of the image signal, and the area of the pixel array section 10 excluding the light-shielded pixel 200 is the effective pixel area.
  • the pixel 100 is provided with a polarization unit described later. This polarization section transmits the light of a specific polarization direction among the incident light.
  • the light from the subject includes a plurality of lights polarized in different directions.
  • the light amount of the polarization direction can be acquired.
  • polarization information such as how the light from the subject is polarized. Based on this polarization information, it is possible to grasp the three-dimensional shape of the subject. Details of the configurations of the pixel 100, the phase difference pixels 301 and 302, and the light-shielding pixel 200 will be described later.
  • the vertical drive unit 20, the column signal processing unit 30, and the control unit 40 described in FIG. 1 can be arranged in the peripheral region 60, which is a region between the pixel array unit 10 and the outer periphery of the image sensor 1.
  • FIG. 3 is a circuit diagram showing a configuration example of a pixel according to the first embodiment of the present disclosure.
  • the figure shows an example of the circuit configuration of the pixel 100.
  • the pixel 100 in the figure includes a photoelectric conversion unit 101, a charge holding unit 102, and MOS transistors 103 to 106.
  • the anode of the photoelectric conversion unit 101 is grounded, and the cathode is connected to the source of the MOS transistor 103.
  • the drain of the MOS transistor 103 is connected to the source of the MOS transistor 104, the gate of the MOS transistor 105, and one end of the charge holding unit 102. The other end of the charge holding unit 102 is grounded.
  • the drains of the MOS transistors 104 and 105 are commonly connected to the power supply line Vdd, and the source of the MOS transistor 105 is connected to the drain of the MOS transistor 106.
  • the source of the MOS transistor 106 is connected to the signal line 12.
  • the gates of the MOS transistors 103, 104 and 106 are connected to the transfer signal line TR, the reset signal line RST and the selection signal line SEL, respectively.
  • the transfer signal line TR, the reset signal line RST, and the selection signal line SEL form the signal line 11.
  • the photoelectric conversion unit 101 is to generate electric charges according to the irradiated light as described above.
  • a photodiode can be used for the photoelectric conversion unit 101.
  • the charge holding unit 102 and the MOS transistors 103 to 106 form a pixel circuit.
  • the MOS transistor 103 is a transistor that transfers the charges generated by the photoelectric conversion of the photoelectric conversion unit 101 to the charge holding unit 102. The transfer of charges in the MOS transistor 103 is controlled by the signal transmitted through the transfer signal line TR.
  • the charge holding unit 102 is a capacitor that holds the charges transferred by the MOS transistor 103.
  • the MOS transistor 105 is a transistor that generates a signal based on the charges held in the charge holding unit 102.
  • the MOS transistor 106 is a transistor that outputs the signal generated by the MOS transistor 105 to the signal line 12 as an image signal. The MOS transistor 106 is controlled by the signal transmitted by the selection signal line SEL.
  • the MOS transistor 104 is a transistor that resets the charge holding unit 102 by discharging the charge held in the charge holding unit 102 to the power supply line Vdd.
  • the reset by the MOS transistor 104 is controlled by a signal transmitted by the reset signal line RST, and is executed before the charge transfer by the MOS transistor 103.
  • the photoelectric conversion unit 101 can also be reset by turning on the MOS transistor 103. In this way, the pixel circuit converts the charge generated by the photoelectric conversion unit 101 into an image signal.
  • the MOS transistors 105 and 106 form an image signal generation unit 111.
  • the imaging of the image sensor 1 in which the pixel 100 including the pixel circuit shown in the figure is arranged can be performed as follows. First, the MOS transistors 103 and 104 are turned on to reset the photoelectric conversion unit 101 and the charge holding unit 102. Next, when the MOS transistors 103 and 104 are transited to the non-conducting state, the charges generated by the photoelectric conversion in the photoelectric conversion unit 101 are accumulated and the exposure is started. After the elapse of a predetermined exposure period, the MOS transistor 103 is turned on and the charge generated by the photoelectric conversion unit 101 is transferred to the charge holding unit 102. As a result, the MOS transistor 105 generates an image signal based on the charges held in the charge holding unit 102. Next, by turning on the MOS transistor 106, the generated image signal is output from the pixel 100 via the signal line 12.
  • Such exposure and output of image signals are simultaneously performed in each pixel 100 arranged in the row of the pixel array unit 10.
  • the exposure and the output of the image signal in the pixels 100 in each row are executed with a timing shift for each row.
  • the image signals are sequentially output from the first row of the pixel array unit 10 via the signal line 12.
  • the exposure period according to the output of the image signals that are sequentially executed is sequentially set for each row.
  • Such an imaging format is called a rolling shutter format.
  • the configuration of the pixel circuit can be simplified as compared with the global shutter type described later.
  • focal plane distortion occurs and the image quality deteriorates.
  • FIG. 4 is a plan view showing a configuration example of a pixel according to the first embodiment of the present disclosure.
  • the drawing is a plan view showing an arrangement example of the polarization units 150 arranged in the pixels 100 in the pixel array unit 10.
  • the rectangle in the figure represents the pixel 100, and the letters “R”, “G”, and “B” described for each pixel 100 in the figure represent the type of the color filter (color filter 181) arranged in the pixel 100. ..
  • the color filter 181 is an optical filter that transmits the incident light of a predetermined wavelength among the incident light of the pixel 100.
  • the pixel 100 in which "R", “G”, and “B” are described represents a pixel in which the color filter 181 that transmits red light, green light, and blue light is arranged, respectively.
  • the polarization unit 150 in the figure represents an example of a polarization unit configured by a wire grid.
  • This wire grid is a polarization unit configured by arranging a plurality of strip conductors 151 at a predetermined pitch.
  • the band-shaped conductor is a conductor configured in a linear shape or a rectangular parallelepiped.
  • the free electrons in the strip conductor 151 vibrate following the electric field of the light incident on the strip conductor 151, and radiate a reflected wave.
  • Incident light parallel to the direction in which the plurality of band-shaped conductors 151 are arranged that is, parallel to the longitudinal direction of the band-shaped conductors, emits more reflected light because the amplitude of the free electrons becomes larger. Therefore, the incident light in that direction is reflected without passing through the polarization unit 150.
  • the radiation of the reflected light from the strip conductor becomes small. This is because the vibration of free electrons is limited and the amplitude becomes small.
  • the incident light in the polarization direction is less attenuated by the polarization unit 150 and can pass through the polarization unit 150.
  • the white rectangle in the hatched area in the figure represents the space between the strip conductors 151.
  • color filters of the same type are arranged in four pixels 100 arranged in two rows and two columns, and four kinds of polarizing units 150 whose polarization directions are sequentially different by 45° are arranged.
  • the color filters are arranged in a Bayer array with the pixels 100 of 2 rows and 2 columns as a unit.
  • the configuration of the image sensor 1 is not limited to this example. For example, it is possible to omit the color filter and perform monochrome imaging.
  • FIG. 5 is a cross-sectional view showing a configuration example of a pixel according to the first embodiment of the present disclosure.
  • the figure is a cross-sectional view showing a configuration example of the pixel 100.
  • the pixel 100 shown in the figure includes a semiconductor substrate 120, a separation region 140, a polarization part 150, a flattening film 183, a color filter 181, an on-chip lens 182, an insulating layer 191, a wiring layer 192, and a support.
  • the insulating layer 191 and the wiring layer 192 form a wiring region.
  • the semiconductor substrate 120 is a substrate on which semiconductor portions of elements that form a pixel circuit are formed.
  • the semiconductor portion of the device is formed in a well region formed in the semiconductor substrate 120.
  • the semiconductor substrate 120 shown in the figure is formed in a p-type well region.
  • the semiconductor portion of the device can be formed.
  • the n-type semiconductor regions 121 and 122 are described as an example.
  • the n-type semiconductor region 121 constitutes the photoelectric conversion unit 101.
  • the photodiode including the n-type semiconductor region 121 and the pn junction at the interface of the p-type well region around the n-type semiconductor region 121 corresponds to the photoelectric conversion unit 101.
  • the charges generated by photoelectric conversion are accumulated in the n-type semiconductor region 121.
  • the n-type semiconductor region 122 constitutes the floating diffusion type charge holding unit 102.
  • the MOS transistor 103 is arranged between the n-type semiconductor regions 121 and 122.
  • the MOS transistor 103 is a MOS transistor in which the n-type semiconductor regions 121 and 122 are the source and the drain, respectively, and the p-type well region between them is the channel.
  • the gate 131 is arranged adjacent to the channel of the MOS transistor 103.
  • the insulating layer 191 between the semiconductor substrate 120 and the gate 131 corresponds to a gate insulating film.
  • the semiconductor substrate 120 can be configured to have a thickness of 3 ⁇ m, for example.
  • a p-type semiconductor region for pinning may be arranged near the surface of the back surface of the semiconductor substrate 120.
  • pinning means terminating an interface state based on crystal defects formed on the surface of the semiconductor substrate 120. This makes it possible to reduce noise due to the interface state.
  • the back surface of the semiconductor substrate 120 is a surface on the back side of the surface on which the wiring region shown in FIG.
  • the image pickup device 1 in the figure corresponds to a backside illumination type image pickup device in which incident light is emitted from the backside of the semiconductor substrate 120.
  • a wiring region including a wiring layer 192 and an insulating layer 191 described later is arranged on the front surface side of the semiconductor substrate 120.
  • a fixed charge film 141 (not shown) for strengthening the above-mentioned pinning and an oxide film 142 (not shown) for protecting and insulating the semiconductor substrate 120 are arranged on the back surface side of the semiconductor substrate 120.
  • the fixed charge film 141 may be made of, for example, an oxide or a nitride containing at least one of hafnium (Hf), aluminum (Al), zirconium (Zr), tantalum (Ta), and titanium (Ti). it can.
  • the fixed charge film 141 can be formed by vapor phase deposition (CVD), sputtering, and atomic layer deposition (ALD). When ALD is adopted, a SiO 2 film that reduces the interface state can be simultaneously formed during the formation of the fixed charge film 141, which is preferable.
  • the fixed charge film 141 can also be made of hafnium oxynitride or aluminum oxynitride. Further, the fixed charge film 141 may be added with silicon (Si) or nitrogen (N) in an amount that does not impair the insulating property. This can improve heat resistance and the like.
  • the oxide film 142 can be made of, for example, SiO 2, and can be formed by ALD to have a thickness of 100 nm or less, more preferably 30 to 60 nm.
  • the wiring layer 192 is a conductor for wiring the elements formed on the semiconductor substrate 120.
  • the wiring layer 192 can be made of a metal such as Cu.
  • the insulating layer 191 insulates the wiring layer 192.
  • the insulating layer 191 can be made of an insulating material, for example, SiO 2 .
  • the wiring layer 192 and the insulating layer 191 can be configured in multiple layers. The figure shows an example of a wiring region configured in two layers.
  • the separation area 140 is an area for separating the photoelectric conversion units 101 of the adjacent pixels 100.
  • the separation region 140 is arranged near the boundary between the pixels 100 and prevents the inflow of charges from the adjacent pixels 100. Further, by arranging the separation region 140, it is possible to block light that obliquely enters from the adjacent pixels 100. Due to these effects, it is possible to reduce the mixing of noise into the image signal in the pixel 100.
  • the isolation region 140 in the figure can be arranged in a groove formed so as to penetrate from the back surface side to the front surface side of the semiconductor substrate 120.
  • the isolation region 140 can be made of metal.
  • Al silver (Ag), gold (Ag), copper (Cu), platinum (Pt), molybdenum (Mo), chromium (Cr), Ti, nickel (Ni), W, iron (Fe).
  • tellurium (Te) or the like or an alloy containing these metals can be used. It is also possible to stack a plurality of these materials. Alternatively, Ti, titanium nitride (TiN), or a film obtained by stacking these may be disposed as an adhesion layer between the oxide film 142 and the oxide film 142.
  • the sensitivity of the pixel 100 can be improved, which is preferable. This is because Al has a relatively high reflectance, and light that has passed through the photoelectric conversion unit 101 (n-type semiconductor region 121) and entered the separation region 140 is reflected and returned to the photoelectric conversion unit 101.
  • the isolation region 140 made of Al can be formed by a known method, for example, high temperature sputtering.
  • the groove in which the isolation region 140 is arranged can be formed, for example, by dry etching the semiconductor substrate 120. By embedding the above-mentioned metal material in this groove, the isolation region 140 can be arranged. This can be performed, for example, by PVD (Physical Vapor Deposition) such as sputtering or vacuum deposition, CVD, plating, and a coating method.
  • PVD Physical Vapor Deposition
  • the polarizing unit 150 is disposed by being stacked on the semiconductor substrate 120. Specifically, it is arranged adjacent to the oxide film 142 described above.
  • the polarization unit 150 in the figure is configured by arranging the strip conductors 151 at equal pitches.
  • the polarization unit 150 in the figure can be made of the same material as that of the separation region 140.
  • the strip conductor 151 in the figure can be made of the same material as the isolation region 140, for example, Al.
  • the separation region 140 and the polarization unit 150 can be integrally configured, and the separation region 140 and the polarization unit 150 can be formed adjacent to each other. Therefore, the separation region 140 and the polarization unit 150 can be formed by the same process.
  • the polarization part 150 and the separation region 140 can be formed at the same time. Specifically, when the isolation region 140 is formed, the material film of the strip conductor 151 can be simultaneously formed. Thereby, the manufacturing process of the image sensor 1 can be simplified. Further, the height of the image pickup device 1 can be reduced as compared with the case where the separation region 140 and the polarization unit 150 are formed in different layers.
  • the strip-shaped conductor 151 in the figure corresponds to a light reflection layer described later in FIG.
  • a flattening film 183 described later can be arranged between the strip conductors 151.
  • the flattening film 183 flattens the back surface side of the semiconductor substrate 120 on which the polarization section 150 is formed.
  • the flattening film 183 can be made of, for example, a transparent resin such as an acrylic resin.
  • the color filter 181 is arranged adjacent to the flattening film 183.
  • the color filter 181 can be made of, for example, an organic compound containing a pigment, a dye, or the like that transmits light having a predetermined wavelength.
  • As the color filter 181 in addition to the color filters corresponding to red light, green light, and blue light, complementary color color filters corresponding to cyan, magenta, and yellow can be used.
  • the on-chip lens 182 is a lens that collects incident light.
  • the on-chip lens 182 can be made of, for example, an organic material such as a styrene resin, an acrylic resin, a styrene-acrylic resin, and a siloxane resin. Further, it may be made of an inorganic material such as silicon nitride (SiN) or silicon oxynitride (SiON). Alternatively, titanium oxide (TiO) particles may be dispersed in the above-mentioned organic material or polyimide resin. Further, a material film having a refractive index different from that of the on-chip lens 182 may be disposed on the surface of the on-chip lens 182 to prevent reflection.
  • an organic material such as a styrene resin, an acrylic resin, a styrene-acrylic resin, and a siloxane resin. Further, it may be made of an inorganic material such as silicon nitride (Si
  • the support substrate 199 is a substrate arranged adjacent to the wiring area.
  • the support substrate 199 is a substrate that improves the strength of the semiconductor substrate 120 in the manufacturing process of the image sensor 1.
  • [Method of manufacturing image sensor] 6 and 7 are diagrams showing an example of the method for manufacturing the image pickup device according to the first embodiment of the present disclosure.
  • the p-type well region, the n-type semiconductor region 121, and the like are formed on the semiconductor substrate 120.
  • a wiring region including the insulating layer 191 and the wiring layer 192 is formed on the surface of the semiconductor substrate 120.
  • the support substrate 199 is bonded adjacent to the wiring region to turn the semiconductor substrate 120 upside down, and the semiconductor substrate 120 is ground to be thin (A in FIG. 6).
  • the semiconductor substrate 120 can be ground by, for example, chemical mechanical polishing (CMP).
  • CMP chemical mechanical polishing
  • the charge fixing film 141 is arranged on the back surface of the semiconductor substrate 120 including the groove 601 (C in FIG. 6).
  • the oxide film 142 is laminated on the surface of the charge fixing film 141 (D in FIG. 7). These can be formed by ALD, for example.
  • the material film 602 of the strip conductor 151 in the separation region 140 and the polarization part 150 is arranged on the surface of the oxide film 142. At this time, the trench 601 is filled with the material film 602 to form the isolation region 140 (E in FIG. 7).
  • the surface of the material film 602 can be planarized in order to make the film thickness of the polarizing portion 150 uniform.
  • the material film 602 is etched to form the strip conductor 151 (F in FIG. 7). Thereby, the polarization part 150 can be formed.
  • This step is an example of the step of forming the separation region and the step of forming the polarizing portion described in the claims.
  • the separation region 140 and the polarization unit 150 are made of the same material, so that the separation region 140 and the polarization unit 150 are made by the same process. Can be formed. The manufacturing process of the image sensor 1 can be simplified.
  • the separation region 140 and the polarization unit 150 are made of the same material.
  • the light-shielding portion of the phase difference pixel 301 or the light-shielding pixel 200 is formed of the same material as that of the polarization portion 150.
  • FIG. 8 is a cross-sectional view showing a configuration example of a pixel according to the second embodiment of the present disclosure.
  • the figure is a cross-sectional view showing a configuration example of the pixel 100 and the light-shielding pixel 200 and the phase difference pixel 301 described in FIG. 2.
  • a pixel light shielding unit 250 is arranged instead of the polarization unit 150.
  • the pixel light shielding unit 250 shields the entire back surface side of the semiconductor substrate 120 in the light shielding pixel 200.
  • the pixel light shielding unit 250 can be made of the same material as the polarization unit 150. That is, the pixel light shielding unit 250 can be made of the same material as the isolation region 140.
  • the pixel light shielding part 250 can be formed simultaneously with the polarization part 150 and the separation region 140.
  • a peripheral area 60 is arranged around the light-shielding pixel 200.
  • control circuits such as the vertical drive unit 20, the column signal processing unit 30, and the control unit 40 are arranged in the peripheral region 60.
  • a control circuit light shielding portion 61 is arranged in the peripheral region 60.
  • the control circuit light-shielding portion 61 in the figure is arranged so as to cover the entire control circuit. Similar to the pixel light blocking unit 250 described above, the control circuit light blocking unit 61 can be made of the same material as the polarization unit 150. Further, the control circuit light shielding portion 61 can be formed simultaneously with the polarization portion 150.
  • phase difference pixel 301 a phase difference pixel light shielding unit 350 is arranged instead of the polarization unit 150.
  • An opening 351 for dividing the pupil is arranged in the phase difference pixel light shielding unit 350.
  • an opening 351 is arranged on the left side of the photoelectric conversion unit 101, and incident light transmitted through the right side of the photographing lens enters the photoelectric conversion unit 101.
  • the phase difference pixel light-shielding part 350 is also arranged in the phase difference pixel 302 (not shown) which forms a pair with the phase difference pixel 301.
  • an opening is arranged on the right side of the photoelectric conversion unit 101.
  • phase difference pixel 302 the incident light transmitted through the left side of the taking lens enters the photoelectric conversion unit 101. Thereby, the pupil division is executed in the phase difference pixels 301 and 302.
  • the phase difference pixel light blocking unit 350 can also be made of the same material as the polarization unit 150.
  • the phase difference pixel light shielding portion 350 can be formed simultaneously with the polarization portion 150.
  • the configuration of the image sensor 1 other than this is the same as the configuration of the image sensor 1 described in the first embodiment of the present disclosure, and thus the description thereof will be omitted.
  • the light blocking portions 350 are arranged respectively.
  • the pixel light blocking unit 250, the control circuit light blocking unit 61, and the phase difference pixel light blocking unit 350 are made of the same material as the polarization unit 150. Thereby, the manufacturing method of the image pickup device 1 can be simplified.
  • the single-layer polarization unit 150 is arranged.
  • the image pickup device 1 according to the third embodiment of the present disclosure is different from the above-described first embodiment in that the polarization unit including a plurality of layers is arranged.
  • FIG. 9 is a sectional view showing a configuration example of a pixel according to the third embodiment of the present disclosure.
  • the pixel 100 shown in the figure is different from the pixel 100 described in FIG. 5 in that the polarization unit 160 is provided instead of the polarization unit 150.
  • the polarization unit 160 in the figure is configured by arranging a plurality of strip conductors 161 at equal pitches.
  • the strip conductor 161 is composed of a plurality of layers. Specifically, the strip conductor 161 is composed of the light reflection layer 162, the insulating layer 163, and the light absorption layer 164.
  • the light reflection layer 162 reflects incident light.
  • the strip conductor 161 By configuring the strip conductor 161 using the light reflection layer 162, it is possible to reflect light in a direction perpendicular to the direction in which the strip conductors 161 are arranged, that is, in a vibration direction parallel to the longitudinal direction of the strip conductor 161.
  • the light reflection layer 162 can be made of the same material as the isolation region 140.
  • the light reflection layer 162 made of Al is assumed.
  • the light absorption layer 164 absorbs light.
  • the light absorption layer 164 absorbs the light reflected by the light reflection layer 162.
  • the light absorption layer 164 can be made of a material having a non-zero extinction coefficient, that is, a metal or a semiconductor having an absorption function.
  • the light absorption layer 164 is composed of a metal material such as Ag, Au, Cu, Mo, Cr, Ti, Ni, W, Fe, Si, Ge, Te and Sn, or an alloy containing these metals. be able to.
  • a silicide-based material such as FeSi 2 (particularly ⁇ -FeSi 2 ), MgSi 2 , NiSi 2 , BaSi 2 , CrSi 2 and CoSi 2 can be used.
  • the light absorption layer 164 composed of W is assumed.
  • the light absorption layer 164 can be configured to have a relatively thin film thickness of 50 nm, for example. This is to reduce a decrease in transmittance when incident light is transmitted through the polarization section 160.
  • the insulating layer 163 is disposed between the light reflection layer 162 and the light absorption layer 164, and protects the light reflection layer 162 that was previously formed when the imaging element 1 was manufactured. Further, the phase of the light reflected by the light reflection layer 162 can be adjusted. Specifically, the insulating layer has a thickness such that the phase of light transmitted through the light absorption layer 164 and reflected by the light reflection layer 162 and the phase of light reflected by the light absorption layer 164 differ by 180°. 163 is formed. As a result, the lights reflected from the light absorption layer 164 and the light reflection layer 162 cancel each other, so that the reflection of the incident light from the polarization unit 160 is reduced.
  • the insulating layer 163 can be made of, for example, SiO 2 formed by ALD.
  • the configuration of the image pickup device 1 is not limited to this example.
  • the insulating layer 163 and the light absorption layer 164 may be arranged in the separation region 140.
  • FIG. 10 is a diagram illustrating a configuration example of the polarization unit according to the third embodiment of the present disclosure.
  • the figure is a diagram showing a detailed configuration of the polarization unit 160.
  • the polarization unit 160 is configured by the light reflection layer 162, the insulating layer 163, and the light absorption layer 164 described above, as well as an adhesion layer 167, a sidewall protection layer 165, an upper protection layer 166, and a void 169.
  • the adhesion layer 167 is disposed between the oxide film 142 and the light reflection layer 162, and improves the adhesion strength of the light reflection layer 162.
  • this adhesion layer 167 for example, Ti, TiN, and a film in which these are laminated can be used.
  • a gas such as air can be enclosed in the space 169 between the strip conductors 161. With such an air gap structure, the transmittance of the polarization unit 160 can be improved. This is because air or the like has a refractive index of about 1.
  • the side wall protection layer 165 is arranged around the band-shaped conductor 161 composed of the laminated light reflection layer 162, insulating layer 163, and light absorption layer 164, and mainly protects the side wall of the band-shaped conductor 161.
  • the metal material or alloy material forming the light reflection layer 162 and the light absorption layer 164 comes into contact with air (outside air).
  • air outside air
  • the side wall protective layer 165 it is possible to prevent corrosion and deterioration of the light reflecting layer 162 and the like due to moisture in the outside air. It is preferable to use a material having a refractive index of 2 or less and an extinction coefficient close to zero for the sidewall protective layer 165.
  • the sidewall protection layer 165 can be made of an insulating material made of Si such as SiO 2 , SiON, SiN, SiC, SiOC and SiCN. Further, the sidewall protection layer 165 can also be formed of a metal oxide such as aluminum oxide (AlOx), hafnium oxide (HfOx), zirconium oxide (ZrOx) tantalum oxide (TaOx).
  • the side wall protective layer 165 can be formed by using these materials and forming the film by a known method such as CVD, PVD, ALD, and a sol-gel method.
  • the upper protective layer 166 is a film that is arranged adjacent to the upper surface of the strip conductor 161 and closes the void 169.
  • the upper protective layer 166 can be made of the same material as that of the sidewall protective layer 165 described above. Further, the upper protective layer 166 can be formed by a film forming method in which the material does not precipitate in the voids 169 but precipitates on the upper surface of the strip conductor 161 such as PVD.
  • the light reflection layer 162, the insulating layer 163, and the light absorption layer 164 can be configured to have thicknesses of 150 nm, 25 nm, and 25 nm, respectively, for example.
  • the polarizing section 160 having such a multilayer structure, the reflected light from the polarizing section 160 can be reduced.
  • the transmittance of the polarization unit 160 can be improved by using the polarization unit 160 having the air gap structure.
  • the configuration of the image sensor 1 other than this is the same as the configuration of the image sensor 1 described in the first embodiment of the present disclosure, and thus the description thereof will be omitted.
  • the polarization section 160 having a three-layer structure by disposing the polarization section 160 having a three-layer structure, it is possible to reduce reflection from the polarization section 160 and reduce image quality. Can be prevented.
  • the image sensor 1 according to the above-described first embodiment performs rolling shutter type imaging.
  • the image sensor 1 according to the fourth embodiment of the present disclosure is different from the above-described first embodiment in that global shutter type imaging is performed.
  • FIG. 11 is a circuit diagram showing a configuration example of a pixel according to the fourth embodiment of the present disclosure. Similar to FIG. 3, this figure is a diagram illustrating an example of the circuit configuration of the pixel 100. The pixel 100 shown in the figure differs from the pixel 100 described in FIG. 3 in the following points.
  • the pixel circuit 110 further includes a MOS transistor 108 and a second charge holding unit 107.
  • the signal line 11 further includes a transfer signal line TX.
  • the cathode of the photoelectric conversion unit 101 is connected to the source of the MOS transistor 108, and the gate of the MOS transistor 108 is connected to the transfer signal line TX.
  • the drain of the MOS transistor 108 is connected to the source of the MOS transistor 103 and one end of the second charge holding unit 107.
  • the other end of the second charge holding portion 107 is grounded.
  • the connection of the elements other than this is the same as that in FIG.
  • the second charge holding unit 107 holds the charges generated by the photoelectric conversion unit 101.
  • the second charge holding unit 107 holds charges during the period from the end of exposure in the pixel 100 to the start of image signal output.
  • the MOS transistor 108 is a transistor that transfers the charges generated by the photoelectric conversion unit 101 to the second charge holding unit 107.
  • the imaging of the image sensor 1 in which the pixel 100 including the pixel circuit shown in the figure is arranged can be performed as follows. First, the MOS transistors 103, 104, and 108 are turned on to reset the photoelectric conversion unit 101, the charge holding unit 102, and the second charge holding unit 107. This reset is performed simultaneously in all the pixels 100 arranged in the pixel array section 10. Next, the MOS transistors 103, 104 and 108 are changed to the non-conducting state. This starts the exposure period.
  • the MOS transistors 103 and 104 are turned on again to reset the second charge holding unit 107 again, and then the MOS transistor 108 is turned on to charge the charges generated by the photoelectric conversion unit 101 to the second charge holding unit 107. It is transferred to the charge holding unit 107. As a result, the exposure period of all the pixels 100 is stopped at the same time.
  • the MOS transistor 104 is turned on to reset the charge holding unit 102 again, and the MOS transistor 103 is turned on to transfer the charge of the second charge holding unit 107 to the charge holding unit 102.
  • the MOS transistor 106 is turned on to output the image signal generated by the MOS transistor 105 to the signal line 12.
  • the processes from the reset of the charge holding unit 102 to the output of the image signal are sequentially performed row by row from the first row of the pixel array section 10. Accordingly, the image signal of one frame can be output from the image sensor 1.
  • By disposing the second charge holding unit 107 and temporarily holding the charges generated by the photoelectric conversion unit 101 it is possible to execute the exposure and the output of the image signal separately from each other. You can It becomes possible to perform exposure simultaneously on all the pixels 100 arranged in the pixel array section 10.
  • Such an imaging format is called a global shutter format. Further, after transferring the charges to the second charge holding unit 107, the exposure of the next frame can be started.
  • the second charge holding unit 107 is an example of the charge holding unit described in the claims.
  • FIG. 12 is a plan view showing a configuration example of a pixel according to the fourth embodiment of the present disclosure. This figure is a plan view showing a configuration example of the pixel 100 described in FIG. 11, and is a diagram showing a configuration of the semiconductor substrate 120 as seen from the back surface side. The planar arrangement of the photoelectric conversion unit 101 and the like in the pixel 100 will be described with reference to FIG.
  • An isolation region 140 is arranged around the region of the semiconductor substrate 120 in the pixel 100.
  • the n-type semiconductor region 121 forming the photoelectric conversion unit 101 is arranged at the lower left of the pixel 100 in the figure.
  • the second charge holding portion 107 is arranged above the photoelectric conversion portion 101.
  • the second charge holding portion 107 is composed of the n-type semiconductor region 126.
  • the gate 135 of the MOS transistor 108 is arranged in the vicinity of the semiconductor substrate 120 where the n-type semiconductor region 126 is formed, with a gate insulating film interposed therebetween.
  • the MOS transistor 108 is a MOS transistor having the n-type semiconductor regions 121 and 126 as a source region and a drain region, respectively.
  • the gate 131 and the n-type semiconductor region 122 are arranged adjacent to the right end of the n-type semiconductor region 126.
  • the n-type semiconductor regions 126 and 122 and the gate 131 form the MOS transistor 103. That is, the MOS transistor 103 is a MOS transistor having the n-type semiconductor regions 126 and 122 as a source region and a drain region, respectively.
  • the n-type semiconductor region 122 also corresponds to the charge holding unit 102.
  • a gate 132 and an n-type semiconductor region 123 are arranged adjacent to the n-type semiconductor region 122.
  • N-type semiconductor regions 122 and 123 and gate 132 form MOS transistor 104. That is, the MOS transistor 104 is a MOS transistor having the n-type semiconductor regions 122 and 123 as the source region and the drain region, respectively.
  • a gate 133 and an n-type semiconductor region 124 are arranged adjacent to the n-type semiconductor region 123.
  • N-type semiconductor regions 123 and 124 and gate 133 form MOS transistor 105. That is, the MOS transistor 105 is a MOS transistor having the n-type semiconductor regions 123 and 124 as the drain region and the source region, respectively.
  • a gate 134 and an n-type semiconductor region 125 are arranged adjacent to the n-type semiconductor region 124.
  • N-type semiconductor regions 124 and 125 and gate 134 form MOS transistor 106. That is, the MOS transistor 106 is a MOS transistor having the n-type semiconductor regions 124 and 125 as the drain region and the source region, respectively.
  • Wiring is connected to these n-type semiconductor regions and gates to form the pixel circuit 110.
  • the second separation region 143 is provided between the n-type semiconductor region 121 included in the photoelectric conversion portion 101 and the n-type semiconductor region 126 included in the second charge holding portion 107. As will be described later, the second separation region 143 separates the photoelectric conversion unit 101 and the second charge holding unit 107.
  • FIG. 13 is a sectional view showing a configuration example of a pixel according to the fourth embodiment of the present disclosure.
  • the figure is a cross-sectional view showing a configuration example of the pixel 100 and is a cross-sectional view taken along the line aa′ in FIG.
  • Pixel 100 in FIG. 6 differs from pixel 100 described in FIG. 5 in the following points.
  • a polarizing unit 160 is provided instead of the polarizing unit 150.
  • the second isolation region 143 is further disposed on the semiconductor substrate 120, and the light blocking unit 170 is disposed adjacent to the semiconductor substrate 120.
  • a lid 195 is further disposed on the insulating layer 191.
  • the pixel 100 in the figure includes a polarization unit 160, like the pixel 100 described in FIG.
  • the light reflection layer 162 forming the polarization unit 160 is disposed adjacent to the separation region 140.
  • the second separation region 143 is a separation region arranged between the photoelectric conversion unit 101 and the second charge holding unit 107.
  • the second isolation region 143 is arranged in a groove formed in the semiconductor substrate 120. Unlike the isolation region 140, the groove in which the second isolation region 143 is formed does not penetrate the semiconductor substrate 120, and the bottom is formed at a relatively shallow position on the front surface side of the semiconductor substrate 120. Therefore, an opening is formed between the bottom of the second isolation region 143 and the surface of the semiconductor substrate 120, and the channel of the MOS transistor 108 is formed in the opening.
  • the second electric charge holding unit 107 holds electric charges from the end of the exposure period to the output of the image signal. During this holding period, for example, the photoelectric conversion unit 101 starts exposure of the next frame. At this time, if charges flow from the photoelectric conversion unit 101 into the second charge holding unit 107, image signals of different frames are mixed in as noise. Therefore, by arranging the second light shielding region 143 between the photoelectric conversion unit 101 and the second charge holding unit 107 except for the channel region of the MOS transistor 108, it is possible to suppress the inflow of charges and to reduce noise. Mixing can be reduced.
  • the second light shielding region 143 can be made of the same material as the light reflection layer 162 of the polarization unit 160, like the separation region 140. Further, the second light shielding region 143 can be formed simultaneously with the light reflecting layer 162.
  • the light shielding portion 170 is arranged on the back surface side of the semiconductor substrate 120 in the vicinity of the second charge holding portion 107 and shields the second charge holding portion 107.
  • the light shielding unit 170 is arranged adjacent to the separation region 140 and the second separation region 143, and is arranged in the same layer as the polarization unit 160. Further, the light blocking section 170 can be made of the same material as the polarization section 160.
  • the lid part 195 is arranged on the insulating layer 191 in the wiring region and blocks the incident light transmitted through the photoelectric conversion part 101.
  • the lid portion 195 includes a wall portion 194 and a bottom portion 193, and covers between the photoelectric conversion portion 101 and the wiring layer 192 in a lid shape to shield light.
  • a part of the light incident on the pixel 100 is transmitted without contributing to the photoelectric conversion in the photoelectric conversion unit 101.
  • this transmitted light is reflected by the wiring layer 192 in the wiring region and enters the photoelectric conversion unit 101 of another pixel 100, noise is mixed in the other pixel 100, and the image quality is degraded. Therefore, by disposing the lid portion 195, the reflection of the incident light transmitted through the photoelectric conversion portion 101 by the wiring layer 192 is prevented.
  • the wall portion 194 and the bottom portion 193 can be made of a metal such as Cu, like the wiring layer 192.
  • the second separation region 143 and the polarization unit 160 can be formed adjacent to each other, and the method for manufacturing the image pickup element 1 can be performed. Can be simplified. Further, the image pickup device 1 can be made low in height. Similarly, by constructing the light shielding portion 170 closer to the same material as the polarizing portion 160, the light shielding portion 170 can be disposed adjacent to the same layer as the polarizing portion 160, and the manufacturing method of the image sensor 1 can be simplified. The height can be reduced as well.
  • the isolation region 140 and the second isolation region 143 can be configured by disposing a material such as Al in the groove formed in the semiconductor substrate 120.
  • the groove for arranging the isolation region 140 needs to be formed deeper than the groove for arranging the second isolation region 143. This can be done, for example, by forming the groove in two steps. First, the semiconductor substrate 120 is etched to form a groove having a depth corresponding to the second isolation region 143 at the position where the isolation region 140 and the second isolation region 143 are to be formed. Next, the groove for arranging the second isolation region 143 is protected by a resist or the like, and the groove for arranging the isolation region 140 is etched again. Thereby, grooves having different depths can be formed.
  • a film of a material forming the separation region 140, the second separation region 143, and the polarization section 160, for example, an Al film is formed on the semiconductor substrate 120 and is arranged in these grooves.
  • the separation region 140 and the second separation region 143 can be formed.
  • the configuration of the image sensor 1 other than this is the same as the configuration of the image sensor 1 described in the first embodiment of the present disclosure, and thus the description thereof will be omitted.
  • the polarization unit 160 is provided between the second charge holding unit 107 and the photoelectric conversion unit 101 for performing global shutter type imaging.
  • a second isolation region 143 made of the same material is arranged.
  • the light shielding portion 170 that shields the second charge holding portion 107 from light is made of the same material as the polarizing portion 160.
  • the image pickup device 1 of the fourth embodiment described above includes the polarization unit 160 and the light shielding unit 170 having the same film thickness.
  • the image sensor 1 according to the fifth embodiment of the present disclosure is different from the above-described fourth embodiment in that the image pickup device 1 according to the fifth embodiment of the present disclosure includes the light shielding unit 170 having a thickness different from that of the polarization unit 160.
  • FIG. 14 is a cross-sectional view showing a configuration example of a pixel according to the fifth embodiment of the present disclosure.
  • the figure is a cross-sectional view showing a configuration example of the pixel 100.
  • the pixel 100 shown in the figure is different from the pixel 100 described with reference to FIG. 13 in that the pixel 100 shown in FIG.
  • the polarizing unit 160 can be configured to have a thinner film thickness than the light shielding unit 170.
  • the light-shielding portion 170 needs to have a relatively thick film thickness in order to improve the light-shielding ability of the second charge holding portion 107.
  • the polarization unit 160 adjusts the extinction ratio and the like, it is necessary to adjust the thickness.
  • the extinction ratio is the ratio of the maximum transmitted light and the minimum transmitted light of the polarization unit 160.
  • the incident light parallel to the arrangement direction of the strip conductors 161 vibrates the free electrons in the short side direction of the strip conductor 161, so that the followability of the free electrons is lowered and the incident light in the polarization direction can be transmitted.
  • the film thickness of the strip conductor 161 becomes thick, the electrical resistance of the strip conductor 161 in the short side direction decreases. Therefore, transmission of incident light parallel to the direction in which the strip conductors 161 are arranged is obstructed, and the extinction ratio is reduced. Therefore, the polarization part 160 and the light shielding part 170 are formed to have desired thicknesses and the thicknesses are adjusted. Accordingly, the extinction ratio of the polarization unit 160 and the light blocking ability of the light blocking unit 170 can be individually adjusted.
  • the light reflection layer 162 and the insulating layer 163 have the same film thickness in the polarization section 160 and the light shielding section 170, and the light absorption layer 164 has a different thickness in the polarization section 160 and the light shielding section 170.
  • the light absorption layer 164 of the polarization unit 160 is formed to be thinner than the light absorption layer 164 of the light shielding unit 170. This can be performed, for example, by forming the material of the light absorption layer 164 and then individually etching the material of the light absorption layer 164 in the region where the film thickness is adjusted, that is, the region where the polarization unit 160 is formed. it can.
  • the configuration of the image sensor 1 other than this is the same as the configuration of the image sensor 1 described in the fourth embodiment of the present disclosure, and thus the description thereof is omitted.
  • the thicknesses of the polarization section 160 and the light blocking section 170 are adjusted, and the polarization section 160 and the light blocking section 170 having different thicknesses are arranged. .. This makes it possible to adjust the extinction ratio and the like of the polarization unit 160 while improving the light blocking ability of the light blocking unit 170.
  • the technology according to the present disclosure (this technology) can be applied to various products.
  • the present technology may be realized as an image pickup device mounted on an image pickup apparatus such as a camera.
  • FIG. 15 is a block diagram showing a schematic configuration example of a camera which is an example of an imaging device to which the present technology can be applied.
  • the camera 1000 shown in the figure includes a lens 1001, an image sensor 1002, an image capture controller 1003, a lens driver 1004, an image processor 1005, an operation input unit 1006, a frame memory 1007, and a display unit 1008. And a recording unit 1009.
  • the lens 1001 is a taking lens of the camera 1000.
  • the lens 1001 collects light from a subject and makes it incident on an image sensor 1002 described later to form an image of the subject.
  • the image pickup element 1002 is a semiconductor element that picks up light from a subject condensed by the lens 1001.
  • the image sensor 1002 generates an analog image signal according to the emitted light, converts it into a digital image signal, and outputs it.
  • the image capturing control unit 1003 controls image capturing by the image sensor 1002.
  • the imaging control unit 1003 controls the imaging element 1002 by generating a control signal and outputting the control signal to the imaging element 1002.
  • the imaging control unit 1003 can also perform autofocus in the camera 1000 based on the image signal output from the image sensor 1002.
  • the auto focus is a system that detects the focal position of the lens 1001 and automatically adjusts it.
  • a method (image plane phase difference autofocus) of detecting a focus position by detecting an image plane phase difference by a phase difference pixel arranged in the image sensor 1002 can be used. It is also possible to apply a method (contrast autofocus) of detecting the position where the contrast of the image is the highest as the focus position.
  • the imaging control unit 1003 adjusts the position of the lens 1001 via the lens driving unit 1004 based on the detected focus position, and performs autofocus.
  • the imaging control unit 1003 can be configured by, for example, a DSP (Digital Signal Processor) equipped with firmware.
  • DSP Digital Signal Processor
  • the lens driving unit 1004 drives the lens 1001 under the control of the imaging control unit 1003.
  • the lens driving unit 1004 can drive the lens 1001 by changing the position of the lens 1001 using a built-in motor.
  • the image processing unit 1005 processes the image signal generated by the image sensor 1002. For this processing, for example, demosaicing for generating image signals of insufficient colors among the image signals corresponding to red, green and blue for each pixel, noise reduction for removing noise of the image signals and encoding of the image signals, etc. Applicable
  • the image processing unit 1005 can be configured by, for example, a microcomputer equipped with firmware.
  • the operation input unit 1006 receives an operation input from the user of the camera 1000.
  • this operation input unit 1006 for example, a push button or a touch panel can be used.
  • the operation input received by the operation input unit 1006 is transmitted to the imaging control unit 1003 and the image processing unit 1005. After that, a process corresponding to the operation input, for example, a process of capturing an image of a subject is started.
  • the frame memory 1007 is a memory that stores a frame that is an image signal for one screen.
  • the frame memory 1007 is controlled by the image processing unit 1005 and holds a frame in the process of image processing.
  • the display unit 1008 displays the image processed by the image processing unit 1005.
  • a liquid crystal panel can be used for the display unit 1008.
  • the recording unit 1009 records the image processed by the image processing unit 1005.
  • a memory card or a hard disk can be used.
  • the present technology can be applied to the image sensor 1002 among the configurations described above.
  • the image sensor 1 described with reference to FIG. 1 can be applied to the image sensor 1002.
  • the autofocus control by the phase difference pixels 301 and 302 can be performed by the imaging control unit 1003.
  • the image processing unit 1005 is an example of the processing circuit described in the claims.
  • the camera 1000 is an example of the imaging device described in the claims.
  • the camera has been described as an example, but the technique according to the present disclosure may be applied to other devices such as a monitoring device.
  • the present disclosure can be applied to a semiconductor device in the form of a semiconductor module as well as an electronic device such as a camera.
  • the technology according to the present disclosure can be applied to an imaging module which is a semiconductor module in which the imaging device 1002 and the imaging control unit 1003 of FIG. 19 are enclosed in one package.
  • FIG. 16 is a diagram illustrating a configuration example of the image processing unit according to the seventh embodiment of the present disclosure.
  • This figure is a block diagram showing a configuration example of a portion in the image processing unit 1005 that captures a stereoscopic image.
  • the image processing unit 1005 in the figure includes an image signal separation unit 501, a polarization information generation unit 502, a normal line information generation unit 503, a phase difference information generation unit 504, a depth information generation unit 505, and a normal vector generation. And a section 506.
  • the image signal separation unit 501 separates the image signal generated by the pixel 100 and the phase difference pixels 301 and 302.
  • the image signal separation unit 501 separates the digital image signal output from the column signal processing unit 30 into the image signal of the pixel 100 and the image signals of the phase difference pixels 301 and 302, and the polarization information generation unit 502 and the phase difference, respectively. It outputs to the information generation unit 504.
  • the polarization information generation unit 502 generates polarization information from the image signal of the pixel 100.
  • the polarization information is information on polarization in the image of the subject.
  • the polarization information generation unit 502 generates polarization information based on the image signal corresponding to the incident light transmitted through the polarization unit 150 having the four polarization directions described in FIG.
  • the light from the subject contains polarized components that are polarized in a specific direction and non-polarized components that do not depend on a specific polarization direction.
  • the component polarized in this specific direction is light based on specular reflection, and is light that is polarized according to the direction of the surface of the subject at the time of reflection.
  • the non-polarized component is light based on diffuse reflection.
  • the polarization information generation unit 502 separates the image signal of the pixel 100 into a polarized component and a non-polarized component. Next, the polarization direction (polarization angle) and the polarization degree of the polarization component are generated as polarization information. Details of the processing in the polarization information generation unit 502 will be described later.
  • the normal line information generation unit 503 generates normal line information based on the polarization information generated by the polarization information generation unit 502.
  • the normal line information is information on a normal line that is virtually formed on the surface of the subject, and is information that specifies the direction of the surface of the subject. Information on the angles with respect to the x-axis and the z-axis in the polar coordinate system can be applied to the normal line information. Details of the processing in the normal vector information generating unit 503 will be described later.
  • the phase difference information generation unit 504 is for generating phase difference information from an image signal of the phase difference pixel 301 or the like.
  • the phase difference information is information representing the phase difference of the subject described in FIG.
  • a photographic lens is arranged at a predetermined focal length on the image sensor (pixel array unit 10), and a subject is imaged. By adjusting the position of the taking lens and focusing on the subject to perform imaging, an image with less blur can be obtained.
  • By arranging the phase difference pixel 301 and the like it is possible to detect the deviation of the subject from the focus position as a phase difference. Further, by detecting the phase difference, it is possible to perform determination based on the focus position when the subject is placed at a position near or far from the image sensor. Details of the phase difference information will be described later.
  • the depth information generation unit 505 generates depth information of the subject based on the phase difference information generated by the phase difference information generation unit 504.
  • the depth information is information on the shape of the subject in the optical axis direction with reference to the focal position of the photographing lens. This depth information can be generated based on the result of the above-described determination of the subject position.
  • the normal vector generation unit 506 is configured to generate the above-described normal vector based on the normal information generated by the normal information generation unit 503 and the depth information generated by the depth information generation unit 505. ..
  • FIG. 17 is a diagram illustrating an example of normal line detection according to the seventh embodiment of the present disclosure.
  • a in the same figure is a diagram showing a state in which the shape of the subject is acquired by detecting the normal line of the subject while imaging the subject.
  • a in the figure shows a state in which the subject 401 placed on the reference plane 4 is imaged by the image pickup device 2.
  • the subject 401 is formed in a shape that rises from the reference plane 4 toward the imaging device 2.
  • a photographic lens 5 is arranged in the image pickup apparatus 2 of FIG.
  • the taking lens 5 can be arranged, for example, at a focal position where the reference plane 4 is in focus.
  • the light emitted from the light source 3 is reflected by the surface of the subject 401 and enters the pixel array unit 10 (not shown) of the imaging device 2 via the taking lens 5. Focusing on the surface 402 of the subject 401, the normal line will be described.
  • B in the figure is a diagram of the subject 401 viewed from the direction of the imaging device 2.
  • the coordinate axes (x-axis, y-axis and z-axis) are defined as represented by B in FIG.
  • the direction of the normal 403 in the plane 402 can be represented by the azimuth angle ⁇ , which is the angle from the x-axis, and the zenith angle ⁇ , which is the angle from the z-axis.
  • the three-dimensional shape of the subject 401 can be obtained by dividing the subject 401 into a plurality of planes, calculating the azimuth angle ⁇ and the zenith angle ⁇ for each of these planes, and obtaining the normal line.
  • the normal line information generation unit 503 described above generates the azimuth angle ⁇ and the zenith angle ⁇ for each of these surfaces as normal line information.
  • FIG. 18 is a diagram showing an example of polarization information according to the seventh embodiment of the present disclosure.
  • a in the figure is a diagram showing the relationship between the polarization direction and the image signal level when the subject 401 described in FIG. 17 is imaged by the imaging device 2.
  • the horizontal axis of A in the figure represents the polarization angle. This polarization angle corresponds to the angle from the x axis to the y axis direction in FIG.
  • the vertical axis of A in the figure represents the brightness of the image. This brightness has a value corresponding to the image signal level.
  • a in the figure represents a change in the luminance of the image when it is assumed that the polarization direction of the polarization unit 150 is continuously changed.
  • the light from the subject 401 has a configuration in which a polarization component 412 whose brightness changes according to the polarization direction is superimposed on a non-polarization component 413 having a constant brightness regardless of the polarization direction.
  • Imax and Imin of A in the figure represent the maximum value and the minimum value of the brightness, respectively.
  • the polarization component 412 is a sinusoidal graph having a period of 180 degrees.
  • the brightness I of A in the figure can be expressed by the following equation, for example.
  • represents the polarization angle.
  • the polarization information generation unit 502 extracts the image signal for each polarization direction of the polarization unit 150 from the image signal of the pixel 100 separated by the image signal separation unit 501, and applies the extracted image signal to Expression (1). Generate a graph.
  • the normal line information generation unit 503 acquires Imax and Imin from the generated graph.
  • the polarization angle at which the brightness is Imax corresponds to the azimuth angle ⁇ .
  • the normal line information generation unit 503 can acquire the azimuth angle ⁇ from Imax of this graph.
  • the normal vector information generation unit 503 calculates the polarization degree of the image of the subject 401.
  • This polarization degree ⁇ can be expressed by the following equation.
  • the zenith angle ⁇ can be calculated from the polarization degree ⁇ .
  • B in the figure represents the relationship between the degree of polarization and the zenith angle.
  • the graph of B in the figure is a graph derived from the Fresnel equation. It is necessary to select a graph to be applied according to the refractive index of the subject 401.
  • the broken line graph represents the case of a relatively high refractive index
  • the one-dot chain line graph represents the case of a relatively low refractive index.
  • the polarization information generation unit 502 and the normal line information generation unit 503 generate the polarization information and the normal line information, respectively.
  • the change in luminance according to the polarization direction has a periodicity of 180 degrees.
  • two directions that differ by 180 degrees are calculated as the directions of the above-described normal lines, and indeterminacy occurs.
  • the subject 401 has a convex shape on the upper side (the side closer to the imaging device 2) or a convex shape on the lower side (the side far from the imaging device 2) with respect to the reference plane 4. Become.
  • FIG. 19 is a diagram showing an example of phase difference information according to the seventh embodiment of the present disclosure.
  • a to C in the same figure are diagrams showing the relationship among the subject 7, the taking lens 5, and the pixel array unit 10 when detecting the phase difference.
  • the incident lights 6a and 6b of A to C in the figure respectively enter the phase difference pixel 302 having an opening on the right side of the pixel and the phase difference pixel 301 having an opening on the left side of the pixel. Represents incident light.
  • a in the figure is a diagram showing a case where the surface of the subject 7 at the focal position of the taking lens 5 is imaged.
  • the incident lights 6a and 6b are condensed on the light receiving surface of the pixel array section 10.
  • B in the figure is a diagram showing a case where the surface of the subject 7 at a position closer than the focal position of the taking lens 5 is imaged.
  • the incident lights 6a and 6b are condensed behind the pixel array section 10 and are in a so-called rear-focus state. For this reason, the image is deviated on the light receiving surface of the pixel array unit 10 to be captured.
  • C in the figure is a diagram showing a case where the surface of the subject 7 at a position far from the focal position of the taking lens 5 is imaged.
  • the incident lights 6a and 6b are condensed at a position closer to the photographing lens 5 than the light receiving surface of the pixel array section 10, and are in a so-called front focus state. As compared with B in the figure, the image is captured in the opposite direction. In this way, the condensing position changes depending on the position of the subject, and the images are captured with a shift.
  • D to F in the figure are diagrams showing images when the subject 401 described in FIG. 17 is imaged, and are diagrams showing the relationship between the phase difference pixel position and the brightness. Further, D to F in the same figure are diagrams showing the case where images are taken corresponding to the positional relationships of A to C in the same figure, respectively.
  • the phase difference pixel position represents the position of the plurality of phase difference pixels 301 and the like arranged in the same row of the pixel array unit 10.
  • the solid lines and the broken lines of D to F in the figure are images based on the incident lights 6a and 6b, respectively. It is the image by the phase difference pixel 301.
  • the phase difference information generation unit 504 described with reference to FIG. 16 generates an image based on the image signals of the phase difference pixels 301 and 302 as the phase difference information. Further, the depth information generation unit 505 detects the depth direction of the subject as a positional relationship (depth) with respect to the focus position that is the reference plane, based on the phase difference information. With this depth information, the problem of indeterminacy described above can be solved.
  • the normal vector generation unit 506 generates a normal vector including the direction of the normal of each surface of the subject 401 based on the depth information and the normal information. With this normal vector, for example, a depth map of the subject 401 can be generated.
  • FIG. 20 is a diagram showing an example of a depth map according to the seventh embodiment of the present disclosure.
  • the figure is a diagram showing an example of a depth map generated from a normal vector.
  • the depth of the subject is displayed according to the gradation shown in FIG. In this way, the image processing unit 1005 can acquire the three-dimensional shape of the subject.
  • drawings in the above-described embodiments are schematic, and the dimensional ratios of the respective parts and the like do not always match the actual ones. Further, it is needless to say that the drawings may include portions having different dimensional relationships and ratios.
  • the processing procedure described in the above-described embodiment may be regarded as a method having these series of procedures, or as a program for causing a computer to execute these series of procedures or a recording medium storing the program. You can catch it.
  • this recording medium for example, a CD (Compact Disc), a DVD (Digital Versatile Disc), a memory card, or the like can be used.
  • the present technology may have the following configurations.
  • An image pickup device comprising: a polarization part made of the same material as that of the separation region and transmitting incident light of a specific polarization direction to enter the photoelectric conversion part.
  • the polarizing section is composed of a plurality of laminated layers, The image pickup device according to (2), wherein the separation region is made of the same material as at least one of the plurality of layers.
  • the image pickup device according to any one of (1) to (3), wherein the polarization unit is formed at the same time as the separation region.
  • the pixel circuit is A holder for holding the generated electric charge;
  • a second separation region that is made of the same material as the separation region and separates the holding unit and the photoelectric conversion unit,
  • the image pickup device according to (6) further including a light-shielding portion that shields the holding portion.
  • the image pickup device according to (7), wherein the light shielding unit is made of the same material as the polarization unit.
  • the image pickup device according to (7), wherein the light shielding portion has a film thickness different from that of the polarizing portion.
  • the polarizing unit is composed of a plurality of laminated layers, The image pickup device according to (9), wherein the light shielding unit is configured by the plurality of layers, and at least one of the plurality of layers is configured to have a film thickness different from that of the polarizing unit.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optics & Photonics (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Polarising Elements (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

被写体の偏光情報を取得する撮像素子の製造方法を簡略化する。 撮像素子は複数の画素、分離領域および偏光部を具備する。その複数の画素は、半導体基板に形成されて入射光の光電変換を行う光電変換部がそれぞれ配置される。その分離領域は、その複数の画素の光電変換部をそれぞれ分離する。その偏光部は、その分離領域と同一の材料により構成されて特定の偏光方向の入射光を透過させてその光電変換部に入射させる。

Description

撮像素子および撮像素子の製造方法
 本開示は、撮像素子および撮像素子の製造方法に関する。詳しくは、入射光の偏光を検出するための偏光部を備える撮像素子および当該撮像素子の製造方法に関する。
 従来、画素の光電変換部が形成された半導体基板に対して裏面側から入射光が照射される裏面照射型の撮像素子において、特定の偏光方向の入射光を透過する偏光部が画素に配置されて構成された撮像素子が使用されている。偏光部を画素に配置することにより、被写体からの入射光の偏光情報を取得することができる。この偏光情報に基づいて、特定の偏光方向の入射光、例えば、水溜まりやガラス面からの反射光を除去した画像を生成することが可能となる。偏光部には、例えば、ワイヤグリッドにより構成された偏光素子を採用することができる。このワイヤグリッドは、導電性を有する複数の線を所定のピッチに基づいて配列したものである。複数の線の並び方向に平行な偏光方向の入射光がワイヤグリッドによる偏光素子を透過し、複数の線の並び方向に垂直な偏光方向の入射光は偏光素子により減衰される(例えば、特許文献1参照。)。
 また、被写体の偏光情報を取得することにより、被写体の面の法線成分を検出することもできる。この検出した法線成分により被写体の面の方向を取得することができ、被写体の立体的な形状を把握することが可能となる。具体的には、異なる偏光方向(角度)の偏光部を備える複数の画素からの画像信号に基づいて画像を生成し、偏光部の偏光方向の変化に対する輝度の変化を検出する。法線成分は、極座標表示における方位角および天頂角により表すことができる。被写体の特定の面からの反射光はこの特定の方向に偏光しているため、偏光部の偏光方向の変化に応じて輝度が周期的に変化する。この変化する輝度の最大値に対応する偏光方向に基づいて方位角を検出する。また、偏光方向に応じて変化する輝度の最大値および最小値から偏光度を生成する。この偏光度をフレネルの式に適用して天頂角を生成することができる。
 ワイヤグリッドによる偏光素子は、180°回転させると元の偏光方向に戻るため、検出された法線成分は180°の不定性を有する。具体的には、被写体の面が凹部であるか凸部であるかを検出することが困難となる。
 そこで、位相差画素を撮像素子に配置して被写体の焦点位置を検出することにより、被写体の面の凹凸の状態を検出することができる。位相差画素は、撮像素子の外部に配置された撮影レンズのオートフォーカスを行うために被写体の焦点位置を検出するための画素である。被写体に対して上下や左右方向の位相差を検出し、検出した位相差に基づいて焦点位置からのずれおよびずれの方向(いわゆる前ピンおよび後ピン)を検出することが可能となる。上述の被写体の立体形状の取得の際には、焦点位置のずれの方向に基づいて被写体の面の凹凸の状態を把握することができる。180°の不定性の問題を解決することが可能となる。
 このように、偏光部を備える画素および位相差画素を撮像素子に配置することにより、被写体の立体的な形状の取得が可能となる。この撮像素子として、グローバルシャッタ形式の撮像素子を使用すると好適である。グローバルシャッタ形式の撮像素子は全画素において同時の露光を行うことができ、被写体が動く場合であっても位相差の検出を高精度に行うことができるためである。このグローバルシャッタ形式の撮像素子に対し、行毎に順次露光および画像信号の出力を行うローリングシャッタ形式の撮像素子では、異なる行に配置される画素の間において露光のタイミングにずれを生じ、フォーカルプレーン歪みを生じる。また、異なる行に位相差画素が配置される場合においても、検出した位相差には時間的なずれによる誤差が含まれることとなる。
 グローバルシャッタ形式の撮像素子においても、画素において生成された画像信号の出力は行毎に順次行われる。このため、グローバルシャッタ形式の撮像素子では、露光後の画像信号を各画素に一時的に保存する必要がある。露光から画像信号の出力までの時間が行毎に異なるためである。具体的には、露光の際に画素の光電変換部により被写体からの入射光が光電変換されて生成された電荷を保持する電荷保持部を画素毎に配置する。全画素同時の露光の後、生成された電荷を電荷保持部に保持し、画像信号出力のタイミングに基づいて画像信号に変換して出力する。これにより、グローバルシャッタを実現することができる。
 このようなグローバルシャッタ形式の撮像素子では、電荷保持部への入射光の漏洩が問題となる。電荷保持部に電荷が保持される期間に入射光に基づく迷光や光電変換された後の電荷が電荷保持部に流入すると、画像信号に誤差を生じてノイズの原因となるためである。そこで、電荷保持部を遮光する遮光部を備える撮像素子が提案されている(例えば、特許文献2参照。)。この遮光部は、電荷保持部における入射光が入射する面である裏面側を覆う蓋部と、半導体基板を貫通する溝を形成してこの溝に金属材料を埋め込んで形成される埋め込み部とにより構成される。また、埋め込み部は隣接する他の画素との間にも配置される。この遮光部を配置することにより、迷光の電荷保持部への入射および光電変換部や隣接する画素から電荷保持部への電荷の流入を防ぎ、ノイズを低減することができる。
特開2017-076684号公報 特開2015-228510号公報
 上述の従来技術では、偏光部および遮光部を備えるため、撮像素子の製造工程が複雑になるという問題がある。
 本開示は、上述した問題点に鑑みてなされたものであり、被写体の偏光情報を取得する撮像素子の製造方法を簡略化することを目的としている。
 本開示は、上述の問題点を解消するためになされたものであり、その第1の態様は、半導体基板に形成されて入射光の光電変換を行う光電変換部がそれぞれ配置される複数の画素と、上記複数の画素の光電変換部をそれぞれ分離する分離領域と、上記分離領域と同一の材料により構成されて特定の偏光方向の入射光を透過させて上記光電変換部に入射させる偏光部とを具備する撮像素子である。
 また、この第1の態様において、上記偏光部は、所定のピッチに配置された複数の帯状導体により構成されてもよい。
 また、この第1の態様において、上記偏光部は、積層された複数の層により構成され、上記分離領域は、上記複数の層の少なくとも1つと同一の材料により構成されてもよい。
 また、この第1の態様において、上記偏光部は、上記分離領域と同時に形成されてもよい。
 また、この第1の態様において、上記複数の画素にそれぞれ配置されて上記光電変換部における光電変換により生成された電荷に基づく画像信号を生成する画素回路をさらに具備してもよい。
 また、この第1の態様において、上記画素回路は、上記生成された電荷を保持する保持部と、上記保持された電荷に基づいて画像信号を生成する画像信号生成部とを備えてもよい。
 また、この第1の態様において、上記分離領域と同一の材料により構成されて上記保持部と上記光電変換部とを分離する第2の分離領域と、上記保持部を遮光する遮光部とをさらに具備してもよい。
 また、この第1の態様において、上記遮光部は、上記偏光部と同一の材料により構成されてもよい。
 また、この第1の態様において、上記遮光部は、上記偏光部とは異なる膜厚に構成されてもよい。
 また、この第1の態様において、上記偏光部は、積層された複数の層により構成され、上記遮光部は、上記複数の層により構成されるとともに当該複数の層の少なくとも1つが上記偏光部とは異なる膜厚に構成されてもよい。
 また、この第1の態様において、上記複数の画素が配置される領域の周縁部の画素における上記光電変換部を遮光するとともに上記偏光部と同一の材料により構成される画素遮光部をさらに具備してもよい。
 また、この第1の態様において、被写体からの入射光を瞳分割して像面位相差を検出するための位相差画素をさらに具備してもよい。
 また、この第1の態様において、上記位相差画素は、上記偏光部と同一の材料により構成されて上記瞳分割のための開口部が配置された位相差画素遮光部を備えてもよい。
 また、この第1の態様において、上記画素と電気信号のやり取りを行う制御回路をさらに具備してもよい。
 また、この第1の態様において、上記偏光部と同一の材料により構成されて上記制御回路を遮光する制御回路遮光部をさらに具備してもよい。
 また、本開示の第2の態様は、入射光の光電変換を行う光電変換部がそれぞれ配置された複数の画素が形成された半導体基板において上記複数の画素の光電変換部をそれぞれ分離する分離領域を形成する工程と、特定の偏光方向の入射光を透過させて上記光電変換部に入射させる偏光部を上記分離領域と同一の材料により形成する工程とを具備する撮像素子の製造方法である。
 上述の態様を採ることにより、分離領域および偏光部を同一のプロセスにより形成するという作用をもたらす。撮像素子の製造方法の簡略化が想定される。
本開示の実施の形態に係る撮像素子の構成例を示すブロック図である。 本開示の実施の形態に係る撮像素子の構成例を示す図である。 本開示の第1の実施の形態に係る画素の構成例を示す回路図である。 本開示の第1の実施の形態に係る画素の構成例を示す平面図である。 本開示の第1の実施の形態に係る画素の構成例を示す断面図である。 本開示の第1の実施の形態に係る撮像素子の製造方法の一例を示す図である。 本開示の第1の実施の形態に係る撮像素子の製造方法の一例を示す図である。 本開示の第2の実施の形態に係る画素の構成例を示す断面図である。 本開示の第3の実施の形態に係る画素の構成例を示す断面図である。 本開示の第3の実施の形態に係る偏光部の構成例を示す図である。 本開示の第4の実施の形態に係る画素の構成例を示す回路図である。 本開示の第4の実施の形態に係る画素の構成例を示す平面図である。 本開示の第4の実施の形態に係る画素の構成例を示す断面図である。 本開示の第5の実施の形態に係る画素の構成例を示す断面図である。 本開示が適用され得る撮像装置の一例であるカメラの概略的な構成例を示すブロック図である。 本開示の第7の実施の形態に係る画像処理部の構成例を示す図である。 本開示の第7の実施の形態に係る法線の検出の一例を示す図である。 本開示の第7の実施の形態に係る偏光情報の一例を示す図である。 本開示の第7の実施の形態に係る位相差情報の一例を示す図である。 本開示の第7の実施の形態に係る深度マップの一例を示す図である。
 次に、図面を参照して、本開示を実施するための形態(以下、実施の形態と称する)を説明する。以下の図面において、同一または類似の部分には同一または類似の符号を付している。また、以下の順序で実施の形態の説明を行う。
 1.第1の実施の形態
 2.第2の実施の形態
 3.第3の実施の形態
 4.第4の実施の形態
 5.第5の実施の形態
 6.第6の実施の形態
 7.カメラへの応用例
 <1.第1の実施の形態>
 [撮像素子の構成]
 図1は、本開示の実施の形態に係る撮像素子の構成例を示すブロック図である。同図の撮像素子1は、画素アレイ部10と、垂直駆動部20と、カラム信号処理部30と、制御部40とを備える。
 画素アレイ部10は、画素100が2次元格子状に配置されて構成されたものである。ここで、画素100は、照射された光に応じた画像信号を生成するものである。この画素100は、照射された光に応じた電荷を生成する光電変換部を有する。また画素100は、画素回路をさらに有する。この画素回路は、光電変換部により生成された電荷に基づく画像信号を生成する。画像信号の生成は、後述する垂直駆動部20により生成された制御信号により制御される。画素アレイ部10には、信号線11および12がXYマトリクス状に配置される。信号線11は、画素100における画素回路の制御信号を伝達する信号線であり、画素アレイ部10の行毎に配置され、各行に配置される画素100に対して共通に配線される。信号線12は、画素100の画素回路により生成された画像信号を伝達する信号線であり、画素アレイ部10の列毎に配置され、各列に配置される画素100に対して共通に配線される。これら光電変換部および画素回路は、半導体基板に形成される。
 垂直駆動部20は、画素100の画素回路の制御信号を生成するものである。この垂直駆動部20は、生成した制御信号を同図の信号線11を介して画素100に伝達する。カラム信号処理部30は、画素100により生成された画像信号を処理するものである。このカラム信号処理部30は、同図の信号線12を介して画素100から伝達された画像信号の処理を行う。カラム信号処理部30における処理には、例えば、画素100において生成されたアナログの画像信号をデジタルの画像信号に変換するアナログデジタル変換が該当する。カラム信号処理部30により処理された画像信号は、撮像素子1の画像信号として出力される。制御部40は、撮像素子1の全体を制御するものである。この制御部40は、垂直駆動部20およびカラム信号処理部30を制御する制御信号を生成して出力することにより、撮像素子1の制御を行う。制御部40により生成された制御信号は、信号線41および42により垂直駆動部20およびカラム信号処理部30に対してそれぞれ伝達される。
 なお、垂直駆動部20、カラム信号処理部30および制御部40は、請求の範囲に記載の制御回路の一例である。
 [画素アレイ部の構成]
 図2は、本開示の実施の形態に係る撮像素子の構成例を示す図である。同図は、撮像素子1の構成例を表す平面図である。同図の撮像素子1において、画素アレイ部10は中央部に配置される。画素アレイ部10には、画素100の他に位相差画素301および302が配置される。この位相差画素301および302は、被写体を瞳分割することにより被写体の像面位相差を検出する画素である。位相差画素301および302は、図面の左右方向に被写体を瞳分割する。具体的には、位相差画素301および302は、それぞれ光電変換部の右側および左側が遮光される。このような、位相差画素301および302が画素アレイ部10に複数配置される。
 また、画素アレイ部10の周縁部には、遮光画素200が配置される。この遮光画素200は、光電変換部の全面が遮光された画素である。遮光画素200は、画像信号の黒レベルを検出するための画素であり、遮光画素200を除く画素アレイ部10の領域が有効画素領域となる。なお、画素100には後述する偏光部が配置される。この偏光部は、入射光のうち特定の偏光方向の光を透過するものである。通常、被写体からの光には異なる方向に偏光した複数の光が含まれる。これらの光のうち特定の偏光方向の光の撮像を行って画像信号を生成することにより、当該偏光方向の光量を取得することができる。これを複数の偏光方向について行うことにより、被写体からの光がどのように偏光しているか等の偏光情報を取得することができる。この偏光情報に基づいて、被写体の立体形状の把握等を行うことが可能となる。画素100、位相差画素301および302ならびに遮光画素200の構成の詳細については、後述する。
 画素アレイ部10と撮像素子1の外周との間の領域である周辺領域60には、図1において説明した垂直駆動部20、カラム信号処理部30および制御部40を配置することができる。
 [画素の回路構成]
 図3は、本開示の第1の実施の形態に係る画素の構成例を示す回路図である。同図は、画素100の回路構成の一例を表す図である。同図の画素100は、光電変換部101と、電荷保持部102と、MOSトランジスタ103乃至106とを備える。
 光電変換部101のアノードは接地され、カソードはMOSトランジスタ103のソースに接続される。MOSトランジスタ103のドレインは、MOSトランジスタ104のソース、MOSトランジスタ105のゲートおよび電荷保持部102の一端に接続される。電荷保持部102の他の一端は、接地される。MOSトランジスタ104および105のドレインは電源線Vddに共通に接続され、MOSトランジスタ105のソースはMOSトランジスタ106のドレインに接続される。MOSトランジスタ106のソースは、信号線12に接続される。MOSトランジスタ103、104および106のゲートは、それぞれ転送信号線TR、リセット信号線RSTおよび選択信号線SELに接続される。なお、転送信号線TR、リセット信号線RSTおよび選択信号線SELは、信号線11を構成する。
 光電変換部101は、前述のように照射された光に応じた電荷を生成するものである。この光電変換部101には、フォトダイオードを使用することができる。また、電荷保持部102およびMOSトランジスタ103乃至106は、画素回路を構成する。
 MOSトランジスタ103は、光電変換部101の光電変換により生成された電荷を電荷保持部102に転送するトランジスタである。MOSトランジスタ103における電荷の転送は、転送信号線TRにより伝達される信号により制御される。電荷保持部102は、MOSトランジスタ103により転送された電荷を保持するキャパシタである。MOSトランジスタ105は、電荷保持部102に保持された電荷に基づく信号を生成するトランジスタである。MOSトランジスタ106は、MOSトランジスタ105により生成された信号を画像信号として信号線12に出力するトランジスタである。このMOSトランジスタ106は、選択信号線SELにより伝達される信号により制御される。
 MOSトランジスタ104は、電荷保持部102に保持された電荷を電源線Vddに排出することにより電荷保持部102をリセットするトランジスタである。このMOSトランジスタ104によるリセットは、リセット信号線RSTにより伝達される信号により制御され、MOSトランジスタ103による電荷の転送の前に実行される。なお、このリセットの際、MOSトランジスタ103を導通させることにより、光電変換部101のリセットも行うことができる。このように、画素回路は、光電変換部101により生成された電荷を画像信号に変換する。なお、MOSトランジスタ105および106は、画像信号生成部111を構成する。
 同図の画素回路を備える画素100が配置される撮像素子1の撮像は次のように行うことができる。まず、MOSトランジスタ103および104を導通させて光電変換部101および電荷保持部102をリセットする。次に、MOSトランジスタ103および104を非導通の状態に遷移させると、光電変換部101において光電変換により生成された電荷が蓄積され、露光が開始される。所定の露光期間の経過後にMOSトランジスタ103を導通させて光電変換部101により生成された電荷を電荷保持部102に転送する。これによりMOSトランジスタ105により電荷保持部102に保持された電荷に基づく画像信号が生成される。次にMOSトランジスタ106を導通させることにより、生成された画像信号が信号線12を介して画素100から出力される。
 このような露光および画像信号の出力は、画素アレイ部10の行に配置された各画素100において同時に行われる。この各行の画素100における露光および画像信号の出力は、行毎にタイミングをずらして実行される。具体的には、画素アレイ部10の第1行から順に画像信号の出力が信号線12を介して実行される。この順次実行される画像信号の出力に応じた露光期間が行毎に順次設定される。このような撮像形式は、ローリングシャッタ形式と称される。後述するグローバルシャッタ形式と比較して画素回路の構成を簡略化することができる。一方、行毎の撮像期間にずれを生じるため、動きのある被写体を撮像した際には、いわゆるフォーカルプレーン歪みを生じて画質が低下する。
 [画素の平面構成]
 図4は、本開示の第1の実施の形態に係る画素の構成例を示す平面図である。同図は、画素アレイ部10における画素100に配置される偏光部150の配置例を表す平面図である。同図の矩形は画素100を表し、同図の画素100毎に記載された文字「R」、「G」および「B」は画素100に配置されるカラーフィルタ(カラーフィルタ181)の種類を表す。このカラーフィルタ181は、画素100の入射光のうち所定の波長の入射光を透過させる光学的なフィルタである。具体的には、「R」、「G」および「B」が記載された画素100は、それぞれ赤色光、緑色光および青色光を透過するカラーフィルタ181が配置される画素を表す。また、同図の偏光部150は、ワイヤグリッドにより構成される偏光部の例を表したものである。このワイヤグリッドは、複数の帯状導体151が所定のピッチで配列されて構成された偏光部である。
 ここで帯状導体とは、線状や直方体等に構成された導体である。この帯状導体151の中の自由電子は、帯状導体151に入射する光の電場に追従して振動し、反射波を輻射する。複数の帯状導体151が配列される方向と垂直な方向、すなわち帯状導体の長手方向に平行な入射光は、自由電子の振幅が大きくなるため、より多くの反射光を輻射する。このため、当該方向の入射光は偏光部150を透過せずに反射される。一方、帯状導体の長手方向に垂直な光は、帯状導体からの反射光の輻射が小さくなる。自由電子の振動が制限され、振幅が小さくなるためである。当該偏光方向の入射光は、偏光部150による減衰が小さくなり、偏光部150を透過することができる。
 同図のハッチングを付された領域の中の白抜きの矩形が帯状導体151の間の空隙を表す。同図の画素アレイ部10では、2行2列の4つの画素100に同じ種類のカラーフィルタが配置されるとともに偏光方向が順に45°ずつ異なる4種類の偏光部150が配置される。また、カラーフィルタは、この2行2列の画素100を単位としてベイヤー配列に配置される。
 なお、撮像素子1の構成はこの例に限定されない。例えば、カラーフィルタを省略し、モノクロの撮像を行う構成にすることもできる。
 [画素の断面構成]
 図5は、本開示の第1の実施の形態に係る画素の構成例を示す断面図である。同図は、画素100の構成例を表す断面図である。同図の画素100は、半導体基板120と、分離領域140と、偏光部150と、平坦化膜183と、カラーフィルタ181と、オンチップレンズ182と、絶縁層191と、配線層192と、支持基板199とを備える。なお、絶縁層191および配線層192は、配線領域を構成する。
 半導体基板120は、画素回路を構成する素子の半導体部分が形成される基板である。素子の半導体部分は、半導体基板120に形成されたウェル領域に形成される。便宜上、同図の半導体基板120は、p型のウェル領域に構成されるものと想定する。この半導体基板120にn型半導体領域を形成することにより、素子の半導体部分を構成することができる。同図には、n型半導体領域121および122を例として記載した。
 n型半導体領域121は、光電変換部101を構成する。具体的には、n型半導体領域121およびn型半導体領域121の周囲のp型のウェル領域の界面のpn接合部からなるフォトダイオードが光電変換部101に該当する。光電変換により生成された電荷は、n型半導体領域121に蓄積される。n型半導体領域122は、フローティングディヒュージョン形式の電荷保持部102を構成する。また、n型半導体領域121および122の間には、MOSトランジスタ103が配置される。具体的には、MOSトランジスタ103は、n型半導体領域121および122をそれぞれソースおよびドレインとし、これらの間のp型のウェル領域をチャネルとするMOSトランジスタとなる。なお、MOSトランジスタ103のチャネルに隣接してゲート131が配置される。便宜上、半導体基板120およびゲート131の間の絶縁層191は、ゲート絶縁膜に該当する。
 半導体基板120は、例えば3μmの厚さに構成することができる。また、半導体基板120の裏面の表面近傍には、ピニングのためのp型の半導体領域を配置することもできる。ここでピニングとは、半導体基板120の表面に形成される結晶欠陥に基づく界面準位を終端することである。これにより、界面準位に基づくノイズを低減することができる。なお、半導体基板120の裏面は、同図の配線領域が配置される面である表面の裏側の面である。同図の撮像素子1は、半導体基板120の裏面側から入射光が照射される裏面照射型の撮像素子に該当する。
 半導体基板120の表面側には、後述する配線層192および絶縁層191からなる配線領域が配置される。一方、半導体基板120の裏面側には、上述のピニングを強化するための固定電荷膜141(不図示)と半導体基板120の保護および絶縁を行う酸化膜142(不図示)とが配置される。
 固定電荷膜141は、例えば、ハフニウム(Hf)、アルミニウム(Al)、ジルコニウム(Zr)、タンタル(Ta)およびチタン(Ti)のうちの少なくとも1つを含む酸化物または窒化物により構成することができる。また、固定電荷膜141は、気相成長(CVD:Chemical Vapor Deposition)、スパッタリングおよび原子層蒸着(ALD:Atomic Layer Deposition)により形成することができる。ALDを採用した場合には、固定電荷膜141の成膜中に界面準位を低減するSiO膜を同時に形成することが可能となり、好適である。また、ランタン(La)、セリウム(Ce)、ネオジウム(Nd)、プロメチウム(Pm)、サマリウム(Sm)、ユウロピウム(Eu)、ガドリニウム(Gd)、テルビウム(Tb)、ジスプロシウム(Dy)、ホルミウム(Ho)、ツリウム(Tm)、イッテルビウム(Yb)、ルテチウム(Lu)およびイットリウム(Y)のうちの少なくとも1つを含む酸化物または窒化物により構成することもできる。また、固定電荷膜141は、酸窒化ハフニウムまたは酸窒化アルミニウムにより構成することもできる。また、固定電荷膜141には、絶縁性が損なわれない量のシリコン(Si)や窒素(N)を添加することもできる。これにより、耐熱性等を向上させることができる。
 酸化膜142は、例えば、SiOにより構成することができ、ALDにより100nm以下、より好適には30乃至60nmの厚さに形成することができる。
 配線層192は、半導体基板120に形成される素子を配線する導体である。この配線層192は、Cu等の金属により構成することができる。絶縁層191は、配線層192を絶縁するものである。この絶縁層191は、絶縁材料、例えば、SiOにより構成することができる。配線層192および絶縁層191は、多層に構成することができる。同図は、2層に構成された配線領域の例を表したものである。
 分離領域140は、隣接する画素100の光電変換部101を分離する領域である。この分離領域140は、画素100同士の境界近傍に配置され、隣接する画素100からの電荷の流入を防止する。また、分離領域140を配置することにより、隣接する画素100から斜めに入射する光を遮光することもできる。これらの効果により、画素100における画像信号へのノイズの混入を軽減することができる。同図の分離領域140は、半導体基板120の裏面側から表面側に貫通して形成された溝に配置することができる。この分離領域140は、金属により構成することができる。具体的には、Al、銀(Ag)、金(Ag)、銅(Cu)、白金(Pt)、モリブデン(Mo)、クロム(Cr)、Ti、ニッケル(Ni)、W、鉄(Fe)およびテルル(Te)等やこれらの金属を含む合金により構成することができる。また、これらの材料を複数積層して構成することもできる。また、Tiや窒化チタン(TiN)およびこれらを積層した膜を密着層として酸化膜142との間に配置することもできる。
 なお、分離領域140の材料としてAlを採用する場合には、画素100の感度を向上させることができ、好適である。Alは、反射率が比較的高く、光電変換部101(n型半導体領域121)を透過して分離領域140に入射した光が反射され、光電変換部101に戻されるためである。Alによる分離領域140は、公知の方法、例えば、高温スパッタリングにより形成することができる。
 分離領域140を配置する溝は、例えば、半導体基板120をドライエッチングすることにより形成することができる。この溝に上述の金属材料を埋め込むことにより、分離領域140を配置することができる。これは、例えば、スパッタリングや真空蒸着等のPVD(Physical Vapor Deposition)、CVD、めっきおよび塗布法により行うことができる。
 偏光部150は、半導体基板120に積層して配置される。具体的には、上述の酸化膜142に隣接して配置される。同図の偏光部150は、帯状導体151が等ピッチに配置されて構成される。また、同図の偏光部150は、分離領域140と同じ材料により構成することができる。具体的には、同図の帯状導体151は、分離領域140と同一の材料、例えば、Alにより構成することができる。これにより、分離領域140および偏光部150を一体として構成することができ、分離領域140および偏光部150を隣接して形成することができる。このため、分離領域140および偏光部150を同じプロセスにより形成することができる。また、偏光部150と分離領域140とを同時に形成することもできる。具体的には、分離領域140を形成する際に、帯状導体151の材料膜を同時に成膜することができる。これにより、撮像素子1の製造工程を簡略化することができる。また、分離領域140および偏光部150を異なる層に形成する場合と比較して撮像素子1を低背化することができる。
 同図の帯状導体151は、図9において後述する光反射層に該当する。なお、帯状導体151の間には、後述する平坦化膜183を配置することができる。
 平坦化膜183は、偏光部150が形成された半導体基板120の裏面側を平坦化するものである。この平坦化膜183は、例えば、アクリル樹脂等の透明な樹脂により構成することができる。平坦化膜183を配置することにより、後述するカラーフィルタ181が形成される面を平坦化することが可能となり、カラーフィルタ181の膜厚を均一にすることができる。また平坦化膜183を配置することにより、カラーフィルタ181の密着強度を向上させることもできる。
 カラーフィルタ181は、平坦化膜183に隣接して配置される。カラーフィルタ181は、例えば、所定の波長の光を透過させる顔料や染料等を含む有機化合物により構成することができる。なお、カラーフィルタ181には、赤色光、緑色光および青色光に対応するカラーフィルタの他に、シアン、マゼンタおよび黄色に対応する補色系のカラーフィルタを使用することもできる。
 オンチップレンズ182は、入射光を集光するレンズである。このオンチップレンズ182は、例えば、スチレン系樹脂、アクリル系樹脂、スチレン-アクリル系樹脂およびシロキサン系樹脂等の有機材料により構成することができる。また、窒化シリコン(SiN)や酸窒化シリコン(SiON)等の無機材料により構成することもできる。また、上述の有機材料やポリイミド系樹脂に酸化チタン(TiO)粒子を分散させて構成することもできる。また、オンチップレンズ182の表面には、反射を防止するためのオンチップレンズ182とは異なる屈折率の材料膜を配置することもできる。
 支持基板199は、配線領域に隣接して配置される基板である。この支持基板199は、撮像素子1の製造工程において、半導体基板120の強度を向上させる基板である。
 [撮像素子の製造方法]
 図6および7は、本開示の第1の実施の形態に係る撮像素子の製造方法の一例を示す図である。まず、半導体基板120にp型のウェル領域およびn型半導体領域121等を形成する。次に半導体基板120の表面に絶縁層191および配線層192からなる配線領域を形成する。次に、配線領域に隣接して支持基板199を接着して天地を反転させ、半導体基板120を研削して薄肉化する(図6におけるA)。半導体基板120の研削は、例えば、化学的機械的研磨(CMP:Chemical Mechanical Polishing)により行うことができる。
 次に、ドライエッチングを行い、半導体基板120の裏面側から溝601を形成する(図6におけるB)。次に、溝601を含む半導体基板120の裏面に電荷固定膜141を配置する(図6におけるC)。次に、電荷固定膜141の表面に酸化膜142を積層する(図7におけるD)。これらは、例えば、ALDにより形成することができる。次に、分離領域140および偏光部150における帯状導体151の材料膜602を酸化膜142の表面に配置する。この際、材料膜602により溝601を埋めて、分離領域140を形成する(図7におけるE)。なお、偏光部150の膜厚を均一にするために、材料膜602の表面を平坦化することもできる。次に、材料膜602をエッチングし、帯状導体151を形成する(図7におけるF)。これにより、偏光部150を形成することができる。当該工程は、請求の範囲に記載の分離領域を形成する工程および偏光部を形成する工程の一例である。
 以上説明したように、本開示の第1の実施の形態の撮像素子1は、分離領域140および偏光部150を同一の材料により構成することにより、分離領域140および偏光部150を同一のプロセスにより形成することができる。撮像素子1の製造工程の簡略化が可能となる。
 <2.第2の実施の形態>
 上述の第1の実施の形態の撮像素子1は、分離領域140および偏光部150を同一の材料により構成していた。これに対し、本開示の第2の実施の形態の撮像素子1は、位相差画素301等や遮光画素200における遮光部を偏光部150と同一の材料により形成する。
 [画素の断面構成]
 図8は、本開示の第2の実施の形態に係る画素の構成例を示す断面図である。同図は、画素100と図2において説明した遮光画素200および位相差画素301の構成例を表す断面図である。
 遮光画素200には、偏光部150の代わりに画素遮光部250が配置される。画素遮光部250は、遮光画素200における半導体基板120の裏面側全面を遮光するものである。この画素遮光部250は、偏光部150と同一の材料により構成することができる。すなわち、画素遮光部250は、分離領域140と同一の材料により構成することができる。また、画素遮光部250は、偏光部150および分離領域140と同時に形成することができる。
 遮光画素200の外周には、周辺領域60が配置される。図2において説明したように、この周辺領域60には、垂直駆動部20やカラム信号処理部30、制御部40等の制御回路(不図示)が配置される。この制御回路を遮光するため、周辺領域60には、制御回路遮光部61が配置される。同図の制御回路遮光部61は、制御回路の全体を覆うように配置される。上述の画素遮光部250と同様に、制御回路遮光部61は、偏光部150と同一の材料により構成することができる。また、制御回路遮光部61は、偏光部150と同時に形成することができる。
 位相差画素301には、偏光部150の代わりに位相差画素遮光部350が配置される。この位相差画素遮光部350には、瞳分割を行うための開口部351が配置される。同図の位相差画素301は、光電変換部101の左側に開口部351が配置され、撮影レンズの右側を透過した入射光が光電変換部101に入射する。なお、位相差画素301と対をなす位相差画素302(不図示)においても位相差画素遮光部350が配置される。位相差画素302の位相差画素遮光部350には光電変換部101の右側に開口部が配置される。このため、位相差画素302は撮影レンズの左側を透過した入射光が光電変換部101に入射する。これにより、位相差画素301および302において瞳分割が実行される。位相差画素遮光部350においても、偏光部150と同一の材料により構成することができる。また、位相差画素遮光部350を偏光部150と同時に形成することができる。
 これ以外の撮像素子1の構成は本開示の第1の実施の形態において説明した撮像素子1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第2の実施の形態の撮像素子1は、遮光画素200、周辺領域60ならびに位相差画素301および302に画素遮光部250、制御回路遮光部61および位相差画素遮光部350がそれぞれ配置される。これら画素遮光部250、制御回路遮光部61および位相差画素遮光部350は、偏光部150と同一の材料により構成される。これにより、撮像素子1の製造方法を簡略化することができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態の撮像素子1は、単層の偏光部150が配置されていた。これに対し、本開示の第3の実施の形態の撮像素子1は、複数の層により構成される偏光部が配置される点で、上述の第1の実施の形態と異なる。
 [画素の断面構成]
 図9は、本開示の第3の実施の形態に係る画素の構成例を示す断面図である。同図の画素100は、偏光部150の代わりに偏光部160を備える点で、図5において説明した画素100と異なる。
 同図の偏光部160は、複数の帯状導体161が等ピッチに配置されて構成される。この帯状導体161は、複数の層により構成される。具体的には、帯状導体161は、光反射層162、絶縁層163および光吸収層164により構成される。
 光反射層162は、入射光を反射するものである。光反射層162を使用して帯状導体161を構成することにより、帯状導体161の並び方向に垂直な方向、すなわち、帯状導体161の長手方向に平行な振動方向の光を反射することができる。前述のように、光反射層162は、分離領域140と同一の材料により構成することができる。ここでは、Alにより構成された光反射層162を想定する。
 光吸収層164は、光を吸収するものである。この光吸収層164は、光反射層162により反射された光を吸収する。光吸収層164を配置することにより、偏光部160からの反射光を低減することができる。反射光に起因するフレア等のノイズを低減することができる。この光吸収層164は、消衰係数が零でない材料、すなわち吸収作用を有する金属や半導体により構成することができる。具体的には、光吸収層164は、Ag、Au、Cu、Mo、Cr、Ti、Ni、W、Fe、Si、Ge、TeおよびSn等の金属材料やこれらの金属を含む合金により構成することができる。また、FeSi(特にβ-FeSi)、MgSi、NiSi、BaSi、CrSiおよびCoSi等のシリサイド系材料を使用することもできる。ここでは、Wにより構成された光吸収層164を想定する。光吸収層164は、例えば50nmの比較的薄い膜厚に構成することができる。偏光部160を入射光が透過する際の透過率の低下を軽減するためである。
 絶縁層163は、光反射層162および光吸収層164の間に配置されて、撮像素子1の製造の際に、先に形成された光反射層162を保護するものである。また、光反射層162により反射された光の位相の調整を行うこともできる。具体的には、光吸収層164を透過して光反射層162において反射される光の位相と光吸収層164において反射される光の位相とが180°異なる位相差となる膜厚に絶縁層163を構成する。これにより、光吸収層164および光反射層162からそれぞれ反射される光が打ち消し合うため、偏光部160からの入射光の反射が低減される。絶縁層163は、例えば、ALDにより成膜されるSiOにより構成することができる。
 なお、同図の偏光部160は、光反射層162が分離領域140と隣接して配置されるが、撮像素子1の構成は、この例に限定されない。例えば、光反射層162に加えて絶縁層163や光吸収層164が分離領域140に配置される構成にすることもできる。
 [偏光部の構成]
 図10は、本開示の第3の実施の形態に係る偏光部の構成例を示す図である。同図は、偏光部160の詳細な構成を表した図である。偏光部160は、上述の光反射層162、絶縁層163および光吸収層164のほかに、密着層167、側壁保護層165、上部保護層166および空隙169により構成される。
 密着層167は、酸化膜142および光反射層162の間に配置され、光反射層162の密着強度を向上させるものである。この密着層167には、例えば、Ti、TiNおよびこれらを積層した膜を使用することができる。
 帯状導体161の間の空隙169には、空気等のガスを封入することができる。このようなエアギャップ構造にすることにより偏光部160の透過率を向上させることができる。空気等は屈折率が略1であるためである。
 側壁保護層165は、積層された光反射層162、絶縁層163および光吸収層164による帯状導体161の周囲に配置され、主に帯状導体161の側壁を保護するものである。上述のエアギャップ構造においては、光反射層162および光吸収層164を構成する金属材料や合金材料が空気(外気)と接触することとなる。側壁保護層165を配置することにより、外気中の水分等による光反射層162等の腐食や劣化を防止することができる。この側壁保護層165には、屈折率が2以下、かつ、消衰係数が零に近い材料を採用すると好適である。偏光部160における偏光特性への影響を軽減することができるためである。具体的には、側壁保護層165は、SiO、SiON、SiN、SiC、SiOCおよびSiCN等のSiによる絶縁材料により構成することができる。また、側壁保護層165は、酸化アルミニウム(AlOx)、酸化ハフニウム(HfOx)、酸化ジルコニウム(ZrOx)酸化タンタル(TaOx)等の金属酸化物により構成することもできる。これらの材料を使用し、CVD、PVD、ALDおよびゾル-ゲル法等の公知の方法により成膜することにより、側壁保護層165を形成することができる。
 上部保護層166は、帯状導体161の上面に隣接して配置され、空隙169を閉塞する膜である。この上部保護層166は、上述の側壁保護層165と同様の材料により構成することができる。また、上部保護層166は、材料が空隙169に析出せず帯状導体161の上面に析出する成膜方法、例えば、PVDにより成膜することができる。
 同図の偏光部160において、光反射層162、絶縁層163および光吸収層164は、例えば、それぞれ150nm、25nmおよび25nmの厚さに構成することができる。このような多層構成の偏光部160を配置することにより、偏光部160からの反射光を軽減することができる。また、エアギャップ構造の偏光部160にすることにより偏光部160の透過率を向上させることができる。
 これ以外の撮像素子1の構成は本開示の第1の実施の形態において説明した撮像素子1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第3の実施の形態の撮像素子1は、3層構成の偏光部160を配置することにより、偏光部160からの反射を低減することができ、画質の低下を防止することができる。
 <4.第4の実施の形態>
 上述の第1の実施の形態の撮像素子1は、ローリングシャッタ形式の撮像を行っていた。これに対し、本開示の第4の実施の形態の撮像素子1は、グローバルシャッタ形式の撮像を行う点で、上述の第1の実施の形態と異なる。
 [画素の回路構成]
 図11は、本開示の第4の実施の形態に係る画素の構成例を示す回路図である。同図は、図3と同様に、画素100の回路構成の一例を表す図である。同図の画素100は、次の点で、図3において説明した画素100と異なる。画素回路110は、MOSトランジスタ108および第2の電荷保持部107をさらに備える。信号線11は、転送信号線TXをさらに備える。
 光電変換部101のカソードはMOSトランジスタ108のソースに接続され、MOSトランジスタ108のゲートは転送信号線TXに接続される。MOSトランジスタ108のドレインは、MOSトランジスタ103のソースおよび第2の電荷保持部107の一端に接続される。第2の電荷保持部107の他の一端は、接地される。これ以外の素子の結線は図3と同様であるため、説明を省略する。
 第2の電荷保持部107は、光電変換部101により生成された電荷を保持するものである。この第2の電荷保持部107は、画素100における露光の終了から画像信号の出力の開始までの期間に電荷を保持する。
 MOSトランジスタ108は、光電変換部101により生成された電荷を第2の電荷保持部107に転送するトランジスタである。
 同図の画素回路を備える画素100が配置される撮像素子1の撮像は次のように行うことができる。まず、MOSトランジスタ103、104および108を導通させて光電変換部101、電荷保持部102および第2の電荷保持部107をリセットする。このリセットは、画素アレイ部10に配置された全ての画素100において同時に行う。次に、MOSトランジスタ103、104および108を非導通の状態に遷移させる。これにより、露光期間が開始される。所定の露光期間の経過後にMOSトランジスタ103および104を再度導通させて第2の電荷保持部107を再度リセットした後、MOSトランジスタ108を導通させて光電変換部101により生成された電荷を第2の電荷保持部107に転送する。これにより、全画素100同時に露光期間が停止される。
 次に、MOSトランジスタ104を導通させて電荷保持部102を再度リセットし、MOSトランジスタ103を導通させて第2の電荷保持部107の電荷を電荷保持部102に転送する。次に、MOSトランジスタ106を導通させてMOSトランジスタ105により生成された画像信号を信号線12に出力する。この電荷保持部102のリセットから画像信号の出力までの処理を画素アレイ部10の第1行から順に行毎に実行する。これにより、1つのフレームの画像信号を撮像素子1から出力することができる。このように、第2の電荷保持部107を配置して光電変換部101により生成された電荷を一時的に保持することにより、露光および画像信号の出力のそれぞれの期間を離間して実行することができる。画素アレイ部10に配置された全ての画素100において同時に露光を行うことが可能となる。このような撮像形式は、グローバルシャッタ形式と称される。また、第2の電荷保持部107に電荷を転送した後には、次のフレームの露光を開始することができる。
 グローバルシャッタ形式を採用することにより、ローリングシャッタ形式のような行毎の露光期間のずれを生じないため、動きのある被写体の撮像の際の歪みを軽減することができる。また、位相差画素301等を配置して焦点を検出する際においても、動きのある被写体の焦点検出精度を向上させることができる。なお、第2の電荷保持部107は、請求の範囲に記載の電荷保持部の一例である。
 [画素の平面構成]
 図12は、本開示の第4の実施の形態に係る画素の構成例を示す平面図である。同図は、図11において説明した画素100の構成例を表す平面図であり、裏面側から見た半導体基板120の構成を表す図である。同図を用いて画素100における光電変換部101等の平面的な配置を説明する。
 画素100における半導体基板120の領域の周囲に分離領域140が配置される。光電変換部101を構成するn型半導体領域121は、同図の画素100の左下に配置される。この光電変換部101の上側に第2の電荷保持部107が配置される。第2の電荷保持部107はn型半導体領域126により構成される。また、n型半導体領域126が形成される半導体基板120の近傍には、ゲート絶縁膜を介してMOSトランジスタ108のゲート135が配置される。MOSトランジスタ108は、n型半導体領域121および126をそれぞれソース領域およびドレイン領域とするMOSトランジスタである。n型半導体領域126の右端に隣接してゲート131およびn型半導体領域122が配置される。
 n型半導体領域126および122ならびにゲート131は、MOSトランジスタ103を構成する。すなわちMOSトランジスタ103は、n型半導体領域126および122をそれぞれソース領域およびドレイン領域とするMOSトランジスタである。また、n型半導体領域122は、電荷保持部102にも該当する。n型半導体領域122に隣接して、ゲート132およびn型半導体領域123が配置される。n型半導体領域122および123ならびにゲート132は、MOSトランジスタ104を構成する。すなわちMOSトランジスタ104は、n型半導体領域122および123をそれぞれソース領域およびドレイン領域とするMOSトランジスタである。
 n型半導体領域123に隣接してゲート133およびn型半導体領域124が配置される。n型半導体領域123および124ならびにゲート133は、MOSトランジスタ105を構成する。すなわちMOSトランジスタ105は、n型半導体領域123および124をそれぞれドレイン領域およびソース領域とするMOSトランジスタである。n型半導体領域124に隣接してゲート134およびn型半導体領域125が配置される。n型半導体領域124および125ならびにゲート134は、MOSトランジスタ106を構成する。すなわちMOSトランジスタ106は、n型半導体領域124および125をそれぞれドレイン領域およびソース領域とするMOSトランジスタである。
 これらのn型半導体領域やゲートに配線が接続されて画素回路110が形成される。なお、光電変換部101を構成するn型半導体領域121と第2の電荷保持部107を構成するn型半導体領域126との間には、第2の分離領域143が配置される。後述するように、この第2の分離領域143は、光電変換部101と第2の電荷保持部107とを分離するものである。
 [画素の断面構成]
 図13は、本開示の第4の実施の形態に係る画素の構成例を示す断面図である。同図は、画素100の構成例を表す断面図であり、図12におけるa-a’線に沿った断面図である。同図の画素100は、次の点で、図5において説明した画素100と異なる。偏光部150の代わりに偏光部160を備える。半導体基板120に第2の分離領域143がさらに配置され、半導体基板120に隣接して遮光部170が配置される。絶縁層191に蓋部195がさらに配置される。
 同図の画素100は、図9において説明した画素100と同様に偏光部160を備える。偏光部160を構成する光反射層162は、分離領域140に隣接して配置される。
 第2の分離領域143は、光電変換部101および第2の電荷保持部107の間に配置される分離領域である。この第2の分離領域143は、半導体基板120に形成された溝に配置される。分離領域140とは異なり、第2の分離領域143が形成される溝は、半導体基板120を貫通せず、底部が半導体基板120の表面側の比較的浅い位置に形成される。このため、第2の分離領域143の底部と半導体基板120の表面との間には、開口部が形成され、当該開口部にMOSトランジスタ108のチャネルが形成される。この第2の分離領域143を配置することにより、光電変換部101から第2の電荷保持部107への電荷の流入を抑制することができる。
 前述のように、第2の電荷保持部107には、露光期間の終了から画像信号の出力の期間に電荷を保持する。この保持期間には、例えば、光電変換部101において次のフレームの露光が開始される。この際、光電変換部101から第2の電荷保持部107に電荷が流入すると、異なるフレームの画像信号がノイズとして混入することとなる。そこで、第2の遮光領域143をMOSトランジスタ108のチャネル領域を除いて光電変換部101および第2の電荷保持部107の間に配置することにより、電荷の流入を抑制することができ、ノイズの混入を軽減することができる。また、第2の遮光領域143を配置することにより、光電変換部101の領域から第2の電荷保持部107に入射する光を遮光することができ、入射光に基づくノイズの混入を軽減することができる。この第2の遮光領域143は、分離領域140と同様に偏光部160の光反射層162と同一の材料により構成することができる。また、第2の遮光領域143は、光反射層162と同時に形成することができる。
 遮光部170は、半導体基板120の裏面側の第2の電荷保持部107の近傍に配置されて第2の電荷保持部107を遮光するものである。この遮光部170は、分離領域140および第2の分離領域143に隣接して配置され、偏光部160と同層に配置される。また、遮光部170は、偏光部160と同一の材料により構成することができる。
 蓋部195は、配線領域の絶縁層191に配置されて光電変換部101を透過した入射光を遮光するものである。この蓋部195は、壁部194および底部193により構成され、光電変換部101と配線層192との間を蓋状に覆い、遮光する。画素100に入射した光の一部は、光電変換部101における光電変換に寄与せずに透過する。この透過光が配線領域の配線層192により反射されて他の画素100の光電変換部101に入射すると、他の画素100にノイズが混入することとなり、画質が低下する。そこで、蓋部195を配置することにより、光電変換部101を透過した入射光の配線層192による反射を防止する。壁部194および底部193は、配線層192と同様にCu等の金属により構成することができる。
 このように、第2の分離領域143を偏光部160と同一の材料により構成することにより、第2の分離領域143および偏光部160を隣接して形成することができ、撮像素子1の製造方法を簡略化することができる。また、撮像素子1を低背化することもできる。同様に、遮光部170を偏光部160と同一の材料に寄り構成することにより、遮光部170を偏光部160と同層に隣接して配置することができ、撮像素子1の製造方法を簡略化するとともに低背化することができる。
 分離領域140および第2の分離領域143は、半導体基板120に形成された溝に、例えば、Al等の材料を配置することにより構成することができる。分離領域140を配置する溝は、第2の分離領域143を配置する溝より深く形成する必要がある。これは、例えば、2段階の溝の形成により行うことができる。まず、半導体基板120のエッチングを行い、分離領域140および第2の分離領域143を形成する位置に、第2の分離領域143に対応する深さの溝を形成する。次に、第2の分離領域143を配置する溝をレジスト等により保護し、分離領域140を配置する溝に対して再度エッチングを行う。これにより、異なる深さの溝を形成することができる。次に、分離領域140、第2の分離領域143および偏光部160を構成する材料、例えば、Alの膜を半導体基板120上に成膜するとともに、これらの溝に配置する。以上の工程により、分離領域140および第2の分離領域143を形成することができる。
 これ以外の撮像素子1の構成は本開示の第1の実施の形態において説明した撮像素子1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第4の実施の形態の撮像素子1は、グローバルシャッタ形式の撮像を行うための第2の電荷保持部107と光電変換部101との間に偏光部160と同一の材料により構成される第2の分離領域143を配置する。また、第2の電荷保持部107を遮光する遮光部170を偏光部160と同一の材料により構成する。これにより、撮像素子1の製造方法を簡略化することができる。
 <5.第5の実施の形態>
 上述の第4の実施の形態の撮像素子1は、同じ膜厚の偏光部160および遮光部170を備えていた。これに対し、本開示の第5の実施の形態の撮像素子1は、偏光部160とは異なる膜厚の遮光部170を備える点で、上述の第4の実施の形態と異なる。
 [画素の断面構成]
 図14は、本開示の第5の実施の形態に係る画素の構成例を示す断面図である。同図は、画素100の構成例を表す断面図である。同図の画素100は、偏光部160とは異なる膜厚の遮光部170を備える点で、図13において説明した画素100と異なる。
 同図に表したように、偏光部160は、遮光部170より薄い膜厚に構成することができる。遮光部170は、第2の電荷保持部107の遮光能力を向上させるため、比較的厚い膜厚に構成する必要がある。一方、偏光部160は消光比等を調整するため、厚さを調整必要が生じる。ここで、消光比とは、偏光部160の最大の透過光と最小の透過光との比率である。帯状導体161の並び方向に平行な入射光は、帯状導体161の短辺方向に自由電子を振動させるため、自由電子の追従性が低くなり、当該偏光方向の入射光を透過させることができる。しかし、帯状導体161の膜厚が厚くなると、帯状導体161の短辺方向の電気抵抗が低下する。このため帯状導体161の並び方向に平行な入射光の透過が阻害され、消光比が低下する。そこで、偏光部160および遮光部170をそれぞれ所望の厚さに形成し、厚さを調整する。これにより、偏光部160の消光比や遮光部170の遮光能力を個別に調整することができる。
 同図においては、光反射層162および絶縁層163を偏光部160および遮光部170において同じ膜厚に構成し、光吸収層164を偏光部160および遮光部170において異なる厚さに構成する。具体的には、偏光部160の光吸収層164を遮光部170の光吸収層164より薄い膜厚に構成する。これは、例えば、光吸収層164の材料を成膜した後に、膜厚を調整する領域、すなわち、偏光部160を形成する領域の光吸収層164の材料を個別にエッチングすることにより行うことができる。
 これ以外の撮像素子1の構成は本開示の第4の実施の形態において説明した撮像素子1の構成と同様であるため、説明を省略する。
 以上説明したように、本開示の第5の実施の形態の撮像素子1は、偏光部160および遮光部170の厚さを調整し、それぞれ異なる厚さの偏光部160および遮光部170を配置する。これにより、遮光部170の遮光能力を向上させながら、偏光部160の消光比等を調整することができる。
 <7.カメラへの応用例>
 本開示に係る技術(本技術)は、様々な製品に応用することができる。例えば、本技術は、カメラ等の撮像装置に搭載される撮像素子として実現されてもよい。
 図15は、本技術が適用され得る撮像装置の一例であるカメラの概略的な構成例を示すブロック図である。同図のカメラ1000は、レンズ1001と、撮像素子1002と、撮像制御部1003と、レンズ駆動部1004と、画像処理部1005と、操作入力部1006と、フレームメモリ1007と、表示部1008と、記録部1009とを備える。
 レンズ1001は、カメラ1000の撮影レンズである。このレンズ1001は、被写体からの光を集光し、後述する撮像素子1002に入射させて被写体を結像させる。
 撮像素子1002は、レンズ1001により集光された被写体からの光を撮像する半導体素子である。この撮像素子1002は、照射された光に応じたアナログの画像信号を生成し、デジタルの画像信号に変換して出力する。
 撮像制御部1003は、撮像素子1002における撮像を制御するものである。この撮像制御部1003は、制御信号を生成して撮像素子1002に対して出力することにより、撮像素子1002の制御を行う。また、撮像制御部1003は、撮像素子1002から出力された画像信号に基づいてカメラ1000におけるオートフォーカスを行うことができる。ここでオートフォーカスとは、レンズ1001の焦点位置を検出して、自動的に調整するシステムである。このオートフォーカスとして、撮像素子1002に配置された位相差画素により像面位相差を検出して焦点位置を検出する方式(像面位相差オートフォーカス)を使用することができる。また、画像のコントラストが最も高くなる位置を焦点位置として検出する方式(コントラストオートフォーカス)を適用することもできる。撮像制御部1003は、検出した焦点位置に基づいてレンズ駆動部1004を介してレンズ1001の位置を調整し、オートフォーカスを行う。なお、撮像制御部1003は、例えば、ファームウェアを搭載したDSP(Digital Signal Processor)により構成することができる。
 レンズ駆動部1004は、撮像制御部1003の制御に基づいて、レンズ1001を駆動するものである。このレンズ駆動部1004は、内蔵するモータを使用してレンズ1001の位置を変更することによりレンズ1001を駆動することができる。
 画像処理部1005は、撮像素子1002により生成された画像信号を処理するものである。この処理には、例えば、画素毎の赤色、緑色および青色に対応する画像信号のうち不足する色の画像信号を生成するデモザイク、画像信号のノイズを除去するノイズリダクションおよび画像信号の符号化等が該当する。画像処理部1005は、例えば、ファームウェアを搭載したマイコンにより構成することができる。
 操作入力部1006は、カメラ1000の使用者からの操作入力を受け付けるものである。この操作入力部1006には、例えば、押しボタンやタッチパネルを使用することができる。操作入力部1006により受け付けられた操作入力は、撮像制御部1003や画像処理部1005に伝達される。その後、操作入力に応じた処理、例えば、被写体の撮像等の処理が起動される。
 フレームメモリ1007は、1画面分の画像信号であるフレームを記憶するメモリである。このフレームメモリ1007は、画像処理部1005により制御され、画像処理の過程におけるフレームの保持を行う。
 表示部1008は、画像処理部1005により処理された画像を表示するものである。この表示部1008には、例えば、液晶パネルを使用することができる。
 記録部1009は、画像処理部1005により処理された画像を記録するものである。この記録部1009には、例えば、メモリカードやハードディスクを使用することができる。
 以上、本開示が適用され得るカメラについて説明した。本技術は以上において説明した構成のうち、撮像素子1002に適用され得る。具体的には、図1において説明した撮像素子1は、撮像素子1002に適用することができる。また、位相差画素301および302によるオートフォーカスの制御は、撮像制御部1003において行うことができる。なお、画像処理部1005は、請求の範囲に記載の処理回路の一例である。カメラ1000は、請求の範囲に記載の撮像装置の一例である。
 なお、ここでは、一例としてカメラについて説明したが、本開示に係る技術は、その他、例えば監視装置等に適用されてもよい。また、本開示は、カメラ等の電子機器の他に、半導体モジュールの形式の半導体装置に適用することもできる。具体的には、図19の撮像素子1002および撮像制御部1003を1つのパッケージに封入した半導体モジュールである撮像モジュールに本開示に係る技術を適用することもできる。
 [立体形状の取得処理]
 偏光部150を有する画素100および位相差画素301および302を使用した被写体の立体形状の取得を画像処理部1005において行う場合の例について説明する。
 [画像処理部の構成]
 図16は、本開示の第7の実施の形態に係る画像処理部の構成例を示す図である。同図は、画像処理部1005において、立体形状の撮像を行う部分の構成例を表すブロック図である。同図の画像処理部1005は、画像信号分離部501と、偏光情報生成部502と、法線情報生成部503と、位相差情報生成部504と、奥行き情報生成部505と、法線ベクトル生成部506とを備える。
 画像信号分離部501は、画素100と位相差画素301および302とにより生成された画像信号を分離するものである。この画像信号分離部501は、カラム信号処理部30から出力されるデジタルの画像信号を画素100の画像信号および位相差画素301および302の画像信号に分離し、それぞれ偏光情報生成部502および位相差情報生成部504に対して出力する。
 偏光情報生成部502は、画素100の画像信号から偏光情報を生成するものである。ここで、偏光情報とは、被写体の画像における偏光の情報である。この偏光情報生成部502は、図4において説明した4つの偏光方向の偏光部150を透過した入射光に応じた画像信号に基づいて偏光情報を生成する。
 被写体からの光には、特定の方向に偏光した偏光成分と特定の偏光方向によらない無偏光成分とが含まれる。この特定の方向に偏光した成分は、鏡面反射に基づく光であり、反射の際に被写体の面の方向に応じて偏光された光である。一方、無偏光成分は、拡散反射に基づく光である。偏光情報生成部502は、画素100の画像信号を偏光成分および無偏光成分に分離する。次に偏光成分の偏光方向(偏光角)および偏光度を偏光情報として生成する。偏光情報生成部502における処理の詳細については後述する。
 法線情報生成部503は、偏光情報生成部502により生成された偏光情報に基づいて法線情報を生成するものである。ここで、法線情報とは、被写体の面に仮想的に形成される法線の情報であり、被写体の面の方向を特定する情報である。この法線情報には、極座標系におけるx軸およびz軸に対する角度の情報を適用することができる。法線情報生成部503における処理の詳細については後述する。
 位相差情報生成部504は、位相差画素301等の画像信号から位相差情報を生成するものである。ここで、位相差情報とは、図1において説明した被写体の位相差を表す情報である。撮像素子(画素アレイ部10)には、撮影レンズが所定の焦点距離に配置され、被写体が結像される。撮影レンズの位置を調整して被写体にピントを合わせて撮像を行うことにより、ぼけが少ない画像を得ることができる。位相差画素301等を配置することにより、この焦点位置からの被写体のずれを位相差として検出することができる。また、位相差を検出することにより、被写体が撮像素子から近い位置に配置される場合および遠い位置に配置される場合について焦点位置を基準とする判別を行うこともできる。位相差情報の詳細については後述する。
 奥行き情報生成部505は、位相差情報生成部504により生成された位相差情報に基づいて被写体の奥行き情報を生成するものである。ここで、奥行き情報とは、撮影レンズの焦点位置を基準とした被写体の光軸方向の形状の情報である。この奥行き情報は、上述の被写体位置の判別の結果に基づいて生成することができる。
 法線ベクトル生成部506は、法線情報生成部503により生成された法線情報と奥行き情報生成部505により生成された奥行き情報とに基づいて、前述の法線のベクトルを生成するものである。
 [法線情報]
 図17は、本開示の第7の実施の形態に係る法線の検出の一例を示す図である。同図におけるAは、被写体を撮像しながら被写体の法線を検出することにより被写体の形状を取得する様子を表す図である。同図におけるAは、基準面4に配置された被写体401を撮像装置2により撮像する様子を表したものである。同図におけるAに表したように、被写体401は、基準面4から撮像装置2の方向に盛り上がった形状に構成される。同図の撮像装置2には、撮影レンズ5が配置される。この撮影レンズ5は、例えば、基準面4にピントが合う焦点位置に配置することができる。光源3から出射された光は、被写体401の表面により反射され、撮影レンズ5を介して撮像装置2の画素アレイ部10(不図示)に入射する。被写体401の面402に着目し、法線を説明する。
 同図におけるBは、被写体401を撮像装置2の方向から見た図である。同図におけるBに表したように座標軸(x軸、y軸およびz軸)を定義する。面402における法線403の方向は、x軸からの角度である方位角φおよびz軸からの角度である天頂角θにより表すことができる。被写体401を複数の面に分割し、これらの面毎の方位角φおよび天頂角θを算出して法線を取得することにより、被写体401の立体的な形状を取得することができる。前述の法線情報生成部503は、これらの面毎の方位角φおよび天頂角θを法線情報として生成する。
 [偏光情報]
 図18は、本開示の第7の実施の形態に係る偏光情報の一例を示す図である。同図におけるAは、図17において説明した被写体401を撮像装置2により撮像する際の偏光方向と画像信号レベルとの関係を表した図である。同図におけるAの横軸は、偏光角を表す。この偏光角は、図17におけるx軸からy軸方向に向かう角度に該当する。同図におけるAの縦軸は、画像の輝度を表す。この輝度は、画像信号レベルに応じた値である。同図におけるAは、偏光部150の偏光方向を連続して変化させたと仮定した場合の画像の輝度の変化を表したものである。同図におけるAに表したように、被写体401からの光は、偏光方向に応じて輝度が変化する偏光成分412が偏光方向によらず一定の輝度の無偏光成分413に重畳された構成となる。同図におけるAのImaxおよびIminは、それぞれ輝度の最大値および最小値を表す。偏光成分412は、180度の周期を有する正弦波形状のグラフとなる。
 同図におけるAの輝度Iは、例えば、次の式により表すことができる。
Figure JPOXMLDOC01-appb-I000001
 
ここで、υは偏光角を表す。偏光情報生成部502は、画像信号分離部501により分離された画素100の画像信号から偏光部150の偏光方向毎の画像信号を抽出し、式(1)に当てはめることにより、同図におけるAのグラフを生成する。法線情報生成部503は、この生成されたグラフからImaxおよびIminを取得する。また、輝度がImaxとなる偏光角が方位角φに該当する。法線情報生成部503は、このグラフのImaxから方位角φを取得することができる。
 また、法線情報生成部503は、被写体401の画像の偏光度を算出する。この偏光度ρは、次の式により表すことができる。
Figure JPOXMLDOC01-appb-I000002
 
この偏光度ρにより天頂角θを算出することができる。同図におけるBは、偏光度と天頂角との関係を表す図である。同図におけるBのグラフは、フレネルの式より導かれるグラフである。なお、被写体401の屈折率に応じて適用するグラフを選択する必要がある。同図におけるBのグラフのうち、破線のグラフは比較的高い屈折率の場合を表し、1点鎖線のグラフは比較的低い屈折率の場合を表す。このように、偏光情報生成部502および法線情報生成部503により偏光情報および法線情報がそれぞれ生成される。
 図18におけるAに表したように、偏光方向に応じた輝度の変化は、180度の周期性を有する。このため、上述の法線の方向として180度異なる2つの方向が算出され、不定性を生じる。具体的には、被写体401が基準面4に対して上側(撮像装置2に近い側)に凸の形状であるか下側(撮像装置2から遠い側)に凸の形状であるかが不明となる。
 [位相差情報]
 図19は、本開示の第7の実施の形態に係る位相差情報の一例を示す図である。同図におけるA乃至Cは、位相差を検出する際の被写体7、撮影レンズ5および画素アレイ部10の関係を表した図である。また、同図におけるA乃至Cの、入射光6aおよび6bは、それぞれ画素の右側に開口部が配置された位相差画素302および画素の左側に開口部が配置された位相差画素301に入射する入射光を表す。
 同図におけるAは、撮影レンズ5の焦点位置にある被写体7の面を撮像する場合を表した図である。この場合には、入射光6aおよび6bは、画素アレイ部10の受光面に集光される。同図におけるBは、撮影レンズ5の焦点位置より近い位置の被写体7の面を撮像する場合を表した図である。入射光6aおよび6bは、画素アレイ部10の後方に集光され、いわゆる後ピンの状態になる。このため、画素アレイ部10の受光面において画像がずれて撮像される。同図におけるCは、撮影レンズ5の焦点位置より遠い位置の被写体7の面を撮像する場合を表した図である。入射光6aおよび6bは、画素アレイ部10の受光面より撮影レンズ5に近接した位置に集光され、いわゆる前ピンの状態になる。同図におけるBと比較して、逆の方向に画像がずれて撮像される。このように、被写体の位置に応じて集光位置が変化し、画像がずれて撮像される。
 また、同図におけるD乃至Fは、図17において説明した被写体401を撮像した場合の画像を表した図であり、位相差画素位置および輝度の関係を表した図である。また、同図におけるD乃至Fは、それぞれ同図におけるA乃至Cの位置関係に対応して撮像した場合を表す図である。ここで、位相差画素位置は、画素アレイ部10の同一の行に配置された複数の位相差画素301等の位置を表す。また、同図におけるD乃至Fの実線および破線は、それぞれ入射光6aおよび6bに基づく画像であり、画素の右側に開口部が配置された位相差画素302および画素の左側に開口部が配置された位相差画素301による画像である。
 図16において説明した位相差情報生成部504は、位相差画素301および302の画像信号による画像を位相差情報として生成する。また、奥行き情報生成部505は、この位相差情報に基づいて、被写体の奥行きの方向を基準面である焦点位置に対する位置関係(奥行き)として検出する。この奥行き情報により、前述の不定性の問題を解消することができる。法線ベクトル生成部506は、この奥行き情報および法線情報により被写体401の面毎の法線の向きを含む法線ベクトルを生成する。この法線ベクトルにより、例えば、被写体401の深度マップを生成することができる。
 [深度マップ]
 図20は、本開示の第7の実施の形態に係る深度マップの一例を示す図である。同図は、法線ベクトルから生成される深度マップの例を表した図である。同図のグラディションにより、被写体の深度が表示される。このように、画像処理部1005において被写体の立体形状の取得を行うことができる。
 最後に、上述した各実施の形態の説明は本開示の一例であり、本開示は上述の実施の形態に限定されることはない。このため、上述した各実施の形態以外であっても、本開示に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。
 また、上述の実施の形態における図面は、模式的なものであり、各部の寸法の比率等は現実のものとは必ずしも一致しない。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれることは勿論である。
 また、上述の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、CD(Compact Disc)、DVD(Digital Versatile Disc)およびメモリカード等を用いることができる。
 なお、本技術は以下のような構成もとることができる。
(1)半導体基板に形成されて入射光の光電変換を行う光電変換部がそれぞれ配置される複数の画素と、
 前記複数の画素の光電変換部をそれぞれ分離する分離領域と、
 前記分離領域と同一の材料により構成されて特定の偏光方向の入射光を透過させて前記光電変換部に入射させる偏光部と
を具備する撮像素子。
(2)前記偏光部は、所定のピッチに配置された複数の帯状導体により構成される前記(1)に記載の撮像素子。
(3)前記偏光部は、積層された複数の層により構成され、
 前記分離領域は、前記複数の層の少なくとも1つと同一の材料により構成される
前記(2)に記載の撮像素子。
(4)前記偏光部は、前記分離領域と同時に形成される前記(1)から(3)の何れかに記載の撮像素子。
(5)前記複数の画素にそれぞれ配置されて前記光電変換部における光電変換により生成された電荷に基づく画像信号を生成する画素回路をさらに具備する前記(1)から(4)の何れかに記載の撮像素子。
(6)前記画素回路は、
 前記生成された電荷を保持する保持部と、
 前記保持された電荷に基づいて画像信号を生成する画像信号生成部と
を備える前記(5)に記載の撮像素子。
(7)前記分離領域と同一の材料により構成されて前記保持部と前記光電変換部とを分離する第2の分離領域と、
 前記保持部を遮光する遮光部と
をさらに具備する前記(6)に記載の撮像素子。
(8)前記遮光部は、前記偏光部と同一の材料により構成される前記(7)に記載の撮像素子。
(9)前記遮光部は、前記偏光部とは異なる膜厚に構成される前記(7)に記載の撮像素子。
(10)前記偏光部は、積層された複数の層により構成され、
 前記遮光部は、前記複数の層により構成されるとともに当該複数の層の少なくとも1つが前記偏光部とは異なる膜厚に構成される
前記(9)に記載の撮像素子。
(11)前記複数の画素が配置される領域の周縁部の画素における前記光電変換部を遮光するとともに前記偏光部と同一の材料により構成される画素遮光部をさらに具備する前記(1)から(10)の何れかに記載の撮像素子。
(12)被写体からの入射光を瞳分割して像面位相差を検出するための位相差画素をさらに具備する前記(1)から(11)の何れかに記載の撮像素子。
(13)前記位相差画素は、前記偏光部と同一の材料により構成されて前記瞳分割のための開口部が配置された位相差画素遮光部を備える前記(12)に記載の撮像素子。
(14)前記画素と電気信号のやり取りを行う制御回路をさらに具備する前記(1)から(13)の何れかに記載の撮像素子。
(15)前記偏光部と同一の材料により構成されて前記制御回路を遮光する制御回路遮光部をさらに具備する前記(14)に記載の撮像素子。
(16)入射光の光電変換を行う光電変換部がそれぞれ配置された複数の画素が形成された半導体基板において前記複数の画素の光電変換部をそれぞれ分離する分離領域を形成する工程と、
 特定の偏光方向の入射光を透過させて前記光電変換部に入射させる偏光部を前記分離領域と同一の材料により形成する工程と
を具備する撮像素子の製造方法。
 1 撮像素子
 2 撮像装置
 10 画素アレイ部
 20 垂直駆動部
 30 カラム信号処理部
 40 制御部
 60 周辺領域
 61 制御回路遮光部
 100 画素
 101 光電変換部
 102 電荷保持部
 103~108 MOSトランジスタ
 107 第2の電荷保持部
 110 画素回路
 111 画像信号生成部
 120 半導体基板
 140 分離領域
 143 第2の分離領域
 150、160 偏光部
 151、161 帯状導体
 162 光反射層
 163 絶縁層
 164 光吸収層
 165 側壁保護層
 166 上部保護層
 169 空隙
 170 遮光部
 200 遮光画素
 250 画素遮光部
 301、302 位相差画素
 350 位相差画素遮光部
 1000 カメラ
 1002 撮像素子
 1005 画像処理部

Claims (16)

  1.  半導体基板に形成されて入射光の光電変換を行う光電変換部がそれぞれ配置される複数の画素と、
     前記複数の画素の光電変換部をそれぞれ分離する分離領域と、
     前記分離領域と同一の材料により構成されて特定の偏光方向の入射光を透過させて前記光電変換部に入射させる偏光部と
    を具備する撮像素子。
  2.  前記偏光部は、所定のピッチに配置された複数の帯状導体により構成される請求項1記載の撮像素子。
  3.  前記偏光部は、積層された複数の層により構成され、
     前記分離領域は、前記複数の層の少なくとも1つと同一の材料により構成される
    請求項2記載の撮像素子。
  4.  前記偏光部は、前記分離領域と同時に形成される請求項1記載の撮像素子。
  5.  前記複数の画素にそれぞれ配置されて前記光電変換部における光電変換により生成された電荷に基づく画像信号を生成する画素回路をさらに具備する請求項1記載の撮像素子。
  6.  前記画素回路は、
     前記生成された電荷を保持する保持部と、
     前記保持された電荷に基づいて画像信号を生成する画像信号生成部と
    を備える請求項5記載の撮像素子。
  7.  前記分離領域と同一の材料により構成されて前記保持部と前記光電変換部とを分離する第2の分離領域と、
     前記保持部を遮光する遮光部と
    をさらに具備する請求項6記載の撮像素子。
  8.  前記遮光部は、前記偏光部と同一の材料により構成される請求項7記載の撮像素子。
  9.  前記遮光部は、前記偏光部とは異なる膜厚に構成される請求項7記載の撮像素子。
  10.  前記偏光部は、積層された複数の層により構成され、
     前記遮光部は、前記複数の層により構成されるとともに当該複数の層の少なくとも1つが前記偏光部とは異なる膜厚に構成される
    請求項9記載の撮像素子。
  11.  前記複数の画素が配置される領域の周縁部の画素における前記光電変換部を遮光するとともに前記偏光部と同一の材料により構成される画素遮光部をさらに具備する請求項1記載の撮像素子。
  12.  被写体からの入射光を瞳分割して像面位相差を検出するための位相差画素をさらに具備する請求項1記載の撮像素子。
  13.  前記位相差画素は、前記偏光部と同一の材料により構成されて前記瞳分割のための開口部が配置された位相差画素遮光部を備える請求項12記載の撮像素子。
  14. 前記画素と電気信号のやり取りを行う制御回路をさらに具備する請求項1記載の撮像素子。
  15.  前記偏光部と同一の材料により構成されて前記制御回路を遮光する制御回路遮光部をさらに具備する請求項14記載の撮像素子。
  16.  入射光の光電変換を行う光電変換部がそれぞれ配置された複数の画素が形成された半導体基板において前記複数の画素の光電変換部をそれぞれ分離する分離領域を形成する工程と、
     特定の偏光方向の入射光を透過させて前記光電変換部に入射させる偏光部を前記分離領域と同一の材料により形成する工程と
    を具備する撮像素子の製造方法。
PCT/JP2019/046975 2019-02-01 2019-12-02 撮像素子および撮像素子の製造方法 WO2020158164A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019017030A JP2020126882A (ja) 2019-02-01 2019-02-01 撮像素子および撮像素子の製造方法
JP2019-017030 2019-02-01

Publications (1)

Publication Number Publication Date
WO2020158164A1 true WO2020158164A1 (ja) 2020-08-06

Family

ID=71840403

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/046975 WO2020158164A1 (ja) 2019-02-01 2019-12-02 撮像素子および撮像素子の製造方法

Country Status (2)

Country Link
JP (1) JP2020126882A (ja)
WO (1) WO2020158164A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013493A1 (ja) * 2021-08-06 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2023013554A1 (ja) * 2021-08-06 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 光検出器及び電子機器
WO2023167006A1 (ja) * 2022-03-04 2023-09-07 ソニーセミコンダクタソリューションズ株式会社 光検出装置、その製造方法、及び電子機器

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220223635A1 (en) * 2021-01-08 2022-07-14 Taiwan Semiconductor Manufacturing Co., Ltd. Semiconductor device including image sensor and method of forming the same
JP2023100350A (ja) * 2022-01-06 2023-07-19 ソニーセミコンダクタソリューションズ株式会社 光検出装置及び電子機器

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012009539A (ja) * 2010-06-23 2012-01-12 Sony Corp 固体撮像装置、電子機器、固体撮像装置の製造方法
JP2015144194A (ja) * 2014-01-31 2015-08-06 ソニー株式会社 固体撮像素子および電子機器
WO2017018258A1 (ja) * 2015-07-30 2017-02-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
JP2018160486A (ja) * 2017-03-22 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器
JP2018195719A (ja) * 2017-05-18 2018-12-06 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像素子の製造方法
WO2018235416A1 (ja) * 2017-06-21 2018-12-27 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び固体撮像装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012009539A (ja) * 2010-06-23 2012-01-12 Sony Corp 固体撮像装置、電子機器、固体撮像装置の製造方法
JP2015144194A (ja) * 2014-01-31 2015-08-06 ソニー株式会社 固体撮像素子および電子機器
WO2017018258A1 (ja) * 2015-07-30 2017-02-02 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置及び電子機器
JP2018160486A (ja) * 2017-03-22 2018-10-11 ソニーセミコンダクタソリューションズ株式会社 撮像素子、電子機器
JP2018195719A (ja) * 2017-05-18 2018-12-06 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像素子の製造方法
WO2018235416A1 (ja) * 2017-06-21 2018-12-27 ソニーセミコンダクタソリューションズ株式会社 撮像素子及び固体撮像装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023013493A1 (ja) * 2021-08-06 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器
WO2023013554A1 (ja) * 2021-08-06 2023-02-09 ソニーセミコンダクタソリューションズ株式会社 光検出器及び電子機器
WO2023167006A1 (ja) * 2022-03-04 2023-09-07 ソニーセミコンダクタソリューションズ株式会社 光検出装置、その製造方法、及び電子機器

Also Published As

Publication number Publication date
JP2020126882A (ja) 2020-08-20

Similar Documents

Publication Publication Date Title
WO2020158164A1 (ja) 撮像素子および撮像素子の製造方法
US11211410B2 (en) Solid-state image-capturing device and production method thereof, and electronic appliance
KR102425588B1 (ko) 고체 촬상 장치 및 그 제조 방법, 및 전자 기기
US9165962B2 (en) Solid state imaging device
US9313424B2 (en) Two-dimensional solid-state image capture device with polarization member and color filter for sub-pixel regions and polarization-light data processing method therefor
US9647026B2 (en) Solid-state image pickup device, method of manufacturing the same, and electronic apparatus
JP6308717B2 (ja) 固体撮像装置、固体撮像装置の製造方法、および撮像システム
TWI828734B (zh) 攝像元件、攝像裝置及攝像方法
JP2018182022A (ja) 固体撮像装置
WO2017159362A1 (ja) 固体撮像素子およびその製造方法、並びに電子機器
JP2010050260A (ja) 半導体イメージセンサ
JP5366616B2 (ja) 撮像素子及びその製造方法
US20220130879A1 (en) Image sensor and imaging apparatus
US8659687B2 (en) Photoelectric conversion film stack-type solid-state imaging device and imaging apparatus
WO2020100431A1 (ja) 受光装置
WO2015063965A1 (ja) 固体撮像装置
CN104377213A (zh) 固体摄像装置以及固体摄像装置的制造方法
JP2017126678A (ja) 固体撮像装置および固体撮像装置の製造方法
CN115516634A (zh) 电子设备
JP2010225986A (ja) 固体撮像素子及びその製造方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19912310

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19912310

Country of ref document: EP

Kind code of ref document: A1