WO2021090537A1 - 固体撮像素子、および、撮像装置 - Google Patents

固体撮像素子、および、撮像装置 Download PDF

Info

Publication number
WO2021090537A1
WO2021090537A1 PCT/JP2020/028244 JP2020028244W WO2021090537A1 WO 2021090537 A1 WO2021090537 A1 WO 2021090537A1 JP 2020028244 W JP2020028244 W JP 2020028244W WO 2021090537 A1 WO2021090537 A1 WO 2021090537A1
Authority
WO
WIPO (PCT)
Prior art keywords
electrodes
pair
dimming element
solid
incident light
Prior art date
Application number
PCT/JP2020/028244
Other languages
English (en)
French (fr)
Inventor
大祐 長谷川
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/755,545 priority Critical patent/US20220415947A1/en
Priority to EP20885356.4A priority patent/EP4057352A4/en
Publication of WO2021090537A1 publication Critical patent/WO2021090537A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14621Colour filter arrangements
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers
    • H01L27/14645Colour imagers
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14643Photodiode arrays; MOS imagers

Definitions

  • This technology relates to a solid-state image sensor and an image pickup device. More specifically, the present invention relates to a solid-state image sensor that adjusts the amount of incident light and an image pickup device.
  • a dimming element which is an element whose transmittance changes according to an applied voltage, has been used in a solid-state image sensor for the purpose of adjusting the amount of incident light.
  • a solid-state imaging device in which an upper electrode, a dimming element, and a lower electrode are laminated in order from the top with the incident direction of the incident light as the upward direction has been proposed (see, for example, Patent Document 1).
  • the amount of incident light is adjusted by applying a voltage between the upper electrode and the lower electrode to change the transmittance of the dimming element.
  • a part of the incident light transmitted through the dimming element is kicked by the wiring under the dimming element, and the image quality of the image data may deteriorate due to the vignetting. There is.
  • This technology was created in view of such a situation, and aims to improve the image quality of image data in a solid-state image sensor provided with a dimming element.
  • the present technology has been made to solve the above-mentioned problems, and the first side surface thereof is a pair of electrodes arranged along a predetermined arrangement direction perpendicular to the optical axis of the incident light, and the above-mentioned. It is a solid-state image pickup device including a dimming element arranged between a pair of electrodes and transmitting the incident light by a transmittance corresponding to a voltage between the pair of electrodes. This has the effect of improving the oblique incident characteristics.
  • the dimming element may be a plate-shaped element. This has the effect of adjusting the amount of transmitted light by the plate-shaped dimming element.
  • the pair of electrodes and the dimming element are arranged in each of a plurality of pixels, and the dimming element is arranged in a region covering a part of the light receiving region of the photodiode. May be good. This has the effect of detecting the phase difference.
  • the pair of electrodes and the dimming element are arranged in a specific pixel among a plurality of pixels, and the dimming element is formed in a region covering a part of a light receiving region of the photodiode. It may be arranged. This has the effect of improving the sensitivity of pixels that are not provided with a dimming element.
  • a control line and a ground line are further provided, and the pair of electrodes and the dimming element are arranged in each of a plurality of pixels, and a specific pixel among the plurality of pixels is provided.
  • the pair of electrodes arranged in may be connected to the control line and the ground line. This has the effect of detecting the phase difference.
  • the dimming element is formed with a plurality of notches along a specific direction, and each of the pair of electrodes extends in the arrangement direction and the direction perpendicular to the optical axis.
  • the linear connecting portion and the protruding portion protruding along the specific direction may be provided, and the protruding portion may be arranged in the notch. This has the effect of reducing power consumption.
  • the pair of electrodes may be transparent. This has the effect of transmitting incident light through the electrodes.
  • the pair of electrodes may be opaque. This has the effect of controlling the polarization characteristics.
  • a wiring layer and a photoelectric conversion element that receives the incident light are further provided, and the wiring layer may be arranged between the dimming element and the photoelectric conversion element. Good. This has the effect of irradiating the surface of the semiconductor substrate with incident light.
  • a wiring layer and a photoelectric conversion element that receives the incident light are further provided, and the photoelectric conversion element may be arranged between the dimming element and the wiring layer. Good. This has the effect of irradiating the back surface of the semiconductor substrate with incident light.
  • the second side surface of the present technology is between the pair of electrodes arranged along a predetermined arrangement direction perpendicular to the optical axis of the incident light and the pair of electrodes arranged between the pair of electrodes.
  • FIG. 1 shows the wiring example of the control line in the 3rd Embodiment of this technique.
  • FIG. 1 shows an example of the layout of a transparent electrode and a light control element in the 1st modification of the 3rd Embodiment of this technique.
  • Fourth Embodiment Example of arranging a pair of transparent electrodes in a direction perpendicular to the optical axis and irradiating the back surface with light
  • Fifth Embodiment Example in which a pair of metal electrodes are arranged in a direction perpendicular to the optical axis
  • Sixth Embodiment Example of arranging a pair of metal electrodes in a direction perpendicular to the optical axis and irradiating the back surface with light
  • FIG. 1 is a block diagram showing a configuration example of the image pickup apparatus 100 according to the first embodiment of the present technology.
  • the image pickup device 100 is a device for capturing image data, and includes an optical unit 110, a solid-state image sensor 200, and a DSP (Digital Signal Processing) circuit 120. Further, the image pickup apparatus 100 includes a display unit 130, an operation unit 140, a bus 150, a frame memory 160, a storage unit 170, and a power supply unit 180.
  • a digital camera such as a digital still camera, a smartphone having an image pickup function, a personal computer, an in-vehicle camera, or the like is assumed.
  • the optical unit 110 collects the light from the subject and guides it to the solid-state image sensor 200.
  • the solid-state image sensor 200 generates image data by photoelectric conversion in synchronization with a vertical synchronization signal.
  • the vertical synchronization signal is a periodic signal having a predetermined frequency indicating the timing of imaging.
  • the solid-state image sensor 200 supplies the generated image data to the DSP circuit 120 via the signal line 209.
  • the DSP circuit 120 executes predetermined image processing on the image data from the solid-state image sensor 200.
  • the DSP circuit 120 outputs the processed image data to the frame memory 160 or the like via the bus 150.
  • the DSP circuit 120 is an example of the signal processing circuit described in the claims.
  • the display unit 130 displays image data.
  • a liquid crystal panel or an organic EL (Electro Luminescence) panel is assumed.
  • the operation unit 140 generates an operation signal according to the operation of the user.
  • the bus 150 is a common route for the optical unit 110, the solid-state image sensor 200, the DSP circuit 120, the display unit 130, the operation unit 140, the frame memory 160, the storage unit 170, and the power supply unit 180 to exchange data with each other.
  • the frame memory 160 holds image data.
  • the storage unit 170 stores various data such as image data.
  • the power supply unit 180 supplies power to the solid-state image sensor 200, the DSP circuit 120, the display unit 130, and the like.
  • FIG. 2 is a block diagram showing a configuration example of the solid-state image sensor 200 according to the first embodiment of the present technology.
  • the solid-state image sensor 200 includes a vertical scanning circuit 210, a DAC 220, a timing control circuit 230, a pixel array unit 240, a column signal processing circuit 250, and a horizontal scanning circuit 260.
  • a plurality of pixels 300 are arranged in a two-dimensional grid pattern.
  • a set of pixels 300 arranged in a predetermined horizontal direction is referred to as a "row”
  • a set of pixels 300 arranged in a direction perpendicular to the horizontal direction is referred to as a "column”.
  • the timing control circuit 230 controls the operation timing of the vertical scanning circuit 210, the column signal processing circuit 250, etc. in synchronization with the vertical synchronization signal.
  • the vertical scanning circuit 210 selects and drives rows in order to output an analog pixel signal.
  • the DAC 220 generates a reference signal by DA (Digital to Analog) conversion and supplies it to the column signal processing circuit 250.
  • DA Digital to Analog
  • As the reference signal for example, a saw blade-shaped lamp signal is used.
  • the pixel 300 generates a pixel signal by photoelectric conversion under the control of the vertical scanning circuit 210. Each of the pixels 300 outputs a pixel signal to the column signal processing circuit 250.
  • the column signal processing circuit 250 performs signal processing such as CDS (Correlated Double Sampling) processing and AD conversion processing on the pixel signal for each column.
  • the column signal processing circuit 250 supplies image data composed of a digital signal after signal processing to the DSP circuit 120 under the control of the horizontal scanning circuit 260.
  • the horizontal scanning circuit 260 selects columns in order and causes the column signal processing circuit 250 to output digital signals in order.
  • FIG. 3 is an example of a cross-sectional view of the pixel 300 according to the first embodiment of the present technology.
  • the optical axis of the incident light is defined as the Z axis
  • the axis parallel to the row in the pixel array unit 240 in the plane perpendicular to the Z axis is defined as the X axis.
  • an axis parallel to the row in the pixel array unit 240, in other words, an axis perpendicular to the Z axis and the X axis is defined as the Y axis.
  • the figure is a cross-sectional view of the pixel 300 seen from the direction of the Y axis.
  • Each of the pixels 300 is formed on the semiconductor substrate 301. Elements such as a photodiode 352 and a floating diffusion layer 353 are arranged in each of the pixels 300. Further, an element such as a photodiode 352 is separated from an adjacent pixel 300 by an element separation region 351.
  • a wiring layer 330 is formed on the upper part of the photodiode 352 with the direction toward the optical unit 110 facing upward.
  • the wiring layer 330 is provided with a plurality of wirings including a ground line 331, a power supply line 332, and a control line 333, and a transistor such as a transfer transistor 341.
  • the potential of the ground wire 331 is a predetermined ground potential VSS.
  • a predetermined power supply voltage VDD is applied to the power supply line 332.
  • a control voltage Vctrl for controlling the transmission rate of the dimming element 323, which will be described later, is applied to the control line 333.
  • Transparent electrodes 322 and 324 are arranged for each pixel 300 on the upper portion of the wiring layer 330. These transparent electrodes 322 and 324 are arranged along a direction (X-axis direction or Y-axis direction) perpendicular to the optical axis (that is, Z-axis). As the transparent electrodes 322 and 324, for example, indium tin oxide (ITO) is used. In addition, tin oxide (SnO 2 ) or indium oxide (In 2 O) may be used for the transparent electrodes 322 and 324.
  • the transparent electrode 322 is connected to the ground wire 331, and its potential is the ground potential VSS.
  • the transparent electrode 324 is connected to the control line 333, and a control voltage Vctrl is applied to the transparent electrode 324.
  • a dimming element 323 is arranged between the transparent electrode 322 and the transparent electrode 324.
  • the dimming element 323 is an element that transmits incident light with a transmittance corresponding to the control voltage Vctrl between the transparent electrodes 322 and 324.
  • a suspended particle device SPD
  • the suspended particle device contains a large number of particles, and when the voltage value of the control voltage Vctrl is zero (that is, no voltage is applied), the individual particles are arranged in a predetermined direction (such as the optical axis direction).
  • the light transmittance is the highest.
  • the particles are arranged in a direction perpendicular to the optical axis, and the transmittance is lower than when no voltage is applied. The higher the voltage value, the lower the transmittance.
  • the transparent electrodes 322 and 324 are examples of the pair of electrodes described in the claims.
  • the circuit outside the pixel 300 can adjust the amount of transmitted light by changing the transmittance of the dimming element 323 by the control voltage Vctrl.
  • the control voltage Vctrl applied to the transparent electrodes 322 and 324 sandwiching the dimming element 323 stepwise to obtain the optimum transmittance.
  • Cameras that determine whether the road surface is frozen and cameras that identify people in the car are also expected to be used in strong light conditions such as the sun, and have similar dynamic range problems. These can also be solved by the method described above. Specifically, the DSP circuit 120 or the like measures the amount of incident light, and the higher the amount of photometry, the lower the control voltage Vctrl to lower the transmittance.
  • an oxide film 321 is provided around the transparent electrodes 322 and 324 and the dimming element 323.
  • a color filter 312 is formed on the upper part of the dimming element 323, and an on-chip lens 311 is formed on the upper part of the color filter 312.
  • the wiring layer 330 is arranged between the dimming element 323 and the photodiode 352, and is the surface (that is, the surface) of both sides of the semiconductor substrate 301 on which the wiring layer 330 is formed. ) Is irradiated with light. Therefore, the solid-state image sensor 200 having such a configuration is called a surface-illuminated solid-state image sensor.
  • the electrochromic element is an element whose color changes by controlling the applied voltage, and this can also be used as the dimming element 323.
  • the oxidative color-developing layer is originally transparent, but is a layer that develops color by being oxidized, and is composed of, for example, iridium oxide.
  • oxides such as iridium, nickel, chromium, vanadium, ruthenium, and rhodium or hydroxides can be used for the oxidation color-developing layer.
  • iridium oxide is used for the oxidative coloring layer, it turns gray when colored.
  • the reduced color-developing layer is originally transparent, but is a layer that develops color by being reduced, and is made of, for example, tungsten oxide (WO 3 ). Molybdenum oxide (MoO 3 ) can also be used. When tungsten oxide is used for the reduction color development layer, it turns blue when colored. In the electrochromic element configured as described above, when a voltage is applied to the sandwiching electrodes, the oxidation color-developing layer and the reduction color-developing layer are oxidized and reduced, respectively, and become colored and opaque.
  • a composite device of a polymer and a liquid crystal can be used as a dimming element 323.
  • the polymer liquid crystal composite device is formed, for example, by arranging a composite layer of a polymer and a liquid crystal between two transparent electrodes facing each other. When a voltage is applied to the electrodes, the orientation directions of the liquid crystal molecules are aligned and a transparent state is obtained. On the other hand, when no voltage is applied between the electrodes, the liquid crystal molecules are oriented substantially randomly according to the surrounding polymer network and scatter the incident light. That is, the polymer liquid crystal composite device becomes opaque.
  • the so-called PNLC Polymer Network Liquid Crystal
  • the so-called PDLC Polymer Dispersed Liquid Crystal
  • graphene can also be used as the dimming element 323.
  • FIG. 4 is a plan view showing an example of the layout of the photodiode 352 and the transistor according to the first embodiment of the present technology. The figure shows an XY plane passing through the O1-O2 axis of FIG.
  • a photodiode 352, a transfer transistor 341, a floating diffusion layer 353, a reset transistor 342, an amplification transistor 343, and a selection transistor 344 are arranged in each of the pixels 300. Further, an element separation region 351 is provided around these elements.
  • the photodiode 352 converts the incident light into an electric charge.
  • the transfer transistor 341 transfers an electric charge from the photodiode 352 to the floating diffusion layer 353 under the control of the vertical scanning circuit 210.
  • the floating diffusion layer 353 accumulates electric charges and generates a voltage according to the amount of electric charges.
  • the reset transistor 342 initializes the charge amount of the floating diffusion layer 353 according to the control of the vertical scanning circuit 210.
  • the amplification transistor 343 amplifies the voltage of the floating diffusion layer 353.
  • the selection transistor 344 outputs a signal of the amplified voltage as a pixel signal to the vertical signal line under the control of the vertical scanning circuit 210.
  • the number of transistors is not limited to four and may be five or six.
  • FIG. 5 is a plan view showing an example of the wiring layout of the signal lines in the row direction in the first embodiment of the present technology.
  • the figure shows an XY plane passing through the A1-A2 axes of FIG.
  • a transfer line 334, a selection line 335, and a reset line 338 are wired along the X-axis direction (in other words, the line direction).
  • the vertical scanning circuit 210 supplies the transfer signal TG for driving the transfer transistor 341 via the transfer line 334, and supplies the selection signal SEL for driving the selection transistor 344 via the selection line 335. Further, the vertical scanning circuit 210 supplies a reset signal RST for driving the reset transistor 342 via the reset line 338.
  • the FD wiring 336 is wired in the pixel 300.
  • the FD wiring 336 is wired between the photodiode 352 and the floating diffusion layer 353.
  • the ground line 331, the power supply line 332, and the vertical signal line 337 are wired along the Z-axis direction.
  • the black rectangle in FIG. 5 represents the cross section of these wirings in the Z-axis direction.
  • the vertical signal line 337 is a signal line for transmitting a pixel signal.
  • FIG. 6 is a plan view showing an example of the wiring layout of the signal lines in the column direction in the first embodiment of the present technology.
  • the figure shows an XY plane passing through the B1-B2 axes of FIG.
  • a vertical signal line 337 is wired for each row along the Y-axis direction (in other words, the row direction). Further, the vertical signal line 337 branches in the Z-axis direction for each pixel 300 and is connected to the selection transistor 344.
  • the ground line 331 and the power supply line 332 are wired along the Z-axis direction.
  • the black rectangle in FIG. 6 represents the cross section of these wirings in the Z-axis direction.
  • FIG. 7 is a plan view showing an example of the wiring layout of the power supply line 332, the ground line 331, and the control line 333 according to the first embodiment of the present technology.
  • the figure shows an XY plane passing through the C1-C2 axis of FIG.
  • the power supply line 332, the ground line 331, and the control line 333 are wired along the X-axis direction (row direction).
  • the ground line 331 and the control line 333 branch in the Z-axis direction for each pixel 300 and are connected to the transparent electrodes 322 and 324.
  • FIG. 8 is a plan view showing an example of the arrangement of contacts of the ground wire 331 and the control line 333 in the first embodiment of the present technology.
  • the figure shows an XY plane passing through the E1-E2 axes of FIG.
  • the ground line 331 and the control line 333 are wired along the Z-axis direction.
  • the black rectangle in FIG. 8 represents a contact that is a connection point connected to the transparent electrode 322 of the ground wire 331 and a connection point (contact) of the control line 333 that is connected to the transparent electrode 324.
  • FIG. 9 is a plan view showing an example of the layout of the transparent electrodes 322 and 324 and the dimming element 323 in the first embodiment of the present technology.
  • the figure shows an XY plane passing through the H1-H2 axes of FIG.
  • the transparent electrodes 322 and 324 are arranged along the Y-axis direction perpendicular to the optical axis (Z-axis). Further, the transparent electrodes 322 and 324 are linear and are formed along the X-axis direction.
  • a plate-shaped dimming element 323 is arranged between the transparent electrode 322 and the transparent electrode 324. Further, the dimming element 323 is formed in a region covering the entire photodiode 352 in the XY plane.
  • the potential of the transparent electrode 322 is the ground potential VSS, and the control voltage Vctrl is applied to the transparent electrode 324.
  • the dimming element 323 transmits the incident light at a transmittance corresponding to the control voltage Vctrl.
  • FIG. 10 is a diagram showing an example of the trajectory of incident light when the control voltage Vctrl is low (zero voltage, etc.) in the first embodiment of the present technology.
  • the white arrows in the figure indicate the trajectory of the incident light.
  • the distance from the surface of the color filter 312 to the surface of the photodiode 352 is Z 1, and the thickness of the dimming element 323 is Z 0 . Further, it is assumed that the incident light is incident at a predetermined position on the surface of the color filter 312 at a predetermined incident angle. This incident light is incident on the surface of the photodiode 352, for example, depending on the angle of incidence.
  • FIG. 11 is a diagram showing an example of the locus of incident light when the control voltage Vctrl is high in the first embodiment of the present technology.
  • the white arrows in the figure indicate the trajectory of the incident light.
  • FIG. 12 is a diagram showing an example of the locus of incident light when the control voltage in the comparative example is high.
  • the white arrows in the figure indicate the trajectory of the incident light.
  • the higher the control voltage the higher the transmittance of the dimming element.
  • the incident portion of the incident light and the incident angle are the same as those in FIGS. 10 and 11.
  • the thickness of each of the upper transparent electrode and the lower transparent electrode is Z 2 .
  • the distance from the surface of the color filter to the upper transparent electrode and the thickness of the wiring layer are the same as those in FIGS. 10 and 11.
  • the distance from the surface of the color filter to the surface of the photodiode is Z 1 + 2 ⁇ Z 2 .
  • the distance from the surface of the color filter to the surface of the photodiode becomes longer by the amount of the laminated transparent electrodes (that is, 2 ⁇ Z 2). Since the distance to the photodiode is increased, in the comparative example, a part of the incident light incident at an angle is kicked by the wiring of the wiring layer, and there is a high possibility that vignetting occurs.
  • the transparent electrodes 322 and 324 are arranged along the direction perpendicular to the optical axis and the dimming element 323 is arranged between them, up to the photodiode.
  • the distance of can be set to a value shorter than that of the comparative example (Z 1).
  • Z 1 the comparative example
  • the oblique incidence characteristic can be improved.
  • the dynamic range can be widened by improving the oblique incident characteristics.
  • FIG. 13 is a diagram showing an example of the locus of incident light when the control voltage in the comparative example is low.
  • the lower the control voltage the lower the transmittance of the dimming element and the smaller the amount of transmitted light.
  • the transparent diodes 322 and 324 are arranged along the direction perpendicular to the optical axis, and the dimming element 323 is arranged between them, so that they are laminated.
  • the distance to the photodiode can be shortened as compared with the case of As a result, vignetting due to wiring in the wiring layer can be suppressed, and the image quality of image data can be improved.
  • the plate-shaped dimming element 323 is arranged between the transparent electrodes 322 and 324, but the lower the transmittance, the higher the required voltage and the higher the power consumption. It ends up.
  • the solid-state imaging device 200 of the second embodiment is different from the first embodiment in that the shape of the dimming element 323 is made into a comb shape to reduce power consumption.
  • FIG. 14 is an example of a cross-sectional view of the pixel 300 in the second embodiment of the present technology.
  • FIG. 15 is a plan view showing an example of the layout of the transparent electrode and the dimming element 323 in the second embodiment of the present technology. The figure shows a plane passing through the H1-H2 axis of FIG.
  • the dimming element 323 of the second embodiment is different from the first embodiment in that it has a comb shape in which a plurality of notches are formed.
  • Each of the notches is formed along a specific direction (X-axis or Y-axis) perpendicular to the optical axis.
  • X-axis or Y-axis perpendicular to the optical axis.
  • the upper left pixel 300 and the lower right pixel 300 form a notch along the Y-axis direction
  • the upper right pixel 300 and the lower left pixel 300 form a notch along the X-axis direction.
  • the transparent electrode on the ground side includes a linear connection portion 361 and a plurality of protrusions 363, and the transparent electrode on the power supply side includes a linear connection portion 362 and a plurality of protrusions 364.
  • the linear connection portion 361 is connected to the ground wire, and its potential is the ground potential VSS.
  • the linear connection portion 362 is connected to the power supply line, and the control voltage Vctrl is applied.
  • These linear connection portions 361 and 362 extend along a direction (for example, the X-axis direction) perpendicular to the optical axis (Z-axis) and the arrangement direction of the transparent electrodes (for example, the Y-axis direction).
  • the protruding portion 363 is connected to the linear connecting portion 361 on the ground side, and protrudes along the notch direction (X-axis direction or Y-axis direction).
  • the protruding portion 364 is connected to the linear connecting portion 362 on the power supply side and projects along the direction of the notch.
  • a notch is formed along the Y-axis direction, and the protruding portion 363 branches downward from the upper linear connecting portion 361 and protrudes. From the lower linear connection portion 362, the projecting portion 364 branches and projects upward. Further, the protrusions 363 and 364 are alternately arranged in each of the plurality of notches.
  • the dimming element 323 was sandwiched between the notches.
  • a control voltage Vctrl can be applied to the portion. Since the resistance of the portion sandwiched by the notch is smaller than the resistance of the dimming element 323 without the notch, the control voltage Vctrl required to control the target transmittance can be made lower than that without the notch. .. Therefore, the power consumption can be reduced by lowering the required control voltage Vctrl.
  • the light is driven more than in the case where there is no notch.
  • the control voltage Vctrl required for the above can be lowered. As a result, power consumption can be reduced.
  • the dimming element 323 is arranged in the region covering the entire photodiode, but in this configuration, the phase difference between the pixel signals of the pair of pupil-divided pixels is detected. Can't.
  • the solid-state image sensor 200 of the third embodiment is different from the first embodiment in that a phase difference pixel for detecting the phase difference is provided.
  • FIG. 16 is an example of a cross-sectional view of the pixel 300 according to the third embodiment of the present technology.
  • FIG. 17 is a plan view showing an example of the layout of the transparent electrodes 322 and 324 and the dimming element 323 in the third embodiment of the present technology. The figure shows a plane passing through the H1-H2 axis of FIG.
  • the dimming element 323 of the third embodiment is different from the first embodiment in that it is formed in a region covering a part of the photodiode.
  • the upper left dimming element 323 is formed in a region covering the right side
  • the lower right dimming element 323 is formed in a region covering the left side.
  • the lower left dimming element 323 is formed in a region covering the lower side
  • the upper right dimming element 323 is formed in a region covering the upper side.
  • FIG. 18 is a diagram showing a wiring example of a control line according to a third embodiment of the present technology.
  • n transparent electrodes 324-1 to 324-n (n is an integer) on the power supply side are wired for each row.
  • Each of the rows is divided into n areas, and n transparent electrodes are connected to different areas.
  • an external circuit of the pixel 300 (such as the vertical scanning circuit 210) can individually control the control voltage Vctrl of each of the n areas.
  • the vertical scanning circuit 210 or the like makes each dimming element 323 of the pair of pixels in that portion opaque by the control voltage Vctrl. To do.
  • the dimming element 323 of the pixel 300 which does not require the in-focus position, is controlled to be in a transparent state.
  • the pair of pixels 300 in which the dimming element 323 becomes opaque functions as a phase difference pixel for detecting the phase difference.
  • a pair of pixels in which the positions of the dimming elements 323 are symmetrical with each other are used as the phase difference pixels. For example, a pixel having a dimming element 323 formed on the right side and a pixel having a dimming element 323 formed on the left side are used as phase difference pixels.
  • the DSP circuit 120 or the like detects the phase difference from the signals of a plurality of pairs of phase difference pixels, obtains the focusing position corresponding to the phase difference, and moves the lens to that position.
  • the AF Auto Focus
  • the vertical scanning circuit 210 can make pixels in any area out of n areas opaque and function as phase difference pixels. it can.
  • the vertical scanning circuit 210 or the like makes the dimming element 323 opaque to reduce the phase difference. Can be detected. Then, the AF function can be realized by moving the lens to the focusing position according to the phase difference.
  • the dimming element 323 is arranged in all the pixels 300, but in this configuration, the sensitivity of the pixel 300 is lowered as compared with the case where the dimming element 323 is not arranged. There is.
  • the solid-state image sensor 200 of the first modification of the third embodiment is different from the third embodiment in that the dimming element 323 is arranged only in a part of the pixels 300 of the pixel array unit 240.
  • FIG. 19 is a plan view showing an example of the layout of the transparent electrodes 322 and 324 and the dimming element 323 in the first modification of the third embodiment of the present technology.
  • the dimming element 323 is arranged only in a part of the plurality of pixels 300 in the pixel array unit 240, and the dimming element 323 is arranged in the remaining pixels 300. It differs from the third embodiment in that 323 is not arranged.
  • the dimming element 323 is arranged in the four pixels 300 surrounded by the thick dotted line in the figure.
  • the pixel in which these dimming elements 323 are arranged functions as a phase difference pixel.
  • the position of the phase difference pixel is fixed.
  • the transmittance of the dimming element 323 is set to the highest value, the transmittance usually does not reach 100%. Therefore, by arranging the dimming element 323 only in a part of the pixels 300, the sensitivity of the pixel without the dimming element 323 can be improved as compared with the case where the dimming element 323 is arranged in all the pixels. Can be done.
  • one transparent electrode 324 is wired for each row. Further, in the first modification of the third embodiment, as in the first embodiment, one transparent electrode 324 is wired for each row. Further, in the first modification of the third embodiment, the control of the transmittance according to the photometric amount is not executed.
  • the dimming element 323 is arranged in a part of the pixels 300 of the pixel array unit 240, the dimming element 323 is provided in all the pixels. Compared with the case of arranging the light control element 323, the sensitivity of the pixel without the dimming element 323 can be improved.
  • control lines are wired for each row and the control lines are connected for each pixel.
  • the number of contacts increases as the number of pixels increases.
  • the solid-state image sensor 200 of the second modification of the third embodiment is different from the third embodiment in that the control line is connected only to a part of the pixels 300 of the pixel array unit 240.
  • the cross-sectional view of the pixel 300 of the second modification of the third embodiment is the same as the cross-sectional view of the third embodiment illustrated in FIG.
  • FIG. 20 is a plan view showing an example of the layout of the photodiode 352 and the transistor in the second modification of the third embodiment of the present technology.
  • the figure shows an XY plane passing through the O1-O2 axis of FIG.
  • the individual layout of the pixels 300 of the second modification of the third embodiment is the same as that of the first embodiment. However, in the second modification of the third embodiment, only a part of the plurality of pixels 300 in the pixel array unit 240 functions as phase difference pixels. For example, the four pixels 300 surrounded by the thick dotted line in the figure function as phase difference pixels. Unlike the third embodiment in which any pixel can be a retardation pixel, in the second modification of the third embodiment, the position of the retardation pixel is fixed.
  • FIG. 21 is a plan view showing an example of the wiring layout of the signal line in the row direction in the second modification of the third embodiment of the present technology.
  • the figure shows an XY plane passing through the A1-A2 axes of FIG.
  • the wiring layout of the second modification of the third embodiment is the same as that of the first embodiment.
  • FIG. 22 is a plan view showing an example of the wiring layout of the signal lines in the column direction in the second modification of the third embodiment of the present technology.
  • the figure shows an XY plane passing through the B1-B2 axis of FIG.
  • the wiring layout of the second modification of the third embodiment is the same as that of the first embodiment.
  • FIG. 23 is a plan view showing an example of the wiring layout of the power supply line, the ground line, and the control line in the second modification of the third embodiment of the present technology.
  • the figure shows an XY plane passing through the C1-C2 axis of FIG.
  • the wiring layout of the second modification of the third embodiment is the same as that of the first embodiment.
  • FIG. 24 is a plan view showing an example of the arrangement of contacts of the ground line and the control line in the second modification of the third embodiment of the present technology.
  • the figure shows an XY plane passing through the E1-E2 axis of FIG.
  • the contact of the control line 333 is formed only in the pixel 300 corresponding to the phase difference pixel surrounded by the thick dotted line.
  • the contacts of the ground wire 331 are formed on all pixels. Then, the ground wire 331 is connected to all the pixels, and the ground wire 331 and the control line 333 are connected to the transparent electrodes 322 and 324 in the retardation pixel.
  • the control line 333 by connecting the control line 333 only to the phase difference pixels, the number of contacts can be reduced as compared with the case where the control lines 333 are connected to all the pixels.
  • the control of the transmittance according to the photometric amount is not executed.
  • the layout of the transparent electrodes 322 and 324 and the dimming element 323 in the second modification of the third embodiment of the present technology is the same as the layout of the third embodiment illustrated in FIG. ..
  • one transparent electrode 324 is wired for each row, as in the first embodiment.
  • the contact line is compared with the case where the control line 333 is connected to all the pixels. The number can be reduced.
  • the solid-state image sensor 200 irradiates the surface (that is, the surface) of the semiconductor substrate 301 on the wiring layer 330 side with incident light.
  • the wiring of the wiring layer 330 may block the light.
  • the solid-state image sensor 200 of the fourth embodiment is different from the first embodiment in that the back surface of the semiconductor substrate 301 is irradiated with incident light.
  • FIG. 25 is an example of a cross-sectional view of the pixel 300 according to the fourth embodiment of the present technology.
  • the pixel 300 of the fourth embodiment is different from the first embodiment in that the photodiode 352 is arranged between the dimming element 323 and the wiring layer 330.
  • the photodiode 352 is arranged between the dimming element 323 and the wiring layer 330.
  • light is applied to the side (back surface) of both sides of the semiconductor substrate 301 on which the wiring layer 330 is not provided.
  • the solid-state image sensor 200 whose back surface is irradiated with light is called a back-illuminated solid-state image sensor.
  • the sensitivity of the pixel 300 can be improved as compared with the front surface irradiation type.
  • the layout of the transparent electrodes 322 and 324 and the dimming element 323 in the fourth embodiment of the present technology is the same as the layout of the first embodiment illustrated in FIG.
  • the photodiode 352 is arranged on the back surface of the semiconductor substrate 301, the light is not blocked by the wiring, and the pixels 300 are compared with the surface irradiation type.
  • the sensitivity can be improved.
  • the transparent electrode is provided, but in this configuration, a polarizing filter is required in the optical system when controlling the polarization characteristics of the pixel 300.
  • the solid-state image sensor 200 of the embodiment of the fifth embodiment is different from the first embodiment in that the polarization characteristics can be controlled by arranging the opaque electrodes.
  • FIG. 26 is an example of a cross-sectional view of the pixel 300 according to the fifth embodiment of the present technology.
  • the pixel 300 of the fifth embodiment differs from the first embodiment in that a metal electrode is arranged instead of the transparent electrodes 322 and 324.
  • the metal electrode on the ground side includes a linear connection portion 371 and a protrusion 373
  • the metal electrode on the power supply side includes a linear connection portion 372 and a protrusion 374.
  • plan view showing the XY plane passing through the O1-O2 axis in the figure is the same as that of the first embodiment illustrated in FIG.
  • plan view showing the XY plane passing through the A1-A2 axes in the figure is the same as that of the first embodiment illustrated in FIG.
  • plan view showing the XY plane passing through the C1-C2 axis in the figure is the same as that of the first embodiment illustrated in FIG. 7.
  • FIG. 27 is a plan view showing an example of the arrangement of contacts of the ground wire 331 and the control line 333 in the fifth embodiment of the present technology.
  • the figure shows an XY plane passing through the E1-E2 axes of FIG. A contact between the ground wire 331 and the control wire 333 and the metal electrode is provided for each pixel.
  • FIG. 28 is a plan view showing an example of the layout of the metal electrode and the dimming element 323 according to the fifth embodiment of the present technology. The figure shows an XY plane passing through the H1-H2 axes of FIG.
  • a plurality of notches are formed in the dimming element 323 of the fifth embodiment.
  • Each of the notches is formed along a specific direction (X-axis or Y-axis) perpendicular to the optical axis.
  • the transparent electrode on the ground side includes a linear connection portion 371 and a plurality of protrusions 373
  • the transparent electrode on the power supply side includes a linear connection portion 372 and a plurality of protrusions 374.
  • the linear connection portion 371 is connected to the ground wire, and its potential is the ground potential VSS.
  • the linear connection portion 372 is connected to the power supply line, and the control voltage Vctrl is applied.
  • These linear connection portions 371 and 372 extend along a direction (for example, the X-axis direction) perpendicular to the optical axis (Z-axis) and the arrangement direction of the transparent electrodes (for example, the Y-axis direction).
  • the protruding portion 373 is connected to the linear connecting portion 371 on the ground side, and protrudes along the notch direction (X-axis direction or Y-axis direction).
  • the protruding portion 374 is connected to the linear connecting portion 372 on the power supply side and protrudes along the direction of the notch. Further, the protrusions 373 and 374 are alternately arranged in each of the plurality of notches.
  • the required control voltage Vctrl can be obtained as compared with the case where there is no notch. Can be lowered. Therefore, the power consumption can be reduced.
  • the vertical scanning circuit 210 can control the polarization characteristics of the pixel 300 by changing the transmittance of the dimming element 323.
  • the metal electrode including the protrusions 373 and 374 functions as a wire grid type polarizer. Its polarization characteristics change according to the transmittance of the dimming element 323.
  • the dimming element 323 is formed into a comb shape and an opaque metal electrode is arranged, the metal electrode can function as a wire grid type polarizer. As a result, the solid-state imaging device 200 does not require a polarizing filter to control the polarization characteristics.
  • the solid-state image sensor 200 irradiates the surface (that is, the surface) of the semiconductor substrate 301 on the wiring layer 330 side with incident light.
  • the wiring of the wiring layer 330 may block the light.
  • the solid-state image sensor 200 of the sixth embodiment is different from the fifth embodiment in that the back surface of the semiconductor substrate 301 is irradiated with incident light.
  • FIG. 29 is an example of a cross-sectional view of the pixel 300 according to the sixth embodiment of the present technology.
  • the pixel 300 of the sixth embodiment is different from the sixth embodiment in that the photodiode 352 is arranged on the back surface of the semiconductor substrate 301 with respect to the front surface. In other words, the photodiode 352 is arranged between the dimming element 323 and the wiring layer 330.
  • FIG. 30 is a plan view showing an example of the wiring layout of the ground wire 381 and the control wire 382 according to the sixth embodiment of the present technology.
  • the figure shows an XY plane passing through the F1-F2 axes of FIG.
  • a ground wire 381 and a control wire 382 are wired between the dimming element 323 and the photodiode 352.
  • FIG. 31 is a plan view showing an example of the arrangement of contacts of the ground wire 381 and the control line 382 according to the sixth embodiment of the present technology.
  • the figure shows an XY plane passing through the G1-G2 axis of FIG. 29. For each pixel, a contact is provided between each of the ground wire 381 and the control wire 382 and the metal electrode.
  • the layout of the metal electrode and the dimming element 323 in the sixth embodiment of the present technology is the same as the layout of the fifth embodiment illustrated in FIG. 28.
  • the photodiode 352 is arranged on the back surface of the semiconductor substrate 301, the light is not blocked by the wiring, and the pixels 300 are compared with the surface irradiation type.
  • the sensitivity can be improved.
  • the dimming element 323 is formed into a comb shape and an opaque metal electrode is arranged, the metal electrode can function as a wire grid type polarizer.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is realized as a device mounted on a moving body of any kind such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, and a robot. You may.
  • FIG. 32 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 12000 includes a plurality of electronic control units connected via the communication network 12001.
  • the vehicle control system 12000 includes a drive system control unit 12010, a body system control unit 12020, an outside information detection unit 12030, an in-vehicle information detection unit 12040, and an integrated control unit 12050.
  • a microcomputer 12051, an audio image output unit 12052, and an in-vehicle network I / F (interface) 12053 are shown as a functional configuration of the integrated control unit 12050.
  • the drive system control unit 12010 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 12010 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the body system control unit 12020 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 12020 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 12020 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 12020 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the vehicle outside information detection unit 12030 detects information outside the vehicle equipped with the vehicle control system 12000.
  • the image pickup unit 12031 is connected to the vehicle exterior information detection unit 12030.
  • the vehicle outside information detection unit 12030 causes the image pickup unit 12031 to capture an image of the outside of the vehicle and receives the captured image.
  • the vehicle exterior information detection unit 12030 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or characters on the road surface based on the received image.
  • the imaging unit 12031 is an optical sensor that receives light and outputs an electric signal according to the amount of the light received.
  • the image pickup unit 12031 can output an electric signal as an image or can output it as distance measurement information. Further, the light received by the imaging unit 12031 may be visible light or invisible light such as infrared light.
  • the in-vehicle information detection unit 12040 detects the in-vehicle information.
  • a driver state detection unit 12041 that detects the driver's state is connected to the in-vehicle information detection unit 12040.
  • the driver state detection unit 12041 includes, for example, a camera that images the driver, and the in-vehicle information detection unit 12040 determines the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 12041. It may be calculated, or it may be determined whether the driver is dozing.
  • the microcomputer 12051 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the information inside and outside the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, and the drive system control unit.
  • a control command can be output to 12010.
  • the microcomputer 12051 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. It is possible to perform cooperative control for the purpose of.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 12051 controls the driving force generator, the steering mechanism, the braking device, and the like based on the information around the vehicle acquired by the vehicle exterior information detection unit 12030 or the vehicle interior information detection unit 12040, so that the driver can control the driver. It is possible to perform coordinated control for the purpose of automatic driving, etc., which runs autonomously without depending on the operation.
  • the microcomputer 12051 can output a control command to the body system control unit 12020 based on the information outside the vehicle acquired by the vehicle exterior information detection unit 12030.
  • the microcomputer 12051 controls the headlamps according to the position of the preceding vehicle or the oncoming vehicle detected by the external information detection unit 12030, and performs coordinated control for the purpose of anti-glare such as switching the high beam to the low beam. It can be carried out.
  • the audio image output unit 12052 transmits the output signal of at least one of the audio and the image to the output device capable of visually or audibly notifying the passenger or the outside of the vehicle of the information.
  • an audio speaker 12061, a display unit 12062, and an instrument panel 12063 are exemplified as output devices.
  • the display unit 12062 may include, for example, at least one of an onboard display and a heads-up display.
  • FIG. 33 is a diagram showing an example of the installation position of the imaging unit 12031.
  • the imaging unit 12031 includes imaging units 12101, 12102, 12103, 12104, 12105.
  • the imaging units 12101, 12102, 12103, 12104, 12105 are provided at positions such as the front nose, side mirrors, rear bumpers, back doors, and the upper part of the windshield in the vehicle interior of the vehicle 12100, for example.
  • the imaging unit 12101 provided on the front nose and the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 12100.
  • the imaging units 12102 and 12103 provided in the side mirrors mainly acquire images of the side of the vehicle 12100.
  • the imaging unit 12104 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 12100.
  • the imaging unit 12105 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 33 shows an example of the photographing range of the imaging units 12101 to 12104.
  • the imaging range 12111 indicates the imaging range of the imaging unit 12101 provided on the front nose
  • the imaging ranges 12112 and 12113 indicate the imaging ranges of the imaging units 12102 and 12103 provided on the side mirrors, respectively
  • the imaging range 12114 indicates the imaging range of the imaging units 12102 and 12103.
  • the imaging range of the imaging unit 12104 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 12101 to 12104, a bird's-eye view image of the vehicle 12100 as viewed from above can be obtained.
  • At least one of the imaging units 12101 to 12104 may have a function of acquiring distance information.
  • at least one of the image pickup units 12101 to 12104 may be a stereo camera composed of a plurality of image pickup elements, or may be an image pickup element having pixels for phase difference detection.
  • the microcomputer 12051 has a distance to each three-dimensional object within the imaging range 12111 to 12114 based on the distance information obtained from the imaging units 12101 to 12104, and a temporal change of this distance (relative velocity with respect to the vehicle 12100).
  • a predetermined speed for example, 0 km / h or more.
  • the microcomputer 12051 can set an inter-vehicle distance to be secured in front of the preceding vehicle in advance, and can perform automatic braking control (including follow-up stop control), automatic acceleration control (including follow-up start control), and the like. In this way, it is possible to perform cooperative control for the purpose of automatic driving or the like in which the vehicle travels autonomously without depending on the operation of the driver.
  • the microcomputer 12051 converts three-dimensional object data related to a three-dimensional object into two-wheeled vehicles, ordinary vehicles, large vehicles, pedestrians, electric poles, and other three-dimensional objects based on the distance information obtained from the imaging units 12101 to 12104. It can be classified and extracted and used for automatic avoidance of obstacles. For example, the microcomputer 12051 distinguishes obstacles around the vehicle 12100 into obstacles that can be seen by the driver of the vehicle 12100 and obstacles that are difficult to see. Then, the microcomputer 12051 determines the collision risk indicating the risk of collision with each obstacle, and when the collision risk is equal to or higher than the set value and there is a possibility of collision, the microcomputer 12051 via the audio speaker 12061 or the display unit 12062. By outputting an alarm to the driver and performing forced deceleration and avoidance steering via the drive system control unit 12010, driving support for collision avoidance can be provided.
  • At least one of the imaging units 12101 to 12104 may be an infrared camera that detects infrared rays.
  • the microcomputer 12051 can recognize a pedestrian by determining whether or not a pedestrian is present in the captured image of the imaging units 12101 to 12104.
  • pedestrian recognition includes, for example, a procedure for extracting feature points in an image captured by an imaging unit 12101 to 12104 as an infrared camera, and pattern matching processing for a series of feature points indicating the outline of an object to determine whether or not the pedestrian is a pedestrian. It is done by the procedure to determine.
  • the audio image output unit 12052 When the microcomputer 12051 determines that a pedestrian is present in the captured images of the imaging units 12101 to 12104 and recognizes the pedestrian, the audio image output unit 12052 outputs a square contour line for emphasizing the recognized pedestrian.
  • the display unit 12062 is controlled so as to superimpose and display. Further, the audio image output unit 12052 may control the display unit 12062 so as to display an icon or the like indicating a pedestrian at a desired position.
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to, for example, the imaging unit 12031 among the configurations described above.
  • the imaging device 100 of FIG. 1 can be applied to the imaging unit 12031.
  • the technique according to the present disclosure to the image pickup unit 12031, it is possible to improve the oblique incident characteristic and obtain a photographed image that is easier to see, so that the driver's fatigue can be reduced.
  • the present technology can have the following configurations.
  • the pair of electrodes and the dimming element are arranged in each of a plurality of pixels.
  • the pair of electrodes and the dimming element are arranged in a specific pixel among a plurality of pixels.
  • Control line and Further equipped with a ground wire The pair of electrodes and the dimming element are arranged in each of a plurality of pixels.
  • the dimming element is formed with a plurality of notches along a specific direction.
  • Each of the pair of electrodes A linear connection portion extending in the arrangement direction and a direction perpendicular to the optical axis, With a protrusion protruding along the specific direction, The solid-state imaging device according to (1), wherein the protruding portion is arranged in the notch. (7) The solid-state image sensor according to any one of (1) to (6) above, wherein the pair of electrodes is transparent. (8) The solid-state image sensor according to any one of (1) to (6) above, wherein the pair of electrodes is opaque. (9) Wiring layer and A photoelectric conversion element that receives the incident light is further provided. The solid-state imaging device according to any one of (1) to (8), wherein the wiring layer is arranged between the dimming element and the photoelectric conversion element.
  • the solid-state imaging device according to any one of (1) to (8), wherein the photoelectric conversion element is arranged between the dimming element and the wiring layer.
  • (11) A pair of electrodes arranged along a predetermined arrangement direction perpendicular to the optical axis of the incident light, A dimming element arranged between the pair of electrodes and transmitting the incident light with a transmittance corresponding to the voltage between the pair of electrodes.
  • An imaging device including a signal processing circuit that processes a pixel signal according to the amount of incident light.
  • Image sensor 110 Optical unit 120
  • DSP circuit 130 Display unit 140 Operation unit 150
  • Bus 160 Frame memory 170
  • Power supply unit 200 Solid-state image sensor 210
  • Timing control circuit 240 Pixel array part 250
  • Column signal processing circuit 260 Horizontal scanning circuit 300
  • Pixel 301 Semiconductor substrate 311 On-chip lens 312 Color filter 321 Oxide film 322, 324 Transparent electrode 323 Dimming element 330 Wiring layer 331, 381 Ground wire 332 Power line 333, 382
  • Vertical signal line 338 Reset line 341 Transfer transistor 342 Reset transistor 343
  • Amplification transistor 344 Selection transistor 351 Element separation area 352
  • Photo diode 353 Floating diffusion layer 361, 362, 371, 372 Linear connection part 363, 364, 373, 374 Projection part 12031 Imaging part

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Solid State Image Pick-Up Elements (AREA)

Abstract

調光素子を設けた固体撮像素子において、画像データの画質を向上させる。 固体撮像素子は、一対の電極と、調光素子とを具備する。一対の電極と、調光素子とを具備する固体撮像素子において、一対の電極は、入射光の光軸に垂直な所定の配列方向に沿って配列される。また、固体撮像素子において、調光素子は、入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極の間に配置されて、一対の電極の間の電圧に応じた透過率により入射光を透過する。

Description

固体撮像素子、および、撮像装置
 本技術は、固体撮像素子、および、撮像装置に関する。詳しくは、入射光の光量を調節する固体撮像素子、および、撮像装置に関する。
 従来より、入射光の光量を調節する目的で、印可電圧に応じて透過率が変化する素子である調光素子が固体撮像素子において用いられている。例えば、入射光の入射方向を上方向として、上から順に上部電極、調光素子および下部電極を積層した固体撮像素子が提案されている(例えば、特許文献1参照。)。
特開2014-135452号公報
 上述の従来技術では、上部電極および下部電極の間に電圧を印可して調光素子の透過率を変えることにより、入射光量の調節を図っている。しかしながら、上述の固体撮像素子では、調光素子を透過した入射光の一部が、その調光素子の下部の配線により蹴られてしまい、そのケラレに起因して画像データの画質が低下するおそれがある。
 本技術はこのような状況に鑑みて生み出されたものであり、調光素子を設けた固体撮像素子において、画像データの画質を向上させることを目的とする。
 本技術は、上述の問題点を解消するためになされたものであり、その第1の側面は、入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極と、上記一対の電極の間に配置されて上記一対の電極の間の電圧に応じた透過率により上記入射光を透過する調光素子とを具備する固体撮像素子である。これにより、斜め入射特性が向上するという作用をもたらす。
 また、この第1の側面において、上記調光素子は、板状の素子であってもよい。これにより、板状の調光素子により透過光量が調節されるという作用をもたらす。
 また、この第1の側面において、上記一対の電極と上記調光素子とは複数の画素のそれぞれに配置され、上記調光素子は、フォトダイオードの受光領域の一部を覆う領域に配置されてもよい。これにより、位相差が検出されるという作用をもたらす。
 また、この第1の側面において、上記一対の電極と上記調光素子とは複数の画素のうち特定の画素に配置され、上記調光素子は、フォトダイオードの受光領域の一部を覆う領域に配置されてもよい。これにより、調光素子が設けられていない画素の感度が向上するという作用をもたらす。
 また、この第1の側面において、制御線と、接地線とをさらに具備し、上記一対の電極と上記調光素子とは複数の画素のそれぞれに配置され、上記複数の画素のうち特定の画素に配置された上記一対の電極は、上記制御線および上記接地線に接続されてもよい。これにより、位相差が検出されるという作用をもたらす。
 また、この第1の側面において、上記調光素子には、特定の方向に沿って複数の切れ込みが形成され、上記一対の電極のそれぞれは、上記配列方向および上記光軸に垂直な方向に延伸する線状接続部と、上記特定方向に沿って突出した突出部とを備え、上記突出部は、上記切れ込みに配置されてもよい。これにより、消費電力が低減するという作用をもたらす。
 また、この第1の側面において、上記一対の電極は、透明であってもよい。これにより、電極を入射光が透過するという作用をもたらす。
 また、この第1の側面において、上記一対の電極は、不透明であってもよい。これにより、偏光特性が制御されるという作用をもたらす。
 また、この第1の側面において、配線層と、上記入射光を受光する光電変換素子とをさらに具備し、上記配線層は、上記調光素子と上記光電変換素子との間に配置されてもよい。これにより、半導体基板の表面に入射光が照射されるという作用をもたらす。
 また、この第1の側面において、配線層と、上記入射光を受光する光電変換素子とをさらに具備し、上記光電変換素子は、上記調光素子と上記配線層との間に配置されてもよい。これにより、半導体基板の裏面に入射光が照射されるという作用をもたらす。
 また、本技術の第2の側面は、入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極と、上記一対の電極の間に配置されて上記一対の電極の間の電圧に応じた透過率により上記入射光を透過する調光素子と、上記入射光の光量に応じた画素信号を処理する信号処理回路とを具備する撮像装置である。これにより、斜め入射特性が向上した画素の画素信号が処理されるという作用をもたらす。
本技術の第1の実施の形態における撮像装置の一構成例を示すブロック図である。 本技術の第1の実施の形態における固体撮像素子の一構成例を示すブロック図である。 本技術の第1の実施の形態における画素の断面図の一例である。 本技術の第1の実施の形態におけるフォトダイオードおよびトランジスタのレイアウトの一例を示す平面図である。 本技術の第1の実施の形態における行方向の信号線の配線レイアウトの一例を示す平面図である。 本技術の第1の実施の形態における列方向の信号線の配線レイアウトの一例を示す平面図である。 本技術の第1の実施の形態における電源線、接地線および制御線の配線レイアウトの一例を示す平面図である。 本技術の第1の実施の形態における接地線および制御線のコンタクトの配置の一例を示す平面図である。 本技術の第1の実施の形態における透明電極と調光素子とのレイアウトの一例を示す平面図である。 本技術の第1の実施の形態における制御電圧が低い場合の入射光の軌跡の一例を示す図である。 本技術の第1の実施の形態における制御電圧が高い場合の入射光の軌跡の一例を示す図である。 比較例における制御電圧が高い場合の入射光の軌跡の一例を示す図である。 比較例における制御電圧が低い場合の入射光の軌跡の一例を示す図である。 本技術の第2の実施の形態における画素の断面図の一例である。 本技術の第2の実施の形態における透明電極と調光素子とのレイアウトの一例を示す平面図である。 本技術の第3の実施の形態における画素の断面図の一例である。 本技術の第3の実施の形態における透明電極と調光素子とのレイアウトの一例を示す平面図である。 本技術の第3の実施の形態における制御線の配線例を示す図である。 本技術の第3の実施の形態の第1の変形例における透明電極と調光素子とのレイアウトの一例を示す平面図である。 本技術の第3の実施の形態の第2の変形例におけるフォトダイオードおよびトランジスタのレイアウトの一例を示す平面図である。 本技術の第3の実施の形態の第2の変形例における行方向の信号線の配線レイアウトの一例を示す平面図である。 本技術の第3の実施の形態の第2の変形例における列方向の信号線の配線レイアウトの一例を示す平面図である。 本技術の第3の実施の形態の第2の変形例における電源線、接地線および制御線の配線レイアウトの一例を示す平面図である。 本技術の第3の実施の形態の第2の変形例における接地線および制御線のコンタクトの配置の一例を示す平面図である。 本技術の第4の実施の形態における画素の断面図の一例である。 本技術の第5の実施の形態における画素の断面図の一例である。 本技術の第5の実施の形態における制御線および接地線のコンタクトの配置の一例を示す平面図である。 本技術の第5の実施の形態におけるメタル電極と調光素子とのレイアウトの一例を示す平面図である。 本技術の第6の実施の形態における画素の断面図の一例である。 本技術の第6の実施の形態における接地線および制御線の配線レイアウトの一例を示す平面図である。 本技術の第6の実施の形態における制御線および接地線のコンタクトの配置の一例を示す平面図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
 1.第1の実施の形態(光軸に垂直な方向に一対の透明電極を配列した例)
 2.第2の実施の形態(光軸に垂直な方向に一対の透明電極を配列し、調光素子を櫛形にした例)
 3.第3の実施の形態(光軸に垂直な方向に一対の透明電極を配列し、位相差を検出する例)
 4.第4の実施の形態(光軸に垂直な方向に一対の透明電極を配列し、裏面に光を照射する例)
 5.第5の実施の形態(光軸に垂直な方向に一対のメタル電極を配列した例)
 6.第6の実施の形態(光軸に垂直な方向に一対のメタル電極を配列し、裏面に光を照射する例)
 7.移動体への応用例
 <1.第1の実施の形態>
 [撮像装置の構成例]
 図1は、本技術の第1の実施の形態における撮像装置100の一構成例を示すブロック図である。この撮像装置100は、画像データを撮像するための装置であり、光学部110、固体撮像素子200およびDSP(Digital Signal Processing)回路120を備える。さらに撮像装置100は、表示部130、操作部140、バス150、フレームメモリ160、記憶部170および電源部180を備える。撮像装置100としては、例えば、デジタルスチルカメラなどのデジタルカメラの他、撮像機能を持つスマートフォンやパーソナルコンピュータ、車載カメラ等が想定される。
 光学部110は、被写体からの光を集光して固体撮像素子200に導くものである。固体撮像素子200は、垂直同期信号に同期して、光電変換により画像データを生成するものである。ここで、垂直同期信号は、撮像のタイミングを示す所定周波数の周期信号である。固体撮像素子200は、生成した画像データをDSP回路120に信号線209を介して供給する。
 DSP回路120は、固体撮像素子200からの画像データに対して所定の画像処理を実行するものである。このDSP回路120は、処理後の画像データをバス150を介してフレームメモリ160などに出力する。なお、DSP回路120は、特許請求の範囲に記載の信号処理回路の一例である。
 表示部130は、画像データを表示するものである。表示部130としては、例えば、液晶パネルや有機EL(Electro Luminescence)パネルが想定される。操作部140は、ユーザの操作に従って操作信号を生成するものである。
 バス150は、光学部110、固体撮像素子200、DSP回路120、表示部130、操作部140、フレームメモリ160、記憶部170および電源部180が互いにデータをやりとりするための共通の経路である。
 フレームメモリ160は、画像データを保持するものである。記憶部170は、画像データなどの様々なデータを記憶するものである。電源部180は、固体撮像素子200、DSP回路120や表示部130などに電源を供給するものである。
 [固体撮像素子の構成例]
 図2は、本技術の第1の実施の形態における固体撮像素子200の一構成例を示すブロック図である。この固体撮像素子200は、垂直走査回路210、DAC220、タイミング制御回路230、画素アレイ部240、カラム信号処理回路250、および、水平走査回路260を備える。
 また、画素アレイ部240には、複数の画素300が二次元格子状に配列される。以下、所定の水平方向に配列された画素300の集合を「行」と称し、水平方向に垂直な方向に配列された画素300の集合を「列」と称する。
 タイミング制御回路230は、垂直同期信号に同期して垂直走査回路210、カラム信号処理回路250等の動作タイミングを制御するものである。
 垂直走査回路210は、行を順に選択して駆動し、アナログの画素信号を出力させるものである。DAC220は、DA(Digital to Analog)変換により参照信号を生成してカラム信号処理回路250に供給するものである。参照信号として、例えば、のこぎり刃状のランプ信号が用いられる。画素300は、垂直走査回路210の制御に従って、光電変換により画素信号を生成するものである。画素300のそれぞれは、画素信号をカラム信号処理回路250へ出力する。
 カラム信号処理回路250は、カラムごとに、画素信号に対してCDS(Correlated Double Sampling)処理やAD変換処理などの信号処理を行うものである。このカラム信号処理回路250は、信号処理後のデジタル信号からなる画像データを水平走査回路260の制御に従って、DSP回路120に供給する。
 水平走査回路260は、列を順に選択して、カラム信号処理回路250にデジタル信号を順に出力させるものである。
 [画素の構成例]
 図3は、本技術の第1の実施の形態における画素300の断面図の一例である。以下、入射光の光軸をZ軸とし、Z軸に垂直な平面において、画素アレイ部240内の行に平行な軸をX軸とする。また、画素アレイ部240内の列に平行な軸、言い換えればZ軸およびX軸に垂直な軸をY軸とする。同図は、Y軸の方向から見た画素300の断面図である。
 画素300のそれぞれは、半導体基板301上に形成される。画素300のそれぞれには、フォトダイオード352や浮遊拡散層353などの素子が配置される。また、フォトダイオード352などの素子は、素子分離領域351により、隣接する画素300と分離される。
 光学部110への方向を上方向として、フォトダイオード352の上部には、配線層330が形成される。この配線層330には、接地線331、電源線332、および、制御線333を含む複数の配線と、転送トランジスタ341などのトランジスタが設けられる。接地線331の電位は、所定の接地電位VSSである。電源線332には、所定の電源電圧VDDが印加される。また、制御線333には、後述する調光素子323の透過率を制御するための制御電圧Vctrlが印加される。
 配線層330の上部には、画素300ごとに透明電極322および324が配置される。これらの透明電極322および324は、光軸(すなわち、Z軸)に垂直な方向(X軸方向やY軸方向)に沿って配列される。透明電極322および324として、例えば、酸化インジウムスズ(ITO:Indium Tin Oxide)が用いられる。このほか、透明電極322および324に、酸化スズ(SnO)や酸化インジウム(InO)を用いても良い。透明電極322は、接地線331に接続され、その電位は、接地電位VSSである。一方、透明電極324は、制御線333に接続されており、この透明電極324には、制御電圧Vctrlが印加される。
 また、透明電極322と透明電極324との間には、調光素子323が配置される。この調光素子323は、透明電極322および324の間の制御電圧Vctrlに応じた透過率により入射光を透過する素子である。調光素子323として、例えば、懸濁粒子デバイス(SPD:suspended particle device)が用いられる。
 懸濁粒子デバイスは、多数の粒子を含み、制御電圧Vctrlの電圧値がゼロである(すなわち、電圧が印加されていない)場合、個々の粒子が所定の方向(光軸方向など)に配列して光の透過率が最も高くなる。一方、電圧が印加された場合、粒子が光軸に垂直な方向に配列し、電圧が印加されていない場合よりも透過率が低くなる。透過率は、電圧値が高いほど低くなる。
 なお、透明電極322および324は、特許請求の範囲に記載の一対の電極の一例である。
 画素300の外部の回路(例えば、DSP回路120)は、制御電圧Vctrlにより調光素子323の透過率を変化させて、透過光量を調節することができる。例えば、スマートフォンのカメラで物体(自身の顔等)の形状をセンシングする際、太陽を背景に撮影すると、白つぶれし、うまくセンシングできなくなるおそれがある。このような場合、調光素子323を挟んだ透明電極322および324に印可する制御電圧Vctrlを段階的に調節し、最適な透過率にすることで、この問題を解決することができる。路面凍結しているかどうかを判断するカメラや車内にいる人物を特定するカメラも、太陽のような強い光量下で使用されるシチュエーションが想定され、同様なダイナミックレンジの問題を抱えている。これらも先に述べた方法で解決できる。具体的には、DSP回路120等は、入射光量を測光し、測光量が高いほど制御電圧Vctrlを低下させて透過率を低くする。
 また、透明電極322および324と調光素子323との周囲には、酸化膜321が設けられる。
 また、調光素子323の上部には、カラーフィルタ312が形成され、そのカラーフィルタ312の上部には、オンチップレンズ311が形成される。
 同図に例示したように、配線層330は、調光素子323とフォトダイオード352との間に配置され、半導体基板301の両面のうち、配線層330が形成される方の面(すなわち、表面)に光が照射される。このため、このような構成の固体撮像素子200は、表面照射型の固体撮像素子と呼ばれる。
 なお、調光素子323としてSPDを用いているが、透過光量を調節できるものであればSPD以外のものを代わりに用いてもよい。例えば、エレクトロクロミック素子は、印加する電圧を制御することにより色が変化する素子であり、これを調光素子323として用いることもできる。酸化発色層は、もともと透明であるが、酸化されることによって発色する層であり、例えば酸化イリジウムからなる。エレクトロクロミック素子において、酸化発色層には、イリジウム、ニッケル、クロム、バナジウム、ルテニウム、ロジウム等の酸化物あるいは水酸化物を用いることができる。酸化発色層に酸化イリジウムを用いる場合、着色時に灰色になる。還元発色層は、もともと透明であるが、還元されることによって発色する層であり、例えば、酸化タングステン(WO)からなる。酸化モリブデン(MoO)を用いることもできる。還元発色層に酸化タングステンを用いる場合、着色時には青色になる。上述のように構成されるエレクトロクロミック素子は、挟み込む電極に電圧を印加すると、酸化発色層及び還元発色層がそれぞれ酸化,還元され、着色し、不透明になる。
 また、高分子と液晶の複合デバイスを調光素子323として用いることもできる。高分子液晶複合デバイスは、例えば、対向する2枚の透明電極間に高分子と液晶の複合層を配置して形成される。電極に電圧を印加されると、液晶分子の配向方向が整列され、透明な状態になる。一方、電極間に電圧を印加しない場合には、液晶分子は周辺の高分子ネットワークに応じてほぼランダムに配向し、入射光を散乱する。すなわち、高分子液晶複合デバイスは不透明な状態になる。
 なお、いわゆるPNLC(Polymer Network Liquid Crystal)を示したが、高分子中に液晶分子が不連続に分布したいわゆるPDLC(Polymer Dispersed Liquid Crystal)も同様に調光素子323として用いることもできる。このほか、調光素子323としてグラフェンを用いることもできる。
 図4は、本技術の第1の実施の形態におけるフォトダイオード352およびトランジスタのレイアウトの一例を示す平面図である。同図は、図3のO1-O2軸を通るX-Y平面を示す。
 画素300のそれぞれには、フォトダイオード352、転送トランジスタ341、浮遊拡散層353、リセットトランジスタ342、増幅トランジスタ343および選択トランジスタ344が配置される。また、これらの素子の周囲には、素子分離領域351が設けられる。
 フォトダイオード352は、入射光を電荷に変換するものである。転送トランジスタ341は、垂直走査回路210の制御に従ってフォトダイオード352から浮遊拡散層353に電荷を転送するものである。
 浮遊拡散層353は、電荷を蓄積し、電荷量に応じた電圧を生成するものである。リセットトランジスタ342は、垂直走査回路210の制御に従って浮遊拡散層353の電荷量を初期化するものである。増幅トランジスタ343は、浮遊拡散層353の電圧を増幅するものである。選択トランジスタ344は、垂直走査回路210の制御に従って、増幅された電圧の信号を画素信号として垂直信号線へ出力するものである。
 なお、画素300内に、転送トランジスタ341などの4つのトランジスタを配置しているが、トランジスタ数は4つに限定されず、5つや6つであってもよい。
 図5は、本技術の第1の実施の形態における行方向の信号線の配線レイアウトの一例を示す平面図である。同図は、図3のA1-A2軸を通るX-Y平面を示す。
 行ごとに、X軸方向(言い換えれば、行方向)に沿って、転送線334、選択線335およびリセット線338が配線される。垂直走査回路210は、転送トランジスタ341を駆動するための転送信号TGを転送線334を介して供給し、選択トランジスタ344を駆動するための選択信号SELを選択線335を介して供給する。また、垂直走査回路210は、リセットトランジスタ342を駆動するためのリセット信号RSTをリセット線338を介して供給する。
 また、画素300内にFD配線336が配線される。このFD配線336は、フォトダイオード352と浮遊拡散層353との間に配線される。
 また、画素300において、Z軸方向に沿って接地線331、電源線332および垂直信号線337が配線される。図5の黒色の矩形は、これらのZ軸方向の配線の断面を表す。ここで、垂直信号線337は、画素信号を伝送する信号線である。
 図6は、本技術の第1の実施の形態における列方向の信号線の配線レイアウトの一例を示す平面図である。同図は、図3のB1-B2軸を通るX-Y平面を示す。
 列ごとに、Y軸方向(言い換えれば、列方向)に沿って垂直信号線337が配線される。また、垂直信号線337は画素300ごとにZ軸方向に分岐して、選択トランジスタ344に接続される。
 また、画素300において、Z軸方向に沿って接地線331および電源線332が配線される。図6の黒色の矩形は、これらのZ軸方向の配線の断面を表す。
 図7は、本技術の第1の実施の形態における電源線332、接地線331および制御線333の配線レイアウトの一例を示す平面図である。同図は、図3のC1-C2軸を通るX-Y平面を示す。
 行ごとに、X軸方向(行方向)に沿って、電源線332、接地線331および制御線333が配線される。接地線331および制御線333は、画素300ごとにZ軸方向に分岐して、透明電極322および324と接続される。
 図8は、本技術の第1の実施の形態における接地線331および制御線333のコンタクトの配置の一例を示す平面図である。同図は、図3のE1-E2軸を通るX-Y平面を示す。
 画素300において、Z軸方向に沿って接地線331および制御線333が配線される。図8の黒色の矩形は、接地線331のうち透明電極322と接続される接続点であるコンタクトと、制御線333のうち透明電極324と接続される接続点(コンタクト)とを表す。
 図9は、本技術の第1の実施の形態における透明電極322および324と調光素子323とのレイアウトの一例を示す平面図である。同図は、図3のH1-H2軸を通るX-Y平面を示す。
 透明電極322および324は、光軸(Z軸)に垂直なY軸方向に沿って配列される。また、透明電極322および324は、線状であり、X軸方向に沿って形成される。透明電極322と透明電極324との間には、板状の調光素子323が配置される。また、調光素子323は、X-Y平面において、フォトダイオード352の全体を覆う領域に形成される。
 透明電極322の電位は、接地電位VSSであり、透明電極324には、制御電圧Vctrlが印加される。調光素子323は、その制御電圧Vctrlに応じた透過率で入射光を透過する。
 図10は、本技術の第1の実施の形態における制御電圧Vctrlが低い(ゼロ電圧などの)場合の入射光の軌跡の一例を示す図である。同図における白抜きの矢印は、入射光の軌跡を示す。制御電圧Vctrlが低いほど、調光素子323の透過率が高くなる。
 カラーフィルタ312の表面から、フォトダイオード352の表面までの距離をZとし、調光素子323の厚みをZとする。また、カラーフィルタ312の表面の所定位置に所定の入射角で入射光が入射したものとする。この入射光は、入射角に応じて、例えば、フォトダイオード352の表面に入射される。
 図11は、本技術の第1の実施の形態における制御電圧Vctrlが高い場合の入射光の軌跡の一例を示す図である。同図における白抜きの矢印は、入射光の軌跡を示す。制御電圧Vctrlが高いほど、調光素子323の透過率が低下する。このため、透過光量が小さくなる。
 ここで、調光素子の上部と下部とに透明電極を配置した比較例を想定する。この比較例では、光軸(Z軸)において、上側の透明電極、調光素子、および、下側の透明電極の順で、素子が積層される。
 図12は、比較例における制御電圧が高い場合の入射光の軌跡の一例を示す図である。同図における白抜きの矢印は、入射光の軌跡を示す。比較例では、制御電圧が高いほど、調光素子の透過率が高くなる。
 この比較例において、入射光の入射した箇所と、入射角とは、図10および図11と同一であるものとする。また、上側の透明電極と下側の透明電極とのそれぞれの厚みをZとする。カラーフィルタの表面から上側の透明電極までの距離と、配線層の厚みとは、図10および図11と同様とする。この場合、比較例では、透明電極を積層したため、カラーフィルタの表面からフォトダイオードの表面までの距離は、Z+2×Zとなる。このように、カラーフィルタの表面からフォトダイオードの表面までの距離は、積層した透明電極の分(すなわち、2×Z)、長くなる。フォトダイオードまでの距離が長くなったため、比較例では、斜めに入射した入射光の一部が配線層の配線により蹴られ、ケラレが生じてしまう可能性が高くなる。
 これに対して、図10および図11に例示したように、透明電極322および324を光軸に垂直な方向に沿って配列し、それらの間に調光素子323を配置した場合、フォトダイオードまでの距離を比較例よりも短い値(Z)にすることができる。これにより、光が斜めに入射した際のケラレの発生を抑制することができる。言い換えれば、斜め入射特性を向上させることができる。そして、斜め入射特性の向上により、ダイナミックレンジを広くすることができる。
 図13は、比較例における制御電圧が低い場合の入射光の軌跡の一例を示す図である。比較例では、制御電圧が低いほど、調光素子の透過率が低下し、透過光量が小さくなる。
 このように、本技術の第1の実施の形態によれば、透明電極322および324を光軸に垂直な方向に沿って配列し、それらの間に調光素子323を配置したため、それらを積層する場合と比較して、フォトダイオードまでの距離を短くすることができる。これにより、配線層の配線によるケラレを抑制し、画像データの画質を向上させることができる。
 <2.第2の実施の形態>
 上述の第1の実施の形態では、透明電極322および324の間に板状の調光素子323を配置していたが、透過率を低くするほど必要な電圧が高くなり、消費電力が増大してしまう。この第2の実施の形態の固体撮像素子200は、調光素子323の形状を櫛形にして、消費電力を削減した点において第1の実施の形態と異なる。
 図14は、本技術の第2の実施の形態における画素300の断面図の一例である。
 図15は、本技術の第2の実施の形態における透明電極と調光素子323とのレイアウトの一例を示す平面図である。同図は、図14のH1-H2軸を通る平面を示す。
 第2の実施の形態の調光素子323は、複数の切れ込みが形成された櫛形の形状である点において第1の実施の形態と異なる。切れ込みのそれぞれは、光軸に垂直な特定の方向(X軸方向またはY軸方向)に沿って形成される。例えば、左上の画素300と、右下の画素300とにおいて、Y軸方向に沿って切れ込みが形成され、右上の画素300と、左下の画素300とにおいて、X軸方向に沿って切れ込みが形成される。
 また、接地側の透明電極は、線状接続部361と複数の突出部363とを備え、電源側の透明電極は、線状接続部362と複数の突出部364とを備える。
 線状接続部361は、接地線に接続され、その電位は接地電位VSSである。一方、線状接続部362は、電源線に接続され、制御電圧Vctrlが印加される。これらの線状接続部361および362は、光軸(Z軸)と透明電極の配列方向(例えば、Y軸方向)とに垂直な方向(例えば、X軸方向)に沿って延伸する。
 突出部363は、接地側の線状接続部361に接続され、切れ込みの方向(X軸方向またはY軸方向)に沿って突出する。一方、突出部364は、電源側の線状接続部362に接続され、切れ込みの方向に沿って突出する。例えば、左上の画素300では、Y軸方向に沿って切れ込みが形成され、上側の線状接続部361から下方向に突出部363が分岐して突出する。下側の線状接続部362からは、上方向に突出部364が分岐して突出する。また、突出部363および364は、複数の切れ込みのそれぞれに交互に配置される。
 同図に例示するように、調光素子323に複数の切れ込みを形成し、それらの切れ込みに透明電極の突出部363および364を配置することにより、調光素子323のうち、切れ込みに挟まれた部分に制御電圧Vctrlを印加することができる。切れ込みに挟まれた部分の抵抗は、切れ込みのない調光素子323の抵抗よりも小さいため、目標の透過率に制御するのに必要な制御電圧Vctrlを切れ込みのない場合よりも低くすることができる。したがって、必要な制御電圧Vctrlの低下により、消費電力を削減することができる。
 このように、本技術の第2の実施の形態によれば、調光素子323に複数の切れ込みを形成し、それらに透明電極の突出部363および364を配置したため、切れ込みのない場合よりも駆動に必要な制御電圧Vctrlを低くすることができる。これにより、消費電力を削減することができる。
 <3.第3の実施の形態>
 上述の第1の実施の形態では、フォトダイオード全体を覆う領域に調光素子323を配置していたが、この構成では、瞳分割された一対の画素の画素信号の間の位相差を検出することができない。この第3の実施の形態の固体撮像素子200は、位相差を検出するための位相差画素を設けた点において第1の実施の形態と異なる。
 図16は、本技術の第3の実施の形態における画素300の断面図の一例である。
 図17は、本技術の第3の実施の形態における透明電極322および324と調光素子323とのレイアウトの一例を示す平面図である。同図は、図16のH1-H2軸を通る平面を示す。
 この第3の実施の形態の調光素子323は、フォトダイオードの一部を覆う領域に形成される点において第1の実施の形態と異なる。例えば、左上の調光素子323は、右側を覆う領域に形成され、右下の調光素子323は、左側を覆う領域に形成される。また、左下の調光素子323は、下側を覆う領域に形成され、右上の調光素子323は、上側を覆う領域に形成される。
 図18は、本技術の第3の実施の形態における制御線の配線例を示す図である。第3の実施の形態においては、行ごとに、電源側の透明電極324-1乃至324-n(nは、整数)のn本が配線される。行のそれぞれは、n個のエリアに分割され、n本の透明電極は、互いに異なるエリアに接続される。これにより、画素300の外部の回路(垂直走査回路210など)は、n個のエリアのそれぞれの制御電圧Vctrlを個別に制御することができる。
 DSP回路120等が画素アレイ部240の一部についてレンズの合焦位置を求める際に、垂直走査回路210等は、その部分の一対の画素のそれぞれの調光素子323を制御電圧Vctrlにより不透明にする。合焦位置を求めない画素300の調光素子323は、透明な状態に制御される。調光素子323が不透明になった一対の画素300は、位相差を検出するための位相差画素として機能する。ここで、調光素子323の位置が互いに対称な一対の画素が位相差画素として用いられる。例えば、右側に調光素子323が形成された画素と、左側に調光素子323が形成された画素とが位相差画素として用いられる。
 そして、DSP回路120等は、複数対の位相差画素の信号から、位相差を検出し、その位相差に対応する合焦位置を求めて、その位置にレンズを移動させる。これにより、AF(Auto Focus)機能を実現することができる。
 同図に例示したように、行ごとの制御線がn本であるため、垂直走査回路210は、n個のエリアのうち任意のエリア内の画素を不透明にして位相差画素として機能させることができる。
 このように本技術の第3の実施の形態では、フォトダイオードの一部を覆う領域に調光素子323を形成したため、垂直走査回路210等は、その調光素子323を不透明にして位相差を検出することができる。そして、その位相差に応じた合焦位置にレンズを移動させることにより、AF機能を実現することができる。
 [第1の変形例]
 上述の第3の実施の形態では、全ての画素300に調光素子323を配置していたが、この構成では、調光素子323を配置しない場合と比較して画素300の感度が低下することがある。この第3の実施の形態の第1の変形例の固体撮像素子200は、画素アレイ部240の一部の画素300にのみ調光素子323を配置した点において第3の実施の形態と異なる。
 図19は、本技術の第3の実施の形態の第1の変形例における透明電極322および324と調光素子323とのレイアウトの一例を示す平面図である。この第3の実施の形態の第1の変形例のレイアウトは、画素アレイ部240内の複数の画素300のうち一部にのみ調光素子323が配置され、残りの画素300には調光素子323が配置されない点において第3の実施の形態と異なる。例えば、同図の太い点線で囲まれた4つの画素300に調光素子323が配置される。これらの調光素子323が配置された画素は、位相差画素として機能する。任意の画素を位相差画素とすることができた第3の実施の形態と異なり、第3の実施の形態の第1の変形例では、位相差画素の位置は固定である。
 調光素子323の透過率を最も高くしても通常は、透過率が100%となることは無い。このため、一部の画素300にのみ調光素子323を配置することにより、全画素に調光素子323を配置する場合と比較して、調光素子323を設けない画素の感度を向上させることができる。
 また、第3の実施の形態の第1の変形例では、第1の実施の形態と同様に、行ごとに1本の透明電極324が配線される。また、第3の実施の形態の第1の変形例では、測光量に応じた透過率の制御は実行されない。
 このように、本技術の第3の実施の形態の第1の変形例によれば、画素アレイ部240の一部の画素300に調光素子323を配置したため、全画素に調光素子323を配置する場合と比較して、調光素子323を設けない画素の感度を向上させることができる。
 [第2の変形例]
 上述の第3の実施の形態では、行ごとにn本の制御線を配線して画素ごとに制御線を接続していたが、この構成では、画素数が増大するほど、コンタクトの個数が増大する。この第3の実施の形態の第2の変形例の固体撮像素子200は、画素アレイ部240の一部の画素300にのみ制御線を接続した点において第3の実施の形態と異なる。
 第3の実施の形態の第2の変形例の画素300の断面図は、図16に例示した第3の実施の形態の断面図と同様である。
 図20は、本技術の第3の実施の形態の第2の変形例におけるフォトダイオード352およびトランジスタのレイアウトの一例を示す平面図である。同図は、図16のO1-O2軸を通るX-Y平面を示す。
 第3の実施の形態の第2の変形例の画素300の個々のレイアウトは、第1の実施の形態と同様である。ただし、第3の実施の形態の第2の変形例では、画素アレイ部240内の複数の画素300のうち一部のみが位相差画素として機能する。例えば、同図の太い点線で囲まれた4つの画素300が位相差画素として機能する。任意の画素を位相差画素とすることができた第3の実施の形態と異なり、第3の実施の形態の第2の変形例では、位相差画素の位置は固定である。
 図21は、本技術の第3の実施の形態の第2の変形例における行方向の信号線の配線レイアウトの一例を示す平面図である。同図は、図16のA1-A2軸を通るX-Y平面を示す。この第3の実施の形態の第2の変形例の配線レイアウトは、第1の実施の形態と同様である。
 図22は、本技術の第3の実施の形態の第2の変形例における列方向の信号線の配線レイアウトの一例を示す平面図である。同図は、図16のB1-B2軸を通るX-Y平面を示す。この第3の実施の形態の第2の変形例の配線レイアウトは、第1の実施の形態と同様である。
 図23は、本技術の第3の実施の形態の第2の変形例における電源線、接地線および制御線の配線レイアウトの一例を示す平面図である。同図は、図16のC1-C2軸を通るX-Y平面を示す。この第3の実施の形態の第2の変形例の配線レイアウトは、第1の実施の形態と同様である。
 図24は、本技術の第3の実施の形態の第2の変形例における接地線および制御線のコンタクトの配置の一例を示す平面図である。同図は、図16のE1-E2軸を通るX-Y平面を示す。同図に例示するように、第3の実施の形態の第2の変形例では、太い点線で囲んだ位相差画素に該当する画素300のみに、制御線333のコンタクトが形成される。接地線331のコンタクトは、全画素に形成される。そして、全画素に接地線331が接続され、位相差画素内の透明電極322および324に接地線331および制御線333が接続される。
 同図に例示するように、位相差画素にのみに制御線333を接続することにより、全画素に制御線333を接続する場合と比較して、コンタクトの個数を削減することができる。なお、第3の実施の形態の第2の変形例では、測光量に応じた透過率の制御は実行されない。
 また、本技術の第3の実施の形態の第2の変形例における透明電極322および324と調光素子323とのレイアウトは、図18に例示した第3の実施の形態のレイアウトと同様である。だたし、第3の実施の形態の第2の変形例では、第1の実施の形態と同様に、行ごとに1本の透明電極324が配線される。
 このように本技術の第3の実施の形態の第2の変形例によれば、位相差画素のみに制御線333を接続したため、全画素に制御線333を接続する場合と比較してコンタクトの個数を削減することができる。
 <4.第4の実施の形態>
 上述の第1の実施の形態では、固体撮像素子200は、半導体基板301の配線層330側の面(すなわち、表面)に入射光を照射していた。しかし、この構成では、配線層330の配線により光が遮られるおそれがある。この第4の実施の形態の固体撮像素子200は、半導体基板301の裏面に入射光が照射される点において第1の実施の形態と異なる。
 図25は、本技術の第4の実施の形態における画素300の断面図の一例である。この第4の実施の形態の画素300は、調光素子323と、配線層330との間にフォトダイオード352が配置される点において第1の実施の形態と異なる。これにより、半導体基板301の両面のうち、配線層330が設けられていない方の面(裏面)に光が照射される。このように、裏面に光が照射される固体撮像素子200は、裏面照射型の固体撮像素子と呼ばれる。裏面に光を照射することにより、配線により光が遮られることがなくなり、表面照射型と比較して画素300の感度を向上させることができる。
 本技術の第4の実施の形態における透明電極322および324と調光素子323とのレイアウトは、図9に例示した第1の実施の形態のレイアウトと同様である。
 なお、第4の実施の形態に第2の実施の形態または第3の実施の形態を適用することもできる。
 このように、本技術の第4の実施の形態によれば、半導体基板301の裏面にフォトダイオード352を配置したため、配線により光が遮られることがなくなり、表面照射型と比較して画素300の感度を向上させることができる。
 <5.第5の実施の形態>
 上述の第1の実施の形態では、透明電極を設けていたが、この構成では、画素300に偏光特性を制御する際に、光学系に偏光フィルターが必要となる。この第5の実施の形態の実施の形態の固体撮像素子200は、不透明な電極を配置することにより、偏光特性の制御を可能とした点において第1の実施の形態と異なる。
 図26は、本技術の第5の実施の形態における画素300の断面図の一例である。この第5の実施の形態の画素300は、透明電極322および324の代わりにメタル電極が配置される点において第1の実施の形態と異なる。接地側のメタル電極は、線状接続部371および突出部373を備え、電源側のメタル電極は、線状接続部372および突出部374を備える。
 同図におけるO1-O2軸を通るX-Y平面を示す平面図は、図4に例示した第1の実施の形態と同様である。
 同図におけるA1-A2軸を通るX-Y平面を示す平面図は、図5に例示した第1の実施の形態と同様である。
 同図におけるB1-B2軸を通るX-Y平面を示す平面図は、図6に例示した第1の実施の形態と同様である。
 同図におけるC1-C2軸を通るX-Y平面を示す平面図は、図7に例示した第1の実施の形態と同様である。
 図27は、本技術の第5の実施の形態における接地線331および制御線333のコンタクトの配置の一例を示す平面図である。同図は、図26のE1-E2軸を通るX-Y平面を示す。画素ごとに、接地線331および制御線333と、メタル電極とのコンタクトが設けられる。
 図28は、本技術の第5の実施の形態におけるメタル電極と調光素子323とのレイアウトの一例を示す平面図である。同図は、図26のH1-H2軸を通るX-Y平面を示す。
 第5の実施の形態の調光素子323には、第2の実施の形態と同様に、複数の切れ込みが形成される。切れ込みのそれぞれは、光軸に垂直な特定の方向(X軸方向またはY軸方向)に沿って形成される。
 また、接地側の透明電極は、線状接続部371と複数の突出部373とを備え、電源側の透明電極は、線状接続部372と複数の突出部374とを備える。
 線状接続部371は、接地線に接続され、その電位は接地電位VSSである。一方、線状接続部372は、電源線に接続され、制御電圧Vctrlが印加される。これらの線状接続部371および372は、光軸(Z軸)と透明電極の配列方向(例えば、Y軸方向)とに垂直な方向(例えば、X軸方向)に沿って延伸する。
 突出部373は、接地側の線状接続部371に接続され、切れ込みの方向(X軸方向またはY軸方向)に沿って突出する。一方、突出部374は、電源側の線状接続部372に接続され、切れ込みの方向に沿って突出する。また、突出部373および374は、複数の切れ込みのそれぞれに交互に配置される。
 同図に例示するように、調光素子323に複数の切れ込みを形成し、それらの切れ込みに透明電極の突出部373および374を配置することにより、必要な制御電圧Vctrlを切れ込みのない場合よりも低くすることができる。したがって、消費電力を削減することができる。
 また、垂直走査回路210は、調光素子323の透過率を変えることにより、画素300の偏光特性を制御することができる。突出部373および374を含むメタル電極は、ワイヤーグリッド型の偏光子として機能する。その偏光特性は、調光素子323の透過率に応じて変化する。
 このように、本技術の第5の実施の形態によれば、調光素子323を櫛形にし、不透明なメタル電極を配置したため、そのメタル電極をワイヤーグリッド型の偏光子として機能させることができる。これにより、固体撮像素子200は、偏光特性の制御に偏光フィルターが不要となる。
 <6.第6の実施の形態>
 上述の第5の実施の形態では、固体撮像素子200は、半導体基板301の配線層330側の面(すなわち、表面)に入射光を照射していた。しかし、この構成では、配線層330の配線により光が遮られるおそれがある。この第6の実施の形態の固体撮像素子200は、半導体基板301の裏面に入射光が照射される点において第5の実施の形態と異なる。
 図29は、本技術の第6の実施の形態における画素300の断面図の一例である。この第6の実施の形態の画素300は、半導体基板301の表面に対する裏面にフォトダイオード352が配置される点において第6の実施の形態と異なる。言い換えれば、調光素子323と、配線層330との間にフォトダイオード352が配置される。
 図30は、本技術の第6の実施の形態における接地線381および制御線382の配線レイアウトの一例を示す平面図である。同図は、図29のF1-F2軸を通るX-Y平面を示す。調光素子323とフォトダイオード352との間には、接地線381および制御線382が配線される。
 図31は、本技術の第6の実施の形態における接地線381および制御線382のコンタクトの配置の一例を示す平面図である。同図は、図29のG1-G2軸を通るX-Y平面を示す。画素ごとに、接地線381および制御線382のそれぞれと、メタル電極とのコンタクトが設けられる。
 本技術の第6の実施の形態におけるメタル電極と調光素子323とのレイアウトは、図28に例示した第5の実施の形態のレイアウトと同様である。
 このように、本技術の第6の実施の形態によれば、半導体基板301の裏面にフォトダイオード352を配置したため、配線により光が遮られることがなくなり、表面照射型と比較して画素300の感度を向上させることができる。また、調光素子323を櫛形にし、不透明なメタル電極を配置したため、そのメタル電極をワイヤーグリッド型の偏光子として機能させることができる。
 <7.移動体への応用例>
 本開示に係る技術(本技術)は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット等のいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図32は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。
 車両制御システム12000は、通信ネットワーク12001を介して接続された複数の電子制御ユニットを備える。図32に示した例では、車両制御システム12000は、駆動系制御ユニット12010、ボディ系制御ユニット12020、車外情報検出ユニット12030、車内情報検出ユニット12040、及び統合制御ユニット12050を備える。また、統合制御ユニット12050の機能構成として、マイクロコンピュータ12051、音声画像出力部12052、及び車載ネットワークI/F(interface)12053が図示されている。
 駆動系制御ユニット12010は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット12010は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。
 ボディ系制御ユニット12020は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット12020は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット12020には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット12020は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 車外情報検出ユニット12030は、車両制御システム12000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット12030には、撮像部12031が接続される。車外情報検出ユニット12030は、撮像部12031に車外の画像を撮像させるとともに、撮像された画像を受信する。車外情報検出ユニット12030は、受信した画像に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。
 撮像部12031は、光を受光し、その光の受光量に応じた電気信号を出力する光センサである。撮像部12031は、電気信号を画像として出力することもできるし、測距の情報として出力することもできる。また、撮像部12031が受光する光は、可視光であっても良いし、赤外線等の非可視光であっても良い。
 車内情報検出ユニット12040は、車内の情報を検出する。車内情報検出ユニット12040には、例えば、運転者の状態を検出する運転者状態検出部12041が接続される。運転者状態検出部12041は、例えば運転者を撮像するカメラを含み、車内情報検出ユニット12040は、運転者状態検出部12041から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。
 マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット12010に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030又は車内情報検出ユニット12040で取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 また、マイクロコンピュータ12051は、車外情報検出ユニット12030で取得される車外の情報に基づいて、ボディ系制御ユニット12020に対して制御指令を出力することができる。例えば、マイクロコンピュータ12051は、車外情報検出ユニット12030で検知した先行車又は対向車の位置に応じてヘッドランプを制御し、ハイビームをロービームに切り替える等の防眩を図ることを目的とした協調制御を行うことができる。
 音声画像出力部12052は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図32の例では、出力装置として、オーディオスピーカ12061、表示部12062及びインストルメントパネル12063が例示されている。表示部12062は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。
 図33は、撮像部12031の設置位置の例を示す図である。
 図33では、撮像部12031として、撮像部12101,12102,12103,12104,12105を有する。
 撮像部12101,12102,12103,12104,12105は、例えば、車両12100のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部等の位置に設けられる。フロントノーズに備えられる撮像部12101及び車室内のフロントガラスの上部に備えられる撮像部12105は、主として車両12100の前方の画像を取得する。サイドミラーに備えられる撮像部12102,12103は、主として車両12100の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部12104は、主として車両12100の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部12105は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図33には、撮像部12101ないし12104の撮影範囲の一例が示されている。撮像範囲12111は、フロントノーズに設けられた撮像部12101の撮像範囲を示し、撮像範囲12112,12113は、それぞれサイドミラーに設けられた撮像部12102,12103の撮像範囲を示し、撮像範囲12114は、リアバンパ又はバックドアに設けられた撮像部12104の撮像範囲を示す。例えば、撮像部12101ないし12104で撮像された画像データが重ね合わせられることにより、車両12100を上方から見た俯瞰画像が得られる。
 撮像部12101ないし12104の少なくとも1つは、距離情報を取得する機能を有していてもよい。例えば、撮像部12101ないし12104の少なくとも1つは、複数の撮像素子からなるステレオカメラであってもよいし、位相差検出用の画素を有する撮像素子であってもよい。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を基に、撮像範囲12111ないし12114内における各立体物までの距離と、この距離の時間的変化(車両12100に対する相対速度)を求めることにより、特に車両12100の進行路上にある最も近い立体物で、車両12100と略同じ方向に所定の速度(例えば、0km/h以上)で走行する立体物を先行車として抽出することができる。さらに、マイクロコンピュータ12051は、先行車の手前に予め確保すべき車間距離を設定し、自動ブレーキ制御(追従停止制御も含む)や自動加速制御(追従発進制御も含む)等を行うことができる。このように運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行うことができる。
 例えば、マイクロコンピュータ12051は、撮像部12101ないし12104から得られた距離情報を元に、立体物に関する立体物データを、2輪車、普通車両、大型車両、歩行者、電柱等その他の立体物に分類して抽出し、障害物の自動回避に用いることができる。例えば、マイクロコンピュータ12051は、車両12100の周辺の障害物を、車両12100のドライバが視認可能な障害物と視認困難な障害物とに識別する。そして、マイクロコンピュータ12051は、各障害物との衝突の危険度を示す衝突リスクを判断し、衝突リスクが設定値以上で衝突可能性がある状況であるときには、オーディオスピーカ12061や表示部12062を介してドライバに警報を出力することや、駆動系制御ユニット12010を介して強制減速や回避操舵を行うことで、衝突回避のための運転支援を行うことができる。
 撮像部12101ないし12104の少なくとも1つは、赤外線を検出する赤外線カメラであってもよい。例えば、マイクロコンピュータ12051は、撮像部12101ないし12104の撮像画像中に歩行者が存在するか否かを判定することで歩行者を認識することができる。かかる歩行者の認識は、例えば赤外線カメラとしての撮像部12101ないし12104の撮像画像における特徴点を抽出する手順と、物体の輪郭を示す一連の特徴点にパターンマッチング処理を行って歩行者か否かを判別する手順によって行われる。マイクロコンピュータ12051が、撮像部12101ないし12104の撮像画像中に歩行者が存在すると判定し、歩行者を認識すると、音声画像出力部12052は、当該認識された歩行者に強調のための方形輪郭線を重畳表示するように、表示部12062を制御する。また、音声画像出力部12052は、歩行者を示すアイコン等を所望の位置に表示するように表示部12062を制御してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部12031に適用され得る。具体的には、図1の撮像装置100は、撮像部12031に適用することができる。撮像部12031に本開示に係る技術を適用することにより、斜め入射特性を向上させて、より見やすい撮影画像を得ることができるため、ドライバの疲労を軽減することが可能になる。
 なお、上述の実施の形態は本技術を具現化するための一例を示したものであり、実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本技術の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本技術は実施の形態に限定されるものではなく、その要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
 なお、本明細書に記載された効果はあくまで例示であって、限定されるものではなく、また、他の効果があってもよい。
 なお、本技術は以下のような構成もとることができる。
(1)入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極と、
 前記一対の電極の間に配置されて前記一対の電極の間の電圧に応じた透過率により前記入射光を透過する調光素子と
を具備する固体撮像素子。
(2)前記調光素子は、板状の素子である
前記(1)記載の固体撮像素子。
(3)前記一対の電極と前記調光素子とは複数の画素のそれぞれに配置され、
 前記調光素子は、フォトダイオードの受光領域の一部を覆う領域に配置される
前記(2)記載の固体撮像素子。
(4)前記一対の電極と前記調光素子とは複数の画素のうち特定の画素に配置され、
 前記調光素子は、フォトダイオードの受光領域の一部を覆う領域に配置される
前記(2)記載の固体撮像素子。
(5)制御線と、
 接地線と
をさらに具備し、
 前記一対の電極と前記調光素子とは複数の画素のそれぞれに配置され、
 前記複数の画素のうち特定の画素に配置された前記一対の電極は、前記制御線および前記接地線に接続される
前記(2)記載の固体撮像素子。
(6)前記調光素子には、特定の方向に沿って複数の切れ込みが形成され、
 前記一対の電極のそれぞれは、
 前記配列方向および前記光軸に垂直な方向に延伸する線状接続部と、
 前記特定方向に沿って突出した突出部と
を備え、
 前記突出部は、前記切れ込みに配置される
前記(1)に記載の固体撮像素子。
(7)前記一対の電極は、透明である
前記(1)から(6)のいずれかに記載の固体撮像素子。
(8)前記一対の電極は、不透明である
前記(1)から(6)のいずれかに記載の固体撮像素子。
(9)配線層と、
 前記入射光を受光する光電変換素子と
をさらに具備し、
 前記配線層は、前記調光素子と前記光電変換素子との間に配置される
前記(1)から(8)のいずれかに記載の個体撮像素子。
(10)配線層と、
 前記入射光を受光する光電変換素子と
をさらに具備し、
 前記光電変換素子は、前記調光素子と前記配線層との間に配置される
前記(1)から(8)のいずれかに記載の個体撮像素子。
(11)入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極と、
 前記一対の電極の間に配置されて前記一対の電極の間の電圧に応じた透過率により前記入射光を透過する調光素子と、
 前記入射光の光量に応じた画素信号を処理する信号処理回路と
を具備する撮像装置。
 100 撮像装置
 110 光学部
 120 DSP回路
 130 表示部
 140 操作部
 150 バス
 160 フレームメモリ
 170 記憶部
 180 電源部
 200 固体撮像素子
 210 垂直走査回路
 220 DAC
 230 タイミング制御回路
 240 画素アレイ部
 250 カラム信号処理回路
 260 水平走査回路
 300 画素
 301 半導体基板
 311 オンチップレンズ
 312 カラーフィルタ
 321 酸化膜
 322、324 透明電極
 323 調光素子
 330 配線層
 331、381 接地線
 332 電源線
 333、382 制御線
 334 転送線
 335 選択線
 336 FD配線
 337 垂直信号線
 338 リセット線
 341 転送トランジスタ
 342 リセットトランジスタ
 343 増幅トランジスタ
 344 選択トランジスタ
 351 素子分離領域
 352 フォトダイオード
 353 浮遊拡散層
 361、362、371、372 線状接続部
 363、364、373、374 突出部
 12031 撮像部

Claims (11)

  1.  入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極と、
     前記一対の電極の間に配置されて前記一対の電極の間の電圧に応じた透過率により前記入射光を透過する調光素子と
    を具備する固体撮像素子。
  2.  前記調光素子は、板状の素子である
    請求項1記載の固体撮像素子。
  3.  前記一対の電極と前記調光素子とは複数の画素のそれぞれに配置され、
     前記調光素子は、フォトダイオードの受光領域の一部を覆う領域に配置される
    請求項2記載の固体撮像素子。
  4.  前記一対の電極と前記調光素子とは複数の画素のうち特定の画素に配置され、
     前記調光素子は、フォトダイオードの受光領域の一部を覆う領域に配置される
    請求項2記載の固体撮像素子。
  5.  制御線と、
     接地線と
    をさらに具備し、
     前記一対の電極と前記調光素子とは複数の画素のそれぞれに配置され、
     前記複数の画素のうち特定の画素に配置された前記一対の電極は、前記制御線および前記接地線に接続される
    請求項2記載の固体撮像素子。
  6.  前記調光素子には、特定の方向に沿って複数の切れ込みが形成され、
     前記一対の電極のそれぞれは、
     前記配列方向および前記光軸に垂直な方向に延伸する線状接続部と、
     前記特定方向に沿って突出した突出部と
    を備え、
     前記突出部は、前記切れ込みに配置される
    請求項1記載の固体撮像素子。
  7.  前記一対の電極は、透明である
    請求項1記載の固体撮像素子。
  8.  前記一対の電極は、不透明である
    請求項1記載の固体撮像素子。
  9.  配線層と、
     前記入射光を受光する光電変換素子と
    をさらに具備し、
     前記配線層は、前記調光素子と前記光電変換素子との間に配置される
    請求項1記載の個体撮像素子。
  10.  配線層と、
     前記入射光を受光する光電変換素子と
    をさらに具備し、
     前記光電変換素子は、前記調光素子と前記配線層との間に配置される
    請求項1記載の個体撮像素子。
  11.  入射光の光軸に垂直な所定の配列方向に沿って配列された一対の電極と、
     前記一対の電極の間に配置されて前記一対の電極の間の電圧に応じた透過率により前記入射光を透過する調光素子と、
     前記入射光の光量に応じた画素信号を処理する信号処理回路と
    を具備する撮像装置。
PCT/JP2020/028244 2019-11-08 2020-07-21 固体撮像素子、および、撮像装置 WO2021090537A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/755,545 US20220415947A1 (en) 2019-11-08 2020-07-21 Solid-state image sensor and imaging device
EP20885356.4A EP4057352A4 (en) 2019-11-08 2020-07-21 SEMICONDUCTOR IMAGING ELEMENT AND IMAGING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-202857 2019-11-08
JP2019202857 2019-11-08

Publications (1)

Publication Number Publication Date
WO2021090537A1 true WO2021090537A1 (ja) 2021-05-14

Family

ID=75848313

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/028244 WO2021090537A1 (ja) 2019-11-08 2020-07-21 固体撮像素子、および、撮像装置

Country Status (3)

Country Link
US (1) US20220415947A1 (ja)
EP (1) EP4057352A4 (ja)
WO (1) WO2021090537A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04120523A (ja) * 1990-09-12 1992-04-21 Tosoh Corp エレクトロクロミック素子
JP2007079532A (ja) * 2005-03-25 2007-03-29 Fuji Xerox Co Ltd 表示媒体、それを用いた表示素子、及び表示方法
JP2014135452A (ja) 2013-01-11 2014-07-24 Fujifilm Corp 固体撮像装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833597B2 (ja) * 2017-04-11 2021-02-24 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04120523A (ja) * 1990-09-12 1992-04-21 Tosoh Corp エレクトロクロミック素子
JP2007079532A (ja) * 2005-03-25 2007-03-29 Fuji Xerox Co Ltd 表示媒体、それを用いた表示素子、及び表示方法
JP2014135452A (ja) 2013-01-11 2014-07-24 Fujifilm Corp 固体撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4057352A4

Also Published As

Publication number Publication date
EP4057352A4 (en) 2023-03-15
EP4057352A1 (en) 2022-09-14
US20220415947A1 (en) 2022-12-29

Similar Documents

Publication Publication Date Title
US11699716B2 (en) Solid-state imaging device
US10840284B2 (en) Imaging element with a first and second converging portion for converging light between a first and second signal extraction portion of adjacent pixels
KR102538712B1 (ko) 고체 촬상 장치, 및 전자 기기
KR102590054B1 (ko) 고체 촬상 장치 및 전자 기기
JP6803989B2 (ja) 固体撮像装置及びその駆動方法
US11997400B2 (en) Imaging element and electronic apparatus
US20220180615A1 (en) Imaging system and imaging device
WO2021090537A1 (ja) 固体撮像素子、および、撮像装置
US11523070B2 (en) Solid-state imaging element, imaging device, and method for controlling solid-state imaging element
CN112970118B (zh) 光接收元件和电子设备
JP7261168B2 (ja) 固体撮像装置及び電子機器
US20220377275A1 (en) Imaging device, display device, and imaging system
WO2023013493A1 (ja) 撮像装置及び電子機器
WO2022172642A1 (ja) 固体撮像素子および撮像方法、並びに電子機器
KR102705559B1 (ko) 고체 촬상 장치 및 전자 기기
WO2022208713A1 (ja) 撮像装置および電子機器
WO2024147229A1 (ja) 光検出装置、撮像装置および電子機器
US20240282793A1 (en) Solid-state imaging device and electronic apparatus
US12108181B2 (en) Imaging device, display device, and imaging system
WO2021153030A1 (ja) 固体撮像装置およびその製造方法
JP2023154356A (ja) 光検出装置および測距装置ならびに撮像装置
KR20240137121A (ko) 고체 촬상 장치 및 전자 기기

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20885356

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020885356

Country of ref document: EP

Effective date: 20220608

NENP Non-entry into the national phase

Ref country code: JP