WO2023162651A1 - 受光素子、および電子機器 - Google Patents

受光素子、および電子機器 Download PDF

Info

Publication number
WO2023162651A1
WO2023162651A1 PCT/JP2023/003813 JP2023003813W WO2023162651A1 WO 2023162651 A1 WO2023162651 A1 WO 2023162651A1 JP 2023003813 W JP2023003813 W JP 2023003813W WO 2023162651 A1 WO2023162651 A1 WO 2023162651A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
receiving element
element according
semiconductor layer
pixel
Prior art date
Application number
PCT/JP2023/003813
Other languages
English (en)
French (fr)
Inventor
知治 荻田
界斗 横地
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023162651A1 publication Critical patent/WO2023162651A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith

Definitions

  • the present disclosure relates to light receiving elements and electronic devices.
  • a light-receiving element is provided with a transmission suppressing portion that suppresses the transmission of light incident from the light-receiving surface through the semiconductor layer on the circuit surface opposite to the semiconductor layer with respect to the light-receiving surface.
  • a transmission suppressing portion that suppresses the transmission of light incident from the light-receiving surface through the semiconductor layer on the circuit surface opposite to the semiconductor layer with respect to the light-receiving surface.
  • an on-chip lens which is an optical member, generally has only one optical axis for one pixel. For this reason, the 0th-order light may impinge on the multiplication region arranged at the center of the pixel, and the light may not sufficiently impinge on the transmission control section, and the light may be transmitted from the center of the pixel.
  • the efficiency of photoelectric conversion will be reduced, or the region without the transmission suppressing portion will need to be decentered.
  • the density of carriers generated by photoelectric conversion becomes asymmetric, which may reduce the measurement accuracy.
  • a light-receiving element is a light-receiving element composed of a plurality of pixels, wherein the pixels include a multifocal optical member having a plurality of optical axes and a predetermined light transmitted through the optical member.
  • a semiconductor layer that receives and photoelectrically converts light in a wavelength range, and a transmission suppressing portion that suppresses transmission of the light through the semiconductor layer on a first surface opposite to a side of the semiconductor layer on which light is incident.
  • An electronic device includes the light receiving element according to the embodiment of the present disclosure.
  • FIG. 1 is a block diagram showing a schematic configuration example of a light receiving element.
  • FIG. 2 is a diagram showing a configuration example of pixels provided in a light receiving element to which the present technology is applied.
  • 3 is a cross-sectional view taken along line BB of FIG. 2.
  • FIG. 4 is a CC cross-sectional view of FIG.
  • FIG. 5 is a side view of the multiplication area.
  • FIG. 6 is a diagram showing another configuration example of the multifocal optical member.
  • FIG. 7 is a diagram showing a configuration example of a unit in which an on-chip lens is arranged in an image plane phase pixel.
  • FIG. 8 is a diagram illustrating a structural example of a transmission suppressor.
  • FIG. 8 is a diagram illustrating a structural example of a transmission suppressor.
  • FIG. 9 is a diagram showing a structural example of a transmission suppressing portion using a dummy electrode.
  • FIG. 10 is a diagram showing a configuration example of a unit in which color filters in a Bayer array are arranged.
  • FIG. 11 is a diagram showing an example of the planar shape of the multiplication region.
  • FIG. 12 is a diagram showing a configuration example of a pixel according to the second embodiment.
  • FIG. 13 is a cross-sectional view showing an example of a color filter layer when the pixel is configured as an RGBIR image sensor.
  • FIG. 14 is a cross-sectional view of a pixel according to the third embodiment.
  • FIG. 15 is a plan view showing a configuration example of a portion of a signal extracting portion of a pixel.
  • FIG. 16 is a diagram showing a configuration example of a pixel according to the fourth embodiment.
  • FIG. 17 is a block diagram showing a configuration example of a ranging module that outputs ranging information using a light receiving element.
  • FIG. 18 is a block diagram of an example of an Indirect-Time of Flight sensor to which this technology is applied.
  • FIG. 19 is a circuit diagram showing one configuration example of the pixel 10230 according to the embodiment of the present technology.
  • FIG. 20 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 21 is an explanatory diagram showing an example of installation positions of the vehicle exterior information detection unit and the imaging unit.
  • Embodiments of a light receiving element and an electronic device will be described below with reference to the drawings.
  • the following description will focus on main components of the imaging device and the electronic device, but the light receiving element and the electronic device may have components and functions that are not illustrated or described.
  • the following description does not exclude components or features not shown or described.
  • FIG. 1 is a block diagram showing a schematic configuration example of a light receiving element to which the present technology is applied.
  • a light-receiving element 1 shown in FIG. 1 is an element that outputs distance measurement information according to, for example, the ToF (Time of Flight) method.
  • the light-receiving element 1 receives light (reflected light) that has been reflected by an object (irradiation light) emitted from a predetermined light source, and outputs a depth image that stores distance information to the object as a depth value.
  • the irradiation light emitted from the light source is, for example, infrared light with a wavelength in the range of 780 nm to 1000 nm, and is pulsed light that is repeatedly turned on and off at a predetermined cycle.
  • the light receiving element 1 has a pixel array section 21 formed on a semiconductor substrate (not shown) and a peripheral circuit section integrated on the same semiconductor substrate as the pixel array section 21 .
  • the peripheral circuit section includes, for example, a vertical drive section 22, a column processing section 23, a horizontal drive section 24, a system control section 25, and the like.
  • a signal processing section 26 and a data storage section 27 are also provided in the light receiving element 1 .
  • the signal processing unit 26 and the data storage unit 27 may be mounted on the same substrate as the light receiving element 1, or may be arranged on a substrate in a module separate from the light receiving element 1. FIG.
  • the pixel array section 21 has a configuration in which the pixels 10 that generate charges corresponding to the amount of received light and output signals corresponding to the charges are two-dimensionally arranged in rows and columns in a matrix. That is, the pixel array section 21 has a plurality of pixels 10 that photoelectrically convert incident light and output a signal corresponding to the charge obtained as a result. Details of the pixel 10 will be described later with reference to FIG.
  • the row direction is the horizontal direction in which the pixels 10 are arranged
  • the column direction is the vertical direction in which the pixels 10 are arranged.
  • the row direction is the horizontal direction in the drawing
  • the column direction is the vertical direction in the drawing.
  • pixel drive lines 28 are arranged along the row direction for each pixel row with respect to the matrix-like pixel arrangement, and two vertical signal lines 29 are arranged along the column direction for each pixel column. are wired together.
  • the pixel drive line 28 transmits a drive signal for driving when reading a signal from the pixel 10 .
  • the pixel drive line 28 is shown as one wiring in FIG. 1, it is not limited to one.
  • One end of the pixel drive line 28 is connected to an output terminal corresponding to each row of the vertical drive section 22 .
  • the vertical drive unit 22 is composed of shift registers, address decoders, etc., and drives each pixel 10 of the pixel array unit 21 simultaneously or in units of rows. That is, the vertical drive section 22 constitutes a drive section that controls the operation of each pixel 10 of the pixel array section 21 together with the system control section 25 that controls the vertical drive section 22 .
  • a detection signal output from each pixel 10 in a pixel row according to drive control by the vertical drive unit 22 is input to the column processing unit 23 through the vertical signal line 29 .
  • the column processing unit 23 performs predetermined signal processing on the detection signal output from each pixel 10 through the vertical signal line 29, and temporarily holds the detection signal after the signal processing. Specifically, the column processing unit 23 performs noise removal processing, AD (Analog to Digital) conversion processing, and the like as signal processing.
  • the horizontal driving section 24 is composed of a shift register, an address decoder, etc., and selects unit circuits corresponding to the pixel columns of the column processing section 23 in order. By selective scanning by the horizontal driving section 24, the detection signals that have undergone signal processing for each unit circuit in the column processing section 23 are sequentially output.
  • the system control unit 25 is composed of a timing generator that generates various timing signals, and controls the vertical driving unit 22, the column processing unit 23, and the horizontal driving unit 24 based on the various timing signals generated by the timing generator. and other drive control.
  • the signal processing unit 26 has at least an arithmetic processing function, and performs various signal processing such as arithmetic processing based on the detection signal output from the column processing unit 23 .
  • the data storage unit 27 temporarily stores data required for signal processing in the signal processing unit 26 .
  • the light receiving element 1 configured as described above outputs a depth image in which distance information to an object is stored in pixel values as depth values.
  • the light receiving element 1 is mounted in a vehicle and measures the distance to an object outside the vehicle, or measures the distance to an object such as a user's hand and measures the distance to the user based on the measurement result. It can be installed in an electronic device such as a gesture recognition device that recognizes gestures.
  • FIG. 2 is a diagram showing a configuration example of a pixel 10a provided in a light receiving element to which the present technology is applied.
  • the pixel 10a is, for example, an avalanche photodiode (APD).
  • APD avalanche photodiode
  • 3 is a cross-sectional view along BB in FIG. 2
  • FIG. 4 is a cross-sectional view along AA in FIG.
  • FIG. 2 is CC sectional drawing of FIG.
  • APD will be described as an example.
  • the APD has a Geiger mode operated at a bias voltage higher than the breakdown voltage and a linear mode operated at a slightly higher bias voltage near the breakdown voltage.
  • a Geiger mode avalanche photodiode is also called a single photon avalanche diode (SPAD).
  • the SPAD can detect one photon for each pixel by multiplying carriers generated by photoelectric conversion in a high electric field PN junction region (multiplication region 35 described later) provided for each pixel. It is a device that can This embodiment is applied to, for example, a SPAD among APDs.
  • the light receiving element in the present embodiment may be applied to an image sensor for imaging, or may be applied to a distance measuring sensor.
  • the pixel 10a is configured by stacking an on-chip lens layer 220 on the light receiving surface side of the sensor substrate 210 and stacking a wiring layer 230 on the circuit surface side opposite to the light receiving surface.
  • the wiring layer 230 includes a multiplication region portion 35 that multiplies carriers generated by photoelectric conversion in a high electric field PN junction region provided for each pixel.
  • the pixel 10a is, for example, a so-called back-illuminated image sensor in which a circuit board (not shown) is laminated via a wiring layer 230 on the front side in the manufacturing process of a silicon substrate, and the back side is irradiated with light. , is a configuration to which the present technology is applied.
  • the present technology may be applied to a front side illuminated image sensor.
  • the light-receiving element in the present embodiment may be applied to an image sensor for imaging, or may be applied to a distance sensor for distance measurement.
  • the pixel 10a includes a well layer 31, a DTI (Deep Trench Isolation) 32, a reflection suppression portion 33, a transmission suppression portion 34, a multiplication region portion 35, an anode 36, contacts 37a and 37b, and an optical member. 38 and.
  • adjacent pixels 10a are arranged so as to surround a semiconductor layer (well layer) 31 in which a photoelectric conversion portion (photoelectric conversion element) that receives and photoelectrically converts light in a predetermined wavelength band is formed.
  • a DTI (Deep Trench Isolation) 32 which is an element isolation structure for isolation, is formed.
  • the DTI 32 is configured by embedding an insulating material (for example, SiO2) in a trench formed by digging the well layer 31 from the light receiving surface side.
  • the reflection suppressing portion 33 suppresses reflection of light incident on the well layer 31 on the light receiving surface of the well layer 31 .
  • the reflection suppressing portion 33 has, for example, a plurality of quadrangular pyramid shapes or inverted quadrangular pyramid shapes each having a tilt angle according to the plane index of the crystal plane of the single-crystal silicon wafer that constitutes the well layer 31, and is provided at predetermined intervals. It is composed of an uneven structure formed by More specifically, in the reflection suppressing portion 33, the plane index of the crystal plane of the single crystal silicon wafer is 110 or 111, and the distance between adjacent vertices of a plurality of quadrangular pyramids or inverted quadrangular pyramids is, for example, 200 nm or more. and has an uneven structure of 1000 nm or less.
  • the pixel 10a according to the present embodiment has the reflection suppressing portion 33, the present invention is not limited to this. For example, the pixel 10a without the reflection suppressing portion 33 may be used.
  • the on-chip lens layer 220 is composed of an optical member 38 for condensing the light with which the sensor substrate 210 is irradiated for each pixel 10a. Also, the on-chip lens layer 220 is laminated on the flat surface planarized by the insulator in the step of embedding the insulator in the DTI 32 from the light receiving surface side of the well layer 31, for example.
  • the optical member 38 is a multifocal lens. This optical member 38 is composed of, for example, a plurality of on-chip lenses 380 .
  • the optical member 38 has a plurality of optical axes whose base points are the incident-side vertex portions of the plurality of on-chip lenses 380 , and zero-order light passing through the plurality of optical axes enters the transmission suppressing portion 34 .
  • the details of the optical member 38 will be described later with reference to FIGS. 6 and 7.
  • FIG. 1 The details of the optical member 38 will be described later with reference to FIGS. 6 and 7.
  • the transmission suppressing section 34 is configured to surround the multiplication region section 35 . That is, in the pixel 10 a , the transmission suppressing portion 34 is formed on the circuit surface of the well layer 31 to suppress transmission of the light incident on the well layer 31 through the well layer 31 .
  • the transmission suppressing portion 34 is configured by, for example, an uneven structure formed by digging STIs (Shallow Trench Isolation), which are a plurality of shallow trenches having a concave shape with respect to the circuit surface of the well layer 31, at predetermined intervals. be done. That is, the transmission suppressing portion 34 is formed by the same process as that for forming the trenches of the DTI 32, but is formed shallower than the depth of the trenches of the DTI 32. As shown in FIG. For example, the transmission suppressing portion 34 is configured by an uneven structure in which trenches are dug to a depth of 100 nm or more, and the distance between adjacent trenches is 100 nm or more and 1000 nm or less.
  • STIs
  • the multiplication region portion 35 is connected to the wiring of the wiring layer 230 via the contact 37a. Details of the multiplication area section 35 will be described later with reference to FIG.
  • the anode 36 is connected to the wiring of the wiring layer 230 via the contact 37b.
  • the wiring layer 230 is laminated on the circuit surface of the well layer 31 and has a structure in which a plurality of multilayer wirings are formed which are insulated from each other by an interlayer insulating film.
  • the pixel 10a has a structure in which the reflection suppressing portion 33 is provided on the light receiving surface of the well layer 31 and the transmission suppressing portion 34 is provided on the circuit surface of the well layer 31.
  • the transmission suppressing portion 34 includes a plurality of It is composed of an uneven structure consisting of shallow trenches.
  • FIG. 5 is a side view of the multiplication region section 35.
  • the multiplication region portion 35 includes, for example, an n-type (first conductivity type) n-type semiconductor region 35a disposed on the wiring layer 230 side, an upper portion of the n-type semiconductor region 35a, That is, a p-type semiconductor region 35b having a conductivity type of p-type (second conductivity type), for example, is formed on the on-chip lens layer 220 side.
  • Multiplication region portion 35 is formed in well layer 31 .
  • the well layer 31 may be an n-type semiconductor region or a p-type semiconductor region.
  • the well layer 31 is preferably a low-concentration n-type or p-type semiconductor region of the order of 1E14 or less, for example. can.
  • the n-type semiconductor region 35a is a semiconductor region made of, for example, Si (silicon) and having a high impurity concentration and a conductivity type of n-type.
  • the p-type semiconductor region 35b is a semiconductor region of p-type conductivity with a high impurity concentration.
  • the p-type semiconductor region 35b forms a pn junction at the interface with the n-type semiconductor region 35a.
  • the p-type semiconductor region 35b has a multiplication region for avalanche multiplication of carriers generated by incident light to be detected.
  • the p-type semiconductor region 35b is preferably depleted, thereby improving the PDE.
  • FIG. 6 is a schematic plan view in which the optical axes OP12 to OP18 of the optical member 38 and the transmission suppressing portion 34 are schematically overlapped.
  • the optical member 38 is composed of four on-chip lenses 380a.
  • the central portion of the multiplication region 35 is indicated by G10, and the optical axes of the four on-chip lenses 380a are indicated by OP12 to OP18, respectively.
  • the optical axes OP12 to OP18 correspond to the optical paths along which the 0th-order light transmitted through each of the four on-chip lenses 380a travels.
  • a line segment connecting the optical axes OP12 and OP14 is L10
  • a line segment connecting the optical axes OP12 and OP14 is L12
  • a line segment passing through the central portion G10 and parallel to the line segments L10 and L12 is L14.
  • the on-chip lens 380a is a transparent organic material or an inorganic material (SiN, Si, ⁇ Si).
  • the optical axes OP12 to OP18 vertically transmit through the bottom surface (horizontal plane) of the transmission suppressing portion 34 excluding the multiplication region portion 35.
  • the 0th-order light component that travels straight through the well layer 31 is suppressed from transmitting through the well layer 31 due to the uneven structure of the transmission suppressing portion 34 .
  • the optical axes OP12 to OP18 are equidistant from the center G10. Furthermore, line segments connecting the center G10 and the optical axes OP12 to OP18 are rotationally symmetrical with respect to the center G10. That is, the optical axes OP12, OP14, OP16, and OP18 are line-symmetrical with respect to the line segment L14, and the optical axes OP12, OP16, OP16, and OP18 are lines that pass through the central portion G10 and are orthogonal to the line segment L14. It is axisymmetric with respect to the segment L16. In this way, the optical axes OP12 to OP18 are configured symmetrically with respect to the center G10.
  • the incident light incident on the well layer 31 is diffracted by the reflection suppressing portion 33, and of the incident light, the zero-order light component traveling straight through the well layer 31 is reflected by the uneven structure of the transmission suppressing portion 34. permeation through the well layer 31 is suppressed. Further, of the incident light, the primary light component diffracted by the reflection suppressing portion 33 is reflected by the DTI 32 and then also reflected by the transmission suppressing portion 34 of the well layer 31 . As a result, the pixel 10 a can confine the incident light that has entered the well layer 31 by the combination of the DTI 32 and the transmission suppressing portion 34 , that is, suppress transmission of the light from the well layer 31 to the outside.
  • the pixel 10a can improve the light absorption efficiency particularly from red wavelengths to near-infrared rays. As a result, the pixel 10a can significantly improve the sensitivity and quantum effect in those wavelength bands, and improve the sensor sensitivity. Furthermore, by arranging the optical axes OP12 to OP18 symmetrically with respect to the center G10, it is possible to collect the carriers generated by the light transmitted through the optical member 38 symmetrically with respect to the center G10. .
  • the multiplication area portion 35 is arranged in the central portion G10 of the pixel 10a, and the optical axes OP12 to OP18 are arranged symmetrically from the central portion G10. Deploy. As a result, the carriers generated by the light transmitted through the optical member 38 are symmetrically collected at the central portion G10, thereby suppressing the decrease in measurement accuracy and suppressing the zero-order light from entering the multiplication region portion 35. be done.
  • FIG. 7 is a diagram showing another configuration example of the multifocal optical member 38.
  • FIG. The optical axes of the optical members 38 pass through the transmission suppressing portion 34 . Therefore, of the incident light, the 0th-order light component traveling straight through the well layer 31 is suppressed from being transmitted through the well layer 31 by the uneven structure of the transmission suppressing portion 34 .
  • FIG. 7A shows an example in which the optical member 38 is composed of eight on-chip lenses 380b.
  • FIG. 7B shows an example in which the optical member 38 is composed of nine on-chip lenses 380c.
  • FIG. 7C shows an example in which the optical member 38 is composed of nine on-chip lenses 380d.
  • each on-chip lens is rotationally symmetrical with respect to the central portion G10 of the multiplication region portion 35. As shown in FIG. This allows the carriers generated by the light transmitted through the optical member 38 to be rotationally symmetrically collected at the central portion G10.
  • the optical axis of the multifocal optical member 38 is configured to maintain symmetry such as rotational symmetry and line symmetry with respect to the center G10.
  • the potential potential is configured symmetrically, or a potential potential that compensates for the symmetry of the density of the carriers generated by the photoelectric conversion of the carriers is generated, thereby suppressing the deterioration of the measurement accuracy.
  • FIG. 8 is a diagram showing a structural example of the transmission suppressing portion 34a.
  • the transmission suppressing portion 34 a is formed with an optically thin insulating film 51 on the circuit surface of the well layer 31 .
  • the transmission suppressing portion 34a is composed of a plurality of quadrangular pyramids or inverted quadrangular pyramids formed of slopes having an inclination angle according to the plane index of the crystal plane of the single crystal silicon wafer constituting the well layer 31. It is composed of an uneven structure 34L-1 formed by providing shapes at predetermined intervals.
  • the plane index of the crystal plane of the single crystal silicon wafer is 110 or 111, and the distance between adjacent vertexes of a plurality of quadrangular pyramids or inverted quadrangular pyramids is 200 nm or more. Moreover, it is configured by an uneven structure with a thickness of 1000 nm or less.
  • FIG. 9 is a diagram showing a structural example of the transmission suppressing portion 34b using dummy electrodes.
  • the transmission suppressing portion 34b is configured by, for example, an uneven structure formed by arranging a plurality of so-called dummy electrodes 34C-1 having a convex shape of the well layer 31 at predetermined intervals.
  • the dummy electrode forming the transmission suppressing portion 34b can be formed of polysilicon in the same manner as the gate electrode, and is laminated on the circuit surface of the well layer 31 with the insulating film 51 interposed therebetween. Also, this dummy electrode is electrically floating or fixed to the ground potential.
  • the transmission suppressing portion 34c has an uneven structure in which dummy electrodes are formed with a height of 100 nm or more, and the distance between adjacent dummy electrodes is 100 nm or more and 1000 nm or less.
  • FIG. 10 is a diagram showing another structural example of the transmission suppression unit 34.
  • the transmission suppressing portion 34c includes, for example, a concave-convex structure formed by digging a plurality of shallow trenches having a concave shape with respect to the circuit surface of the well layer 31 at predetermined intervals, and a well structure.
  • a concave-convex structure is formed by arranging a plurality of dummy electrodes 34D-1 having a convex shape with respect to the circuit surface of the layer 31 at predetermined intervals. That is, the transmission suppression portion 34c has a configuration in which the transmission suppression portion 34 shown in FIG. 2 and the transmission suppression portion 34b shown in FIG. 9 are combined.
  • the transmission suppressing portion 34c is formed with a trench having a depth of 100 nm or more and a distance of 100 nm or more and 1000 nm or less between adjacent trenches and a height of 100 nm or more, It is composed of an uneven structure with the dummy electrode 34D-1 in which the distance between adjacent ones is 100 nm or more and 1000 nm or less. Also, the dummy electrode 34D-1 is stacked on the circuit surface of the semiconductor layer 310 via the insulating film 51, and is electrically floating or fixed to the ground potential.
  • FIG. 11 is a diagram showing an example of the planar shape of the multiplication area portion 35.
  • the planar shape of the multiplication region 35 is a circle shown in FIG. 11(a), a square shown in FIG. 11(b), an octagon shown in FIG. 11(c), and a rhombus shown in FIG. can.
  • a planar shape of the multiplication region portion 35 that is more suitable for, for example, the optical characteristics of the optical material 38, the shape characteristics of the transmission suppressing portion 34, and the electric potential.
  • the planar shape of the multiplication region portion 35 may be configured to be more suitable for the optical characteristics, the shape characteristics of the transmission suppressing portion 34, and the potential potential without being limited to these shapes.
  • the transmission suppressing portion 34 having the uneven structure is configured to surround the multiplication region portion 35 . That is, in the pixel 10a, the transmission suppressing portion 34 is formed on the wiring side surface of the well layer 31 to suppress the transmission of the light incident on the well layer 31 through the well layer 31. 2, a multifocal optical member 38 is formed so that each of the plurality of optical axes OP12 to OP18 passes through the transmission suppressing portion 34. As shown in FIG. As a result, of the light incident through the optical member 38 , the 0th-order light component that travels straight through the well layer 31 is suppressed from transmitting through the well layer 31 due to the uneven structure of the transmission suppressing portion 34 .
  • the pixel 10a can improve the light absorption efficiency particularly from red wavelengths to near-infrared rays. As a result, the pixel 10a can significantly improve the sensitivity and quantum effect in those wavelength bands, and improve the sensor sensitivity. In this way, by generating the carriers generated by the light transmitted through the optical member 38 symmetrically with respect to the central portion G10, the reduction in measurement accuracy is suppressed, and the 0th-order light is incident on the multiplication region portion 35. is suppressed.
  • the pixel 10b of the optical element according to the second embodiment differs from the pixel 10a of the optical element according to the first embodiment in that it is configured as a CMOS image sensor. Differences from the optical element according to the first embodiment will be described below.
  • FIG. 12 is a diagram showing a configuration example of a pixel 10b according to the second embodiment.
  • FIG. 12(a) shows a cross-sectional configuration example of the pixel 10b
  • FIG. 12(b) shows an example of a planar layout of an optical element having the pixel 10b
  • 12(c) shows an example of the optical member 41 of the pixel 10b.
  • the pixel 10b has an on-chip lens layer 220 laminated on the light receiving surface side of the sensor substrate 210, and a wiring layer 230 laminated on the circuit surface side opposite to the light receiving surface.
  • the sensor substrate 210 has an isolation structure for separating the adjacent pixels 10b so as to surround the periphery of the semiconductor layer 310 in which the photoelectric conversion portion that receives and photoelectrically converts light in a predetermined wavelength band is formed.
  • a DTI (Deep Trench Isolation) 320 is formed.
  • the DTI 320 is configured by embedding an insulator (for example, SiO2) in a trench formed by digging the semiconductor layer 310 from the light receiving surface side.
  • the DTI 320 is formed on the circuit surface side of the semiconductor layer 310 with a depth such that the semiconductor layer 310 is connected to the adjacent pixels 10b.
  • a reflection suppressing portion 33 for suppressing reflection of light incident on the semiconductor layer 310 is formed on the light receiving surface of the semiconductor layer 310 .
  • a transmission suppressing portion 34 is formed on the circuit surface of the semiconductor layer 310 to suppress transmission of light incident on the semiconductor layer 310 through the semiconductor layer 310 .
  • the on-chip lens layer 220 is composed of an optical member 41 for condensing the light with which the sensor substrate 210 is irradiated for each pixel 10b.
  • the optical member 41 is a multifocal lens and is composed of a plurality of on-chip lenses.
  • the optical axis of each on-chip lens is configured to pass through the transmission suppressing portion 34 .
  • an optically thin insulating film 51 is formed on the circuit surface of the semiconductor layer 310, gate electrodes 52a and 52b are laminated via the insulating film 51, and the wiring layer 230 is insulated from each other by an interlayer insulating film 53.
  • a plurality of multilayer wirings 54 are formed.
  • the pixel 10b has a structure in which the reflection suppressing portion 33 is provided on the light receiving surface of the semiconductor layer 310 and the transmission suppressing portion 34 is provided on the circuit surface of the semiconductor layer 310.
  • the transmission suppressing portion 34 includes a plurality of It is composed of an uneven structure consisting of shallow trenches. Accordingly, in the pixel 10b, the incident light entering the semiconductor layer 310 can be confined by the combination of the DTI 320 and the transmission suppressing portion 34, that is, the light can be prevented from being transmitted through the semiconductor layer 310 to the outside.
  • the optical element can adopt a pixel-sharing structure in which a predetermined number of pixels 10b share transistors.
  • FIG. 12(b) shows a schematic diagram of a pixel sharing structure with three pixels 10b-1 to 10b-4 arranged in a 2 ⁇ 2 pattern.
  • transfer transistors 710-1 to 710-4 are provided for pixels 10b-1 to 10b-4, respectively. Further, in the pixel sharing structure, one amplification transistor 720, one selection transistor 730, and one reset transistor 74 are provided in common for the pixels 10b-1 to 10b-4. Transistors used for driving these pixels 10b-1 to 10b-4 are arranged on the circuit surface side of the semiconductor layer 310. FIG.
  • the transmission suppressing portions 34-1 to 34-4 provided on the circuit surface of the semiconductor layer 310 are arranged as illustrated for each of the pixels 10b-1 to 10b-4 when the optical element is viewed from the circuit surface side.
  • effective pixel regions 37-1 to 37-4 are arranged in the effective pixel regions 37-1 to 37-4.
  • transfer transistors 710-1 to 710-4, amplification transistors 720, and selection transistors 730 are arranged from respective regions of the pixels 10b-1 to 10b-4. It becomes the area excluding the range. That is, the 0th order light of the optical member 41 is configured to pass through the effective pixel regions 37-1 to 37-4. This suppresses the transmission of the 0th-order light through a range other than the transmission suppressing portion 34 while suppressing a decrease in the photoelectric conversion efficiency of the pixels 10b-1 to 10b-4.
  • FIG. 13 is a cross-sectional view showing an example of a color filter layer inserted between the reflection suppressor 33 and the optical member 41 when the pixels 10b-1 to 10b-4 are configured as an RGBIR imaging sensor.
  • pixels 10b-1 to 10b-4 are schematically arranged from left to right. That is, pixels 10b-1 to 10b-4 correspond to B, G, R and IR pixels, respectively.
  • a first color filter layer 381 and a second color filter layer 382 are inserted between the reflection suppressing portion 33 and the optical member 41 .
  • an R filter that transmits R light is arranged on the first color filter layer 381
  • a B filter that transmits B light is arranged on the second color filter layer 382 .
  • light having wavelengths other than those of B to R is transmitted, so that IR light is transmitted through the first color filter layer 381 and the second color filter layer 382 and passed through the reflection suppressing portion 33 to the semiconductor light. It is incident on layer 310 .
  • the transmission suppressing portion 34 having the uneven structure is formed on the surface of the semiconductor layer 310 on the wiring side, and the multifocal optical member is formed on the surface of the semiconductor layer 310 on the incident side. 41 is formed. Moreover, each of the plurality of optical axes of the optical member 41 is formed so as to transmit through the transmission suppressing portion 34 . As a result, of the light incident through the optical member 41 , the 0-order light component traveling straight through the semiconductor layer 310 is suppressed from transmitting through the semiconductor layer 310 due to the uneven structure of the transmission suppressing portion 34 .
  • the multifocal optical member 41 makes it possible to uniformly disperse the zero-order light component traveling straight through the semiconductor layer 310 with respect to the transmission suppressing portion 34 . Therefore, even if the thickness of the semiconductor layer 310 is limited, the pixel 10b can improve the light absorption efficiency while suppressing the deterioration of the photoelectric conversion efficiency.
  • a pixel 10c of the optical element according to the third embodiment is different from the pixel 10a of the optical element according to the first embodiment in that it is configured as a CAPD (Current Assisted Photonic Demodulator) sensor. Differences from the optical element according to the first embodiment will be described below.
  • CAPD Current Assisted Photonic Demodulator
  • a ranging system using an indirect ToF (Time of Flight) method is known.
  • active light emitted from a LED (Light Emitting Diode) or laser in a certain phase hits an object and receives the reflected light, so that the signal charge obtained by receiving the light is rapidly distributed to different regions.
  • a sensor that can Therefore a technique has been proposed in which, for example, a voltage is applied directly to the substrate of the sensor to generate a current in the substrate, thereby enabling high-speed modulation of a wide area within the substrate.
  • Such a sensor is also called a CAPD (Current Assisted Photonic Demodulator) sensor.
  • FIG. 14 is a cross-sectional view of a pixel 10c according to the third embodiment. That is, pixel 10c corresponds to one pixel in the CAPD sensor.
  • FIG. 15 is a plan view showing a configuration example of the signal extracting portion of the pixel 10c.
  • the pixel 10c receives externally incident light, particularly infrared light, photoelectrically converts it, and outputs a signal corresponding to the resulting charge.
  • the pixel 10 c has a substrate 61 (semiconductor layer), which is a P-type semiconductor substrate made of a silicon substrate, ie, a P-type semiconductor region, and an optical member 620 formed on the substrate 61 .
  • an oxide film 64 On the side of the substrate 61 opposite to the incident surface, that is, on the inner side of the lower surface in the figure, there are an oxide film 64, a signal extraction portion 65-1 and a signal extraction portion 65 called Tap. -2 are formed.
  • an oxide film 64 is formed in the central portion of the pixel 10c in the vicinity of the surface of the substrate 61 opposite to the incident surface. 65-2 is formed. Also, the permeation suppressing portion 34 is formed on the surface of the oxide film 64 .
  • the signal extracting portion 65-1 includes an N+ semiconductor region 71-1, which is an N-type semiconductor region, an N ⁇ semiconductor region 72-1 having a lower donor impurity concentration than the N+ semiconductor region 71-1, and a P-type semiconductor region.
  • the donor impurities include, for example, elements belonging to Group 5 of the periodic table of elements such as phosphorus (P) and arsenic (As) for Si, and the acceptor impurities are, for example, elements for Si. Elements belonging to Group 3 in the periodic table of elements such as boron (B) can be mentioned.
  • An element that serves as a donor impurity is called a donor element, and an element that serves as an acceptor impurity is called an acceptor element.
  • an N+ semiconductor region 71-1 is formed at a position adjacent to the right side of the oxide film 64 in the drawing, in the inner surface portion of the surface of the substrate 61 opposite to the incident surface. Further, an N ⁇ semiconductor region 72-1 is formed above the N+ semiconductor region 71-1 in the figure so as to cover (enclose) the N+ semiconductor region 71-1. Further, a P+ semiconductor region 73-1 is formed at a position adjacent to the right side of the N+ semiconductor region 71-1 in the drawing, in the inner surface portion of the surface of the substrate 61 opposite to the incident surface. A P ⁇ semiconductor region 74-1 is formed above the P+ semiconductor region 73-1 in the figure so as to cover (enclose) the P+ semiconductor region 73-1.
  • N+ semiconductor region 71-1 and an N ⁇ semiconductor region 72-1 are formed to surround the P+ semiconductor region 73-1 and P ⁇ semiconductor region 74-1.
  • the signal extracting portion 65-2 includes an N+ semiconductor region 71-2, which is an N-type semiconductor region, an N ⁇ semiconductor region 72-2 having a lower donor impurity concentration than the N+ semiconductor region 71-2, and a P-type semiconductor region. and a P ⁇ semiconductor region 74-2 whose acceptor impurity concentration is lower than that of the P+ semiconductor region 73-2.
  • the transmission suppressor 34 includes a P- semiconductor region 74-2, an N- semiconductor region 72-2, an N- semiconductor region 72-1, and a P- semiconductor region 74-1. is configured to surround the
  • the optical member 620 is a multifocal lens.
  • the optical member 620 is composed of, for example, a plurality of on-chip lenses.
  • the optical axes of the plurality of on-chip lenses extend through the transmission suppressing portion 34, excluding the P ⁇ semiconductor region 74-2, the N ⁇ semiconductor region 72-2, the N ⁇ semiconductor region 72-1, and the P ⁇ semiconductor region 74-1. Configured to be transparent. In this case, as in FIG. 4 above, multiple light beams in multifocal optical member 620 are arranged to maintain symmetry about the midpoint between N+ semiconductor region 71-1 and N+ semiconductor region 71-2. It is possible to configure the axis.
  • the transmission suppressor 34 includes the P ⁇ semiconductor region 74-2, the N ⁇ semiconductor region 72-2, the N ⁇ semiconductor region 72-1, and the P ⁇ semiconductor region 74- It is configured to surround the periphery of 1. Also, in the pixel 10c, a multifocal optical member 620 is formed on the incident surface side of the substrate 61, and is formed so that each of the plurality of optical axes passes through the transmission suppressing portion . As a result, the 0th-order light component traveling straight through the substrate 61 out of the incident light through the optical member 620 is suppressed from transmitting through the substrate 61 by the uneven structure of the transmission suppressing portion 34 .
  • the pixel 10c can improve the light absorption efficiency particularly from red wavelengths to near-infrared rays. As a result, the pixel 10c can significantly improve the sensitivity and quantum effect in those wavelength bands, and improve the sensor sensitivity. Also, multiple optical axes in multifocal optical member 620 can be configured to maintain symmetry with respect to the midpoint between N+ semiconductor region 71-1 and N+ semiconductor region 71-2. . As a result, the carriers generated by the light transmitted through the substrate 61 can be collected symmetrically with respect to the signal extracting portion 65-1 and the signal extracting portion 65-2.
  • the pixel 10c of the optical element according to the fourth embodiment differs from the pixel 10 of the optical element according to the first embodiment in that it is configured as a gate-indirect time-of-flight (Gate-iToF) sensor. Differences from the optical element according to the first embodiment will be described below.
  • FIG. 16 is a diagram showing a configuration example of a pixel 10d according to the fourth embodiment.
  • FIG. 16(a) is a cross-sectional view.
  • FIG. 16(b) is a plan view.
  • This pixel 10d is an example pixel of the Gate-iToF sensor.
  • the light receiving element includes a semiconductor substrate (semiconductor layer) 410 and a multilayer wiring layer 420 formed on the surface side (lower side in the figure).
  • the semiconductor substrate 410 is made of silicon (Si), for example, and has a thickness of 1 to 6 ⁇ m, for example.
  • an N-type (second conductivity type) semiconductor region 520 is formed in each pixel in a P-type (first conductivity type) semiconductor region 510, thereby forming a photodiode PD in each pixel. formed.
  • the P-type semiconductor regions 510 provided on both front and back surfaces of the semiconductor substrate 410 also serve as hole charge accumulation regions for suppressing dark current.
  • a material embedded in the trench (groove) dug from the back surface side as the inter-pixel isolation part 211 may be, for example, a metal material such as tungsten (W), aluminum (Al), titanium (Ti), titanium nitride (TiN).
  • the transmission suppressor 340 is arranged in the boundary region between the semiconductor region 520 and the multilayer wiring layer 420 .
  • the transmission suppressing section 340 has a configuration equivalent to that of the transmission suppressing section 34 described above.
  • the transmission suppressor 340 is configured to cover the entire surface of the photodiode PD on the multilayer wiring layer 420 side.
  • a photodiode PD upper region 330 located above the photodiode PD formation region has a moth-eye structure in which fine unevenness is formed.
  • the antireflection film formed on the upper surface is also formed with the moth-eye structure.
  • the antireflection film is composed of a lamination of a hafnium oxide film 53, an aluminum oxide film 54, and a silicon oxide film 55, as in the first configuration example.
  • the PD upper region 330 of the semiconductor substrate 410 into a moth-eye structure, it is possible to mitigate the rapid change in refractive index at the substrate interface and reduce the influence of reflected light.
  • the upper region 330 according to this embodiment corresponds to the antireflection portion.
  • the optical member 800 is a multifocal lens.
  • the optical member 800 is composed of, for example, a plurality of on-chip lenses.
  • the optical axes of the plurality of on-chip lenses are configured to pass through the transmission suppressor 340 .
  • the plurality of optical axes in the multifocal optical member 800 are configured so as to maintain symmetry with respect to the center point of the surface of the photodiode PD on the multilayer wiring layer 420 side. It is possible to As a result, the plurality of optical axes of the optical member 800 are evenly configured within the photodiode PD while maintaining symmetry with respect to the center point. Therefore, photoelectric conversion in the photodiode PD is performed more efficiently.
  • the transmission suppressor 340 enters the semiconductor substrate 410 from the light incident surface via the on-chip lens as the optical member 800, and passes through the semiconductor substrate 410 without undergoing photoelectric conversion in the semiconductor substrate 410. Blocks and reflects the infrared light that has been lost. As a result, it is prevented from penetrating to the two metal films or the like below.
  • This light shielding function can prevent infrared light that has passed through the semiconductor substrate 410 without being photoelectrically converted in the semiconductor substrate 410 from being scattered by the metal film and entering neighboring pixels. This can prevent erroneous detection of light by neighboring pixels.
  • the transmission suppression unit 340 reduces the infrared light that enters the semiconductor substrate 410 from the light incident surface through the optical member 800 and passes through the semiconductor substrate 410 without being photoelectrically converted in the semiconductor substrate 410. It also has a function of reflecting the light at the transmission suppressing portion 340 and making it enter the semiconductor substrate 410 again.
  • the pixel 10 d can confine the incident light incident on the semiconductor substrate 410 by the combination of the inter-pixel separating portion 211 and the transmission suppressing portion 340 , that is, suppress the light from transmitting outside from the semiconductor substrate 410 . can. Therefore, even if the thickness of the semiconductor substrate 410 is limited, the pixel 10d can improve the light absorption efficiency particularly from the red wavelength to the near-infrared ray. Thus, this reflective function allows a greater amount of infrared light to be photoelectrically converted within the semiconductor substrate 410, improving the quantum efficiency (QE), ie, the sensitivity of the pixel 10d to infrared light. Furthermore, since the plurality of optical axes of the optical member 800 are uniformly arranged in the photodiode PD while maintaining symmetry with respect to the central point, the quantum efficiency (QE) can be further improved.
  • QE quantum efficiency
  • a photodiode PD is formed of an N-type semiconductor region 520 in the central region of the rectangular pixel 10dd.
  • a transfer transistor (not shown), a switching transistor FDG1, a reset transistor RST1, an amplification transistor AMP1, and a selection transistor SEL1 are arranged linearly along one of the four sides of the rectangular pixel 10d.
  • a transfer transistor TRG2 a switching transistor (not shown), a reset transistor RST2, an amplification transistor AMP2, and a selection transistor SEL2 are arranged linearly along the other four sides of the rectangular pixel 10d. are placed.
  • a charge discharge transistor (not shown) is arranged on a side other than the two sides of the pixel 10 on which the transfer transistor TRG, the switching transistor, the reset transistor RST, the amplification transistor AMP, and the selection transistor SEL are formed.
  • the arrangement of the pixel circuits shown in FIG. 16B is not limited to this example, and other arrangements may be made. is configured to cover the entire surface of the photodiode PD on the multilayer wiring layer 420 side.
  • the optical axes of the plurality of on-chip lenses that constitute the optical member 800 are configured to transmit through the transmission suppressing portion 340 .
  • the pixel 10d confines the incident light incident on the semiconductor substrate 410 by the combination of the inter-pixel separation portion 211 and the transmission suppressing portion 340, so that even if the thickness of the semiconductor substrate 410 is limited, especially red wavelength light is confined. to near-infrared light can be improved. Furthermore, since the plurality of optical axes of the optical member 800 in the photodiode PD are uniformly configured while maintaining symmetry with respect to a predetermined central point, the quantum efficiency (QE) can be further improved. .
  • FIG. 17 is a block diagram showing a configuration example of a ranging module that outputs ranging information using the light receiving element described above.
  • a ranging module (electronic device) 500 includes a light emitting section 511 , a light emission control section 512 , and a light receiving section 513 .
  • the light emitting unit 511 has a light source that emits light of a predetermined wavelength, and emits irradiation light whose brightness varies periodically to irradiate an object.
  • the light emitting unit 511 has, as a light source, a light emitting diode that emits infrared light with a wavelength in the range of 780 nm to 1000 nm. generate light.
  • the light emission control signal CLKp is not limited to a rectangular wave as long as it is a periodic signal.
  • the emission control signal CLKp may be a sine wave.
  • the light emission control unit 512 supplies the light emission control signal CLKp to the light emitting unit 511 and the light receiving unit 513, and controls the irradiation timing of the irradiation light.
  • the frequency of this light emission control signal CLKp is, for example, 20 megahertz (MHz). Note that the frequency of the light emission control signal CLKp is not limited to 20 megahertz (MHz), and may be 5 megahertz (MHz) or the like.
  • the light-receiving unit 513 receives light reflected from an object, calculates distance information for each pixel according to the light-receiving result, and creates a depth image in which the depth value corresponding to the distance to the object (subject) is stored as a pixel value. Generate and output.
  • a light-receiving element having a pixel structure according to any one of the first, third, and fourth embodiments described above is used for the light-receiving unit 513 .
  • the light-receiving element as the light-receiving unit 513 detects the distance information from the signal intensity corresponding to the charge distributed to the floating diffusion region FD1 or FD2 of each pixel 10 of the pixel array unit 21 based on the light emission control signal CLKp. Calculated for each Note that the number of taps of the pixel 10 may be 4 taps as described above.
  • the light receiving unit 513 of the distance measuring module 500 that obtains and outputs information on the distance to the subject by the indirect ToF method
  • the light receiving element having the pixel structure of any one of the first to sixth configuration examples described above is incorporated. be able to. As a result, the distance measurement characteristics of the distance measurement module 500 can be improved.
  • FIG. 18 shows a block diagram of an example of an Indirect-Time of Flight sensor to which this technique is applied.
  • FIG. 18 shows a block diagram of an example of the Indirect-Time of Flight sensor 10000 to which the embodiment of this technology is applied.
  • the Indirect-Time of Flight sensor 10000 includes a sensor chip 10001 and a circuit chip 10002 stacked on the sensor chip 10001 .
  • a pixel area 10020 includes a plurality of pixels arrayed in a two-dimensional grid pattern on the sensor chip.
  • the pixel area 10020 may be arranged in a matrix and may include multiple column signal lines. Each column signal line is connected to each pixel.
  • a vertical drive circuit 10010 , a column signal processing circuit 10040 , a timing adjustment circuit 10050 and an output circuit 10060 are arranged on the circuit chip 10002 .
  • the vertical driving circuit 10010 is configured to drive pixels and output pixel signals to the column signal processing section 10040 .
  • the column signal processing unit 10040 performs analog-to-digital (AD) conversion processing on the pixel signals, and outputs the AD-converted pixel signals to an output circuit.
  • the output circuit 10060 performs CDS (Correlated Double Sampling) processing and the like on the data from the column signal processing circuit 10040 and outputs the data to the signal processing circuit 10120 in the subsequent stage.
  • CDS Correlated Double Sampling
  • the timing control circuit 10050 is configured to control the drive timing of each vertical drive circuit 10010 .
  • the column signal processor and output circuit 10060 are synchronized with the vertical synchronization signal.
  • a plurality of pixels are arranged in a two-dimensional grid pattern, and each pixel receives infrared light and has a configuration capable of photoelectric conversion into pixel signals.
  • vertical signal lines VSL1 and VSL2 are wired in the vertical direction for each column of pixels 10230 . Assuming that the total number of columns in the pixel region 10020 is M (M is an integer), a total of 2 ⁇ M vertical signal lines are wired. Each pixel has two taps.
  • the vertical signal line VSL1 is connected to the tap A of the pixel 10230, and the vertical signal line VSL2 is connected to the tap B of the pixel 10230.
  • the vertical signal line VSL1 transmits the pixel signal AINP1
  • the vertical signal line VSL2 transmits the pixel signal AINP2.
  • the vertical drive circuit 210 sequentially selects and drives the rows of the pixel blocks 221 to simultaneously output the pixel signals AINP1 and AINP2 for each pixel block 221 in the rows. In other words, the vertical drive circuit 210 drives the 2k-th row and the 2k+1-th row of the pixels 230 at the same time.
  • the vertical drive circuit 210 is an example of the drive circuit described in the claims.
  • FIG. 19 is a circuit diagram showing one configuration example of the pixel 10230 according to the embodiment of the present technology.
  • This pixel 230 includes a photodiode 10231, two transfer transistors 10232 and 10237, two reset transistors 10233 and 10238, two taps (floating diffusion layers 10234 and 10239), two amplification transistors 10235 and 10239, and two selection transistors. 10236, 10241 are provided.
  • the photodiode 10231 photoelectrically converts the received light to generate charges.
  • the photodiode 10231 is arranged on the back surface of the semiconductor substrate, with the surface on which the circuit is arranged as the front surface.
  • Such a solid-state imaging device is called a back-illuminated solid-state imaging device.
  • a frontside illumination type configuration in which the photodiodes 10231 are arranged on the front surface can also be used.
  • the transfer transistor 10232 sequentially transfers charges from the photodiode 10231 to TAPA 10239 and TAPB 10234 according to the transfer signal TRG from the vertical drive circuit 10010 .
  • TAPA 10239 and TAPB 10234 accumulate the transferred charge and generate a voltage corresponding to the amount of accumulated charge.
  • the overflow transistor 10242 is a transistor that sequentially discharges the charge of the photodiode 10231 to VDD, and has the function of resetting the photodiode.
  • the reset transistors 10233 and 10238 extract charges from the TAPA 10239 and TAPB 10234 in accordance with the reset signal RSTp from the vertical drive circuit 210 to initialize the charge amount.
  • Amplification transistors 10235 and 10240 amplify the voltages of TAPA 10239 and TAPB 10234, respectively.
  • the selection transistors 10236 and 10241 output amplified voltage signals as pixel signals to the column signal processing unit 10040 via two vertical signal lines (eg, VSL1 and VSL2) according to the selection signal SELp from the vertical drive circuit 210. It is something to do.
  • VSL1 and VSL2 are connected to the input of one analog-to-digital converter XXX in column signal processing circuit 10040 .
  • circuit configuration of the pixel 230 is not limited to the configuration illustrated in FIG. 19 as long as it can generate a pixel signal by photoelectric conversion.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machinery, agricultural machinery (tractors), etc. It may also be implemented as a body-mounted device.
  • FIG. 20 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 7000 comprises a plurality of electronic control units connected via communication network 7010 .
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside information detection unit 7400, an inside information detection unit 7500, and an integrated control unit 7600.
  • the communication network 7010 connecting these multiple control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Prepare.
  • Each control unit has a network I/F for communicating with other control units via a communication network 7010, and communicates with devices or sensors inside and outside the vehicle by wired communication or wireless communication. A communication I/F for communication is provided. In FIG.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle equipment I/F 7660, an audio image output unit 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are shown.
  • Other control units are similarly provided with microcomputers, communication I/Fs, storage units, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the driving system control unit 7100 includes a driving force generator for generating driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism to adjust and a brake device to generate braking force of the vehicle.
  • Drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection section 7110 is connected to the drive system control unit 7100 .
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotational motion of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, and a steering wheel steering. At least one of sensors for detecting angle, engine speed or wheel rotation speed is included.
  • Drive system control unit 7100 performs arithmetic processing using signals input from vehicle state detection unit 7110, and controls the internal combustion engine, drive motor, electric power steering device, brake device, and the like.
  • the body system control unit 7200 controls the operation of various devices equipped on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, winkers or fog lamps.
  • body system control unit 7200 can receive radio waves transmitted from a portable device that substitutes for a key or signals from various switches.
  • Body system control unit 7200 receives these radio waves or signals and controls the door lock device, power window device, lamps, and the like of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source for the driving motor, according to various programs. For example, the battery control unit 7300 receives information such as battery temperature, battery output voltage, or remaining battery capacity from a battery device including a secondary battery 7310 . The battery control unit 7300 performs arithmetic processing using these signals, and performs temperature adjustment control of the secondary battery 7310 or control of a cooling device provided in the battery device.
  • the vehicle exterior information detection unit 7400 detects information outside the vehicle in which the vehicle control system 7000 is installed.
  • the imaging section 7410 and the vehicle exterior information detection section 7420 is connected to the vehicle exterior information detection unit 7400 .
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle exterior information detection unit 7420 includes, for example, an environment sensor for detecting the current weather or weather, or a sensor for detecting other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. ambient information detection sensor.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • LIDAR Light Detection and Ranging, Laser Imaging Detection and Ranging
  • These imaging unit 7410 and vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 21 shows an example of the installation positions of the imaging unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910 , 7912 , 7914 , 7916 , and 7918 are provided, for example, at least one of the front nose, side mirrors, rear bumper, back door, and windshield of the vehicle 7900 .
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided above the windshield in the vehicle interior mainly acquire images of the front of the vehicle 7900 .
  • Imaging units 7912 and 7914 provided in the side mirrors mainly acquire side images of the vehicle 7900 .
  • An imaging unit 7916 provided in the rear bumper or back door mainly acquires an image behind the vehicle 7900 .
  • An imaging unit 7918 provided above the windshield in the passenger compartment is mainly used for detecting preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 21 shows an example of the imaging range of each of the imaging units 7910, 7912, 7914, and 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors, respectively
  • the imaging range d The imaging range of an imaging unit 7916 provided on the rear bumper or back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, and 7916, a bird's-eye view image of the vehicle 7900 viewed from above can be obtained.
  • the vehicle exterior information detectors 7920, 7922, 7924, 7926, 7928, and 7930 provided on the front, rear, sides, corners, and above the windshield of the vehicle interior of the vehicle 7900 may be, for example, ultrasonic sensors or radar devices.
  • the exterior information detectors 7920, 7926, and 7930 provided above the front nose, rear bumper, back door, and windshield of the vehicle 7900 may be LIDAR devices, for example.
  • These vehicle exterior information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging section 7410 to capture an image of the exterior of the vehicle, and receives the captured image data.
  • the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, radar device, or LIDAR device
  • the vehicle exterior information detection unit 7400 emits ultrasonic waves, electromagnetic waves, or the like, and receives reflected wave information.
  • the vehicle exterior information detection unit 7400 may perform object detection processing or distance detection processing such as people, vehicles, obstacles, signs, or characters on the road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like, based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to the vehicle exterior object based on the received information.
  • the vehicle exterior information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing people, vehicles, obstacles, signs, characters on the road surface, etc., based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes image data captured by different imaging units 7410 to generate a bird's-eye view image or a panoramic image. good too.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410 .
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • the in-vehicle information detection unit 7500 is connected to, for example, a driver state detection section 7510 that detects the state of the driver.
  • the driver state detection unit 7510 may include a camera that captures an image of the driver, a biosensor that detects the biometric information of the driver, a microphone that collects sounds in the vehicle interior, or the like.
  • a biosensor is provided, for example, on a seat surface, a steering wheel, or the like, and detects biometric information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and determine whether the driver is dozing off. You may The in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected sound signal.
  • the integrated control unit 7600 controls overall operations within the vehicle control system 7000 according to various programs.
  • An input section 7800 is connected to the integrated control unit 7600 .
  • the input unit 7800 is realized by a device that can be input-operated by the passenger, such as a touch panel, button, microphone, switch or lever.
  • the integrated control unit 7600 may be input with data obtained by recognizing voice input by a microphone.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or may be an external connection device such as a mobile phone or PDA (Personal Digital Assistant) compatible with the operation of the vehicle control system 7000.
  • PDA Personal Digital Assistant
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information through gestures.
  • the input section 7800 may include an input control circuit that generates an input signal based on information input by a passenger or the like using the input section 7800 and outputs the signal to the integrated control unit 7600, for example.
  • a passenger or the like operates the input unit 7800 to input various data to the vehicle control system 7000 and instruct processing operations.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like. Also, the storage unit 7690 may be implemented by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the storage unit 7690 may be implemented by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication between various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced) , or other wireless communication protocols such as wireless LAN (also referred to as Wi-Fi®), Bluetooth®, and the like.
  • General-purpose communication I / F 7620 for example, via a base station or access point, external network (e.g., Internet, cloud network or operator-specific network) equipment (e.g., application server or control server) connected to You may
  • external network e.g., Internet, cloud network or operator-specific network
  • equipment e.g., application server or control server
  • the general-purpose communication I / F 7620 uses, for example, P2P (Peer To Peer) technology, terminals that exist in the vicinity of the vehicle (for example, terminals of drivers, pedestrians or stores, or MTC (Machine Type Communication) terminals) may be connected.
  • P2P Peer To Peer
  • terminals that exist in the vicinity of the vehicle for example, terminals of drivers, pedestrians or stores, or MTC (Machine Type Communication) terminals
  • MTC Machine Type Communication
  • the dedicated communication I/F 7630 is a communication I/F that supports a communication protocol designed for use in vehicles.
  • Dedicated communication I / F7630 for example, WAVE (Wireless Access in Vehicle Environment) which is a combination of lower layer IEEE802.11p and upper layer IEEE1609, DSRC (Dedicated Short Range Communications), or standard protocols such as cellular communication protocol May be implemented.
  • the dedicated communication I/F 7630 is typically used for vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) perform V2X communication, which is a concept involving one or more of the communications.
  • Positioning unit 7640 receives GNSS signals from GNSS (Global Navigation Satellite System) satellites (for example, GPS signals from GPS (Global Positioning System) satellites) and performs positioning to determine the latitude, longitude and altitude of the vehicle. Generate location information, including: Note that the positioning unit 7640 may specify the current position by exchanging signals with a wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smart phone having a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from wireless stations installed on the road, and acquires information such as the current position, traffic jams, road closures, or required time. Note that the function of the beacon reception unit 7650 may be included in the dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates connections between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 is compatible with USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface, or MHL (Mobile High -definition Link), etc.
  • In-vehicle equipment 7760 includes, for example, at least one of a mobile device or wearable device possessed by a passenger, or information equipment carried or attached to the vehicle. In-vehicle equipment 7760 may also include a navigation device that searches for a route to an arbitrary destination. or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010. In-vehicle network I/F 7680 transmits and receives signals and the like according to a predetermined protocol supported by communication network 7010 .
  • the microcomputer 7610 of the integrated control unit 7600 uses at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs on the basis of the information acquired by. For example, the microcomputer 7610 calculates control target values for the driving force generator, steering mechanism, or braking device based on acquired information on the inside and outside of the vehicle, and outputs a control command to the drive system control unit 7100. good too.
  • the microcomputer 7610 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or shock mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, etc. Cooperative control may be performed for the purpose of In addition, the microcomputer 7610 controls the driving force generator, the steering mechanism, the braking device, etc. based on the acquired information about the surroundings of the vehicle, thereby autonomously traveling without depending on the operation of the driver. Cooperative control may be performed for the purpose of driving or the like.
  • ADAS Advanced Driver Assistance System
  • Microcomputer 7610 receives information obtained through at least one of general-purpose communication I/F 7620, dedicated communication I/F 7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I/F 7660, and in-vehicle network I/F 7680. Based on this, three-dimensional distance information between the vehicle and surrounding objects such as structures and people may be generated, and local map information including the surrounding information of the current position of the vehicle may be created. Further, based on the acquired information, the microcomputer 7610 may predict dangers such as vehicle collisions, pedestrians approaching or entering closed roads, and generate warning signals.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio/image output unit 7670 transmits at least one of audio and/or image output signals to an output device capable of visually or audibly notifying the passengers of the vehicle or the outside of the vehicle.
  • an audio speaker 7710, a display section 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display 7720 may include, for example, at least one of an on-board display and a head-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be headphones, a wearable device such as an eyeglass-type display worn by a passenger, a projector, a lamp, or other device.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, and graphs. Display visually.
  • the voice output device converts an audio signal including reproduced voice data or acoustic data into an analog signal and outputs the analog signal audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • an individual control unit may be composed of multiple control units.
  • vehicle control system 7000 may comprise other control units not shown.
  • some or all of the functions that any control unit has may be provided to another control unit. In other words, as long as information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any one of the control units.
  • sensors or devices connected to any control unit may be connected to other control units, and multiple control units may send and receive detection information to and from each other via communication network 7010. .
  • the distance measurement module 500 according to this embodiment described using FIG. 17 can be applied to the positioning unit 7640 of the application example shown in FIG.
  • This technology can be configured as follows.
  • a light receiving element composed of a plurality of pixels,
  • the pixels are a multifocal optical member having a plurality of optical axes; a semiconductor layer that receives and photoelectrically converts light in a predetermined wavelength range that has passed through the optical member; a transmission suppressing portion that suppresses transmission of the light through the semiconductor layer on the first surface opposite to the light incident side of the semiconductor layer; A light receiving element.
  • the optical member has a plurality of on-chip lenses, The light-receiving element according to (1), wherein the 0th-order light that passes through the plurality of optical axes whose base point is the incident-side vertex of the plurality of on-chip lenses is incident on the transmission suppressing portion.
  • the pixels are further comprising a multiplication region that multiplies the carriers generated by the photoelectric conversion;
  • the permeation suppression unit is The light-receiving element according to (1), wherein the semiconductor layer is a region in which photoelectric conversion elements are arranged, and is formed in a region excluding a range in which transistors used for driving the pixels are arranged.
  • the semiconductor layer is configured between the optical member and the wiring layer, a first charge detection unit arranged around the first voltage application unit; a second charge detection unit arranged around the second voltage application unit;
  • the permeation suppression unit is The light-receiving element according to (1), which is configured in a region excluding at least the first charge detection section and the second charge detection section.
  • the semiconductor layer is having a photodiode, The light receiving element according to (1), wherein the transmission suppressing portion is configured to overlap the photodiode in plan view.
  • the semiconductor layer has a photoelectric conversion element
  • the convex structure of the concave-convex structure is a dummy having a floating potential or being fixed to a ground potential, which is formed when forming a gate electrode of a transistor used for driving the pixel having the photoelectric conversion element.
  • the transmission suppressing portion is formed by digging a plurality of trenches having a concave shape with respect to the first surface of the semiconductor layer at predetermined intervals, and forming a plurality of trenches having a convex shape with respect to the first surface of the semiconductor layer.
  • the light-receiving element according to (7) which is composed of an uneven structure formed by arranging convex structures at predetermined intervals.
  • the concave-convex structure has a plurality of quadrangular-pyramidal or inverted-quadrangular slopes formed of slopes having an inclination angle according to the plane index of the crystal plane of the single-crystal silicon wafer constituting the semiconductor layer with respect to the first surface of the semiconductor layer.
  • the light receiving element according to (7) which is formed by providing pyramidal shapes at predetermined intervals.
  • the optical member has the plurality of optical axes, The light-receiving element according to (1), wherein the 0th-order light transmitted through the plurality of optical axes is incident on the transmission suppressing portion, and the plurality of optical axes are symmetrical with respect to a predetermined point on the first surface. .
  • the pixels are further comprising a multiplication region that multiplies the carriers generated by the photoelectric conversion;
  • the optical member has any number of on-chip lenses of 2, 4, 8, and 9;
  • the optical member is a lens
  • the optical member is a lens
  • the pixels are The light receiving element according to (1), further comprising a reflection suppressing portion that suppresses reflection of the light on a surface of the semiconductor layer on which the light is incident.

Abstract

本開示の一実施の形態に係る受光素子は、複数の画素で構成される受光素子であって、画素は、複数の光軸を有する多焦点の光学部材と、光学部材を透過した所定の波長域の光を受光して光電変換する半導体層と、半導体層の光が入射する側と反対側となる第1面において、光が半導体層を透過するのを抑制する透過抑制部と、を備えている。

Description

受光素子、および電子機器
 本開示は、受光素子、および電子機器に関する。
 受光素子では、受光面に対して半導体層の反対側となる回路面に、受光面から入射した光が半導体層を透過するのを抑制する透過抑制部が設けられる場合あることが知られている。ところが、透過抑制部を有する受光素子では、一般に光学部材であるオンチップレンズは1つの画素に対して1つの光軸しか有しない。このため、0次光が画素中心に配置される増倍領域部に当たってしまい、透過制御部に充分に光が当たらずに、画素中心から光が透過してしまうおそれがある。
WO2020-012984号公報
 一方で、単に1つの光軸が透過抑制部を透過するように構成すると、光電変換の効率が低下してしまったり、透過抑制部を設けない領域を偏心させる必要が生じてしまったりする。例えばアバランシェフォトダイオード(APD)では、透過抑制部を設けない増倍領域部を偏心させると、光電変換により発生したキャリアの密度に非対称性が生じてしまい、測定精度が低下してしまうおそれがある。
 測定精度の低下を抑制しつつ、透過抑制部がない領域に0次光が入射することを抑制可能な受光素子、および電子機器を提供することが望ましい。
 本開示の一実施の形態に係る受光素子は、複数の画素で構成される受光素子であって、前記画素は、複数の光軸を有する多焦点の光学部材と、光学部材を透過した所定の波長域の光を受光して光電変換する半導体層と、前記半導体層の光が入射する側と反対側となる第1面において、前記光が前記半導体層を透過するのを抑制する透過抑制部と、を備えたものである。
 本開示の一実施の形態に係る電子機器は、上記本開示の一実施の形態に係る受光素子を備えたものである。
図1は、受光素子の概略構成例を示すブロック図である。 図2は、本技術を適用した受光素子に設けられる画素の構成例を示す図である。 図3は、図2のBB断面図である。 図4は、図2のCC断面図である。 図5は、増倍領域部の側面図である。 図6は、多焦点の光学部材の他の構成例を示す図である。 図7は、像面位相画素にオンチップレンズを配置したユニットの構成例を示す図である。 図8は、透過抑制部の構造例を示す図である。 図9は、ダミー電極による透過抑制部の構造例を示す図である。 図10は、ベイヤー配列のカラーフィルタを配置したユニットの構成例を示す図である。 図11は、増倍領域部の平面形状例を示す図である。 図12は、第2実施形態に係る画素の構成例を示す図である。 図13は、画素がRGBIR撮像センサとして構成される場合のカラーフィルタ層の例を示す断面図である。 図14は、第3実施形態に係る画素の断面図である。 図15は、画素の信号取り出し部の部分の構成例を示す平面図である。 図16は、第4実施形態に係る画素の構成例を示す図である。 図17は、受光素子を用いて測距情報を出力する測距モジュールの構成例を示すブロック図である。 図18は、本技術を適用したIndirect-Time of Flightセンサの一例のブロック図である。 図19は、本技術の形態における画素10230の一構成例を示す回路図である。 図20は、車両制御システムの概略的な構成の一例を示すブロック図である。 図21は、車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、図面を参照して、受光素子、および電子機器の実施形態について説明する。以下では、撮像装置、および電子機器の主要な構成部分を中心に説明するが受光素子、および電子機器には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
(第1実施形態)
<受光素子の構成例>
 図1は、本技術を適用した受光素子の概略構成例を示すブロック図である。図1に示される受光素子1は、例えばToF(Time of Flight)方式による測距情報を出力する素子である。
 受光素子1は、所定の光源から照射された光(照射光)が物体にあたって反射されてきた光(反射光)を受光し、物体までの距離情報をデプス値として格納したデプス画像を出力する。なお、光源から照射される照射光は、例えば、波長が780nm乃至1000nmの範囲の赤外光であり、例えばオンオフが所定の周期で繰り返されるパルス光である。
 受光素子1は、図示せぬ半導体基板上に形成された画素アレイ部21と、画素アレイ部21と同じ半導体基板上に集積された周辺回路部とを有する。周辺回路部は、例えば垂直駆動部22、カラム処理部23、水平駆動部24、およびシステム制御部25等から構成されている。
 受光素子1には、さらに信号処理部26およびデータ格納部27も設けられている。なお、信号処理部26およびデータ格納部27は、受光素子1と同じ基板上に搭載してもよいし、受光素子1とは別のモジュール内の基板上に配置してもよい。
 画素アレイ部21は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する画素10が行方向および列方向の行列状に2次元配置された構成となっている。すなわち、画素アレイ部21は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する画素10を複数有する。画素10の詳細については、図2以降で後述する。
 ここで、行方向とは、水平方向の画素10の配列方向をいい、列方向とは、垂直方向の画素10の配列方向をいう。行方向は、図中、横方向であり、列方向は図中、縦方向である。
 画素アレイ部21においては、行列状の画素配列に対して、画素行ごとに画素駆動線28が行方向に沿って配線されるとともに、各画素列に2つの垂直信号線29が列方向に沿って配線されている。例えば画素駆動線28は、画素10から信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図1では、画素駆動線28について1本の配線として示しているが、1本に限られるものではない。画素駆動線28の一端は、垂直駆動部22の各行に対応した出力端に接続されている。
 垂直駆動部22は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部21の各画素10を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動部22は、垂直駆動部22を制御するシステム制御部25とともに、画素アレイ部21の各画素10の動作を制御する駆動部を構成している。
 垂直駆動部22による駆動制御に応じて画素行の各画素10から出力される検出信号は、垂直信号線29を通してカラム処理部23に入力される。カラム処理部23は、各画素10から垂直信号線29を通して出力される検出信号に対して所定の信号処理を行うとともに、信号処理後の検出信号を一時的に保持する。具体的には、カラム処理部23は、信号処理としてノイズ除去処理やAD(AnalogtoDigital)変換処理などを行う。
 水平駆動部24は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理部23の画素列に対応する単位回路を順番に選択する。この水平駆動部24による選択走査により、カラム処理部23において単位回路ごとに信号処理された検出信号が順番に出力される。
 システム制御部25は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、そのタイミングジェネレータで生成された各種のタイミング信号を基に、垂直駆動部22、カラム処理部23、および水平駆動部24などの駆動制御を行う。
 信号処理部26は、少なくとも演算処理機能を有し、カラム処理部23から出力される検出信号に基づいて演算処理等の種々の信号処理を行う。データ格納部27は、信号処理部26での信号処理にあたって、その処理に必要なデータを一時的に格納する。
 以上のように構成される受光素子1は、物体までの距離情報をデプス値として画素値に格納したデプス画像を出力する。受光素子1は、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムや、ユーザの手等の対象物までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用の装置などの電子機器に搭載することができる。
 図2は、本技術を適用した受光素子に設けられる画素10aの構成例を示す図である。図2に示すように、画素10aは、例えばアバランシェフォトダイオード(APD)である。図3は、図2のBB断面図であり、また、図4は、図2のAA断面図である。また、図2は、図4のCC断面図である。
 本実施形態では、APDを例に挙げて説明する。APDは、ブレークダウン電圧よりも高いバイアス電圧で動作させるガイガーモードと、ブレークダウン電圧近傍の少し高いバイアス電圧で動作させるリニアモードとがある。ガイガーモードのアバランシェフォトダイオードは、シングルフォトンアバランシェダイオード(SPAD)とも呼ばれている。SPADは、光電変換により発生したキャリアを画素毎に設けられた高電界のPN接合領域(後述する増倍領域部35)で増倍させることで、1個のフォトンを画素毎に検出することができるデバイスである。本実施形態では、APDのうちの例えばSPADに適用する。なお、本実施形態における受光素子は、撮像用のイメージセンサに適用してもよく、測距センサに適用してもよい。
 図2に示すように、画素10aは、センサ基板210の受光面側にオンチップレンズ層220が積層され、その受光面に対して反対を向く回路面側に配線層230が積層されて構成される。また、配線層230には、光電変換により発生したキャリアを画素毎に設けられた高電界のPN接合領域で増倍させる増倍領域部35が構成される。画素10aは、例えば、シリコン基板の製造プロセスにおける表面側に配線層230を介して回路基板(図示せず)が積層されるとともに、裏面側に光が照射される所謂裏面照射型のイメージセンサに、本技術を適用した構成である。もちろん、表面照射型のイメージセンサに本技術を適用してもよい。なお、本実施形態における受光素子は、撮像用のイメージセンサに適用してもよく、測距用の測距センサに適用してもよい。
 すなわち、この画素10aは、ウェル層31と、DTI(DeepTrenchIsolation)32と、反射抑制部33と、透過抑制部34と、増倍領域部35と、アノード36と、コンタクト37a、37bと、光学部材38と、を備える。センサ基板210では、所定の波長域の光を受光して光電変換する光電変換部(光電変換素子)が形成される半導体層(ウェル層)31の周囲を囲うように、隣接する画素10aどうしを分離するための素子分離構造であるDTI(DeepTrenchIsolation)32が形成されている。例えば、DTI32は、ウェル層31を受光面側から掘り込んで形成される溝部に絶縁物(例えば、SiO2)が埋め込まれて構成される。
 反射抑制部33は、ウェル層31の受光面に、ウェル層31に入射する光の反射を抑制する。この反射抑制部33は、例えば、ウェル層31を構成する単結晶シリコンウェハの結晶面の面指数に従った傾斜角度の斜面からなる複数の四角錐形状または逆四角錐形状が所定間隔で設けられることにより形成される凹凸構造によって構成される。より具体的には、反射抑制部33は、単結晶シリコンウェハの結晶面の面指数が110または111であり、複数の四角錐形状または逆四角錐形状の隣接する頂点どうしの間隔が例えば200nm以上、かつ、1000nm以下となる凹凸構造によって構成される。なお、本実施形態に係る画素10aは、反射抑制部33を有するが、これに限定されない。例えば、反射抑制部33を有さない画素10aでもよい。
 図2、及び図3に示すように、オンチップレンズ層220は、センサ基板210に照射される光を画素10aごとに集光するための光学部材38により構成される。また、オンチップレンズ層220は、例えば、ウェル層31の受光面側からDTI32に絶縁物を埋め込む工程において、その絶縁物によって平坦化された平坦な面に対して積層される。光学部材38は、多焦点のレンズである。この光学部材38は、例えば複数のオンチップレンズ380により構成される。光学部材38は、複数のオンチップレンズ380の入射側の頂点部を基点とする複数の光軸を有し、複数の光軸を透過する0次光は、透過抑制部34に入射する。なお、光学部材38の詳細は図6、及び図7を用いて後述する。
 図4に示すように、透過抑制部34は、増倍領域部35の周囲を囲むように構成される。すなわち、画素10aでは、ウェル層31の回路面に、ウェル層31に入射した光がウェル層31を透過するのを抑制する透過抑制部34が形成される。この透過抑制部34は、例えば、ウェル層31の回路面に対して凹形状となる複数の浅型のトレンチであるSTI(ShallowTrenchIsolation)を、所定間隔で掘り込むことにより形成される凹凸構造によって構成される。即ち、透過抑制部34は、DTI32のトレンチを形成するのと同様のプロセスで形成されるが、DTI32のトレンチの深さよりも浅く形成される。例えば、透過抑制部34は、100nm以上の深さでトレンチが掘り込まれ、隣接するトレンチどうしの間隔が100nm以上、かつ、1000nm以下となる凹凸構造によって構成される。
 増倍領域部35は、コンタクト37aを介して配線層230の配線と接続される。増倍領域部35の詳細は図5を用いて後述する。
 再び図2に示すように、アノード36は、コンタクト37bを介して配線層230の配線と接続される。配線層230は、ウェル層31の回路面に積層され、さらに層間絶縁膜によって互いに絶縁される複数の多層配線が形成された構成となっている。このように、画素10aは、ウェル層31の受光面に反射抑制部33が設けられるとともに、ウェル層31の回路面に透過抑制部34が設けられた構造で、透過抑制部34は、複数の浅型のトレンチからなる凹凸構造によって構成される。
 図5は、増倍領域部35の側面図である。図5に示すように、増倍領域部35は、配線層230側に配置される例えば導電型がn型(第1導電型)のn型半導体領域35aと、n型半導体領域35aの上部、すなわち、オンチップレンズ層220側に配置される例えば導電型がp型(第2導電型)のp型半導体領域35bが形成される。増倍領域部35は、ウェル層31内に形成される。ウェル層31は、導電型がn型の半導体領域であっても良いし、導電型がp型の半導体領域であってもよい。また、ウェル層31は、例えば、1E14オーダー以下の低濃度のn型またはp型の半導体領域であることが好ましく、これにより、ウェル層31を空乏化させやすくなり、PDEの向上を図ることができる。
 n型半導体領域35aは、例えばSi(シリコン)からなり、不純物濃度が高い導電型がn型の半導体領域である。p型半導体領域35bは、不純物濃度が高い導電型がp型の半導体領域である。p型半導体領域35bは、n型半導体領域35aとの界面でpn接合を構成している。p型半導体領域35bは、被検出光の入射によって生じたキャリアをアバランシェ増倍する増倍領域を有する。p型半導体領域35bは、空乏化していることが好ましく、これによりPDEの向上を図ることができる。
 図6は、光学部材38の光軸OP12~OP18と透過抑制部34とを模式的に重ねた平面模式図である。光学部材38は、4つのオンチップレンズ380aで構成される。増倍領域部35の中心部をG10で示し、4つのオンチップレンズ380aの光軸をそれぞれOP12~OP18で示す。ここで光軸OP12~OP18は、4つのオンチップレンズ380aそれぞれを透過した0次光が進む光路に対応する。また、光軸OP12、OP14を結ぶ線分をL10、光軸OP12、OP14を結ぶ線分をL12、中心部G10を通り、線分L10、L12と平行な線分をL14とする。オンチップレンズ380aは透明有機材料、または、無機材料(SiN、Si、αSi)である。
 図6に示すように、光軸OP12~OP18は、増倍領域部35を除く透過抑制部34の底面(水平面)を垂直に透過する。これにより、光学部材38を介した入射光のうち、ウェル層31を直進する0次光成分は、透過抑制部34の凹凸構造によってウェル層31を透過することが抑制される。
 また光軸OP12~OP18は、中心部G10から等距離である。さらにまた、中心部G10と光軸OP12~OP18をそれぞれ結ぶ線分は中心部G10に対して回転対称である。つまり、光軸OP12、OP14と、OP16、OP18とは線分L14に対して、線対称であり、光軸OP12、OP16と、OP16、OP18とは中心部G10を通り線分L14に直交する線分L16に対して、線対称である。このように、中心部G10に対して、光軸OP12~OP18を対称的に構成する。これにより、ウェル層31内にされる電位ポテンシャルを中心部G10に対して対称化させることにより、4つのオンチップレンズ380aそれぞれを透過した光による光電変換により発生したキャリアを、等確率で増倍領域部35の中心部G10に集めることが可能となる。これにより、多焦点の光学部材38を配置しても測定誤差が抑制される。
 再び図2に示すように、ウェル層31に入射する入射光が反射抑制部33で回折し、その入射光のうち、ウェル層31を直進する0次光成分は、透過抑制部34の凹凸構造によってウェル層31を透過することが抑制される。また、その入射光のうち、反射抑制部33で回折した1次光成分は、DTI32で反射した後、ウェル層31の透過抑制部34でも反射する。これにより、画素10aは、ウェル層31に入射した入射光をDTI32および透過抑制部34の組み合わせによって閉じ込めること、即ち、ウェル層31から外へ透過してしまうことを抑制することができる。このため、画素10aは、限られたウェル層31の厚みであっても、特に、赤波長から近赤外線にかけての光吸収効率を改善することができる。その結果、画素10aは、それらの波長帯の感度や量子効果などを非常に向上させることができ、センサ感度の向上を図ることができる。更に、光軸OP12~OP18それぞれを、中心部G10から対称的に配置することにより、光学部材38を透過した光により発生したキャリアを中心部G10に対して、対称的に集めることが可能となる。
 光学部材38を透過した光により発生したキャリアの密度に対称性が無い場合には、キャリアの発生した領域に依存して、増倍領域部35に到達する時間に差が生じてしまう。これから分かるように、到達する時間の差が大きくなるにしたがい測定精度が低下してしまう。これに対して、本実施形態に係る画素10aは、上述のように、増倍領域部35を画素10aの中心部G10に配置し、光軸OP12~OP18それぞれを、中心部G10から対称的に配置する。これにより、光学部材38を透過した光により発生したキャリアを中心部G10に対称的に集めることで、測定精度の低下を抑制しつつ、増倍領域部35に0次光が入射することが抑制される。
 図7は、多焦点の光学部材38の他の構成例を示す図である。光学部材38の光軸はそれぞれ透過抑制部34を透過する。このため、入射光のうち、ウェル層31を直進する0次光成分は、透過抑制部34の凹凸構造によってウェル層31を透過することが抑制される。図7(a)は、光学部材38を8つのオンチップレンズ380bで構成した例である。図7(b)は、光学部材38を9つのオンチップレンズ380cで構成した例である。図7(c)は、光学部材38を9つのオンチップレンズ380dで構成した例である。それぞれのオンチップレンズの光軸は、増倍領域部35の中心部G10に対して回転対称となっている。これにより、光学部材38を透過した光により発生したキャリアを中心部G10に回転対称的に集めることが可能となる。
 このように、本実施形態に係る多焦点の光学部材38の光軸は、中心部G10に対して回転対称、線対称などの対称性を維持するように構成される。これにより、電位ポテンシャルを対称的に構成、或いは、さらにキャリ光電変換により発生したキャリアの密度の対称性を補う電位ポテンシャルを発生させることにより、測定精度の低下が抑制される。
 ここで、図8乃至図10を用いて、透過抑制部34の他の構造例について説明する。図8は、透過抑制部34aの構造例を示す図である。図8に示すように、透過抑制部34aは、ウェル層31の回路面に対して光学的に薄い絶縁膜51で成膜される。透過抑制部34aは、例えば、反射抑制部33と同様に、ウェル層31を構成する単結晶シリコンウェハの結晶面の面指数に従った傾斜角度の斜面からなる複数の四角錐形状または逆四角錐形状が所定間隔で設けられることにより形成される凹凸構造34L-1によって構成される。より具体的には、透過抑制部34aは、単結晶シリコンウェハの結晶面の面指数が110または111であり、複数の四角錐形状または逆四角錐形状の隣接する頂点どうしの間隔が200nm以上、かつ、1000nm以下となる凹凸構造によって構成される。
 図9は、ダミー電極による透過抑制部34bの構造例を示す図である。図9に示すように、透過抑制部34bは、例えば、ウェル層31の凸形状となる複数の所謂ダミー電極34C-1を所定間隔で配置することにより形成される凹凸構造によって構成される。例えば、透過抑制部34bを構成するダミー電極は、ゲート電極と同様にポリシリコンにより形成することができ、絶縁膜51を介してウェル層31の回路面に対して積層される。また、このダミー電極は、電気的にフローティングとされ、または、グランド電位に固定されている。より具体的には、透過抑制部34cは、100nm以上の高さでダミー電極が形成され、隣接するダミー電極どうしの間隔が100nm以上、かつ、1000nm以下となる凹凸構造によって構成される。
 図10は、透過抑制部34の別の構造例を示す図である。図10に示すように、透過抑制部34cは、例えば、ウェル層31の回路面に対して凹形状となる複数の浅型のトレンチを所定間隔で掘り込むことにより形成される凹凸構造と、ウェル層31の回路面に対して凸形状となる複数のダミー電極34D-1を所定間隔で配置することにより形成される凹凸構造とが組み合わされて構成される。つまり、透過抑制部34cは、図2に示した透過抑制部34と、図9に示した透過抑制部34bとが組み合わされた構成となっている。より具体的には、透過抑制部34cは、100nm以上の深さで掘り込まれ、隣接するものどうしの間隔が100nm以上、かつ、1000nm以下となるトレンチと、100nm以上の高さで形成され、隣接するものどうしの間隔が100nm以上、かつ、1000nm以下となるダミー電極34D-1との凹凸構造によって構成される。また、このダミー電極34D-1は、絶縁膜51を介して半導体層310の回路面に対して積層され、電気的にフローティングとされ、または、グランド電位に固定されている。
 図11は、増倍領域部35の平面形状例を示す図である。図11に示すように、増倍領域部35の平面形状は、図11(a)で示す円形、(b)で示す方形、(c)で示す8角形、(d)で示す菱形などで構成できる。このように、例えば光学材38の光学特性、透過抑制部34の形状特性、及び電位ポテンシャルに対して、より適した増倍領域部35の平面形状を構成可能となる。なお、これらの形状に限定されず、光学特性、透過抑制部34の形状特性、及び電位ポテンシャルに対して、より適した増倍領域部35の平面形状を構成してもよい。
 以上説明したように、本実施形態によれば、凹凸構造を有する透過抑制部34は、増倍領域部35の周囲を囲むように構成される。すなわち、画素10aでは、ウェル層31の配線側の面に、ウェル層31に入射した光がウェル層31を透過するのを抑制する透過抑制部34を形成し、ウェル層31の入射側の面に、多焦点の光学部材38を形成し、複数の光軸OP12~OP18それぞれが透過抑制部34を透過するように形成する。これにより、光学部材38を介した入射光のうち、ウェル層31を直進する0次光成分は、透過抑制部34の凹凸構造によってウェル層31を透過することが抑制される。このため、画素10aは、限られたウェル層31の厚みであっても、特に、赤波長から近赤外線にかけての光吸収効率を改善することができる。その結果、画素10aは、それらの波長帯の感度や量子効果などを非常に向上させることができ、センサ感度の向上を図ることができる。このように、光学部材38を透過した光により発生したキャリアを中心部G10に対して対称的に発生させることで、測定精度の低下を抑制しつつ、増倍領域部35に0次光が入射することが抑制される。
(第2実施形態)
 第2実施形態に係る光学素子の画素10bは、CMOSイメージセンサとして構成される点で、第1実施形態に係る光学素子の画素10aと相違する。以下では第1実施形態に係る光学素子と相違する点を説明する。
 図12は、第2実施形態に係る画素10bの構成例を示す図である。図12(a)には、画素10bの断面的な構成例が示されており、図12(b)には、画素10bを有する光学素子の平面的なレイアウトの一例が示されており、図12(c)には、画素10bの光学部材41の一例が示されている。
 図12(a)に示すように、画素10bは、センサ基板210の受光面側にオンチップレンズ層220が積層され、その受光面に対して反対を向く回路面側に配線層230が積層されて構成される。センサ基板210では、所定の波長域の光を受光して光電変換する光電変換部が形成される半導体層310の周囲を囲うように、隣接する画素10bどうしを分離するための素子分離構造であるDTI(DeepTrenchIsolation)320が形成されている。例えば、DTI320は、半導体層310を受光面側から掘り込んで形成される溝部に絶縁物(例えば、SiO2)が埋め込まれて構成される。また、DTI320は、図12(a)に示す例では、半導体層310の回路面側において、隣り合う画素10bとの間で半導体層310が接続された状態となる深さで形成される。
 また、画素10bでは、半導体層310の受光面に、半導体層310に入射する光の反射を抑制するための反射抑制部33が形成される。そして、画素10bでは、半導体層310の回路面に、半導体層310に入射した光が半導体層310を透過するのを抑制する透過抑制部34が形成される。
 オンチップレンズ層220は、センサ基板210に照射される光を画素10bごとに集光するための光学部材41によって構成される。図12(c)に示すように、光学部材41は、多焦点のレンズであり、複数のオンチップレンズで構成される。オンチップレンズそれぞれの光軸は、透過抑制部34を透過するように構成される。これにより、例えば転送トランジスタ710-1の領域を除いた透過抑制部34を透過するようにオンチップレンズそれぞれの光軸を構成することが可能である。これにより、光学部材41から入射した0次光が転送トランジスタ710-1の領域に入射することが抑制される。
 配線層230は、半導体層310の回路面に対して光学的に薄い絶縁膜51が成膜され、絶縁膜51を介してゲート電極52aおよび52bが積層され、さらに層間絶縁膜53によって互いに絶縁される複数の多層配線54が形成された構成となっている。
 このように、画素10bは、半導体層310の受光面に反射抑制部33が設けられるとともに、半導体層310の回路面に透過抑制部34が設けられた構造で、透過抑制部34は、複数の浅型のトレンチからなる凹凸構造によって構成される。これにより、画素10bは、半導体層310に入射した入射光をDTI320および透過抑制部34の組み合わせによって閉じ込めること、即ち、半導体層310から外へ透過してしまうことを抑制することができる。
 図12(b)に示すように、光学素子は、所定数の画素10bでトランジスタを共有する画素共有構造を採用することができる。図12(b)には、2×2に配置された3個の画素10b-1乃至10b-4による画素共有構造の模式図が示されている。
 図12(b)に示すように、画素共有構造では、画素10b-1乃至10b-4それぞれに対し、転送トランジスタ710-1乃至710-4が設けられる。また、画素共有構造では、画素10b-1乃至10b-4に対して、共有して用いる増幅トランジスタ720、選択トランジスタ730、およびリセットトランジスタ74が1つずつ設けられる。そして、これらの画素10b-1乃至10b-4の駆動に用いられるトランジスタは、半導体層310の回路面側に配置されている。
 従って、半導体層310の回路面に設けられる透過抑制部34-1乃至34-4は、光学素子を回路面側から平面視したときに、画素10b-1乃至10b-4ごとに、図示するような有効画素領域37-1乃至37-4に形成される。ここで、有効画素領域37-1乃至37-4は、画素10b-1乃至10b-4それぞれの領域から、転送トランジスタ710-1乃至710-4、増幅トランジスタ720、および選択トランジスタ730が配置される範囲を除いた領域となる。すなわち、光学部材41の0次光は、有効画素領域37-1乃至37-4を透過するように構成される。これにより、画素10b-1乃至10b-4の光電変換効率の低下を抑制しつつ、0次光が、透過抑制部34を除く範囲を透過することが抑制される。
 図13は、画素10b-1乃至10b-4がRGBIR撮像センサとして構成される場合に、反射抑制部33と光学部材41との間に挿入されるカラーフィルタ層の例を示す断面図である。
 図13では、左から右の順に、画素10b-1乃至10b-4を模式的に並べている。すなわち、画素10b-1乃至10b-4が、B画素、G画素、R画素、および、IR画素にそれぞれ対応する。
 反射抑制部33と光学部材41とのには、第1のカラーフィルタ層381と、第2のカラーフィルタ層382とが挿入されている。IR画素では、第1のカラーフィルタ層381に、Rの光を透過させるRフィルタが配置され、第2のカラーフィルタ層382に、Bの光を透過させるBフィルタが配置されている。これにより、BからRまでの波長以外の光が透過するので、IRの光が、第1のカラーフィルタ層381と第2のカラーフィルタ層382を透過して、反射抑制部33を介して半導体層310へ入射される。
 以上説明したように、本実施形態によれば、凹凸構造を有する透過抑制部34は、半導体層310の配線側の面に形成され、半導体層310の入射側の面に、多焦点の光学部材41を形成される。また、光学部材41の複数の光軸それぞれが透過抑制部34を透過するように形成される。これにより、光学部材41を介した入射光のうち、半導体層310を直進する0次光成分は、透過抑制部34の凹凸構造によって半導体層310を透過することが抑制される。また、多焦点の光学部材41により、透過抑制部34に対して、半導体層310を直進する0次光成分を均一的に分散させることが可能となる。このため、画素10bは、限られた半導体層310の厚みであっても、光電変換の効率の低下を抑制しつつ、光吸収効率を改善することができる。
(第3実施形態)
 第3実施形態に係る光学素子の画素10cは、CAPD(CurrentAssistedPhotonicDemodulator)センサとして構成される点で、第1実施形態に係る光学素子の画素10aと相違する。以下では第1実施形態に係る光学素子と相違する点を説明する。
 間接ToF(TimeofFlight)方式を利用した測距システムが知られている。このような測距システムでは、ある位相でLED(LightEmittingDiode)やレーザを用いて照射されたアクティブ光が対象物にあたって反射した光を受光することで得られる信号電荷を高速に異なる領域に振り分けることのできるセンサが必要不可欠である。そこで、例えばセンサの基板に直接電圧を印加して基板内に電流を発生させることで、基板内の広範囲の領域を高速に変調できるようにした技術が提案されている。このようなセンサは、CAPD(CurrentAssistedPhotonicDemodulator)センサとも呼ばれている。
 図14は、第3実施形態に係る画素10cの断面図である。すなわち、画素10cは、CAPDセンサにおける1つの画素に対応する。図15は、画素10cの信号取り出し部の部分の構成例を示す平面図である。
 この画素10cは外部から入射した光、特に赤外光を受光して光電変換し、その結果得られた電荷に応じた信号を出力する。画素10cは、例えばシリコン基板、すなわちP型半導体領域からなるP型半導体基板である基板61(半導体層)と、その基板61上に形成された光学部材620とを有している。
 基板61内における入射面とは反対の面側、すなわち図中、下側の面の内側の部分には、酸化膜64と、Tap(タップ)と呼ばれる信号取り出し部65-1および信号取り出し部65-2とが形成されている。
 この例では、基板61の入射面とは反対側の面近傍における画素10cの中心部分に酸化膜64が形成されており、その酸化膜64の両端にそれぞれ信号取り出し部65-1および信号取り出し部65-2が形成されている。また、酸化膜64の表面には透過抑制部34が形成される。
 ここで、信号取り出し部65-1は、N型半導体領域であるN+半導体領域71-1およびN+半導体領域71-1よりもドナー不純物の濃度が低いN-半導体領域72-1と、P型半導体領域であるP+半導体領域73-1およびP+半導体領域73-1よりもアクセプター不純物濃度が低いP-半導体領域74-1とを有している。ここで、ドナー不純物とは、例えばSiに対してのリン(P)やヒ素(As)等の元素の周期表で5族に属する元素が挙げられ、アクセプター不純物とは、例えばSiに対してのホウ素(B)等の元素の周期表で3族に属する元素が挙げられる。ドナー不純物となる元素をドナー元素、アクセプター不純物となる元素をアクセプター元素と称する。
 すなわち、基板61の入射面とは反対側の面の表面内側部分における、酸化膜64の図中、右側に隣接する位置にN+半導体領域71-1が形成されている。また、N+半導体領域71-1の図中、上側に、そのN+半導体領域71-1を覆うように(囲むように)N-半導体領域72-1が形成されている。さらに、基板61の入射面とは反対側の面の表面内側部分における、N+半導体領域71-1の図中、右側に隣接する位置にP+半導体領域73-1が形成されている。また、P+半導体領域73-1の図中、上側に、そのP+半導体領域73-1を覆うように(囲むように)P-半導体領域74-1が形成されている。
 なお、ここでは図示はされていないが、より詳細には基板61を基板61の面と垂直な方向から見たときに、P+半導体領域73-1およびP-半導体領域74-1を中心として、それらのP+半導体領域73-1およびP-半導体領域74-1の周囲を囲むように、N+半導体領域71-1およびN-半導体領域72-1が形成されている。
 同様に信号取り出し部65-2は、N型半導体領域であるN+半導体領域71-2およびN+半導体領域71-2よりもドナー不純物の濃度が低いN-半導体領域72-2と、P型半導体領域であるP+半導体領域73-2およびP+半導体領域73-2よりもアクセプター不純物濃度が低いP-半導体領域74-2とを有している。
 また、図14、図15に示すように、透過抑制部34は、P-半導体領域74-2、N-半導体領域72-2、N-半導体領域72-1、及びP-半導体領域74-1の周囲を囲むように構成される。
 光学部材620は、多焦点のレンズである。光学部材620は、例えば複数のオンチップレンズで構成される。複数のオンチップレンズの光軸は、P-半導体領域74-2、N-半導体領域72-2、N-半導体領域72-1、及びP-半導体領域74-1を除く、透過抑制部34を透過するように構成される。この場合、上述の図4と同様に、N+半導体領域71-1とN+半導体領域71-2との中点に対して、対称性を維持するように、多焦点の光学部材620における複数の光軸を構成することが可能である。これにより、基板61を透過した光により発生したキャリアをN+半導体領域71-1とN+半導体領域71-2に対称的に集めることで、測定精度の低下を抑制しつつ、P-半導体領域74-2、N-半導体領域72-2、N-半導体領域72-1、及びP-半導体領域74-1に0次光が入射することが抑制される。
 以上説明したように、本実施形態によれば、透過抑制部34は、P-半導体領域74-2、N-半導体領域72-2、N-半導体領域72-1、及びP-半導体領域74-1の周囲を囲むように構成される。また、画素10cでは、基板61の入射面側に多焦点の光学部材620を形成し、複数の光軸それぞれが透過抑制部34を透過するように形成する。これにより、光学部材620を介した入射光のうち、基板61を直進する0次光成分は、透過抑制部34の凹凸構造によって基板61を透過することが抑制される。このため、画素10cは、限られ基板61の厚みであっても、特に、赤波長から近赤外線にかけての光吸収効率を改善することができる。その結果、画素10cは、それらの波長帯の感度や量子効果などを非常に向上させることができ、センサ感度の向上を図ることができる。また、N+半導体領域71-1とN+半導体領域71-2との中点に対して、対称性を維持するように、多焦点の光学部材620における複数の光軸を構成することが可能である。これによりに、基板61を透過した光により発生したキャリアを信号取り出し部65-1および信号取り出し部65-2に対して対称的に集めることが可能となる。
(第4実施形態)
 第4実施形態に係る光学素子の画素10cは、ゲート間接タイムオブフライト(Gate-iToF)センサとして構成される点で、第1実施形態に係る光学素子の画素10と相違する。以下では第1実施形態に係る光学素子と相違する点を説明する。
 図16は、第4実施形態に係る画素10dの構成例を示す図である。図16(a)は、断面図である。図16(b)は、平面図である。この画素10dは、Gate-iToFセンサの画素例である。受光素子は、半導体基板(半導体層)410と、その表面側(図中下側)に形成された多層配線層420とを備える。
 半導体基板410は、例えばシリコン(Si)で構成され、例えば1乃至6μmの厚みを有して形成されている。半導体基板410では、例えば、P型(第1導電型)の半導体領域510に、N型(第2導電型)の半導体領域520が画素単位に形成されることにより、フォトダイオードPDが画素単位に形成されている。半導体基板410の表裏両面に設けられているP型の半導体領域510は、暗電流抑制のための正孔電荷蓄積領域を兼ねている。画素間分離部211として裏面側から掘り込んだトレンチ(溝)に埋め込む材料は、例えば、タングステン(W)、アルミニウム(Al)、チタン(Ti)、窒化チタン(TiN)等の金属材料でもよい。
 図16(a)に示すように、半導体領域520と多層配線層420との境界領域に透過抑制部340が配置されている。透過抑制部340は、上述した透過抑制部34と同等の構成である。図16(b)に示すように、透過抑制部340は、フォトダイオードPDの多層配線層420側の面の全域を覆う様に構成される。
 また、図16(a)に示すように、フォトダイオードPDの形成領域の上方に位置するフォトダイオードPD上部領域330が、微細な凹凸が形成されたモスアイ構造となっている。また、半導体基板410のフォトダイオードPD上部領域330のモスアイ構造に対応して、その上面に形成された反射防止膜もモスアイ構造で形成されている。反射防止膜は、第1構成例と同様に、酸化ハフニウム膜53、酸化アルミニウム膜54、および、酸化シリコン膜55の積層により構成されている。
 このように、半導体基板410のPD上部領域330をモスアイ構造とすることで、基板界面における急激な屈折率の変化を緩和し、反射光による影響を低減させることができる。なお、本実施形態に係る上部領域330が、反射抑制部に対応する。
 また、図16(a)に示すように、光学部材800は、多焦点のレンズである。光学部材800は、例えば複数のオンチップレンズで構成される。複数のオンチップレンズの光軸は、透過抑制部340を透過するように構成される。この場合、上述の図4と同様に、フォトダイオードPDの多層配線層420側の面の中心点に対して、対称性を維持するように、多焦点の光学部材800における複数の光軸を構成することが可能である。これによりに、フォトダイオードPD内を光学部材800の複数の光軸が中心点に対して対称性を維持しつつ均等に構成される。このため、フォトダイオードPD内の光電変換がより効率的に行われる。
 上述のように、透過抑制部340は、光学部材800としてのオンチップレンズを介して光入射面から半導体基板410内に入射し、半導体基板410内で光電変換されずに半導体基板410を透過してしまった赤外光を、遮光し反射する。これにより、それより下方の2金属膜などへ透過させないようにする。この遮光、機能により、半導体基板410内で光電変換されずに半導体基板410を透過してしまった赤外光が、金属膜で散乱し、近傍画素へ入射してしまうことを抑制できる。これにより、近傍画素で誤って光を検知してしまうことを防ぐことができる。
 また、透過抑制部340は、光学部材800を介して光入射面から半導体基板410内に入射し、半導体基板410内で光電変換されずに半導体基板410を透過してしまった赤外光を、透過抑制部340で反射させて半導体基板410内へと再度入射させる機能も有する。
 これにより、画素10dは、半導体基板410に入射した入射光を画素間分離部211および透過抑制部340の組み合わせによって閉じ込めること、即ち、半導体基板410から外へ透過してしまうことを抑制することができる。このため、画素10dは、限られた半導体基板410の厚みであっても、特に、赤波長から近赤外線にかけての光吸収効率を改善することができる。このように、この反射機能により、半導体基板410内で光電変換される赤外光の量をより多くし、量子効率(QE)、つまり赤外光に対する画素10dの感度を向上させることができる。さらに、フォトダイオードPD内を光学部材800の複数の光軸が中心点に対して対称性を維持しつつ均等に構成されるので、より量子効率(QE)、を向上させることができる。
 一方、多層配線層420が形成された半導体基板410の表面側には、各画素10dに形成された1つのフォトダイオードPDに対して、2つの転送トランジスタTRG1およびTRG2が形成されている。また、半導体基板410の表面側には、フォトダイオードPDから転送された電荷を一時保持する電荷蓄積部としての浮遊拡散領域FD1およびFD2が、高濃度のN型半導体領域(N型拡散領域)により形成されている。
 また、図16(b)に示されるように、矩形の画素10ddの中央部の領域に、フォトダイオードPDがN型の半導体領域520で形成されている。フォトダイオードPDの外側であって、矩形の画素10dの四辺の所定の一辺に沿って、転送トランジスタ(不図示)、切替トランジスタFDG1、リセットトランジスタRST1、増幅トランジスタAMP1、及び、選択トランジスタSEL1が直線的に並んで配置され、矩形の画素10dの四辺の他の一辺に沿って、転送トランジスタTRG2、切替トランジスタ(不図示)、リセットトランジスタRST2、増幅トランジスタAMP2、及び、選択トランジスタSEL2が直線的に並んで配置されている。
 さらに、転送トランジスタTRG、切替トランジスタ、リセットトランジスタRST、増幅トランジスタAMP、及び、選択トランジスタSELが形成されている画素10の二辺とは別の辺に、電荷排出トランジスタ(不図示)が配置されている。なお、図16(b)に示した画素回路の配置は、この例に限られず、その他の配置としてもよい以上説明したように、本実施形態によれば、導体領域520と多層配線層420との境界領域にフォトダイオードPDの多層配線層420側の面の全域を覆う様に構成される。また、光学部材800を構成する複数のオンチップレンズの光軸は、透過抑制部340を透過するように構成される。これにより、画素10dは、半導体基板410に入射した入射光を画素間分離部211および透過抑制部340の組み合わせによって閉じ込めることにより、限られた半導体基板410の厚みであっても、特に、赤波長から近赤外線にかけての光吸収効率を改善することができる。さらに、フォトダイオードPD内を光学部材800の複数の光軸が、所定の中心点に対して対称性を維持しつつ均等に構成されるので、より量子効率(QE)、を向上させることができる。
<測距モジュールの構成例>
 図17は、上述した受光素子を用いて測距情報を出力する測距モジュールの構成例を示すブロック図である。
 測距モジュール(電子機器)500は、発光部511、発光制御部512、および、受光部513を備える。
 発光部511は、所定波長の光を発する光源を有し、周期的に明るさが変動する照射光を発して物体に照射する。例えば、発光部511は、光源として、波長が780nm乃至1000nmの範囲の赤外光を発する発光ダイオードを有し、発光制御部512から供給される矩形波の発光制御信号CLKpに同期して、照射光を発生する。
 なお、発光制御信号CLKpは、周期信号であれば、矩形波に限定されない。例えば、発光制御信号CLKpは、サイン波であってもよい。
 発光制御部512は、発光制御信号CLKpを発光部511および受光部513に供給し、照射光の照射タイミングを制御する。この発光制御信号CLKpの周波数は、例えば、20メガヘルツ(MHz)である。なお、発光制御信号CLKpの周波数は、20メガヘルツ(MHz)に限定されず、5メガヘルツ(MHz)などであってもよい。
 受光部513は、物体から反射した反射光を受光し、受光結果に応じて距離情報を画素ごとに算出し、物体(被写体)までの距離に対応するデプス値を画素値として格納したデプス画像を生成して、出力する。
 受光部513には、上述した第1、第3、及び第4実施形態のいずれかの画素構造を有する受光素子が用いられる。例えば、受光部513としての受光素子は、発光制御信号CLKpに基づいて、画素アレイ部21の各画素10の浮遊拡散領域FD1またはFD2に振り分けられた電荷に応じた信号強度から、距離情報を画素ごとに算出する。なお、画素10のタップ数は、上述した4タップなどでもよい。
 以上のように、間接ToF方式により被写体までの距離情報を求めて出力する測距モジュール500の受光部513として、上述した第1乃至第6構成例のいずれかの画素構造を有する受光素子を組み込むことができる。これにより、測距モジュール500としての測距特性を向上させることができる。
<Indirect-TimeofFlightセンサの構成例>
 図18は本技術を適用したIndirect-Time of Flightセンサの一例のブロック図を示している。
 図18は本技術の実施例を適用したIndirect-Time of Flightセンサ10000の一例のブロック図を示している。Indirect-Time ofFlightセンサ10000はセンサチップ10001およびセンサチップ10001に積層された回路チップ10002を含む。
 画素エリア10020は、センサチップ上に二次元のグリッドパターンでアレイ状に配置された複数の画素を含んでいる。画素エリア10020は行列上に配置されていても良く、また、複数の列信号線を含んでも良い。それぞれの列信号線はそれぞれの画素に接続されている。さらに、垂直駆動回路10010、カラム信号処理回路10040、タイミング調整回路10050および出力回路10060が回路チップ10002に配置されている。
 垂直駆動回路10010は画素を駆動し、カラム信号処理部10040に画素信号を出力するように構成されている。カラム信号処理部10040は前記画素信号に対して、アナログ―デジタル(AD)変換処理を実施し、AD変換処理した画素信号を出力回路に出力する。出力回路10060はCDS(Correlated Double Sampling)処理などをカラム信号処理回路10040からのデータに対して実行し、後段の信号処理回路10120にデータを出力する。
 タイミング制御回路10050はそれぞれの垂直駆動回路10010の駆動タイミングを制御するように構成されている。カラム信号処理部、出力回路10060は垂直同期信号と同期している。
 画素エリア10020は二次元状のグリッドパターンで複数の画素が配置されており、それぞれの画素は赤外光を受光し、画素信号に光電変換可能な構成となっている。
 また、画素10230の列ごとに、垂直方向に垂直信号線VSL1およびVSL2が配線される。画素領域10020内の列の総数をM(Mは、整数)とすると、合計で2×M本の垂直信号線が配線される。それぞれの画素において、2つのタップを有している。垂直信号線VSL1は画素10230のタップAに接続され、垂直信号線VSL2は画素10230のタップBに接続される。また、垂直信号線VSL1は、画素信号AINP1を伝送し、垂直信号線VSL2は、画素信号AINP2を伝送する。
 垂直駆動回路210は、画素ブロック221の行を順に選択して駆動し、その行において画素ブロック221ごとに画素信号AINP1およびAINP2を同時に出力させる。言い換えれば、垂直駆動回路210は、画素230の2k行目および2k+1行目を同時に駆動する。なお、垂直駆動回路210は、特許請求の範囲に記載の駆動回路の一例である。
 図19は、本技術の形態における画素10230の一構成例を示す回路図である。この画素230は、フォトダイオード10231、二つの転送トランジスタ10232、10237、二つのリセットトランジスタ10233、10238、2つのタップ(浮遊拡散層10234、10239)、二つの増幅トランジスタ10235、10239、および二つの選択トランジスタ10236、10241を備える。
 フォトダイオード10231は、受光した光を光電変換して電荷を生成するものである。このフォトダイオード10231は、半導体基板において回路を配置する面を表面として、表面に対する裏面に配置される。このような固体撮像素子は、裏面照射型の固体撮像素子と呼ばれる。なお、裏面照射型の代わりに、表面にフォトダイオード10231を配置する表面照射型の構成を用いることもできる。
 転送トランジスタ10232は、垂直駆動回路10010からの転送信号TRGに従ってフォトダイオード10231からTAPA10239、TAPB10234にそれぞれシーケンシャルに電荷を転送するものである。TAPA10239およびTAPB10234は、転送された電荷を蓄積して、蓄積した電荷の量に応じた電圧を生成するものである。
 オーバーフロートランジスタ10242はフォトダイオード10231の電荷をシーケンシャルにVDDに排出するトランジスタで、フォトダイオードをリセットする機能を持つ。
 リセットトランジスタ10233、10238は、垂直駆動回路210からのリセット信号RSTpに従ってからTAPA10239、TAPB10234のそれぞれから電荷を引き抜いて、電荷量を初期化するものである。増幅トランジスタ10235、10240は、TAPA10239、TAPB10234の電圧をそれぞれ増幅するものである。選択トランジスタ10236、10241は、垂直駆動回路210からの選択信号SELpに従って、増幅された電圧の信号を画素信号としてふたつの垂直信号線(例えば、VSL1、VSL2)を介してカラム信号処理部10040へ出力するものである。VSL1およびVSL2は、カラム信号処理回路10040内の一つのアナログ―デジタル変換器XXXの入力に接続されている。
 なお、画素230の回路構成は、光電変換により画素信号を生成することができるものであれば、図19に例示した構成に限定されない。
<<応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図20は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図20に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図20では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(LightDetection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図21は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910、7912、7914、7916、7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912、7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図21には、それぞれの撮像部7910、7912、7914、7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b、cは、それぞれサイドミラーに設けられた撮像部7912、7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910、7912、7914、7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920、7922、7924、7926、7928、7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920、7926、7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図20に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine TypeCommunication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(GlobalPositioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near FieldCommunication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図20の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図20に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上説明した車両制御システム7000において、図17を用いて説明した本実施形態に係る測距モジュール500は、図20に示した応用例の測位部7640に適用することができる。
 なお、本技術は以下のような構成を取ることができる。
(1)
複数の画素で構成される受光素子であって、
前記画素は、
複数の光軸を有する多焦点の光学部材と、
光学部材を透過した所定の波長域の光を受光して光電変換する半導体層と、
前記半導体層の光が入射する側と反対側となる第1面において、前記光が前記半導体層を透過するのを抑制する透過抑制部と、
を備える受光素子。
(2)
前記光学部材は、複数のオンチップレンズを有し、
前記複数のオンチップレンズの入射側の頂点部を基点とする前記複数の光軸を透過する0次光は、透過抑制部に入射する、(1)に記載の受光素子。
(3)
前記画素は、
前記光電変換により発生したキャリアを増倍する増倍領域部を更に備え、
前記第1面において透過抑制部は、増倍領域部の周辺部に構成される、(1)に記載の受光素子。
(4)
前記透過抑制部は、
前記半導体層は光電変換素子が配置される領域であって、かつ、前記画素の駆動に用いられるトランジスタが配置される範囲を除いた領域に、構成される、(1)に記載の受光素子。
(5)
前記半導体層は、
前記光学部材と配線層との間に構成され、
第1の電圧印加部の周囲に配置される第1の電荷検出部と、
第2の電圧印加部の周囲に配置される第2の電荷検出部と、を備え、
前記透過抑制部は、
前記第1の電荷検出部、及び第2の電荷検出部を少なくとも除いた領域に構成される、(1)に記載の受光素子。
(6)
前記半導体層は、
フォトダイオードを有し、
前記透過抑制部は、平面視において前記フォトダイオードと重なるように構成される、(1)に記載の受光素子。
(7)
前記透過抑制部は、前記半導体層の前記第1面に対して形成される凹凸構造によって構成される、(1)に記載の受光素子。
(8)
前記凹凸構造のピッチは、200nm以上かつ1000nm以下である、(7)に記載の受光素子。
(9)
前記凹凸構造は、凹形状となる複数のトレンチを所定間隔で前記半導体層に掘り込むことにより形成される、(7)に記載の受光素子。
(10)
前記半導体層は、光電変換素子を有し、
前記凹凸構造の凸構造物は、前記光電変換素子を有する前記画素の駆動に用いられるトランジスタのゲート電極を形成する際に形成される、電位が浮いた状態またはグランド電位に固定された状態のダミーのゲート電極からなる、(7)に記載の受光素子。
(11)
前記透過抑制部は、前記半導体層の前記第1面に対して凹形状となる複数のトレンチを所定間隔で掘り込み、かつ、前記半導体層の前記第1面に対して凸形状となる複数の凸構造物を所定間隔で配置することにより形成される凹凸構造によって構成される、(7)に記載の受光素子。
(12)
前記凹凸構造は、前記半導体層の前記第1面に対して、前記半導体層を構成する単結晶シリコンウェハの結晶面の面指数に従った傾斜角度の斜面からなる複数の四角錐形状または逆四角錐形状が所定間隔で設けられることにより形成される、(7)に記載の受光素子。
(13)
前記凹凸構造は、が複数のポリシリコンで形成され、フローティング、又はグランド電位に固定されている、(7)に記載の受光素子。
(14)
前記光学部材は、前記複数の光軸を有し、
前記複数の光軸を透過する0次光は、透過抑制部に入射し、且つ前記複数の光軸は、前記第1面の所定点に対して対称である、(1)に記載の受光素子。
(15)
前記複数の光軸は、前記所定点に対して点対称である、(14)に記載の受光素子。
(16)
前記画素は、
前記光電変換により発生したキャリアを増倍する増倍領域部を更に備え、
前記所定点は、増倍領域部の前記光が入射する側の面内に構成される点である、(14)に記載の受光素子。
(17)
前記光学部材は、2個、4個、8個、及び9個のうちのいずれかの数のオンチップレンズを有し、
前記複数のオンチップレンズの入射側の頂点部を基点とする前記複数の光軸を透過する0次光は、透過抑制部に入射する、(1)に記載の受光素子。
(18)
前記光学部材は、レンズであり、
前記光学部材は、透明材料である、(17)に記載の受光素子。
(19)
前記光学部材は、レンズであり、
前記光学部材は、無機物である、(17)に記載の受光素子。
(20)
前記画素は、
前記半導体層に対して前記光が入射する側となる面において、前記光が反射するのを抑制する反射抑制部を更に備える、(1)に記載の受光素子。
(21)
前記(1)に記載の受光素子を備える、電子機器。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
 本出願は、日本国特許庁において2022年2月28日に出願された日本特許出願番号2022-030028号を基礎として優先権を主張するものであり、この出願のすべての内容を参照によって本出願に援用する。
 当業者であれば、設計上の要件や他の要因に応じて、種々の修正、コンビネーション、サブコンビネーション、および変更を想到し得るが、それらは添付の請求の範囲やその均等物の範囲に含まれるものであることが理解される。

Claims (21)

  1.  複数の画素で構成される受光素子であって、
     前記画素は、
     複数の光軸を有する多焦点の光学部材と、
     光学部材を透過した所定の波長域の光を受光して光電変換する半導体層と、
     前記半導体層の光が入射する側と反対側となる第1面において、前記光が前記半導体層を透過するのを抑制する透過抑制部と、
     を備える受光素子。
  2.  前記光学部材は、複数のオンチップレンズを有し、
     前記光学部材は、前記複数のオンチップレンズの入射側の頂点部を基点とする前記複数の光軸を有し、前記複数の光軸を透過する0次光は、透過抑制部に入射する、請求項1に記載の受光素子。
  3.  前記画素は、
     前記光電変換により発生したキャリアを増倍する増倍領域部を更に備え、
     前記第1面において透過抑制部は、増倍領域部の周辺部に構成される、請求項1に記載の受光素子。
  4.  前記透過抑制部は、
     前記半導体層は光電変換素子が配置される領域であって、かつ、前記画素の駆動に用いられるトランジスタが配置される範囲を除いた領域に、構成される、請求項1に記載の受光素子。
  5.  前記半導体層は、
     前記光学部材と配線層との間に構成され、
     第1の電圧印加部の周囲に配置される第1の電荷検出部と、
     第2の電圧印加部の周囲に配置される第2の電荷検出部と、を備え、
     前記透過抑制部は、
     前記第1の電荷検出部、及び第2の電荷検出部を少なくとも除いた領域に構成される、請求項1に記載の受光素子。
  6.  前記半導体層は、
     フォトダイオードを有し、
     前記透過抑制部は、平面視において前記フォトダイオードと重なるように構成される、請求項1に記載の受光素子。
  7.  前記透過抑制部は、前記半導体層の前記第1面に対して形成される凹凸構造によって構成される、請求項1に記載の受光素子。
  8.  前記凹凸構造のピッチは、200nm以上かつ1000nm以下である、請求項7に記載の受光素子。
  9.  前記凹凸構造は、凹形状となる複数のトレンチを所定間隔で前記半導体層に掘り込むことにより形成される、請求項7に記載の受光素子。
  10.  前記半導体層は、光電変換素子を有し、
     前記凹凸構造の凸構造物は、前記光電変換素子を有する前記画素の駆動に用いられるトランジスタのゲート電極を形成する際に形成される、電位が浮いた状態またはグランド電位に固定された状態のダミーのゲート電極からなる、請求項7に記載の受光素子。
  11.  前記透過抑制部は、前記半導体層の前記第1面に対して凹形状となる複数のトレンチを所定間隔で掘り込み、かつ、前記半導体層の前記第1面に対して凸形状となる複数の凸構造物を所定間隔で配置することにより形成される凹凸構造によって構成される、請求項7に記載の受光素子。
  12.  前記凹凸構造は、前記半導体層の前記第1面に対して、前記半導体層を構成する単結晶シリコンウェハの結晶面の面指数に従った傾斜角度の斜面からなる複数の四角錐形状または逆四角錐形状が所定間隔で設けられることにより形成される、請求項7に記載の受光素子。
  13.  前記凹凸構造は、複数のポリシリコンで形成され、フローティング、又はグランド電位に固定されている、請求項7に記載の受光素子。
  14.  前記光学部材は、前記複数の光軸を有し、
     前記複数の光軸を透過する0次光は、透過抑制部に入射し、且つ前記複数の光軸は、前記第1面の所定点に対して対称である、請求項1に記載の受光素子。
  15.  前記複数の光軸は、前記所定点に対して点対称である、請求項14に記載の受光素子。
  16.  前記画素は、
     前記光電変換により発生したキャリアを増倍する増倍領域部を更に備え、
     前記所定点は、増倍領域部の前記光が入射する側の面内に構成される点である、請求項14に記載の受光素子。
  17.  前記光学部材は、2個、4個、8個、及び9個のうちのいずれかの数のオンチップレンズを有し、
     前記複数のオンチップレンズの入射側の頂点部を基点とする前記複数の光軸を透過する0次光は、透過抑制部に入射する、請求項1に記載の受光素子。
  18.  前記光学部材は、レンズであり、
     前記光学部材は、透明材料である、請求項17に記載の受光素子。
  19.  前記光学部材は、レンズであり、
     前記光学部材は、無機物である、請求項17に記載の受光素子。
  20.  前記画素は、
     前記半導体層に対して前記光が入射する側となる面において、前記光が反射するのを抑制する反射抑制部を更に備える、請求項1に記載の受光素子。
  21.  前記請求項1に記載の受光素子を備える、電子機器。
PCT/JP2023/003813 2022-02-28 2023-02-06 受光素子、および電子機器 WO2023162651A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022030028 2022-02-28
JP2022-030028 2022-02-28

Publications (1)

Publication Number Publication Date
WO2023162651A1 true WO2023162651A1 (ja) 2023-08-31

Family

ID=87765667

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/003813 WO2023162651A1 (ja) 2022-02-28 2023-02-06 受光素子、および電子機器

Country Status (2)

Country Link
TW (1) TW202349695A (ja)
WO (1) WO2023162651A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167219A (ja) * 2014-02-13 2015-09-24 ソニー株式会社 撮像素子、製造装置、電子機器
JP2017126678A (ja) * 2016-01-14 2017-07-20 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
JP2017522727A (ja) * 2014-06-27 2017-08-10 ソフトキネティク センサーズ エヌブイ 多数電流によって補助される放射線検出器デバイス
JP2018117117A (ja) * 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置
WO2018173872A1 (ja) * 2017-03-24 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 センサチップおよび電子機器
WO2020012984A1 (ja) * 2018-07-13 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 センサ素子および電子機器
WO2020149207A1 (ja) * 2019-01-17 2020-07-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015167219A (ja) * 2014-02-13 2015-09-24 ソニー株式会社 撮像素子、製造装置、電子機器
JP2017522727A (ja) * 2014-06-27 2017-08-10 ソフトキネティク センサーズ エヌブイ 多数電流によって補助される放射線検出器デバイス
JP2017126678A (ja) * 2016-01-14 2017-07-20 株式会社東芝 固体撮像装置および固体撮像装置の製造方法
JP2018117117A (ja) * 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置
WO2018173872A1 (ja) * 2017-03-24 2018-09-27 ソニーセミコンダクタソリューションズ株式会社 センサチップおよび電子機器
WO2020012984A1 (ja) * 2018-07-13 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 センサ素子および電子機器
WO2020149207A1 (ja) * 2019-01-17 2020-07-23 ソニーセミコンダクタソリューションズ株式会社 撮像装置及び電子機器

Also Published As

Publication number Publication date
TW202349695A (zh) 2023-12-16

Similar Documents

Publication Publication Date Title
US11743604B2 (en) Imaging device and image processing system
CN109997019B (zh) 摄像元件和摄像装置
JP7420750B2 (ja) 受光素子、固体撮像装置及び測距装置
KR102607473B1 (ko) 고체 촬상 소자, 고체 촬상 소자의 제조 방법 및 전자 기기
CN116547820A (zh) 光接收装置和距离测量设备
WO2023162651A1 (ja) 受光素子、および電子機器
WO2023068210A1 (ja) 光検出装置、撮像装置および測距装置
WO2020158321A1 (ja) 受光素子、固体撮像装置及び測距装置
WO2024038828A1 (ja) 光検出装置
WO2022102471A1 (ja) 撮像素子および撮像装置
EP4261890A1 (en) Solid-state imaging element, imaging device, and method for controlling solid-state imaging unit
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2023229018A1 (ja) 光検出装置
WO2023203811A1 (ja) 光検出装置
WO2022196141A1 (ja) 固体撮像装置および電子機器
WO2024048292A1 (ja) 光検出素子、撮像装置、及び車両制御システム
WO2022014383A1 (ja) 固体撮像装置及びその製造方法
WO2022149556A1 (ja) 撮像装置および電子機器
WO2022196459A1 (ja) 光電変換素子及び撮像装置
WO2023248346A1 (ja) 撮像装置
WO2023195395A1 (en) Light detection device and electronic apparatus
US20240080587A1 (en) Solid-state imaging device and electronic instrument
JP2023182874A (ja) 固体撮像装置
CN114008783A (zh) 摄像装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23759655

Country of ref document: EP

Kind code of ref document: A1