WO2020158322A1 - 受光素子、固体撮像装置及び測距装置 - Google Patents

受光素子、固体撮像装置及び測距装置 Download PDF

Info

Publication number
WO2020158322A1
WO2020158322A1 PCT/JP2020/000355 JP2020000355W WO2020158322A1 WO 2020158322 A1 WO2020158322 A1 WO 2020158322A1 JP 2020000355 W JP2020000355 W JP 2020000355W WO 2020158322 A1 WO2020158322 A1 WO 2020158322A1
Authority
WO
WIPO (PCT)
Prior art keywords
receiving element
semiconductor substrate
region
light receiving
pixel
Prior art date
Application number
PCT/JP2020/000355
Other languages
English (en)
French (fr)
Inventor
山崎 武
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP20748697.8A priority Critical patent/EP3920242A4/en
Priority to JP2020569471A priority patent/JP7420750B2/ja
Priority to KR1020217021380A priority patent/KR20210122775A/ko
Priority to CN202080007364.6A priority patent/CN113228306A/zh
Priority to US17/421,472 priority patent/US20220068983A1/en
Publication of WO2020158322A1 publication Critical patent/WO2020158322A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/46Indirect determination of position data
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14605Structural or functional details relating to the position of the pixel elements, e.g. smaller pixel elements in the center of the imager compared to pixel elements at the periphery
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/08Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors
    • H01L31/10Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof in which radiation controls flow of current through the device, e.g. photoresistors characterised by potential barriers, e.g. phototransistors
    • H01L31/101Devices sensitive to infrared, visible or ultraviolet radiation
    • H01L31/102Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier
    • H01L31/103Devices sensitive to infrared, visible or ultraviolet radiation characterised by only one potential barrier the potential barrier being of the PN homojunction type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • H01L27/1461Pixel-elements with integrated switching, control, storage or amplification elements characterised by the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14641Electronic components shared by two or more pixel-elements, e.g. one amplifier shared by two pixel elements

Definitions

  • the present disclosure relates to a light receiving element, a solid-state imaging device, and a distance measuring device.
  • distance measuring sensors using the indirect ToF (Time of Flight) method are known.
  • a distance to an object is measured based on a signal charge obtained by emitting light from a light source at a certain phase and receiving the reflected light.
  • Patent Document 1 discloses a technique in which a wide area in the substrate can be modulated at high speed by directly applying a voltage to the substrate of the sensor to generate a current in the substrate. There is.
  • Such a sensor is also called a CAPD (Current Assisted Photonic Demodulator) type indirect ToF sensor.
  • the present disclosure proposes a light receiving element, a solid-state imaging device, and a distance measuring device capable of improving distance measuring accuracy.
  • a light receiving element includes a semiconductor substrate, and a lattice-shaped pixel separation unit that partitions the semiconductor substrate into a plurality of pixel regions arranged in a matrix.
  • Each of the pixel regions is disposed on the first surface side in the semiconductor substrate, and on the first surface side in the semiconductor substrate, and is spaced apart from the first semiconductor region.
  • a second semiconductor region and a first barrier disposed on the first surface side in the semiconductor substrate between the first semiconductor region and the second semiconductor region and having a dielectric constant different from that of the semiconductor substrate. And a region.
  • FIG. 3 is a block diagram showing a schematic configuration example of a solid-state imaging device as a light receiving unit according to the first embodiment.
  • 3 is a circuit diagram showing an example of an equivalent circuit of a unit pixel according to the first embodiment.
  • FIG. 3 It is a figure which shows the chip structural example of the solid-state imaging device which concerns on 1st Embodiment.
  • FIG. 3 is a plan view showing a layout example of a light receiving element according to the first embodiment. It is a top view which shows an example of the size of the light receiving element shown in FIG. FIG.
  • FIG. 3 is a top view showing a positional relationship between a light receiving element and a light shielding film when the semiconductor substrate according to the first embodiment is viewed from a direction perpendicular to a light incident surface. It is a figure for demonstrating progress of the light which injected into the light receiving element which does not have a pixel separation part. It is sectional drawing which shows the schematic structural example of the light receiving element which concerns on 1st Embodiment.
  • FIG. 10 is a top view showing a positional relationship between the light receiving element and the pixel separating portion when the semiconductor substrate shown in FIG. 9 is viewed from a direction perpendicular to a light incident surface.
  • FIG. 9 is a plan view showing a layout example of a light receiving element according to the second embodiment. It is a top view which shows an example of the size of the light receiving element shown in FIG. It is a figure which shows the planar layout example of the pixel separation part which concerns on the 1st example of 2nd Embodiment.
  • FIG. 16 is a cross-sectional view showing an example of a cross-sectional structure of the BB plane in FIG. 15.
  • FIG. 16 is a cross-sectional view showing an example of a cross-sectional structure of the CC plane in FIG. 15. It is a figure which shows the planar layout example of the pixel separation part which concerns on the 2nd example of 2nd Embodiment.
  • FIG. 19 is a sectional view showing an example of a sectional structure of a DD plane in FIG. 18. It is a figure which shows the planar layout example of the pixel separation part which concerns on the 3rd example of 2nd Embodiment.
  • FIG. 9 is a plan view showing a layout example of a light receiving element according to a third embodiment.
  • FIG. 22 is a plan view showing an example of the size of the light receiving element shown in FIG. 21.
  • FIG. 24 is a sectional view showing an example of a sectional structure of an EE plane in FIG. 23. It is a figure which shows the planar layout example of the pixel separation part which concerns on the 2nd example of 3rd Embodiment. It is a top view which shows the example of a layout of the light receiving element which concerns on 4th Embodiment. It is a figure which shows an example of the plane layout of the pixel separation part which concerns on 4th Embodiment. It is a figure which shows another example of the planar layout of the pixel separation part which concerns on 4th Embodiment.
  • FIG. 31 is a cross-sectional view showing an example of a cross-sectional structure of the FF plane in FIG. 30. It is a top view which shows the structural example of the inhibition area
  • First Embodiment 1.1 Distance measuring device (ToF sensor) 1.2 Configuration Example of Solid-State Imaging Device 1.3 Circuit Configuration Example of Unit Pixel 1.4 Readout Example of Unit Pixel 1.5 Chip Configuration Example 1.6 Planar Layout Example of Light-Receiving Element 1.7 Optical Between Light-Receiving Elements Separation 1.8 Example of cross-sectional structure of unit pixel 1.9 Action and effect 1.10 Modification of pixel separation section 1.10.1 First modification 1.10.2 Second modification 2. 2. Second embodiment 2.1 Example of planar layout of light receiving element 2.2 Example of planar layout of pixel separation section 2.2.1 First example 2.2.2 Second example 2.2.3 Third example 2. 3 Actions and effects 3. 3.
  • Third embodiment 3.1 Example of planar layout of light receiving element 3.2
  • Fourth Embodiment 5. Fifth embodiment 5.1 Configuration example of light receiving element 5.2 Action/effect 5.3 Modification example of inhibition region 5.3.1 First modification example 5.3.2 Second modification example 5.3 5.3 Third modified example 5.3.4 Fourth modified example 5.3.5
  • Fifth modified example 6. Sixth embodiment 6.1 First example 6.2 Second example 6.3 Third example 6.4 Fourth example 6.5 Operation/effect 7. Seventh embodiment 8.
  • a first embodiment will be described in detail below with reference to the drawings.
  • a light receiving element for example, a solid-state imaging device, and a distance measuring device that measure a distance to an object by the indirect ToF method will be described with examples.
  • the light receiving element, the solid-state imaging device, and the distance measuring device according to the present embodiment are mounted on a vehicle, for example, a vehicle-mounted system that measures a distance to an object outside the vehicle, or an object such as a user's hand.
  • the present invention can be applied to a gesture recognition system or the like that measures a distance and recognizes a user's gesture based on the measurement result.
  • the result of gesture recognition can also be used for, for example, the operation of the car navigation system.
  • FIG. 1 is a block diagram showing a schematic configuration example of a ToF sensor as a distance measuring device according to this embodiment.
  • the ToF sensor 1 includes a control unit 11, a light emitting unit 13, a light receiving unit 14, a calculation unit 15, and an external interface (I/F) 19.
  • I/F external interface
  • the control unit 11 is configured by an information processing device such as a CPU (Central Processing Unit) and controls each unit of the ToF sensor 1.
  • an information processing device such as a CPU (Central Processing Unit) and controls each unit of the ToF sensor 1.
  • the external I/F 19 is, for example, a wireless LAN (Local Area Network), a wired LAN, a CAN (Controller Area Network), a LIN (Local Interconnect Network), a communication network complying with any standard such as FlexRay (registered trademark). It may be a communication adapter for establishing communication with an external host 80 via.
  • a wireless LAN Local Area Network
  • a wired LAN a wired LAN
  • a CAN Controller Area Network
  • a LIN Local Interconnect Network
  • FlexRay registered trademark
  • the host 80 may be, for example, an ECU (Engine Control Unit) mounted in an automobile or the like when the ToF sensor 1 is mounted in the automobile or the like. If the ToF sensor 1 is mounted on an autonomous mobile robot such as a domestic pet robot, an autonomous mobile body such as a robot cleaner, an unmanned aerial vehicle, or a follow-up transport robot, the host 80 controls the autonomous mobile body. It may be a control device or the like.
  • ECU Engine Control Unit
  • the light emitting unit 13 includes, for example, one or a plurality of semiconductor laser diodes as a light source, and emits pulsed laser light L1 having a predetermined time width at a predetermined cycle (also referred to as a light emission cycle).
  • the light emitting unit 13 emits the laser light L1 toward at least an angle range equal to or larger than the angle of view of the light receiving unit 14. Further, the light emitting unit 13 emits the laser light L1 having a time width of 10 ns (nanoseconds) at a cycle of 100 MHz (megahertz), for example.
  • the laser light L1 emitted from the light emitting unit 13 is reflected by the object 90 when the object 90 is present within the distance measuring range, and enters the light receiving unit 14 as reflected light L2.
  • the light receiving unit 14 includes, for example, a plurality of pixels arranged in a two-dimensional lattice, the details of which will be described later, and the signal intensity detected by each pixel after the light emitting unit 13 emits light (hereinafter, also referred to as a pixel signal). Is output.
  • the calculation unit 15 generates a depth image within the angle of view of the light receiving unit 14 based on the pixel signal output from the light receiving unit 14. At that time, the calculation unit 15 may perform a predetermined process such as noise removal on the generated depth image.
  • the depth image generated by the calculation unit 15 can be output to the host 80 or the like via the external I/F 19, for example.
  • FIG. 2 is a block diagram showing a schematic configuration example of the solid-state imaging device as the light receiving unit according to the first embodiment.
  • the solid-state imaging device 100 shown in FIG. 2 is a back-illuminated CAPD indirect ToF sensor (hereinafter, simply referred to as a CAPD sensor), and is provided in the distance measuring device having a distance measuring function.
  • a CAPD sensor back-illuminated CAPD indirect ToF sensor
  • the solid-state imaging device 100 is configured to have a pixel array unit 101 and peripheral circuits.
  • Peripheral circuits may include, for example, a vertical drive circuit 103, a column processing circuit 104, a horizontal drive circuit 105, and a system control unit 102.
  • the solid-state imaging device 100 may further include a signal processing unit 106 and a data storage unit 107.
  • the signal processing unit 106 and the data storage unit 107 may be mounted on the same substrate as the solid-state imaging device 100, or may be disposed on a substrate different from the solid-state imaging device 100 in the distance measuring device. Good.
  • pixels (hereinafter, also referred to as unit pixels) 20 that generate electric charges according to the amount of received light and output a signal according to the electric charges are arranged in a row direction and a column direction, that is, in a two-dimensional lattice shape. It has an arrayed configuration. That is, the pixel array unit 101 includes a plurality of unit pixels 20 that photoelectrically convert incident light and output signals corresponding to the electric charges obtained as a result.
  • the row direction means the arrangement direction of the unit pixels 20 in the pixel row (horizontal direction in the drawing)
  • the column direction means the arrangement direction of the unit pixels 20 in the pixel column (longitudinal direction in the drawing).
  • a pixel drive line LD is arranged along the row direction for each pixel row in a matrix of pixel arrays, and two vertical signal lines VSL are arranged along the column direction for each pixel column. ing.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the unit pixel 20.
  • the pixel drive line LD is shown as one line in FIG. 2, the number of lines is not limited to one.
  • one end of the pixel drive line LD is connected to the output end corresponding to each row of the vertical drive circuit 103.
  • the vertical drive circuit 103 is composed of a shift register, an address decoder, and the like, and drives each unit pixel 20 of the pixel array unit 101 simultaneously for all pixels or in row units. That is, the vertical drive circuit 103 constitutes a drive unit that controls the operation of each unit pixel 20 of the pixel array unit 101 together with the system control unit 102 that controls the vertical drive circuit 103.
  • a solid-state image sensor used for distance measurement by the indirect ToF method is often a pixel array that is long in the horizontal direction. Therefore, in such a case, as the control line of the element driven at high speed, the vertical signal line VSL or another control line long in the vertical direction may be used.
  • a plurality of unit pixels 20 arranged in the vertical direction are connected to, for example, the vertical signal line VSL and other control lines that are long in the vertical direction, and are connected via the vertical signal line VSL and other control lines.
  • the unit pixel 20 is driven by the driving unit provided separately from the vertical driving circuit 103, the horizontal driving circuit 105, or the like, that is, the solid-state imaging device 100 is driven.
  • the signal output from each unit pixel 20 in the pixel row according to the drive control by the vertical drive circuit 103 is input to the column processing circuit 104 through the vertical signal line VSL.
  • the column processing circuit 104 performs predetermined signal processing on the signal output from each unit pixel 20 through the vertical signal line VSL, and temporarily holds the pixel signal after the signal processing.
  • the column processing circuit 104 performs noise removal processing, AD (Analog to Digital) conversion processing, etc. as signal processing.
  • AD Analog to Digital
  • the horizontal drive circuit 105 includes a shift register, an address decoder, and the like, and sequentially selects unit circuits corresponding to the pixel columns of the column processing circuit 104. By the selective scanning by the horizontal drive circuit 105, the pixel signals that have been subjected to signal processing for each unit circuit in the column processing circuit 104 are sequentially output.
  • the system control unit 102 includes a timing generator that generates various timing signals, and based on the various timing signals generated by the timing generator, the vertical drive circuit 103, the column processing circuit 104, the horizontal drive circuit 105, and the like. Drive control.
  • the signal processing unit 106 has at least an arithmetic processing function, executes various signal processing such as arithmetic processing based on the pixel signal output from the column processing circuit 104, and obtains the distance information for each pixel calculated thereby. Output to the outside.
  • the data storage unit 107 temporarily stores the data necessary for the signal processing in the signal processing unit 106.
  • FIG. 3 is a circuit diagram showing an example of an equivalent circuit of the unit pixel according to the present embodiment.
  • a charge is applied to a p+ semiconductor region (hereinafter, referred to as MIX) 21 in one signal extraction unit 30A.
  • a read voltage (hereinafter, read voltage) VmixA is applied, and a read circuit 20A including a transfer transistor 24, an FD 26, a reset transistor 23, an amplification transistor 27, and a selection transistor 28 in an n+ semiconductor region (hereinafter, referred to as DET) 22. Is connected.
  • DET n+ semiconductor region
  • the read voltage VmixB is applied to the MIX 21 in the other signal extraction unit 30B, and the DET 22 includes the read circuit 20B including the transfer transistor 24, the FD 26, the reset transistor 23, the amplification transistor 27, and the selection transistor 28. Is connected.
  • Each of the two signal extraction units 30A and 30B in the semiconductor substrate 40 is a PN semiconductor region composed of the MIX 21 and the DET 22, and the region including the two signal extraction units 30A and 30B is the unit pixel 20. Functioning as a light receiving element.
  • the vertical drive circuit 103 applies the read voltage VmixA to the MIX21 of the signal extraction unit 30A, and applies the read voltage VmixB to the MIX21 of the signal extraction unit 30B. For example, when extracting a signal (charge) from the signal extraction unit 30A, the vertical drive circuit 103 applies a read voltage VmixA of 1.5V (volt) to the MIX21 of the signal extraction unit 30A and 0V to the MIX21 of the signal extraction unit 30B. The read voltage VmixB is applied.
  • the vertical drive circuit 103 when extracting a signal (charge) from the signal extraction unit 30B, the vertical drive circuit 103 applies a read voltage VmixB of 1.5 V (volt) to the MIX21 of the signal extraction unit 30B and 0 V to the MIX21 of the signal extraction unit 30A.
  • the read voltage VmixA is applied.
  • the DET 22 in each of the signal extraction units 30A and 30B is a charge detection unit that detects and accumulates charges generated by photoelectrically converting light that has entered the semiconductor substrate 40.
  • the transfer transistor 24 is turned on in response to the drive signal TRG supplied to the gate from the vertical drive circuit 103 in the active state, and thus the transfer transistor 24 is stored in the corresponding DET 22. The stored charge is transferred to the FD 26.
  • the FD 26 has a charge-voltage conversion function of generating a voltage having a voltage value corresponding to the accumulated charge, and temporarily holds the charge transferred from the DET 22 to amplify the voltage having a voltage value corresponding to the charge amount. It is applied to the gate of 27.
  • the reset transistor 23 resets the potential of the FD 26 to a predetermined level (reset level VDD) by being turned on in response to the drive signal RST supplied to the gate from the vertical drive circuit 103 in the active state. ..
  • the transfer transistor 24 is also in the active state, so that it is possible to reset the charges accumulated in the DET 22 together.
  • the amplification transistor 27 has its source connected to the vertical signal line VSL0/VSL1 via the selection transistor 28, so that the amplification transistor 27 and the load MOS transistor of the constant current circuit 29A/29B connected to one end of the vertical signal line VSL0/VSL1. Configure a source follower circuit.
  • the selection transistor 28 is connected between the source of the amplification transistor 27 and the vertical signal lines VSL0/VSL1.
  • the selection transistor 28 becomes conductive in response to the selection signal SEL supplied to the gate from the vertical drive circuit 103 in the active state, and outputs the pixel signal output from the amplification transistor 27 to the vertical signal lines VSL0/VSL1. To do.
  • the indirect ToF method When measuring the distance to the object by the indirect ToF method, light of a specific wavelength (for example, infrared light) is emitted from the light emitting unit 13 (see FIG. 1) toward the object. Then, when the light is reflected by the object and enters the light receiving unit 14 as reflected light, the semiconductor substrate 40 of the solid-state imaging device 100 photoelectrically converts the incident reflected light to generate an electric charge according to the amount of light.
  • a specific wavelength for example, infrared light
  • the vertical drive circuit 103 drives the unit pixel 20 and distributes a signal corresponding to the electric charge obtained by photoelectric conversion to the FD 26 of each of the two readout circuits 20A and 20B.
  • the vertical drive circuit 103 applies a voltage to the two MIXs 21 in the same unit pixel 20. Specifically, for example, the vertical drive circuit 103 applies the read voltage VmixA of 1.5 V (volt) to the MIX 21 of the signal extraction unit 30A and applies the read voltage VmixB of 0 V to the MIX 21 of the signal extraction unit 30B.
  • the charges (that is, electrons) generated by photoelectric conversion are used as a signal carrier for detecting the amount of light incident on the light receiving element 31, that is, a signal corresponding to the amount of received light.
  • the charges taken into the DET 22 of the signal take-out section 30A are transferred to the FD 26 via the transfer transistor 24 of the read circuit 20A.
  • a voltage having a voltage value corresponding to the charge accumulated in the FD 26 is applied to the gate of the amplification transistor 27 in the read circuit 20A, and as a result, the vertical signal line VSL0 is applied with a voltage corresponding to the amount of charge accumulated in the FD 26.
  • a voltage of value appears through the selection transistor 28.
  • the voltage appearing on the vertical signal line VSL0 is read as a digital pixel signal by the column processing circuit 104 and input to the signal processing unit 106.
  • a voltage is applied to the two MIXs 21 of the light receiving element 31 so that an electric field in the opposite direction to the electric field generated in the light receiving element 31 so far is generated.
  • the vertical drive circuit 103 applies the read voltage VmixB of 1.5V to the MIX21 of the signal extraction unit 30B and applies the read voltage VmixA of 0V to the MIX21 of the signal extraction unit 30A.
  • the signal carrier may be an electron as described above.
  • the charges taken into the DET 22 of the signal take-out section 30B are transferred to the FD 26 via the transfer transistor 24 of the read circuit 20B.
  • a voltage having a voltage value corresponding to the charges accumulated in the FD 26 is applied to the gate of the amplification transistor 27 in the read circuit 20B, and as a result, the vertical signal line VSL1 is supplied with a voltage corresponding to the amount of charges accumulated in the FD 26.
  • a voltage of value appears through the selection transistor 28.
  • the voltage appearing on the vertical signal line VSL1 is read as a digital pixel signal by the column processing circuit 104 and input to the signal processing unit 106.
  • the signal processing unit 106 calculates distance information indicating the distance to the object based on the difference between the pixel signals read by the two read circuits 20A and 20B, and outputs the calculated distance information to the outside. ..
  • the method of distributing the signal carriers to the two signal extraction units 30A and 30B and calculating the distance information based on the pixel signals read by the respective read circuits 20A and 20B is called an indirect ToF method. To be done.
  • FIG. 4 is a diagram showing a chip configuration example of the solid-state imaging device according to the present embodiment.
  • the solid-state imaging device 100 has, for example, a structure of a bonding chip 50 in which a light receiving chip 51 and a circuit chip 52 are bonded to each other in the vertical direction.
  • the light receiving chip 51 is, for example, a semiconductor chip configured from the semiconductor substrate 40 that functions as a light receiving element in the unit pixel 20, and the circuit chip 52 is formed with, for example, the readout circuits 20A and 20B and peripheral circuits in the unit pixel 20. Is a semiconductor chip.
  • so-called direct joining can be used, in which the respective joining surfaces are flattened and the two are stuck together by an electron force.
  • the present invention is not limited to this, and for example, so-called Cu-Cu bonding, in which electrode pads made of copper (Cu) formed on the bonding surfaces of each other are bonded, or other bump bonding may be used. ..
  • the light receiving chip 51 and the circuit chip 52 are electrically connected to each other, for example, through a connecting portion such as a TSV (Through-Silicon Via) penetrating the semiconductor substrate.
  • the connection using the TSV includes, for example, a so-called twin TSV method in which two TSVs, a TSV provided on the light receiving chip 51 and a TSV provided from the light receiving chip 51 to the circuit chip 52, are connected on the outside of the chip, or a light receiving method. It is possible to employ a so-called shared TSV system or the like in which both are connected by a TSV penetrating from the chip 51 to the circuit chip 52.
  • the bonding chip 50 shown in FIG. 16 may include the arithmetic unit 15, the light emitting unit 13, the control unit 11, and the like in addition to the solid-state imaging device 100.
  • FIG. 5 is a plan view showing a layout example of the light receiving element according to the present embodiment.
  • FIG. 6 is a plan view showing an example of the size of the light receiving element shown in FIG.
  • the pixel array unit 101 has a configuration in which a plurality of light receiving elements 31 are arranged in a two-dimensional lattice.
  • two signal extraction units 30A and 30B are provided that are spaced apart in the column direction.
  • Each of the signal extraction units 30A and 30B includes, for example, a MIX 21 having a circular cross section along the array surface of the light receiving elements 31, and a DET 22 provided so as to surround the MIX 21.
  • each light receiving element 31 has, for example, a rectangular shape with a length in the column direction of 2a. It is provided in the area.
  • the length in the row direction is 2a and the region of the light receiving element 31 is a square.
  • the region is not limited to a square, and various modifications are possible.
  • FIG. 7 is a top view showing the positional relationship between the light receiving element and the light shielding film when the semiconductor substrate according to the present embodiment is viewed from the direction perpendicular to the light incident surface.
  • the light shielding film 44 is provided in a grid shape along the boundary portions BV and BH of the plurality of light receiving elements 31 arranged in a two-dimensional grid shape, for example. In that case, the openings formed by the light shielding film 44 are arranged in a two-dimensional lattice.
  • the signal extraction portions 30A and 30B in each light receiving element 31 are close to the edge of the opening of the light shielding film 44 when viewed from the direction perpendicular to the light incident surface of the semiconductor substrate 40, as shown in FIG. Alternatively, it is formed in the overlapping region.
  • the light shielding film 44 on the light incident surface (the lower surface side in the drawing, which corresponds to the back surface of the semiconductor substrate 40) of the semiconductor substrate 40, as shown in FIG.
  • the incident light L10 incident on the portion 41a of the insulating film 41 formed on the middle and lower surface side) which electrically separates the MIX 21 and the DET 22 of each of the signal extraction portions 30A and 30B is irregularly reflected, and the reflected light L11 is adjacent to the incident light L10.
  • the light may enter the light receiving element 31 of the pixel to cause color mixing.
  • FIG. 8 shows an example of a sectional structure in the case where the pixel separation portion is omitted from the example of structure shown in FIG. 9 described later.
  • FIG. 9 is a cross-sectional view showing an example of a schematic structure of the light-receiving element according to the present embodiment. Note that FIG. 9 shows an example of a sectional structure of a portion of the light receiving chip 51 in the so-called backside illumination type solid-state imaging device 100, which corresponds to an AA section in FIG. 7.
  • FIG. 10 is a top view showing the positional relationship between the light receiving element and the pixel separating portion when the semiconductor substrate shown in FIG. 9 is viewed from the direction perpendicular to the light incident surface.
  • the light receiving element 31 in each unit pixel 20 includes, for example, a semiconductor substrate 40 such as a silicon substrate having a p-type well, and a back surface side of the semiconductor substrate 40 (in the drawing). , An upper surface side), an antireflection film 42, a flattening film 43 provided on the antireflection film 42, and an on-chip lens 45 provided on the flattening film 43.
  • the circuit chip 52 may be attached to the front surface side (lower surface side in the drawing) of the semiconductor substrate 40 via the insulating film 41 such as a silicon oxide film.
  • a light-shielding film 44 for preventing color mixture between adjacent pixels is provided on the flattening film 43 and at the boundary between adjacent light-receiving elements 31.
  • a material having a light shielding property such as tungsten (W) may be used.
  • a pixel separating section 46 that optically separates the adjacent light receiving elements 31 is provided. ing.
  • the pixel separating section 46 optically partitions the semiconductor substrate 40 into a plurality of pixel regions (corresponding to the light receiving elements 31) arranged in a matrix.
  • the pixel separating unit 46 is, for example, an RDTI (Reverse Deep Trench Isolation) type pixel separating unit that projects from the back surface (upper surface in the drawing) of the semiconductor substrate 40 toward the front surface side (lower surface side in the drawing). Good.
  • the pixel separating unit 46 may be provided in a grid shape along the boundary portions BV and BH of the light receiving element 31, as illustrated in FIG. In that case, the pixel separating portion 46 is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the pixel separation portion 46 is covered with the light shielding film 44.
  • the pixel separation section 46 and the semiconductor substrate 40 may be electrically separated by using an insulating film or the like. This may be the same also in the pixel separating unit in the embodiments described later.
  • the semiconductor substrate 40 for example, a semiconductor substrate such as a silicon substrate can be used, and the substrate thickness is thinned to, for example, 20 ⁇ m (micrometer) or less.
  • the thickness of the semiconductor substrate 40 may be 20 ⁇ m or more, and the thickness may be appropriately determined according to the target characteristics of the solid-state imaging device 100 and the like.
  • the antireflection film 42 may be, for example, a film formed using a high refractive material such as silicon oxynitride (SiON).
  • the flattening film 43 may be a film formed using an insulating material such as silicon oxide (SiO 2 ), for example.
  • a light shielding material such as tungsten (W) or a high refractive index material (for example, a material having a higher refractive index than the semiconductor substrate 40) can be used for the pixel separating section 46.
  • a pair of signal output parts 30A and 30B are provided in a region on the front surface side (lower surface side in the drawing) of the semiconductor substrate 40.
  • the MIX 21 in each of the signal extraction units 30A and 30B may be, for example, a region in which an acceptor such as boron (B) is diffused in the semiconductor substrate 40, and DET is phosphorus (P) in the semiconductor substrate 40. It may be a region in which a donor such as arsenic or arsenic (As) is diffused.
  • the DET of each of the signal extraction units 30A and 30B functions as a charge detection unit for detecting the amount of light that has entered the light receiving element 31 from the outside, that is, the amount of charge generated by photoelectric conversion by the semiconductor substrate 40.
  • the MIX 21 functions as a voltage application unit for injecting a majority carrier current into the semiconductor substrate 40, that is, for directly applying a voltage to the semiconductor substrate 40 to generate an electric field in the semiconductor substrate 40.
  • the FD 26 of the readout circuit 20A or 20B is directly connected to the DET 22 of the signal extraction unit 30A or 30B (see FIG. 3).
  • the on-chip lens 45 for example, silicon oxide (SiO 2 ) or transparent resin can be used, and its curvature is set so that the incident light is condensed near the center of the light receiving element 31. ing.
  • the pixel separation unit 46 is provided between the light receiving elements 31, so that the reflected light L11 irregularly reflected by the portion 41a leaks into adjacent pixels to cause color mixing. Can be reduced. As a result, the pixel separation characteristic for optically separating the light receiving elements 31 from each other is improved, so that it is possible to suppress the deterioration of the distance measurement accuracy.
  • the semiconductor substrate 40 is a p-type well
  • the MIX 21 is a p+ semiconductor region having a p-type conductivity
  • the DET 22 is an n+ semiconductor region having a n-type conductivity type.
  • the semiconductor substrate 40 may be an n-type well
  • the MIX 21 may be an n+ semiconductor region having an n-type conductivity
  • the DET 22 may be a p+ semiconductor region having a p-type conductivity. This also applies to the embodiments described later.
  • FIG. 11 is a cross-sectional view showing a schematic configuration example of a light receiving element according to the first modification. Note that, similar to FIG. 9, FIG. 11 shows an example of a sectional structure of the light-receiving chip 51 in the so-called backside illumination type solid-state imaging device 100, which corresponds to an AA section in FIG. 7. Has been done.
  • the pixel separating unit 46 illustrated in FIG. 9 is provided, for example, from the front surface (lower surface in the drawing) to the back surface side (lower surface in the drawing) of the semiconductor substrate 40.
  • the cross-sectional structure is replaced with the DTI-type pixel separation portion 46a protruding toward the lower surface side).
  • the pixel separating section 46a may be provided in a lattice shape along the boundary portions BV and BH of the light receiving element 31 (see FIG. 10).
  • the DTI type pixel separation portion 46a formed from the front surface side of the semiconductor substrate 40 it is possible to reduce the color mixture due to the leakage of the reflected light L11 diffusely reflected by the portion 41a into the adjacent pixels. As a result, the pixel separation characteristics for optically separating the light receiving elements 31 from each other are improved, so that it is possible to suppress a decrease in distance measurement accuracy.
  • FIG. 12 is a sectional view showing a schematic configuration example of a light receiving element according to the second modification. Similar to FIGS. 9 and 11, FIG. 12 shows an example of a sectional structure of the light-receiving chip 51 in the so-called backside illumination type solid-state imaging device 100, which is a sectional structure corresponding to the AA section in FIG. 7. An example is shown.
  • the pixel separation unit 46 illustrated in FIG. 9 has, for example, an FFTI (Front Full Trench Isolation) type that penetrates the front and back surfaces of the semiconductor substrate 40.
  • the cross-section structure is replaced with the pixel separating unit 46b.
  • the pixel separating section 46b may be provided in a lattice shape along the boundary portions BV and BH of the light receiving element 31 (see FIG. 10).
  • FIG. 13 is a plan view showing a layout example of the light-receiving element according to the present embodiment
  • FIG. 14 is a plan view showing an example of the size of the light-receiving element shown in FIG. ..
  • the pixel array unit 101 has a configuration in which a plurality of light receiving elements 231 are arranged in a two-dimensional lattice.
  • a PN semiconductor region 230 is provided at each boundary portion of the light receiving elements 231 in the column direction (vertical direction in the drawing).
  • Each PN semiconductor region 230 includes, for example, a MIX 21 located at each boundary of the light receiving element 231, a DET 22A adjacent to the MIX 21 from the lower side in the column direction, and a DET 22B adjacent to the MIX 21 from the upper side in the column direction.
  • the length in the row direction of the DETs 22A and 22B with respect to the MIX 21 may be shorter than the length in the row direction of the MIX 21, for example. In that case, since it is possible to reduce the influence of the DETs 22A and 22B on the electric field formed by the two MIXs 21 in the light receiving element 231, it is possible to efficiently collect the charges in the DET 22A or 22B. Thereby, it becomes possible to suppress a decrease in quantum efficiency.
  • the MIX 21 and the DET 22A in each PN semiconductor region 230 configure the signal extraction portion 30A of the lower light receiving element 231 of the two light receiving elements 231 forming each boundary portion, and the MIX 21 and the DET 22B are ,
  • the signal extraction unit 30B of the upper light receiving element 231 is configured. That is, the MIX 21 located at the boundary between the two light receiving elements 231 is shared by the two light receiving elements 231.
  • the respective light receiving elements 231 are arranged in the column direction.
  • the integration degree of the light receiving elements 231 in the column direction can be increased, so that the resolution in the column direction can be increased. At that time, for example, by making the planar area of the light receiving element 231 square, the resolution in the row direction can be doubled.
  • FIG. 15 is a diagram showing an example of a plane layout of the pixel separation section according to the first example, and the semiconductor substrate according to the present embodiment is seen from a direction perpendicular to a light incident surface. It is a top view which shows the positional relationship of a light receiving element and a pixel separation part in a case.
  • 16 is a sectional view showing an example of a sectional structure of a BB plane in FIG. 15, and
  • FIG. 17 is a sectional view showing an example of a sectional structure of a CC plane in FIG.
  • the pixel separation unit 246 according to the first example is formed along, for example, a boundary portion BV extending in the column direction among the boundary portions BV and BH of the light receiving element 231.
  • the back surface of the semiconductor substrate 40 is formed on the BB plane that cuts the vicinity of the center of the light receiving element 231 along the row direction, for example, at the boundary portion BV of the light receiving element 231 in the column direction.
  • the pixel separating section 246 is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the pixel separation portion 246 is covered by the portion of the light shielding film 44 that extends in the column direction.
  • a DTI type pixel separating section protruding from the front surface to the back surface side of the semiconductor substrate 40 (see FIG. 11).
  • various modifications such as an FFTI type pixel separation portion (see FIG. 12) penetrating the front and back surfaces of the semiconductor substrate 40 may be made.
  • MIX21 appears at the boundary portion BH in the row direction of the light receiving element 231 on the CC plane that cuts near the center of the light receiving element 231 along the column direction.
  • DETs 22A and 22B appear at the sandwiched positions.
  • the PN semiconductor region 230 composed of the MIX 21 and the DETs 22A and 22B is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the PN semiconductor region 230 is covered by the portion of the light shielding film 44 extending in the row direction.
  • the pixel separation section 246 between the light receiving elements 231 adjacent to each other in the row direction, it is possible to reduce the leakage of the reflected light L11 into the light receiving elements 231 adjacent to each other in the row direction. As a result, the pixel separation characteristic for optically separating the light receiving elements 231 is improved, so that it is possible to suppress a decrease in distance measurement accuracy.
  • FIG. 18 is a diagram showing a planar layout example of the pixel separation section according to the second example, in which the semiconductor substrate according to the present embodiment is viewed from a direction perpendicular to the light incident surface. It is a top view which shows the positional relationship of a light receiving element and a pixel separation part in a case.
  • FIG. 19 is a sectional view showing an example of a sectional structure of the DD plane in FIG.
  • a lattice-shaped pixel separating unit 246a is provided along the boundary portions BV and BH of the light receiving element 231.
  • the PN semiconductor region 230 located at the boundary portion BH of the light receiving element 231 in the row direction is formed on the DD plane that cuts the vicinity of the center of the light receiving element 231 along the column direction.
  • the cross-sectional structure of the surface of the light-receiving element 231 cut along the column direction may be the same as the cross-sectional structure described with reference to FIG. 17 in the first example, for example.
  • the pixel separating section 246a is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the lattice-shaped pixel separation portion 246 a is also covered with the lattice-shaped light shielding film 44.
  • a DTI type pixel separating section protruding from the front surface to the back surface side of the semiconductor substrate 40 (see FIG. 11).
  • various modifications such as an FFTI type pixel separation portion (see FIG. 12) penetrating the front and back surfaces of the semiconductor substrate 40 may be made.
  • a portion intersecting (overlapping) with the PN semiconductor region 230 may be divided, or a portion overlapping with the PN semiconductor region 230 may be set as the RDTI type. Good.
  • each light receiving element 231 by surrounding each light receiving element 231 with the grid-shaped pixel separation portion 246a, it is possible to reduce the leakage of the reflected light L11 not only in the row direction but also in the column direction. As a result, the pixel separation characteristic that optically separates the light receiving elements 231 is further improved, so that it is possible to further suppress the decrease in distance measurement accuracy.
  • FIG. 20 is a diagram showing an example of a planar layout of the pixel separation section according to the third example, in which the semiconductor substrate according to the present embodiment is viewed from a direction perpendicular to a light incident surface. It is a top view which shows the positional relationship of a light receiving element and a pixel separation part in a case.
  • a portion intersecting (overlapping) with the PN semiconductor region 230 is divided. With shape.
  • the surface cut along the column direction near the center of the light receiving element 231 is located at the boundary portion BH in the row direction of the light receiving element 231.
  • the PN semiconductor region 230 and the RDTI type pixel separation portion 246b protruding from the back surface (upper surface in the drawing) of the semiconductor substrate 40 toward the front surface side (lower surface side in the drawing) appear.
  • the cross-sectional structure of the surface of the light-receiving element 231 cut along the column direction may be the same as the cross-sectional structure described with reference to FIG. 17 in the first example, for example.
  • the pixel separating section 246b is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the pixel separation portion 246b is covered with the lattice-shaped light shielding film 44.
  • a DTI-type pixel separation portion protruding from the front surface to the back surface side of the semiconductor substrate 40 (see FIG. 11).
  • various modifications such as an FFTI type pixel separation portion (see FIG. 12) penetrating the front and back surfaces of the semiconductor substrate 40 may be made.
  • each light receiving element 231 is surrounded by the grid-shaped pixel separating portion 246b, the region corresponding to the PN semiconductor region 230 is divided, so that the electric field formed by the two MIXs 21 in the light receiving element 231 is reduced. Since it is possible to reduce the influence of the pixel separation unit 246b, it is possible to efficiently collect charges in the DET 22A or 22B, and thus it is possible to suppress a decrease in quantum efficiency.
  • one MIX 21 is shared by two unit pixels 20 that are vertically adjacent to each other. Therefore, the distance between the centers of the MIXs 21 remains the same as the pixel pitch of the unit pixels 20. It becomes possible. As a result, it is possible to increase the integration degree of the unit pixels 20 in the column direction. Therefore, it is possible to improve the ranging accuracy while suppressing a decrease in the resolution, or to increase the resolution while suppressing the fixed value of the ranging accuracy. Is possible.
  • the present embodiment it is possible to reduce the area of the strong electric field formed around the signal extraction part 30B or 30A that is not the signal extraction side. As a result, in the present embodiment, it is possible to efficiently capture the charges generated near the signal extraction unit 30B or 30A that is not the signal extraction side into the DET 22A of the signal extraction unit 30A that is the signal extraction side or the DET 22B of the signal extraction unit 30B. Therefore, it is possible to substantially improve the quantum efficiency and enhance the contrast between pixels.
  • FIG. 21 is a plan view showing a layout example of the light-receiving element according to the present embodiment
  • FIG. 22 is a plan view showing an example of the size of the light-receiving element shown in FIG. ..
  • the pixel array unit 101 has a configuration in which a plurality of light receiving elements 331 are arranged in a two-dimensional lattice shape, as in the second embodiment.
  • the MIX 21 is provided in each of the four corners of the rectangular area formed by.
  • the MIXs 21 are arranged so as to be positioned diagonally in each light receiving element 31.
  • the MIX 21 provided in each of the four corners of the rectangular area formed by the four light receiving elements 331 is shared by the four light receiving elements 331 having the central portion as the MIX 21.
  • Each MIX 21 constitutes a signal extraction unit 30A or 30B together with the DET 22A or 22B provided in each of the four light receiving elements 31 sharing it. Therefore, the PN semiconductor region 330 according to the present embodiment includes the two signal extraction units 30A and the two signal extraction units 30B.
  • the positions of the DETs 22A and 22B in each light receiving element 31 may be the same positions as in the second embodiment, for example, the positions near the center of the boundary portion of each light receiving element 331 in the column direction.
  • each light receiving element 331 can be a square area having a length in the column direction and a length in the row direction of a/ ⁇ 2. That is, as in the present embodiment, the configuration is such that the four light receiving elements 31 arranged in two rows and two columns share one MIX 21, so that the pixel pitch of the light receiving elements 331 is the pixel pitch a in the second embodiment. It becomes possible to make 1/ ⁇ 2 of.
  • the integration degree of the light receiving elements 331 in the column direction and the row direction can be increased, so that the resolution in the column direction and the row direction can be increased.
  • the planar area of the light-receiving element 31 according to the second embodiment is square, the resolution in the row direction can be ⁇ 2 times.
  • FIG. 23 is a diagram showing an example of a planar layout of the pixel separation section according to the first example, and shows the semiconductor substrate according to the present embodiment as seen from a direction perpendicular to a light incident surface. It is a top view which shows the positional relationship of a light receiving element and a pixel separation part in a case.
  • FIG. 24 is a sectional view showing an example of a sectional structure of the EE plane in FIG.
  • the grid-shaped pixels are arranged along the boundary portions BV and BH of the light receiving element 331.
  • a separation unit 346 is provided.
  • DETs 22A and 22B located in the vicinity of the boundary portion BH in the row direction of the light receiving element 331 are provided on the surface cut along the column direction near the center of the light receiving element 331,
  • An RDTI-type pixel separation portion 346 that protrudes from the back surface (upper surface in the drawing) of the semiconductor substrate 40 toward the front surface side (lower surface side in the drawing) appears.
  • the cross-sectional structure of the surface of the light-receiving element 331 cut along the column direction may be the same as the cross-sectional structure described with reference to FIG. 17 in the first example of the second embodiment.
  • the pixel separating section 346 is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the lattice-shaped pixel separation portion 346 is also covered with the lattice-shaped light shielding film 44.
  • a DTI type pixel separating portion protruding from the front surface to the back surface side of the semiconductor substrate 40 (see FIG. 11).
  • various modifications such as an FFTI type pixel separation portion (see FIG. 12) penetrating the front and back surfaces of the semiconductor substrate 40 may be made.
  • a portion intersecting (overlapping) with the PN semiconductor region 330 may be divided, or a portion overlapping with the PN semiconductor region 330 may be set as the RDTI type. Good.
  • each light receiving element 331 by surrounding each light receiving element 331 with the grid-shaped pixel separating unit 346, it is possible to reduce the leakage of the reflected light L11 not only in the row direction but also in the column direction. As a result, the pixel separation characteristic for optically separating the light receiving elements 331 is further improved, so that it is possible to further suppress the decrease in distance measurement accuracy.
  • FIG. 25 is a diagram showing a planar layout example of the pixel separation section according to the second example, in which the semiconductor substrate according to the present embodiment is viewed from a direction perpendicular to the light incident surface. It is a top view which shows the positional relationship of a light receiving element and a pixel separation part in a case.
  • the pixel separation unit 346a according to the second example has, for example, the same configuration as the pixel separation unit 346 according to the first example, and has a shape in which an intersecting portion overlapping with the MIX 21 is divided.
  • the pixel separating section 346a is provided at a position corresponding to the light shielding film 44 with the back surface of the semiconductor substrate 40 interposed therebetween. That is, when the semiconductor substrate 40 is viewed from the direction perpendicular to the light incident surface, the pixel separation portion 246b is covered with the lattice-shaped light shielding film 44.
  • a DTI type pixel separation portion protruding from the front surface to the back surface side of the semiconductor substrate 40 protruding from the front surface to the back surface side of the semiconductor substrate 40 (see FIG. 11).
  • various modifications such as an FFTI type pixel separation portion (see FIG. 12) penetrating the front and back surfaces of the semiconductor substrate 40 may be made.
  • each light receiving element 331 is surrounded by the grid-shaped pixel separating portion 346a, the region corresponding to the MIX 21 is divided, so that the pixel separation is performed with respect to the electric field formed by the two MIXs 21 in the light receiving element 331. Since it is possible to reduce the influence of the portion 346a, it is possible to efficiently collect charges in the DET 22A or 22B, and thus it is possible to suppress a decrease in quantum efficiency.
  • one MIX 21 is shared by the four light receiving elements 331 that are adjacent to each other in the vertical and horizontal directions, and the MIX 21 is positioned diagonally to each of the light receiving elements 331.
  • the pixel pitch of the light receiving element 331 can be set to 1/ ⁇ 2 times the distance between the centers of the MIXs 21. This makes it possible to increase the degree of integration of the light receiving elements 331 in the column direction and the row direction, so that it is possible to improve the ranging accuracy while suppressing a decrease in the resolution, or to reduce the resolution while suppressing the fixed value of the ranging accuracy. It is possible to raise.
  • the DETs 22A and 22B move toward the MIX 21 to which the read voltage VmixA or VmixB is applied. Since the charges can be efficiently taken into the DET 22A or 22B, it is possible to substantially improve the quantum efficiency and enhance the contrast between pixels.
  • the PN semiconductor region 430 includes two signal take-out portions 30A and two signal take-out portions 30B, similarly to the PN semiconductor region 330 according to the third embodiment.
  • the pixel separation unit that optically separates the light receiving elements 431 according to the fourth embodiment is the pixel separation unit 346 according to the first example of the third embodiment as illustrated in FIG. 27, for example.
  • a high read voltage VmixA or VmixB needs to be applied in order to form a strong electric field in the entire light receiving element 31 and enhance the quantum efficiency.
  • photoelectric conversion is performed near the signal extraction portion 30A or 30B.
  • a large amount of electric charge is generated in the vicinity of the signal extraction unit 30A or 30B, which may cause an excessive current to flow and increase power consumption.
  • FIG. 30 is a plan view showing a layout example of the light-receiving element according to the present embodiment.
  • FIG. 31 is a sectional view showing an example of a sectional structure of the FF plane in FIG.
  • the inhibition region 501 is, for example, an insulating material such as silicon oxide (SiO 2 ), silicon nitride (SiN), or polysilicon (poly-Si), a reflective material such as tungsten (W) that reflects light of a specific wavelength, or
  • the structure may be formed using a material having a dielectric constant different from that of the semiconductor substrate 40, such as an absorbing material that absorbs light of a specific wavelength or a high refractive index material.
  • the present invention is not limited to this, and various modifications such as a high resistance region by counter-doping an n-type dopant in a partial region of the p-type well of the semiconductor substrate 40 are also possible.
  • a conductive material such as tungsten (W) is used as the inhibition region 501
  • an insulating film is provided around the inhibition region 501 in order to electrically separate the inhibition region 501 and the semiconductor substrate 40. Good.
  • Such an inhibition region 501 is, for example, a rectangular columnar region that protrudes from the front surface (lower surface in the drawing) of the semiconductor substrate 40 toward the back surface side (upper surface side in the drawing), and its height (semiconductor substrate 40 Is larger than the MIX 21 in the two signal output sections 30A and 30B, and its width in the row direction is wider than the MIX 21 in the two signal output sections 30A and 30B.
  • the inhibition region 501 is located at least in a region where the electric field strength formed between the signal extraction units 30A and 30B is high.
  • the incident light L10 reflected by the inhibition region 501 is also subject to photoelectric conversion, and thus the light receiving element 531. It is also possible to increase the quantum efficiency of.
  • FIG. 32 is a plan view showing a configuration example of an inhibition region according to the first modification.
  • the inhibition region 502 may be, for example, a columnar region having a circular cross section parallel to the surface of the semiconductor substrate 40.
  • the shape is not limited to the cylindrical shape, and may be an elliptic cylindrical shape or the like.
  • FIG. 33 is a plan view showing a configuration example of an inhibition region according to the second modification.
  • the inhibition region 503 may be, for example, a polygonal columnar region whose cross section parallel to the surface of the semiconductor substrate 40 is a polygon such as a hexagon.
  • FIG. 34 is a plan view showing a configuration example of an inhibition region according to a third modification example.
  • the inhibition region 504 may be, for example, a pyramidal region having a triangular cross section perpendicular to the surface of the semiconductor substrate 40.
  • the shape of the cross section parallel to the surface of the semiconductor substrate 40 may be a circle (including an ellipse) or a polygon as described above. Further, the shape is not limited to the conical shape, and it may be a frustum shape.
  • FIG. 35 is a plan view showing a configuration example of an inhibition region according to a fourth modification example.
  • the upper portion of the inhibition region 505 may have a dome shape having a curvature.
  • the shape other than the upper portion can be variously modified such as a pillar shape or a frustum shape.
  • the shape of the cross section parallel to the surface of the semiconductor substrate 40 may be a circle (including an ellipse) or a polygon as described above.
  • the light incident on the upper portion can be reflected in a wide range of the light receiving element 531 and thus the quantum efficiency of the light receiving element 531 can be improved.
  • FIG. 36 is a plan view showing a configuration example of the inhibition region according to the fifth modification.
  • the upper surface of the inhibition region 506 may be roughened.
  • the shape other than the upper surface can be variously modified such as a pillar shape or a frustum shape.
  • the shape of the cross section parallel to the surface of the semiconductor substrate 40 may be a circle (including an ellipse) or a polygon as described above.
  • the inhibition region 501 and the like are arranged between the two signal extraction units 30A and 30B has been illustrated, but the arrangement location of the inhibition region is not limited to this. Therefore, in the present embodiment, the region in which the inhibition region is arranged and the shape thereof will be described with some examples.
  • FIG. 37 is a plan view showing a configuration example of the inhibition region according to the first example.
  • the inhibition region 601 is projected, for example, between the two signal extraction portions 30A and 30B and over the entire light receiving element 631 from the front surface to the back surface side of the semiconductor substrate 40. May be provided. That is, the inhibition region 601 is provided in a region other than the region between the two signal extraction units 30A and 30B in each light receiving element 631.
  • Each inhibition region 601 may be the same as, for example, the inhibition region 501 according to the fifth embodiment or a modification thereof.
  • FIG. 38 is a plan view showing a configuration example of the inhibition region according to the second example.
  • the inhibition region 602 is, for example, a region of a plurality of rows extending in the row direction over the entire light receiving element 631 except the region where the two signal extraction units 30A and 30B exist. Good.
  • FIG. 39 is a plan view showing a configuration example of the inhibition region according to the third example.
  • the inhibition region 603 is, for example, a region of a plurality of columns extending in the column direction over the entire light receiving element 631 except the region where the two signal extraction units 30A and 30B exist. Good.
  • FIG. 40 is a plan view showing a configuration example of the inhibition region according to the fourth example.
  • minute convex regions are regularly or randomly arranged over the entire light receiving element 631 except the region where the two signal extraction units 30A and 30B exist. It may be an area.
  • the regular array may include, for example, a square array or a hexagonal close array. Random may mean that the distance between the convex regions includes a plurality of two or more types of distances.
  • the incident light L10 such as a reflective material or a high refractive index material is reflected by the inhibition area 601, 602, 603 or 604 located between the two signal extraction units 30A and 30B.
  • the incident light L10 reflected by the inhibition region 601, 602, 603, or 604 can also be the target of photoelectric conversion, so that the quantum efficiency of the light receiving element 631 can be increased.
  • the semiconductor substrate 40 by providing a groove 701 having a conical shape, a quadrangular pyramid shape, or the like on the light incident surface of the semiconductor substrate 40, the semiconductor substrate It is also possible for the light incident surface of 40 to have a moth-eye structure.
  • the reflectance on the light incident surface can be reduced and more light can be incident into the light receiving element 731. It is possible to substantially improve quantum efficiency and increase the contrast between pixels.
  • the shape of the groove 701 is not limited to a cone or a quadrangular pyramid, and can be variously modified such as an elliptic cone or a polygonal pyramid.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is applicable to any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). It may be realized as a device mounted on the body.
  • FIG. 42 is a block diagram showing a schematic configuration example of a vehicle control system 7000 that is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an exterior information detection unit 7400, an interior information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plural control units complies with any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores a program executed by the microcomputer or parameters used in various arithmetic operations, and a drive circuit that drives various controlled devices. Equipped with.
  • Each control unit is equipped with a network I/F for communicating with other control units via the communication network 7010, and also by wire communication or wireless communication with devices or sensors inside or outside the vehicle. A communication I/F for performing communication is provided. In FIG.
  • the integrated control unit 7600 a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I/F 7660, an audio image output unit 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are illustrated.
  • the other control units also include a microcomputer, a communication I/F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjusting and a control device such as a braking device for generating a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the shaft rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or a steering wheel steering operation. At least one of sensors for detecting an angle, an engine speed, a wheel rotation speed, and the like is included.
  • the drive system control unit 7100 performs arithmetic processing using the signal input from the vehicle state detection unit 7110 to control the internal combustion engine, drive motor, electric power steering device, brake device, or the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 7200 may receive radio waves or signals of various switches transmitted from a portable device that substitutes for a key.
  • the body system control unit 7200 receives the input of these radio waves or signals and controls the vehicle door lock device, the power window device, the lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310 that is the power supply source of the drive motor according to various programs. For example, to the battery control unit 7300, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals to control the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the exterior information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image capturing unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside-vehicle information detection unit 7420 detects, for example, an environment sensor for detecting current weather or weather, or another vehicle around the vehicle equipped with the vehicle control system 7000, an obstacle, a pedestrian, or the like. At least one of the ambient information detection sensors of.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 43 shows an example of the installation positions of the imaging unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, 7918 are provided at at least one of the front nose of the vehicle 7900, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • the image capturing unit 7910 provided on the front nose and the image capturing unit 7918 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the imaging units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the imaging unit 7916 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like.
  • FIG. 43 shows an example of the shooting ranges of the respective image pickup units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors
  • the imaging range d is The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by overlaying the image data captured by the image capturing units 7910, 7912, 7914, and 7916, a bird's-eye view image of the vehicle 7900 viewed from above can be obtained.
  • the vehicle exterior information detection units 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, sides, corners of the vehicle 7900 and on the windshield inside the vehicle may be ultrasonic sensors or radar devices, for example.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper windshield of the vehicle 7900 may be LIDAR devices, for example.
  • These vehicle exterior information detection units 7920 to 7930 are mainly used to detect a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle exterior information detection unit 7400 causes the image capturing unit 7410 to capture an image of the vehicle exterior and receives the captured image data.
  • the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives information on the received reflected waves.
  • the vehicle exterior information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or characters on the road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle exterior information detection unit 7400 may also perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, characters on the road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or position adjustment on the received image data, combines the image data captured by different image capturing units 7410, and generates an overhead image or a panoramic image. Good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different image capturing units 7410.
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • the in-vehicle information detection unit 7500 is connected with, for example, a driver state detection unit 7510 that detects the state of the driver.
  • the driver state detecting unit 7510 may include a camera for capturing an image of the driver, a biometric sensor for detecting biometric information of the driver, a microphone for collecting voice in the vehicle interior, or the like.
  • the biometric sensor is provided on, for example, a seat surface or a steering wheel, and detects biometric information of an occupant sitting on a seat or a driver who holds the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or determine whether the driver is asleep. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls overall operations in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input and operated by a passenger, such as a touch panel, a button, a microphone, a switch or a lever. Data obtained by voice recognition of voice input by a microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Furthermore, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. A passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I/F 7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), or LTE-A (LTE-Advanced).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • another wireless communication protocol such as a wireless LAN (also referred to as Wi-Fi (registered trademark)) or Bluetooth (registered trademark) may be implemented.
  • the general-purpose communication I/F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network or a network unique to a business operator) via a base station or an access point, for example. You may.
  • the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology, and is a terminal existing in the vicinity of the vehicle (for example, a driver, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal). May be connected with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I/F 7630 is a communication I/F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I/F 7630 uses a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or a cellular communication protocol, which is a combination of a lower layer IEEE 802.11p and an upper layer IEEE 1609, for example. May be implemented.
  • the dedicated communication I/F 7630 is typically a vehicle-to-vehicle communication, a vehicle-to-infrastructure communication, a vehicle-to-home communication, and a vehicle-to-pedestrian communication. ) Perform V2X communications, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite) to perform positioning, and the latitude, longitude, and altitude of the vehicle. Generate position information including. Note that the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, a radio wave or an electromagnetic wave transmitted from a wireless station or the like installed on the road, and acquires information such as the current position, traffic jam, traffic closure, or required time.
  • the function of beacon reception unit 7650 may be included in dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates a connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 is connected to a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface, or MHL (Mobile High) via a connection terminal (and a cable if necessary) not shown. -Definition Link) etc.
  • the wired device 7760 may include, for example, at least one of a mobile device or a wearable device that the passenger has, or an information device that is carried in or attached to the vehicle. Further, the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I/F 7660 is a control signal with the in-vehicle device 7760. Or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I/F 7680 transmits and receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 passes through at least one of the general-purpose communication I/F 7620, the dedicated communication I/F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I/F 7660, and the in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information acquired by the above. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the acquired information on the inside and outside of the vehicle, and outputs a control command to the drive system control unit 7100. Good.
  • the microcomputer 7610 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, vehicle lane departure warning, etc. You may perform the coordinated control aiming at.
  • the microcomputer 7610 controls the driving force generation device, the steering mechanism, the braking device, and the like based on the acquired information about the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform cooperative control for the purpose of driving etc.
  • ADAS Advanced Driver Assistance System
  • a general-purpose communication I/F 7620 a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a vehicle collision, a pedestrian or the like approaching a road or a closed road, based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the voice image output unit 7670 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to a passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • the display unit 7720 may include at least one of an onboard display and a head-up display, for example.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be a device other than these devices, such as headphones, a wearable device such as a glasses-type display worn by a passenger, a projector, or a lamp.
  • the output device When the output device is a display device, the display device displays results obtained by various processes performed by the microcomputer 7610 or information received from another control unit in various formats such as text, images, tables, and graphs. Display it visually.
  • the output device is an audio output device, the audio output device converts an audio signal composed of reproduced audio data, acoustic data, or the like into an analog signal and outputs it audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of one of the control units may be given to another control unit. That is, if the information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • the computer program for realizing each function of the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 can be installed in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed, for example, via a network without using a recording medium.
  • the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 can be applied to the integrated control unit 7600 of the application example shown in FIG. 42.
  • the control unit 11, the calculation unit 15, and the external I/F 19 of the ToF sensor 1 correspond to the microcomputer 7610, the storage unit 7690, and the vehicle-mounted network I/F 7680 of the integrated control unit 7600.
  • the invention is not limited to this, and the vehicle control system 7000 may correspond to the host 80 in FIG. 1.
  • the constituent elements of the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 are modules for the integrated control unit 7600 shown in FIG. Circuit module).
  • the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 may be realized by a plurality of control units of the vehicle control system 7000 shown in FIG. 42.
  • a semiconductor substrate A lattice-shaped pixel separating unit that divides the semiconductor substrate into a plurality of pixel regions arranged in a matrix; Equipped with Each of the pixel regions is A first semiconductor region arranged on the first surface side in the semiconductor substrate; A second semiconductor region arranged on the first surface side in the semiconductor substrate, spaced apart from the first semiconductor region; A first inhibition region that is on the first surface side in the semiconductor substrate, is disposed between the first semiconductor region and the second semiconductor region, and has a dielectric constant different from that of the semiconductor substrate; A light receiving element including.
  • the material of the first inhibition region according to any one of (1) to (6), including at least one of an insulating material, a material that reflects or absorbs light of a specific wavelength, and a high refractive index material.
  • Light receiving element (8) The above-mentioned (1), further comprising one or more second inhibition regions arranged on the first surface side in the semiconductor substrate other than the region between the first semiconductor region and the second semiconductor region.
  • the light-receiving element according to any one of to (7).
  • the light receiving element according to (8), wherein the first and second inhibition regions are regions of a plurality of rows extending in the row direction or regions of a plurality of columns extending in the column direction.
  • the light receiving element according to (8), wherein the first and second inhibition regions are regions in which a plurality of convex regions are regularly or randomly arranged.
  • the material of the first inhibition region is a reflective material or a high refractive index material.
  • the material of the second inhibition region is any one of (8) to (11) above, which includes at least one of an insulating material, a material that reflects or absorbs light of a specific wavelength, and a high refractive index material.
  • the pixel separating portion projects from the second surface of the semiconductor substrate opposite to the first surface toward the first surface, or extends from the first surface of the semiconductor substrate toward the second surface.
  • Each of the first and second semiconductor regions includes a third semiconductor region located at a boundary portion of the pixel region and two fourth semiconductor regions adjacent to the third semiconductor region with the boundary portion interposed therebetween.
  • the light receiving element according to any one of (1) to (14), wherein the third semiconductor region is shared by the two pixel regions forming the boundary portion.
  • Each of the first and second semiconductor regions is a boundary formed by a third semiconductor region located at a portion where corners of the four pixel regions are concentrated and two adjacent pixel regions of the four pixel regions.
  • a solid-state imaging device further comprising: (20) A light emitting unit that emits light of a predetermined wavelength, A solid-state imaging device for generating pixel signals from received light; A calculation unit that calculates a distance to an object based on a pixel signal generated by the solid-state imaging device, Equipped with The solid-state imaging device, A semiconductor substrate, A lattice-shaped

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)
  • Light Receiving Elements (AREA)

Abstract

測距精度を向上する。実施形態に係る受光素子は、半導体基板(40)と、前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部(46)とを備え、前記画素領域それぞれは、前記半導体基板中における第1面側に配置された第1半導体領域(30A)と、前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域(30B)と、前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域(501)とを備える。

Description

受光素子、固体撮像装置及び測距装置
 本開示は、受光素子、固体撮像装置及び測距装置に関する。
 従来、間接ToF(Time of Flight)方式を利用した測距センサが知られている。このような測距センサでは、ある位相で光源から光を出射し、その反射光を受光することで得られる信号電荷に基づいて、物体までの距離が計測される。
 このような間接ToF方式を利用した測距センサ(以下、間接ToFセンサという)では、反射光の信号電荷を高速に異なる領域に振り分けることのできるセンサが必要不可欠である。そこで、例えば以下の特許文献1には、センサの基板に直接電圧を印加して基板内に電流を発生させることで、基板内の広範囲の領域を高速に変調できるようにした技術が開示されている。このようなセンサは、CAPD(Current Assisted Photonic Demodulator)型の間接ToFセンサとも称される。
特開2011-86904号公報
 しかしながら、従来技術のCAPD型の間接ToFセンサでは、画素間分離が十分になされておらず、そのため、ある画素内で反射した光が隣接画素へ漏れ込むという混色の発生により、測距精度が低下してしまうという問題が存在した。
 そこで本開示では、測距精度を向上することが可能な受光素子、固体撮像装置及び測距装置を提案する。
 上記の課題を解決するために、本開示に係る一形態の受光素子は、半導体基板と、前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部とを備え、前記画素領域それぞれは、前記半導体基板中における第1面側に配置された第1半導体領域と、前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域とを備える。
第1の実施形態に係る測距装置としてのToFセンサの概略構成例を示すブロック図である。 第1の実施形態に係る受光部としての固体撮像装置の概略構成例を示すブロック図である。 第1の実施形態に係る単位画素の等価回路の一例を示す回路図である。 第1の実施形態に係る固体撮像装置のチップ構成例を示す図である。 第1の実施形態に係る受光素子のレイアウト例を示す平面図である。 図5に示す受光素子のサイズの一例を示す平面図である。 第1の実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と遮光膜との位置関係を示す上視図である。 画素分離部を備えない受光素子に入射した光の進行を説明するための図である。 第1の実施形態に係る受光素子の概略構成例を示す断面図である。 図9に示す半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。 第1の実施形態の第1の変形例に係る受光素子の概略構成例を示す断面図である。 第1の実施形態の第2の変形例に係る受光素子の概略構成例を示す断面図である。 第2の実施形態に係る受光素子のレイアウト例を示す平面図である。 図13に示す受光素子のサイズの一例を示す平面図である。 第2の実施形態の第1例に係る画素分離部の平面レイアウト例を示す図である。 図15におけるB-B面の断面構造例を示す断面図である。 図15におけるC-C面の断面構造例を示す断面図である。 第2の実施形態の第2例に係る画素分離部の平面レイアウト例を示す図である。 図18におけるD-D面の断面構造例を示す断面図である。 第2の実施形態の第3例に係る画素分離部の平面レイアウト例を示す図である。 第3の実施形態に係る受光素子のレイアウト例を示す平面図である。 図21に示す受光素子のサイズの一例を示す平面図である。 第3の実施形態の第1例に係る画素分離部の平面レイアウト例を示す図である。 図23におけるE-E面の断面構造例を示す断面図である。 第3の実施形態の第2例に係る画素分離部の平面レイアウト例を示す図である。 第4の実施形態に係る受光素子のレイアウト例を示す平面図である。 第4の実施形態に係る画素分離部の平面レイアウトの一例を示す図である。 第4の実施形態に係る画素分離部の平面レイアウトの他の一例を示す図である。 受光素子に発生した電荷の移動を説明するための図である。 第5の実施形態に係る受光素子のレイアウト例を示す平面図である。 図30におけるF-F面の断面構造例を示す断面図である。 第5の実施形態の第1の変形例に係る阻害領域の構成例を示す平面図である。 第5の実施形態の第2の変形例に係る阻害領域の構成例を示す平面図である。 第5の実施形態の第3の変形例に係る阻害領域の構成例を示す平面図である。 第5の実施形態の第4の変形例に係る阻害領域の構成例を示す平面図である。 第5の実施形態の第5の変形例に係る阻害領域の構成例を示す平面図である。 第6の実施形態の第1例に係る阻害領域の構成例を示す平面図である。 第6の実施形態の第2例に係る阻害領域の構成例を示す平面図である。 第6の実施形態の第3例に係る阻害領域の構成例を示す平面図である。 第6の実施形態の第4例に係る阻害領域の構成例を示す平面図である。 第7の実施形態に係る受光素子の概略構成例を示す断面図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1.1 測距装置(ToFセンサ)
   1.2 固体撮像装置の構成例
   1.3 単位画素の回路構成例
   1.4 単位画素の読出し動作例
   1.5 チップ構成例
   1.6 受光素子の平面レイアウト例
   1.7 受光素子間の光学的分離
   1.8 単位画素の断面構造例
   1.9 作用・効果
   1.10 画素分離部の変形例
    1.10.1 第1の変形例
    1.10.2 第2の変形例
  2.第2の実施形態
   2.1 受光素子の平面レイアウト例
   2.2 画素分離部の平面レイアウト例
    2.2.1 第1例
    2.2.2 第2例
    2.2.3 第3例
   2.3 作用・効果
  3.第3の実施形態
   3.1 受光素子の平面レイアウト例
   3.2 画素分離部の平面レイアウト例
    3.2.1 第1例
    3.2.2 第2例
   3.3 作用・効果
  4.第4の実施形態
  5.第5の実施形態
   5.1 受光素子の構成例
   5.2 作用・効果
   5.3 阻害領域の変形例
    5.3.1 第1の変形例
    5.3.2 第2の変形例
    5.3.3 第3の変形例
    5.3.4 第4の変形例
    5.3.5 第5の変形例
  6.第6の実施形態
   6.1 第1例
   6.2 第2例
   6.3 第3例
   6.4 第4例
   6.5 作用・効果
  7.第7の実施形態
  8.応用例
 1.第1の実施形態
 まず、第1の実施形態について、以下に図面を参照して詳細に説明する。なお、第1の実施形態では、例えば、間接ToF方式により物体までの距離を測定する受光素子、固体撮像装置及び測距装置について、例を挙げて説明する。
 本実施形態に係る受光素子、固体撮像装置及び測距装置は、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムや、ユーザの手等の対象物までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用のシステムなどに適用することができる。この場合、ジェスチャ認識の結果は、例えばカーナビゲーションシステムの操作等に用いることも可能である。
 1.1 測距装置(ToFセンサ)
 図1は、本実施形態に係る測距装置としてのToFセンサの概略構成例を示すブロック図である。図1に示すように、ToFセンサ1は、制御部11と、発光部13と、受光部14と、演算部15と、外部インタフェース(I/F)19とを備える。
 制御部11は、例えば、CPU(Central Processing Unit)などの情報処理装置で構成され、ToFセンサ1の各部を制御する。
 外部I/F19は、例えば、無線LAN(Local Area Network)や有線LANの他、CAN(Controller Area Network)、LIN(Local Interconnect Network)、FlexRay(登録商標)等の任意の規格に準拠した通信ネットワークを介して外部のホスト80と通信を確立するための通信アダプタであってよい。
 ここで、ホスト80は、例えば、ToFセンサ1が自動車等に実装される場合には、自動車等に搭載されているECU(Engine Control Unit)などであってよい。また、ToFセンサ1が家庭内ペットロボットなどの自律移動ロボットやロボット掃除機や無人航空機や追従運搬ロボットなどの自律移動体に搭載されている場合には、ホスト80は、その自律移動体を制御する制御装置等であってよい。
 発光部13は、例えば、1つ又は複数の半導体レーザダイオードを光源として備えており、所定時間幅のパルス状のレーザ光L1を所定周期(発光周期ともいう)で出射する。発光部13は、少なくとも、受光部14の画角以上の角度範囲に向けてレーザ光L1を出射する。また、発光部13は、例えば、100MHz(メガヘルツ)の周期で、10ns(ナノ秒)の時間幅のレーザ光L1を出射する。発光部13から出射したレーザ光L1は、例えば、測距範囲内に物体90が存在する場合には、この物体90で反射して、反射光L2として、受光部14に入射する。
 受光部14は、その詳細については後述するが、例えば、2次元格子状に配列した複数の画素を備え、発光部13の発光後に各画素で検出された信号強度(以下、画素信号ともいう)を出力する。
 演算部15は、受光部14から出力された画素信号に基づいて、受光部14の画角内のデプス画像を生成する。その際、演算部15は、生成したデプス画像に対し、ノイズ除去等の所定の処理を実行してもよい。演算部15で生成されたデプス画像は、例えば、外部I/F19を介してホスト80等に出力され得る。
 1.2 固体撮像装置の構成例
 図2は、第1の実施形態に係る受光部としての固体撮像装置の概略構成例を示すブロック図である。
 図2に示す固体撮像装置100は、裏面照射型のCAPD型間接ToFセンサ(以下、単にCAPDセンサという)であり、測距機能を有する測距装置に設けられている。
 固体撮像装置100は、画素アレイ部101と、周辺回路とを有する構成となっている。周辺回路には、例えば、垂直駆動回路103と、カラム処理回路104と、水平駆動回路105と、システム制御部102とが含まれ得る。
 固体撮像装置100には、さらに、信号処理部106と、データ格納部107とが含まれ得る。なお、信号処理部106及びデータ格納部107は、固体撮像装置100と同じ基板上に搭載してもよいし、測距装置における固体撮像装置100とは別の基板上に配置するようにしてもよい。
 画素アレイ部101は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する画素(以下、単位画素とも称する)20が行方向および列方向に、すなわち2次元格子状に配列された構成を備える。すなわち、画素アレイ部101は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する単位画素20を複数備える。
 ここで、行方向とは画素行の単位画素20の配列方向(図面中、横方向)をいい、列方向とは画素列の単位画素20の配列方向(図面中、縦方向)をいう。
 画素アレイ部101において、行列状の画素配列に対して、画素行ごとに画素駆動線LDが行方向に沿って配線され、各画素列に2つの垂直信号線VSLが列方向に沿って配線されている。例えば画素駆動線LDは、単位画素20から信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図2では、画素駆動線LDについて1本の配線として示しているが、1本に限られるものではない。また、画素駆動線LDの一端は、垂直駆動回路103の各行に対応した出力端に接続されている。
 垂直駆動回路103は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101の各単位画素20を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路103は、垂直駆動回路103を制御するシステム制御部102とともに、画素アレイ部101の各単位画素20の動作を制御する駆動部を構成している。
 なお、間接ToF方式での測距においては、1つの制御線に接続されている、高速駆動させる素子(CAPD素子)の数が高速駆動の制御性や駆動の精度へ影響を及ぼす。間接ToF方式での測距に用いる固体撮像素子は、水平方向に長い画素アレイとされることが多い。したがって、そのような場合、高速駆動させる素子の制御線に関しては、垂直信号線VSLや他の垂直方向に長い制御線が用いられるようにしてもよい。この場合、例えば垂直信号線VSLや垂直方向に長い他の制御線に対して、垂直方向に配列された複数の単位画素20が接続され、それらの垂直信号線VSLや他の制御線を介して、垂直駆動回路103とは別に設けられた駆動部や水平駆動回路105等により単位画素20の駆動、すなわち固体撮像装置100の駆動が行われる。
 垂直駆動回路103による駆動制御に応じて画素行の各単位画素20から出力される信号は、垂直信号線VSLを通してカラム処理回路104に入力される。カラム処理回路104は、各単位画素20から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理回路104は、信号処理としてノイズ除去処理やAD(Analog to Digital)変換処理などを行う。
 水平駆動回路105は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路104の画素列に対応する単位回路を順番に選択する。この水平駆動回路105による選択走査により、カラム処理回路104において単位回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部102は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、そのタイミングジェネレータで生成された各種のタイミング信号を基に、垂直駆動回路103、カラム処理回路104、水平駆動回路105などの駆動制御を行う。
 信号処理部106は、少なくとも演算処理機能を有し、カラム処理回路104から出力される画素信号に基づいて演算処理等の種々の信号処理を実行し、それにより算出された画素ごとの距離情報を外部へ出力する。データ格納部107は、信号処理部106での信号処理にあたり、その処理に必要なデータを一時的に格納する。
 1.3 単位画素の回路構成例
 図3は、本実施形態に係る単位画素の等価回路の一例を示す回路図である。図3に示すように、単位画素20は、半導体基板40に形成された2つの信号取出部30A及び30Bのうち、一方の信号取出部30Aにおけるp+半導体領域(以下、MIXという)21に、電荷読出し用の電圧(以下、読出し電圧という)VmixAが印加され、n+半導体領域(以下、DETという)22に、転送トランジスタ24、FD26、リセットトランジスタ23、増幅トランジスタ27及び選択トランジスタ28を含む読出し回路20Aが接続された構成を備える。
 同様に、単位画素20は、他方の信号取出部30BにおけるMIX21に、読出し電圧VmixBが印加され、DET22に、転送トランジスタ24、FD26、リセットトランジスタ23、増幅トランジスタ27及び選択トランジスタ28を含む読出し回路20Bが接続された構成を備える。
 なお、半導体基板40における2つの信号取出部30A及び30Bそれぞれは、MIX21とDET22とで構成されたPN半導体領域であり、この2つの信号取出部30A及び30Bを含む領域それぞれは、各単位画素20の受光素子として機能する。
 垂直駆動回路103は、信号取出部30AのMIX21に読出し電圧VmixAを印加し、信号取出部30BのMIX21に読出し電圧VmixBを印加する。例えば、信号取出部30Aから信号(電荷)を取り出す場合、垂直駆動回路103は、信号取出部30AのMIX21に1.5V(ボルト)の読出し電圧VmixAを印加し、信号取出部30BのMIX21に0Vの読出し電圧VmixBを印加する。一方、信号取出部30Bから信号(電荷)を取り出す場合、垂直駆動回路103は、信号取出部30BのMIX21に1.5V(ボルト)の読出し電圧VmixBを印加し、信号取出部30AのMIX21に0Vの読出し電圧VmixAを印加する。
 各信号取出部30A及び30BにおけるDET22は、半導体基板40に入射した光が光電変換されることで生成された電荷を検出して、蓄積する電荷検出部である。
 各読出し回路20A及び20Bにおいて、転送トランジスタ24は、垂直駆動回路103からゲートに供給される駆動信号TRGがアクティブ状態になるとこれに応答して導通状態になることで、それぞれが対応するDET22に蓄積されている電荷をFD26に転送する。
 FD26は、蓄積電荷に応じた電圧値の電圧を発生させる電荷電圧変換機能を備え、DET22から転送された電荷を一時的に保持することで、この電荷量に応じた電圧値の電圧を増幅トランジスタ27のゲートに印加する。
 リセットトランジスタ23は、垂直駆動回路103からゲートに供給される駆動信号RSTがアクティブ状態になるとこれに応答して導通状態になることで、FD26の電位を所定のレベル(リセットレベルVDD)にリセットする。なお、リセットトランジスタ23がアクティブ状態とするときに転送トランジスタ24も併せてアクティブ状態とすることで、DET22に蓄積されている電荷を併せてリセットすることも可能である。
 増幅トランジスタ27は、ソースが選択トランジスタ28を介して垂直信号線VSL0/VSL1に接続されることにより、垂直信号線VSL0/VSL1の一端に接続されている定電流回路29A/29Bの負荷MOSトランジスタとともにソースフォロワ回路を構成する。
 選択トランジスタ28は、増幅トランジスタ27のソースと垂直信号線VSL0/VSL1との間に接続されている。選択トランジスタ28は、垂直駆動回路103からゲートに供給される選択信号SELがアクティブ状態になるとこれに応答して導通状態となり、増幅トランジスタ27から出力される画素信号を垂直信号線VSL0/VSL1に出力する。
 1.4 単位画素の読出し動作例
 つづいて、以上のような構造を有する固体撮像装置100を用いて対象物までの距離を間接ToF方式により測定する場合の読出し動作について、図3等を参照しつつ詳細に説明する。
 対象物までの距離を間接ToF方式により測定する場合、発光部13(図1参照)から対象物に向けて特定波長の光(例えば、赤外光)が射出される。そして、その光が対象物で反射されて反射光として受光部14に入射すると、固体撮像装置100の半導体基板40は、入射した反射光を光電変換することで、その光量に応じた電荷を発生させる。
 このとき、垂直駆動回路103は、単位画素20を駆動させ、光電変換により得られた電荷に応じた信号を2つの読出し回路20A及び20BそれぞれのFD26に振り分ける。
 例えば、あるタイミングにおいて、垂直駆動回路103は、同一の単位画素20における2つのMIX21に電圧を印加する。具体的には、例えば、垂直駆動回路103は、信号取出部30AのMIX21に1.5V(ボルト)の読出し電圧VmixAを印加し、信号取出部30BのMIX21に0Vの読出し電圧VmixBを印加する。
 この状態で、オンチップレンズ45を介して半導体基板40内に光が入射し、その光が光電変換されて電荷が発生すると、この発生した電荷は、信号取出部30AのMIX21へと導かれ、この信号取出部30AのDET22に取り込まれる。
 この場合、光電変換で発生した電荷(すなわち、電子)が、受光素子31に入射した光の光量、すなわち受光量に応じた信号を検出するための信号キャリアとして用いられることになる。
 信号取出部30AのDET22に取り込まれた電荷は、読出し回路20Aの転送トランジスタ24を介してFD26へ転送される。それにより、読出し回路20Aにおける増幅トランジスタ27のゲートにFD26に蓄積された電荷に応じた電圧値の電圧が印加され、その結果、垂直信号線VSL0に、FD26に蓄積された電荷量に応じた電圧値の電圧が、選択トランジスタ28を介して出現する。
 垂直信号線VSL0に出現した電圧は、カラム処理回路104によりデジタルの画素信号として読み出され、信号処理部106に入力される。
 また、次のタイミングでは、これまで受光素子31内で発生していた電界と反対方向の電界が発生するように、当該受光素子31の2つのMIX21に電圧を印加する。具体的には、例えば、垂直駆動回路103は、信号取出部30BのMIX21に1.5Vの読出し電圧VmixBを印加し、信号取出部30AのMIX21に0Vの読出し電圧VmixAを印加する。
 この状態で、オンチップレンズ45を介して半導体基板40内に光が入射し、その光が光電変換されて電荷が発生すると、この発生した電荷は、信号取出部30BのMIX21へと導かれ、この信号取出部30BのDET22に取り込まれる。なお、信号キャリアは、上述と同様に、電子であってよい。
 信号取出部30BのDET22に取り込まれた電荷は、読出し回路20Bの転送トランジスタ24を介してFD26へ転送される。それにより、読出し回路20Bにおける増幅トランジスタ27のゲートにFD26に蓄積された電荷に応じた電圧値の電圧が印加され、その結果、垂直信号線VSL1に、FD26に蓄積された電荷量に応じた電圧値の電圧が、選択トランジスタ28を介して出現する。
 垂直信号線VSL1に出現した電圧は、カラム処理回路104によりデジタルの画素信号として読み出され、信号処理部106に入力される。
 信号処理部106は、例えば、2つの読出し回路20A及び20Bそれぞれで読み出された画素信号の差に基づいて対象物までの距離を示す距離情報を算出し、算出した距離情報を外部へ出力する。
 以上のように、2つの信号取出部30A及び30Bへと信号キャリアを振り分け、それぞれの読出し回路20A及び20Bで読み出された画素信号に基づいて距離情報を算出する方法は、間接ToF方式と称される。
 1.5 チップ構成例
 図4は、本実施形態に係る固体撮像装置のチップ構成例を示す図である。図4に示すように、固体撮像装置100は、例えば、受光チップ51と回路チップ52とが上下に貼り合わされた貼合せチップ50の構造を備える。受光チップ51は、例えば、単位画素20における受光素子として機能する半導体基板40から構成された半導体チップであり、回路チップ52は、例えば、単位画素20における読出し回路20A及び20Bや周辺回路等が形成された半導体チップである。
 受光チップ51と回路チップ52との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
 また、受光チップ51と回路チップ52とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、受光チップ51に設けられたTSVと受光チップ51から回路チップ52にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、受光チップ51から回路チップ52まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
 ただし、受光チップ51と回路チップ52との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続される。
 なお、図16に示す貼合せチップ50には、固体撮像装置100の他に、演算部15や発光部13や制御部11等が含まれていてもよい。
 1.6 受光素子の平面レイアウト例
 つづいて、画素アレイ部101における受光素子31の平面レイアウト例について、図面を用いて詳細に説明する。図5は、本実施形態に係る受光素子のレイアウト例を示す平面図である。また、図6は、図5に示す受光素子のサイズの一例を示す平面図である。
 図5に示すように、画素アレイ部101は、複数の受光素子31が2次元格子状に配列した構成を備える。各受光素子31の中央付近には、例えば、列方向に離間して配置された2つの信号取出部30A及び30Bを備える。各信号取出部30A及び30Bは、例えば、受光素子31の配列面に沿った断面が円形のMIX21と、MIX21の周囲を囲むように設けられたDET22とを備える。
 ここで、図6に示すように、各受光素子31における信号取出部30A及び30Bの中心間の距離をaとすると、各受光素子31は、例えば、列方向の長さを2aとした矩形の領域に設けられている。なお、図6では、行方向の長さも2aとして、受光素子31の領域を正方形としているが、正方形に限定されず、種々変形することが可能である。
 1.7 受光素子間の光学的分離
 画素アレイ部101において2次元格子状に配列する受光素子31の境界部分には、例えば、隣接画素への光の漏れ込みを防止することを目的として、遮光膜を設けることが可能である。図7は、本実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と遮光膜との位置関係を示す上視図である。
 図7に示すように、遮光膜44は、例えば、2次元格子状に配列する複数の受光素子31の境界部分BV及びBHに沿って格子状に設けられている。その場合、遮光膜44が形成する開口部は、2次元格子状に配列することとなる。
 また、各受光素子31における信号取出部30A及び30Bは、例えば、図7に示すように、半導体基板40における光の入射面と垂直な方向から見て、遮光膜44の開口部の縁に近接又は重畳する領域に形成される。
 しかしながら、半導体基板40の光入射面(図中、下面側。半導体基板40の裏面に相当)に遮光膜44を配置しただけでは、図8に例示するように、半導体基板40の表面側(図中、下面側)に形成された絶縁膜41における、各信号取出部30A及び30BのMIX21とDET22とを電気的に分離する部分41aへ入射した入射光L10が乱反射し、その反射光L11が隣接画素の受光素子31へ入射して混色が発生してしまう可能性が存在する。
 そこで本実施形態では、後述において図9及び図10を用いて説明するように、受光素子31間を光学的に分離する画素分離部を設ける。それにより、部分41aで乱反射した反射光L11の隣接画素への漏れ込みによる混色が低減されるため、受光素子31間を光学的に分離する画素分離特性を向上することが可能となる。なお、図8には、後述において説明する図9に示す構造例から画素分離部を省略した場合の断面構造例が示されている。
 1.8 単位画素の断面構造例
 図9は、本実施形態に係る受光素子の概略構成例を示す断面図である。なお、図9には、いわゆる裏面照射型の固体撮像装置100における受光チップ51部分の断面構造例であって、図7におけるA-A断面に相当する断面構造例が示されている。また、図10は、図9に示す半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。
 まず、図9に示すように、各単位画素20における受光素子31は、例えば、p型のウエル(p-well)を備えるシリコン基板などの半導体基板40と、半導体基板40の裏面側(図面中、上面側)に設けられた反射防止膜42と、反射防止膜42上に設けられた平坦化膜43と、平坦化膜43上に設けられたオンチップレンズ45とを備える。なお、回路チップ52は、半導体基板40の表面側(図面中、下面側)に、シリコン酸化膜などの絶縁膜41等を介して貼り合わされてよい。
 また、平坦化膜43上であって、隣接する受光素子31の境界部分には、隣接画素間での混色を防止するための遮光膜44が設けられている。この遮光膜44には、例えば、タングステン(W)などの遮光性を備える材料が用いられてよい。
 また、図9及び図10に示すように、半導体基板40における、例えば、受光素子31の境界部分BV及びBHには、隣接する受光素子31間を光学的に分離する画素分離部46が設けられている。言い換えれば、画素分離部46は、半導体基板40を行列状に配列する複数の画素領域(受光素子31に相当)に光学的に区画する。この画素分離部46は、例えば、半導体基板40の裏面(図中、上面)から表面側(図中、下面側)へ向けて突出するRDTI(Reverse Deep Trench Isolation)型の画素分離部であってよい。
 また、この画素分離部46は、図10に例示するように、受光素子31の境界部分BV及びBHに沿って格子状に設けられてよい。その場合、画素分離部46は、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、画素分離部46は、遮光膜44で覆われている。
 なお、画素分離部46と半導体基板40との間は、絶縁膜などを用いて電気的に分離されていてよい。これは、後述する実施形態における画素分離部においても同様であってよい。
 半導体基板40には、例えば、シリコン基板などの半導体基板を用いることができ、その基板厚は、例えば、20μm(マイクロメートル)以下の厚さとなるように薄厚化されている。なお、半導体基板40の厚さは20μm以上であってもよく、その厚さは固体撮像装置100の目標とする特性等に応じて適宜定められてよい。
 反射防止膜42は、例えば、酸窒化シリコン(SiON)などの高屈折材料を用いて形成された膜であってよい。また、平坦化膜43は、例えば、酸化シリコン(SiO)などの絶縁材料を用いて形成された膜であってよい。
 画素分離部46には、タングステン(W)などの遮光材料や高屈折率材料(例えば、半導体基板40よりも高い屈折率を備える材料)を用いることが可能である。
 半導体基板40における表面側(図面中、下面側)の領域には、一対の信号取出部30A及び30Bが設けられている。
 ここで、各信号取出部30A及び30BにおけるMIX21は、例えば、半導体基板40にホウ素(B)等のアクセプタが拡散された領域であってよく、また、DETは、半導体基板40にリン(P)やヒ素(As)などのドナーが拡散された領域であってよい。
 各信号取出部30A及び30BのDETは、外部から受光素子31に入射した光の光量、すなわち、半導体基板40による光電変換により発生した電荷の量を検出するための電荷検出部として機能する。
 一方、MIX21は、多数キャリア電流を半導体基板40に注入するための、すなわち半導体基板40に直接電圧を印加して半導体基板40内に電界を発生させるための電圧印加部として機能する。
 本実施形態では、例えば、信号取出部30A又は30BのDET22に対して直接、読出し回路20A又は20BのFD26が接続されている(図3参照)。
 また、オンチップレンズ45には、例えば、酸化シリコン(SiO)や透明樹脂などを用いることができ、入射した光が受光素子31の中央付近に集光されるように、その曲率が設定されている。
 オンチップレンズ45によって各受光素子31の中央付近に入射光L10が集光されることで、信号取出部30A又は30B付近での入射光L10の光電変換が低減されるため、余分な光電変換を抑制することが可能となる。それにより、信号取出部30A又は30BのDET22への意図しない電荷の流入を低減できるため、画素分離特性をより向上することが可能となる。
 1.9 作用・効果
 以上のように、本実施形態によれば、受光素子31間に画素分離部46を設け、これにより、部分41aで乱反射した反射光L11の隣接画素への漏れ込みによる混色を低減することが可能となる。その結果、受光素子31間を光学的に分離する画素分離特性が向上するため、測距精度の低下を抑制することが可能となる。
 なお、本実施形態では、半導体基板40をp型のウエルとし、MIX21を導電型がp型のp+半導体領域とし、DET22を導電型がn型のn+半導体領域とした場合を例示したが、これに限定されず、例えば、半導体基板40をn型のウエルとし、MIX21を導電型がn型のn+半導体領域とし、DET22を導電型がp型のp+半導体領域とすることも可能である。これは、後述する実施形態においても同様である。
 1.10 画素分離部の変形例
 また、本実施形態では、半導体基板40の裏面(図中、上面)から中腹にかけて形成された、いわゆるRDTI型の画素分離部46を例示するが、これに限定されるものではない。そこで以下に、画素分離部の変形例について、幾つか例を挙げる。
 1.10.1 第1の変形例
 図11は、第1の変形例に係る受光素子の概略構成例を示す断面図である。なお、図11には、図9と同様に、いわゆる裏面照射型の固体撮像装置100における受光チップ51部分の断面構造例であって、図7におけるA-A断面に相当する断面構造例が示されている。
 図11に示すように、第1の変形例に係る受光素子31は、図9に例示した画素分離部46が、例えば、半導体基板40の表面(図中、下面)から裏面側(図中、下面側)へ向けて突出するDTI型の画素分離部46aに置き換えられた断面構造を備える。この画素分離部46aは、画素分離部46と同様に、受光素子31の境界部分BV及びBHに沿って格子状に設けられてよい(図10参照)。
 このように、半導体基板40の表面側から形成されたDTI型の画素分離部46aによっても、部分41aで乱反射した反射光L11の隣接画素への漏れ込みによる混色を低減することが可能である。それにより、受光素子31間を光学的に分離する画素分離特性が向上するため、測距精度の低下を抑制することが可能となる。
 1.10.2 第2の変形例
 図12は、第2の変形例に係る受光素子の概略構成例を示す断面図である。なお、図12には、図9及び図11と同様に、いわゆる裏面照射型の固体撮像装置100における受光チップ51部分の断面構造例であって、図7におけるA-A断面に相当する断面構造例が示されている。
 図12に示すように、第1の変形例に係る受光素子31は、図9に例示した画素分離部46が、例えば、半導体基板40の表裏面を貫通するFFTI(Front Full Trench Isolation)型の画素分離部46bに置き換えられた断面構造を備える。この画素分離部46bは、画素分離部46と同様に、受光素子31の境界部分BV及びBHに沿って格子状に設けられてよい(図10参照)。
 このように、半導体基板40の表裏面を貫通するFFTI型の画素分離部46bを用いて受光素子31間を光学的に分離することで、画素分離特性をさらに向上することが可能となるため、測距精度の低下をより抑制することが可能となる。
 2.第2の実施形態
 つぎに、第2の実施形態について、以下に図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それらを引用することで、重複する説明を省略する。
 2.1 受光素子の平面レイアウト例
 図13は、本実施形態に係る受光素子のレイアウト例を示す平面図であり、図14は、図13に示す受光素子のサイズの一例を示す平面図である。
 図13に示すように、本実施形態に係る画素アレイ部101は、複数の受光素子231が2次元格子状に配列した構成を備える。列方向(図面中、上下方向)における受光素子231の各境界部分には、PN半導体領域230が設けられている。
 各PN半導体領域230は、例えば、受光素子231の各境界部分に位置するMIX21と、MIX21に対して列方向下側から隣接するDET22Aと、MIX21に対して列方向上側から隣接するDET22Bを備える。MIX21に対するDET22A及び22Bの行方向の長さは、例えば、MIX21の行方向の長さよりも短くてよい。その場合、受光素子231内において2つのMIX21が形成する電界に対してDET22A及び22Bが与える影響を低減することが可能となるため、DET22A又は22Bに効率的に電荷を収集することが可能となり、それにより、量子効率の低下を抑制することが可能となる。
 このような構成において、各PN半導体領域230におけるMIX21及びDET22Aは、各境界部分を形成する2つの受光素子231のうちの下側の受光素子231の信号取出部30Aを構成し、MIX21及びDET22Bは、上側の受光素子231の信号取出部30Bを構成する。すなわち、2つの受光素子231の境界部分に位置するMIX21は、この2つの受光素子231で共有されている。
 ここで、第1の実施形態に係る受光素子31と同様に、信号取出部30A及び30BにおけるMIX21の中心間の距離をaとすると、図14に示すように、各受光素子231は、列方向の長さをaとした矩形の領域とすることができる。すなわち、本実施形態のように、MIX21を上下に隣接する2つの受光素子231で共有する構成とすることで、MIX21の中心間の距離をそのまま受光素子231の画素ピッチとすることが可能となる。それにより、列方向における受光素子231の集積度を上げることが可能となるため、列方向の解像度を高めることが可能となる。その際、例えば、受光素子231の平面領域を正方形とすることで、行方向の解像度も2倍とすることが可能である。
 2.2 画素分離部の平面レイアウト例
 つぎに、本実施形態に係る画素分離部246の平面レイアウト例について、幾つか例を挙げて説明する。
 2.2.1 第1例
 図15は、第1例に係る画素分離部の平面レイアウト例を示す図であって、本実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。図16は、図15におけるB-B面の断面構造例を示す断面図であり、図17は、図15におけるC-C面の断面構造例を示す断面図である。
 図15に示すように、第1例に係る画素分離部246は、例えば、受光素子231の境界部分BV及びBHのうち、列方向に延びる境界部分BVに沿って形成される。
 その場合、受光素子231の中央付近を行方向に沿って切断するB-B面には、図16に示すように、例えば、受光素子231の列方向の境界部分BVに、半導体基板40の裏面(図中、上面)から表面側(図中、下面側)へ向けて突出するRDTI型の画素分離部246が現れる。
 画素分離部246は、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、画素分離部246は、遮光膜44における列方向に延在する部分で覆われている。
 なお、半導体基板40の裏面から表面側へ向けて突出するRDTI型の画素分離部246に代えて、半導体基板40の表面から裏面側へ向けて突出するDTI型の画素分離部(図11参照)や、半導体基板40の表裏面を貫通するFFTI型の画素分離部(図12参照)など、種々変形されてよい。
 一方、受光素子231の中央付近を列方向に沿って切断するC-C面には、図17に示すように、例えば、受光素子231の行方向の境界部分BHにMIX21が現れ、このMIX21を挟む位置にDET22A及び22Bが現れる。
 その場合、MIX21とDET22A及び22Bとで構成されるPN半導体領域230は、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、PN半導体領域230は、遮光膜44における行方向に延在する部分で覆われている。
 以上のように、行方向に隣接する受光素子231間に画素分離部246を設けることで、行方向に隣接する受光素子231への反射光L11の漏れ込みを低減することが可能となる。それにより、受光素子231間を光学的に分離する画素分離特性が向上するため、測距精度の低下を抑制することが可能となる。
 2.2.2 第2例
 図18は、第2例に係る画素分離部の平面レイアウト例を示す図であって、本実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。図19は、図18におけるD-D面の断面構造例を示す断面図である。
 図18に示すように、第2例では、例えば、受光素子231の境界部分BV及びBHにそって、格子状の画素分離部246aが設けられている。
 その場合、受光素子231の中央付近を列方向に沿って切断するD-D面には、図19に示すように、例えば、受光素子231の行方向の境界部分BHに位置するPN半導体領域230と、半導体基板40の裏面(図中、上面)から表面側(図中、下面側)へ向けて突出するRDTI型の画素分離部246aとが現れる。なお、受光素子231の中央付近を列方向に沿って切断する面の断面構造は、例えば、第1例において図17を用いて説明した断面構造と同様であってよい。
 画素分離部246aは、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、格子状の画素分離部246aは、同じく格子状の遮光膜44で覆われている。
 なお、半導体基板40の裏面から表面側へ向けて突出するRDTI型の画素分離部246aに代えて、半導体基板40の表面から裏面側へ向けて突出するDTI型の画素分離部(図11参照)や、半導体基板40の表裏面を貫通するFFTI型の画素分離部(図12参照)など、種々変形されてよい。ただし、FFTI型とする場合には、後述する第3例のように、PN半導体領域230と交差(重複)する部分を分断してもよいし、PN半導体領域230と重複する部分をRDTI型としてもよい。
 以上のように、各受光素子231を格子状の画素分離部246aで囲むことで、行方向のみならず、列方向への反射光L11の漏れ込みを低減することが可能となる。それにより、受光素子231間を光学的に分離する画素分離特性がより向上するため、測距精度の低下をさらに抑制することが可能となる。
 2.2.3 第3例
 図20は、第3例に係る画素分離部の平面レイアウト例を示す図であって、本実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。
 図20に示すように、第3例に係る画素分離部246bは、例えば、第2例に係る画素分離部246aと同様の構成において、PN半導体領域230と交差(重複)する部分が分断された形状を備える。
 その場合、受光素子231の中央付近を列方向に沿って切断する面には、例えば、第2例において図19を用いて説明したように、受光素子231の行方向の境界部分BHに位置するPN半導体領域230と、半導体基板40の裏面(図中、上面)から表面側(図中、下面側)へ向けて突出するRDTI型の画素分離部246bとが現れる。なお、受光素子231の中央付近を列方向に沿って切断する面の断面構造は、例えば、第1例において図17を用いて説明した断面構造と同様であってよい。
 画素分離部246bは、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、画素分離部246bは、格子状の遮光膜44で覆われている。
 なお、半導体基板40の裏面から表面側へ向けて突出するRDTI型の画素分離部246bに代えて、半導体基板40の表面から裏面側へ向けて突出するDTI型の画素分離部(図11参照)や、半導体基板40の表裏面を貫通するFFTI型の画素分離部(図12参照)など、種々変形されてよい。
 以上のように、各受光素子231を格子状の画素分離部246bで囲む際に、PN半導体領域230と対応する領域を分断することで、受光素子231内において2つのMIX21が形成する電界に対して画素分離部246bが与える影響を低減することが可能となるため、DET22A又は22Bに効率的に電荷を収集することが可能となり、それにより、量子効率の低下を抑制することが可能となる。
 2.3 作用・効果
 以上のように、本実施形態によれば、1つのMIX21を上下に隣接する2つの単位画素20で共有するため、MIX21の中心間の距離をそのまま単位画素20の画素ピッチとすることが可能となる。それにより、列方向における単位画素20の集積度を上げることが可能となるため、解像度の低下を抑制しつつ測距精度を上げること、又は、測距精度の定価を抑制しつつ解像度を上げることが可能となる。
 また、本実施形態によれば、信号取り出し側でない信号取出部30B又は30Aの周囲に形成される強電界の領域を小さくすることが可能となる。それにより、本実施形態では、信号取り出し側でない信号取出部30B又は30A付近で発生した電荷も効率的に信号取り出し側である信号取出部30AのDET22A又は信号取出部30BのDET22Bに取り込むことが可能となるため、実質的な量子効率を向上して画素間のコントラストを高めることが可能となる。
 さらに、本実施形態によれば、半導体基板40の広範囲から信号取り出し側のDET22A又は22Bに効率的に電荷を集めることが可能となることで、高速な読出し動作や低い動作電圧での読出しが可能になるという効果も得られる。
 なお、その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 3.第3の実施形態
 つぎに、第3の実施形態について、以下に図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それらを引用することで、重複する説明を省略する。
 第2の実施形態では、列方向に配列する2つの受光素子231で1つのMIX21を共有する場合について、例を挙げて説明した。これに対し、第3の実施形態では、列方向及び行方向に隣接する4つの受光素子231で1つのMIX21を共有する場合について、例を挙げて説明する。
 3.1 受光素子の平面レイアウト例
 図21は、本実施形態に係る受光素子のレイアウト例を示す平面図であり、図22は、図21に示す受光素子のサイズの一例を示す平面図である。
 図21に示すように、本実施形態に係る画素アレイ部101は、第2の実施形態と同様に、複数の受光素子331が2次元格子状に配列した構成を備える。
 ただし、本実施形態では、列方向及び行方向に2つずつ配列する4つの受光素子331を1つのグループとし、その4つの受光素子331の角部が集合する中央部分と、4つの受光素子331が構成する矩形領域の4つの角部分とのそれぞれに、MIX21が設けられている。言い換えれば、各MIX21は、各受光素子31において1組の対角に位置するように配置されている。なお、4つの受光素子331が構成する矩形領域の4つの角部分それぞれに設けられたMIX21は、これを中央部分とする4つの受光素子331で共有される。
 各MIX21は、これを共有する4つの受光素子31それぞれに設けられたDET22A又は22Bとともに、信号取出部30A又は30Bを構成する。したがって、本実施形態に係るPN半導体領域330は、2つの信号取出部30Aと2つの信号取出部30Bとを含む。
 各受光素子31におけるDET22A及び22Bの位置は、第2の実施形態と同様の位置、例えば、各受光素子331の列方向の境界部分における中央寄りの位置であってよい。
 ここで、例えば、第2の実施形態に係る受光素子231と同様に、信号取出部30A及び30BにおけるMIX21の中心間の距離をaとし、各受光素子331の形成領域を正方形とすると、図22に示すように、各受光素子331は、列方向の長さ及び行方向の長さそれぞれをa/√2とした正方形の領域とすることができる。すなわち、本実施形態のように、2行2列に配列する4つの受光素子31で1つのMIX21を共有する構成とすることで、受光素子331の画素ピッチを第2の実施形態における画素ピッチaの1/√2とすることが可能となる。それにより、列方向及び行方向における受光素子331の集積度を上げることが可能となるため、列方向及び行方向の解像度を高めることが可能となる。また、第2の実施形態に係る受光素子31の平面領域を正方形とした場合、行方向の解像度も√2倍とすることが可能である。
 3.2 画素分離部の平面レイアウト例
 つぎに、本実施形態に係る画素分離部346の平面レイアウト例について、幾つか例を挙げて説明する。
 3.2.1 第1例
 図23は、第1例に係る画素分離部の平面レイアウト例を示す図であって、本実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。図24は、図23におけるE-E面の断面構造例を示す断面図である。
 図23に示すように、第1例では、例えば、第2の実施形態の第2例に係る画素分離部246aと同様に、受光素子331の境界部分BV及びBHにそって、格子状の画素分離部346が設けられている。
 その場合、受光素子331の中央付近を列方向に沿って切断する面には、図24に示すように、例えば、受光素子331の行方向の境界部分BHの近傍に位置するDET22A及び22Bと、半導体基板40の裏面(図中、上面)から表面側(図中、下面側)へ向けて突出するRDTI型の画素分離部346とが現れる。なお、受光素子331の中央付近を列方向に沿って切断する面の断面構造は、例えば、第2の実施形態の第1例において図17を用いて説明した断面構造と同様であってよい。
 画素分離部346は、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、格子状の画素分離部346は、同じく格子状の遮光膜44で覆われている。
 なお、半導体基板40の裏面から表面側へ向けて突出するRDTI型の画素分離部346に代えて、半導体基板40の表面から裏面側へ向けて突出するDTI型の画素分離部(図11参照)や、半導体基板40の表裏面を貫通するFFTI型の画素分離部(図12参照)など、種々変形されてよい。ただし、FFTI型とする場合には、後述する第2例のように、PN半導体領域330と交差(重複)する部分を分断してもよいし、PN半導体領域330と重複する部分をRDTI型としてもよい。
 以上のように、各受光素子331を格子状の画素分離部346で囲むことで、行方向のみならず、列方向への反射光L11の漏れ込みを低減することが可能となる。それにより、受光素子331間を光学的に分離する画素分離特性がより向上するため、測距精度の低下をさらに抑制することが可能となる。
 3.2.2 第2例
 図25は、第2例に係る画素分離部の平面レイアウト例を示す図であって、本実施形態に係る半導体基板を光の入射面と垂直な方向から見た場合の受光素子と画素分離部との位置関係を示す上視図である。
 図25に示すように、第2例に係る画素分離部346aは、例えば、第1例に係る画素分離部346と同様の構成において、MIX21と重複する交差部分が分断された形状を備える。
 その場合、受光素子331の中央付近を列方向に沿って切断する面には、例えば、第1例において図24を用いて説明したように、受光素子331の行方向の境界部分BHの近傍に位置するDET22A及び22Bと、半導体基板40の裏面(図中、上面)から表面側(図中、下面側)へ向けて突出するRDTI型の画素分離部346aとが現れる。なお、受光素子331の中央付近を列方向に沿って切断する面の断面構造は、例えば、第2の実施形態の第1例において図17を用いて説明した断面構造と同様であってよい。
 画素分離部346aは、半導体基板40の裏面を挟んで遮光膜44と対応する位置に設けられる。すなわち、半導体基板40を光の入射面と垂直な方向から見た場合に、画素分離部246bは、格子状の遮光膜44で覆われている。
 なお、半導体基板40の裏面から表面側へ向けて突出するRDTI型の画素分離部346aに代えて、半導体基板40の表面から裏面側へ向けて突出するDTI型の画素分離部(図11参照)や、半導体基板40の表裏面を貫通するFFTI型の画素分離部(図12参照)など、種々変形されてよい。
 以上のように、各受光素子331を格子状の画素分離部346aで囲む際に、MIX21と対応する領域を分断することで、受光素子331内において2つのMIX21が形成する電界に対して画素分離部346aが与える影響を低減することが可能となるため、DET22A又は22Bに効率的に電荷を収集することが可能となり、それにより、量子効率の低下を抑制することが可能となる。
 3.3 作用・効果
 以上のように、本実施形態によれば、1つのMIX21を上下左右に隣接する4つの受光素子331で共有し、MIX21を各受光素子331の対角に位置させるため、MIX21の中心間の距離の1/√2倍を受光素子331の画素ピッチとすることが可能となる。それにより、列方向及び行方向における受光素子331の集積度を上げることが可能となるため、解像度の低下を抑制しつつ測距精度を上げること、又は、測距精度の定価を抑制しつつ解像度を上げることが可能となる。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 4.第4の実施形態
 第3の実施形態では、各受光素子331におけるDET22A及び22Bの位置を、例えば、各受光素子331の列方向の境界部分における中央寄りの位置とした場合(図21参照)を例示したが、各受光素子331におけるDET22A及び22Bの位置は、種々変更することが可能である。
 例えば、図26に例示するように、各受光素子431におけるDET22A及び22Bを、MIX21が設けられた角部に寄せて配置することで、読出し電圧VmixA又はVmixBが印加されたMIX21へ向けて移動する電荷をDET22A又は22Bに効率的に取り込むことが可能となるため、実質的な量子効率を向上して画素間のコントラストを高めることが可能となる。なお、本実施形態において、PN半導体領域430は、第3の実施形態に係るPN半導体領域330と同様に、2つの信号取出部30Aと2つの信号取出部30Bとを含む。
 また、第4の実施形態に係る受光素子431間を光学的に分離する画素分離部は、例えば、図27に例示するような、第3の実施形態の第1例に係る画素分離部346と同様の構成を備える画素分離部446や、図28に例示するような、第3の実施形態の第2例に係る画素分離部346と同様の構成を備える画素分離部446aとすることが可能である。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 5.第5の実施形態
 つぎに、第5の実施形態について、以下に図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それらを引用することで、重複する説明を省略する。
 本実施形態では、上述した実施形態において、DET22/22A又は22Bへの電荷の流れ込みを抑制し、それにより、読出し時に流れる電流量を抑えて消費電力を低減する場合について説明する。なお、以下の説明では、第1の実施形態とベースとした場合を例示するが、ベースとする実施形態は、第1の実施形態に限られず、他の実施形態であってもよい。
 図29に例示するように、例えば、信号取出部30AのMIX21に信号取出用のプラスの読出し電圧VmixAが印加され、信号取出部30Bにゼロ又はマイナスの読出し電圧VmixBが印加されている場合、半導体基板40に入射した光が光電変換されることで発生した電子(電子)は、受光素子31内に形成された電界に導かれて信号取出部30Aへ向けて移動し、そして、信号取出部30AのDET22に流入する。
 その際、受光素子31全体に強い電界を形成して量子効率を高めるためには、高い読出し電圧VmixA又はVmixBを印加する必要があるが、その場合、信号取出部30A又は30B付近で光電変換が起こると、信号取出部30A又は30Bの近傍に大量の電荷が発生し、それにより、過大な電流が流れて消費電力が増加してしまう場合が存在する。
 そこで本実施形態では、信号取出部30A又は30Bの近傍に発生した電荷の流れを阻害することで、過大な電流の発生を抑制し、以て、消費電力が増加することを低減する。
 5.1 受光素子の構成例
 図30は、本実施形態に係る受光素子のレイアウト例を示す平面図である。図31は、図30におけるF-F面の断面構造例を示す断面図である。
 図30及び図31に示すように、本実施形態に係る受光素子531では、例えば、第1の実施形態に係る受光素子31と同様の構成において、2つの信号取出部30A及び30Bの間に、阻害領域501が設けられている。
 阻害領域501は、例えば、酸化シリコン(SiO)、窒化シリコン(SiN)、ポリシリコン(poly-Si)等の絶縁材料、タングステン(W)等の特定波長の光を反射する反射材料、又は、特定波長の光を吸収する吸収材料、高屈折率材料など、半導体基板40とは異なる誘電率を備える材料を用いて形成された構造物であってよい。ただし、これに限定されず、半導体基板40のp型のウエルにおける一部の領域にn型のドーパントをカウンタドープすることで高抵抗化された領域など、種々変形することも可能である。また、阻害領域501として、タングステン(W)などの導電材料を用いる場合には、阻害領域501と半導体基板40とを電気的に分離するために、阻害領域501の周囲に絶縁膜が設けられてもよい。
 このような阻害領域501は、例えば、半導体基板40の表面(図中、下面)から裏面側(図中、上面側)へ向けて突出した四角柱状の領域であり、その高さ(半導体基板40の表面からの深さ)は、例えば、2つの信号取出部30A及び30BにおけるMIX21よりも高く、また、その行方向の幅は、例えば、2つの信号取出部30A及び30BにおけるMIX21よりも広い。ただし、このような形状及び寸法に限定されず、少なくとも信号取出部30A及び30B間に形成される電界の強度が高い領域に阻害領域501が位置すればよい。
 5.2 作用・効果
 以上のように、信号取出部30A及び30B間に、半導体基板40とは誘電率が異なる阻害領域501を設けることで、2つのMIX21によって受光素子531内に形成される電界の電位分布が変化する。それにより、電界の強い領域で発生した電荷の移動が阻害されて、その移動距離を長くすることが可能となるため、過大な電流の発生を抑制し、消費電力の増加を低減することが可能となる。
 また、阻害領域501に、例えば、タングステン(W)などの反射材料や高屈折率材料を用いた場合には、阻害領域501で反射した入射光L10も光電変換の対象となるため、受光素子531の量子効率を高めることも可能となる。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 5.3 阻害領域の変形例
 また、本実施形態では、阻害領域501の形状を四角柱状とした場合を例示したが、阻害領域501の形状はこれに限定されない。そこで以下に、阻害領域の変形例について、幾つか例を挙げる。
 5.3.1 第1の変形例
 図32は、第1の変形例に係る阻害領域の構成例を示す平面図である。図32に示すように、阻害領域502は、例えば、半導体基板40の表面と平行な断面の形状が円形である円柱形状の領域であってもよい。ただし、円柱形状に限らず、楕円柱形状等とすることも可能である。
 5.3.2 第2の変形例
 図33は、第2の変形例に係る阻害領域の構成例を示す平面図である。図33に示すように、阻害領域503は、例えば、半導体基板40の表面と平行な断面の形状が六角形などの多角形である多角柱状の領域であってもよい。
 5.3.3 第3の変形例
 図34は、第3の変形例に係る阻害領域の構成例を示す平面図である。図34に示すように、阻害領域504は、例えば、半導体基板40の表面と垂直な断面の形状が三角形となる錐形状の領域であってもよい。その際、半導体基板40の表面と平行な断面の形状は、上述したような、円形(楕円形を含む)や多角形であってよい。また、錐形状に限定されず、錐台形状とすることも可能である。
 5.3.4 第4の変形例
 図35は、第4の変形例に係る阻害領域の構成例を示す平面図である。図35に示すように、阻害領域505における上部は、曲率を持ったドーム形状を有していてもよい。なお、上部以外の形状は、柱形状や錐台形状など種々変形することが可能である。また、半導体基板40の表面と平行な断面の形状は、上述したような、円形(楕円形を含む)や多角形であってよい。
 このように、阻害領域505の上部に曲率を持たせることで、この上部に入射した光を受光素子531の広範囲に反射させることが可能となるため、受光素子531の量子効率を高めることが可能となる。
 5.3.5 第5の変形例
 図36は、第5の変形例に係る阻害領域の構成例を示す平面図である。図36に示すように、阻害領域506における上面は、粗化されていてもよい。なお、上面以外の形状は、柱形状や錐台形状など種々変形することが可能である。また、半導体基板40の表面と平行な断面の形状は、上述したような、円形(楕円形を含む)や多角形であってよい。
 このように、阻害領域505の上面を粗くすることで、この上面に入射した光を受光素子531の広範囲に向けて乱反射することが可能となるため、受光素子531の量子効率を高めることが可能となる。
 6.第6の実施形態
 つぎに、第6の実施形態について、以下に図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それらを引用することで、重複する説明を省略する。
 上述した第5の実施形態では、2つの信号取出部30A及び30Bの間に阻害領域501等を配置した場合を例示したが、阻害領域の配置箇所は、これに限定されるものではない。そこで本実施形態では、阻害領域が配置される領域及びその形状について、幾つか例を挙げて説明する。
 6.1 第1例
 図37は、第1例に係る阻害領域の構成例を示す平面図である。図37に示すように、阻害領域601は、例えば、2つの信号取出部30A及び30Bの間に加え、受光素子631の全体に渡って、半導体基板40の表面から裏面側へ向けて突出するように設けられていてもよい。すなわち、阻害領域601は、各受光素子631における2つの信号取出部30A及び30Bの間の領域以外にも設けられている。各阻害領域601は、例えば、第5の実施形態に係る阻害領域501やその変形例と同様であってもよい。
 6.2 第2例
 図38は、第2例に係る阻害領域の構成例を示す平面図である。図38に示すように、阻害領域602は、例えば、2つの信号取出部30A及び30Bが存在する領域以外の受光素子631の全体に渡って、行方向に延在する複数行の領域であってもよい。
 6.3 第3例
 図39は、第3例に係る阻害領域の構成例を示す平面図である。図39に示すように、阻害領域603は、例えば、2つの信号取出部30A及び30Bが存在する領域以外の受光素子631の全体に渡って、列方向に延在する複数列の領域であってもよい。
 6.4 第4例
 図40は、第4例に係る阻害領域の構成例を示す平面図である。図40に示すように、阻害領域604は、例えば、2つの信号取出部30A及び30Bが存在する領域以外の受光素子631の全体に渡って、微小な凸状領域が規則的又はランダムに配置された領域であってもよい。なお、規則的な配列には、例えば、正方配列や六方細密配列等が含まれ得る。また、ランダムとは、凸状領域間の距離に2種類以上の複数の距離が含まれていることであってよい。
 6.5 作用・効果
 以上のように、受光素子631の全体に渡って阻害領域601~604を設けることで、強い電界が形成される領域であって、光電変換が発生し易い半導体基板40の表面近傍の領域において、電荷の移動を阻害することが可能となるため、過大な電流の発生を抑制し、消費電力の増加を低減することが可能となる。
 なお、以上の第1~第4例において、2つの信号取出部30A及び30Bの間に位置する阻害領域601、602、603又は604に、反射材料や高屈折率材料など、入射光L10を反射する材料を用いることで、阻害領域601、602、603又は604で反射した入射光L10も光電変換の対象とすることが可能となるため、受光素子631の量子効率を高めることも可能となる。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 7.第7の実施形態
 また、上述した実施形態において、例えば、図41に例示するように、半導体基板40における光の入射面に、円錐状や四角錐状等の溝701を設けることで、半導体基板40の光入射面をモスアイ構造とすることも可能である。
 このように、半導体基板40における光の入射面をモスアイ構造とすることで、光の入射面における反射率を低減してより多くの光を受光素子731中に入射させることが可能となるため、実質的な量子効率を向上して画素間のコントラストを高めることが可能となる。
 なお、溝701の形状は、円錐や四角錐に限られず、楕円錐や三角錐などの多角錐など、種々変形することが可能である。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 8.応用例
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図42は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図42に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図42では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図43は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図43には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図42に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図42の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図42に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、図1を用いて説明した本実施形態に係るToFセンサ1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、図1を用いて説明した本実施形態に係るToFセンサ1は、図42に示した応用例の統合制御ユニット7600に適用することができる。例えば、ToFセンサ1の制御部11、演算部15及び外部I/F19は、統合制御ユニット7600のマイクロコンピュータ7610、記憶部7690、車載ネットワークI/F7680に相当する。ただし、これに限定されず、車両制御システム7000が図1におけるホスト80に相当してもよい。
 また、図1を用いて説明した本実施形態に係るToFセンサ1の少なくとも一部の構成要素は、図42に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1を用いて説明した本実施形態に係るToFセンサ1が、図42に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 半導体基板と、
 前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部と、
 を備え、
 前記画素領域それぞれは、
  前記半導体基板中における第1面側に配置された第1半導体領域と、
  前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、
  前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域と、
 を備える受光素子。
(2)
 前記第1阻害領域の前記第1面からの高さは、前記第1及び第2半導体領域の前記第1面からの高さよりも高い前記(1)に記載の受光素子。
(3)
 前記第1阻害領域の前記第1面と平行な断面は、円形、楕円形又は多角形である前記(1)又は(2)に記載の受光素子。
(4)
 前記第1阻害領域は、柱形状、錐形状又は錐台形状である前記(1)~(3)の何れか1項に記載の受光素子。
(5)
 前記第1阻害領域における前記第1面と反対側の上部は、曲率を備える前記(1)~(4)の何れか1項に記載の受光素子。
(6)
 前記第1阻害領域における前記第1面と反対側の上面は、粗化されている前記(1)~(5)の何れか1項に記載の受光素子。
(7)
 前記第1阻害領域の材料は、絶縁材料、特定波長の光を反射又は吸収する材料及び高屈折率材料のうちの少なくとも1つを含む前記(1)~(6)の何れか1項に記載の受光素子。
(8)
 前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間の領域以外に配置された1つ以上の第2阻害領域をさらに備える前記(1)~(7)の何れか1項に記載の受光素子。
(9)
 前記第1及び第2阻害領域は、行方向に延在する複数行の領域、又は、列方向に延在する複数列の領域である前記(8)に記載の受光素子。
(10)
 前記第1及び第2阻害領域は、複数の凸状領域が規則的又はランダムに配列する領域である前記(8)に記載の受光素子。
(11)
 前記第1阻害領域の材料は、反射材料又は高屈折率材料である前記(8)~(10)の何れか1項に記載の受光素子。
(12)
 前記第2阻害領域の材料は、絶縁材料、特定波長の光を反射又は吸収する材料及び高屈折率材料のうちの少なくとも1つを含む前記(8)~(11)の何れか1項に記載の受光素子。
(13)
 前記画素分離部は、前記半導体基板における前記第1面と反対側の第2面から前記第1面へ向けて突出するか、又は、前記半導体基板の前記第1面から前記第2面へ向けて突出する前記(1)~(12)の何れか1項に記載の受光素子。
(14)
 前記画素分離部は、前記半導体基板の前記第1面から当該第1面と反対側の第2面まで貫通する前記(1)~(12)の何れか1項に記載の受光素子。
(15)
 前記第1及び第2半導体領域それぞれは、前記画素領域の境界部分に位置する第3半導体領域と、前記境界部分を挟んで前記第3半導体領域に隣接する2つの第4半導体領域とを含み、
 前記第3半導体領域は、前記境界部分を形成する2つの前記画素領域で共有される
 前記(1)~(14)の何れか1項に記載の受光素子。
(16)
 前記画素分離部は、前記第1及び第2半導体領域それぞれと交差する部分で分断されている前記(15)に記載の受光素子。
(17)
 前記第1及び第2半導体領域それぞれは、4つの前記画素領域の角部が集中する部分に位置する第3半導体領域と、前記4つの画素領域のうちの隣接する2つの画素領域が形成する境界部分を挟む2つの領域それぞれに位置する第4半導体領域とを含み、
 前記第3半導体領域は、前記2つの画素領域で共有される
 前記(1)~(14)の何れか1項に記載の受光素子。
(18)
 前記画素分離部は、前記4つの画素領域の前記角部が集中する前記部分で分断されている前記(17)に記載の受光素子。
(19)
 半導体基板と、
 前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部と、
 を備え、
 前記画素領域それぞれは、
  前記半導体基板中における第1面側に配置された第1半導体領域と、
  前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、
  前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域と、
 を備え、
 前記第1半導体領域に接続された第1読出し回路と、
 前記第2半導体領域に接続された第2読出し回路と、
 をさらに備える固体撮像装置。
(20)
 所定波長の光を出射する発光部と、
 受光した光から画素信号を生成する固体撮像装置と、
 前記固体撮像装置で生成された画素信号に基づいて物体までの距離を算出する演算部と、
 を備え、
 前記固体撮像装置は、
  半導体基板と、
  前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部と、
 を備え、
 前記画素領域それぞれは、
  前記半導体基板中における第1面側に配置された第1半導体領域と、
  前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、
  前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域と、
 を備え、
 前記固体撮像装置は、
  前記第1半導体領域に接続された第1読出し回路と、
  前記第2半導体領域に接続された第2読出し回路と、
 をさらに備える測距装置。
 1 ToFセンサ
 11 制御部
 13 発光部
 14 受光部
 15 演算部
 19 外部I/F
 20 単位画素
 20A、20B 読出し回路
 21 p+半導体領域(MIX)
 22、22A、22B n+半導体領域(DET)
 23 リセットトランジスタ
 24 転送トランジスタ
 26 FD
 27 増幅トランジスタ
 28 選択トランジスタ
 29A、29B 定電流回路
 30A、30B 信号取出部
 31、231、331、431、531、631、731 受光素子
 40 半導体基板
 41 絶縁膜
 42 反射防止膜
 43 平坦化膜
 44 遮光膜
 45 オンチップレンズ
 46、46a、46b、246、246a、246b、346、346a、446、446a 画素分離部
 50 貼合せチップ
 51 受光チップ
 52 回路チップ
 80 ホスト
 90 物体
 100 固体撮像装置
 101 画素アレイ部
 102 システム制御部
 103 垂直駆動回路
 104 カラム処理回路
 105 水平駆動回路
 106 信号処理部
 107 データ格納部
 230、330、430 PN半導体領域
 501、502、503、504、505、506、601、602、603、604 阻害領域
 701 溝
 BH、BV 境界部分
 L1 レーザ光
 L2、L11 反射光
 L10 入射光
 LD 画素駆動線
 VSL、VSL0、VSL1 垂直信号線

Claims (20)

  1.  半導体基板と、
     前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部と、
     を備え、
     前記画素領域それぞれは、
      前記半導体基板中における第1面側に配置された第1半導体領域と、
      前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、
      前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域と、
     を備える受光素子。
  2.  前記第1阻害領域の前記第1面からの高さは、前記第1及び第2半導体領域の前記第1面からの高さよりも高い請求項1に記載の受光素子。
  3.  前記第1阻害領域の前記第1面と平行な断面は、円形、楕円形又は多角形である請求項1に記載の受光素子。
  4.  前記第1阻害領域は、柱形状、錐形状又は錐台形状である請求項1に記載の受光素子。
  5.  前記第1阻害領域における前記第1面と反対側の上部は、曲率を備える請求項1に記載の受光素子。
  6.  前記第1阻害領域における前記第1面と反対側の上面は、粗化されている請求項1に記載の受光素子。
  7.  前記第1阻害領域の材料は、絶縁材料、特定波長の光を反射又は吸収する材料及び高屈折率材料のうちの少なくとも1つを含む請求項1に記載の受光素子。
  8.  前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間の領域以外に配置された1つ以上の第2阻害領域をさらに備える請求項1に記載の受光素子。
  9.  前記第1及び第2阻害領域は、行方向に延在する複数行の領域、又は、列方向に延在する複数列の領域である請求項8に記載の受光素子。
  10.  前記第1及び第2阻害領域は、複数の凸状領域が規則的又はランダムに配列する領域である請求項8に記載の受光素子。
  11.  前記第1阻害領域の材料は、反射材料又は高屈折率材料である請求項8に記載の受光素子。
  12.  前記第2阻害領域の材料は、絶縁材料、特定波長の光を反射又は吸収する材料及び高屈折率材料のうちの少なくとも1つを含む請求項8に記載の受光素子。
  13.  前記画素分離部は、前記半導体基板における前記第1面と反対側の第2面から前記第1面へ向けて突出するか、又は、前記半導体基板の前記第1面から前記第2面へ向けて突出する請求項1に記載の受光素子。
  14.  前記画素分離部は、前記半導体基板の前記第1面から当該第1面と反対側の第2面まで貫通する請求項1に記載の受光素子。
  15.  前記第1及び第2半導体領域それぞれは、前記画素領域の境界部分に位置する第3半導体領域と、前記境界部分を挟んで前記第3半導体領域に隣接する2つの第4半導体領域とを含み、
     前記第3半導体領域は、前記境界部分を形成する2つの前記画素領域で共有される
     請求項1に記載の受光素子。
  16.  前記画素分離部は、前記第1及び第2半導体領域それぞれと交差する部分で分断されている請求項15に記載の受光素子。
  17.  前記第1及び第2半導体領域それぞれは、4つの前記画素領域の角部が集中する部分に位置する第3半導体領域と、前記4つの画素領域のうちの隣接する2つの画素領域が形成する境界部分を挟む2つの領域それぞれに位置する第4半導体領域とを含み、
     前記第3半導体領域は、前記2つの画素領域で共有される
     請求項1に記載の受光素子。
  18.  前記画素分離部は、前記4つの画素領域の前記角部が集中する前記部分で分断されている請求項17に記載の受光素子。
  19.  半導体基板と、
     前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部と、
     を備え、
     前記画素領域それぞれは、
      前記半導体基板中における第1面側に配置された第1半導体領域と、
      前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、
      前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域と、
     を備え、
     前記第1半導体領域に接続された第1読出し回路と、
     前記第2半導体領域に接続された第2読出し回路と、
     をさらに備える固体撮像装置。
  20.  所定波長の光を出射する発光部と、
     受光した光から画素信号を生成する固体撮像装置と、
     前記固体撮像装置で生成された画素信号に基づいて物体までの距離を算出する演算部と、
     を備え、
     前記固体撮像装置は、
      半導体基板と、
      前記半導体基板を行列状に配列する複数の画素領域に区画する格子状の画素分離部と、
     を備え、
     前記画素領域それぞれは、
      前記半導体基板中における第1面側に配置された第1半導体領域と、
      前記半導体基板中における前記第1面側に、前記第1半導体領域から離間して配置された第2半導体領域と、
      前記半導体基板中における前記第1面側であって、前記第1半導体領域と前記第2半導体領域との間に配置され、前記半導体基板とは異なる誘電率を備える第1阻害領域と、
     を備え、
     前記固体撮像装置は、
      前記第1半導体領域に接続された第1読出し回路と、
      前記第2半導体領域に接続された第2読出し回路と、
     をさらに備える測距装置。
PCT/JP2020/000355 2019-02-01 2020-01-08 受光素子、固体撮像装置及び測距装置 WO2020158322A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP20748697.8A EP3920242A4 (en) 2019-02-01 2020-01-08 LIGHT RECEIPT ELEMENT, SOLID STATE IMAGING DEVICE AND RANGE MEASURING DEVICE
JP2020569471A JP7420750B2 (ja) 2019-02-01 2020-01-08 受光素子、固体撮像装置及び測距装置
KR1020217021380A KR20210122775A (ko) 2019-02-01 2020-01-08 수광 소자, 고체 촬상 장치 및 거리 측정 장치
CN202080007364.6A CN113228306A (zh) 2019-02-01 2020-01-08 光接收元件、固态成像装置和测距装置
US17/421,472 US20220068983A1 (en) 2019-02-01 2020-01-08 Light-receiving element, solid-state imaging device, and distance measurement device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019017235 2019-02-01
JP2019-017235 2019-02-01

Publications (1)

Publication Number Publication Date
WO2020158322A1 true WO2020158322A1 (ja) 2020-08-06

Family

ID=71842105

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000355 WO2020158322A1 (ja) 2019-02-01 2020-01-08 受光素子、固体撮像装置及び測距装置

Country Status (6)

Country Link
US (1) US20220068983A1 (ja)
EP (1) EP3920242A4 (ja)
JP (1) JP7420750B2 (ja)
KR (1) KR20210122775A (ja)
CN (1) CN113228306A (ja)
WO (1) WO2020158322A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114598787A (zh) * 2020-11-19 2022-06-07 爱思开海力士有限公司 图像感测装置
WO2023097175A1 (en) * 2021-11-24 2023-06-01 Aurora Operations, Inc. Silicon photonics device for lidar sensor and method for fabrication
US11835765B2 (en) 2021-11-24 2023-12-05 Aurora Operations, Inc. Silicon photonics device for LIDAR sensor and method for fabrication
US11906661B2 (en) 2021-11-24 2024-02-20 Aurora Operations, Inc. Silicon photonics device for LIDAR sensor and method for fabrication

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW202101746A (zh) * 2019-02-01 2021-01-01 日商索尼半導體解決方案公司 受光元件、固體攝像裝置及測距裝置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086904A (ja) 2009-10-14 2011-04-28 Optrima Nv フォトニックミキサ、その使用およびシステム
JP2014123714A (ja) * 2012-11-20 2014-07-03 Canon Inc 固体撮像素子及びそれを用いた距離検出装置
JP2017183661A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 光電変換装置およびカメラ
JP2018117117A (ja) * 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置
US20190019821A1 (en) * 2016-01-15 2019-01-17 Sony Depthsensing Solutions Sa/Nv Detector device with majority current and isolation means

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013145433A1 (ja) * 2012-03-30 2013-10-03 富士フイルム株式会社 撮像素子及び撮像装置
JP6231741B2 (ja) * 2012-12-10 2017-11-15 キヤノン株式会社 固体撮像装置およびその製造方法
KR102034482B1 (ko) * 2013-03-04 2019-10-21 삼성전자주식회사 이미지 센서 및 이의 형성 방법
TWI785618B (zh) * 2016-01-27 2022-12-01 日商新力股份有限公司 固體攝像元件及電子機器
KR102531774B1 (ko) * 2017-01-19 2023-05-16 소니 세미컨덕터 솔루션즈 가부시키가이샤 거리측정 소자
WO2020037197A1 (en) * 2018-08-16 2020-02-20 Sense Photonics, Inc. Integrated lidar image-sensor devices and systems and related methods of operation
WO2020092471A1 (en) * 2018-10-30 2020-05-07 Sense Photonics, Inc. High quantum efficiency geiger-mode avalanche diodes including high sensitivity photon mixing structures and arrays thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011086904A (ja) 2009-10-14 2011-04-28 Optrima Nv フォトニックミキサ、その使用およびシステム
JP2014123714A (ja) * 2012-11-20 2014-07-03 Canon Inc 固体撮像素子及びそれを用いた距離検出装置
US20190019821A1 (en) * 2016-01-15 2019-01-17 Sony Depthsensing Solutions Sa/Nv Detector device with majority current and isolation means
JP2017183661A (ja) * 2016-03-31 2017-10-05 キヤノン株式会社 光電変換装置およびカメラ
JP2018117117A (ja) * 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3920242A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114598787A (zh) * 2020-11-19 2022-06-07 爱思开海力士有限公司 图像感测装置
WO2023097175A1 (en) * 2021-11-24 2023-06-01 Aurora Operations, Inc. Silicon photonics device for lidar sensor and method for fabrication
US11835765B2 (en) 2021-11-24 2023-12-05 Aurora Operations, Inc. Silicon photonics device for LIDAR sensor and method for fabrication
US11906661B2 (en) 2021-11-24 2024-02-20 Aurora Operations, Inc. Silicon photonics device for LIDAR sensor and method for fabrication

Also Published As

Publication number Publication date
TW202032773A (zh) 2020-09-01
KR20210122775A (ko) 2021-10-12
US20220068983A1 (en) 2022-03-03
JPWO2020158322A1 (ja) 2021-12-02
JP7420750B2 (ja) 2024-01-23
EP3920242A1 (en) 2021-12-08
EP3920242A4 (en) 2022-04-13
CN113228306A (zh) 2021-08-06

Similar Documents

Publication Publication Date Title
WO2020158322A1 (ja) 受光素子、固体撮像装置及び測距装置
WO2020170841A1 (ja) アバランシェフォトダイオードセンサ及び測距装置
KR20230168283A (ko) 고체 촬상 소자, 고체 촬상 소자의 제조 방법 및 전자 기기
WO2020153123A1 (ja) 撮像装置及び電子機器
CN116547820A (zh) 光接收装置和距离测量设备
KR20230098578A (ko) 촬상 소자 및 촬상 장치
WO2020158321A1 (ja) 受光素子、固体撮像装置及び測距装置
TWI842804B (zh) 受光元件、固體攝像裝置及測距裝置
WO2023162651A1 (ja) 受光素子、および電子機器
WO2023067755A1 (ja) 光検出装置、撮像装置および測距装置
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2023229018A1 (ja) 光検出装置
WO2024038828A1 (ja) 光検出装置
WO2022054617A1 (ja) 固体撮像装置及び電子機器
WO2023067844A1 (ja) 光検出素子、及び光検出装置
WO2022196459A1 (ja) 光電変換素子及び撮像装置
WO2023248346A1 (ja) 撮像装置
JP2023182874A (ja) 固体撮像装置
JP2023066297A (ja) 光検出装置および測距システム
JP2022107201A (ja) 撮像装置および電子機器
JP2022142865A (ja) 固体撮像装置および電子機器

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20748697

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569471

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020748697

Country of ref document: EP

Effective date: 20210901