WO2020158321A1 - 受光素子、固体撮像装置及び測距装置 - Google Patents

受光素子、固体撮像装置及び測距装置 Download PDF

Info

Publication number
WO2020158321A1
WO2020158321A1 PCT/JP2020/000354 JP2020000354W WO2020158321A1 WO 2020158321 A1 WO2020158321 A1 WO 2020158321A1 JP 2020000354 W JP2020000354 W JP 2020000354W WO 2020158321 A1 WO2020158321 A1 WO 2020158321A1
Authority
WO
WIPO (PCT)
Prior art keywords
semiconductor
light
semiconductor substrate
light receiving
receiving elements
Prior art date
Application number
PCT/JP2020/000354
Other languages
English (en)
French (fr)
Inventor
山崎 武
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to US17/425,407 priority Critical patent/US20220093669A1/en
Priority to JP2020569470A priority patent/JP7426347B2/ja
Priority to EP20749068.1A priority patent/EP3920243A4/en
Publication of WO2020158321A1 publication Critical patent/WO2020158321A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • H01L27/14623Optical shielding
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14603Special geometry or disposition of pixel-elements, address-lines or gate-electrodes
    • H01L27/14607Geometry of the photosensitive area
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1462Coatings
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14627Microlenses
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14625Optical elements or arrangements associated with the device
    • H01L27/14629Reflectors
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1463Pixel isolation structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14636Interconnect structures
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/1464Back illuminated imager structures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates

Definitions

  • the present disclosure relates to a light receiving element, a solid-state imaging device, and a distance measuring device.
  • distance measuring sensors using the indirect ToF (Time of Flight) method are known.
  • a distance to an object is measured based on a signal charge obtained by emitting light from a light source at a certain phase and receiving the reflected light.
  • Patent Document 1 discloses a technique in which a wide area in the substrate can be modulated at high speed by directly applying a voltage to the substrate of the sensor to generate a current in the substrate. There is.
  • Such a sensor is also called a CAPD (Current Assisted Photonic Demodulator) type indirect ToF sensor.
  • the pixel size is increased in order to improve the distance measurement accuracy, but this causes an increase in the angle of view, resulting in a problem that the resolution is reduced. ..
  • the present disclosure proposes a light receiving element, a solid-state imaging device, and a distance measuring device capable of increasing the distance measuring accuracy while suppressing the deterioration of the resolution, or increasing the resolution while suppressing the fixed value of the distance measuring accuracy.
  • a light receiving element is a semiconductor substrate, and a lattice-shaped light-shielding film provided on the first surface of the semiconductor substrate and having openings arranged in a matrix.
  • a plurality of second semiconductor regions provided in adjacent regions sandwiching from a direction, and a wiring layer provided on the second surface of the semiconductor substrate and electrically connected to the first semiconductor region
  • One semiconductor region is located in a region corresponding to the light shielding film and the first surface of the semiconductor substrate, and the wiring layer corresponds to a region corresponding to the light shielding film and the first surface of the semiconductor substrate.
  • a main wiring extending in the column direction, and a region corresponding to the light-shielding film and the first surface of the semiconductor substrate, extending in the row direction, connecting the main wiring and each of the first semiconductor regions.
  • FIG. 3 is a block diagram showing a schematic configuration example of a solid-state imaging device as a light receiving unit according to the first embodiment.
  • 3 is a circuit diagram showing an example of an equivalent circuit of a unit pixel according to the first embodiment.
  • FIG. 9 is a plan view showing a layout example of a light receiving element according to a comparative example. It is a top view which shows an example of the size of the light receiving element shown in FIG.
  • FIG. 3 is a plan view showing a layout example of a light receiving element according to the first embodiment. It is a top view which shows an example of the size of the light receiving element shown in FIG.
  • FIG. 10 is a top view showing a positional relationship when the PN semiconductor region and the light shielding film in FIG. 9 are viewed from a direction perpendicular to a light incident surface on the semiconductor substrate. It is a figure for demonstrating incidence of the light to the light receiving element which concerns on 1st Embodiment. It is a figure which shows the planar layout example of the MIX wiring which concerns on a comparative example.
  • FIG. 3 is a diagram showing an example of a planar layout of MIX wiring according to the first embodiment.
  • FIG. 6 is a plan view showing a layout example of MIX wiring for realizing the first driving example according to the first embodiment. It is a figure for demonstrating the 2nd drive example which concerns on 1st Embodiment (the 1). It is a figure for demonstrating the 2nd drive example which concerns on 1st Embodiment (the 2). It is a figure for demonstrating the 2nd drive example which concerns on 1st Embodiment (the 2).
  • FIG. 6 is a plan view showing a layout example of MIX wiring for realizing the second driving example according to the first embodiment.
  • FIG. 5 is a plan view showing a simulation result of a potential formed in the semiconductor substrate of the light receiving element according to the first embodiment. It is a vertical cross-sectional view of the simulation result according to the first embodiment.
  • FIG. 6 is a diagram showing a contrast obtained for each operation frequency between the unit pixel according to the comparative example and the unit pixel according to the first embodiment.
  • FIG. 7 is a diagram showing a contrast obtained for each current value flowing in MIX between the unit pixel according to the comparative example and the unit pixel according to the first embodiment.
  • FIG. 9 is a plan view showing a layout example of a light receiving element according to the second embodiment.
  • FIG. 27 is a plan view showing an example of the size of the light receiving element shown in FIG. 26. It is a figure for demonstrating the drive example which concerns on 2nd Embodiment (the 1). It is a figure for demonstrating the drive example which concerns on 2nd Embodiment (the 2).
  • FIG. 9 is a plan view showing a layout example of a light receiving element according to a third embodiment. It is sectional drawing which shows the schematic structural example of the light receiving element which concerns on 4th Embodiment. It is a block diagram showing an example of a schematic structure of a vehicle control system. It is explanatory drawing which shows an example of the installation position of a vehicle exterior information detection part and an imaging part.
  • First Embodiment 1.1 Distance measuring device (ToF sensor) 1.2 Configuration example of solid-state imaging device 1.3 Circuit configuration example of unit pixel 1.4 Example of planar layout of light receiving element 1.4.1 Example of planar layout according to comparative example 1.4.2 In the first embodiment Example of such planar layout 1.5 Example of chip configuration 1.6 Example of sectional structure of unit pixel 1.7 Positional relationship between PN semiconductor region and light-shielding film 1.8 Example of read operation of unit pixel 1.9 Layout example of MIX wiring 1 9.1 MIX wiring according to comparative example 1.9.2 MIX wiring according to first embodiment 1.10 Driving example when reading pixel signal 1.10.1 First driving example 1.10.1.
  • a first embodiment will be described in detail below with reference to the drawings.
  • a light receiving element for example, a solid-state imaging device, and a distance measuring device that measure a distance to an object by the indirect ToF method will be described with examples.
  • the light receiving element, the solid-state imaging device, and the distance measuring device according to the present embodiment are mounted on a vehicle, for example, a vehicle-mounted system that measures a distance to an object outside the vehicle, or an object such as a user's hand.
  • the present invention can be applied to a gesture recognition system or the like that measures a distance and recognizes a user's gesture based on the measurement result.
  • the result of gesture recognition can also be used for, for example, the operation of the car navigation system.
  • FIG. 1 is a block diagram showing a schematic configuration example of a ToF sensor as a distance measuring device according to this embodiment.
  • the ToF sensor 1 includes a control unit 11, a light emitting unit 13, a light receiving unit 14, a calculation unit 15, and an external interface (I/F) 19.
  • I/F external interface
  • the control unit 11 is configured by an information processing device such as a CPU (Central Processing Unit) and controls each unit of the ToF sensor 1.
  • an information processing device such as a CPU (Central Processing Unit) and controls each unit of the ToF sensor 1.
  • the external I/F 19 is, for example, a wireless LAN (Local Area Network), a wired LAN, a CAN (Controller Area Network), a LIN (Local Interconnect Network), a communication network complying with any standard such as FlexRay (registered trademark). It may be a communication adapter for establishing communication with an external host 80 via.
  • a wireless LAN Local Area Network
  • a wired LAN a wired LAN
  • a CAN Controller Area Network
  • a LIN Local Interconnect Network
  • FlexRay registered trademark
  • the host 80 may be, for example, an ECU (Engine Control Unit) mounted in an automobile or the like when the ToF sensor 1 is mounted in the automobile or the like. If the ToF sensor 1 is mounted on an autonomous mobile robot such as a domestic pet robot, an autonomous mobile body such as a robot cleaner, an unmanned aerial vehicle, or a follow-up transport robot, the host 80 controls the autonomous mobile body. It may be a control device or the like.
  • ECU Engine Control Unit
  • the light emitting unit 13 includes, for example, one or a plurality of semiconductor laser diodes as a light source, and emits pulsed laser light L1 having a predetermined time width at a predetermined cycle (also referred to as a light emission cycle).
  • the light emitting unit 13 emits the laser light L1 toward at least an angle range equal to or larger than the angle of view of the light receiving unit 14. Further, the light emitting unit 13 emits the laser light L1 having a time width of 10 ns (nanoseconds) at a cycle of 100 MHz (megahertz), for example.
  • the laser light L1 emitted from the light emitting unit 13 is reflected by the object 90 when the object 90 is present within the distance measuring range, and enters the light receiving unit 14 as reflected light L2.
  • the light receiving unit 14 includes, for example, a plurality of pixels arranged in a two-dimensional lattice, the details of which will be described later, and the signal intensity detected by each pixel after the light emitting unit 13 emits light (hereinafter, also referred to as a pixel signal). Is output.
  • the calculation unit 15 generates a depth image within the angle of view of the light receiving unit 14 based on the pixel signal output from the light receiving unit 14. At that time, the calculation unit 15 may perform a predetermined process such as noise removal on the generated depth image.
  • the depth image generated by the calculation unit 15 can be output to the host 80 or the like via the external I/F 19, for example.
  • FIG. 2 is a block diagram showing a schematic configuration example of the solid-state imaging device as the light receiving unit according to the first embodiment.
  • the solid-state imaging device 100 shown in FIG. 2 is a back-illuminated CAPD indirect ToF sensor (hereinafter, simply referred to as a CAPD sensor), and is provided in the distance measuring device having a distance measuring function.
  • a CAPD sensor back-illuminated CAPD indirect ToF sensor
  • the solid-state imaging device 100 is configured to have a pixel array unit 101 and peripheral circuits.
  • Peripheral circuits may include, for example, a vertical drive circuit 103, a column processing circuit 104, a horizontal drive circuit 105, and a system control unit 102.
  • the solid-state imaging device 100 may further include a signal processing unit 106 and a data storage unit 107.
  • the signal processing unit 106 and the data storage unit 107 may be mounted on the same substrate as the solid-state imaging device 100, or may be disposed on a substrate different from the solid-state imaging device 100 in the distance measuring device. Good.
  • pixels (hereinafter, also referred to as unit pixels) 20 that generate electric charges according to the amount of received light and output a signal according to the electric charges are arranged in a row direction and a column direction, that is, in a two-dimensional lattice shape. It has an arrayed configuration. That is, the pixel array unit 101 includes a plurality of unit pixels 20 that photoelectrically convert incident light and output signals corresponding to the electric charges obtained as a result.
  • the row direction means the arrangement direction of the unit pixels 20 in the pixel row (horizontal direction in the drawing)
  • the column direction means the arrangement direction of the unit pixels 20 in the pixel column (longitudinal direction in the drawing).
  • a pixel drive line LD is arranged along the row direction for each pixel row in a matrix of pixel arrays, and two vertical signal lines VSL are arranged along the column direction for each pixel column. ing.
  • the pixel drive line LD transmits a drive signal for driving when reading a signal from the unit pixel 20.
  • the pixel drive line LD is shown as one line in FIG. 2, the number of lines is not limited to one.
  • one end of the pixel drive line LD is connected to the output end corresponding to each row of the vertical drive circuit 103.
  • the vertical drive circuit 103 is composed of a shift register, an address decoder, and the like, and drives each unit pixel 20 of the pixel array unit 101 simultaneously for all pixels or in row units. That is, the vertical drive circuit 103 constitutes a drive unit that controls the operation of each unit pixel 20 of the pixel array unit 101 together with the system control unit 102 that controls the vertical drive circuit 103.
  • a solid-state image sensor used for distance measurement by the indirect ToF method is often a pixel array that is long in the horizontal direction. Therefore, in such a case, as the control line of the element driven at high speed, the vertical signal line VSL or another control line long in the vertical direction may be used.
  • a plurality of unit pixels 20 arranged in the vertical direction are connected to, for example, the vertical signal line VSL and other control lines that are long in the vertical direction, and are connected via the vertical signal line VSL and other control lines.
  • the unit pixel 20 is driven by the driving unit provided separately from the vertical driving circuit 103, the horizontal driving circuit 105, or the like, that is, the solid-state imaging device 100 is driven.
  • the signal output from each unit pixel 20 in the pixel row according to the drive control by the vertical drive circuit 103 is input to the column processing circuit 104 through the vertical signal line VSL.
  • the column processing circuit 104 performs predetermined signal processing on the signal output from each unit pixel 20 through the vertical signal line VSL, and temporarily holds the pixel signal after the signal processing.
  • the column processing circuit 104 performs noise removal processing, AD (Analog to Digital) conversion processing, etc. as signal processing.
  • AD Analog to Digital
  • the horizontal drive circuit 105 includes a shift register, an address decoder, and the like, and sequentially selects unit circuits corresponding to the pixel columns of the column processing circuit 104. By the selective scanning by the horizontal drive circuit 105, the pixel signals that have been subjected to signal processing for each unit circuit in the column processing circuit 104 are sequentially output.
  • the system control unit 102 includes a timing generator that generates various timing signals, and based on the various timing signals generated by the timing generator, the vertical drive circuit 103, the column processing circuit 104, the horizontal drive circuit 105, and the like. Drive control.
  • the signal processing unit 106 has at least an arithmetic processing function, executes various signal processing such as arithmetic processing based on the pixel signal output from the column processing circuit 104, and obtains the distance information for each pixel calculated thereby. Output to the outside.
  • the data storage unit 107 temporarily stores the data necessary for the signal processing in the signal processing unit 106.
  • FIG. 3 is a circuit diagram showing an example of an equivalent circuit of the unit pixel according to the present embodiment.
  • a charge is applied to a p+ semiconductor region (hereinafter, referred to as MIX) 21 in one signal extraction unit 30A.
  • a read voltage (hereinafter, read voltage) VmixA is applied, and a read circuit 20A including a transfer transistor 24, an FD 26, a reset transistor 23, an amplification transistor 27, and a selection transistor 28 in an n+ semiconductor region (hereinafter, referred to as DET) 22. Is connected.
  • DET n+ semiconductor region
  • the read voltage VmixB is applied to the MIX 21 in the other signal extraction unit 30B, and the DET 22 includes the read circuit 20B including the transfer transistor 24, the FD 26, the reset transistor 23, the amplification transistor 27, and the selection transistor 28. Is connected.
  • the region defined by the two signal extraction units 30A and 30B on the semiconductor substrate 40 functions as a light receiving element of each unit pixel 20.
  • the vertical drive circuit 103 applies the read voltage VmixA to the MIX21 of the signal extraction unit 30A, and applies the read voltage VmixB to the MIX21 of the signal extraction unit 30B. For example, when extracting a signal (charge) from the signal extraction unit 30A, the vertical drive circuit 103 applies a read voltage VmixA of 1.5V (volt) to the MIX21 of the signal extraction unit 30A and 0V to the MIX21 of the signal extraction unit 30B. The read voltage VmixB is applied.
  • the vertical drive circuit 103 when extracting a signal (charge) from the signal extraction unit 30B, the vertical drive circuit 103 applies a read voltage VmixB of 1.5 V (volt) to the MIX21 of the signal extraction unit 30B and 0 V to the MIX21 of the signal extraction unit 30A.
  • the read voltage VmixA is applied.
  • the DET 22 in each of the signal extraction units 30A and 30B is a charge detection unit that detects and accumulates charges generated by photoelectrically converting light that has entered the semiconductor substrate 40.
  • the transfer transistor 24 is turned on in response to the drive signal TRG supplied to the gate from the vertical drive circuit 103 in the active state, and thus the transfer transistor 24 is stored in the corresponding DET 22. The stored charge is transferred to the FD 26.
  • the FD 26 has a charge-voltage conversion function of generating a voltage having a voltage value corresponding to the accumulated charge, and temporarily holds the charge transferred from the DET 22 to amplify the voltage having a voltage value corresponding to the charge amount. It is applied to the gate of 27.
  • the reset transistor 23 resets the potential of the FD 26 to a predetermined level (reset level VDD) by being turned on in response to the drive signal RST supplied to the gate from the vertical drive circuit 103 in the active state. ..
  • the transfer transistor 24 is also in the active state, so that it is possible to reset the charges accumulated in the DET 22 together.
  • the amplification transistor 27 has its source connected to the vertical signal line VSL0/VSL1 via the selection transistor 28, so that the amplification transistor 27 and the load MOS transistor of the constant current circuit 29A/29B connected to one end of the vertical signal line VSL0/VSL1. Configure a source follower circuit.
  • the selection transistor 28 is connected between the source of the amplification transistor 27 and the vertical signal lines VSL0/VSL1.
  • the selection transistor 28 becomes conductive in response to the selection signal SEL supplied to the gate from the vertical drive circuit 103 in the active state, and outputs the pixel signal output from the amplification transistor 27 to the vertical signal lines VSL0/VSL1. To do.
  • FIG. 4 is a plan view showing a layout example of the light receiving element according to the comparative example.
  • FIG. 5 is a plan view showing an example of the size of the light receiving element shown in FIG.
  • the pixel array section according to the comparative example has a configuration in which a plurality of light receiving elements 931 are arranged in a two-dimensional lattice shape.
  • two signal extraction units 930A and 930B In the vicinity of the center of each light receiving element 931 are provided, for example, two signal extraction units 930A and 930B that are spaced apart in the column direction.
  • Each of the signal extraction units 930A and 930B includes, for example, a MIX 921 having a circular cross section along the array surface of the light receiving elements 931 and a DET 922 provided so as to surround the periphery of the MIX 921.
  • each light receiving element 931 has, for example, a rectangular shape with a length in the column direction of 2a. It is provided in the area.
  • the length in the row direction is 2a and the region of the light receiving element 931 is a square, but the region is not limited to a square, and various modifications are possible.
  • FIG. 6 is a plan view showing a layout example of the light receiving element according to this embodiment
  • FIG. 7 is a size of the light receiving element shown in FIG. It is a top view showing an example.
  • the pixel array unit 101 has a configuration in which a plurality of light receiving elements 31 are arranged in a two-dimensional lattice.
  • a PN semiconductor region 30 is provided at each boundary portion of the light receiving elements 31 in the column direction (vertical direction in the drawing).
  • Each PN semiconductor region 30 includes, for example, a MIX 21 located at each boundary of the light receiving element 31, a DET 22A adjacent to the MIX 21 from the lower side in the column direction, and a DET 22B adjacent to the MIX 21 from the upper side in the column direction.
  • the length in the row direction of the DETs 22A and 22B with respect to the MIX 21 may be shorter than the length in the row direction of the MIX 21, for example. In that case, since it is possible to reduce the influence of the DETs 22A and 22B on the electric field formed by the two MIXs 21 in the light receiving element 31, it is possible to efficiently collect electric charges in the DET 22A or 22B. Thereby, it becomes possible to suppress a decrease in quantum efficiency.
  • the MIX 21 and the DET 22A in each PN semiconductor region 30 constitute the signal extraction portion 30A of the lower light receiving element 31 of the two light receiving elements 31 forming each boundary portion, and the MIX 21 and the DET 22B are ,
  • the signal extraction unit 30B of the upper light receiving element 31 is configured. That is, the MIX 21 located at the boundary between the two light receiving elements 31 is shared by the two light receiving elements 31.
  • each light receiving element 31 has a length in the column direction as shown in FIG. It can be a rectangular area with the height a. That is, as in the present embodiment, the MIX 21 is shared by the vertically adjacent two light receiving elements 31, so that the distance between the centers of the MIX 21 can be used as it is as the pixel pitch of the light receiving elements 31. .. Thereby, it is possible to increase the integration degree of the light receiving elements 31 in the column direction, and thus it is possible to increase the resolution in the column direction.
  • the length of each light receiving element 31 in the column direction can be reduced to 1/2.
  • the resolution in the column direction can be doubled as compared with the comparative example shown in FIGS. 4 and 5.
  • the resolution in the row direction can be doubled.
  • FIG. 8 is a diagram showing a chip configuration example of the solid-state imaging device according to the present embodiment.
  • the solid-state imaging device 100 has, for example, a structure of a bonding chip 50 in which a light receiving chip 51 and a circuit chip 52 are vertically bonded.
  • the light receiving chip 51 is, for example, a semiconductor chip configured from the semiconductor substrate 40 that functions as a light receiving element in the unit pixel 20, and the circuit chip 52 is formed with, for example, the readout circuits 20A and 20B and peripheral circuits in the unit pixel 20. Is a semiconductor chip.
  • so-called direct joining can be used, in which the respective joining surfaces are flattened and the two are stuck together by an electron force.
  • the present invention is not limited to this, and for example, so-called Cu-Cu bonding, in which electrode pads made of copper (Cu) formed on the bonding surfaces of each other are bonded, or other bump bonding may be used. ..
  • the light receiving chip 51 and the circuit chip 52 are electrically connected to each other, for example, through a connecting portion such as a TSV (Through-Silicon Via) penetrating the semiconductor substrate.
  • the connection using the TSV includes, for example, a so-called twin TSV method in which two TSVs, a TSV provided on the light receiving chip 51 and a TSV provided from the light receiving chip 51 to the circuit chip 52, are connected on the outside of the chip, or a light receiving method. It is possible to employ a so-called shared TSV system or the like in which both are connected by a TSV penetrating from the chip 51 to the circuit chip 52.
  • the bonding chip 50 shown in FIG. 16 may include the arithmetic unit 15, the light emitting unit 13, the control unit 11, and the like in addition to the solid-state imaging device 100.
  • FIG. 9 is a cross-sectional view showing an example of a schematic structure of the light receiving element according to the present embodiment. Note that FIG. 9 shows an example of a cross-sectional structure of the light-receiving chip 51 portion of two light-receiving elements 31 adjacent in the column direction in the so-called back-illuminated solid-state imaging device 100.
  • the light receiving element 31 in each unit pixel 20 is, for example, a semiconductor substrate 40 such as a silicon substrate having a p-type well, and a back surface side of the semiconductor substrate 40 (in the drawing, an upper surface).
  • the circuit chip 52 may be attached to the front surface side (lower surface side in the drawing) of the semiconductor substrate 40 via the insulating film 41 such as a silicon oxide film.
  • the semiconductor substrate 40 for example, a semiconductor substrate such as a silicon substrate can be used, and the substrate thickness is thinned to, for example, 20 ⁇ m (micrometer) or less.
  • the thickness of the semiconductor substrate 40 may be 20 ⁇ m or more, and the thickness may be appropriately determined according to the target characteristics of the solid-state imaging device 100 and the like.
  • the antireflection film 42 may be, for example, a film formed using a high refractive material such as silicon oxynitride (SiON).
  • the flattening film 43 may be a film formed using an insulating material such as silicon oxide (SiO 2 ), for example.
  • a light-shielding film 44 for preventing color mixing between adjacent pixels is provided on the flattening film 43 and at the boundary between adjacent light-receiving elements 31.
  • a material having a light shielding property such as tungsten (W) may be used.
  • the PN semiconductor region 30 forming the signal extraction portions 30A and 30B is provided in a region on the front surface side (lower surface side in the drawing) of the semiconductor substrate 40.
  • the MIX 21 in each of the signal extraction units 30A and 30B may be, for example, a region in which an acceptor such as boron (B) is diffused in the semiconductor substrate 40, and the DETs 22A and 22B are phosphorus () in the semiconductor substrate 40. It may be a region in which a donor such as P) or arsenic (As) is diffused.
  • the DET 22A or 22B of each of the signal extraction units 30A and 30B functions as a charge detection unit for detecting the amount of light that has entered the light receiving element 31 from the outside, that is, the amount of charges generated by photoelectric conversion by the semiconductor substrate 40. ..
  • the MIX 21 functions as a voltage application unit for injecting a majority carrier current into the semiconductor substrate 40, that is, for directly applying a voltage to the semiconductor substrate 40 to generate an electric field in the semiconductor substrate 40.
  • the FD 26 is directly connected to each of the DETs 22A and 22B (see FIG. 3).
  • the on-chip lens 45 for example, silicon oxide (SiO 2 ) or transparent resin can be used, and its curvature is set so that the incident light is condensed near the center of the light receiving element 31. ing.
  • FIG. 10 is a top view showing the positional relationship when the PN semiconductor region and the light-shielding film in FIG. 9 are viewed from a direction perpendicular to the light incident surface of the semiconductor substrate. It is a figure.
  • the light shielding film 44 is provided in a grid shape along the boundary portion of the plurality of light receiving elements 31 arranged in a two-dimensional grid shape, as shown in FIG. 10, for example. In that case, the openings formed by the light shielding film 44 are arranged in a two-dimensional lattice.
  • the PN semiconductor region 30 is formed, for example, as shown in FIG. 10, in a region overlapping with a portion of the light shielding film 44 extending in the row direction when viewed from the direction perpendicular to the light incident surface of the semiconductor substrate 40. It In that case, the PN semiconductor regions 30 are arranged in a two-dimensional lattice.
  • the PN semiconductor region 30 in a region that optically overlaps with the light shielding film 44, the insulation formed on the front surface side (the lower surface side in the drawing) of the semiconductor substrate 40 as illustrated in FIG. It is possible to reduce the incidence of the incident light L10 on the portion 41a of the film 41 that electrically separates the MIX 21 of the PN semiconductor region 30 from the DETs 22A and 22B. As a result, irregular reflection of the incident light L10 on the portion 41a is reduced, so that it is possible to improve the pixel separation characteristic that optically separates the light receiving elements 31.
  • the on-chip lens 45 collects the incident light L10 near the center of each light receiving element 31, the photoelectric conversion of the incident light L10 near the PN semiconductor region 30 is reduced, so that extra photoelectric conversion is performed. It becomes possible to suppress. As a result, unintended charge flow into the DETs 22A and 22B can be reduced, and the pixel separation characteristics can be further improved.
  • FIGS. Example of Readout Operation of Unit Pixel
  • the indirect ToF method When measuring the distance to the object by the indirect ToF method, light of a specific wavelength (for example, infrared light) is emitted from the light emitting unit 13 (see FIG. 1) toward the object. Then, when the light is reflected by the object and enters the light receiving unit 14 as reflected light, the semiconductor substrate 40 of the solid-state imaging device 100 photoelectrically converts the incident reflected light to generate an electric charge according to the amount of light.
  • a specific wavelength for example, infrared light
  • the vertical drive circuit 103 drives the unit pixel 20 and distributes a signal corresponding to the electric charge obtained by photoelectric conversion to the FD 26 of each of the two readout circuits 20A and 20B.
  • the vertical drive circuit 103 applies a voltage to the two MIXs 21 in the same unit pixel 20. Specifically, for example, the vertical drive circuit 103 applies the read voltage VmixA of 1.5 V (volt) to the MIX 21 of the signal extraction unit 30A and applies the read voltage VmixB of 0 V to the MIX 21 of the signal extraction unit 30B.
  • the charges (that is, electrons) generated by photoelectric conversion are used as a signal carrier for detecting the amount of light incident on the light receiving element 31, that is, a signal corresponding to the amount of received light.
  • the electric charge taken in the DET 22A is transferred to the FD 26 via the transfer transistor 24 of the read circuit 20A.
  • a voltage having a voltage value corresponding to the charge accumulated in the FD 26 is applied to the gate of the amplification transistor 27 in the read circuit 20A, and as a result, the vertical signal line VSL0 is applied with a voltage corresponding to the amount of charge accumulated in the FD 26.
  • a voltage of value appears through the selection transistor 28.
  • the voltage appearing on the vertical signal line VSL0 is read as a digital pixel signal by the column processing circuit 104 and input to the signal processing unit 106.
  • a voltage is applied to the two MIXs 21 of the light receiving element 31 so that an electric field in the opposite direction to the electric field generated in the light receiving element 31 so far is generated.
  • the vertical drive circuit 103 applies the read voltage VmixB of 1.5V to the MIX21 of the signal extraction unit 30B and applies the read voltage VmixA of 0V to the MIX21 of the signal extraction unit 30A.
  • the signal carrier may be an electron as described above.
  • the electric charge taken in the DET 22B is transferred to the FD 26 via the transfer transistor 24 of the read circuit 20B.
  • a voltage having a voltage value corresponding to the charges accumulated in the FD 26 is applied to the gate of the amplification transistor 27 in the read circuit 20B, and as a result, the vertical signal line VSL1 is supplied with a voltage corresponding to the amount of charges accumulated in the FD 26.
  • a voltage of value appears through the selection transistor 28.
  • the voltage appearing on the vertical signal line VSL1 is read as a digital pixel signal by the column processing circuit 104 and input to the signal processing unit 106.
  • the signal processing unit 106 calculates distance information indicating the distance to the object based on the difference between the pixel signals read by the two read circuits 20A and 20B, and outputs the calculated distance information to the outside. ..
  • the method of distributing the signal carriers to the two signal extraction units 30A and 30B and calculating the distance information based on the pixel signals read by the respective read circuits 20A and 20B is called an indirect ToF method. To be done.
  • MIX wirings planar layout example of wirings (hereinafter, referred to as MIX wirings) for applying the read voltages VmixA and VmixB to the MIX 21 in each light receiving element 31 will be described using a comparative example.
  • FIG. 12 is a diagram showing a planar layout example of the MIX wiring according to the comparative example illustrated in FIG.
  • the comparative example two MIXs 921 are arranged near the center of each light receiving element 931. Therefore, in the configuration according to the comparative example, for example, of the two main wirings 971 and 972 extending along the boundary portion in the column direction in the adjacent light receiving element 931, the read voltage from one main wiring 971 to one MIX 921 is read. It is necessary to provide a branch wiring 973 for applying VmixA and a branch wiring 974 for applying the read voltage VmixB from the other main wiring 972 to the other MIX921.
  • branch wirings 973 and 974 are not optically shielded by a light shielding film or the like, the branch wirings 973 and 974 cause reflection of incident light, and as a result, the pixel separation characteristic may be deteriorated. There is sex.
  • FIG. 13 is a diagram showing a planar layout example of MIX wiring according to the present embodiment.
  • the MIX 21 is arranged at the boundary between the adjacent light receiving elements 31. Therefore, in the present embodiment, the read voltage VmixA is applied from one main wiring 71 to the one MIX 21 of the two main wirings 71 and 72 extending along the boundary portion in the column direction of the adjacent light receiving elements 31. It is possible to dispose the branch wiring 73 for this purpose and the branch wiring 74 for applying the read voltage VmixB from the other main wiring 72 to the other MIX 21 in the region optically shielded by the light shielding film 44. .. As a result, it is possible to reduce the reflection of incident light on the branch wirings 73 and 74, and as a result, it is possible to suppress deterioration of the pixel separation characteristics.
  • the readout circuit 20A connected to the DET 22A is driven to read out the pixel signals, and regarding the unit pixels 20 in the even-numbered rows, they are connected to the DET 22B.
  • the read circuit 20B is driven to read the pixel signal.
  • the readout circuit 20B connected to the DET 22B is driven to read out pixel signals, and regarding the unit pixels 20 in the even-numbered row, the readout circuit 20A connected to the DET 22A is driven. Then, the pixel signal is read out.
  • VmixA is set for convenience of explanation
  • a high level for example, 1.5 V; indicated as “H” in the drawing
  • the lower boundary of the light receiving elements 31 in odd rows is applied.
  • the read voltage Vmix at the Low level for example, 0 V; indicated as “L” in the drawing
  • the negative charges (electrons) generated in the semiconductor substrate 40 due to the application of the read voltages VmixA and VmixB are taken into the upper DET 22A of the odd-numbered light receiving element 31, and the even-numbered light receiving element 31. In, it is taken into the lower DET22B.
  • the read circuit 20A is driven to read the pixel signals
  • the read circuit 20B is driven to read the pixel signals.
  • the high level is set.
  • a read voltage VmixB of (for example, 1.5 V) is applied to the MIX 21 positioned at the upper boundary portion of the odd-numbered light receiving elements 31 (in other words, the lower boundary portion of the even-numbered light receiving elements 31).
  • the read voltage VmixA of Low level (for example, 0 V) is applied.
  • the negative charges (electrons) generated in the semiconductor substrate 40 by the application of the read voltages VmixA and VmixB are taken into the lower DET 22B in the odd-numbered light receiving element 31, and the even-numbered light receiving element. In 31, it is taken in by the upper DET 22A.
  • the read circuit 20B is driven to read the pixel signals
  • the read circuit 20A is driven to read the pixel signals
  • the flight time of the laser light L1 output from the light emitting unit 13 and incident on the light receiving unit 14 as the reflected light L2 is set to one. It can be obtained from the ratio of the charges accumulated in the DET 22A and the DET 22B in the light receiving element 31. Then, from this ratio, it becomes possible to obtain information regarding the distance to the object 90.
  • MIX Wiring According to First Driving Example As shown in FIGS. 14 and 15, common readout is performed for the MIX 21 located at the upper boundary portion of the light-receiving element 31 in the odd-numbered row.
  • the MIX wiring for applying the voltage VmixA and applying the other common read voltage VmixB to the MIX 21 located at the upper boundary portion of the even-numbered light receiving elements 31 is, for example, as shown in FIG.
  • the main wiring 71 located at the left boundary portion of the light receiving element 31 in the odd-numbered column and the MIX 21 located at the upper boundary portion of the light-receiving element 31 in the odd-numbered row are connected by the branch wiring 73, and the even-numbered columns are connected.
  • the main wiring 72 located at the left boundary of the light receiving element 31 and the MIX 21 located at the upper boundary of the even-numbered light receiving elements 31 are connected by a branch wiring 74, and a read voltage VmixA is applied to the main wiring 71.
  • a read voltage VmixB is applied to the main wiring 72.
  • 17 and 18 are diagrams for explaining the second driving example according to the present embodiment.
  • the readout circuit 20A connected to the DET 22A is driven to read the pixel signal, and the light-receiving elements in the even-numbered columns are read.
  • the pixel circuit is read by driving the read circuit 20B connected to the DET 22B.
  • the readout circuit 20B connected to the DET 22B is driven for the light receiving elements 31 in the odd columns to read the pixel signals, and the light receiving element 31 for the even columns is connected to the DET 22A.
  • the readout circuit 22A is driven to read out the pixel signal.
  • the readout circuit 20B connected to the DET 22B for the light-receiving element 31 in the odd-numbered column is driven to read the pixel signal, and the light-receiving element 31 in the even-numbered column is connected to the DET 22A.
  • the read circuit 20A thus read is driven to read the pixel signal.
  • the readout circuit 20A connected to the DET 22A is driven for the light receiving elements 31 in the odd columns to read pixel signals, and the light receiving element 31 in the even columns is connected to the DET 22B.
  • the readout circuit 22A is driven to read out the pixel signal.
  • the upper boundary portions of the light receiving elements 31 of the odd-numbered rows and the odd-numbered columns (in other words, the lower boundary portions of the light-receiving elements 31 of the even-numbered rows and the odd-numbered columns).
  • the MIX 21 located at the upper side of the light receiving elements 31 in the even rows and the even rows (in other words, the upper boundary of the light receiving elements 31 in the odd rows and the even columns).
  • a high-level (for example, 1.5 V) read voltage Vmix (for convenience of description, this is referred to as VmixA) is applied, and the upper boundary portion (in other words, even number) of the light-receiving elements 31 in the odd-numbered rows and even-numbered columns is applied.
  • a low level (for example, 0 V) read voltage Vmix (for convenience of explanation, this is referred to as VmixB) is applied to the MIX 21 located at the lower boundary of the light receiving element 31.
  • the negative charges (electrons) generated in the semiconductor substrate 40 due to the application of the read voltages VmixA and VmixB in the light receiving elements 31 in the odd rows and odd columns and the light receiving elements 31 in the even rows and even columns are applied.
  • the readout circuit 20A is driven to read the pixel signals, and the light-receiving elements 31 in the odd-numbered rows and the even-numbered columns are read.
  • the read circuit 20B is driven to read the pixel signal.
  • the MIX 21 located at the lower boundary portion of the light receiving elements 31 of the odd-numbered rows and the odd-numbered columns and the lower boundary portion of the light-receiving elements 31 of the even-numbered rows and the even-numbered columns A high-level (for example, 1.5 V) read voltage VmixB is applied to the MIX 21 located, and the MIX 21 located on the lower boundary portion of the light receiving elements 31 in the odd-numbered rows and the even-numbered columns and the even-numbered rows.
  • a low-level (for example, 0 V) read voltage VmixA is applied to the MIX 21 located at the lower boundary of the light-receiving element 31 in the odd-numbered column.
  • the negative charges (electrons) generated in the semiconductor substrate 40 due to the application of the read voltages VmixA and VmixB in the light receiving elements 31 in the odd rows and odd columns and the light receiving elements 31 in the even rows and even columns are applied.
  • the readout circuit 20B is driven to read the pixel signals, and the light-receiving elements 31 in the odd-numbered rows and the even-numbered columns are read.
  • the read circuit 20A is driven to read the pixel signal.
  • the flight time of the laser light L1 output from the light emitting unit 13 and incident on the light receiving unit 14 as the reflected light L2 is set to one. It can be obtained from the ratio of the charges accumulated in the DET 22A and the DET 22B in the light receiving element 31. Then, from this ratio, it becomes possible to obtain information regarding the distance to the object 90.
  • the light receiving elements 31 in the odd rows and the odd columns and the light receiving elements in the even rows and the even columns are also provided.
  • a common read voltage VmixA is applied to the MIX 21 located at the upper boundary portion of the light receiving element 31, and the upper boundary portion of the light receiving elements 31 of the odd-numbered rows and even columns and the light-receiving elements 31 of the even-numbered rows and odd columns.
  • the MIX wiring for applying the other common read voltage VmixB to the MIX 21 positioned at is, for example, as shown in FIG. 19, the main wiring 71 positioned at the left boundary portion of the light receiving element 31 in the odd-numbered column.
  • the light receiving elements 31 in the odd-numbered rows and the odd-numbered columns and the MIX 21 located at the upper boundary of the light-receiving elements 31 in the even-numbered rows and the even-numbered columns are connected by branch wirings 73, and the light-receiving elements in the even-numbered columns are connected.
  • a branch wiring 74 is provided between the main wiring 72 located at the left boundary portion of 31 and the MIX 21 located at the upper boundary portion of the light receiving elements 31 in the odd-numbered rows and even columns and the even-numbered rows and the odd-numbered columns.
  • the read voltage VmixA is applied to the main wiring 71 and the read voltage VmixB is applied to the main wiring 72.
  • FIG. 20 is a plan view showing a simulation result of a potential formed in the semiconductor substrate of the light receiving element according to the comparative example illustrated in FIG. 4, and FIG. 21 is a vertical sectional view of the simulation result.
  • FIG. 22 is a plan view showing a simulation result of a potential formed in the semiconductor substrate of the light receiving element according to this embodiment, and FIG. 23 is a vertical sectional view of the simulation result.
  • each light receiving element 931 is a square having a side length of 5 ⁇ , and the distance from the center of the MIX 921 in the signal extraction unit 930A to the center of the MIX 921 in the signal extraction unit 930B is two. It was set to 0.5 ⁇ m.
  • each light receiving element 31 is a square having a side length of 5 ⁇ m. In this case, the distance between the centers of the MIX 21 is 5 ⁇ m.
  • the signal extraction unit 930A is on the signal extraction side
  • the read voltage VmixA of 1.2V is applied to the MIX 921 of the signal extraction unit 930A
  • the read voltage VmixB of 0V is applied to the other MIX921.
  • the read voltage VmixA of 1.2 V is applied to the MIX 21 on the signal extraction side
  • the read voltage VmixB of 0 V is applied to the other MIX 21.
  • 2V was applied to each DET 922, 22A and 22B.
  • the equipotential lines around the signal extraction unit 930B that is not the signal extraction side are dense. This indicates that a region where the electric field is concentrated is formed around the signal extraction unit 930B. In that case, the movement of the charges generated in the vicinity of the signal extraction unit 930B to the signal extraction unit 930A is hindered, so that it is not possible to efficiently collect the charges in the DET 922 of the signal extraction unit 930A, and thus the contrast is reduced. Will fall.
  • the region of the strong electric field formed around the signal extraction part 30B that is not the signal extraction side is small.
  • the equipotential lines are widened at deep positions in the semiconductor substrate. This indicates that the electric field in the deep position of the semiconductor substrate is weak. In that case, the charges generated at a deep position in the semiconductor substrate cannot be efficiently collected to collect the DET922 charges in the signal extraction portion 930A, which causes a reduction in contrast.
  • equipotential lines are formed at narrow intervals at deep positions of the semiconductor substrate 40. This indicates that the electric field in the deep position of the semiconductor substrate 40 is strong. As a result, in the present embodiment, it is possible to efficiently capture the electric charge generated at the deep position of the semiconductor substrate 40 into the DET 22A of the signal extraction unit 30A, and thus it is possible to increase the contrast between pixels.
  • each light receiving element 31 in each light receiving element 31, it is possible to efficiently collect electric charges from the wide range of the semiconductor substrate 40 to the DET 22A or 22B on the signal extraction side, so that the contrast between pixels is increased. Is possible.
  • FIG. 24 is a diagram showing a contrast obtained for each operating frequency between the unit pixel according to the comparative example illustrated in FIGS. 20 and 21 and the unit pixel according to the present embodiment.
  • the solid line U11 indicates the contrast for each operating frequency according to the actual measurement value of the unit pixel 20 according to the present embodiment
  • the broken line U12 indicates the contrast for each operating frequency according to the simulation result of the unit pixel 20.
  • a solid line U91 indicates the contrast for each operating frequency according to the actual measurement value of the unit pixel according to the comparative example
  • a broken line U12 indicates the contrast for each operating frequency according to the simulation result of the unit pixel. Note that in FIG. 24, the simulation conditions are the same as the conditions used in the simulation for obtaining the results shown in FIGS. 20 to 23, for example.
  • the unit pixel 20 according to the present embodiment has a higher contrast than the unit pixel according to the comparative example in a wide range of at least 20 MHz (megahertz) to 120 MHz or 14 MHz in both the actual measurement value and the simulation result. Can be obtained. This indicates that the unit pixel 20 according to the present embodiment can perform the read operation at a higher operation speed than the unit pixel according to the comparative example, for example.
  • FIG. 25 is a diagram showing a contrast obtained for each current value flowing in MIX between the unit pixel according to the comparative example illustrated in FIGS. 20 and 21 and the unit pixel according to the present embodiment.
  • the solid line U13 indicates the contrast obtained for each current value of the current flowing through the MIX 21 of the unit pixel 20 according to the present embodiment
  • the broken line U93 indicates the unit pixel according to the comparative example illustrated in FIGS. 20 and 21. 3 shows the contrast obtained for each current value of the current flowing in MIX 921.
  • the unit pixel 20 according to the present embodiment is better than the unit pixel according to the comparative example. Can obtain a high contrast. This indicates that the unit pixel 20 according to the present embodiment can operate at a lower operating voltage than, for example, the unit pixel according to the comparative example. This also indicates that the unit pixel 20 according to the present embodiment can reduce power consumption.
  • one MIX 21 is shared by two unit pixels 20 that are vertically adjacent to each other. Therefore, the distance between the centers of the MIXs 21 is the same as the pixel pitch of the unit pixels 20. It becomes possible. As a result, it is possible to increase the integration degree of the unit pixels 20 in the column direction. Therefore, it is possible to improve the ranging accuracy while suppressing a decrease in the resolution, or to increase the resolution while suppressing the fixed value of the ranging accuracy. Is possible.
  • the present embodiment it is possible to reduce the area of the strong electric field formed around the signal extraction part 30B or 30A that is not the signal extraction side. As a result, in the present embodiment, it is possible to efficiently capture the charges generated near the signal extraction unit 30B or 30A that is not the signal extraction side into the DET 22A of the signal extraction unit 30A that is the signal extraction side or the DET 22B of the signal extraction unit 30B. Therefore, it is possible to increase the contrast between pixels.
  • the semiconductor substrate 40 is a p-type well
  • the MIX 21 is a p+ semiconductor region having a p-type conductivity
  • the DETs 22A and 22B are n+ semiconductor regions having a n-type conductivity type.
  • the semiconductor substrate 40 may be an n-type well
  • the MIX 21 may be an n+ semiconductor region having an n-type conductivity
  • the DETs 22A and 22B may be p+ semiconductor regions having a p-type conductivity. Is. This also applies to the embodiments described later.
  • FIG. 26 is a plan view showing a layout example of the light receiving element according to the present embodiment, and FIG. 27 shows an example of the size of the light receiving element shown in FIG. It is a top view.
  • the pixel array unit 101 has a configuration in which a plurality of light receiving elements 31 are arranged in a two-dimensional lattice shape, as in the first embodiment.
  • the MIX 21 is provided in each of the four corners of the rectangular area formed by.
  • the MIXs 21 are arranged so as to be positioned diagonally in each light receiving element 31.
  • the MIX 21 provided in each of the four corners of the rectangular area formed by the four light receiving elements 31 is shared by the four light receiving elements 31 having the central portion as the MIX 21.
  • Each MIX 21 constitutes a signal extraction unit 30A or 30B together with the DET 22A or 22B provided in each of the four light receiving elements 31 sharing it. Therefore, the PN semiconductor region 230 according to the present embodiment includes the two signal extraction units 30A and the two signal extraction units 30B.
  • the positions of the DETs 22A and 22B in each light receiving element 31 may be the same positions as those in the first embodiment, for example, the positions near the center of the boundary portion of each light receiving element 31 in the column direction.
  • each light-receiving element 31 can be a square area having a length in the column direction and a length in the row direction of a/ ⁇ 2. That is, as in the present embodiment, the configuration is such that the four light-receiving elements 31 arranged in two rows and two columns share one MIX 21, so that the pixel pitch of the light-receiving elements 31 is the pixel pitch a in the first embodiment. It becomes possible to make 1/ ⁇ 2 of. As a result, it is possible to increase the degree of integration of the light receiving elements 31 in the column direction and the row direction, so that it is possible to increase the resolution in the column direction and the row direction.
  • the length of each light receiving element 31 in the column direction can be reduced to 1/ ⁇ 2.
  • the resolution in the column direction can also be ⁇ 2 times.
  • 28 and 29 are diagrams for explaining a driving example according to the present embodiment.
  • the driving example according to the present embodiment first, for the unit pixels 20 in the odd-numbered rows, the readout circuit 20A connected to the DET 22A is driven to read the pixel signals, and for the unit pixels 20 in the even-numbered rows, the DET 22B is set. The connected readout circuit 20B is driven to read out pixel signals. Next, regarding the unit pixels 20 in the odd-numbered rows, the readout circuit 20B connected to the DET 22B is driven to read out pixel signals, and regarding the unit pixels 20 in the even-numbered row, the readout circuit 20A connected to the DET 22A is driven. Then, the pixel signal is read out.
  • VmixA A read voltage Vmix of High level (for example, 1.5 V) (for convenience of description, this is referred to as VmixA) is applied to the MIX 21 located at the lower right side boundary portion of the element 31 and odd-numbered rows are applied.
  • VmixB a read voltage Vmix of Low level (for example, 0 V) (for convenience of explanation, this is referred to as VmixB) is applied.
  • the negative charges (electrons) generated in the semiconductor substrate 40 due to the application of the read voltages VmixA and VmixB are taken into the upper DET 22A of the odd-numbered light receiving element 31, and the even-numbered light receiving element 31. In, it is taken into the lower DET22B.
  • the read circuit 20A is driven to read the pixel signals
  • the read circuit 20B is driven to read the pixel signals.
  • a read voltage VmixB of High level (for example, 1.5 V) is applied to the MIX 21 located on the upper left side boundary portion of 31 and the upper left of the light receiving element 31 of the odd number row in the light receiving element 31 of the odd number row.
  • the read voltage VmixA at the Low level (for example, 0 V) with respect to the MIX 21 located at the boundary portion on the side (in other words, the boundary portion on the lower right side of the even-numbered light receiving element 31 in the even-numbered row light receiving element 31). Is applied.
  • the negative charges (electrons) generated in the semiconductor substrate 40 by the application of the read voltages VmixA and VmixB are taken into the lower DET 22B in the odd-numbered light receiving element 31, and the even-numbered light receiving element. In 31, it is taken in by the upper DET 22A.
  • the read circuit 20B is driven to read the pixel signals
  • the read circuit 20A is driven to read the pixel signals
  • the flight time of the laser light L1 output from the light emitting unit 13 and incident on the light receiving unit 14 as the reflected light L2 is set to one. It can be obtained from the ratio of the charges accumulated in the DET 22A and the DET 22B in the light receiving element 31. Then, from this ratio, it becomes possible to obtain information regarding the distance to the object 90.
  • one MIX 21 is shared by the four light receiving elements 31 that are adjacent vertically and horizontally, and the MIX 21 is positioned diagonally to each light receiving element 31.
  • the pixel pitch of the light receiving element 31 can be set to 1/ ⁇ 2 times the distance between the centers of the MIXs 21.
  • the positions of the DETs 22A and 22B in each light receiving element 31 are, for example, positions near the center of the boundary portion in the column direction of each light receiving element 31 (see FIG. 26). Although illustrated, the positions of the DETs 22A and 22B in each light receiving element 31 can be variously changed.
  • the DETs 22A and 22B move toward the MIX 21 to which the read voltage VmixA or VmixB is applied. Since it is possible to efficiently capture the charges into the DET 22A or 22B, it is possible to increase the contrast between pixels.
  • the semiconductor substrate 40 by providing a groove 401 having a conical shape, a quadrangular pyramid shape, or the like on the light incident surface of the semiconductor substrate 40, the semiconductor substrate It is also possible for the light incident surface of 40 to have a moth-eye structure.
  • the reflectance on the light incident surface can be reduced and more light can be incident into the semiconductor substrate 40. It is possible to increase the contrast between pixels.
  • the shape of the groove 401 is not limited to a cone or a quadrangular pyramid, and can be variously modified such as an elliptic cone or a polygonal pyramid.
  • a pixel separation unit 402 that optically separates adjacent light receiving elements 31 may be provided between the light receiving elements 31 arranged in a two-dimensional lattice.
  • the pixel separating section 402 between the adjacent light receiving elements 31 it is possible to prevent light from leaking into the adjacent light receiving elements 31, so that the pixel separation characteristic can be improved.
  • the pixel separating unit 402 forms, for example, a trench along the boundary portion of the light receiving element 31, and a light shielding material such as tungsten (W) or a high refractive index material (for example, a refractive index higher than that of the semiconductor substrate 40 is provided in the trench. Can be formed by embedding a material having a).
  • the light shielding film 402 and the semiconductor substrate 40 may be electrically separated from each other by using an insulating film or the like formed on the inner surface of the trench.
  • FIG. 31 illustrates a so-called RDTI (Reverse Deep Trench Isolation) type pixel separation portion 402 formed from the back surface (upper surface in the drawing) to the middle of the semiconductor substrate 40, but is not limited thereto.
  • RDTI Reverse Deep Trench Isolation
  • FFTI Front Full Trench Isolation
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure is applicable to any type of movement such as an automobile, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility, an airplane, a drone, a ship, a robot, a construction machine, and an agricultural machine (tractor). It may be realized as a device mounted on the body.
  • FIG. 32 is a block diagram showing a schematic configuration example of a vehicle control system 7000 which is an example of a mobile body control system to which the technology according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via a communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an exterior information detection unit 7400, an interior information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plural control units complies with any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores a program executed by the microcomputer or parameters used in various arithmetic operations, and a drive circuit that drives various controlled devices. Equipped with.
  • Each control unit is equipped with a network I/F for communicating with other control units via the communication network 7010, and also by wire communication or wireless communication with devices or sensors inside or outside the vehicle. A communication I/F for performing communication is provided. In FIG.
  • the other control units also include a microcomputer, a communication I/F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a drive force generation device for generating a drive force of a vehicle such as an internal combustion engine or a drive motor, a drive force transmission mechanism for transmitting the drive force to wheels, and a steering angle of the vehicle. It functions as a steering mechanism for adjusting and a control device such as a braking device for generating a braking force of the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the shaft rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or a steering wheel steering operation. At least one of sensors for detecting an angle, an engine speed, a wheel rotation speed, and the like is included.
  • the drive system control unit 7100 performs arithmetic processing using the signal input from the vehicle state detection unit 7110 to control the internal combustion engine, drive motor, electric power steering device, brake device, or the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a head lamp, a back lamp, a brake lamp, a winker, or a fog lamp.
  • the body system control unit 7200 may receive radio waves or signals of various switches transmitted from a portable device that substitutes for a key.
  • the body system control unit 7200 receives the input of these radio waves or signals and controls the vehicle door lock device, the power window device, the lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310 that is the power supply source of the drive motor according to various programs. For example, to the battery control unit 7300, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals to control the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the exterior information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image capturing unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the outside-vehicle information detection unit 7420 detects, for example, an environment sensor for detecting current weather or weather, or another vehicle around the vehicle equipped with the vehicle control system 7000, an obstacle, a pedestrian, or the like. At least one of the ambient information detection sensors of.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 33 shows an example of installation positions of the image pickup unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, 7918 are provided at at least one of the front nose of the vehicle 7900, the side mirrors, the rear bumper, the back door, and the upper part of the windshield inside the vehicle.
  • the image capturing unit 7910 provided on the front nose and the image capturing unit 7918 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the imaging units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the imaging unit 7916 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic signal, a traffic sign, a lane, or the like.
  • FIG. 33 shows an example of the shooting ranges of the respective image pickup units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors
  • the imaging range d is The imaging range of the imaging part 7916 provided in the rear bumper or the back door is shown. For example, by overlaying the image data captured by the image capturing units 7910, 7912, 7914, and 7916, a bird's-eye view image of the vehicle 7900 viewed from above can be obtained.
  • the vehicle exterior information detection units 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, sides, corners of the vehicle 7900 and on the windshield inside the vehicle may be ultrasonic sensors or radar devices, for example.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper windshield of the vehicle 7900 may be LIDAR devices, for example.
  • These vehicle exterior information detection units 7920 to 7930 are mainly used to detect a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle exterior information detection unit 7400 causes the image capturing unit 7410 to capture an image of the vehicle exterior and receives the captured image data.
  • the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection unit 7420 connected thereto.
  • the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives information on the received reflected waves.
  • the vehicle exterior information detection unit 7400 may perform an object detection process or a distance detection process such as a person, a car, an obstacle, a sign, or characters on the road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform environment recognition processing for recognizing rainfall, fog, road surface conditions, or the like based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle exterior information detection unit 7400 may also perform image recognition processing or distance detection processing for recognizing a person, a car, an obstacle, a sign, characters on the road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or position adjustment on the received image data, combines the image data captured by different image capturing units 7410, and generates an overhead image or a panoramic image. Good.
  • the vehicle exterior information detection unit 7400 may perform viewpoint conversion processing using image data captured by different image capturing units 7410.
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • the in-vehicle information detection unit 7500 is connected with, for example, a driver state detection unit 7510 that detects the state of the driver.
  • the driver state detecting unit 7510 may include a camera for capturing an image of the driver, a biometric sensor for detecting biometric information of the driver, a microphone for collecting voice in the vehicle interior, or the like.
  • the biometric sensor is provided on, for example, a seat surface or a steering wheel, and detects biometric information of an occupant sitting on a seat or a driver who holds the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or determine whether the driver is asleep. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls overall operations in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device that can be input and operated by a passenger, such as a touch panel, a button, a microphone, a switch or a lever. Data obtained by voice recognition of voice input by a microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device that uses infrared rays or other radio waves, or may be an external connection device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. May be.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Furthermore, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. A passenger or the like operates the input unit 7800 to input various data or instruct a processing operation to the vehicle control system 7000.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, and the like.
  • the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I/F 7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), or LTE-A (LTE-Advanced).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution
  • LTE-A Long Term Evolution-Advanced
  • another wireless communication protocol such as a wireless LAN (also referred to as Wi-Fi (registered trademark)) or Bluetooth (registered trademark) may be implemented.
  • the general-purpose communication I/F 7620 is connected to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network or a network unique to a business operator) via a base station or an access point, for example. You may.
  • the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology, and is a terminal existing in the vicinity of the vehicle (for example, a driver, a pedestrian or a shop terminal, or an MTC (Machine Type Communication) terminal). May be connected with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I/F 7630 is a communication I/F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I/F 7630 uses a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or a cellular communication protocol, which is a combination of a lower layer IEEE 802.11p and an upper layer IEEE 1609, for example. May be implemented.
  • the dedicated communication I/F 7630 is typically a vehicle-to-vehicle communication, a vehicle-to-infrastructure communication, a vehicle-to-home communication, and a vehicle-to-pedestrian communication. ) Perform V2X communications, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite) to perform positioning, and the latitude, longitude, and altitude of the vehicle. Generate position information including. Note that the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, a radio wave or an electromagnetic wave transmitted from a wireless station or the like installed on the road, and acquires information such as the current position, traffic jam, traffic closure, or required time.
  • the function of beacon reception unit 7650 may be included in dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates a connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 is connected to a USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface, or MHL (Mobile High) via a connection terminal (and a cable if necessary) not shown. -Definition Link) etc.
  • the wired device 7760 may include, for example, at least one of a mobile device or a wearable device that the passenger has, or an information device that is carried in or attached to the vehicle. Further, the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I/F 7660 is a control signal with the in-vehicle device 7760. Or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I/F 7680 transmits and receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 passes through at least one of the general-purpose communication I/F 7620, the dedicated communication I/F 7630, the positioning unit 7640, the beacon receiving unit 7650, the in-vehicle device I/F 7660, and the in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information acquired by the above. For example, the microcomputer 7610 calculates a control target value of the driving force generation device, the steering mechanism or the braking device based on the acquired information on the inside and outside of the vehicle, and outputs a control command to the drive system control unit 7100. Good.
  • the microcomputer 7610 realizes the functions of ADAS (Advanced Driver Assistance System) including collision avoidance or impact mitigation of a vehicle, follow-up traveling based on an inter-vehicle distance, vehicle speed maintenance traveling, vehicle collision warning, vehicle lane departure warning, etc. You may perform the coordinated control aiming at.
  • the microcomputer 7610 controls the driving force generation device, the steering mechanism, the braking device, and the like based on the acquired information about the surroundings of the vehicle, so that the microcomputer 7610 automatically travels independently of the driver's operation. You may perform cooperative control for the purpose of driving etc.
  • ADAS Advanced Driver Assistance System
  • a general-purpose communication I/F 7620 a dedicated communication I/F 7630, a positioning unit 7640, a beacon receiving unit 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the microcomputer 7610 may generate a warning signal by predicting a danger such as a vehicle collision, a pedestrian or the like approaching a road or a closed road, based on the acquired information.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the voice image output unit 7670 transmits an output signal of at least one of a voice and an image to an output device capable of visually or audibly notifying information to a passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are illustrated as output devices.
  • the display unit 7720 may include at least one of an onboard display and a head-up display, for example.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be a device other than these devices, such as headphones, a wearable device such as a glasses-type display worn by a passenger, a projector, or a lamp.
  • the output device When the output device is a display device, the display device displays results obtained by various processes performed by the microcomputer 7610 or information received from another control unit in various formats such as text, images, tables, and graphs. Display it visually.
  • the output device is an audio output device, the audio output device converts an audio signal composed of reproduced audio data, acoustic data, or the like into an analog signal and outputs it audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions of one of the control units may be given to another control unit. That is, if the information is transmitted and received via the communication network 7010, the predetermined arithmetic processing may be performed by any of the control units.
  • a sensor or device connected to one of the control units may be connected to another control unit, and a plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • the computer program for realizing each function of the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 can be installed in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed, for example, via a network without using a recording medium.
  • the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 can be applied to the integrated control unit 7600 of the application example shown in FIG.
  • the control unit 11, the calculation unit 15, and the external I/F 19 of the ToF sensor 1 correspond to the microcomputer 7610, the storage unit 7690, and the vehicle-mounted network I/F 7680 of the integrated control unit 7600.
  • the invention is not limited to this, and the vehicle control system 7000 may correspond to the host 80 in FIG. 1.
  • the constituent elements of the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 are modules for the integrated control unit 7600 shown in FIG. Circuit module).
  • the ToF sensor 1 according to the present embodiment described with reference to FIG. 1 may be realized by a plurality of control units of the vehicle control system 7000 shown in FIG.
  • a semiconductor substrate A lattice-shaped light-shielding film provided on the first surface of the semiconductor substrate and having openings arranged in a matrix; A plurality of first semiconductor regions arranged in a matrix on a second surface of the semiconductor substrate opposite to the first surface; A plurality of second semiconductor regions provided in adjacent regions that sandwich the first semiconductor regions in the column direction from the second surface of the semiconductor substrate; A wiring layer provided on the second surface of the semiconductor substrate and electrically connected to the first semiconductor region; Equipped with The first semiconductor region is located in a region corresponding to the light shielding film and the first surface of the semiconductor substrate, and The wiring layer corresponds to a main wiring that extends in a column direction in a region corresponding to the light shielding film and the first surface of the semiconductor substrate, and to sandwich the light shielding film and the first surface of the semiconductor substrate.
  • a light-receiving element including a branch wiring extending in the row direction and connecting the main wiring and each of the first semiconductor areas.
  • the main wiring includes a first main wiring that extends in the column direction on a first side of the first semiconductor region in an odd number column and a first direction of the first side of the first semiconductor region in an even number column in the column direction.
  • a second main wiring extending to Of the plurality of first semiconductor regions, odd-numbered first semiconductor regions are connected to the first main wirings through the branch wirings, and even-numbered second semiconductor regions are second main wirings.
  • the light-receiving element according to (1) or (2) which is connected to the above via the branch wiring.
  • the main wiring includes a first main wiring that extends in the column direction on a first side of the first semiconductor region in an odd number column and a first direction of the first side of the first semiconductor region in an even number column in the column direction.
  • a second main wiring extending to Of the first semiconductor regions in the odd columns, the first semiconductor regions in odd rows are connected to the first main wirings via the branch wirings, and the first semiconductor regions in even rows are the second semiconductor regions.
  • the first semiconductor regions in the odd rows are connected to the second main wirings via the branch wirings, and the first semiconductor regions in the even rows are The light-receiving element according to (1) or (2), which is connected to a first main wiring via the branch wiring.
  • a solid-state imaging device comprising: a wiring extending in a row direction, the branch wiring connecting the main wiring and each of the first semiconductor areas.
  • a semiconductor substrate having a plurality of light receiving elements arranged in a matrix, A light-shielding film provided in a grid pattern on the first surface of the semiconductor substrate at the boundary between the plurality of light-receiving elements; A second surface of the semiconductor substrate opposite to the first surface, a portion where corners of four light receiving elements of the plurality of light receiving elements gather, and a rectangular area formed by the four light receiving elements.
  • a wiring layer provided on the second surface of the semiconductor substrate and electrically connected to the first semiconductor region;
  • a first read circuit connected to each second semiconductor region of the second semiconductor region which is adjacent to the first semiconductor region in the first direction;
  • a second read circuit connected to each of the second semiconductor regions adjacent to the first semiconductor region in a second direction opposite to the first direction in the second semiconductor region;
  • a solid-state imaging device comprising: (12) A light emitting unit that emits light of a predetermined wavelength, A solid-state imaging device for generating pixel signals from received light;
  • a calculation unit that calculates a distance to an object based on a pixel signal generated by the solid-state imaging device, Equipped with The solid-state imaging device, A semiconductor substrate, A lattice-shaped light-shielding film provided on the first
  • a distance measuring device including a branch wiring extending in the row direction and connecting the main wiring and each of the first semiconductor areas.
  • a light emitting unit that emits light of a predetermined wavelength
  • a solid-state imaging device for generating pixel signals from received light
  • a calculation unit that calculates a distance to an object based on a pixel signal generated by the solid-state imaging device, Equipped with The solid-state imaging device,
  • a semiconductor substrate having a plurality of light receiving elements arranged in a matrix, A light-shielding film provided in a grid pattern on the first surface of the semiconductor substrate at the boundary between the plurality of light-receiving elements;
  • a second surface of the semiconductor substrate opposite to the first surface, a portion where corners of four light receiving elements of the plurality of light receiving elements gather, and a rectangular area formed by the four light receiving elements.
  • a second read circuit connected to each of the second semiconductor regions adjacent to the first semiconductor region in a second direction opposite to the first direction in the second semiconductor region; Ranging device.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Power Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Computer Hardware Design (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Solid State Image Pick-Up Elements (AREA)
  • Internal Circuitry In Semiconductor Integrated Circuit Devices (AREA)
  • Light Receiving Elements (AREA)

Abstract

半導体基板(40)と、前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜(44)と、前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域(21)と、前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域(22A,22B)と、前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層(71、72)とを備え、前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む。

Description

受光素子、固体撮像装置及び測距装置
 本開示は、受光素子、固体撮像装置及び測距装置に関する。
 従来、間接ToF(Time of Flight)方式を利用した測距センサが知られている。このような測距センサでは、ある位相で光源から光を出射し、その反射光を受光することで得られる信号電荷に基づいて、物体までの距離が計測される。
 このような間接ToF方式を利用した測距センサ(以下、間接ToFセンサという)では、反射光の信号電荷を高速に異なる領域に振り分けることのできるセンサが必要不可欠である。そこで、例えば以下の特許文献1には、センサの基板に直接電圧を印加して基板内に電流を発生させることで、基板内の広範囲の領域を高速に変調できるようにした技術が開示されている。このようなセンサは、CAPD(Current Assisted Photonic Demodulator)型の間接ToFセンサとも称される。
特開2011-86904号公報
 しかしながら、従来技術のCAPD型の間接ToFセンサでは、測距精度を上げるために画素サイズを大きくしていたが、それにより、画角が大きくなるため、解像度が低下してしまうという問題が存在した。
 そこで本開示では、解像度の低下を抑制しつつ測距精度を上げる、又は、測距精度の定価を抑制しつつ解像度を上げることが可能な受光素子、固体撮像装置及び測距装置を提案する。
 上記の課題を解決するために、本開示に係る一形態の受光素子は、半導体基板と、前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層とを備え、前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む。
第1の実施形態に係る測距装置としてのToFセンサの概略構成例を示すブロック図である。 第1の実施形態に係る受光部としての固体撮像装置の概略構成例を示すブロック図である。 第1の実施形態に係る単位画素の等価回路の一例を示す回路図である。 比較例に係る受光素子のレイアウト例を示す平面図である。 図4に示す受光素子のサイズの一例を示す平面図である。 第1の実施形態に係る受光素子のレイアウト例を示す平面図である。 図6に示す受光素子のサイズの一例を示す平面図である。 第1の実施形態に係る固体撮像装置のチップ構成例を示す図である。 第1の実施形態に係る受光素子の概略構成例を示す断面図である。 図9におけるPN半導体領域と遮光膜とを半導体基板における光の入射面と垂直な方向から見た場合の位置関係を示す上視図である。 第1の実施形態に係る受光素子への光の入射を説明するための図である。 比較例に係るMIX配線の平面レイアウト例を示す図である。 第1の実施形態に係るMIX配線の平面レイアウト例を示す図である。 第1の実施形態に係る第1の駆動例を説明するための図である(その1)。 第1の実施形態に係る第1の駆動例を説明するための図である(その2)。 第1の実施形態に係る第1の駆動例を実現するためのMIX配線のレイアウト例を示す平面図である。 第1の実施形態に係る第2の駆動例を説明するための図である(その1)。 第1の実施形態に係る第2の駆動例を説明するための図である(その2)。 第1の実施形態に係る第2の駆動例を実現するためのMIX配線のレイアウト例を示す平面図である。 比較例に係る受光素子の半導体基板中に形成される電位のシミュレーション結果を示す平面図である。 比較例に係るシミュレーション結果の垂直断面図である。 第1の実施形態に係る受光素子の半導体基板中に形成される電位のシミュレーション結果を示す平面図である。 第1の実施形態に係るシミュレーション結果の垂直断面図である。 比較例に係る単位画素と第1の実施形態に係る単位画素との動作周波数ごとに得られるコントラストを示す図である。 比較例に係る単位画素と第1の実施形態に係る単位画素とのMIXに流れる電流値ごとに得られるコントラストを示す図である。 第2の実施形態に係る受光素子のレイアウト例を示す平面図である。 図26に示す受光素子のサイズの一例を示す平面図である。 第2の実施形態に係る駆動例を説明するための図である(その1)。 第2の実施形態に係る駆動例を説明するための図である(その2)。 第3の実施形態に係る受光素子のレイアウト例を示す平面図である。 第4の実施形態に係る受光素子の概略構成例を示す断面図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下に、本開示の一実施形態について図面に基づいて詳細に説明する。なお、以下の実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 また、以下に示す項目順序に従って本開示を説明する。
  1.第1の実施形態
   1.1 測距装置(ToFセンサ)
   1.2 固体撮像装置の構成例
   1.3 単位画素の回路構成例
   1.4 受光素子の平面レイアウト例
    1.4.1 比較例に係る平面レイアウト例
    1.4.2 第1の実施形態に係る平面レイアウト例
   1.5 チップ構成例
   1.6 単位画素の断面構造例
   1.7 PN半導体領域と遮光膜との位置関係
   1.8 単位画素の読出し動作例
   1.9 MIX配線のレイアウト例
    1.9.1 比較例に係るMIX配線
    1.9.2 第1の実施形態に係るMIX配線
   1.10 画素信号読出時の駆動例
    1.10.1 第1の駆動例
     1.10.1.1 第1の駆動例に係るMIX配線
    1.10.2 第2の駆動例
     1.10.2.1 第2の駆動例に係るMIX配線
   1.11 半導体基板中の電界
   1.12 動作速度とコントラストとの関係
   1.13 動作電圧とコントラストとの関係
   1.14 作用・効果
  2.第2の実施形態
   2.1 第2の実施形態に係る平面レイアウト例
   2.2 画素信号読出時の駆動例
   2.3 作用・効果
  3.第3の実施形態
  4.第4の実施形態
  5.応用例
 1.第1の実施形態
 まず、第1の実施形態について、以下に図面を参照して詳細に説明する。なお、第1の実施形態では、例えば、間接ToF方式により物体までの距離を測定する受光素子、固体撮像装置及び測距装置について、例を挙げて説明する。
 本実施形態に係る受光素子、固体撮像装置及び測距装置は、例えば、車両に搭載され、車外にある対象物までの距離を測定する車載用のシステムや、ユーザの手等の対象物までの距離を測定し、その測定結果に基づいてユーザのジェスチャを認識するジェスチャ認識用のシステムなどに適用することができる。この場合、ジェスチャ認識の結果は、例えばカーナビゲーションシステムの操作等に用いることも可能である。
 1.1 測距装置(ToFセンサ)
 図1は、本実施形態に係る測距装置としてのToFセンサの概略構成例を示すブロック図である。図1に示すように、ToFセンサ1は、制御部11と、発光部13と、受光部14と、演算部15と、外部インタフェース(I/F)19とを備える。
 制御部11は、例えば、CPU(Central Processing Unit)などの情報処理装置で構成され、ToFセンサ1の各部を制御する。
 外部I/F19は、例えば、無線LAN(Local Area Network)や有線LANの他、CAN(Controller Area Network)、LIN(Local Interconnect Network)、FlexRay(登録商標)等の任意の規格に準拠した通信ネットワークを介して外部のホスト80と通信を確立するための通信アダプタであってよい。
 ここで、ホスト80は、例えば、ToFセンサ1が自動車等に実装される場合には、自動車等に搭載されているECU(Engine Control Unit)などであってよい。また、ToFセンサ1が家庭内ペットロボットなどの自律移動ロボットやロボット掃除機や無人航空機や追従運搬ロボットなどの自律移動体に搭載されている場合には、ホスト80は、その自律移動体を制御する制御装置等であってよい。
 発光部13は、例えば、1つ又は複数の半導体レーザダイオードを光源として備えており、所定時間幅のパルス状のレーザ光L1を所定周期(発光周期ともいう)で出射する。発光部13は、少なくとも、受光部14の画角以上の角度範囲に向けてレーザ光L1を出射する。また、発光部13は、例えば、100MHz(メガヘルツ)の周期で、10ns(ナノ秒)の時間幅のレーザ光L1を出射する。発光部13から出射したレーザ光L1は、例えば、測距範囲内に物体90が存在する場合には、この物体90で反射して、反射光L2として、受光部14に入射する。
 受光部14は、その詳細については後述するが、例えば、2次元格子状に配列した複数の画素を備え、発光部13の発光後に各画素で検出された信号強度(以下、画素信号ともいう)を出力する。
 演算部15は、受光部14から出力された画素信号に基づいて、受光部14の画角内のデプス画像を生成する。その際、演算部15は、生成したデプス画像に対し、ノイズ除去等の所定の処理を実行してもよい。演算部15で生成されたデプス画像は、例えば、外部I/F19を介してホスト80等に出力され得る。
 1.2 固体撮像装置の構成例
 図2は、第1の実施形態に係る受光部としての固体撮像装置の概略構成例を示すブロック図である。
 図2に示す固体撮像装置100は、裏面照射型のCAPD型間接ToFセンサ(以下、単にCAPDセンサという)であり、測距機能を有する測距装置に設けられている。
 固体撮像装置100は、画素アレイ部101と、周辺回路とを有する構成となっている。周辺回路には、例えば、垂直駆動回路103と、カラム処理回路104と、水平駆動回路105と、システム制御部102とが含まれ得る。
 固体撮像装置100には、さらに、信号処理部106と、データ格納部107とが含まれ得る。なお、信号処理部106及びデータ格納部107は、固体撮像装置100と同じ基板上に搭載してもよいし、測距装置における固体撮像装置100とは別の基板上に配置するようにしてもよい。
 画素アレイ部101は、受光した光量に応じた電荷を生成し、その電荷に応じた信号を出力する画素(以下、単位画素とも称する)20が行方向および列方向に、すなわち2次元格子状に配列された構成を備える。すなわち、画素アレイ部101は、入射した光を光電変換し、その結果得られた電荷に応じた信号を出力する単位画素20を複数備える。
 ここで、行方向とは画素行の単位画素20の配列方向(図面中、横方向)をいい、列方向とは画素列の単位画素20の配列方向(図面中、縦方向)をいう。
 画素アレイ部101において、行列状の画素配列に対して、画素行ごとに画素駆動線LDが行方向に沿って配線され、各画素列に2つの垂直信号線VSLが列方向に沿って配線されている。例えば画素駆動線LDは、単位画素20から信号を読み出す際の駆動を行うための駆動信号を伝送する。なお、図2では、画素駆動線LDについて1本の配線として示しているが、1本に限られるものではない。また、画素駆動線LDの一端は、垂直駆動回路103の各行に対応した出力端に接続されている。
 垂直駆動回路103は、シフトレジスタやアドレスデコーダなどによって構成され、画素アレイ部101の各単位画素20を全画素同時あるいは行単位等で駆動する。すなわち、垂直駆動回路103は、垂直駆動回路103を制御するシステム制御部102とともに、画素アレイ部101の各単位画素20の動作を制御する駆動部を構成している。
 なお、間接ToF方式での測距においては、1つの制御線に接続されている、高速駆動させる素子(CAPD素子)の数が高速駆動の制御性や駆動の精度へ影響を及ぼす。間接ToF方式での測距に用いる固体撮像素子は、水平方向に長い画素アレイとされることが多い。したがって、そのような場合、高速駆動させる素子の制御線に関しては、垂直信号線VSLや他の垂直方向に長い制御線が用いられるようにしてもよい。この場合、例えば垂直信号線VSLや垂直方向に長い他の制御線に対して、垂直方向に配列された複数の単位画素20が接続され、それらの垂直信号線VSLや他の制御線を介して、垂直駆動回路103とは別に設けられた駆動部や水平駆動回路105等により単位画素20の駆動、すなわち固体撮像装置100の駆動が行われる。
 垂直駆動回路103による駆動制御に応じて画素行の各単位画素20から出力される信号は、垂直信号線VSLを通してカラム処理回路104に入力される。カラム処理回路104は、各単位画素20から垂直信号線VSLを通して出力される信号に対して所定の信号処理を行うとともに、信号処理後の画素信号を一時的に保持する。
 具体的には、カラム処理回路104は、信号処理としてノイズ除去処理やAD(Analog to Digital)変換処理などを行う。
 水平駆動回路105は、シフトレジスタやアドレスデコーダなどによって構成され、カラム処理回路104の画素列に対応する単位回路を順番に選択する。この水平駆動回路105による選択走査により、カラム処理回路104において単位回路ごとに信号処理された画素信号が順番に出力される。
 システム制御部102は、各種のタイミング信号を生成するタイミングジェネレータなどによって構成され、そのタイミングジェネレータで生成された各種のタイミング信号を基に、垂直駆動回路103、カラム処理回路104、水平駆動回路105などの駆動制御を行う。
 信号処理部106は、少なくとも演算処理機能を有し、カラム処理回路104から出力される画素信号に基づいて演算処理等の種々の信号処理を実行し、それにより算出された画素ごとの距離情報を外部へ出力する。データ格納部107は、信号処理部106での信号処理にあたり、その処理に必要なデータを一時的に格納する。
 1.3 単位画素の回路構成例
 図3は、本実施形態に係る単位画素の等価回路の一例を示す回路図である。図3に示すように、単位画素20は、半導体基板40に形成された2つの信号取出部30A及び30Bのうち、一方の信号取出部30Aにおけるp+半導体領域(以下、MIXという)21に、電荷読出し用の電圧(以下、読出し電圧という)VmixAが印加され、n+半導体領域(以下、DETという)22に、転送トランジスタ24、FD26、リセットトランジスタ23、増幅トランジスタ27及び選択トランジスタ28を含む読出し回路20Aが接続された構成を備える。
 同様に、単位画素20は、他方の信号取出部30BにおけるMIX21に、読出し電圧VmixBが印加され、DET22に、転送トランジスタ24、FD26、リセットトランジスタ23、増幅トランジスタ27及び選択トランジスタ28を含む読出し回路20Bが接続された構成を備える。
 なお、半導体基板40における2つの信号取出部30A及び30Bで区画される領域は、各単位画素20の受光素子として機能する。
 垂直駆動回路103は、信号取出部30AのMIX21に読出し電圧VmixAを印加し、信号取出部30BのMIX21に読出し電圧VmixBを印加する。例えば、信号取出部30Aから信号(電荷)を取り出す場合、垂直駆動回路103は、信号取出部30AのMIX21に1.5V(ボルト)の読出し電圧VmixAを印加し、信号取出部30BのMIX21に0V読出し電圧VmixBを印加する。一方、信号取出部30Bから信号(電荷)を取り出す場合、垂直駆動回路103は、信号取出部30BのMIX21に1.5V(ボルト)の読出し電圧VmixBを印加し、信号取出部30AのMIX21に0V読出し電圧VmixAを印加する。
 各信号取出部30A及び30BにおけるDET22は、半導体基板40に入射した光が光電変換されることで生成された電荷を検出して、蓄積する電荷検出部である。
 各読出し回路20A及び20Bにおいて、転送トランジスタ24は、垂直駆動回路103からゲートに供給される駆動信号TRGがアクティブ状態になるとこれに応答して導通状態になることで、それぞれが対応するDET22に蓄積されている電荷をFD26に転送する。
 FD26は、蓄積電荷に応じた電圧値の電圧を発生させる電荷電圧変換機能を備え、DET22から転送された電荷を一時的に保持することで、この電荷量に応じた電圧値の電圧を増幅トランジスタ27のゲートに印加する。
 リセットトランジスタ23は、垂直駆動回路103からゲートに供給される駆動信号RSTがアクティブ状態になるとこれに応答して導通状態になることで、FD26の電位を所定のレベル(リセットレベルVDD)にリセットする。なお、リセットトランジスタ23がアクティブ状態とするときに転送トランジスタ24も併せてアクティブ状態とすることで、DET22に蓄積されている電荷を併せてリセットすることも可能である。
 増幅トランジスタ27は、ソースが選択トランジスタ28を介して垂直信号線VSL0/VSL1に接続されることにより、垂直信号線VSL0/VSL1の一端に接続されている定電流回路29A/29Bの負荷MOSトランジスタとともにソースフォロワ回路を構成する。
 選択トランジスタ28は、増幅トランジスタ27のソースと垂直信号線VSL0/VSL1との間に接続されている。選択トランジスタ28は、垂直駆動回路103からゲートに供給される選択信号SELがアクティブ状態になるとこれに応答して導通状態となり、増幅トランジスタ27から出力される画素信号を垂直信号線VSL0/VSL1に出力する。
 1.4 受光素子の平面レイアウト例
 つづいて、画素アレイ部101における受光素子の平面レイアウト例について、比較例を用いつつ、詳細に説明する。
 1.4.1 比較例に係る平面レイアウト例
 図4は、比較例に係る受光素子のレイアウト例を示す平面図である。また、図5は、図4に示す受光素子のサイズの一例を示す平面図である。
 図4に示すように、比較例に係る画素アレイ部は、複数の受光素子931が2次元格子状に配列した構成を備える。各受光素子931の中央付近には、例えば、列方向に離間して配置された2つの信号取出部930A及び930Bを備える。各信号取出部930A及び930Bは、例えば、受光素子931の配列面に沿った断面が円形のMIX921と、MIX921の周囲を囲むように設けられたDET922とを備える。
 ここで、図5に示すように、各受光素子931における信号取出部930A及び930Bの中心間の距離をaとすると、各受光素子931は、例えば、列方向の長さを2aとした矩形の領域に設けられている。なお、図5では、行方向の長さも2aとして、受光素子931の領域を正方形としているが、正方形に限定されず、種々変形することが可能である。
 1.4.2 第1の実施形態に係る平面レイアウト例
 一方、図6は、本実施形態に係る受光素子のレイアウト例を示す平面図であり、図7は、図6に示す受光素子のサイズの一例を示す平面図である。
 図6に示すように、本実施形態に係る画素アレイ部101は、複数の受光素子31が2次元格子状に配列した構成を備える。列方向(図面中、上下方向)における受光素子31の各境界部分には、PN半導体領域30が設けられている。
 各PN半導体領域30は、例えば、受光素子31の各境界部分に位置するMIX21と、MIX21に対して列方向下側から隣接するDET22Aと、MIX21に対して列方向上側から隣接するDET22Bを備える。MIX21に対するDET22A及び22Bの行方向の長さは、例えば、MIX21の行方向の長さよりも短くてよい。その場合、受光素子31内において2つのMIX21が形成する電界に対してDET22A及び22Bが与える影響を低減することが可能となるため、DET22A又は22Bに効率的に電荷を収集することが可能となり、それにより、量子効率の低下を抑制することが可能となる。
 このような構成において、各PN半導体領域30におけるMIX21及びDET22Aは、各境界部分を形成する2つの受光素子31のうちの下側の受光素子31の信号取出部30Aを構成し、MIX21及びDET22Bは、上側の受光素子31の信号取出部30Bを構成する。すなわち、2つの受光素子31の境界部分に位置するMIX21は、この2つの受光素子31で共有されている。
 ここで、図5に例示した受光素子931と同様に、信号取出部30A及び30BにおけるMIX21の中心間の距離をaとすると、図7に示すように、各受光素子31は、列方向の長さをaとした矩形の領域とすることができる。すなわち、本実施形態のように、MIX21を上下に隣接する2つの受光素子31で共有する構成とすることで、MIX21の中心間の距離をそのまま受光素子31の画素ピッチとすることが可能となる。それにより、列方向における受光素子31の集積度を上げることが可能となるため、列方向の解像度を高めることが可能となる。
 例えば、図4又は図5に示す比較例と比較すると、各受光素子31の列方向の長さを1/2に縮小することが可能となる。それにより、例えば、図4及び図5に示す比較例と比べて、列方向の解像度を2倍に増加することが可能となる。その際、例えば、受光素子31の平面領域を正方形とすることで、行方向の解像度も2倍とすることが可能である。
 1.5 チップ構成例
 図8は、本実施形態に係る固体撮像装置のチップ構成例を示す図である。図8に示すように、固体撮像装置100は、例えば、受光チップ51と回路チップ52とが上下に貼り合わされた貼合せチップ50の構造を備える。受光チップ51は、例えば、単位画素20における受光素子として機能する半導体基板40から構成された半導体チップであり、回路チップ52は、例えば、単位画素20における読出し回路20A及び20Bや周辺回路等が形成された半導体チップである。
 受光チップ51と回路チップ52との接合には、例えば、それぞれの接合面を平坦化して両者を電子間力で貼り合わせる、いわゆる直接接合を用いることができる。ただし、これに限定されず、例えば、互いの接合面に形成された銅(Cu)製の電極パッド同士をボンディングする、いわゆるCu-Cu接合や、その他、バンプ接合などを用いることも可能である。
 また、受光チップ51と回路チップ52とは、例えば、半導体基板を貫通するTSV(Through-Silicon Via)などの接続部を介して電気的に接続される。TSVを用いた接続には、例えば、受光チップ51に設けられたTSVと受光チップ51から回路チップ52にかけて設けられたTSVとの2つのTSVをチップ外表で接続する、いわゆるツインTSV方式や、受光チップ51から回路チップ52まで貫通するTSVで両者を接続する、いわゆるシェアードTSV方式などを採用することができる。
 ただし、受光チップ51と回路チップ52との接合にCu-Cu接合やバンプ接合を用いた場合には、Cu-Cu接合部やバンプ接合部を介して両者が電気的に接続される。
 なお、図16に示す貼合せチップ50には、固体撮像装置100の他に、演算部15や発光部13や制御部11等が含まれていてもよい。
 1.6 単位画素の断面構造例
 図9は、本実施形態に係る受光素子の概略構成例を示す断面図である。なお、図9には、いわゆる裏面照射型の固体撮像装置100において、列方向に隣接する2つの受光素子31の受光チップ51部分の断面構造例が示されている。
 図9に示すように、各単位画素20における受光素子31は、例えば、p型のウエル(p-well)を備えるシリコン基板などの半導体基板40と、半導体基板40の裏面側(図面中、上面側)に設けられた反射防止膜42と、反射防止膜42上に設けられた平坦化膜43と、平坦化膜43上に設けられたオンチップレンズ45とを備える。なお、回路チップ52は、半導体基板40の表面側(図面中、下面側)に、シリコン酸化膜などの絶縁膜41等を介して貼り合わされてよい。
 半導体基板40には、例えば、シリコン基板などの半導体基板を用いることができ、その基板厚は、例えば、20μm(マイクロメートル)以下の厚さとなるように薄厚化されている。なお、半導体基板40の厚さは20μm以上であってもよく、その厚さは固体撮像装置100の目標とする特性等に応じて適宜定められてよい。
 反射防止膜42は、例えば、酸窒化シリコン(SiON)などの高屈折材料を用いて形成された膜であってよい。また、平坦化膜43は、例えば、酸化シリコン(SiO)などの絶縁材料を用いて形成された膜であってよい。
 平坦化膜43上であって、隣接する受光素子31の境界部分には、隣接画素間での混色を防止するための遮光膜44が設けられている。この遮光膜44には、例えば、タングステン(W)などの遮光性を備える材料が用いられてよい。
 半導体基板40における表面側(図面中、下面側)の領域には、信号取出部30A及び30Bを構成するPN半導体領域30が設けられている。
 ここで、各信号取出部30A及び30BにおけるMIX21は、例えば、半導体基板40にホウ素(B)等のアクセプタが拡散された領域であってよく、また、DET22A及び22Bは、半導体基板40にリン(P)やヒ素(As)などのドナーが拡散された領域であってよい。
 各信号取出部30A及び30BのDET22A又は22Bは、外部から受光素子31に入射した光の光量、すなわち、半導体基板40による光電変換により発生した電荷の量を検出するための電荷検出部として機能する。
 一方、MIX21は、多数キャリア電流を半導体基板40に注入するための、すなわち半導体基板40に直接電圧を印加して半導体基板40内に電界を発生させるための電圧印加部として機能する。
 本実施形態では、例えば、DET22A及び22Bそれぞれに対して直接、FD26が接続されている(図3参照)。
 また、オンチップレンズ45には、例えば、酸化シリコン(SiO)や透明樹脂などを用いることができ、入射した光が受光素子31の中央付近に集光されるように、その曲率が設定されている。
 1.7 PN半導体領域と遮光膜との位置関係
 図10は、図9におけるPN半導体領域と遮光膜とを半導体基板における光の入射面と垂直な方向から見た場合の位置関係を示す上視図である。
 図9に示すような構造において、遮光膜44は、例えば、図10に示すように、2次元格子状に配列する複数の受光素子31の境界部分に沿って格子状に設けられている。その場合、遮光膜44が形成する開口部は、2次元格子状に配列することとなる。
 また、PN半導体領域30は、例えば、図10に示すように、半導体基板40における光の入射面と垂直な方向から見て、遮光膜44における行方向に延在する部分と重なる領域に形成される。その場合、PN半導体領域30は、2次元格子状に配列することとなる。
 このように、PN半導体領域30を遮光膜44と光学的に重なる領域に配置することで、図11に例示するように、半導体基板40の表面側(図中、下面側)に形成された絶縁膜41における、PN半導体領域30のMIX21とDET22A及び22Bとを電気的に分離する部分41aへの入射光L10の入射を低減できる。それにより、部分41aでの入射光L10の乱反射が低減されるため、受光素子31間を光学的に分離する画素分離特性を向上することが可能となる。
 また、オンチップレンズ45によって各受光素子31の中央付近に入射光L10が集光されることで、PN半導体領域30付近での入射光L10の光電変換が低減されるため、余分な光電変換を抑制することが可能となる。それにより、DET22A及び22Bへの意図しない電荷の流入を低減できるため、画素分離特性をより向上することが可能となる。
 1.8 単位画素の読出し動作例
 つづいて、以上のような構造を有する固体撮像装置100を用いて対象物までの距離を間接ToF方式により測定する場合の読出し動作について、図1、図3及び図9等を参照しつつ詳細に説明する。
 対象物までの距離を間接ToF方式により測定する場合、発光部13(図1参照)から対象物に向けて特定波長の光(例えば、赤外光)が射出される。そして、その光が対象物で反射されて反射光として受光部14に入射すると、固体撮像装置100の半導体基板40は、入射した反射光を光電変換することで、その光量に応じた電荷を発生させる。
 このとき、垂直駆動回路103は、単位画素20を駆動させ、光電変換により得られた電荷に応じた信号を2つの読出し回路20A及び20BそれぞれのFD26に振り分ける。
 例えば、あるタイミングにおいて、垂直駆動回路103は、同一の単位画素20における2つのMIX21に電圧を印加する。具体的には、例えば、垂直駆動回路103は、信号取出部30AのMIX21に1.5V(ボルト)の読出し電圧VmixAを印加し、信号取出部30BのMIX21に0Vの読出し電圧VmixBを印加する。
 この状態で、オンチップレンズ45を介して半導体基板40内に光が入射し、その光が光電変換されて電荷が発生すると、この発生した電荷は、信号取出部30AのMIX21へと導かれ、この信号取出部30AのDET22Aに取り込まれる。
 この場合、光電変換で発生した電荷(すなわち、電子)が、受光素子31に入射した光の光量、すなわち受光量に応じた信号を検出するための信号キャリアとして用いられることになる。
 DET22Aに取り込まれた電荷は、読出し回路20Aの転送トランジスタ24を介してFD26へ転送される。それにより、読出し回路20Aにおける増幅トランジスタ27のゲートにFD26に蓄積された電荷に応じた電圧値の電圧が印加され、その結果、垂直信号線VSL0に、FD26に蓄積された電荷量に応じた電圧値の電圧が、選択トランジスタ28を介して出現する。
 垂直信号線VSL0に出現した電圧は、カラム処理回路104によりデジタルの画素信号として読み出され、信号処理部106に入力される。
 また、次のタイミングでは、これまで受光素子31内で発生していた電界と反対方向の電界が発生するように、当該受光素子31の2つのMIX21に電圧を印加する。具体的には、例えば、垂直駆動回路103は、信号取出部30BのMIX21に1.5Vの読出し電圧VmixBを印加し、信号取出部30AのMIX21に0Vの読出し電圧VmixAを印加する。
 この状態で、オンチップレンズ45を介して半導体基板40内に光が入射し、その光が光電変換されて電荷が発生すると、この発生した電荷は、信号取出部30BのMIX21へと導かれ、この信号取出部30BのDET22Bに取り込まれる。なお、信号キャリアは、上述と同様に、電子であってよい。
 DET22Bに取り込まれた電荷は、読出し回路20Bの転送トランジスタ24を介してFD26へ転送される。それにより、読出し回路20Bにおける増幅トランジスタ27のゲートにFD26に蓄積された電荷に応じた電圧値の電圧が印加され、その結果、垂直信号線VSL1に、FD26に蓄積された電荷量に応じた電圧値の電圧が、選択トランジスタ28を介して出現する。
 垂直信号線VSL1に出現した電圧は、カラム処理回路104によりデジタルの画素信号として読み出され、信号処理部106に入力される。
 信号処理部106は、例えば、2つの読出し回路20A及び20Bそれぞれで読み出された画素信号の差に基づいて対象物までの距離を示す距離情報を算出し、算出した距離情報を外部へ出力する。
 以上のように、2つの信号取出部30A及び30Bへと信号キャリアを振り分け、それぞれの読出し回路20A及び20Bで読み出された画素信号に基づいて距離情報を算出する方法は、間接ToF方式と称される。
 1.9 MIX配線のレイアウト例
 つぎに、各受光素子31におけるMIX21へ読出し電圧VmixA及びVmixBを印加するための配線(以下、MIX配線という)の平面レイアウト例について、比較例を用いつつ説明する。
 1.9.1 比較例に係るMIX配線
 図12は、図4に例示した比較例に係るMIX配線の平面レイアウト例を示す図である。図12に示すように、比較例では、各受光素子931の中央付近に2つのMIX921が配置されている。そのため、比較例に係る構成では、例えば、隣接する受光素子931における列方向の境界部分に沿って延在する2つの主配線971及び972のうち、一方の主配線971から一方のMIX921へ読出し電圧VmixAを印加するための枝配線973と、他方の主配線972から他方のMIX921へ読出し電圧VmixBを印加するための枝配線974とを設ける必要がある。
 ただし、枝配線973及び974は、遮光膜等によって光学的に遮光されていないため、これらの枝配線973及び974によって入射光の反射が発生し、その結果、画素分離特性が低下してしまう可能性が存在する。
 1.9.2 第1の実施形態に係るMIX配線
 図13は、本実施形態に係るMIX配線の平面レイアウト例を示す図である。図13に示すように、本実施形態では、MIX21が隣接する受光素子31の境界部分に配置されている。そのため、本実施形態では、隣接する受光素子31における列方向の境界部分に沿って延在する2つの主配線71及び72のうち、一方の主配線71から一方のMIX21へ読出し電圧VmixAを印加するための枝配線73と、他方の主配線72から他方のMIX21へ読出し電圧VmixBを印加するための枝配線74とを、遮光膜44で光学的に遮光された領域に配置することが可能となる。それにより、枝配線73及び74での入射光の反射を低減することが可能となるため、その結果、画素分離特性の低下を抑制することが可能となる。
 1.10 画素信号読出時の駆動例
 つぎに、画素アレイ部101から画素信号を読み出す際の駆動例について、幾つか例を挙げて説明する。
 1.10.1 第1の駆動例
 まず、第1の駆動例について説明する。図14及び図15は、本実施形態に係る第1の駆動例を説明するための図である。
 第1の駆動例では、まず、奇数行目の単位画素20に関しては、DET22Aに接続された読出し回路20Aを駆動して画素信号を読み出し、偶数行目の単位画素20に関しては、DET22Bに接続された読出し回路20Bを駆動して画素信号を読み出す。次に、奇数行目の単位画素20に関しては、DET22Bに接続された読出し回路20Bを駆動して画素信号を読み出し、偶数行目の単位画素20に関しては、DET22Aに接続された読出し回路20Aを駆動して画素信号を読み出す。
 具体的には、図14に示すように、奇数行目の受光素子31における上側の境界部分(言い換えれば、偶数行目の受光素子31における下側の境界部分)に位置するMIX21に対して、Highレベル(例えば、1.5V。図面中、‘H’と記す)の読出し電圧Vmix(説明の都合上、これをVmixAとする)を印加し、奇数行目の受光素子31における下側の境界部分(言い換えれば、偶数行目の受光素子31における上側の境界部分)に位置するMIX21に対して、Lowレベル(例えば、0V。図面中、‘L’と記す)の読出し電圧Vmix(説明の都合上、これをVmixBとする)を印加する。
 このような読出し電圧VmixA及びVmixBの印加により、半導体基板40に発生した負の電荷(電子)が、奇数行目の受光素子31においては、上側のDET22Aに取り込まれ、偶数行目の受光素子31においては、下側のDET22Bに取り込まれる。
 そこで、奇数行目の受光素子31に関しては読出し回路20Aを駆動して画素信号を読み出し、偶数行目の受光素子31に関しては読出し回路20Bを駆動して画素信号を読み出す。
 つぎに、図15に示すように、奇数行目の受光素子31における下側の境界部分(言い換えれば、偶数行目の受光素子31における上側の境界部分)に位置するMIX21に対して、Highレベル(例えば、1.5V)の読出し電圧VmixBを印加し、奇数行目の受光素子31における上側の境界部分(言い換えれば、偶数行目の受光素子31における下側の境界部分)に位置するMIX21に対して、Lowレベル(例えば、0V)の読出し電圧VmixAを印加する。
 このような読出し電圧VmixA及びVmixBの印加により、半導体基板40に発生した負の電荷(電子)が、奇数行目の受光素子31においては、下側のDET22Bに取り込まれ、偶数行目の受光素子31においては、上側のDET22Aに取り込まれる。
 そこで、奇数行目の受光素子31に関しては読出し回路20Bを駆動して画素信号を読み出し、偶数行目の受光素子31に関しては読出し回路20Aを駆動して画素信号を読み出す。
 以上のような動作を、発光部13の1回の発光に対して実行することで、発光部13から出力されて反射光L2として受光部14に入射したレーザ光L1の飛行時間を、1つの受光素子31におけるDET22AとDET22Bとに蓄積された電荷の比率から求めることができる。そして、この比率から、物体90までの距離に関する情報を取得することが可能となる。
 1.10.1.1 第1の駆動例に係るMIX配線
 なお、図14及び図15に示すように、奇数行目の受光素子31における上側の境界部分に位置するMIX21に対して共通の読出し電圧VmixAを印加し、偶数行目の受光素子31における上側の境界部分に位置するMIX21に対して他の共通の読出し電圧VmixBを印加するためのMIX配線は、例えば、図16に示すように、奇数列目の受光素子31における左側の境界部分に位置する主配線71と奇数行目の受光素子31における上側の境界部分に位置するMIX21とを枝配線73にて接続するとともに、偶数列目の受光素子31における左側の境界部分に位置する主配線72と偶数行目の受光素子31における上側の境界部分に位置するMIX21とを枝配線74にて接続し、主配線71に読出し電圧VmixAを印加し、主配線72に読出し電圧VmixBを印加する構成とすることで、実現することができる。
 1.10.2 第2の駆動例
 つぎに、第2の駆動例について説明する。図17及び図18は、本実施形態に係る第2の駆動例を説明するための図である。
 第2の駆動例では、まず、奇数行目の受光素子31に関し、奇数列目の受光素子31についてはDET22Aに接続された読出し回路20Aを駆動して画素信号を読み出し、偶数列目の受光素子31についてはDET22Bに接続された読出し回路20Bを駆動して画素信号を読み出す。また、偶数行目の受光素子31に関し、奇数列目の受光素子31についてはDET22Bに接続された読出し回路20Bを駆動して画素信号を読み出し、偶数列目の受光素子31についてはDET22Aに接続された読出し回路22Aを駆動して画素信号を読み出す。
 つぎに、奇数行目の受光素子31に関し、奇数列目の受光素子31についてはDET22Bに接続された読出し回路20Bを駆動して画素信号を読み出し、偶数列目の受光素子31についてはDET22Aに接続された読出し回路20Aを駆動して画素信号を読み出す。また、偶数行目の受光素子31に関し、奇数列目の受光素子31についてはDET22Aに接続された読出し回路20Aを駆動して画素信号を読み出し、偶数列目の受光素子31についてはDET22Bに接続された読出し回路22Aを駆動して画素信号を読み出す。
 具体的には、図17に示すように、奇数行目及び奇数列目の受光素子31における上側の境界部分(言い換えれば、偶数行目及び奇数列目の受光素子31における下側の境界部分)に位置するMIX21並びに偶数行目及び偶数列目の受光素子31における上側の境界部分(言い換えれば、奇数行目及び偶数列目の受光素子31における上側の境界部分)に位置するMIX21に対して、Highレベル(例えば、1.5V)の読出し電圧Vmix(説明の都合上、これをVmixAとする)を印加し、奇数行目及び偶数列目の受光素子31における上側の境界部分(言い換えれば、偶数行目及び偶数列目の受光素子31における下側の境界部分)に位置するMIX21並びに偶数行目及び奇数列目の受光素子31における上側の境界部分(言い換えれば、奇数行目及び奇数列目の受光素子31における下側の境界部分)に位置するMIX21に対して、Lowレベル(例えば、0V)の読出し電圧Vmix(説明の都合上、これをVmixBとする)を印加する。
 このような読出し電圧VmixA及びVmixBの印加により、半導体基板40に発生した負の電荷(電子)が、奇数行目及び奇数列目の受光素子31並びに偶数行目及び偶数列目の受光素子31においては、上側のDET22Aに取り込まれ、奇数行目及び偶数列目の受光素子31並びに偶数行目及び奇数列目の受光素子31においては、下側のDET22Bに取り込まれる。
 そこで、奇数行目及び奇数列目の受光素子31並びに偶数行目及び偶数列目の受光素子31に関しては読出し回路20Aを駆動して画素信号を読み出し、奇数行目及び偶数列目の受光素子31並びに偶数行目及び奇数列目の受光素子31に関しては読出し回路20Bを駆動して画素信号を読み出す。
 つぎに、図18に示すように、奇数行目及び奇数列目の受光素子31における下側の境界部分に位置するMIX21並びに偶数行目及び偶数列目の受光素子31における下側の境界部分に位置するMIX21に対して、Highレベル(例えば、1.5V)の読出し電圧VmixBを印加し、奇数行目及び偶数列目の受光素子31における下側の境界部分に位置するMIX21並びに偶数行目及び奇数列目の受光素子31における下側の境界部分に位置するMIX21に対して、Lowレベル(例えば、0V)の読出し電圧VmixAを印加する。
 このような読出し電圧VmixA及びVmixBの印加により、半導体基板40に発生した負の電荷(電子)が、奇数行目及び奇数列目の受光素子31並びに偶数行目及び偶数列目の受光素子31においては、下側のDET22Bに取り込まれ、奇数行目及び偶数列目の受光素子31並びに偶数行目及び奇数列目の受光素子31においては上側のDET22Aに取り込まれる。
 そこで、奇数行目及び奇数列目の受光素子31並びに偶数行目及び偶数列目の受光素子31に関しては読出し回路20Bを駆動して画素信号を読み出し、奇数行目及び偶数列目の受光素子31並びに偶数行目及び奇数列目の受光素子31に関しては読出し回路20Aを駆動して画素信号を読み出す。
 以上のような動作を、発光部13の1回の発光に対して実行することで、発光部13から出力されて反射光L2として受光部14に入射したレーザ光L1の飛行時間を、1つの受光素子31におけるDET22AとDET22Bとに蓄積された電荷の比率から求めることができる。そして、この比率から、物体90までの距離に関する情報を取得することが可能となる。
 1.10.2.1 第2の駆動例に係るMIX配線
 なお、図17及び図18に示すように、奇数行目及び奇数列目の受光素子31並びに偶数行目及び偶数列目の受光素子31における上側の境界部分に位置するMIX21に対して共通の読出し電圧VmixAを印加し、奇数行目及び偶数列目の受光素子31並びに偶数行目及び奇数列目の受光素子31における上側の境界部分に位置するMIX21に対して他の共通の読出し電圧VmixBを印加するためのMIX配線は、例えば、図19に示すように、奇数列目の受光素子31における左側の境界部分に位置する主配線71と奇数行目及び奇数列目の受光素子31並びに偶数行目及び偶数列目の受光素子31における上側の境界部分に位置するMIX21とを枝配線73にて接続するとともに、偶数列目の受光素子31における左側の境界部分に位置する主配線72と奇数行目及び偶数列目の受光素子31並びに偶数行目及び奇数列目の受光素子31における上側の境界部分に位置するMIX21とを枝配線74にて接続し、主配線71に読出し電圧VmixAを印加し、主配線72に読出し電圧VmixBを印加する構成とすることで、実現することができる。
 1.11 半導体基板中の電界
 つぎに、本実施形態に係る受光素子31における半導体基板40中に形成される電界について、比較例を用いつつ説明する。
 図20は、図4に例示した比較例に係る受光素子の半導体基板中に形成される電位のシミュレーション結果を示す平面図であり、図21は、同シミュレーション結果の垂直断面図である。一方、図22は、本実施形態に係る受光素子の半導体基板中に形成される電位のシミュレーション結果を示す平面図であり、図23は、同シミュレーション結果の垂直断面図である。
 なお、図20及び図21に示す比較例では、各受光素子931を一辺の長さが5μの正方形とし、信号取出部930AにおけるMIX921の中心から信号取出部930BにおけるMIX921の中心までの距離を2.5μmとした。また、図22及び図23に示す本実施例では、各受光素子31を一辺の長さが5μの正方形とした。この場合、MIX21の中心間の距離は5μmとなる。
 また、図20及び図21では、信号取出部930Aを信号取り出し側とし、信号取出部930AのMIX921に1.2Vの読出し電圧VmixAを印加し、他方のMIX921に0Vの読出し電圧VmixBを印加した。一方、図22及び図23では、信号取り出し側のMIX21に1.2Vの読出し電圧VmixAを印加し、他方のMIX21に0Vの読出し電圧VmixBを印加した。さらに、図20から図23では、各DET922、22A及び22Bに2Vを印加した。
 図20と図22とを比較すると分かるように、図20に例示する比較例の場合、信号取り出し側でない信号取出部930Bの周囲の等電位線が密となっている。これは、信号取出部930Bの周囲に電界が集中した領域が形成されていることを示している。その場合、信号取出部930B付近で発生した電荷の信号取出部930Aへの移動が阻害されてしまうため、信号取出部930AのDET922に効率的に電荷を集めることができず、それにより、コントラストが低下してしまう。
 それに対し、図22に示す本実施形態では、信号取り出し側でない信号取出部30Bの周囲に形成される強電界の領域が小さい。それにより、本実施形態では、信号取出部30B付近で発生した電荷も効率的に信号取出部30AのDET22Aに取り込むことが可能となるため、画素間のコントラストを高めることが可能となる。
 また、図21と図23とを比較すると分かるように、図21に例示する比較例では、半導体基板の深い位置における等電位線の間隔が広くなっている。これは、半導体基板の深い位置における電界が弱いことを示している。その場合、半導体基板の深い位置で発生した電荷を効率的に信号取出部930AのDET922電荷を集めることができず、それにより、コントラストが低下してしまう。
 それに対し、図23に例示する本実施形態では、半導体基板40の深い位置にも狭い間隔で等電位線が形成されている。これは、半導体基板40の深い位置における電界が強いことを示している。それにより、本実施形態では、半導体基板40の深い位置で発生した電荷も効率的に信号取出部30AのDET22Aに取り込むことが可能となるため、画素間のコントラストを高めることが可能となる。
 以上のことから、本実施形態では、各受光素子31において、半導体基板40の広範囲から信号取り出し側のDET22A又は22Bに効率的に電荷を集めることが可能となるため、画素間のコントラストを高めることが可能となる。
 1.12 動作速度とコントラストとの関係
 また、半導体基板40の広範囲から信号取り出し側のDET22A又は22Bに効率的に電荷を集めることが可能となることは、本実施形態に係る単位画素20が、高速な読出し動作が可能であることを示している。
 図24は、図20及び図21に例示した比較例に係る単位画素と本実施形態に係る単位画素との動作周波数ごとに得られるコントラストを示す図である。
 図24において、実線U11は、本実施形態に係る単位画素20の実測値による動作周波数ごとのコントラストを示し、破線U12は、単位画素20のシミュレーション結果による動作周波数ごとのコントラストを示す。また、実線U91は、比較例に係る単位画素の実測値による動作周波数ごとのコントラストを示し、破線U12は、単位画素のシミュレーション結果による動作周波数ごとのコントラストを示す。なお、図24において、シミュレーション条件は、例えば、図20~図23に示す結果を得るためのシミュレーションで使用した条件と同じとする。
 図24に示すように、本実施形態に係る単位画素20は、実測値とシミュレーション結果との両方で、少なくとも20MHz(メガヘルツ)から120MHz又は14MHzの広範囲において、比較例に係る単位画素よりも高いコントラストを得ることができる。これは、本実施形態に係る単位画素20が、例えば、比較例に係る単位画素よりも高い動作速度で読出し動作が可能であることを示している。
 1.13 動作電圧とコントラストとの関係
 また、半導体基板40の広範囲から信号取り出し側のDET22に効率的に電荷を集めることが可能となることは、本実施形態に係る単位画素20が、低い動作電圧での動作が可能であることも示している。
 図25は、図20及び図21に例示した比較例に係る単位画素と本実施形態に係る単位画素とのMIXに流れる電流値ごとに得られるコントラストを示す図である。
 図25において、実線U13は、本実施形態に係る単位画素20のMIX21に流れる電流の電流値ごとに得られるコントラストを示し、破線U93は、図20及び図21に例示した比較例に係る単位画素のMIX921に流れる電流の電流値ごとに得られるコントラストを示している。
 図25における実線U13及び破線U93から分かるように、MIX21又は921に流れる電流の電流値を同じ電流値とした場合、比較例に係る単位画素に比べて、本実施形態に係る単位画素20の方が高いコントラストを得ることができる。これは、本実施形態に係る単位画素20が、例えば、比較例に係る単位画素よりも低い動作電圧で動作できることを示している。そして、このことは、本実施形態に係る単位画素20の方が消費電力を低減できることも示している。
 1.14 作用・効果
 以上のように、本実施形態によれば、1つのMIX21を上下に隣接する2つの単位画素20で共有するため、MIX21の中心間の距離をそのまま単位画素20の画素ピッチとすることが可能となる。それにより、列方向における単位画素20の集積度を上げることが可能となるため、解像度の低下を抑制しつつ測距精度を上げること、又は、測距精度の定価を抑制しつつ解像度を上げることが可能となる。
 また、本実施形態によれば、信号取り出し側でない信号取出部30B又は30Aの周囲に形成される強電界の領域を小さくすることが可能となる。それにより、本実施形態では、信号取り出し側でない信号取出部30B又は30A付近で発生した電荷も効率的に信号取り出し側である信号取出部30AのDET22A又は信号取出部30BのDET22Bに取り込むことが可能となるため、画素間のコントラストを高めることが可能となる。
 さらに、本実施形態によれば、半導体基板40の広範囲から信号取り出し側のDET22A又は22Bに効率的に電荷を集めることが可能となることで、高速な読出し動作や低い動作電圧での読出しが可能になるという効果も得られる。
 なお、本実施形態では、半導体基板40をp型のウエルとし、MIX21を導電型がp型のp+半導体領域とし、DET22A及び22Bを導電型がn型のn+半導体領域とした場合を例示したが、これに限定されず、例えば、半導体基板40をn型のウエルとし、MIX21を導電型がn型のn+半導体領域とし、DET22A及び22Bを導電型がp型のp+半導体領域とすることも可能である。これは、後述する実施形態においても同様である。
 2.第2の実施形態
 つぎに、第2の実施形態について、以下に図面を参照して詳細に説明する。なお、以下の説明において、上述した実施形態と同様の構成、動作及び効果については、それらを引用することで、重複する説明を省略する。
 第1の実施形態では、列方向に配列する2つの受光素子31で1つのMIX21を共有する場合について、例を挙げて説明した。これに対し、第2の実施形態では、列方向及び行方向に隣接する4つの受光素子31で1つのMIX21を共有する場合について、例を挙げて説明する。
 2.1 第2の実施形態に係る平面レイアウト例
 図26は、本実施形態に係る受光素子のレイアウト例を示す平面図であり、図27は、図26に示す受光素子のサイズの一例を示す平面図である。
 図26に示すように、本実施形態に係る画素アレイ部101は、第1の実施形態と同様に、複数の受光素子31が2次元格子状に配列した構成を備える。
 ただし、本実施形態では、列方向及び行方向に2つずつ配列する4つの受光素子31を1つのグループとし、その4つの受光素子31の角部が集合する中央部分と、4つの受光素子31が構成する矩形領域の4つの角部分とのそれぞれに、MIX21が設けられている。言い換えれば、各MIX21は、各受光素子31において1組の対角に位置するように配置されている。なお、4つの受光素子31が構成する矩形領域の4つの角部分それぞれに設けられたMIX21は、これを中央部分とする4つの受光素子31で共有される。
 各MIX21は、これを共有する4つの受光素子31それぞれに設けられたDET22A又は22Bとともに、信号取出部30A又は30Bを構成する。したがって、本実施形態に係るPN半導体領域230は、2つの信号取出部30Aと2つの信号取出部30Bとを含む。
 各受光素子31におけるDET22A及び22Bの位置は、第1の実施形態と同様の位置、例えば、各受光素子31の列方向の境界部分における中央寄りの位置であってよい。
 ここで、例えば、第1の実施形態に係る受光素子31と同様に、信号取出部30A及び30BにおけるMIX21の中心間の距離をaとし、各受光素子31の形成領域を正方形とすると、図27に示すように、各受光素子31は、列方向の長さ及び行方向の長さそれぞれをa/√2とした正方形の領域とすることができる。すなわち、本実施形態のように、2行2列に配列する4つの受光素子31で1つのMIX21を共有する構成とすることで、受光素子31の画素ピッチを第1の実施形態における画素ピッチaの1/√2とすることが可能となる。それにより、列方向及び行方向における受光素子31の集積度を上げることが可能となるため、列方向及び行方向の解像度を高めることが可能となる。
 例えば、第1の実施形態と比較すると、各受光素子31の列方向の長さを1/√2に縮小することが可能となる。それにより、例えば、第1の実施形態と比べて、列方向の解像度を√2倍に増加することが可能となる。また、第1の実施形態に係る受光素子31の平面領域を正方形とした場合、行方向の解像度も√2倍とすることが可能である。
 2.2 画素信号読出時の駆動例
 つぎに、画素アレイ部101から画素信号を読み出す際の駆動例について、幾つか例を挙げて説明する。
 図28及び図29は、本実施形態に係る駆動例を説明するための図である。本実施形態に係る駆動例では、まず、奇数行目の単位画素20に関しては、DET22Aに接続された読出し回路20Aを駆動して画素信号を読み出し、偶数行目の単位画素20に関しては、DET22Bに接続された読出し回路20Bを駆動して画素信号を読み出す。次に、奇数行目の単位画素20に関しては、DET22Bに接続された読出し回路20Bを駆動して画素信号を読み出し、偶数行目の単位画素20に関しては、DET22Aに接続された読出し回路20Aを駆動して画素信号を読み出す。
 具体的には、図28に示すように、奇数行目の受光素子31における奇数列目の受光素子31の左上側の境界部分(言い換えれば、偶数行目の受光素子31における偶数列目の受光素子31の右下側の境界部分)に位置するMIX21に対して、Highレベル(例えば、1.5V)の読出し電圧Vmix(説明の都合上、これをVmixAとする)を印加し、奇数行目の受光素子31における奇数列目の受光素子31の右下側の境界部分(言い換えれば、偶数行目の受光素子31における偶数列目の受光素子31の左上側の境界部分)に位置するMIX21に対して、Lowレベル(例えば、0V)の読出し電圧Vmix(説明の都合上、これをVmixBとする)を印加する。
 このような読出し電圧VmixA及びVmixBの印加により、半導体基板40に発生した負の電荷(電子)が、奇数行目の受光素子31においては、上側のDET22Aに取り込まれ、偶数行目の受光素子31においては、下側のDET22Bに取り込まれる。
 そこで、奇数行目の受光素子31に関しては読出し回路20Aを駆動して画素信号を読み出し、偶数行目の受光素子31に関しては読出し回路20Bを駆動して画素信号を読み出す。
 つぎに、図29に示すように、奇数行目の受光素子31における奇数列目の受光素子31の右下側の境界部分(言い換えれば、偶数行目の受光素子31における偶数列目の受光素子31の左上側の境界部分)に位置するMIX21に対して、Highレベル(例えば、1.5V)の読出し電圧VmixBを印加し、奇数行目の受光素子31における奇数列目の受光素子31の左上側の境界部分(言い換えれば、偶数行目の受光素子31における偶数列目の受光素子31の右下側の境界部分)に位置するMIX21に対して、Lowレベル(例えば、0V)の読出し電圧VmixAを印加する。
 このような読出し電圧VmixA及びVmixBの印加により、半導体基板40に発生した負の電荷(電子)が、奇数行目の受光素子31においては、下側のDET22Bに取り込まれ、偶数行目の受光素子31においては、上側のDET22Aに取り込まれる。
 そこで、奇数行目の受光素子31に関しては読出し回路20Bを駆動して画素信号を読み出し、偶数行目の受光素子31に関しては読出し回路20Aを駆動して画素信号を読み出す。
 以上のような動作を、発光部13の1回の発光に対して実行することで、発光部13から出力されて反射光L2として受光部14に入射したレーザ光L1の飛行時間を、1つの受光素子31におけるDET22AとDET22Bとに蓄積された電荷の比率から求めることができる。そして、この比率から、物体90までの距離に関する情報を取得することが可能となる。
 2.3 作用・効果
 以上のように、本実施形態によれば、1つのMIX21を上下左右に隣接する4つの受光素子31で共有し、MIX21を各受光素子31の対角に位置させるため、MIX21の中心間の距離の1/√2倍を受光素子31の画素ピッチとすることが可能となる。それにより、列方向及び行方向における受光素子31の集積度を上げることが可能となるため、解像度の低下を抑制しつつ測距精度を上げること、又は、測距精度の定価を抑制しつつ解像度を上げることが可能となる。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 3.第3の実施形態
 第2の実施形態では、各受光素子31におけるDET22A及び22Bの位置を、例えば、各受光素子31の列方向の境界部分における中央寄りの位置とした場合(図26参照)を例示したが、各受光素子31におけるDET22A及び22Bの位置は、種々変更することが可能である。
 例えば、図30に例示するように、各受光素子31におけるDET22A及び22Bを、MIX21が設けられた角部に寄せて配置することで、読出し電圧VmixA又はVmixBが印加されたMIX21へ向けて移動する電荷をDET22A又は22Bに効率的に取り込むことが可能となるため、画素間のコントラストを高めることが可能となる。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 4.第4の実施形態
 また、上述した実施形態において、例えば、図31に例示するように、半導体基板40における光の入射面に、円錐状や四角錐状等の溝401を設けることで、半導体基板40の光入射面をモスアイ構造とすることも可能である。
 このように、半導体基板40における光の入射面をモスアイ構造とすることで、光の入射面における反射率を低減してより多くの光を半導体基板40中に入射させることが可能となるため、画素間のコントラストを高めることが可能となる。
 なお、溝401の形状は、円錐や四角錐に限られず、楕円錐や三角錐などの多角錐など、種々変形することが可能である。
 また、図31に例示するように、2次元格子状に配列する受光素子31間に、隣接する受光素子31間を光学的に分離する画素分離部402が設けられてもよい。隣接する受光素子31間に画素分離部402を設けることで、隣接する受光素子31への光の漏れ込みを防止することが可能となるため、画素分離特性を向上することが可能となる。
 画素分離部402は、例えば、受光素子31の境界部分に沿ってトレンチを形成し、そのトレンチ内にタングステン(W)などの遮光材料や高屈折率材料(例えば、半導体基板40よりも高い屈折率を備える材料)を埋め込むことで、形成することが可能である。なお、遮光膜402と半導体基板40との間は、トレンチの内表面に形成された絶縁膜などを用いて電気的に分離されていてよい。
 また、図31には、半導体基板40の裏面(図中、上面)から中腹にかけて形成された、いわゆるRDTI(Reverse Deep Trench Isolation)型の画素分離部402を例示するが、これに限定されず、例えば、半導体基板40の表裏面を貫通するFFTI(Front Full Trench Isolation)型の画素分離部など、種々変形することが可能である。
 その他の構成、動作及び効果は、上述した実施形態と同様であってよいため、ここでは詳細な説明を省略する。
 5.応用例
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図32は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図32に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図32では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図33は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図33には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図32に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図32の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図32に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、図1を用いて説明した本実施形態に係るToFセンサ1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、図1を用いて説明した本実施形態に係るToFセンサ1は、図32に示した応用例の統合制御ユニット7600に適用することができる。例えば、ToFセンサ1の制御部11、演算部15及び外部I/F19は、統合制御ユニット7600のマイクロコンピュータ7610、記憶部7690、車載ネットワークI/F7680に相当する。ただし、これに限定されず、車両制御システム7000が図1におけるホスト80に相当してもよい。
 また、図1を用いて説明した本実施形態に係るToFセンサ1の少なくとも一部の構成要素は、図32に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1を用いて説明した本実施形態に係るToFセンサ1が、図32に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 以上、本開示の実施形態について説明したが、本開示の技術的範囲は、上述の実施形態そのままに限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、異なる実施形態及び変形例にわたる構成要素を適宜組み合わせてもよい。
 また、本明細書に記載された各実施形態における効果はあくまで例示であって限定されるものでは無く、他の効果があってもよい。
 なお、本技術は以下のような構成も取ることができる。
(1)
 半導体基板と、
 前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、
 前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、
 前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、
 前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
 を備え、
 前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、
 前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む
 受光素子。
(2)
 前記第1半導体領域は、前記遮光膜における行方向に延在する領域それぞれに設けられている前記(1)に記載の受光素子。
(3)
 前記主配線は、奇数列の前記第1半導体領域の第1の側を前記列方向に延在する第1主配線と、偶数列の前記第1半導体領域の前記第1の側を前記列方向に延在する第2主配線とを含み、
 前記複数の第1半導体領域のうち、奇数行の前記第1半導体領域は、前記第1主配線に前記枝配線を介して接続され、偶数行の前記第2半導体領域は、前記第2主配線に前記枝配線を介して接続される
 前記(1)又は(2)に記載の受光素子。
(4)
 前記主配線は、奇数列の前記第1半導体領域の第1の側を前記列方向に延在する第1主配線と、偶数列の前記第1半導体領域の前記第1の側を前記列方向に延在する第2主配線とを含み、
 前記奇数列の前記第1半導体領域のうち、奇数行の前記第1半導体領域は、前記第1主配線に前記枝配線を介して接続され、偶数行の前記第1半導体領域は、前記第2主配線に前記枝配線を介して接続され、
 前記偶数列の前記第1半導体領域のうち、前記奇数行の前記第1半導体領域は、前記第2主配線に前記枝配線を介して接続され、前記偶数行の前記第1半導体領域は、前記第1主配線に前記枝配線を介して接続される
 前記(1)又は(2)に記載の受光素子。
(5)
 前記第2半導体領域は、前記第1半導体領域とは反対の導電型を備える前記(1)~(4)の何れか1項に記載の受光素子。
(6)
 前記遮光膜上に行列状に配列する複数のオンチップレンズをさらに備える前記(1)~(5)の何れか1項に記載の受光素子。
(7)
 前記半導体基板の前記第1面は、モスアイ構造である前記(1)に記載の受光素子。
(8)
 複数の受光素子が行列状に配列する半導体基板と、
 前記半導体基板の第1面上であって、前記複数の受光素子の境界部分に格子状に設けられた遮光膜と、
 前記半導体基板における前記第1面とは反対側の第2面であって、前記複数の受光素子のうちの4つの受光素子の角部が集まる部分と、当該4つの受光素子が構成する矩形領域の4つの角部分とにそれぞれ設けられた第1半導体領域と、
 前記半導体基板の前記第2面であって、前記複数の受光素子の境界部分のうちの行方向に延在する境界部分それぞれを列方向から挟む位置それぞれに設けられた第2半導体領域と、
 前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
 を備える受光素子。
(9)
 前記第2半導体領域は、前記第1半導体領域と前記列方向から隣接する前記位置に設けられている前記(8)に記載の受光素子。
(10)
 半導体基板と、
 前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、
 前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、
 前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、
 前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
 前記複数の第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
 前記複数の第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
 を備え、
 前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、
 前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む
 固体撮像装置。
(11)
 複数の受光素子が行列状に配列する半導体基板と、
 前記半導体基板の第1面上であって、前記複数の受光素子の境界部分に格子状に設けられた遮光膜と、
 前記半導体基板における前記第1面とは反対側の第2面であって、前記複数の受光素子のうちの4つの受光素子の角部が集まる部分と、当該4つの受光素子が構成する矩形領域の4つの角部分とにそれぞれ設けられた第1半導体領域と、
 前記半導体基板の前記第2面であって、前記複数の受光素子の境界部分のうちの行方向に延在する境界部分それぞれを列方向から挟む位置それぞれに設けられた第2半導体領域と、
 前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
 前記第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
 前記第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
 を備える固体撮像装置。
(12)
 所定波長の光を出射する発光部と、
 受光した光から画素信号を生成する固体撮像装置と、
 前記固体撮像装置で生成された画素信号に基づいて物体までの距離を算出する演算部と、
 を備え、
 前記固体撮像装置は、
  半導体基板と、
  前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、
  前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、
  前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、
  前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
  前記複数の第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
  前記複数の第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
 を備え、
 前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、
 前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む
 測距装置。
(13)
 所定波長の光を出射する発光部と、
 受光した光から画素信号を生成する固体撮像装置と、
 前記固体撮像装置で生成された画素信号に基づいて物体までの距離を算出する演算部と、
 を備え、
 前記固体撮像装置は、
  複数の受光素子が行列状に配列する半導体基板と、
  前記半導体基板の第1面上であって、前記複数の受光素子の境界部分に格子状に設けられた遮光膜と、
  前記半導体基板における前記第1面とは反対側の第2面であって、前記複数の受光素子のうちの4つの受光素子の角部が集まる部分と、当該4つの受光素子が構成する矩形領域の4つの角部分とにそれぞれ設けられた第1半導体領域と、
  前記半導体基板の前記第2面であって、前記複数の受光素子の境界部分のうちの行方向に延在する境界部分それぞれを列方向から挟む位置それぞれに設けられた第2半導体領域と、
  前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
  前記第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
  前記第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
 を備える測距装置。
 1 ToFセンサ
 11 制御部
 13 発光部
 14 受光部
 15 演算部
 19 外部I/F
 20 単位画素
 20A、20B 読出し回路
 21 p+半導体領域(MIX)
 22、22A、22B n+半導体領域(DET)
 23 リセットトランジスタ
 24 転送トランジスタ
 26 FD
 27 増幅トランジスタ
 28 選択トランジスタ
 29A、29B 定電流回路
 30、230 PN半導体領域
 30A、30B 信号取出部
 31 受光素子
 40 半導体基板
 41 絶縁膜
 42 反射防止膜
 43 平坦化膜
 44 遮光膜
 45 オンチップレンズ
 50 貼合せチップ
 51 受光チップ
 52 回路チップ
 71、72 主配線
 73、74 枝配線
 80 ホスト
 90 物体
 100 固体撮像装置
 101 画素アレイ部
 102 システム制御部
 103 垂直駆動回路
 104 カラム処理回路
 105 水平駆動回路
 106 信号処理部
 107 データ格納部
 401 溝
 L1 レーザ光
 L2 反射光
 L10 入射光
 LD 画素駆動線
 VSL、VSL0、VSL1 垂直信号線

Claims (13)

  1.  半導体基板と、
     前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、
     前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、
     前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、
     前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
     を備え、
     前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、
     前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む
     受光素子。
  2.  前記第1半導体領域は、前記遮光膜における行方向に延在する領域それぞれに設けられている請求項1に記載の受光素子。
  3.  前記主配線は、奇数列の前記第1半導体領域の第1の側を前記列方向に延在する第1主配線と、偶数列の前記第1半導体領域の前記第1の側を前記列方向に延在する第2主配線とを含み、
     前記複数の第1半導体領域のうち、奇数行の前記第1半導体領域は、前記第1主配線に前記枝配線を介して接続され、偶数行の前記第2半導体領域は、前記第2主配線に前記枝配線を介して接続される
     請求項1に記載の受光素子。
  4.  前記主配線は、奇数列の前記第1半導体領域の第1の側を前記列方向に延在する第1主配線と、偶数列の前記第1半導体領域の前記第1の側を前記列方向に延在する第2主配線とを含み、
     前記奇数列の前記第1半導体領域のうち、奇数行の前記第1半導体領域は、前記第1主配線に前記枝配線を介して接続され、偶数行の前記第1半導体領域は、前記第2主配線に前記枝配線を介して接続され、
     前記偶数列の前記第1半導体領域のうち、前記奇数行の前記第1半導体領域は、前記第2主配線に前記枝配線を介して接続され、前記偶数行の前記第1半導体領域は、前記第1主配線に前記枝配線を介して接続される
     請求項1に記載の受光素子。
  5.  前記第2半導体領域は、前記第1半導体領域とは反対の導電型を備える請求項1に記載の受光素子。
  6.  前記遮光膜上に行列状に配列する複数のオンチップレンズをさらに備える請求項1に記載の受光素子。
  7.  前記半導体基板の前記第1面は、モスアイ構造である請求項1に記載の受光素子。
  8.  複数の受光素子が行列状に配列する半導体基板と、
     前記半導体基板の第1面上であって、前記複数の受光素子の境界部分に格子状に設けられた遮光膜と、
     前記半導体基板における前記第1面とは反対側の第2面であって、前記複数の受光素子のうちの4つの受光素子の角部が集まる部分と、当該4つの受光素子が構成する矩形領域の4つの角部分とにそれぞれ設けられた第1半導体領域と、
     前記半導体基板の前記第2面であって、前記複数の受光素子の境界部分のうちの行方向に延在する境界部分それぞれを列方向から挟む位置それぞれに設けられた第2半導体領域と、
     前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
     を備える受光素子。
  9.  前記第2半導体領域は、前記第1半導体領域と前記列方向から隣接する前記位置に設けられている請求項8に記載の受光素子。
  10.  半導体基板と、
     前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、
     前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、
     前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、
     前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
     前記複数の第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
     前記複数の第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
     を備え、
     前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、
     前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む
     固体撮像装置。
  11.  複数の受光素子が行列状に配列する半導体基板と、
     前記半導体基板の第1面上であって、前記複数の受光素子の境界部分に格子状に設けられた遮光膜と、
     前記半導体基板における前記第1面とは反対側の第2面であって、前記複数の受光素子のうちの4つの受光素子の角部が集まる部分と、当該4つの受光素子が構成する矩形領域の4つの角部分とにそれぞれ設けられた第1半導体領域と、
     前記半導体基板の前記第2面であって、前記複数の受光素子の境界部分のうちの行方向に延在する境界部分それぞれを列方向から挟む位置それぞれに設けられた第2半導体領域と、
     前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
     前記第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
     前記第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
     を備える固体撮像装置。
  12.  所定波長の光を出射する発光部と、
     受光した光から画素信号を生成する固体撮像装置と、
     前記固体撮像装置で生成された画素信号に基づいて物体までの距離を算出する演算部と、
     を備え、
     前記固体撮像装置は、
      半導体基板と、
      前記半導体基板の第1面上に設けられ、開口部が行列状に配列する格子状の遮光膜と、
      前記半導体基板における前記第1面とは反対側の第2面に行列状に配列する複数の第1半導体領域と、
      前記半導体基板の前記第2面であって前記第1半導体領域それぞれを列方向から挟む隣接領域に設けられた複数の第2半導体領域と、
      前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
      前記複数の第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
      前記複数の第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
     を備え、
     前記第1半導体領域は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域に位置し、
     前記配線層は、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を列方向に延在する主配線と、前記遮光膜と前記半導体基板の前記第1面を挟んで対応する領域を行方向に延在し、前記主配線と前記第1半導体領域それぞれとを接続する枝配線とを含む
     測距装置。
  13.  所定波長の光を出射する発光部と、
     受光した光から画素信号を生成する固体撮像装置と、
     前記固体撮像装置で生成された画素信号に基づいて物体までの距離を算出する演算部と、
     を備え、
     前記固体撮像装置は、
      複数の受光素子が行列状に配列する半導体基板と、
      前記半導体基板の第1面上であって、前記複数の受光素子の境界部分に格子状に設けられた遮光膜と、
      前記半導体基板における前記第1面とは反対側の第2面であって、前記複数の受光素子のうちの4つの受光素子の角部が集まる部分と、当該4つの受光素子が構成する矩形領域の4つの角部分とにそれぞれ設けられた第1半導体領域と、
      前記半導体基板の前記第2面であって、前記複数の受光素子の境界部分のうちの行方向に延在する境界部分それぞれを列方向から挟む位置それぞれに設けられた第2半導体領域と、
      前記半導体基板の前記第2面上に設けられ、前記第1半導体領域と電気的に接続された配線層と、
      前記第2半導体領域のうち、前記第1半導体領域に対して第1方向から隣接する第2半導体領域それぞれに接続された第1読出し回路と、
      前記第2半導体領域のうち、前記第1半導体領域に対して前記第1方向とは反対の第2方向から隣接する第2半導体領域それぞれに接続された第2読出し回路と、
     を備える測距装置。
PCT/JP2020/000354 2019-02-01 2020-01-08 受光素子、固体撮像装置及び測距装置 WO2020158321A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/425,407 US20220093669A1 (en) 2019-02-01 2020-01-08 Light-receiving element, solid-state imaging device, and ranging device
JP2020569470A JP7426347B2 (ja) 2019-02-01 2020-01-08 受光素子、固体撮像装置及び測距装置
EP20749068.1A EP3920243A4 (en) 2019-02-01 2020-01-08 LIGHT RECEIPT ELEMENT, SOLID STATE IMAGING DEVICE AND RANGE MEASURING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-017234 2019-02-01
JP2019017234 2019-02-01

Publications (1)

Publication Number Publication Date
WO2020158321A1 true WO2020158321A1 (ja) 2020-08-06

Family

ID=71842099

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/000354 WO2020158321A1 (ja) 2019-02-01 2020-01-08 受光素子、固体撮像装置及び測距装置

Country Status (5)

Country Link
US (1) US20220093669A1 (ja)
EP (1) EP3920243A4 (ja)
JP (1) JP7426347B2 (ja)
TW (1) TW202101746A (ja)
WO (1) WO2020158321A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017522727A (ja) * 2014-06-27 2017-08-10 ソフトキネティク センサーズ エヌブイ 多数電流によって補助される放射線検出器デバイス
WO2018042785A1 (ja) * 2016-08-29 2018-03-08 浜松ホトニクス株式会社 距離センサ及び距離画像センサ
JP2018117117A (ja) * 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10690753B2 (en) 2016-03-04 2020-06-23 Sony Corporation Imaging apparatus and distance measurement system
EP3573104B1 (en) * 2017-01-19 2022-04-13 Sony Semiconductor Solutions Corporation Light-receiving element
CN109155325A (zh) * 2017-03-22 2019-01-04 索尼半导体解决方案公司 摄像装置和信号处理装置
US20220068983A1 (en) * 2019-02-01 2022-03-03 Sony Semiconductor Solutions Corporation Light-receiving element, solid-state imaging device, and distance measurement device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017522727A (ja) * 2014-06-27 2017-08-10 ソフトキネティク センサーズ エヌブイ 多数電流によって補助される放射線検出器デバイス
WO2018042785A1 (ja) * 2016-08-29 2018-03-08 浜松ホトニクス株式会社 距離センサ及び距離画像センサ
JP2018117117A (ja) * 2017-01-19 2018-07-26 ソニーセミコンダクタソリューションズ株式会社 受光素子、撮像素子、および、撮像装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3920243A4 *

Also Published As

Publication number Publication date
US20220093669A1 (en) 2022-03-24
EP3920243A4 (en) 2022-04-20
JPWO2020158321A1 (ja) 2021-12-02
EP3920243A1 (en) 2021-12-08
TW202101746A (zh) 2021-01-01
JP7426347B2 (ja) 2024-02-01

Similar Documents

Publication Publication Date Title
WO2020158322A1 (ja) 受光素子、固体撮像装置及び測距装置
WO2020170841A1 (ja) アバランシェフォトダイオードセンサ及び測距装置
WO2020153123A1 (ja) 撮像装置及び電子機器
CN116547820A (zh) 光接收装置和距离测量设备
WO2020158321A1 (ja) 受光素子、固体撮像装置及び測距装置
TWI842804B (zh) 受光元件、固體攝像裝置及測距裝置
WO2023162651A1 (ja) 受光素子、および電子機器
WO2023067755A1 (ja) 光検出装置、撮像装置および測距装置
WO2022054617A1 (ja) 固体撮像装置及び電子機器
WO2022102471A1 (ja) 撮像素子および撮像装置
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2024038828A1 (ja) 光検出装置
WO2022186040A1 (ja) 撮像装置、その駆動方法、および電子機器
WO2024106196A1 (ja) 固体撮像装置および電子機器
WO2023229018A1 (ja) 光検出装置
WO2022209256A1 (ja) 撮像素子、撮像装置及び撮像素子の制御方法
WO2022149556A1 (ja) 撮像装置および電子機器
WO2023195395A1 (en) Light detection device and electronic apparatus
JP2023066297A (ja) 光検出装置および測距システム
JP2023182874A (ja) 固体撮像装置
CN118103725A (zh) 光检测元件和光检测装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20749068

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020569470

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020749068

Country of ref document: EP

Effective date: 20210901