WO2023190277A1 - 光検出装置 - Google Patents

光検出装置 Download PDF

Info

Publication number
WO2023190277A1
WO2023190277A1 PCT/JP2023/012076 JP2023012076W WO2023190277A1 WO 2023190277 A1 WO2023190277 A1 WO 2023190277A1 JP 2023012076 W JP2023012076 W JP 2023012076W WO 2023190277 A1 WO2023190277 A1 WO 2023190277A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
substrate
light emitting
optical
pulse signal
Prior art date
Application number
PCT/JP2023/012076
Other languages
English (en)
French (fr)
Inventor
昌宗 濱松
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023190277A1 publication Critical patent/WO2023190277A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/484Transmitters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L31/00Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof
    • H01L31/12Semiconductor devices sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation; Processes or apparatus specially adapted for the manufacture or treatment thereof or of parts thereof; Details thereof structurally associated with, e.g. formed in or on a common substrate with, one or more electric light sources, e.g. electroluminescent light sources, and electrically or optically coupled thereto
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01SDEVICES USING THE PROCESS OF LIGHT AMPLIFICATION BY STIMULATED EMISSION OF RADIATION [LASER] TO AMPLIFY OR GENERATE LIGHT; DEVICES USING STIMULATED EMISSION OF ELECTROMAGNETIC RADIATION IN WAVE RANGES OTHER THAN OPTICAL
    • H01S5/00Semiconductor lasers
    • H01S5/02Structural details or components not essential to laser action
    • H01S5/022Mountings; Housings
    • H01S5/0225Out-coupling of light
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01SDEVICES USING THE PROCESS OF LIGHT AMPLIFICATION BY STIMULATED EMISSION OF RADIATION [LASER] TO AMPLIFY OR GENERATE LIGHT; DEVICES USING STIMULATED EMISSION OF ELECTROMAGNETIC RADIATION IN WAVE RANGES OTHER THAN OPTICAL
    • H01S5/00Semiconductor lasers
    • H01S5/40Arrangement of two or more semiconductor lasers, not provided for in groups H01S5/02 - H01S5/30
    • H01S5/42Arrays of surface emitting lasers

Definitions

  • the present disclosure relates to a photodetection device.
  • ToF sensors measure the distance to an object by emitting a light pulse signal to the object and receiving the reflected light signal reflected by the object, and the number of photons included in the reflected light signal. Photon counters that count are known.
  • distance measurement and photon counting can be performed by sequentially shifting some of the light-emitting elements among the plurality of light-emitting elements to emit light.
  • a plurality of light emitting elements there may be variations in the time from when each of the plurality of light emitting elements is instructed to emit light until it starts emitting light due to manufacturing variations and environmental conditions such as temperature.
  • a plurality of light-receiving elements there may be variations in the time from when a reflected light signal is incident on each light-receiving element until it outputs a light-receiving signal due to manufacturing variations and environmental conditions such as temperature.
  • the present disclosure provides a photodetection device that can accurately correct variations in light emitting elements and light receiving elements.
  • a plurality of light emitting elements that emit a first optical pulse signal, a plurality of light propagation members that propagate the first optical pulse signal emitted by each of the plurality of light emitting elements; a plurality of first light receiving elements that receive the first optical pulse signals propagated by the plurality of light propagation members; a plurality of second light receiving elements that receive a reflected light pulse signal obtained by reflecting the first light pulse signal emitted by each of the plurality of light emitting elements by an object;
  • a photodetection device is provided, including a plurality of light guide members that guide the first optical pulse signals emitted by the plurality of light emitting elements to the plurality of light propagation members.
  • Each of the plurality of light emitting elements has a laminate including an active layer and a light extraction part, A portion of the first optical pulse signal emitted from the corresponding light extraction section may be incident on each of the plurality of light propagation members.
  • a first substrate that supports the plurality of laminates and transmits the first optical pulse signal emitted from the light extraction section; a plurality of electrodes arranged at an end of the plurality of laminates opposite to the light extraction section; The plurality of light propagation members may be arranged along the first substrate.
  • a first substrate that is disposed on the opposite side of the light extraction portion of the plurality of laminates and supports the plurality of laminates; a plurality of electrodes arranged on the first substrate and supplying voltage to the plurality of laminates;
  • the plurality of light propagation members may be arranged along the first substrate.
  • Each of the plurality of light emitting elements has a laminate including an active layer and a light extraction part, Each of the plurality of light propagation members may propagate a portion of the first light pulse signal emitted from the corresponding active layer.
  • a first substrate that supports the plurality of laminates and transmits the first optical pulse signal emitted from the light extraction section; a plurality of electrodes arranged at an end of the plurality of laminates opposite to the light extraction section;
  • the plurality of light propagation members may be arranged along the plurality of active layers.
  • the plurality of light propagation members may be arranged along the plurality of active layers.
  • Each of the plurality of light emitting elements has a laminate including an active layer and a light extraction part, and a light reflection member disposed on the opposite side of the light extraction part with the active layer therebetween,
  • Each of the plurality of light propagation members may propagate the first optical pulse signal emitted from an opening provided in a part of the corresponding light reflection member.
  • a first substrate that supports the plurality of laminates and transmits the first optical pulse signal emitted from the light extraction section; a plurality of electrodes arranged at an end of the plurality of laminates opposite to the light extraction section; a second substrate that generates a voltage to be supplied to the plurality of electrodes;
  • the plurality of light propagation members may be arranged on the second substrate.
  • a first substrate that is disposed on the opposite side of the light extraction portion of the plurality of laminates and supports the plurality of laminates; a plurality of electrodes arranged on the first substrate; a second substrate that generates a voltage to be supplied to the plurality of electrodes;
  • the plurality of light propagation members may be arranged on the second substrate.
  • the plurality of light propagation members may be arranged so as to straddle the light emitting substrate and the light receiving substrate.
  • the plurality of light propagation members may be arranged on the substrate.
  • the plurality of light propagation members may be arranged so as to straddle the light emitting substrate and the light receiving substrate.
  • the plurality of first light receiving elements are arranged closer to the plurality of light emitting elements than the plurality of second light receiving elements,
  • the plurality of light propagation members may be arranged from the region of the plurality of light emitting elements to the region of the plurality of first light receiving elements.
  • a light shielding member may be provided that blocks light so that the first optical pulse signal propagated by the plurality of light propagation members does not enter the plurality of second light receiving elements.
  • the plurality of light guide members may include a grating coupler.
  • Each of the plurality of light guide members may switch and propagate the first optical pulse signal emitted by two or more of the light emitting elements.
  • the first light pulse signals emitted by the two or more light emitting elements may be sequentially made to enter the corresponding light guide members by turning on one of the two or more optical switches one by one.
  • the first light receiving element may include a SPAD (Single Photon Avalanche photodiode), a SiPM (Silicon Photomultiplier), an iToF (Indirect Time of Flight) sensor, or a photon count sensor.
  • SPAD Single Photon Avalanche photodiode
  • SiPM Silicon Photomultiplier
  • iToF Indirect Time of Flight
  • the light propagation member may have an optical waveguide or an optical fiber and an optical connector.
  • FIG. 1 is a block diagram showing a schematic configuration of a ranging system including a photodetection device according to a first embodiment.
  • FIG. 3 is a schematic plan view of a light emitting section and a pixel array section according to the first embodiment.
  • FIG. 3 is a cross-sectional view showing the positional relationship between a light emitting element and an optical waveguide.
  • FIG. 4 is a sectional view showing a first modification example of FIG. 3;
  • FIG. 4 is a sectional view showing a second modification example of FIG. 3;
  • FIG. 5 is a cross-sectional view showing a more specific cross-sectional structure of FIG. 4 in which an optical waveguide is provided near a light extraction portion of a light emitting element.
  • FIG. 3 is a schematic plan view of a light emitting section and a pixel array section according to the first embodiment.
  • FIG. 3 is a cross-sectional view showing the positional relationship between a light emitting element and an optical waveguide.
  • FIG. 6B is a cross-sectional view of a modified example of FIG. 6A.
  • FIG. 6 is a cross-sectional view showing a more specific cross-sectional structure of FIG. 5 in which an optical waveguide is provided near the active layer of a light emitting element.
  • FIG. 7 is a cross-sectional view showing a more specific cross-sectional structure of FIG. 6 in which an optical waveguide is provided on the opposite side of the light extraction portion of the light emitting element.
  • FIG. 8A is a cross-sectional view of a modified example of FIG. 8A.
  • FIG. 2 is a cross-sectional view of a surface type VCSEL in which an optical waveguide is provided near a light extraction portion of a light emitting element.
  • FIG. 10A is a cross-sectional view of a first modification example of FIG. 10A.
  • FIG. 10A is a cross-sectional view of a second modification of FIG. 10A.
  • FIG. 2 is a cross-sectional view of a surface-type VCSEL in which an optical waveguide is provided on the opposite side of a light extraction portion of a light emitting element.
  • FIG. 11A is a cross-sectional view of a modified example of FIG. 11A.
  • FIG. 3 is a cross-sectional view showing the structure around a light emitting section and a light receiving section.
  • FIG. 13 is a cross-sectional view of the first modification of FIG. 12;
  • FIG. 13 is a sectional view of a second modification example of FIG. 12.
  • FIG. 3 is a diagram showing an optical coupling means consisting of a grating coupler.
  • FIG. 7 is a schematic cross-sectional view showing a first modification of the optical coupling means.
  • FIG. 7 is a schematic cross-sectional view showing a second modification of the optical coupling means.
  • FIG. 7 is a schematic cross-sectional view showing a third modification of the optical coupling means.
  • FIG. 7 is a schematic cross-sectional view showing a fourth modification of the optical coupling means.
  • FIG. 16A is a schematic cross-sectional view showing a first modification of FIG. 16A.
  • FIG. 16A is a schematic cross-sectional view showing a second modification of FIG. 16A.
  • FIG. 16A is a schematic cross-sectional view showing a third modification of FIG. 16A.
  • FIG. 3 is a schematic cross-sectional view in which reference pixels are arranged on a substrate different from the LDD substrate.
  • FIG. 17A is a schematic cross-sectional view showing a first modification of FIG. 17A.
  • FIG. 17A is a schematic cross-sectional view showing a second modification of FIG. 17A.
  • FIG. 17A is a schematic cross-sectional view showing a third modification of FIG. 17A.
  • FIG. 3 is a schematic cross-sectional view showing an example of arranging a light emitting element, a reference pixel, and a distance measuring pixel on an LDD substrate. The figure which shows the example which arrange
  • FIG. 19B is a diagram showing a modification of FIG. 19A.
  • FIG. 3 is a diagram showing a first example of a method for transmitting and receiving optical pulse signals between a substrate of a light emitting section and a substrate of a light receiving section.
  • FIG. 7 is a diagram illustrating a second example of a method for transmitting and receiving optical pulse signals between a substrate of a light emitting section and a substrate of a light receiving section.
  • FIG. 7 is a diagram showing a third example of a method for transmitting and receiving optical pulse signals between a substrate of a light emitting section and a substrate of a light receiving section.
  • FIG. 3 is a diagram illustrating an example in which light is incident on a reference pixel using a grating coupler. The figure which shows the 1st modification of FIG. 21A. The figure which shows the 2nd modification of FIG. 21A. The figure which shows the example which uses SPAD as a light receiving element which comprises a reference pixel.
  • FIG. 3 is a plan view schematically showing an optical switch disposed between each light emitting element 5 and a corresponding optical waveguide.
  • FIG. 3 is an enlarged plan view of the structure around the optical switch.
  • FIG. 1 is a perspective view of an optical gate switch that is a first example of an optical switch.
  • FIG. 3 is a perspective view of a Mach-Zehnder interference type optical switch, which is a second example of an optical switch.
  • FIG. 7 is a perspective view of a directional coupling type optical switch, which is a third example of an optical switch.
  • FIG. 1 is a block diagram showing an example of a schematic configuration of a vehicle control system.
  • FIG. 3 is an explanatory diagram showing an example of installation positions of an outside-vehicle information detection section and an imaging section.
  • the photodetector may include components and functions that are not shown or explained. The following description does not exclude components or features not shown or described.
  • FIG. 1 is a block diagram showing a schematic configuration of a ranging system 2 including a photodetecting device 1 according to a first embodiment.
  • the distance measuring system 2 in FIG. 1 includes a photodetector 1, a light emitting section 3, and an overall control section 4.
  • the distance measurement system 2 in FIG. 1 performs distance measurement processing using a dToF (direct time of flight) method.
  • the photodetector 1 has a light receiving section 25.
  • the light emitting section 3 may be abbreviated as Tx
  • the light receiving section 25 may be abbreviated as Rx.
  • the light emitting section 3 includes a plurality of light emitting elements 5, a light emitting source 6, a drive circuit 7, a clock generation section 8, and a light emission control section 9.
  • a plurality of light emitting elements 5 are arranged in a first direction X and a second direction Y that intersect with each other.
  • the plurality of light emitting elements 5 repeatedly emit light emission pulse signals (Tx pulse signals) at predetermined time intervals.
  • the light emitting unit 3 can scan optical signals emitted by the plurality of light emitting elements 5 in a predetermined two-dimensional space. The specific method of scanning the optical signal does not matter.
  • the light emitting element 5 is, for example, a VCSEL (Vertical Cavity Surface Emitting Laser).
  • VCSEL Vertical Cavity Surface Emitting Laser
  • the first direction (horizontal direction) X in which the plurality of light emitting elements 5 are arranged may be referred to as a column
  • the second direction (vertical direction) Y may be referred to as a row.
  • One row of the plurality of light emitting elements 5 arranged in the first direction X is called a light emitting element row or a light emitting element group.
  • An optical waveguide 19 extending in the first direction X is connected to each light emitting element row.
  • a plurality of optical waveguides 19 are arranged for a plurality of light emitting element rows arranged in the second direction Y. Two or more light emitting elements 5 in each light emitting element row can make optical pulse signals enter the optical waveguide 19 in sequence. In this way, two or more optical pulse signals from two or more light emitting elements 5 are prevented from entering the optical waveguide 19 at the same time, and the optical pulse signals from each light emitting element 5 are sequentially transmitted to the corresponding optical waveguide 19. It is propagated by
  • the plurality of light emitting pixel columns arranged in the second direction Y can cause optical pulse signals to enter the plurality of optical waveguides 19 simultaneously. Therefore, the plurality of optical waveguides 19 propagate optical pulse signals from different light emitting elements 5 at the same timing.
  • the light emitting source 6 is provided separately from the plurality of light emitting elements 5, and is used to correct a time difference in light reception timing of the light receiving element 30, which will be described later. Typically, the light source 6 emits a light pulse signal before causing the plurality of light emitting elements 5 to emit light and starting distance measurement processing.
  • the light emitting area of the light emitting source 6 includes the entire light receiving area of the light receiving section 25. Therefore, all the light receiving elements 30 in the light receiving section 25 can receive the optical pulse signal from the light emitting source 6.
  • the light emitting source 6 is not an essential component. If there is no need to correct the time difference in the light reception timing of the light receiving element 30, the light emitting source 6 may be omitted.
  • the drive circuit 7 drives the plurality of light emitting elements 5 and the light emitting source 6 based on the control signal from the light emission control section 9. For example, the drive circuit 7 controls at least one of the light emission timing and the light emission waveform of the optical pulse signal based on a control signal from the light emission control section 9. More specifically, the drive circuit 7 controls the voltage level of the voltage applied to the anode or cathode of the plurality of light emitting elements 5 based on the control signal from the light emission control section 9, and controls the voltage level of the voltage applied to the anode or cathode of the plurality of light emitting elements 5. At least one of the signal intensity, optical peak intensity, pulse width, rising edge timing, falling edge timing, and slew rate of the optical pulse signal is controlled.
  • the clock generation unit 8 generates a clock signal synchronized with the reference clock signal.
  • the reference clock signal is, for example, a signal input from outside the ranging system 2. Alternatively, the reference clock signal may be generated within the ranging system 2.
  • the light emission control unit 9 generates a control signal for controlling at least one of the light emission timing and light emission waveform of each light emitting element 5 in synchronization with the clock signal.
  • the drive circuit 7 described above drives the plurality of light emitting elements 5 and light emitting sources 6 based on control signals output from the light emission control section 9.
  • the overall control section 4 controls the light emitting section 3 and the photodetecting device 1. At least one of the light emitting section 3 and the overall control section 4 may be integrated into the photodetecting device 1.
  • the photodetector 1 includes a pixel array section 11, a distance measurement processing section 12, a control section 13, a clock generation section 14, a light emission timing control section 15, and a drive circuit 16.
  • the pixel array section 11 constitutes a light receiving section 25.
  • the pixel array section 11 has a reference pixel array section 11a and a distance measuring pixel array section 11b.
  • the reference pixel array section 11a has a plurality of reference pixels 18 arranged at least in the second direction Y.
  • the plurality of reference pixels 18 are associated with the plurality of optical waveguides 19. More specifically, each of the plurality of reference pixels 18 arranged in the second direction Y receives the optical pulse signal propagated through the corresponding optical waveguide 19.
  • the plurality of reference pixels 18 receive optical pulse signals emitted by the plurality of light emitting elements 5 arranged in the second direction Y through the plurality of optical waveguides 19. Thereby, the plurality of reference pixels 18 can directly receive optical pulse signals from the plurality of light emitting elements 5. Therefore, the plurality of reference pixels 18 can accurately detect the light emission timing of the plurality of light emitting elements 5.
  • the plurality of reference pixels 18 receive optical signals propagated through the plurality of optical waveguides 19 and output voltage signals in response to the arrival of photons. Further, the plurality of reference pixels 18 receive a light pulse signal from the light emitting source 6 and output a voltage signal in response to the arrival of photons.
  • the ranging pixel array section 11b has a plurality of ranging pixels 20 arranged in the first direction X and the second direction Y.
  • the plurality of ranging pixels 20 receive reflected light signals from the object 10.
  • the plurality of ranging pixels 20 output voltage signals in response to the arrival of photons. It is also possible to detect the light intensity of the reflected light signal by averaging the results of repeatedly receiving the reflected light signal at each ranging pixel 20. In the following, an example will be described in which a plurality of reference pixels 18 and a plurality of ranging pixels 20 output voltage signals in response to the arrival of photons.
  • Each of the plurality of reference pixels 18 and the plurality of ranging pixels 20 has a light receiving element 30.
  • the light receiving element 30 is, for example, a SPAD (Single Photon Avalanche Photo Diode) 30.
  • Each reference pixel 18 and each ranging pixel 20 may have a quench circuit (not shown). In the initial state, the quench circuit supplies a reverse bias voltage with a potential difference exceeding the breakdown voltage between the anode and cathode of the SPAD 30. After the SPAD 30 detects a photon, the drive circuit 16 supplies a reverse bias voltage to the SPAD 30 via a corresponding quench circuit to prepare for detection of the next reflected light pulse signal (Rx pulse signal).
  • Rx pulse signal reflected light pulse signal
  • the distance measurement processing section 12 includes a time-to-digital converter (TDC) 21, a histogram generation section 22, a signal processing section 23, and a distance measurement control section 24.
  • TDC time-to-digital converter
  • the TDC 21 generates a time digital signal with a predetermined time resolution according to the reception time of the reflected light pulse signal received by the SPAD 30.
  • the histogram generation unit 22 generates a histogram with a bin width corresponding to the time resolution of the TDC 21 based on the time digital signal generated by the TDC 21 .
  • the bin width is the width of each frequency unit making up the histogram. The higher the time resolution of the TDC 21, the narrower the bin width, and the more accurately a histogram that reflects the time frequency at which Rx pulse signals are received can be obtained.
  • the signal processing section 23 has a distance measuring section 23a.
  • the distance measuring unit 23 a calculates the distance to the object 10 by calculating the center of gravity of the Rx pulse signal based on the histogram, and outputs the calculated distance through the output buffer 28 .
  • the signal processing unit 23 calculates the time difference between the light emission timings of the plurality of light emitting elements 5, and generates a correction signal for correcting the time difference between the light emission timings of the plurality of light emitting elements 5 based on the time difference. do.
  • the control section 13 controls the processing operations of each section within the photodetection device 1.
  • the distance measurement control section 24 controls the TDC 21, the histogram generation section 22, and the signal processing section 23 in the distance measurement processing section 12.
  • the light emission timing control section 15 controls the light emission control section 9 in the light emission section 3 and also controls the drive circuit 16.
  • the drive circuit 16 performs quench control to restore the cathode voltage to the original voltage when the plurality of reference pixels 18 and the plurality of distance measuring pixels 20 in the pixel array section 11 detect light and the cathode voltage drops. I do.
  • the clock generation unit 14 generates a clock signal used by the TDC 21 and the histogram generation unit 22.
  • the clock generation unit 14 generates a clock signal using, for example, a PLL circuit (not shown).
  • FIG. 2 is a schematic plan view of the light emitting section 3 and the pixel array section 11 according to the first embodiment.
  • the light emitting unit 3 in FIG. 2 has a VCSEL array 17 in which a plurality of light emitting elements 5 (VCSELs) are arranged.
  • the VCSEL array 17 in FIG. 2 has 16 light emitting elements 5 in the first direction X (horizontal direction) and 8 light emitting elements 5 in the second direction Y (vertical direction), but this is just an example;
  • the number of light emitting elements 5 arranged in the second direction Y is arbitrary.
  • the VCSEL array 17 is provided with eight optical waveguides 19 extending in the first direction X, and along each optical waveguide 19, sixteen light emitting elements 5 are arranged in a staggered manner.
  • the 16 light emitting elements 5 are capable of inputting optical pulse signals into the corresponding optical waveguides 19. However, it is prohibited for a plurality of light emitting elements 5 to simultaneously input optical pulse signals into the optical waveguide 19. Therefore, the 16 light emitting elements 5 sequentially cause the optical pulse signal to enter the optical waveguide 19.
  • the light emission timings of the plurality of light emitting elements 5 are represented by numbers from 0 to 15. Eight light emitting elements 5 marked with 0 emit light at the same timing, and thereafter, eight light emitting elements 5 marked with the same number emit light at the same timing in ascending order of numbers.
  • the pixel array section 11 in the light receiving section 25 has a plurality of reference pixels 18 and a plurality of distance measuring pixels 20.
  • Each reference pixel 18 and each ranging pixel 20 have the same structure, and have a light receiving element 30 having the same structure and electrical characteristics. However, as will be described later, variations in the electrical characteristics of the light receiving elements 30 constituting each reference pixel 18 and each ranging pixel 20 may occur due to variations in the manufacturing process or the like.
  • the optical waveguide 19 on the VCSEL array 17 is arranged close to the reference pixel 18 in the light receiving section 25.
  • the optical pulse signal propagated through each optical waveguide 19 is incident on the corresponding reference pixel 18 .
  • each reference pixel 18 can detect the light emission timing of the corresponding light emitting element 5 almost in real time. Further, since it is considered that almost no optical loss occurs in the optical waveguide 19, each reference pixel 18 can detect the emission intensity of the corresponding light emitting element 5.
  • the plurality of ranging pixels 20 are arranged in the second direction Y (vertical direction), for example, in the same number as the reference pixels 18.
  • the number of ranging pixels 20 in the first direction X (horizontal direction) is arbitrary.
  • Each reference pixel 18 and each ranging pixel 20 outputs a voltage signal generated in response to the arrival of a photon, for example.
  • Each of the reference pixel 18 and each ranging pixel 20 arranged in the first direction X inputs a voltage signal to the corresponding TDC 21.
  • Each TDC 21 converts the voltage signal of the reference pixel 18 or each ranging pixel 20 into a time digital signal.
  • the signal processing unit 23 calculates the distance to the object 10 based on the histogram. calculate.
  • the number of reference pixels 18 and the number of ranging pixels 20 arranged in the second direction Y are the same, but they do not necessarily have to be the same.
  • Each reference pixel 18 and each ranging pixel 20 in FIG. 2 has a pixel section and an analog front end section (hereinafter referred to as an AFE section), and receives a voltage signal from the AFE section according to a light pulse signal or a reflected light pulse signal. Output.
  • AFE section an analog front end section
  • the light emission control unit 9 in the light emission unit 3 in FIG. 2 may have a register that stores information for adjusting light emission timing and light emission waveform.
  • the drive circuit 7 individually adjusts the light emission timing and light emission waveform for each light emitting element 5 based on the information in this register.
  • the drive circuit 7 may adjust the light emission timing and light emission waveform of all the light emitting elements 5 at once based on the information in these registers.
  • this specification mainly shows an example in which one reference pixel 18 receives a light pulse signal propagated in one optical waveguide 19, the pitch of the light emitting element 5, the reference pixel 18, and the distance measuring Since the pitch does not necessarily match the pitch of the pixels 20, a plurality of reference pixels 18 may receive an optical pulse signal propagated through one optical waveguide 19.
  • FIG. 3 is a cross-sectional view showing the positional relationship between the light emitting element 5 and the optical waveguide 19.
  • the light emitting element 5 has a laminated film 40.
  • the laminated film 40 includes a first multilayer film reflecting mirror, a first spacer layer, an active layer 41, a second spacer layer, a second multilayer film reflecting mirror, etc.
  • the light intensity is improved by causing resonance between the first multilayer film reflecting mirror and the second multilayer film reflecting mirror, and the light is emitted from one end surface side of the laminated film.
  • the optical pulse signal generated in the active layer 41 is repeatedly reflected between the first multilayer film reflecting mirror and the second multilayer film reflecting mirror disposed on both end surfaces of the laminated film 40, and becomes light.
  • the intensity is increased and the light is emitted from the light extraction portion 62 provided on one end surface of the laminated film 40.
  • the optical waveguide 19 is arranged near the light extraction section 62. A part of the optical pulse signal emitted from the light extraction section 62 enters the optical waveguide 19, propagates through the optical waveguide 19, and is received by the reference pixel 18.
  • the optical waveguide 19 in FIG. 3 has, for example, a structure in which a light transmission layer 55 is surrounded by a cladding layer 56.
  • a difference in the refractive index of the light transmission layer 55 and the refractive index of the cladding layer 56 the optical pulse signal emitted from the light extraction section 62 and input to the light transmission layer 55 can be transmitted to the reference pixel 18 without optical loss. It can be propagated.
  • FIG. 4 is a sectional view showing a first modification of FIG. 3.
  • the optical waveguide 19 is arranged on one end side of the laminated film 40 of the light emitting element 5, whereas in FIG. 4, the optical waveguide 19 is provided along the active layer 41, which is a part of the laminated film.
  • the active layer 41 of each light emitting element 5 is arranged at the same layer height. Therefore, by arranging the optical waveguide 19 along the plurality of active layers 41, the optical pulse signals emitted by each light emitting element 5 can be propagated through the same optical waveguide 19.
  • the optical waveguide 19 in FIG. 4 propagates a part of the optical pulse signal generated and amplified in the active layer 41.
  • the optical pulse signal can be efficiently input to the optical waveguide 19 by utilizing the optical confinement effect of the active layer 41.
  • optical waveguide 19 in FIG. 4 can be formed using a process of forming a laminated film, and there is no need to provide a separate process for forming the optical waveguide 19.
  • FIG. 5 is a sectional view showing a second modification example of FIG. 3.
  • FIG. 3 shows an example in which the optical waveguide 19 is provided on the side of the light extraction part 62 of the light emitting element 5, FIG. There is.
  • a material layer with high reflectance is usually arranged to prevent light from leaking.
  • an opening 42a is provided in a part of the end surface opposite to the light extraction part 62, and a part of the optical pulse signal is emitted from the opening 42a.
  • the locations where the optical waveguide 19 is provided are roughly divided into 1) near the light extraction part 62 of the light emitting element 5, 2) near the active layer 41 of the light emitting element 5, and 3) near the active layer 41 of the light emitting element 5. This is either the side opposite to the light extraction portion 62 of the light emitting element 5.
  • FIG. 6A is a cross-sectional view showing a more specific cross-sectional structure of FIG. 4 in which the optical waveguide 19 is provided near the light extraction portion 62 of the light emitting element 5.
  • FIG. 6A shows an example including a VCSEL substrate 38 having a mesa-structured light emitting element 5. On the VCSEL substrate 38, light emitting elements 5 having a mesa structure are arranged at regular intervals, and an optical waveguide 19 is arranged on the VCSEL substrate 38.
  • the light emitting element 5 has a laminated film 40, and a light pulse signal generated in an active layer 41 in the laminated film 40 is emitted from a light extraction part 62 provided on the VCSEL substrate 38 side and transmitted through the VCSEL substrate 38. and enters the optical waveguide 19.
  • a cathode electrode (not shown) is arranged on the VCSEL substrate 38, and an anode electrode 42 is arranged at the end of each light emitting element 5 on the opposite side from the light extraction part 62.
  • the anode electrode 42 receives voltage supply from an LDD substrate 39 (not shown).
  • FIG. 6B is a cross-sectional view of a modified example of FIG. 6A.
  • FIG. 6B differs from FIG. 6A in the arrangement location of the optical waveguide 19.
  • the optical waveguide 19 in FIG. 6A is arranged on the surface opposite to the surface on which the plurality of light emitting elements 5 of the VCSEL substrate 38 are arranged, whereas the optical waveguide 19 in FIG. are arranged along the surface lined up. That is, the optical waveguide 19 in FIG. 6B is arranged near the light extraction section 62 of each light emitting element 5.
  • FIG. 7 is a cross-sectional view showing a more specific cross-sectional structure of FIG. 5 in which the optical waveguide 19 is provided near the active layer 41 of the light emitting element 5.
  • an optical waveguide 19 is provided near the active layer 41 of the plurality of light emitting elements 5 on the VCSEL substrate 38, and the optical waveguide 19 is provided in the vicinity of the active layer 41 of the plurality of light emitting elements 5.
  • the optical pulse signal incident from 41 is propagated.
  • FIG. 8A is a cross-sectional view more specifically showing the cross-sectional structure of FIG. 6 in which the optical waveguide 19 is provided on the opposite side of the light extraction portion 62 of the light emitting element 5.
  • an opening 42a is provided in a part of the anode electrode 42 of each light emitting element 5, and a part of the optical pulse signal that is repeatedly reflected on the laminated film 40 is emitted from this opening 42a.
  • the optical waveguide 19 in FIG. 8A is arranged near the opening 42a, and the optical pulse signal emitted from the opening 42a is input to the optical waveguide 19.
  • the anode electrode 42 is connected to the LDD substrate 39 via a bump or the like.
  • FIG. 8B is a cross-sectional view of a modification of FIG. 8A.
  • the optical waveguide 19 in FIG. 8B is arranged closer to the LDD substrate 39 than the optical waveguide 19 in FIG. 8A. Therefore, the optical waveguide 19 can be formed in the manufacturing process of the LDD substrate 39, and the manufacturing process can be simplified.
  • FIG. 6A, FIG. 6B, FIG. 7, FIG. 8A, and FIG. 8B all show examples in which light is extracted from the back side of the VCSEL board 38, but light is extracted from the front side of the VCSEL board 38. You may take it out.
  • the light emitting element 5 that extracts light from the front side of the VCSEL substrate 38 will be referred to as a surface type VCSEL.
  • FIGS. 6A, 6B, 7, 8A, and 8B can be called backside VCSELs.
  • FIG. 9 is a cross-sectional view of a surface type VCSEL in which an optical waveguide 19 is provided near the light extraction portion 62 of the light emitting element 5.
  • the VCSEL substrate 38 in FIG. 9 is placed on the opposite side from that in FIG. 6A.
  • An optical waveguide 19 is arranged near the light extraction portions 62 of the plurality of light emitting elements 5.
  • the electrode layer 63 disposed near the light extraction portion 62 of the light emitting element 5 is electrically connected to the electrode 65 disposed on the back side of the VCSEL substrate 38 via a contact 64 penetrating the laminated film 40 and the VCSEL substrate 38. It is connected to the.
  • FIG. 10A is a cross-sectional view of a surface type VCSEL in which an optical waveguide 19 is provided near the active layer 41 of the light emitting element 5.
  • the VCSEL substrate 38 in FIG. 10A is placed on the opposite side from that in FIG. Further, an electrode layer 63 disposed near the light extraction portion 62 of the light emitting element 5 is electrically connected to an electrode on the back side of the VCSEL substrate 38 via a contact 64 penetrating the laminated film 40 and the VCSEL substrate 38. has been done.
  • FIG. 10B is a cross-sectional view of a first modification of FIG. 10A.
  • FIG. 10B shows an example in which the optical pulse signal taken out from the active layer 41 is guided in the stacking direction by the reflective member 66 and made to enter the optical waveguide 19 arranged on the back side of the VCSEL substrate 38.
  • 10B is the same as FIG. 10A in that light is extracted from the active layer 41, but differs from FIG. 10A in that the optical waveguide 19 is not placed near the active layer 41.
  • FIG. 10C is a cross-sectional view of a second modification of FIG. 10A.
  • FIG. 10C is similar to the cross-sectional structure of FIG. 10B, and shows the location of the optical waveguide 19 more specifically.
  • the optical waveguide 19 in FIG. 10C is placed between the VCSEL substrate 38 and the LDD substrate 39.
  • the optical pulse signal taken out from the active layer 41 is guided in the stacking direction by the reflective member 66, passes through the stacked film 40 and the VCSEL substrate 38, and enters the optical waveguide 19.
  • FIG. 11A is a cross-sectional view of a surface type VCSEL in which an optical waveguide 19 is provided on the opposite side of the light extraction portion 62 of the light emitting element 5.
  • VCSEL substrate 38 in FIG. 11A is placed on the opposite side from FIG. 8A.
  • a part of the optical pulse signal that is repeatedly reflected within the laminated film 40 constituting the light emitting element 5 is emitted from the end face of the laminated film 40 on the VCSEL substrate 38 side, passes through the VCSEL substrate 38, and enters the optical waveguide 19. .
  • FIG. 11B is a cross-sectional view of a modified example of FIG. 11A.
  • FIG. 11B is similar to the cross-sectional structure of FIG. 11A, and shows the location of the optical waveguide 19 more specifically.
  • the optical waveguide 19 in FIG. 11B is arranged between the VCSEL substrate 38 and the LDD substrate 39.
  • FIG. 12 is a cross-sectional view showing the structure around the light emitting section 3 and the light receiving section 25.
  • a substrate 52 on which the light emitting section 3 is arranged and a substrate 35 on which the light receiving section 25 is arranged are provided separately. Note that it is also possible to arrange the light emitting section 3 and the light receiving section 25 on the same substrate.
  • the substrate 35 on which the light receiving section 25 in FIG. 12 is disposed has a laminated structure, and has a structure in which the first chip 3a and the second chip 3b are bonded by a Cu--Cu bond 26.
  • the form of bonding between the first chip 3a and the second chip 3b is not necessarily limited to the Cu--Cu bond 26, but may be bonded by bumps or the like.
  • the reference pixel 18 is arranged on the side closer to the light emitting part 3, and the distance measuring pixel 20 is arranged on the side farther from the light emitting part 3.
  • a plurality of reference pixels 18 and a plurality of distance measurement pixels 20 in the second direction Y of FIG. 1 are arranged in the depth direction of the paper surface of FIG. 12 .
  • a dummy pixel (DMY pixel) 31 is arranged between the reference pixel 18 and the light emitting section 3, and a dummy pixel 31 is also arranged between the reference pixel 18 and the ranging pixel 20.
  • These dummy pixels 31 are not used for receiving optical signals from the light emitting element 5 or for receiving reflected optical signals, but are provided for alignment of the reference pixel 18 and the ranging pixel 20, etc.
  • the structure and size of the pixel 31 are arbitrary.
  • the dummy pixel 31, the reference pixel 18, and the distance measuring pixel 20 on the first chip 3a each have a photodiode in which, for example, a p-type Si (silicon) layer is arranged on an n-type Si (silicon) layer.
  • a Si (silicon) layer 32, a SiN (silicon nitride) layer 33, and an Si (silicon) layer 34 are stacked on the lower surface side of the dummy pixel 31, the reference pixel 18, and the distance measuring pixel 20.
  • the second chip 3b is provided with a circuit that generates a voltage to be applied to the anode electrode and cathode electrode of the reference pixel 18 and the distance measuring pixel 20, a circuit that reads the voltage signal of the anode electrode, and the like.
  • the second chip 3b has a structure in which, for example, a SiN (silicon nitride) layer 36 and an SiO2 layer 37 are stacked on a Si (silicon) layer 35.
  • the light emitting unit 3 has a laminated structure in which a VCSEL substrate 38 on which the VCSEL array 17 is arranged and an LDD (Laser Diode Driver) substrate 39 are bonded.
  • the VCSEL substrate 38 is a substrate made of a compound semiconductor such as GaAs.
  • the surface of the VCSEL substrate 38 corresponding to the LDD substrate 39 is the front surface, and the laser light is emitted from the back surface (the upper surface of the VCSEL substrate 38 in FIG. 12).
  • On the VCSEL substrate 38 a plurality of light emitting elements 5 having a mesa structure are arranged at predetermined intervals. Each light emitting element 5 has a laminated film 40.
  • the laminated film 40 includes a first multilayer film reflecting mirror, a first spacer layer, an active layer 41, a second spacer layer, a second multilayer film reflecting mirror, etc.
  • the light intensity is increased by causing resonance between the first multilayer film reflecting mirror and the second multilayer film reflecting mirror, and the light is emitted from the back side of the substrate.
  • the VCSEL array 17 in FIG. 12 is of the back-illuminated type.
  • a cathode electrode 42 is arranged on the upper surface of each light emitting element 5 when viewed from the VCSEL substrate 38 side.
  • an anode electrode 44 is arranged on the top and side surfaces of an undoped GaAs layer 43 arranged on the end side of the VCSEL array 17 when viewed from the VCSEL substrate 38 side.
  • the anode electrode 44 is also arranged on the lowest layer side of the laminated film 40 of the plurality of light emitting elements 5 when viewed from the VCSEL substrate 38 side. In FIG. 12, the arrangement of the cathode electrode 42 and the anode electrode 44 may be reversed. In FIG.
  • the anode electrode 44 is used as the common electrode, but the cathode electrode 42 may be used as the common electrode, and the anode electrode 44 may be provided in each mesa portion.
  • the periphery of each light emitting element 5 is covered with, for example, a resin member 45.
  • the LDD substrate 39 has a plurality of pads 46 for supplying drive signals to the plurality of light emitting elements 5 of the VCSEL array 17. Pads 46 of LDD substrate 39 and pads 47 of corresponding cathode electrodes 42 of VCSEL array 17 are bonded.
  • the pad 46 of the LDD substrate 39 is made of a conductive material such as Al (aluminum).
  • the pad 47 on the cathode electrode 42 is made of a conductive material such as Co (cobalt).
  • a pillar 48 made of, for example, Cu (copper) is arranged on the pad 46 of the LDD substrate 39, and between the upper surface of the pillar 48 and the pad 47, a Ni (nickel) layer 49, a solder layer 50, and an Au
  • a conductive laminated film such as a (gold) layer 51 is arranged.
  • the LDD substrate 39 has a laminated structure in which an insulating layer 53 made of SiN or the like is arranged on a base material layer 52 made of Si (silicon) or the like, and a metal light shielding layer 54 made of W (tungsten) or the like is arranged thereon. It is.
  • the LDD board 39 may include the drive circuit 7 of FIG. 1 that generates a drive signal. In this case, the LDD board 39 performs active driving. Alternatively, the LDD substrate 39 may supply the pad 46 with a voltage according to a drive signal generated by a drive circuit 7 provided separately from the light emitting section 3. In this case, the LDD board 39 performs passive driving.
  • the upper surface of the first chip 3a in the light emitting section 3 and the upper surface of the LDD substrate 39 are flush with each other, and the optical waveguide 19 is arranged along these upper surfaces.
  • the optical waveguide 19 has a structure in which a light transmission layer 55 for propagating an optical pulse signal is surrounded by a cladding layer 56 made of SiO2 or the like.
  • An opening 42a is provided in a part of the cathode electrode 42 disposed on the upper surface of each light emitting element 5.
  • the optical pulse signal emitted by each light emitting element 5 propagates to the back side, but a part of the optical pulse signal also propagates to the front side. A part of the light propagated to the front surface side of each light emitting element 5 is emitted from the opening 42a.
  • a grating coupler 57 is arranged in the optical waveguide 19 at a position facing the opening 42a of each light emitting element 5.
  • the grating coupler 57 is formed by removing a portion of the cladding layer 56 in a lattice shape using lithography or the like.
  • the optical pulse signal emitted from the opening 42 a of each light emitting element 5 is input into the optical waveguide 19 from the grating coupler 57 of the optical waveguide 19 .
  • a grating coupler 58 is also arranged near the reference pixel 18 in contact with the optical waveguide 19, and the optical pulse signal propagated through the optical waveguide 19 is transmitted through the grating coupler 58 and enters the reference pixel 18.
  • a Bragg mirror 59 is arranged at the end of the optical waveguide 19 on the light receiving section 25 side, so that the optical pulse signal is confined within the optical waveguide 19. This prevents the optical pulse signal in the optical waveguide 19 from entering the ranging pixel 20.
  • a light shielding wall 60 is arranged in the boundary area between the light emitting section 3 and the light receiving section 25.
  • the light shielding wall 60 is arranged on the optical waveguide 19.
  • FIG. 13 is a sectional view of the first modification of FIG. 12.
  • a substrate 35 on the light emitting section 3 side and a substrate 52 on the light receiving section 25 side are provided separately, and the height positions of these substrates 35 and 52 are also different.
  • the light emitting section 3 and the light receiving section 25 are arranged on a common LDD substrate 39.
  • An optical waveguide 19 is arranged on the LDD substrate 39 in FIG. 13 with an insulating layer 53 made of SiN and a metal light shielding layer 54 interposed therebetween.
  • the optical waveguide 19 is integrally arranged from the light emitting section 3 to the vicinity of the reference pixel 18 in the light receiving section 25 .
  • the reference pixel 18 and the ranging pixel 20 are arranged between the optical waveguide 19 and the substrate 35, but in FIG. 13, the reference pixel 18 and the ranging pixel 20 are arranged above the optical waveguide 19.
  • a light-shielding resin layer 67 is arranged at the end of the optical waveguide 19 on the light-receiving section 25 side to prevent the optical pulse signal propagated through the optical waveguide 19 from entering the ranging pixel 20 .
  • a Bragg mirror 59 is provided at the end of the optical waveguide 19 in FIG. 13 on the light emitting unit 3 side.
  • the reference pixel 18, the ranging pixel 20, and the dummy pixel 31 are connected to the substrate 35 by Cu-Cu bonding, but in FIG. 13, they are bonded to the LDD substrate 39 by a conductive laminated film. .
  • the light receiving section 25 side is also connected to the same LDD substrate 39 as the light emitting section 3 side, so the light receiving section 25 and the LDD substrate 39 are made of the same material as the conductive laminated film that connects the light emitting section 3 and the LDD substrate 39. It was designed to connect.
  • the other structures in FIG. 13 are the same as those in FIG. 12.
  • FIG. 14 is a sectional view of a second modification example of FIG. 12.
  • the light emitting section 3 and the light receiving section 25 are connected to a common LDD board 39, as in FIG. 13.
  • 14 differs from FIG. 13 in that the LDD substrate 39 and the light receiving section 25 are connected by a Cu--Cu bond.
  • the periphery of the end of the optical waveguide 19 on the light receiving section 25 side is covered with an insulating film 37 such as SiO2, and the light shielding resin layer 67 shown in FIG. 13 is not provided.
  • the light-shielding resin layer 67 may be placed near the end of the optical waveguide 19.
  • a Bragg mirror 59 is provided at the end of the optical waveguide 19 in FIG. 14 on the light emitting unit 3 side, similar to the optical waveguide 19 in FIGS. 12 and 13.
  • optical coupling means An example of an optical coupling means for making the optical pulse signal emitted from the light emitting element 5 enter the optical waveguide 19 is the grating coupler 57 described above.
  • the grating coupler 57 is formed by processing a part of the cladding layer 56 into a slit shape, as shown in FIG. 15A. Processing the cladding layer 56 into a slit shape can be easily performed using existing semiconductor processes such as etching.
  • FIG. 15B is a schematic cross-sectional view showing a first modification of the optical coupling means.
  • the optical coupling means in FIG. 15B is a light refraction member 68 disposed in a part of the cladding layer 56 of the optical waveguide 19.
  • the optical pulse signal emitted from the light emitting element 5 is refracted by the optical refraction member 68 and enters the optical waveguide 19.
  • FIG. 15C is a schematic cross-sectional view showing a second modification of the optical coupling means.
  • a part of the surface of the cladding layer 56 of the optical waveguide 19 has an uneven structure 69 formed by micromachining.
  • FIG. 15D is a schematic cross-sectional view showing a third modification of the optical coupling means.
  • a metal layer 70 is disposed on the surface of the cladding layer 56, and a hole 70h is provided in the metal layer 70. Diffraction occurs when the optical pulse signal from the light emitting element 5 passes through the hole 70 h of the metal layer 70 , and the diffracted light enters the optical waveguide 19 .
  • FIG. 15E is a schematic cross-sectional view showing a fourth modification of the optical coupling means.
  • surface plasmons are generated by arranging metal nanoparticles 71 on the surface of the cladding layer 56. Thereby, the traveling direction of the optical pulse signal from the light emitting element 5 can be switched, and the light can be guided to the optical waveguide 19.
  • optical coupling means for inputting the optical pulse signal emitted from the light emitting element 5 into the optical waveguide 19.
  • the substrate on which the light emitting section 3 is disposed and the substrate on which the light receiving section 25 is disposed may be different, or the light emitting section 3 and the light receiving section 25 may be disposed on the same substrate. May be placed. Further, since the reference pixel 18 and the light emitting section 3 transmit and receive optical pulse signals through the optical waveguide 19, the reference pixel 18 and the light emitting section 3 may be arranged on the same substrate or may be arranged on different substrates. .
  • FIG. 16A is a schematic cross-sectional view showing an example of arranging the reference pixel 18 on the LDD substrate 39 on which the light emitting section 3 is arranged.
  • the VCSEL array 17 is arranged on the first main surface of the LDD substrate 39
  • the reference pixel 18 is arranged on the second main surface of the LDD substrate 39, which is opposite to the first main surface.
  • An optical waveguide 19 is arranged on the first main surface of the LDD substrate 39 between the VCSEL array 17 and the reference pixel 18.
  • the substrate 72 on which the ranging pixels 20 are arranged is arranged separately from the LDD substrate 39.
  • An analog front end section (AFE section) 73 that generates a voltage signal according to a received light signal is formed on the substrate 72 on which the LDD substrate 39 and the ranging pixel 20 are arranged.
  • FIG. 16B is a schematic cross-sectional view showing a first modification of FIG. 16A.
  • the reference pixel 18 in FIG. 16B is arranged on the same first main surface as the VCSEL array 17.
  • the optical waveguide 19 is arranged on the first main surface of the LDD substrate 39, and the VCSEL array 17 and the reference pixel 18 are arranged thereon.
  • FIG. 16C is a schematic cross-sectional view showing a second modification of FIG. 16A.
  • the reference pixel 18 in FIG. 16C is formed by processing the LDD substrate 39. More specifically, the reference pixel 18 is formed using a semiconductor process for forming an AFE section, a logic circuit, etc. formed on the LDD substrate 39.
  • An optical waveguide 19 is arranged on the first main surface of the LDD substrate 39, a VCSEL array 17 is arranged thereon, and a reference pixel 18 is arranged below the optical waveguide 19.
  • FIG. 16D is a schematic cross-sectional view showing a third modification of FIG. 16A.
  • a VCSEL array 17 and a reference pixel 18 are arranged on an LDD substrate 39, and an optical waveguide 19 is arranged thereon.
  • the substrate on which the ranging pixels 20 are arranged is provided separately from the LDD substrate 39 on which the VCSEL array 17 and the reference pixels 18 are arranged.
  • FIG. 17A is a schematic cross-sectional view in which the reference pixel 18 is arranged on a substrate 74 different from the LDD substrate 39.
  • a substrate 74 on which the reference pixel 18 and distance measuring pixel 20 are arranged is provided separately from the LDD substrate 39 on which the VCSEL array 17 is arranged, and the height of these substrates 39, 74 is The substrates 39 and 74 are placed on a support substrate 75, and the substrates 39 and 74 are located at different positions.
  • the optical waveguide 19 is arranged on the first main surface of the LDD substrate 39 and the upper surface of the reference pixel 18.
  • FIG. 17B is a schematic cross-sectional view showing a first modification of FIG. 17A.
  • the first main surface of the LDD substrate 39 on which the light emitting element 5 is disposed is flush with the upper surface of the substrate on which the reference pixel 18 and the ranging pixel 20 are disposed, and the optical waveguide 19 is disposed on this surface. is located.
  • FIG. 17C is a schematic cross-sectional view showing a second modification of FIG. 17A.
  • the reference pixel 18 and the distance measuring pixel 20 are formed on the substrate using the same semiconductor process as the logic circuit and the AFE section.
  • the upper surfaces of the reference pixel 18, the distance measuring pixel 20, and the upper surface of the LDD substrate 39 are flush with each other, and the optical waveguide 19 is disposed on this surface.
  • FIG. 17D is a schematic cross-sectional view showing a third modification of FIG. 17A.
  • FIG. 17D shows an example in which there is a large step difference between the LDD substrate 39 and the substrate 74 on which the reference pixel 18 and distance measurement pixel 20 are arranged.
  • a reflection mirror 76, a TSV (Through Silicon Via) 77, and an optical lens 78 are provided at the end of the LDD substrate 39, and the optical pulse signal emitted from the end of the optical waveguide 19 on the LDD substrate 39 is The traveling direction of the light is changed by the reflection mirror 76, the TSV 77, and the optical lens 78, and the light enters the reference pixel 18 from above.
  • FIG. 17D shows an example in which there is a large step difference between the LDD substrate 39 and the substrate 74 on which the reference pixel 18 and distance measurement pixel 20 are arranged.
  • a reflection mirror 76, a TSV (Through Silicon Via) 77, and an optical lens 78 are provided at
  • the substrate on which the reference pixel 18 and the ranging pixel 20 are arranged is arranged below the LDD substrate 39, the substrate may be arranged above the LDD substrate 39.
  • the optical pulse signal may be reflected upward by the reflecting mirror 76.
  • FIGS. 17A to 17D show examples in which the light emitting element 5, the reference pixel 18, and the distance measuring pixel 20 are arranged on at least two substrates.
  • the distance pixels 20 may be arranged on the same substrate.
  • FIG. 18 is a schematic cross-sectional view showing an example in which the light emitting element 5, the reference pixel 18, and the distance measuring pixel 20 are arranged on the LDD substrate 39.
  • An AFE section 73 is formed in a part of the LDD substrate 39 by a semiconductor process, and a reference pixel 18 and a distance measuring pixel 20 are arranged on the AFE section 73. Further, the VCSEL array 17 is arranged on a region on the LDD substrate 39 that is different from the AFE section 73. 13 and 14 described above are more specific representations of the cross-sectional structure of FIG. 18.
  • optical propagation member using optical fiber In the embodiment described above, an example in which the optical waveguide 19 is arranged between the light emitting element 5 and the reference pixel 18 has been described.
  • the optical propagation member that propagates the optical pulse signal is not necessarily limited to the optical waveguide 19.
  • the light propagation member may include an optical fiber and an optical connector.
  • FIG. 19A is a diagram showing an example in which a light propagation member having an optical fiber 79 and an optical connector 80 is arranged between the light emitting element 5 and the reference pixel 18.
  • Optical connectors 80 are attached to both ends of the optical fiber 79.
  • Separate optical connectors 81 and 82 are also attached to the ends of the LDD board 39 and the ends of the board where the reference pixel 18 and distance measuring pixel 20 are arranged, respectively.
  • the optical pulse signal from the light emitting element 5 can be made to enter the reference pixel 18 via the optical connector 80 and the optical fiber 79. can.
  • an optical waveguide 19 is arranged on the LDD board 39, and another optical waveguide 19 is arranged on the reference pixel 18. ing.
  • the optical pulse signal emitted by the light emitting element 5 propagates through the optical waveguide 19, passes through the optical fiber 79 from the optical connectors 81 and 80 at the ends of the LDD board 39, and is connected to the optical connector 80 on the board on the reference pixel 18 side.
  • the light is received at 82.
  • the light then propagates through the optical waveguide 19 from the optical connector 80 and enters the reference pixel 18 .
  • FIG. 19B is a diagram showing a modification of FIG. 19A.
  • a reflective mirror 76 is placed above the VCSEL array 17.
  • the optical pulse signal emitted from each light emitting element 5 in the VCSEL array 17 is reflected by the reflection mirror 76, enters the optical connector 80, propagates through the optical fiber 79, and is connected to the optical waveguide on the upper surface of the reference pixel 18. 19.
  • optical pulse signals are transmitted and received between two boards using an optical fiber 79. Therefore, the two substrates can be placed at any desired location, increasing the degree of freedom regarding the spacing between the two substrates. Therefore, the substrate 75 on the light emitting section 3 side and the substrate 75 on the light receiving section 25 side can be arranged at arbitrary locations.
  • FIG. 20A is a diagram showing a first example of a method for transmitting and receiving optical pulse signals between the substrate of the light emitting section 3 and the substrate of the light receiving section 25.
  • FIG. 20A as shown in FIGS. 12 to 14, two substrates are placed adjacent to each other, and an optical waveguide 19 is provided to span the two substrates to directly transmit and receive optical pulse signals.
  • an optical waveguide 19 is provided to span the two substrates to directly transmit and receive optical pulse signals.
  • FIG. 20B is a diagram showing a second example of a method for transmitting and receiving optical pulse signals between the substrate of the light emitting section 3 and the substrate of the light receiving section 25.
  • an optical member is arranged between the substrate on the light emitting section 3 side and the substrate on the light receiving section 25 side.
  • the optical members include a first lens 83 that parallelizes or collimates the optical pulse signal from the light emitting unit 3, a second lens 84 that condenses the optical pulse signal transmitted through the first lens 83, and the first lens 83 and the second lens 84. It has a lens holder 85 that holds two lenses 84.
  • the optical pulse signal emitted from the end of the optical waveguide 19 on the substrate on the light emitting section 3 side passes through the first lens 83 and the second lens 84 and enters the optical waveguide 19 on the substrate on the light receiving section 25 side.
  • Ru is arranged between the substrate on the light emitting section 3 side and the substrate on the light receiving section 25 side.
  • the optical pulse signal is transmitted and received between the two substrates by optical action, so the optical pulse signal can be transmitted regardless of the distance between the two substrates.
  • FIG. 20C is a diagram showing a third example of a method for transmitting and receiving optical pulse signals between the substrate of the light emitting section 3 and the substrate of the light receiving section 25.
  • 20C is similar to FIG. 20A in that optical pulse signals are transmitted and received by the optical waveguide 19, but differs from FIG. 20A in that two substrates are spaced apart.
  • the optical waveguide 19 disposed between the two substrates is provided separately from the optical waveguide 19 disposed on the substrate on the light emitting section 3 side and the optical waveguide 19 disposed on the substrate on the light receiving section 25 side. ing.
  • a grating coupler 57 is provided on the optical waveguide 19 disposed on the substrate on the light-emitting section 3 side, and similarly, for example, a grating coupler 57 is provided on the optical waveguide 19 disposed on the substrate on the light-receiving section 25 side. ing. Optical pulse signals are input to or output from these grating couplers 57 .
  • optical fiber 79 may be provided instead of the optical waveguide 19 disposed between the two substrates.
  • FIG. 21A is a diagram showing an example in which a grating coupler 57 is used as a means for making the optical pulse signal propagated by a light propagation member such as the optical waveguide 19 enter the reference pixel 18.
  • the grating coupler 57 can be easily formed using a semiconductor process, and since the loss of the optical pulse signal is small, the optical pulse signal can be efficiently input to the reference pixel 18 from the optical propagation member.
  • FIG. 21B is a schematic perspective view showing a first modification of FIG. 21A.
  • FIG. 21B shows an example in which a light pulse signal is made to enter the reference pixel 18 from the light propagation member by optical means instead of the grating coupler 58.
  • the first modification shown in FIG. 21B includes a reflection mirror 89 that reflects the optical pulse signal emitted from the optical propagation member such as the optical waveguide 19 or the optical fiber 79.
  • the optical pulse signal reflected by the reflection mirror 89 is incident on the light receiving surface of the reference pixel 18.
  • FIG. 21C is a schematic cross-sectional view showing a second modification of FIG. 21A. Similar to FIG. 21B, FIG. 21C shows an example in which a light pulse signal is made to enter the reference pixel 18 from the light propagation member by optical means instead of the grating coupler 58.
  • the second modification shown in FIG. 21C includes a collimating lens 83 that collimates the optical pulse signal emitted from the optical propagation member such as the optical waveguide 19 on the light emitting unit 3 side, and a lens holder that holds this collimating lens 83. .
  • the optical pulse signal collimated by the collimator lens 83 is incident on the light receiving surface of the reference pixel 18 .
  • FIG. 22A is a diagram showing an example in which a SPAD 30a is used as the light receiving element 30 forming the reference pixel 18.
  • FIG. 22A is a diagram showing the circuit configuration of the SPAD 30a.
  • the anode of SPAD 30a is connected to the breakdown voltage VBD node.
  • a resistance element 86 is connected between the cathode of the SPAD 30a and the power supply voltage node.
  • an inverter 87 is connected to the cathode of the SPAD 30a.
  • the cathode voltage of SPAD 30a is at a voltage level responsive to the arrival of photons.
  • a voltage signal obtained by inverting the cathode voltage of the SPAD 30a is output from the inverter 87 and input to the TDC 21.
  • FIGS. 22B, 22C, and 22D are diagrams showing an example in which SiPM 30b (Silicon Photomultiplier) is used as the reference pixel 18.
  • the SiPM 30b is composed of a plurality of SPADs 30a.
  • a TIA 90 and an ADC 92 are provided after the SiPM 30b.
  • a TIA 90, a VCO (Voltage Controlled Oscillator) 93, and a counter 94 are provided after the SiPM 30b, as shown in FIG. 22D.
  • the configuration of the light receiving element 30 forming the reference pixel 18 changes depending on whether the photodetecting device 1 performs dToF, iToF, or photon counting.
  • optical switch In the embodiment described above, an example has been described in which only one of the plurality of light emitting elements 5 that can input a light pulse signal into each optical waveguide 19 is made to emit light, and the light emitting elements 5 that emit light pulse signals are sequentially switched. In this case, control is required to sequentially switch the light emission of the plurality of light emitting elements 5.
  • the optical switch 27 if the optical switch 27 is arranged between the plurality of light emitting elements 5 and the optical waveguide 19 and the optical switch 27 is turned on and off in sequence, the plurality of light emitting elements 5 can emit light at the same timing. Even when a pulse signal is emitted, the optical pulse signal from each light emitting element 5 can be propagated sequentially through the optical waveguide 19.
  • the optical switch 27 may be an optical gate switch, a Mach-Zehnder interferometer, a directional coupler, or another type.
  • FIG. 23A is a plan view schematically showing an optical switch 27 arranged between each light emitting element 5 and the corresponding optical waveguide 19. Even if each light emitting element 5 emits an optical pulse signal, the optical pulse signal cannot be propagated through the optical waveguide 19 if the optical switch 27 is off. That is, the optical switch 27 can propagate the optical pulse signal emitted by any one of the light emitting elements 5.
  • FIG. 23B is an enlarged plan view of the structure around the optical switch.
  • Each light emitting element 5 arranged near the optical waveguide 19 is connected to each branch line 19b extending from the main line of the optical waveguide 19.
  • Each branch line 19b is provided with an optical switch 27, a grating coupler 57, and a Bragg mirror 59.
  • FIG. 24A is a perspective view of an optical gate switch 95, which is a first example of an optical switch.
  • the optical gate switch 95 has a first input part 95a into which the optical pulse signal is input, an output part 95b which outputs the optical pulse signal, and a second input part 95c into which the control light is input. By inputting the control light into the second input section 95c, it is possible to switch whether or not to output the optical pulse signal input into the first input section 95a from the output section 95b.
  • FIG. 24B is a perspective view of a Mach-Zehnder interference optical switch 96, which is a second example of an optical switch.
  • the optical switch 96 in FIG. 24B branches the optical pulse signal incident on the input section into two systems, and allows the phase of the optical pulse signal to be changed within the branched optical waveguide 19 of each system.
  • the two optical pulse signals transmitted through these two branched optical waveguides 19 are combined and then emitted from the emitting section. By switching the way the phase is changed, it is possible to switch whether or not the optical pulse signal incident on the input section is output from the output section.
  • FIG. 24C is a perspective view of a directional coupling type optical switch 97, which is a third example of an optical switch.
  • the optical switch 92 in FIG. 24C includes a first input section (IN1) 97a, a second input section (IN2) 97b, a first output section (OUT1) 97c, and a second output section (OUT2) 97d.
  • the two optical waveguides 19 connected to the first input section (IN1) 97a and the second input section (IN2) 97b are once merged and then separated into two.
  • the first optical pulse signal is input to the first input part (IN1) 97a, and the first optical pulse signal is input to the second input part (IN2) 97b. It is possible to switch which of the first output section (OUT1) 97c and the second output section (OUT2) 97d the second optical pulse signal is output from.
  • the plurality of light emitting elements 5 since the optical signals emitted by the plurality of light emitting elements 5 are received by the plurality of reference pixels 18 via the plurality of light propagation members (for example, the optical waveguide 19), the plurality of light emitting elements It is possible to accurately detect the time difference in the light emission timing of No. 5. Therefore, based on the detected time difference, distance measurement can be performed taking into consideration the time difference in the light emission timing of the plurality of light emitting elements 5, and distance measurement accuracy can be improved.
  • the emission waveform of the optical pulse signal emitted by the plurality of light emitting elements 5 can be detected. Therefore, the light emission waveforms of the plurality of light emitting elements 5 can be corrected based on the light emission waveforms of the detected optical pulse signals.
  • the optical waveguide 19 described above can be placed on a substrate that supports a plurality of light emitting elements 5 or on an LDD substrate 39 that supplies voltage to a plurality of light emitting elements 5. Therefore, the optical waveguide 19 can be formed in a semiconductor process for processing the substrate. 19 can be formed.
  • optical pulse signals can be efficiently input from the plurality of light emitting elements 5 to the optical waveguide 19.
  • a light propagating member such as an optical fiber 79 may be used to connect the light emitting section 3 to the reference pixel 18. Can propagate optical pulse signals.
  • the optical pulse signal can be easily transmitted from the light emitting element 5 to the reference pixel 18 by disposing the optical waveguide 19 on this substrate. .
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure can be applied to any type of transportation such as a car, an electric vehicle, a hybrid electric vehicle, a motorcycle, a bicycle, a personal mobility vehicle, an airplane, a drone, a ship, a robot, a construction machine, an agricultural machine (tractor), etc. It may also be realized as a device mounted on the body.
  • FIG. 25 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile object control system to which the technology according to the present disclosure can be applied.
  • Vehicle control system 7000 includes multiple electronic control units connected via communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an outside vehicle information detection unit 7400, an inside vehicle information detection unit 7500, and an integrated control unit 7600. .
  • the communication network 7010 connecting these plurality of control units is, for example, a communication network based on any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs calculation processing according to various programs, a storage unit that stores programs executed by the microcomputer or parameters used in various calculations, and a drive circuit that drives various devices to be controlled. Equipped with Each control unit is equipped with a network I/F for communicating with other control units via the communication network 7010, and also communicates with devices or sensors inside and outside the vehicle through wired or wireless communication. A communication I/F is provided for communication. In FIG.
  • the functional configuration of the integrated control unit 7600 includes a microcomputer 7610, a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon receiving section 7650, an in-vehicle device I/F 7660, an audio image output section 7670, An in-vehicle network I/F 7680 and a storage unit 7690 are illustrated.
  • the other control units similarly include a microcomputer, a communication I/F, a storage section, and the like.
  • the drive system control unit 7100 controls the operation of devices related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 includes a drive force generation device such as an internal combustion engine or a drive motor that generates drive force for the vehicle, a drive force transmission mechanism that transmits the drive force to wheels, and a drive force transmission mechanism that controls the steering angle of the vehicle. It functions as a control device for a steering mechanism to adjust and a braking device to generate braking force for the vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • a vehicle state detection section 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 includes, for example, a gyro sensor that detects the angular velocity of the axial rotation movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, or an operation amount of an accelerator pedal, an operation amount of a brake pedal, or a steering wheel. At least one sensor for detecting angle, engine rotational speed, wheel rotational speed, etc. is included.
  • the drive system control unit 7100 performs arithmetic processing using signals input from the vehicle state detection section 7110, and controls the internal combustion engine, the drive motor, the electric power steering device, the brake device, and the like.
  • the body system control unit 7200 controls the operations of various devices installed in the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as a headlamp, a back lamp, a brake lamp, a turn signal, or a fog lamp.
  • radio waves transmitted from a portable device that replaces a key or signals from various switches may be input to the body control unit 7200.
  • the body system control unit 7200 receives input of these radio waves or signals, and controls the door lock device, power window device, lamp, etc. of the vehicle.
  • the battery control unit 7300 controls the secondary battery 7310, which is a power supply source for the drive motor, according to various programs. For example, information such as battery temperature, battery output voltage, or remaining battery capacity is input to the battery control unit 7300 from a battery device including a secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature adjustment of the secondary battery 7310 or the cooling device provided in the battery device.
  • the external information detection unit 7400 detects information external to the vehicle in which the vehicle control system 7000 is mounted. For example, at least one of an imaging section 7410 and an external information detection section 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle external information detection unit 7420 includes, for example, an environmental sensor for detecting the current weather or weather, or a sensor for detecting other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the surrounding information detection sensors is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunlight sensor that detects the degree of sunlight, and a snow sensor that detects snowfall.
  • the surrounding information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging section 7410 and the vehicle external information detection section 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 26 shows an example of the installation positions of the imaging section 7410 and the vehicle external information detection section 7420.
  • the imaging units 7910, 7912, 7914, 7916, and 7918 are provided, for example, at at least one of the front nose, side mirrors, rear bumper, back door, and upper part of the windshield inside the vehicle 7900.
  • An imaging unit 7910 provided in the front nose and an imaging unit 7918 provided above the windshield inside the vehicle mainly acquire images in front of the vehicle 7900.
  • Imaging units 7912 and 7914 provided in the side mirrors mainly capture images of the sides of the vehicle 7900.
  • An imaging unit 7916 provided in the rear bumper or back door mainly acquires images of the rear of the vehicle 7900.
  • the imaging unit 7918 provided above the windshield inside the vehicle is mainly used to detect preceding vehicles, pedestrians, obstacles, traffic lights, traffic signs, lanes, and the like.
  • FIG. 26 shows an example of the imaging range of each of the imaging units 7910, 7912, 7914, and 7916.
  • Imaging range a indicates the imaging range of imaging unit 7910 provided on the front nose
  • imaging ranges b and c indicate imaging ranges of imaging units 7912 and 7914 provided on the side mirrors, respectively
  • imaging range d is The imaging range of an imaging unit 7916 provided in the rear bumper or back door is shown. For example, by superimposing image data captured by imaging units 7910, 7912, 7914, and 7916, an overhead image of vehicle 7900 viewed from above can be obtained.
  • the external information detection units 7920, 7922, 7924, 7926, 7928, and 7930 provided at the front, rear, sides, corners, and the upper part of the windshield inside the vehicle 7900 may be, for example, ultrasonic sensors or radar devices.
  • External information detection units 7920, 7926, and 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield inside the vehicle 7900 may be, for example, LIDAR devices.
  • These external information detection units 7920 to 7930 are mainly used to detect preceding vehicles, pedestrians, obstacles, and the like.
  • the vehicle exterior information detection unit 7400 causes the imaging unit 7410 to capture an image of the exterior of the vehicle, and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the vehicle exterior information detection section 7420 to which it is connected.
  • the external information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device
  • the external information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, etc., and receives information on the received reflected waves.
  • the external information detection unit 7400 may perform object detection processing such as a person, car, obstacle, sign, or text on the road surface or distance detection processing based on the received information.
  • the external information detection unit 7400 may perform environment recognition processing to recognize rain, fog, road surface conditions, etc. based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to the object outside the vehicle based on the received information.
  • the outside-vehicle information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing people, cars, obstacles, signs, characters on the road, etc., based on the received image data.
  • the outside-vehicle information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and also synthesizes image data captured by different imaging units 7410 to generate an overhead image or a panoramic image. Good too.
  • the outside-vehicle information detection unit 7400 may perform viewpoint conversion processing using image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects in-vehicle information.
  • a driver condition detection section 7510 that detects the condition of the driver is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that images the driver, a biosensor that detects biometric information of the driver, a microphone that collects audio inside the vehicle, or the like.
  • the biosensor is provided, for example, on a seat surface or a steering wheel, and detects biometric information of a passenger sitting on a seat or a driver holding a steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, or determine whether the driver is dozing off. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls overall operations within the vehicle control system 7000 according to various programs.
  • An input section 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by, for example, a device such as a touch panel, a button, a microphone, a switch, or a lever that can be inputted by the passenger.
  • the integrated control unit 7600 may be input with data obtained by voice recognition of voice input through a microphone.
  • the input unit 7800 may be, for example, a remote control device that uses infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that is compatible with the operation of the vehicle control system 7000. You can.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information using gestures. Alternatively, data obtained by detecting the movement of a wearable device worn by a passenger may be input. Further, the input section 7800 may include, for example, an input control circuit that generates an input signal based on information input by a passenger or the like using the input section 7800 described above and outputs it to the integrated control unit 7600. By operating this input unit 7800, a passenger or the like inputs various data to the vehicle control system 7000 and instructs processing operations.
  • the storage unit 7690 may include a ROM (Read Only Memory) that stores various programs executed by the microcomputer, and a RAM (Random Access Memory) that stores various parameters, calculation results, sensor values, etc. Further, the storage unit 7690 may be realized by a magnetic storage device such as a HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, a magneto-optical storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I/F 7620 is a general-purpose communication I/F that mediates communication with various devices existing in the external environment 7750.
  • the general-purpose communication I/F7620 supports cellular communication protocols such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution), or LTE-A (LTE-Advanced). , or other wireless communication protocols such as wireless LAN (also referred to as Wi-Fi (registered trademark)) or Bluetooth (registered trademark).
  • the general-purpose communication I/F 7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may.
  • the general-purpose communication I/F 7620 uses, for example, P2P (Peer To Peer) technology to communicate with a terminal located near the vehicle (for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal). You can also connect it with a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or an operator-specific network) via a base station or an access point, for example. You may.
  • P2P Peer To Peer
  • a terminal located near the vehicle for example, a driver, a pedestrian, a store terminal, or an MTC (Machine Type Communication) terminal. You can also connect it with
  • the dedicated communication I/F 7630 is a communication I/F that supports communication protocols developed for use in vehicles.
  • the dedicated communication I/F 7630 uses standard protocols such as WAVE (Wireless Access in Vehicle Environment), which is a combination of lower layer IEEE802.11p and upper layer IEEE1609, DSRC (Dedicated Short Range Communications), or cellular communication protocol. May be implemented.
  • the dedicated communication I/F 7630 typically supports vehicle-to-vehicle communication, vehicle-to-infrastructure communication, vehicle-to-home communication, and vehicle-to-pedestrian communication. ) communications, a concept that includes one or more of the following:
  • the positioning unit 7640 performs positioning by receiving, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), and determines the latitude, longitude, and altitude of the vehicle. Generate location information including. Note that the positioning unit 7640 may specify the current location by exchanging signals with a wireless access point, or may acquire location information from a terminal such as a mobile phone, PHS, or smartphone that has a positioning function.
  • GNSS Global Navigation Satellite System
  • GPS Global Positioning System
  • the beacon receiving unit 7650 receives, for example, radio waves or electromagnetic waves transmitted from a wireless station installed on the road, and obtains information such as the current location, traffic jams, road closures, or required travel time. Note that the function of the beacon receiving unit 7650 may be included in the dedicated communication I/F 7630 described above.
  • the in-vehicle device I/F 7660 is a communication interface that mediates connections between the microcomputer 7610 and various in-vehicle devices 7760 present in the vehicle.
  • the in-vehicle device I/F 7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication), or WUSB (Wireless USB).
  • the in-vehicle device I/F 7660 connects to USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile High).
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Mobile High
  • the in-vehicle device 7760 may include, for example, at least one of a mobile device or wearable device owned by a passenger, or an information device carried into or attached to the vehicle.
  • the in-vehicle device 7760 may include a navigation device that searches for a route to an arbitrary destination. or exchange data signals.
  • the in-vehicle network I/F 7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the in-vehicle network I/F 7680 transmits and receives signals and the like in accordance with a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 communicates via at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information obtained. For example, the microcomputer 7610 calculates a control target value for a driving force generating device, a steering mechanism, or a braking device based on acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. Good too.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions, including vehicle collision avoidance or impact mitigation, following distance based on vehicle distance, vehicle speed maintenance, vehicle collision warning, vehicle lane departure warning, etc. Coordination control may be performed for the purpose of
  • the microcomputer 7610 controls the driving force generating device, steering mechanism, braking device, etc. based on the acquired information about the surroundings of the vehicle, so that the microcomputer 7610 can drive the vehicle autonomously without depending on the driver's operation. Cooperative control for the purpose of driving etc. may also be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 acquires information through at least one of a general-purpose communication I/F 7620, a dedicated communication I/F 7630, a positioning section 7640, a beacon reception section 7650, an in-vehicle device I/F 7660, and an in-vehicle network I/F 7680. Based on this, three-dimensional distance information between the vehicle and surrounding objects such as structures and people may be generated, and local map information including surrounding information of the current position of the vehicle may be generated. Furthermore, the microcomputer 7610 may predict dangers such as a vehicle collision, a pedestrian approaching, or entering a closed road, based on the acquired information, and generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or lighting a warning lamp.
  • the audio and image output unit 7670 transmits an output signal of at least one of audio and images to an output device that can visually or audibly notify information to the occupants of the vehicle or to the outside of the vehicle.
  • an audio speaker 7710, a display section 7720, and an instrument panel 7730 are illustrated as output devices.
  • Display unit 7720 may include, for example, at least one of an on-board display and a head-up display.
  • the display section 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices other than these devices, such as headphones, a wearable device such as a glasses-type display worn by the passenger, a projector, or a lamp.
  • the output device When the output device is a display device, the display device displays results obtained from various processes performed by the microcomputer 7610 or information received from other control units in various formats such as text, images, tables, graphs, etc. Show it visually. Further, when the output device is an audio output device, the audio output device converts an audio signal consisting of reproduced audio data or acoustic data into an analog signal and audibly outputs the analog signal.
  • control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • vehicle control system 7000 may include another control unit not shown.
  • some or all of the functions performed by one of the control units may be provided to another control unit.
  • predetermined arithmetic processing may be performed by any one of the control units.
  • sensors or devices connected to any control unit may be connected to other control units, and multiple control units may send and receive detection information to and from each other via communication network 7010. .
  • a computer program for realizing each function of the photodetecting device 1 according to the present embodiment described using FIG. 1 etc. can be implemented in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like.
  • the above computer program may be distributed, for example, via a network, without using a recording medium.
  • the photodetection device 1 according to the present embodiment described using FIG. 1 etc. can be applied to the integrated control unit 7600 of the application example shown in FIG. 25.
  • the components of the photodetecting device 1 described using FIG. 1 etc. are a module for the integrated control unit 7600 shown in FIG. 25 (for example, an integrated circuit module composed of one die). It may be realized in. Alternatively, the photodetection device 1 described using FIG. 1 may be realized by a plurality of control units of the vehicle control system 7000 shown in FIG. 25.
  • the present technology can have the following configuration. (1) a plurality of light emitting elements that emit a first optical pulse signal; a plurality of light propagation members that propagate the first optical pulse signal emitted by each of the plurality of light emitting elements; a plurality of first light receiving elements that receive the first optical pulse signals propagated by the plurality of light propagation members; a plurality of second light receiving elements that receive a reflected light pulse signal obtained by reflecting the first light pulse signal emitted by each of the plurality of light emitting elements by an object;
  • a photodetection device comprising: a plurality of light guide members that guide the first optical pulse signals emitted by the plurality of light emitting elements to the plurality of light propagation members.
  • Each of the plurality of light emitting elements has a laminate including an active layer and a light extraction part, The photodetection device according to (1), wherein a part of the first optical pulse signal emitted from the corresponding light extraction section is incident on each of the plurality of light propagation members.
  • a first substrate that supports the plurality of laminates and transmits the first optical pulse signal emitted from the light extraction section; a plurality of electrodes arranged at an end of the plurality of laminates opposite to the light extraction section;
  • the photodetection device according to (2) wherein the plurality of light propagation members are arranged along the first substrate.
  • each of the plurality of light emitting elements has a laminate including an active layer and a light extraction part, The photodetection device according to (1), wherein each of the plurality of light propagation members propagates a part of the first light pulse signal emitted from the corresponding active layer.
  • a first substrate that supports the plurality of laminates and transmits the first optical pulse signal emitted from the light extraction section; a plurality of electrodes arranged at an end of the plurality of laminates opposite to the light extraction section; The photodetection device according to (5), wherein the plurality of light propagation members are arranged along the plurality of active layers.
  • a first substrate that is disposed on the opposite side of the light extraction portion of the plurality of laminates and supports the plurality of laminates; a plurality of electrodes arranged on the first substrate, The photodetection device according to (5), wherein the plurality of light propagation members are arranged along the plurality of active layers.
  • Each of the plurality of light emitting elements includes a laminate including an active layer and a light extraction section, and a light reflection member disposed on the opposite side of the light extraction section with the active layer in between.
  • a first substrate that supports the plurality of laminates and transmits the first optical pulse signal emitted from the light extraction section; a plurality of electrodes arranged at an end of the plurality of laminates opposite to the light extraction section; a second substrate that generates a voltage to be supplied to the plurality of electrodes;
  • (12) comprising a substrate on which the plurality of light emitting elements, the plurality of first light receiving elements and the plurality of second light receiving elements are arranged; The photodetection device according to any one of (1) to (10), wherein the plurality of light propagation members are arranged on the substrate.
  • the plurality of light guide members include a grating coupler.
  • each of the plurality of light guide members switches and propagates the first optical pulse signal emitted by two or more of the light emitting elements. Photodetection device.
  • Photodetection device 2. Distance measurement system, 3. Light emitting unit, 3a. First chip, 3b. Second chip, 4. Overall control unit, 5. Light emitting element, 6. Light emitting source, 7. Drive circuit, 8. Clock generation unit, 9. Light emission control unit.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Optics & Photonics (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

[課題]発光素子や受光素子のばらつきを精度よく補正することができる。 [解決手段]光検出装置は、第1光パルス信号を発光する複数の発光素子と、前記複数の発光素子のそれぞれで発光された前記第1光パルス信号を伝搬する複数の光伝搬部材と、前記複数の光伝搬部材にて伝搬された前記第1光パルス信号を受光する複数の第1受光素子と、前記複数の発光素子のそれぞれで発光された前記第1光パルス信号が物体で反射された反射光パルス信号を受光する複数の第2受光素子と、前記複数の発光素子で発光された前記第1光パルス信号を前記複数の光伝搬部材に導光する複数の導光部材と、を備える。

Description

光検出装置
 本開示は、光検出装置に関する。
 物体に対して光パルス信号を照射し、物体で反射された反射光信号を受光することで、物体までの距離を計測するToF(Time of Flight)センサや、反射光信号に含まれる光子の数をカウントするフォトンカウンタなどが知られている。
 複数の発光素子が配置された発光モジュールを発光源として用いる場合、複数の発光素子のうちの一部の発光素子を順にずらしながら発光させて距離計測やフォトンカウントを行うことができる。
 発光素子から物体に向けて光パルス信号を発光し、物体からの反射光パルス信号を受光素子で受光して物体までの距離を計測するには、発光素子の発光タイミングを正確に検出する必要がある。そこで、発光素子の近傍に反射部材を設けるとともに、反射部材で反射された光パルス信号を受光する受光素子を新たに設けて、この受光素子で発光タイミングを検出する技術が開示されている(特許文献1参照)。
(特許文献1参照)。
米国特許公開公報US2016/0033644A1
 しかしながら、物体からの反射光パルス信号を受光する受光素子を複数設ける場合、発光タイミング検出用の受光素子も複数必要となり、部材コストが高くなり、設置場所も確保する必要がある。
 また、複数の発光素子を設ける場合、製造ばらつきや温度等の環境条件により、複数の発光素子のそれぞれに発光を指示してから発光を開始するまでの時間にばらつきが生じるおそれがある。同様に、複数の受光素子を設ける場合、製造ばらつきや温度等の環境条件により、各受光素子に反射光信号が入射されてから受光信号を出力するまでの時間にばらつきが生じるおそれがある。
 そこで、本開示では、発光素子や受光素子のばらつきを精度よく補正することができる光検出装置を提供するものである。
 上記の課題を解決するために、本開示によれば、第1光パルス信号を発光する複数の発光素子と、
 前記複数の発光素子のそれぞれで発光された前記第1光パルス信号を伝搬する複数の光伝搬部材と、
 前記複数の光伝搬部材にて伝搬された前記第1光パルス信号を受光する複数の第1受光素子と、
 前記複数の発光素子のそれぞれで発光された前記第1光パルス信号が物体で反射された反射光パルス信号を受光する複数の第2受光素子と、
 前記複数の発光素子で発光された前記第1光パルス信号を前記複数の光伝搬部材に導光する複数の導光部材と、を備える、光検出装置が提供される。
 前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体を有し、
 前記複数の光伝搬部材のそれぞれには、対応する前記光取り出し部から出射された前記第1光パルス信号の一部が入射されてもよい。
 複数の前記積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
 前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、を備え、
 前記複数の光伝搬部材は、前記第1基板に沿って配置されてもよい。
 複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
 前記第1基板上に配置され前記複数の積層体に電圧を供給する複数の電極と、を備え、
 前記複数の光伝搬部材は、前記第1基板に沿って配置されてもよい。
 前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体を有し、
 前記複数の光伝搬部材のそれぞれは、対応する前記活性層から出射された前記第1光パルス信号の一部を伝搬してもよい。
 前記複数の積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
 前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、を備え、
 前記複数の光伝搬部材は、複数の前記活性層に沿って配置されてもよい。
 複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
 前記第1基板上に配置される複数の電極と、を備え、
 前記複数の光伝搬部材は、複数の前記活性層に沿って配置されてもよい。
 前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体と、前記活性層を間に挟んで前記光取り出し部の反対側に配置される光反射部材とを有し、
 前記複数の光伝搬部材のそれぞれは、対応する前記光反射部材の一部に設けられた開口部から出射された前記第1光パルス信号を伝搬してもよい。
 前記複数の積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
 前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、
 前記複数の電極に供給される電圧を生成する第2基板と、を備え、
 前記複数の光伝搬部材は、前記第2基板上に配置されてもよい。
 複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
 前記第1基板上に配置される複数の電極と、
 前記複数の電極に供給される電圧を生成する第2基板と、を備え、
 前記複数の光伝搬部材は、前記第2基板上に配置されてもよい。
 前記複数の発光素子が配置される発光基板と、
 前記複数の第1受光素子及び前記複数の第2受光素子が配置される受光基板と、を備え、
 前記複数の光伝搬部材は、前記発光基板及び前記受光基板に跨がるように配置されてもよい。
 前記複数の発光素子と、前記複数の第1受光素子及び前記複数の第2受光素子とが配置される基板を備え、
 前記複数の光伝搬部材は、前記基板上に配置されてもよい。
 前記複数の発光素子及び前記複数の第1受光素子が配置される発光基板と、
 前記複数の第2受光素子が配置される受光基板と、を備え、
 前記複数の光伝搬部材は、前記発光基板及び前記受光基板に跨がるように配置されてもよい。
 前記複数の第1受光素子は、前記複数の第2受光素子よりも前記複数の発光素子に近い側に配置され、
 前記複数の光伝搬部材は、前記複数の発光素子の領域から前記複数の第1受光素子の領域まで配置されてもよい。
 前記複数の光伝搬部材で伝搬された前記第1光パルス信号が前記複数の第2受光素子に入射されないように遮光する遮光部材を備えてもよい。
 前記複数の導光部材は、グレーティングカプラを有してもよい。
 前記複数の導光部材のそれぞれは、2以上の前記発光素子で発光された前記第1光パルス信号を切り替えて伝搬させてもよい。
 前記複数の導光部材のそれぞれに接続される2以上の光スイッチを備え、
 前記2以上の光スイッチのうち一つずつを順繰りにオンさせて、2以上の前記発光素子で発光された前記第1光パルス信号を順に、対応する前記導光部材に入射させてもよい。
 前記第1受光素子は、SPAD(Single Photon Avalanche photodiode)、SiPM(Silicon Photomultiplier)、iToF(indirect Time of Flight)センサ、又はフォトンカウントセンサを有してもよい。
 前記光伝搬部材は、光導波路を有するか、又は光ファイバ及び光コネクタを有してもよい。
第1の実施形態による光検出装置を備えた測距システムの概略構成を示すブロック図。 第1の実施形態による発光部と画素アレイ部の模式的な平面図。 発光素子と光導波路との位置関係を示す断面図。 図3の第1変形例を示す断面図。 図3の第2変形例を示す断面図。 発光素子の光取り出し部の近傍に光導波路を設ける図4の断面構造をより具体化した断面図。 図6Aの一変形例の断面図。 発光素子の活性層の近傍に光導波路を設ける図5の断面構造をより具体化した断面図。 発光素子の光取り出し部の反対側に光導波路を設ける図6の断面構造をより具体化した断面図。 図8Aの一変形例の断面図。 発光素子の光取り出し部の近傍に光導波路を設ける表面型VCSELの断面図。 発光素子の活性層の近傍に光導波路を設ける表面型VCSELの断面図。 図10Aの第1変形例の断面図。 図10Aの第2変形例の断面図。 発光素子の光取り出し部の反対側に光導波路を設ける表面型VCSELの断面図。 図11Aの一変形例の断面図。 発光部と受光部の周辺の構造を示す断面図。 図12の第1変形例の断面図。 図12の第2変形例の断面図。 グレーティングカプラからなる光結合手段を示す図。 光結合手段の第1変形例を示す模式的な断面図。 光結合手段の第2変形例を示す模式的な断面図。 光結合手段の第3変形例を示す模式的な断面図。 光結合手段の第4変形例を示す模式的な断面図。 発光部が配置されるLDD基板に参照画素を配置する例を示す模式的な断面図。 図16Aの第1変形例を示す模式的な断面図。 図16Aの第2変形例を示す模式的な断面図。 図16Aの第3変形例を示す模式的な断面図。 LDD基板とは異なる基板上に参照画素を配置した模式的な断面図。 図17Aの第1変形例を示す模式的な断面図。 図17Aの第2変形例を示す模式的な断面図。 図17Aの第3変形例を示す模式的な断面図。 発光素子、参照画素、及び測距画素をLDD基板上に配置する例を示す模式的な断面図。 発光素子と参照画素の間に光ファイバと光コネクタを有する光伝搬部材を配置する例を示す図。 図19Aの一変形例を示す図。 発光部の基板と受光部の基板との間での光パルス信号の送受方法の第1例を示す図。 発光部の基板と受光部の基板との間での光パルス信号の送受方法の第2例を示す図。 発光部の基板と受光部の基板との間での光パルス信号の送受方法の第3例を示す図。 グレーティングカプラを用いて参照画素に光を入射する例を示す図。 図21Aの第1変形例を示す図。 図21Aの第2変形例を示す図。 参照画素を構成する受光素子としてSPADを用いる例を示す図。 参照画素としてSiPMを用いるdToFの例を示す図。 参照画素としてSiPMを用いるiToFの例を示す図。 参照画素としてSiPMを用いるフォトンカウントの例を示す図。 各発光素子5と対応する光導波路の間に配置される光スイッチを模式的に示す平面図。 光スイッチの周辺の構造を拡大した平面図。 光スイッチの第1例である光ゲートスイッチの斜視図。 光スイッチの第2例であるマッハツェンダ干渉型光スイッチの斜視図。 光スイッチの第3例である方向結合型光スイッチの斜視図。 車両制御システムの概略的な構成の一例を示すブロック図。 車外情報検出部及び撮像部の設置位置の一例を示す説明図。
 以下、図面を参照して、光検出装置の実施形態について説明する。以下では、光検出装置の主要な構成部分を中心に説明するが、光検出装置には、図示又は説明されていない構成部分や機能が存在しうる。以下の説明は、図示又は説明されていない構成部分や機能を除外するものではない。
 (第1の実施形態)
 図1は第1の実施形態による光検出装置1を備えた測距システム2の概略構成を示すブロック図である。図1の測距システム2は、光検出装置1と、発光部3と、全体制御部4とを備えている。図1の測距システム2は、dToF(direct Time of Flight)方式で測距処理を行うものである。光検出装置1は受光部25を有する。本明細書及び図面では、発光部3をTx、受光部25をRxと略することがある。
 発光部3は、複数の発光素子5と、発光源6と、駆動回路7と、クロック生成部8と、発光制御部9とを有する。
 複数の発光素子5は、互いに交差する第1方向X及び第2方向Yに複数個ずつ配置されている。複数の発光素子5は、所定の時間間隔で発光パルス信号(Txパルス信号)を繰り返し発光する。発光部3は、複数の発光素子5が発光した光信号を所定の二次元空間上で走査することができる。光信号を走査させる具体的な手法は問わない。
 発光素子5は、例えばVCSEL(Vertical Cavity Surface Emitting Laser)である。以下では、複数の発光素子5が同一の基板上に配置されたVCSELアレイ17を用いる例を主に説明する。以下では、複数の発光素子5が配置される第1方向(水平方向)Xを列、第2方向(垂直方向)Yを行と呼ぶことがある。第1方向Xに配置される1行分の複数の発光素子5を発光素子行又は発光素子群と呼ぶ。個々の発光素子行には、第1方向Xに延びる光導波路19が接続されている。第2方向Yに配置された複数の発光素子行に対して、複数の光導波路19が配置されている。個々の発光素子行内の2以上の発光素子5は順に光導波路19に光パルス信号を入射させることができる。このように、光導波路19には、2以上の発光素子5からの2以上の光パルス信号が同時には入射されないようにし、各発光素子5からの光パルス信号が順繰りに、対応する光導波路19で伝搬される。
 第2方向Yに配置される複数の発光画素列は、複数の光導波路19に同時に光パルス信号を入射させることができる。よって、複数の光導波路19は、同タイミングで、それぞれ異なる発光素子5からの光パルス信号を伝搬する。
 発光源6は、複数の発光素子5とは別個に設けられ、後述する受光素子30の受光タイミングの時間差を補正するために用いられる。発光源6は、典型的には、複数の発光素子5を発光させて測距処理を開始する前に、光パルス信号を発光する。発光源6の発光領域は、受光部25の受光領域の全域を含んでいる。よって、受光部25内のすべての受光素子30は、発光源6からの光パルス信号を受光することができる。
 発光源6は、必須の構成部材ではない。受光素子30の受光タイミングの時間差を補正する必要がなければ、発光源6を省略してもよい。
 駆動回路7は、発光制御部9からの制御信号に基づいて、複数の発光素子5を駆動するとともに、発光源6を駆動する。例えば、駆動回路7は、発光制御部9からの制御信号に基づいて、光パルス信号の発光タイミングと発光波形の少なくとも一方を制御する。より詳細には、駆動回路7は、発光制御部9からの制御信号に基づいて、複数の発光素子5のアノード又はカソードに印加する電圧の電圧レベルを制御して、複数の発光素子5からの光パルス信号の信号強度、光ピーク強度、パルス幅、立ち上がりエッジタイミング、立ち下がりエッジタイミング、及びスルーレートの少なくとも一つを制御する。
 クロック生成部8は、基準クロック信号に同期したクロック信号を生成する。基準クロック信号は、例えば測距システム2の外部から入力される信号である。あるいは、測距システム2の内部で基準クロック信号を生成してもよい。
 発光制御部9は、クロック信号に同期させて、各発光素子5の発光タイミングと発光波形の少なくとも一方を制御するための制御信号を生成する。上述した駆動回路7は、発光制御部9から出力される制御信号に基づいて、複数の発光素子5と発光源6を駆動する。
 全体制御部4は、発光部3と光検出装置1を制御する。発光部3と全体制御部4の少なくとも一方は、光検出装置1に統合してもよい。
 光検出装置1は、画素アレイ部11と、測距処理部12と、制御部13と、クロック生成部14と、発光タイミング制御部15と、駆動回路16とを有する。画素アレイ部11は受光部25を構成している。
 画素アレイ部11は、参照画素アレイ部11aと、測距画素アレイ部11bとを有する。参照画素アレイ部11aは、少なくとも第2方向Yに配置される複数の参照画素18を有する。複数の参照画素18は複数の光導波路19に対応づけられている。より具体的には、第2方向Yに配置される複数の参照画素18のそれぞれは、対応する光導波路19を伝搬した光パルス信号を受光する。
 後述するように、複数の参照画素18は、第2方向Yに配置される複数の発光素子5で発光された光パルス信号を、複数の光導波路19を通して受光する。これにより、複数の参照画素18は、複数の発光素子5からの光パルス信号を直接受光できる。よって、複数の参照画素18は、複数の発光素子5の発光タイミングを精度よく検出できる。複数の参照画素18は、複数の光導波路19を伝搬した光信号を受光し、光子到来に反応して電圧信号を出力する。また、複数の参照画素18は、発光源6からの光パルス信号を受光して、光子到来に反応して電圧信号を出力する。
 測距画素アレイ部11bは、第1方向X及び第2方向Yに複数個ずつ配置された複数の測距画素20を有する。複数の測距画素20は、物体10からの反射光信号を受光する。複数の測距画素20は、光子到来に反応して電圧信号を出力する。各測距画素20で繰り返し反射光信号を受光した結果を平均化することで、反射光信号の光強度を検出することも可能である。以下では、複数の参照画素18と複数の測距画素20が、光子到来に反応して電圧信号を出力する例を説明する。
 複数の参照画素18と複数の測距画素20のそれぞれは受光素子30を有する。受光素子30は、例えばSPAD(Single Photon Avalanche photo Diode)30である。各参照画素18と各測距画素20は、不図示のクエンチ回路を有していてもよい。クエンチ回路は、初期状態では、SPAD30のアノードとカソード間にブレークダウン電圧を超える電位差の逆バイアス電圧を供給する。駆動回路16は、SPAD30が光子を検出した後に、対応するクエンチ回路を介してSPAD30に逆バイアス電圧を供給して、次の反射光パルス信号(Rxパルス信号)の検出に備える。
 測距処理部12は、時間デジタル変換器(TDC)21と、ヒストグラム生成部22と、信号処理部23と、測距制御部24とを有する。
 TDC21は、SPAD30が受光した反射光パルス信号の受光時間に応じた時間デジタル信号を所定の時間分解能で生成する。ヒストグラム生成部22は、TDC21が生成した時間デジタル信号に基づいて、TDC21の時間分解能に応じたビン幅のヒストグラムを生成する。ビン幅とは、ヒストグラムを構成する各頻度単位の幅である。TDC21の時間分解能が高いほど、ビン幅を狭くでき、Rxパルス信号を受光した時間頻度をより精度よく反映させたヒストグラムが得られる。
 信号処理部23は、測距部23aを有する。測距部23aは、ヒストグラムに基づいてRxパルス信号の重心位置を計算する等して、物体10までの距離を計算し、出力バッファ28を介して出力する。信号処理部23は、後述するように、複数の発光素子5の発光タイミングの時間差を算出し、その時間差に基づいて、複数の発光素子5の発光タイミングの時間差を補正するための補正信号を生成する。
 制御部13は、光検出装置1内の各部の処理動作を制御する。測距制御部24は、測距処理部12内のTDC21、ヒストグラム生成部22、及び信号処理部23を制御する。発光タイミング制御部15は、発光部3内の発光制御部9を制御するとともに、駆動回路16を制御する。駆動回路16は、画素アレイ部11内の複数の参照画素18及び複数の測距画素20が光を検知して、カソード電圧が下がったときに、カソード電圧を元の電圧に復帰させるクエンチ制御などを行う。
 クロック生成部14は、TDC21とヒストグラム生成部22が使用するクロック信号を生成する。クロック生成部14は、例えば不図示のPLL回路を用いてクロック信号を生成する。
 (発光部3と画素アレイ部11の詳細)
 図2は第1の実施形態による発光部3と画素アレイ部11の模式的な平面図である。図2の発光部3は、複数の発光素子5(VCSEL)が配置されたVCSELアレイ17を有する。
 図2のVCSELアレイ17は、第1方向X(水平方向)に16個、第2方向Y(垂直方向)に8個の発光素子5を有するが、これは一例であり、第1方向X及び第2方向Yに配置される発光素子5の数は任意である。
 VCSELアレイ17には、第1方向Xに延びる8つの光導波路19が設けられており、各光導波路19に沿って、千鳥状に16個の発光素子5が配置されている。16個の発光素子5は、対応する光導波路19に光パルス信号を入射可能とされている。ただし、複数の発光素子5が同時に光導波路19に光パルス信号を入射させることは禁止されている。よって、16個の発光素子5は、順繰りに光パルス信号を光導波路19に入射させる。
 第2方向Y(垂直方向)に配置される8個の発光素子5のうち、1個おきに配置された4個の発光素子5が同時に光パルス信号を発光する。図2では、複数の発光素子5のうち、発光タイミングを0~15の数字で表している。0と記載された8個の発光素子5が同タイミングで発光し、以下、数字の小さい順に、同じ数字が記載された8個の発光素子5が同タイミングで発光する。
 このように、図2は、16×8=108個の発光素子5が、16個のタイミングに分けて、8個ずつ順繰りに発光する例を示している。同時に発光する8個の発光素子5の光パルス信号は、それぞれ異なる光導波路19を伝搬する。
 受光部25内の画素アレイ部11は、複数の参照画素18と、複数の測距画素20とを有する。各参照画素18と各測距画素20の構造は同じであり、同じ構造及び電気特性の受光素子30を有する。ただし、後述するように、製造プロセスのばらつき等により、各参照画素18と各測距画素20を構成する受光素子30の電気特性にはばらつきが生じうる。
 VCSELアレイ17上の光導波路19は、受光部25内の参照画素18の近傍まで配置されている。各光導波路19で伝搬された光パルス信号は、対応する参照画素18に入射される。これにより、各参照画素18は、対応する発光素子5の発光タイミングをほぼリアルタイムに検出できる。また、光導波路19での光損失はほとんど生じないと考えられるため、各参照画素18は、対応する発光素子5の発光強度を検出できる。
 複数の測距画素20は、第2方向Y(垂直方向)には、例えば参照画素18の数と同じ画素数だけ配置されている。第1方向X(水平方向)における測距画素20の画素数は任意である。各参照画素18と各測距画素20は、例えば、光子到来に反応して生成される電圧信号を出力する。第1方向Xに配置された参照画素18と各測距画素20のそれぞれは、対応するTDC21に電圧信号を入力する。各TDC21は、参照画素18又は各測距画素20の電圧信号を時間デジタル信号に変換する。図2では省略しているが、図1のヒストグラム生成部22は、各TDC21から出力された時間デジタル信号に基づいてヒストグラムを生成し、信号処理部23はヒストグラムに基づいて物体10までの距離を算出する。本明細書では、第2方向Yに配置された参照画素18の数と測距画素20の数が同数である例を説明するが、必ずしも同数である必要はない。
 図2の各参照画素18と各測距画素20は、画素部と、アナログフロントエンド部(以下、AFE部)とを有し、AFE部から光パルス信号又は反射光パルス信号に応じた電圧信号を出力する。
 図2の発光部3内の発光制御部9は、発光タイミングと発光波形を調整するための情報を記憶するレジスタを有していてもよい。駆動回路7は、このレジスタの情報に基づいて、発光素子5ごとに、個別に発光タイミングと発光波形を調整する。あるいは、駆動回路7は、これらのレジスタの情報に基づいて、すべての発光素子5の発光タイミングと発光波形を一括で調整してもよい。
 なお、本明細書では、主に、一つの光導波路19で伝搬される光パルス信号を1個の参照画素18が受光する例を示すが、発光素子5のピッチと、参照画素18及び測距画素20のピッチとは必ずしも一致しないため、一つの光導波路19で伝搬される光パルス信号を複数の参照画素18が受光する場合もありうる。
 (光導波路19の配置場所)
 図3は発光素子5と光導波路19との位置関係を示す断面図である。発光素子5は積層膜40を有する。積層膜40は、第1多層膜反射鏡、第1スペーサ層、活性層41、第2スペーサ層、及び第2多層膜反射鏡などを含んでおり、活性層41で発生されたレーザ光を第1多層膜反射鏡と第2多層膜反射鏡の間で共振させて光強度を向上させ、積層膜の一端面側から出射する。
 図3の例では、活性層41で発生された光パルス信号は、積層膜40の両端面側に配置される第1多層膜反射鏡と第2多層膜反射鏡の間で反射を繰り返して光強度が高められ、積層膜40の一端面に設けられる光取り出し部62から出射される。
 光導波路19は、光取り出し部62の近傍に配置されている。光取り出し部62から出射された光パルス信号の一部は光導波路19に入射されて、光導波路19を伝搬して参照画素18にて受光される。
 図3の光導波路19は、例えば、光透過層55の周囲をクラッド層56で覆った構造になっている。光透過層55の屈折率とクラッド層56の屈折率に違いを持たせることで、光取り出し部62から出射されて光透過層55に入射された光パルス信号を参照画素18まで、光損失なく伝搬させることができる。
 図4は図3の第1変形例を示す断面図である。図3は発光素子5の積層膜40の一端部側に光導波路19を配置するのに対し、図4は積層膜の一部である活性層41に沿って光導波路19を設けている。発光部3には、複数の発光素子5が間隔を隔てて配置されており、各発光素子5の活性層41は同一の層高さに配置されている。よって、複数の活性層41に沿って光導波路19を配置することで、各発光素子5で発光された光パルス信号を、同一の光導波路19で伝搬させることができる。
 図4の光導波路19は、活性層41で発生されて増幅された光パルス信号の一部を伝搬する。光導波路19を活性層41に沿って配置することで、活性層41の光閉じ込め効果を活用して、効率よく光パルス信号を光導波路19に入射させることができる。
 また、図4の光導波路19は、積層膜を形成する工程を利用して形成でき、光導波路19を形成する工程を別個に設けなくて済む。
 図5は図3の第2変形例を示す断面図である。図3では、発光素子5の光取り出し部62の側に光導波路19を設ける例を示したが、図5は、発光素子5の光取り出し部62とは反対側に光導波路19を配置している。発光素子5の光取り出し部62とは反対側の端面には、通常は光が漏れ出さないように反射率の高い材料層が配置されている。図5では、光取り出し部62とは反対側の端面の一部に開口部42aを設けて、開口部42aから一部の光パルス信号を出射させる。開口部42aの近傍に光導波路19を配置することで、開口部42aから出射された光パルス信号を光導波路19に入射させることができる。
 図3~図5に示したように、光導波路19を設ける場所は、大きく分けて、1)発光素子5の光取り出し部62の近傍、2)発光素子5の活性層41の近傍、3)発光素子5の光取り出し部62の反対側のいずれかである。
 (光導波路19の場所付近の断面構造)
 図6Aは発光素子5の光取り出し部62の近傍に光導波路19を設ける図4の断面構造をより具体化した断面図である。図6Aは、メサ構造の発光素子5を有するVCSEL基板38を備える例を示している。VCSEL基板38には、メサ構造の発光素子5が一定間隔で配置され、VCSEL基板38上に光導波路19が配置されている。発光素子5は積層膜40を有し、積層膜40中の活性層41で発生された光パルス信号は、VCSEL基板38側に設けられる光取り出し部62から出射されて、VCSEL基板38を透過して、光導波路19に入射される。
 VCSEL基板38上には不図示のカソード電極が配置され、各発光素子5の光取り出し部62とは反対側の端部にはアノード電極42が配置されている。アノード電極42は、不図示のLDD基板39からの電圧供給を受ける。
 図6Bは図6Aの一変形例の断面図である。図6Bは、光導波路19の配置場所が図6Aとは異なる。図6Aの光導波路19は、VCSEL基板38の複数の発光素子5が並ぶ面とは反対側の面に配置されているのに対し、図6Bの光導波路19は、VCSEL基板38の発光素子5が並ぶ面に沿って配置されている。すなわち、図6Bの光導波路19は、各発光素子5の光取り出し部62の近傍に配置されている。
 図7は発光素子5の活性層41の近傍に光導波路19を設ける図5の断面構造をより具体化した断面図である。図7に示すように、VCSEL基板38上の複数の発光素子5の活性層41の近傍に光導波路19が設けられており、光導波路19は、複数の発光素子5内のいずれかの活性層41から入射された光パルス信号を伝搬する。
 図8Aは発光素子5の光取り出し部62の反対側に光導波路19を設ける図6の断面構造をより具体化した断面図である。図8Aの例では、各発光素子5のアノード電極42の一部に開口部42aが設けられ、この開口部42aから、積層膜40で反射を繰り返している光パルス信号の一部が出射される。図8Aの光導波路19は、開口部42aの近傍に配置されており、開口部42aから出射された光パルス信号が光導波路19に入射される。アノード電極42は、バンプ等を介してLDD基板39と接合されている。
 図8Bは図8Aの一変形例の断面図である。図8Bの光導波路19は、図8Aの光導波路19よりもLDD基板39に近い側に配置されている。よって、光導波路19は、LDD基板39の製造工程にて形成可能であり、製造工程を簡略化できる。
 図6A、図6B、図7、図8A、及び図8Bはいずれも、VCSEL基板38の裏面側から光を取り出す例を示しているが、VCSEL基板38の表(おもて)面側から光を取り出すようにしてもよい。以下では、VCSEL基板38の表面側から光を取り出す発光素子5を表面型VCSELと呼ぶ。これに対して、図6A、図6B、図7、図8A、及び図8Bは裏面型VCSELと呼ぶことができる。
 図9は発光素子5の光取り出し部62の近傍に光導波路19を設ける表面型VCSELの断面図である。図9のVCSEL基板38は、図6Aとは反対側に配置されている。複数の発光素子5の光取り出し部62の近傍に光導波路19が配置されている。発光素子5の光取り出し部62の近傍に配置される電極層63は、積層膜40とVCSEL基板38を貫通するコンタクト64を介して、VCSEL基板38の裏面側に配置される電極65に電気的に接続されている。
 図10Aは発光素子5の活性層41の近傍に光導波路19を設ける表面型VCSELの断面図である。図10AのVCSEL基板38は、図7とは反対側に配置されている。また、発光素子5の光取り出し部62の近傍に配置される電極層63は、積層膜40とVCSEL基板38を貫通するコンタクト64を介して、VCSEL基板38の裏面側の電極に電気的に接続されている。
 図10Bは図10Aの第1変形例の断面図である。図10Bでは、活性層41から取り出した光パルス信号を反射部材66で積層方向に導光し、VCSEL基板38の裏面側に配置される光導波路19に入射させる例を示している。図10Bは、活性層41からの光を取り出す点では、図10Aと同じであるが、光導波路19の配置場所が活性層41の近傍ではない点で、図10Aとは異なる。
 図10Cは図10Aの第2変形例の断面図である。図10Cは図10Bの断面構造に類似しており、光導波路19の配置場所をより具体的に示したものである。図10Cの光導波路19は、VCSEL基板38とLDD基板39の間に配置されている。活性層41から取り出した光パルス信号は、反射部材66で積層方向に導光されて、積層膜40とVCSEL基板38を透過して、光導波路19に入射される。
 図11Aは発光素子5の光取り出し部62の反対側に光導波路19を設ける表面型VCSELの断面図である。図11AのVCSEL基板38は図8Aとは反対側に配置されている。発光素子5を構成する積層膜40内で反射を繰り返す光パルス信号の一部が積層膜40のVCSEL基板38側の端面から出射されて、VCSEL基板38を透過して光導波路19に入射される。
 図11Bは図11Aの一変形例の断面図である。図11Bは図11Aの断面構造に類似しており、光導波路19の配置場所をより具体的に示したものである。図11Bの光導波路19は、VCSEL基板38とLDD基板39の間に配置されている。
 (発光部3と受光部25の周辺の詳細構造)
 図12は発光部3と受光部25の周辺の構造を示す断面図である。図12の例では、発光部3が配置される基板52と、受光部25が配置される基板35とが別々に設けられている。なお、同一の基板上に発光部3と受光部25を配置することも可能である。
 図12の受光部25を配置する基板35は、積層構造になっており、第1チップ3aと第2チップ3bをCu-Cu接合26により接合した構造になっている。第1チップ3aと第2チップ3bの接合形態は必ずしもCu-Cu接合26に限定されるものではなく、バンプなどで接合してもよい。
 第1チップ3aには、図2に示したように、発光部3に近い側に参照画素18が配置され、発光部3から遠い側に測距画素20が配置されている。図12の紙面の奥行き方向に図1の第2方向Yの複数の参照画素18と複数の測距画素20が配置されている。
 図12では、参照画素18と発光部3の間にダミー画素(DMY画素)31を配置するとともに、参照画素18と測距画素20の間にもダミー画素31を配置している。これらのダミー画素31は、発光素子5からの光信号の受光や反射光信号の受光に用いられるものではなく、参照画素18と測距画素20の位置合わせ等のために設けられており、ダミー画素31の構造及びサイズは任意である。
 第1チップ3a上のダミー画素31、参照画素18、及び測距画素20のそれぞれは、例えばn型Si(シリコン)層の上にp型Si(シリコン)層を配置したフォトダイオードを有する。ダミー画素31、参照画素18、及び測距画素20の下面側には、Si(シリコン)層32、SiN(シリコン窒化物)層33、Si(シリコン)層34が積層されている。
 第2チップ3bには、参照画素18と測距画素20のアノード電極とカソード電極とに印加する電圧を発生させる回路や、アノード電極の電圧信号を読み出す回路などが設けられる。第2チップ3bは、例えば、Si(シリコン)層35の上に、SiN(シリコン窒化物)層36、及びSiO2層37を積層した構造を有する。
 発光部3は、VCSELアレイ17が配置されるVCSEL基板38とLDD(Laser Diode Driver)基板39とを接合した積層構造である。VCSEL基板38は、GaAs等の化合物半導体を材料とする基板である。VCSEL基板38のLDD基板39に対応する面が表(おもて)面であり、レーザ光は裏面(図12のVCSEL基板38の上面)側から出射される。VCSEL基板38上には、所定間隔でメサ構造の複数の発光素子5が配置されている。各発光素子5は、積層膜40を有する。積層膜40は、第1多層膜反射鏡、第1スペーサ層、活性層41、第2スペーサ層、及び第2多層膜反射鏡などを含んでおり、活性層41で発生されたレーザ光を第1多層膜反射鏡と第2多層膜反射鏡の間で共振させて光強度を向上させ、基板の裏面側から出射する。このように、図12のVCSELアレイ17は裏面照射型である。
 VCSEL基板38側から見て、各発光素子5の上面にはカソード電極42が配置されている。同様に、VCSEL基板38側から見て、VCSELアレイ17の端部側に配置されるアンドープのGaAs層43の上面及び側面にはアノード電極44が配置されている。アノード電極44は、VCSEL基板38側から見て、複数の発光素子5の積層膜40の最下層側にも配置されている。図12において、カソード電極42とアノード電極44の配置を逆にしてもよい。図12では、共通電極をアノード電極44にしているが、共通電極をカソード電極42にし、各メサ部にアノード電極44を設けてもよい。各発光素子5の周囲は、例えば樹脂部材45で覆われている。
 LDD基板39は、VCSELアレイ17の複数の発光素子5に駆動信号を供給するための複数のパッド46を有する。LDD基板39のパッド46と、VCSELアレイ17の対応するカソード電極42のパッド47とが接合される。
 LDD基板39のパッド46は、例えばAl(アルミニウム)などの導電材料で形成される。カソード電極42上のパッド47は、例えばCo(コバルト)などの導電材料で形成される。LDD基板39のパッド46の上には、例えばCu(銅)からなるピラー48が配置され、このピラー48の上面とパッド47の間には、Ni(ニッケル)層49、半田層50、及びAu(金)層51などの導電積層膜が配置される。
 LDD基板39は、Si(シリコン)などからなる基材層52の上に、SiN等からなる絶縁層53を配置し、その上にW(タングステン)等からなる金属遮光層54を配置した積層構造である。
 LDD基板39は、駆動信号を生成する図1の駆動回路7を有していてもよい。この場合、LDD基板39はアクティブ駆動を行う。あるいは、LDD基板39は、発光部3とは別個に設けられる駆動回路7で生成された駆動信号に応じた電圧をパッド46に供給していてもよい。この場合、LDD基板39は、パッシブ駆動を行う。
 発光部3内の第1チップ3aの上面とLDD基板39の上面とは面一になっており、これら上面に沿って光導波路19が配置されている。光導波路19は、光パルス信号を伝搬させる光透過層55の周囲をSiO2等のクラッド層56で取り囲んだ構造を有する。
 各発光素子5の上面に配置されたカソード電極42の一部には開口部42aが設けられている。各発光素子5で発光された光パルス信号は裏面側に伝搬するが、光パルス信号の一部は、表(おもて)面側にも伝搬する。各発光素子5の表(おもて)面側に伝搬した光の一部は、開口部42aから出射される。
 光導波路19には、各発光素子5の開口部42aに対向する位置に、グレーティングカプラ57が配置されている。グレーティングカプラ57は、リソグラフィ等によりクラッド層56の一部を格子状に除去して形成される。各発光素子5の開口部42aから出射された光パルス信号は、光導波路19のグレーティングカプラ57から光導波路19内に入射される。
 光導波路19に接する参照画素18の近傍にも、グレーティングカプラ58が配置されており、光導波路19を伝搬した光パルス信号は、このグレーティングカプラ58を透過して、参照画素18に入射される。光導波路19の受光部25側の端部には、ブラッグミラー59が配置されており、光パルス信号を光導波路19内に閉じ込めるようにしている。これにより、光導波路19内の光パルス信号が測距画素20に入射されるのを防止している。
 発光部3と受光部25の境界領域には遮光壁60が配置されている。遮光壁60は、光導波路19の上に配置されている。
 図13は図12の第1変形例の断面図である。図12は、発光部3側の基板35と受光部25側の基板52が別個に設けられ、これら基板35、52の高さ位置も異なっている。これに対して、図13では、発光部3と受光部25を共通のLDD基板39上に配置している。図13のLDD基板39の上には、SiNからなる絶縁層53と金属遮光層54を介して光導波路19が配置されている。光導波路19は、発光部3から受光部25内の参照画素18の近傍まで一体的に配置されている。
 図12では、光導波路19と基板35の間に参照画素18と測距画素20を配置しているが、図13では、光導波路19の上方に参照画素18と測距画素20を配置している。光導波路19の受光部25側の端部には遮光樹脂層67が配置され、光導波路19を伝搬した光パルス信号が測距画素20に入射されないようにしている。図13の光導波路19の発光部3側の端部には、図12の光導波路19と同様に、ブラッグミラー59が設けられている。
 図12では、参照画素18、測距画素20、及びダミー画素31は、Cu-Cu接合にて基板35と接続されているが、図13では、導電積層膜でLDD基板39と接合されている。これは、受光部25側も、発光部3側と同じLDD基板39に接続されるため、発光部3とLDD基板39とを接続する導電積層膜と同じ材料で受光部25とLDD基板39を接続するようにしたものである。図13におけるその他の構造は、図12と同様である。
 図14は図12の第2変形例の断面図である。図14に示す第2変形例では、図13と同様に、発光部3と受光部25が共通のLDD基板39に接続されている。図14では、LDD基板39と受光部25とがCu-Cu接合で接続される点で図13とは異なっている。また、光導波路19の受光部25側の端部の周辺はSiO2等の絶縁膜37で覆われており、図13の遮光樹脂層67は配置されていない。なお、遮光樹脂層67を光導波路19の端部付近に配置してもよい。図14の光導波路19の発光部3側の端部には、図12及び図13の光導波路19と同様に、ブラッグミラー59が設けられている。
 (光結合手段の具体例)
 発光素子5から出射された光パルス信号を光導波路19に入射させる光結合手段の一例は、上述したグレーティングカプラ57である。グレーティングカプラ57は、図15Aに示すように、クラッド層56の一部をスリット状に加工して形成される。クラッド層56をスリット状に加工することは、エッチング等による既存の半導体プロセスで容易に行える。
 図15Bは光結合手段の第1変形例を示す模式的な断面図である。図15Bの光結合手段は、光導波路19のクラッド層56の一部に配置される光屈折部材68である。発光素子5から出射された光パルス信号は、光屈折部材68で屈折されて、光導波路19に入射される。
 図15Cは光結合手段の第2変形例を示す模式的な断面図である。図15Cの光結合手段は、光導波路19のクラッド層56の表面の一部が微細加工による凹凸構造69を有する。この凹凸構造69に発光素子5からの光パルス信号が入射されると、光パルス信号の進行方向が変換されて、光導波路19に光パルス信号を導光することができる。
 図15Dは光結合手段の第3変形例を示す模式的な断面図である。図15Dでは、クラッド層56の表面に金属層70が配置されており、金属層70には孔70hが設けられている。発光素子5からの光パルス信号が金属層70の孔70hを通過する際に回折が生じ、回折光が光導波路19に入射される。
 図15Eは光結合手段の第4変形例を示す模式的な断面図である。図15Eは、クラッド層56の表面に金属ナノ粒子71を配置することで、表面プラズモンを生じさせる。これにより、発光素子5からの光パルス信号の進行方向を切り替えることができ、光導波路19に導光することができる。
 このように、発光素子5から出射された光パルス信号を光導波路19に入射させる光結合手段には、種々の方式を採用可能である。
 (発光部3が配置される基板と受光部25が配置される基板)
 図12~図14に示したように、発光部3が配置される基板と受光部25が配置される基板とは異なっていてもよいし、同一の基板上に発光部3と受光部25を配置してもよい。また、参照画素18と発光部3は光導波路19で光パルス信号を送受するため、参照画素18と発光部3を同一の基板上に配置してもよいし、異なる基板に配置してもよい。
 図16Aは、発光部3が配置されるLDD基板39に参照画素18を配置する例を示す模式的な断面図である。図16Aでは、LDD基板39の第1主面上にVCSELアレイ17を配置し、LDD基板39の第1主面とは反対側の第2主面上に参照画素18を配置している。VCSELアレイ17と参照画素18との間のLDD基板39の第1主面上には光導波路19が配置されている。測距画素20が配置される基板72は、LDD基板39とは別個に配置されている。LDD基板39と測距画素20が配置される基板72には、受光信号に応じた電圧信号を生成するアナログフロントエンド部(AFE部)73が形成されている。
 図16Bは図16Aの第1変形例を示す模式的な断面図である。図16Bの参照画素18は、VCSELアレイ17と同じ第1主面上に配置されている。光導波路19は、LDD基板39の第1主面上に配置され、その上にVCSELアレイ17と参照画素18が配置されている。
 図16Cは図16Aの第2変形例を示す模式的な断面図である。図16Cの参照画素18は、LDD基板39を加工して形成されている。より具体的には、LDD基板39に形成されるAFE部やロジック回路などを形成するための半導体プロセスを利用して参照画素18が形成されている。LDD基板39の第1主面上に光導波路19が配置され、その上にVCSELアレイ17が配置され、光導波路19の下に参照画素18が配置されている。
 図16Dは図16Aの第3変形例を示す模式的な断面図である。図16DはLDD基板39上にVCSELアレイ17と参照画素18が配置され、その上に、光導波路19が配置されている。図16A~図16Dのいずれも、測距画素20が配置される基板は、VCSELアレイ17と参照画素18が配置されるLDD基板39とは別個に設けられている。これに対して、参照画素18と測距画素20を同一の基板上に配置することも可能である。
 図17AはLDD基板39とは異なる基板74上に参照画素18を配置した模式的な断面図である。図17Aは図12と同様に、VCSELアレイ17が配置されるLDD基板39とは別個に、参照画素18及び測距画素20が配置される基板74を設けており、これら基板39、74の高さ位置は互いに異なっており、これら基板39,74は、支持基板75の上に配置されている。光導波路19は、LDD基板39の第1主面と、参照画素18の上面とに配置されている。
 図17Bは図17Aの第1変形例を示す模式的な断面図である。図17Bでは、発光素子5が配置されるLDD基板39の第1主面と、参照画素18及び測距画素20が配置される基板の上面とを面一にしており、この面に光導波路19が配置されている。
 図17Cは図17Aの第2変形例を示す模式的な断面図である。図17Cでは、参照画素18と測距画素20を、ロジック回路やAFE部と同様の半導体プロセスを利用して基板上に形成する。そして、参照画素18と測距画素20の上面と、LDD基板39の上面とを面一にして、この面に光導波路19を配置している。
 図17Dは図17Aの第3変形例を示す模式的な断面図である。図17Dは、LDD基板39と、参照画素18及び測距画素20が配置される基板74との間に、大きな段差がある例を示している。図17Dでは、LDD基板39の端部に反射ミラー76と、TSV(Through Silicon Via)77と、光学レンズ78を設けて、LDD基板39上の光導波路19の端部から出射された光パルス信号の進行方向を反射ミラー76、TSV77、及び光学レンズ78で変更して、参照画素18に上方から入射させる。図17Dでは、参照画素18及び測距画素20が配置される基板がLDD基板39の下方に配置される例を示すが、基板がLDD基板39の上に配置されていてもよい。この場合、反射ミラー76で上方に光パルス信号を反射させればよい。
 図16A~図16Dと図17A~図17Dは、発光素子5、参照画素18、及び測距画素20を少なくとも二つの基板に配置する例を示したが、発光素子5、参照画素18、及び測距画素20を同一の基板上に配置してもよい。
 図18は、発光素子5、参照画素18、及び測距画素20をLDD基板39上に配置する例を示す模式的な断面図である。LDD基板39の一部には、半導体プロセスによりAFE部73が形成されており、AFE部73の上には参照画素18及び測距画素20が配置されている。また、LDD基板39上のAFE部73とは異なる領域の上には、VCSELアレイ17が配置されている。上述した図13及び図14は、図18の断面構造をより具体化したものである。
 (光ファイバを用いた光伝搬部材)
 上述した実施形態では、発光素子5と参照画素18との間に光導波路19を配置する例を説明した。光パルス信号を伝搬する光伝搬部材は、必ずしも光導波路19に限られない。例えば、光伝搬部材は、光ファイバと光コネクタを含んでいてもよい。
 図19Aは発光素子5と参照画素18の間に光ファイバ79と光コネクタ80を有する光伝搬部材を配置する例を示す図である。光ファイバ79の両端には光コネクタ80が取り付けられている。また、LDD基板39の端部と、参照画素18及び測距画素20が配置される基板の端部にも、それぞれ別個の光コネクタ81、82が取り付けられている。これら光コネクタ(80,81)、(80,82)同士を接続することで、発光素子5からの光パルス信号を、光コネクタ80と光ファイバ79を介して、参照画素18に入射させることができる。
 図19Aの例をより詳細に説明すると、上述した光ファイバ79及び光コネクタ80とは別に、LDD基板39上に光導波路19が配置され、参照画素18上にも別の光導波路19が配置されている。発光素子5が発光した光パルス信号は、光導波路19を伝搬して、LDD基板39の端部の光コネクタ81、80から光ファイバ79を通って、参照画素18側の基板の光コネクタ80、82で受光される。そして、この光コネクタ80から光導波路19を伝搬して、参照画素18に入射される。
 図19Bは図19Aの一変形例を示す図である。図19Bの例では、LDD基板39の上には光導波路19を設ける必要がない。その代わりに、VCSELアレイ17の上方に反射ミラー76が配置されている。VCSELアレイ17内の各発光素子5から発光された光パルス信号は、反射ミラー76で反射されて、光コネクタ80に入射されて、光ファイバ79を伝搬して、参照画素18の上面の光導波路19に入射される。
 図19Aと図19Bはいずれも光ファイバ79で2つの基板間で光パルス信号を送受する。このため、2つの基板を任意の場所に配置でき、2つの基板の間隔についての自由度が広がる。よって、発光部3側の基板75と、受光部25側の基板75とを任意の場所に配置できる。
 (2つの基板間での光パルス信号の送受方法)
 図20Aは発光部3の基板と受光部25の基板との間での光パルス信号の送受方法の第1例を示す図である。図20Aは、図12~図14等に示したように、2つの基板を隣接して配置し、2つの基板に跨がるように光導波路19を設けて、光パルス信号を直接的に送受する例を示す。
 図20Bは発光部3の基板と受光部25の基板との間での光パルス信号の送受方法の第2例を示す図である。図20Bでは、発光部3側の基板と受光部25側の基板との間に光学部材を配置している。光学部材は、発光部3からの光パルス信号を平行化すなわちコリメートする第1レンズ83と、第1レンズ83を透過した光パルス信号を集光させる第2レンズ84と、第1レンズ83及び第2レンズ84を保持するレンズホルダ85とを有する。発光部3側の基板上の光導波路19の端部から出射された光パルス信号は、第1レンズ83と第2レンズ84を通って、受光部25側の基板上の光導波路19に入射される。
 図20Bは、2つの基板間で、光学的な作用により光パルス信号を送受するため、2つの基板同士の距離に依存せず、光パルス信号を伝送できる。
 図20Cは発光部3の基板と受光部25の基板との間での光パルス信号の送受方法の第3例を示す図である。図20Cでは、光導波路19で光パルス信号を送受する点では、図20Aと共通するが、2つの基板が間隔を隔てて配置されている点で図20Aとは異なる。2つの基板の間に配置される光導波路19は、発光部3側の基板上に配置される光導波路19と、受光部25側の基板上に配置される光導波路19とは別個に設けられている。発光部3側の基板上に配置される光導波路19には例えばグレーティングカプラ57が設けられ、同様に、受光部25側の基板上に配置される光導波路19にも例えばグレーティングカプラ57が設けられている。これらグレーティングカプラ57にて、光パルス信号が入射又は出射される。
 なお、2つの基板の間に配置される光導波路19の代わりに、光ファイバ79を設けてもよい。
 (光伝搬部材から参照画像への導光)
 図21Aは、光導波路19等の光伝搬部材で伝搬された光パルス信号を参照画素18に入射させる手段として、グレーティングカプラ57を用いる例を示す図である。上述したように、グレーティングカプラ57は、半導体プロセスにて容易に形成でき、また、光パルス信号の損失が少ないため、光伝搬部材から効率よく光パルス信号を参照画素18に入射させることができる。
 図21Bは図21Aの第1変形例を示す模式的な斜視図である。図21Bは、グレーティングカプラ58の代わりに、光学的な手段により、光伝搬部材から参照画素18に光パルス信号を入射させる例を示す。図21Bの第1変形例は、光導波路19又は光ファイバ79等の光伝搬部材から出射された光パルス信号を反射させる反射ミラー89を有する。反射ミラー89で反射された光パルス信号は、参照画素18の受光面に入射される。
 図21Cは図21Aの第2変形例を示す模式的な断面図である。図21Cは、図21Bと同様に、グレーティングカプラ58の代わりに、光学的な手段により、光伝搬部材から参照画素18に光パルス信号を入射させる例を示す。図21Cの第2変形例は、発光部3側の光導波路19等の光伝搬部材から出射された光パルス信号を平行化するコリメートレンズ83と、このコリメートレンズ83を保持するレンズホルダとを有する。コリメートレンズ83で平行化された光パルス信号は、参照画素18の受光面に入射される。
 (参照画素18を構成する受光素子30)
 図22Aは参照画素18を構成する受光素子30としてSPAD30aを用いる例を示す図である。図22AはSPAD30aの回路構成を示す図である。図22Aに示すように、SPAD30aのアノードは、ブレークダウン電圧VBDノードに接続されている。SPAD30aのカソードと電源電圧ノードの間には抵抗素子86が接続されている。また、SPAD30aのカソードには、インバータ87が接続されている。SPAD30aのカソード電圧は、光子到来に反応した電圧レベルになる。SPAD30aのカソード電圧を反転した電圧信号がインバータ87から出力されてTDC21に入力される。
 図22B、図22C、及び図22Dは参照画素18としてSiPM30b(Silicon Photomultiplier)を用いる例を示す図である。SiPM30bは、複数のSPAD30aで構成される。SiPM30bを用いてdToF(direct Time of Flight)方式の測距を行う場合は、図22Bに示すように、SiPM30bの後段に、トランスインピーダンスアンプ(以下、TIA)90と、閾値比較回路91と、TDC21とが設けられる。SiPM30bを用いてiToF(indirect Time of Flight)を行う場合は、図22Cに示すように、SiPM30bの後段に、TIA90と、ADC92とが設けられる。SiPM30bを用いてフォトンカウントを行う場合は、図22Dに示すように、SiPM30bの後段に、TIA90と、VCO(Voltage Controlled Oscillator)93と、カウンタ94とが設けられる。
 このように、参照画素18を構成する受光素子30は、光検出装置1がdToF、iToF、又はフォトンカウントを行うかによって、構成が変わる。
 (光スイッチ)
 上述した実施形態では、各光導波路19に光パルス信号を入射可能な複数の発光素子5のうち、一つだけを発光させ、光パルス信号を発光する発光素子5を順に切り替える例を説明した。この場合、複数の発光素子5の発光を順に切り替える制御が必要となる。これに対して、複数の発光素子5と光導波路19の間に光スイッチ27を配置して、光スイッチ27のオン/オフを順に切り替えるようにすれば、複数の発光素子5が同じタイミングで光パルス信号を発光しても、各発光素子5からの光パルス信号を順に光導波路19を介して伝搬することができる。
 光スイッチ27の具体的な形態は問わない。例えば、光スイッチ27は、光ゲートスイッチでもよいし、マッハツェンダー干渉器でもよいし、方向性結合器でもよいし、他の方式のものでもよい。
 図23Aは各発光素子5と対応する光導波路19の間に配置される光スイッチ27を模式的に示す平面図である。各発光素子5が光パルス信号を発光しても、光スイッチ27がオフの場合は、光パルス信号を光導波路19で伝搬させることはできない。すなわち、光スイッチ27により、いずれか一つの発光素子5が発光した光パルス信号を伝搬させることができる。
 図23Bは光スイッチの周辺の構造を拡大した平面図である。光導波路19の近傍に配置される各発光素子5は、光導波路19の本線から延びる各支線19bに接続されている。各支線19bには、光スイッチ27と、グレーティングカプラ57と、ブラッグミラー59とが設けられている。
 図24Aは光スイッチの第1例である光ゲートスイッチ95の斜視図である。光ゲートスイッチ95は、光パルス信号を入射する第1入射部95aと、光パルス信号を出射する出射部95bと、制御光を入射する第2入射部95cとを有する。第2入射部95cに制御光を入射することにより、第1入射部95aに入射された光パルス信号を出射部95bから出射させるか否かを切り替えることができる。
 図24Bは光スイッチの第2例であるマッハツェンダ干渉型光スイッチ96の斜視図である。図24Bの光スイッチ96は、入射部に入射された光パルス信号を2系統に分岐させ、各系統の分岐光導波路19内で光パルス信号の位相を変化させることができるようにする。これら2つの分岐光導波路19を透過した2つの光パルス信号は合流された後に出射部から出射される。位相の変化のさせ方を切り替えることで、入射部に入射された光パルス信号を出射部から出射させるか否かを切り替えることができる。
 図24Cは光スイッチの第3例である方向結合型光スイッチ97の斜視図である。図24Cの光スイッチ92は、第1入射部(IN1)97a及び第2入射部(IN2)97bと、第1出射部(OUT1)97c及び第2出射部(OUT2)97dとを有する。第1入射部(IN1)97a及び第2入射部(IN2)97bに繋がる2つの光導波路19は、いったん合流した後に2つに分離される。2つの光導波路19の合流部にて、相変化材料の相変化により、第1入射部(IN1)97aに入射された第1光パルス信号と、第2入射部(IN2)97bに入射された第2光パルス信号とが、第1出射部(OUT1)97cと第2出射部(OUT2)97dのどちらから出射されるかを切り替えることができる。
 このように、本実施形態では、複数の発光素子5が発光した光信号を、複数の光伝搬部材(例えば、光導波路19)を介して複数の参照画素18で受光するため、複数の発光素子5の発光タイミングの時間差を正確に検出できる。よって、検出された時間差に基づいて、複数の発光素子5の発光タイミングの時間差を考慮に入れて距離計測を行うことができ、測距精度を向上できる。
 また、複数の光導波路19と複数の参照画素18を用いることで、複数の発光素子5が発光した光パルス信号の発光波形を検出できる。よって、検出された光パルス信号の発光波形に基づいて、複数の発光素子5の発光波形を補正することができる。
 上述した光導波路19は、複数の発光素子5を支持する基板上に配置したり、複数の発光素子5に電圧を供給するLDD基板39に配置できるため、基板を加工する半導体プロセスにて光導波路19を形成できる。
 光導波路19に、グレーティングカップラ等の光結合手段を設けることで、複数の発光素子5から光導波路19に効率よく光パルス信号を入射できる。また、発光部3が配置される基板と、受光部25が配置される基板との間隔が離れている場合には、光ファイバ79等の光伝搬部材を用いて発光部3から参照画素18に光パルス信号を伝搬できる。
 さらに、同一の基板上に発光部3と受光部25を配置する場合には、この基板上に光導波路19を配置することで、発光素子5から参照画素18に容易に光パルス信号を伝送できる。
 <<応用例>>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図25は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図25に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図25では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図26は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図26には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図25に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図25の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図25に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、図1等を用いて説明した本実施形態に係る光検出装置1の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、図1等を用いて説明した本実施形態に係る光検出装置1は、図25に示した応用例の統合制御ユニット7600に適用することができる。
 また、図1等を用いて説明した光検出装置1の少なくとも一部の構成要素は、図25に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図1を用いて説明した光検出装置1が、図25に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 なお、本技術は以下のような構成を取ることができる。
 (1)第1光パルス信号を発光する複数の発光素子と、
 前記複数の発光素子のそれぞれで発光された前記第1光パルス信号を伝搬する複数の光伝搬部材と、
 前記複数の光伝搬部材にて伝搬された前記第1光パルス信号を受光する複数の第1受光素子と、
 前記複数の発光素子のそれぞれで発光された前記第1光パルス信号が物体で反射された反射光パルス信号を受光する複数の第2受光素子と、
 前記複数の発光素子で発光された前記第1光パルス信号を前記複数の光伝搬部材に導光する複数の導光部材と、を備える、光検出装置。
 (2)前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体を有し、
 前記複数の光伝搬部材のそれぞれには、対応する前記光取り出し部から出射された前記第1光パルス信号の一部が入射される、(1)に記載の光検出装置。
 (3)複数の前記積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
 前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、を備え、
 前記複数の光伝搬部材は、前記第1基板に沿って配置される、(2)に記載の光検出装置。
 (4)複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
 前記第1基板上に配置され前記複数の積層体に電圧を供給する複数の電極と、を備え、
 前記複数の光伝搬部材は、前記第1基板に沿って配置される、(2)に記載の光検出装置。
 (5)前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体を有し、
 前記複数の光伝搬部材のそれぞれは、対応する前記活性層から出射された前記第1光パルス信号の一部を伝搬する、(1)に記載の光検出装置。
 (6)前記複数の積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
 前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、を備え、
 前記複数の光伝搬部材は、複数の前記活性層に沿って配置される、(5)に記載の光検出装置。
 (7)複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
 前記第1基板上に配置される複数の電極と、を備え、
 前記複数の光伝搬部材は、複数の前記活性層に沿って配置される、(5)に記載の光検出装置。
 (8)前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体と、前記活性層を間に挟んで前記光取り出し部の反対側に配置される光反射部材とを有し、
 前記複数の光伝搬部材のそれぞれは、対応する前記光反射部材の一部に設けられた開口部から出射された前記第1光パルス信号を伝搬する、(1)に記載の光検出装置。
 (9)前記複数の積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
 前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、
 前記複数の電極に供給される電圧を生成する第2基板と、を備え、
 前記複数の光伝搬部材は、前記第2基板上に配置される、(8)に記載の光検出装置。
 (10)複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
 前記第1基板上に配置される複数の電極と、
 前記複数の電極に供給される電圧を生成する第2基板と、を備え、
 前記複数の光伝搬部材は、前記第2基板上に配置される、(8)に記載の光検出装置。
 (11)前記複数の発光素子が配置される発光基板と、
 前記複数の第1受光素子及び前記複数の第2受光素子が配置される受光基板と、を備え、
 前記複数の光伝搬部材は、前記発光基板及び前記受光基板に跨がるように配置される、(1)乃至(10)のいずれか一項に記載の光検出装置。
 (12)前記複数の発光素子と、前記複数の第1受光素子及び前記複数の第2受光素子とが配置される基板を備え、
 前記複数の光伝搬部材は、前記基板上に配置される、(1)乃至(10)のいずれか一項に記載の光検出装置。
 (13)前記複数の発光素子及び前記複数の第1受光素子が配置される発光基板と、
 前記複数の第2受光素子が配置される受光基板と、を備え、
 前記複数の光伝搬部材は、前記発光基板及び前記受光基板に跨がるように配置される、(1)乃至(10)のいずれか一項に記載の光検出装置。
 (14)前記複数の第1受光素子は、前記複数の第2受光素子よりも前記複数の発光素子に近い側に配置され、
 前記複数の光伝搬部材は、前記複数の発光素子の領域から前記複数の第1受光素子の領域まで配置される、(11)乃至(13)のいずれか一項に記載の光検出装置。
 (15)前記複数の光伝搬部材で伝搬された前記第1光パルス信号が前記複数の第2受光素子に入射されないように遮光する遮光部材を備える、(1)乃至(14)のいずれか一項に記載の光検出装置。
 (16)前記複数の導光部材は、グレーティングカプラを有する、(1)乃至(15)のいずれか一項に記載の光検出装置。
 (17)前記複数の導光部材のそれぞれは、2以上の前記発光素子で発光された前記第1光パルス信号を切り替えて伝搬させる、(1)乃至(16)のいずれか一項に記載の光検出装置。
 (18)前記複数の導光部材のそれぞれに接続される2以上の光スイッチを備え、
 前記2以上の光スイッチのうち一つずつを順繰りにオンさせて、2以上の前記発光素子で発光された前記第1光パルス信号を順に、対応する前記導光部材に入射させる、(17)に記載の光検出装置。
 (19)前記第1受光素子は、SPAD(Single Photon Avalanche photodiode)、SiPM(Silicon Photomultiplier)、iToF(indirect Time of Flight)センサ、又はフォトンカウントセンサを有する、(1)乃至(18)のいずれか一項に記載の光検出装置。
 (20)前記光伝搬部材は、光導波路を有するか、又は光ファイバ及び光コネクタを有する、(1)乃至(17)のいずれか一項に記載の光検出装置。
 本開示の態様は、上述した個々の実施形態に限定されるものではなく、当業者が想到しうる種々の変形も含むものであり、本開示の効果も上述した内容に限定されない。すなわち、特許請求の範囲に規定された内容およびその均等物から導き出される本開示の概念的な思想と趣旨を逸脱しない範囲で種々の追加、変更および部分的削除が可能である。
1 光検出装置、2 測距システム、3 発光部、3a 第1チップ、3b 第2チップ、4 全体制御部、5 発光素子、6 発光源、7 駆動回路、8 クロック生成部、9 発光制御部、10 物体、11 画素アレイ部、11a 参照画素アレイ部、11b 測距画素アレイ部、12 測距処理部、13 制御部、14 クロック生成部、15 発光タイミング制御部、16 駆動回路、17 VCSELアレイ、18 参照画素、19 光導波路、19b 支線、20 測距画素、21 時間デジタル変換器(TDC)、22 ヒストグラム生成部、23 信号処理部、23a 測距部、24 測距制御部、25 受光部、26 Cu-Cu接合、27 光スイッチ、28 出力バッファ、30 受光素子、31 ダミー画素、32 (シリコン)層、33 (シリコン窒化物)層、34 (シリコン)層、35 (シリコン)層、35 基板、36 (シリコン窒化物)層、37 絶縁膜、38 VCSEL基板、39 LDD基板、40 積層膜、41 活性層、42 アノード電極、42a 開口部、43 GaAs層、44 カソード電極、45 樹脂部材、46 パッド、47 パッド、48 ピラー、49 (ニッケル)層、50 半田層、51 (金)層、52 基材層、53 絶縁層、54 金属遮光層、55 光透過層、56 クラッド層、57 グレーティングカプラ、58 グレーティングカプラ、59 ブラッグミラー、60 遮光壁、62 出し部、63 電極層、64 コンタクト、65 電極、66 反射部材、67 遮光樹脂層、68 光屈折部材、69 凹凸構造、70 金属層、70h 孔、71 金属ナノ粒子、72 基板、73 AFE部、74 基板、75 支持基板、76 反射ミラー、78 光学レンズ、79 光ファイバ、80 光コネクタ、81 光コネクタ、82 光コネクタ、83 第1レンズ、83 コリメートレンズ、84 第2レンズ、85 レンズホルダ、86 抵抗素子、87 インバータ、89 反射ミラー、90 トランスインピーダンスアンプ(TIA)、91 閾値比較回路、92 光スイッチ、94 カウンタ、95 光ゲートスイッチ、95a 第1入射部、95b 出射部、95c 第2入射部、96 光スイッチ、96 マッハツェンダ干渉型光スイッチ、97 方向結合型光スイッチ、97a 第1入射部(IN1)、97b 第2入射部(IN2)、97c 第1出射部(OUT1)、97d 第2出射部(OUT2)

Claims (20)

  1.  第1光パルス信号を発光する複数の発光素子と、
     前記複数の発光素子のそれぞれで発光された前記第1光パルス信号を伝搬する複数の光伝搬部材と、
     前記複数の光伝搬部材にて伝搬された前記第1光パルス信号を受光する複数の第1受光素子と、
     前記複数の発光素子のそれぞれで発光された前記第1光パルス信号が物体で反射された反射光パルス信号を受光する複数の第2受光素子と、
     前記複数の発光素子で発光された前記第1光パルス信号を前記複数の光伝搬部材に導光する複数の導光部材と、を備える、光検出装置。
  2.  前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体を有し、
     前記複数の光伝搬部材のそれぞれには、対応する前記光取り出し部から出射された前記第1光パルス信号の一部が入射される、請求項1に記載の光検出装置。
  3.  複数の前記積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
     前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、を備え、
     前記複数の光伝搬部材は、前記第1基板に沿って配置される、請求項2に記載の光検出装置。
  4.  複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
     前記第1基板上に配置され前記複数の積層体に電圧を供給する複数の電極と、を備え、
     前記複数の光伝搬部材は、前記第1基板に沿って配置される、請求項2に記載の光検出装置。
  5.  前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体を有し、
     前記複数の光伝搬部材のそれぞれは、対応する前記活性層から出射された前記第1光パルス信号の一部を伝搬する、請求項1に記載の光検出装置。
  6.  前記複数の積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
     前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、を備え、
     前記複数の光伝搬部材は、複数の前記活性層に沿って配置される、請求項5に記載の光検出装置。
  7.  複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
     前記第1基板上に配置される複数の電極と、を備え、
     前記複数の光伝搬部材は、複数の前記活性層に沿って配置される、請求項5に記載の光検出装置。
  8.  前記複数の発光素子のそれぞれは、活性層及び光取り出し部を含む積層体と、前記活性層を間に挟んで前記光取り出し部の反対側に配置される光反射部材とを有し、
     前記複数の光伝搬部材のそれぞれは、対応する前記光反射部材の一部に設けられた開口部から出射された前記第1光パルス信号を伝搬する、請求項1に記載の光検出装置。
  9.  前記複数の積層体を支持するとともに、前記光取り出し部から出射された前記第1光パルス信号を透過させる第1基板と、
     前記複数の積層体の前記光取り出し部とは反対側の端部に配置される複数の電極と、
     前記複数の電極に供給される電圧を生成する第2基板と、を備え、
     前記複数の光伝搬部材は、前記第2基板上に配置される、請求項8に記載の光検出装置。
  10.  複数の前記積層体の前記光取り出し部とは反対側に配置され、前記複数の積層体を支持する第1基板と、
     前記第1基板上に配置される複数の電極と、
     前記複数の電極に供給される電圧を生成する第2基板と、を備え、
     前記複数の光伝搬部材は、前記第2基板上に配置される、請求項8に記載の光検出装置。
  11.  前記複数の発光素子が配置される発光基板と、
     前記複数の第1受光素子及び前記複数の第2受光素子が配置される受光基板と、を備え、
     前記複数の光伝搬部材は、前記発光基板及び前記受光基板に跨がるように配置される、請求項1に記載の光検出装置。
  12.  前記複数の発光素子と、前記複数の第1受光素子及び前記複数の第2受光素子とが配置される基板を備え、
     前記複数の光伝搬部材は、前記基板上に配置される、請求項1に記載の光検出装置。
  13.  前記複数の発光素子及び前記複数の第1受光素子が配置される発光基板と、
     前記複数の第2受光素子が配置される受光基板と、を備え、
     前記複数の光伝搬部材は、前記発光基板及び前記受光基板に跨がるように配置される、請求項1に記載の光検出装置。
  14.  前記複数の第1受光素子は、前記複数の第2受光素子よりも前記複数の発光素子に近い側に配置され、
     前記複数の光伝搬部材は、前記複数の発光素子の領域から前記複数の第1受光素子の領域まで配置される、請求項11に記載の光検出装置。
  15.  前記複数の光伝搬部材で伝搬された前記第1光パルス信号が前記複数の第2受光素子に入射されないように遮光する遮光部材を備える、請求項1に記載の光検出装置。
  16.  前記複数の導光部材は、グレーティングカプラを有する、請求項1に記載の光検出装置。
  17.  前記複数の導光部材のそれぞれは、2以上の前記発光素子で発光された前記第1光パルス信号を切り替えて伝搬させる、請求項1に記載の光検出装置。
  18.  前記複数の導光部材のそれぞれに接続される2以上の光スイッチを備え、
     前記2以上の光スイッチのうち一つずつを順繰りにオンさせて、2以上の前記発光素子で発光された前記第1光パルス信号を順に、対応する前記導光部材に入射させる、請求項17に記載の光検出装置。
  19.  前記第1受光素子は、SPAD(Single Photon Avalanche photodiode)、SiPM(Silicon Photomultiplier)、iToF(indirect Time of Flight)センサ、又はフォトンカウントセンサを有する、請求項1に記載の光検出装置。
  20.  前記光伝搬部材は、光導波路を有するか、又は光ファイバ及び光コネクタを有する、請求項1に記載の光検出装置。
PCT/JP2023/012076 2022-04-01 2023-03-27 光検出装置 WO2023190277A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-062138 2022-04-01
JP2022062138 2022-04-01

Publications (1)

Publication Number Publication Date
WO2023190277A1 true WO2023190277A1 (ja) 2023-10-05

Family

ID=88201580

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/012076 WO2023190277A1 (ja) 2022-04-01 2023-03-27 光検出装置

Country Status (1)

Country Link
WO (1) WO2023190277A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60110184A (ja) * 1983-11-18 1985-06-15 Matsushita Electric Ind Co Ltd 光集積回路
JP2002252418A (ja) * 2001-02-26 2002-09-06 Ricoh Co Ltd 光通信システム
JP2004177816A (ja) * 2002-11-28 2004-06-24 Sony Corp 光配線
JP2006147807A (ja) * 2004-11-18 2006-06-08 Sony Corp 光素子、その実装方法、並びに光電複合装置および電子機器
JP2015161599A (ja) * 2014-02-27 2015-09-07 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
JP2017125829A (ja) * 2016-01-13 2017-07-20 株式会社リコー 距離測定装置、移動体装置及び距離測定方法
WO2018096850A1 (ja) * 2016-11-24 2018-05-31 ソニー株式会社 面発光レーザおよび電子機器
WO2020158401A1 (ja) * 2019-01-30 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距システム
US20220082663A1 (en) * 2020-09-11 2022-03-17 Egis Technology Inc. Tof optical sensing module for reducing in-chamber stray light interference

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60110184A (ja) * 1983-11-18 1985-06-15 Matsushita Electric Ind Co Ltd 光集積回路
JP2002252418A (ja) * 2001-02-26 2002-09-06 Ricoh Co Ltd 光通信システム
JP2004177816A (ja) * 2002-11-28 2004-06-24 Sony Corp 光配線
JP2006147807A (ja) * 2004-11-18 2006-06-08 Sony Corp 光素子、その実装方法、並びに光電複合装置および電子機器
JP2015161599A (ja) * 2014-02-27 2015-09-07 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
JP2017125829A (ja) * 2016-01-13 2017-07-20 株式会社リコー 距離測定装置、移動体装置及び距離測定方法
WO2018096850A1 (ja) * 2016-11-24 2018-05-31 ソニー株式会社 面発光レーザおよび電子機器
WO2020158401A1 (ja) * 2019-01-30 2020-08-06 ソニーセミコンダクタソリューションズ株式会社 受光装置および測距システム
US20220082663A1 (en) * 2020-09-11 2022-03-17 Egis Technology Inc. Tof optical sensing module for reducing in-chamber stray light interference

Similar Documents

Publication Publication Date Title
WO2020170841A1 (ja) アバランシェフォトダイオードセンサ及び測距装置
JP7160045B2 (ja) 半導体レーザ駆動回路、距離測定装置及び電子機器
JP7420750B2 (ja) 受光素子、固体撮像装置及び測距装置
JP2021128084A (ja) 測距装置および測距方法
EP3904826A1 (en) Distance measuring device and distance measuring method
WO2020184233A1 (ja) 光源モジュール、測距装置及び制御方法
WO2023190277A1 (ja) 光検出装置
CN111630452A (zh) 成像装置和电子设备
US20230194717A1 (en) Utilizing light detection and ranging sensors for vehicle-to-everything communications
WO2021161858A1 (ja) 測距装置および測距方法
WO2023190278A1 (ja) 光検出装置
WO2024009836A1 (ja) 測距装置
WO2023219045A1 (ja) 受光装置、制御方法、及び測距システム
WO2024070803A1 (ja) 測距装置及びその製造方法
JP7426347B2 (ja) 受光素子、固体撮像装置及び測距装置
WO2023162734A1 (ja) 測距装置
WO2023195395A1 (en) Light detection device and electronic apparatus
WO2023229018A1 (ja) 光検出装置
WO2024057471A1 (ja) 光電変換素子、固体撮像素子、測距システム
WO2023190279A1 (ja) 測距装置
WO2021161857A1 (ja) 測距装置および測距方法
WO2023145344A1 (ja) 受光素子、および電子機器
WO2023171176A1 (ja) 受光素子、および電子機器
WO2023017631A1 (ja) 半導体レーザー、測距装置および車載装置
WO2023189917A1 (ja) 測距装置及び測距方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23780287

Country of ref document: EP

Kind code of ref document: A1