WO2021019939A1 - 受光装置及び受光装置の制御方法、並びに、測距装置 - Google Patents

受光装置及び受光装置の制御方法、並びに、測距装置 Download PDF

Info

Publication number
WO2021019939A1
WO2021019939A1 PCT/JP2020/023703 JP2020023703W WO2021019939A1 WO 2021019939 A1 WO2021019939 A1 WO 2021019939A1 JP 2020023703 W JP2020023703 W JP 2020023703W WO 2021019939 A1 WO2021019939 A1 WO 2021019939A1
Authority
WO
WIPO (PCT)
Prior art keywords
pixel
light receiving
unit
row
selection unit
Prior art date
Application number
PCT/JP2020/023703
Other languages
English (en)
French (fr)
Inventor
裕子 園田
久美子 馬原
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to JP2021536651A priority Critical patent/JP7511562B2/ja
Priority to US17/623,393 priority patent/US20220353440A1/en
Priority to EP20847342.1A priority patent/EP4006578A4/en
Publication of WO2021019939A1 publication Critical patent/WO2021019939A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • H01L27/14609Pixel-elements with integrated switching, control, storage or amplification elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4814Constructional features, e.g. arrangements of optical elements of transmitters alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/71Charge-coupled device [CCD] sensors; Charge-transfer registers specially adapted for CCD sensors
    • H04N25/75Circuitry for providing, modifying or processing image signals from the pixel array
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/76Addressed sensors, e.g. MOS or CMOS sensors
    • H04N25/78Readout circuits for addressed sensors, e.g. output amplifiers or A/D converters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles

Definitions

  • the present disclosure relates to a light receiving device and a control method of the light receiving device, and a distance measuring device (distance measuring device).
  • a light receiving element there is a light receiving device using an element that generates a signal in response to light reception of a photon (see, for example, Patent Document 1).
  • ToF ToF
  • the Time of Flight method is adopted.
  • the direct ToF method which calculates the direct distance from the flight time difference of light among the ToFs, a process of reading out the signal of each pixel of the light receiving portion in which the pixels including the light receiving element are two-dimensionally arranged in a matrix is performed. At this time, if each pixel of the light receiving unit is selected in units of one pixel row or a plurality of pixel rows and the signals of all the pixels in the selected region are read out at once, the power consumption becomes large. It ends up.
  • an object of the present disclosure is to provide a light receiving device and a control method of the light receiving device capable of suppressing power consumption when reading a signal of each pixel of the light receiving unit, and a distance measuring device using the light receiving device. And.
  • the light receiving device of the present disclosure for achieving the above object is A light receiving unit in which pixels including light receiving elements are arranged two-dimensionally in a matrix.
  • a row selection unit that selects each pixel of the light receiving unit in units of one pixel row or a plurality of pixel rows.
  • a column selection unit that selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in pixel units, and a column selection unit. Equipped with a control unit that controls the column selection unit The control unit selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit with respect to the column selection unit in units of regions having a plurality of pixels as a unit, and for each region. Controls to read out the pixel signal.
  • a light receiving unit in which pixels including light receiving elements are arranged two-dimensionally in a matrix.
  • a row selection unit that selects each pixel of the light receiving unit in units of one pixel row or a plurality of pixel rows, and a row selection unit.
  • a column selection unit that selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in pixel units.
  • each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit is selected in units of regions having a plurality of pixels as a unit, and a pixel signal is selected for each region. Is controlled to read.
  • the ranging device of the present disclosure for achieving the above object is A light source that irradiates the object to be measured with light, and It is provided with a light receiving device that detects the light reflected by the object to be measured.
  • the light receiving device is A light receiving unit in which pixels including light receiving elements are arranged two-dimensionally in a matrix.
  • a row selection unit that selects each pixel of the light receiving unit in units of one pixel row or a plurality of pixel rows.
  • a column selection unit that selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in pixel units, and a column selection unit.
  • control unit that controls the column selection unit
  • the control unit selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit with respect to the column selection unit in units of regions having a plurality of pixels as a unit, and for each region. Controls to read out the pixel signal.
  • FIG. 1 is a schematic configuration diagram showing an example of a distance measuring device according to an embodiment of the present disclosure.
  • 2A and 2B are block diagrams showing an example of a specific configuration of the distance measuring device according to the embodiment of the present disclosure.
  • FIG. 3 is a circuit diagram showing an example of a basic pixel circuit using a SPAD element.
  • FIG. 4A is a characteristic diagram showing the current-voltage characteristics of the PN junction of the SPAD element, and
  • FIG. 4B is a waveform diagram provided for explaining the circuit operation of the pixel circuit.
  • FIG. 5 is a schematic configuration diagram showing an example of a light receiving device according to the embodiment of the present disclosure.
  • FIG. 6 is a flowchart illustrating a control method of the light receiving device according to the embodiment of the present disclosure.
  • FIG. 7 is a circuit diagram showing an example of the configuration of the pixel circuit according to the first embodiment.
  • FIG. 8 is a schematic configuration diagram showing an example of the configuration of the readout circuit unit according to the second embodiment.
  • FIG. 10A is a diagram showing an example of setting the number of divisions of the region ROI by the control signal LD_NUM and designating the region ROI by the selection signal SEL, and FIG. 10B is an example of designating the region ROI only by the selection signal SEL.
  • FIG. 11 is a diagram showing an operation example in the case of four divisions of time division readout according to the fourth embodiment.
  • FIG. 12 is a diagram illustrating a problem when adjacent areas are set in order as a reading area.
  • FIG. 13 is a diagram showing an operation example of time division readout in the case of 5 divisions.
  • 14A and 14B are waveform diagrams illustrating a specific example of peak selection of the histogram according to the fifth embodiment.
  • FIG. 15 is a block diagram showing a schematic configuration example of a vehicle control system, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • FIG. 16 is a diagram showing an example of an installation position of the distance measuring device.
  • Example 1 (Pixel circuit configuration example) 3-2.
  • Example 2 (Example of configuration of reading circuit unit) 3-3.
  • Example 3 (Control example by the control unit) 3-4.
  • Example 4 (Example of reading out the area ROI signal in time division) 3-5.
  • Example 5 (Example of selecting the peak of the histogram) 4.
  • Modification example 5 Application example of the technology according to the present disclosure (example of mobile body) 6. Configuration that can be taken by this disclosure
  • the light receiving device and the distance measuring device of the present disclosure may be configured to include a reading circuit unit that processes a signal read from each pixel of the light receiving unit. Then, the reading circuit unit can be configured to process the signal read from each pixel of the light receiving unit for each region selected by the column selection unit. Further, the control unit may be configured to control the read circuit unit to deactivate the circuit portion other than the circuit portion corresponding to the region selected by the column selection unit.
  • the switch element for column selection in which the pixels are selected in pixel units in response to the scanning signal given from the column selection unit is provided. It can be configured to have. Further, the switch element for column selection can be configured to put the pixels in the non-selection state by turning off the power supply of the pixels.
  • control unit may have a plurality of pixels in one pixel row or a plurality of pixel rows selected by the row selection unit.
  • the number of areas to be used as a unit can be set.
  • control unit can be configured so that the region for reading the pixel signal can be arbitrarily specified among the plurality of set regions.
  • the control unit regarding the control unit, the signal of each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit.
  • the row selection unit When reading each area in a time-division manner, it is possible to set a region separated from the previous read region as the current read region.
  • the light receiving element has a configuration including an element that generates a signal in response to the light reception of a photon, preferably a single photon avalanche diode. can do.
  • FIG. 1 is a schematic configuration diagram showing an example of a distance measuring device according to an embodiment of the present disclosure.
  • the distance measuring device 1 according to the present embodiment is a measuring method for measuring the distance to the subject 10 which is the object to be measured, and is a laser irradiating the subject 10 (for example, a laser having a peak wavelength in the infrared wavelength region).
  • the ToF method is used to measure the flight time until the light) is reflected by the subject 10 and returned.
  • the distance measuring device 1 according to the present embodiment includes a light source 20 and a light receiving device 30. Then, as the light receiving device 30, the light receiving device according to the embodiment of the present disclosure described later can be used.
  • the light source 20 has, for example, a laser driver 21, a laser light source 22, and a diffusion lens 23, and irradiates the subject 10 with laser light.
  • the laser driver 21 drives the laser light source 22 under the control of the control unit 40.
  • the laser light source 22 is composed of, for example, a semiconductor laser, and emits laser light by being driven by a laser driver 21.
  • the diffusing lens 23 diffuses the laser light emitted from the laser light source 22 and irradiates the subject 10.
  • the light receiving device 30 includes a light receiving lens 31, a light sensor 32 which is a light receiving unit, and a logic circuit 33, and receives the reflected laser light which is reflected by the subject 10 and returned by the laser irradiation unit 20. ..
  • the light receiving lens 31 collects the reflected laser light from the subject 10 on the light receiving surface of the light sensor 32.
  • the optical sensor 32 receives the reflected laser light from the subject 10 that has passed through the light receiving lens 31 in pixel units and performs photoelectric conversion.
  • a two-dimensional array sensor (so-called area sensor) in which pixels including a light receiving element are two-dimensionally arranged in a matrix (array) can be used.
  • the output signal of the optical sensor 32 is supplied to the control unit 40 via the logic circuit 33.
  • the control unit 40 is composed of, for example, a CPU (Central Processing Unit) or the like, controls the light source 20 and the light receiving device 30, and the laser beam emitted from the light source 20 toward the subject 10 is the subject 10. The time t until it is reflected and returned is measured. Based on this time t, the distance L to the subject 10 can be obtained.
  • a CPU Central Processing Unit
  • the timer is started at the timing when the pulse light is irradiated from the light source 20, the timer is stopped at the timing when the light receiving device 30 receives the pulse light, and the time t is measured.
  • pulsed light is irradiated from the light source 20 at a predetermined cycle, the cycle when the light receiving device 30 receives the pulsed light is detected, and the phase difference between the light emitting cycle and the light receiving cycle is used.
  • the time t may be measured.
  • the time measurement is executed a plurality of times, and the time t is measured by detecting the peak of the histogram obtained by accumulating the times measured a plurality of times.
  • the light receiving element of the pixel is a sensor composed of an element that generates a signal in response to the light reception of a photon, for example, a SPAD (Single Photon Avalanche Diode) element. I am using it. That is, the light receiving device 30 according to the present embodiment has a configuration in which the light receiving element of the pixel is composed of a SPAD element.
  • the light receiving element is not limited to the SPAD element, and may be various elements such as an APD (Avalanche Photo Diode) and a CAPD (Current Assisted Photonic Demodulator).
  • FIG. 3 shows an example of a basic pixel circuit in the light receiving device 30 using the SPAD element. Here, the basic configuration for one pixel is illustrated.
  • the basic pixel circuit of the pixel 50 with SPAD devices the cathode electrode of the SPAD device 51, the load at which through the P-type MOS transistor Q L, is connected to a terminal 52 of the power supply voltage V DD is applied, the anode The electrode is connected to the terminal 53 to which the anode voltage V bd is applied.
  • V bd a large negative voltage that causes avalanche multiplication is applied.
  • a capacitive element C is connected between the anode electrode and the ground.
  • the cathode voltage V CA of the MOSFET element 51 is derived as a MOSFET output (pixel output) via the CMOS inverter 54 in which the P-type MOS transistor Q p and the N-type MOS transistor Q n are connected in series.
  • a voltage equal to or higher than the breakdown voltage V BD is applied to the SPAD element 51.
  • the excess voltage above the breakdown voltage V BD is called the excess bias voltage V EX, and is generally a voltage of about 2-5 V.
  • the SPAD element 51 operates in a region called Geiger mode where there is no DC-like stable point.
  • the I (current) -V (voltage) characteristics of the PN junction of the SPAD element 51 are shown in FIG. 4A.
  • circuit operation example of a pixel circuit using a SPAD element [Circuit operation example of a pixel circuit using a SPAD element] Subsequently, an example of the circuit operation of the pixel circuit having the above configuration will be described with reference to the waveform diagram of FIG. 4B.
  • the detection efficiency PDE Photon Detection Efficiency
  • the cathode voltage V CA is waveform-shaped by the CMOS inverter 54, and the pulse signal having the pulse width T starting from the arrival time of one photon becomes the SPAD output (pixel output).
  • the light receiving device has a light receiving unit in which the pixels 50 having the above configuration are two-dimensionally arranged in a matrix. It can be said that the light receiving portion in which the pixels 50 are arranged two-dimensionally corresponds to the optical sensor 32 of FIG. 2A.
  • FIG. 5 is a schematic configuration diagram showing an example of a light receiving device according to the embodiment of the present disclosure.
  • a light receiving element an element that generates a signal in response to light reception of a photon, for example, a pixel 50 including a SPAD element 51 is two-dimensionally arranged in a matrix. It has a light receiving unit 60.
  • the light receiving device 30 according to the present embodiment has a system configuration including a row selection unit 70, a column selection unit 80, a reading circuit unit 90, a control unit 40, and the like in addition to the light receiving unit 60.
  • the row selection unit 70 selects each pixel 50 of the light receiving unit 60 in units of one pixel row or a plurality of pixel rows based on a V control signal given from the outside of the light receiving device 30.
  • a case where the V control signals 000 [2: 0] to 062 [2: 0] are used as the V control signals is illustrated.
  • the column selection unit 80 selects each pixel 50 of the light receiving unit 60 in pixel units based on an H control signal given from the outside of the light receiving device 30.
  • the H control signals EN_SPAD_H0 [2: 0] to EN_SPAD_H198 [2: 0] are used as the H control signals is illustrated.
  • the reading circuit unit 90 reads out the signal of the pixel 50 selected in pixel units by the column selection unit 80 for one pixel row or a plurality of pixel rows selected by the row selection unit 70, and determines the signal. After the above processing, the output is output to the outside of the light receiving device 30.
  • the control unit 40 controls pixel selection by the column selection unit 80 based on the synchronization signal S_SYNC, the control signal LD_NUM, the timing signal TRG_I, PRE_TRG, and the selection signal SEL given from the outside of the light receiving device 30, and the reading circuit.
  • the unit 90 controls the reading of the signal (pixel signal) of each pixel 50.
  • each pixel 50 of the light receiving unit 60 is selected in units of one pixel row or a plurality of pixel rows, and signals of all pixels in the selected region are selected. If it is read out at once, all the pixels in the selected pixel row are driven at the same time, and the peak current becomes large. In addition, not only all the pixels in the selected pixel row are driven at the same time, but also the read circuit unit that processes the read pixel signal, all the circuit parts corresponding to all the pixels perform the processing operation. Become. As a result, power consumption increases.
  • the signal 50 of each pixel of the pixel row (one pixel row or a plurality of pixel rows) selected by the row selection unit 70 is set as a unit of a plurality of pixels. Read in time division for each area. Specifically, under the control of the control unit 40, the column selection unit 80 selects a plurality of pixels as a unit for each pixel 50 of the pixel row selected by the row selection unit 70. Then, under the control of the control unit 40, the reading circuit unit 90 reads out the signal of the pixel 50 in a time division for each region having a plurality of pixels selected by the column selection unit 80 as a unit.
  • control line in the row direction is divided into each pixel 50, and the column selection unit 80 allows the control line to be freely turned ON / OFF in pixel units. Then, ON / OFF in pixel units by the column selection unit 80 is switched by control based on an H control signal given from the outside, and a plurality of pixels are selected as units. Then, the signal of each pixel 50 in the region having a plurality of pixels as a unit is read out in time division.
  • control unit 40 By controlling the row selection unit 70, the control unit 40 selects each pixel 50 of the light receiving unit 60 in units of one pixel row or a plurality of pixel rows (step S11), and then the column selection unit. By controlling 80, each pixel 50 in the selected pixel row is selected in units of a region having a plurality of pixels as a unit (step S12). Then, the control unit 40 reads out the signal of the pixel 50 in time division for each selected area by controlling the reading circuit unit 90 (step S13).
  • a plurality of pixels are used for the signal of each pixel 50 of the pixel row (one pixel row or a plurality of pixel rows) selected by the row selection unit 70.
  • the pixel signal is read out in a time division for each region as a unit. In this way, by reading the pixel signal in time division for each area selected by the column selection unit 80, the signal of all the pixels in one pixel row or a plurality of pixel rows is read at once as compared with the case where the signal is read out at once. Therefore, the power consumption can be reduced.
  • the first embodiment is a circuit example (pixel circuit example) of the pixel 50 used in the light receiving device 30 according to the embodiment of the present disclosure.
  • FIG. 7 shows an example of the configuration of the pixel circuit according to the first embodiment.
  • the pixel 50 includes a first circuit unit 50A and a second circuit unit 50B.
  • the first circuit unit 50A P-type MOS transistor Q L (load) in the basic pixel circuit shown in FIG. 3, and, in addition to the CMOS inverter 54, the switch element SW and the two N-type MOS transistor Q V , Q H.
  • the CMOS inverter 54 is a CMOS inverter in which the P-type MOS transistor Q p and the N-type MOS transistor Q n of FIG. 3 are connected in series.
  • the switch element SW is a quench switch, and the avalanche phenomenon is stopped by lowering the voltage applied to the SPAD element 51 to the breakdown voltage by the quenching operation based on the control signal EN_PR.
  • N-type MOS transistor Q V, Q H respectively, the terminal T and a reference potential node cathode electrode connected in SPAD device 51 (e.g., ground GND) is connected between the.
  • One N-type MOS transistor Q V is a switch element for row selection for selecting a pixel 50 in units of pixel row.
  • the other N-type MOS transistor Q H is a switch element for column selection for selecting the pixels 50 in units of pixel row.
  • N-type MOS transistor Q V for the row selection is rendered non-conductive in response to the scan signal XEN_SPAD_V supplied from the row selecting section 70 in FIG. 5, by the terminal T to open, the pixels 50 of the pixel row Select by unit.
  • the N-type MOS transistor Q H for column selection is in a non-conducting state in response to the scanning signal XEN_SPAND_H given from the column selection unit 80 in FIG. 5, and by opening the terminal T, the pixel 50 is arranged in the pixel sequence. Select by unit.
  • N-type MOS transistor Q H for column selection By N-type MOS transistor Q H for column selection are provided, one pixel row selected by the row selecting section 70, or, for each pixel 50 of a plurality of pixel rows, can be selected in units of pixels It becomes. Further, the N-type MOS transistor Q H for column selection is in a conductive state, and by setting the potential of the terminal T to the ground potential, the power supply of the pixel 50 is cut off and the pixel 50 is in a non-selected state. By the action of the N-type MOS transistor Q H, the non-selected pixels, by the cut-off state the power to the pixel 50, it is possible to reduce power consumption.
  • the second circuit unit 50B of the pixel 50 has a circuit configuration including a level shift circuit 55, a 3-input NAND circuit 56, a 2-input OR circuit 57, an inverter circuit 58, and an inverter circuit 59. ing.
  • the voltage V CA of the terminal T is level-shifted by the level shift circuit 55 to become the inverting input (first input) of the 3-input NAND circuit 56.
  • the three-input NAND circuit 56 uses the control signal EN_C and the control signal EN_F as the second input and the third input.
  • the control signal EN_C is a signal for controlling in the column direction (vertical direction).
  • the control signal EN_F is a signal for controlling in the row direction (horizontal direction).
  • the NAND circuit 56 opens the gate when both the control signal EN_C and the control signal EN_F are logic "1".
  • the output of the NAND circuit 56 is the inverting input (first input) of the 2-input OR circuit 57.
  • the two-input OR circuit 57 uses the control signal I_OR given from the outside of the pixel 50, for example, the control unit 40 of FIG. 5, as the second input.
  • the control signal I_OR is a signal for controlling whether or not the signal of the pixel 50 can be read.
  • the output of the OR circuit 57 is output as a pixel signal O_SPAD via the inverter circuit 58 and the inverter circuit 59.
  • the pixel circuit according to the first embodiment in response to the scan signal XEN_SPAD_H given from the column selecting section 80, the switch elements for row selection to the selected state in units of pixels, i.e., N-type MOS transistor Q H It is configured to have.
  • N-type MOS transistor Q H the switch elements for row selection to the selected state in units of pixels, i.e., N-type MOS transistor Q H It is configured to have.
  • each pixel 50 of one pixel row or a plurality of pixel rows selected by the row selection unit 70 is selected in units of regions having a plurality of pixels as a unit, and the pixel signals are read out for each region. Will be possible.
  • N-type MOS transistor Q H for the pixels of non-selected, by the cut-off state to the power of the pixel 50, it is possible to achieve power saving.
  • the second embodiment is a configuration example of the reading circuit unit 90 used in the light receiving device 30 according to the embodiment of the present disclosure.
  • FIG. 8 shows an example of the configuration of the reading circuit unit 90 according to the second embodiment.
  • the pixel arrangement of the light receiving unit 60 is shown as horizontal 48 ⁇ vertical 24.
  • each control line for transmitting the horizontal scanning signal XEN_SPAD_H, the vertical scanning signal XEN_SPAD_V, and the control signal EN_C is wired for each pixel, and the control signal EN_F is transmitted.
  • Each control line is wired every three horizontal pixels.
  • the area having 48 pixels as a unit is the area ROI0, ROI1, ROI2, and ROI3, the area ROI1 is selected.
  • each pixel 50 in the region ROI0, ROI2, ROI3 other than the region ROI1 to be selected switching elements for column selection, i.e. by switching the action of N-type MOS transistor Q H, The power supply of the pixel 50 is cut off, and the non-selected state is set.
  • the column selection unit 80 selects the pixel 50 in the unit of the region ROI having 48 pixels (horizontal 12 ⁇ vertical 4) as a unit, and reads out the signal of the pixel 50 for each region ROI.
  • the reading circuit unit 90 processes the signal of the pixel 50 for each region ROI (ROI0 / ROI1 / ROI2 / ROI3) selected by the column selection unit 80.
  • the circuit portion of the read circuit unit 90 is divided into four, a circuit portion 90A, a circuit portion 90B, a circuit portion 90C, and a circuit portion 90D, corresponding to the region ROI selected by the column selection unit 80. It is divided.
  • the control unit 40 activates only the circuit portion (in this example, the circuit portion 90B) corresponding to the region ROI selected by the column selection unit 80 with respect to the read circuit unit 90, and the circuit portion 90B.
  • the circuit portion 90A, the circuit portion 90C, and the circuit portion 90D other than the above are controlled to be in the deactivated state.
  • activation / deactivation can be switched for each circuit portion.
  • the circuit portion is divided according to the region ROI selected by the column selection unit 80, and the column selection unit is under the control of the control unit 40.
  • the circuit parts other than the circuit part corresponding to the region ROI selected by 80 are deactivated by the clock OFF and the power OFF.
  • the power saving in the reading circuit unit 90 can also be achieved.
  • the third embodiment is a control example by the control unit 40.
  • the control unit 40 controls the pixel selection by the column selection unit 80 based on the synchronization signal S_SYNC, the control signal LD_NUM, the timing signal TRG_I, PRE_TRG, and the selection signal SEL, and the reading circuit unit 90. Read control of the signal (pixel signal) of each pixel 50 is performed.
  • the control signal LD_NUM is a signal for determining the number of divisions of the region ROI selected by the column selection unit 80
  • the selection signal SEL is a signal for designating which region ROI is selected to read the pixel signal. Is.
  • the number of divisions of the area ROI selected by the column selection unit 80 is the number of divisions of the area ROI in one pixel row or a plurality of pixel rows selected by the column selection unit 80 in units of a plurality of pixels. It is a number.
  • the control unit 40 sets the number of divisions of the region ROI selected by the column selection unit 80 based on the control signal LD_NUM, as shown in FIG. 9A.
  • the number of divisions 1 (that is, no division)
  • the area ROI0 and the area ROI1 are read areas.
  • the area ROI0 and the area ROI1 are alternately put into an operating state, and the signal of each pixel 50 is read out.
  • the disturbance light component is acquired in the entire processing range (in this example, the region ROI0 and the region ROI1) in synchronization with the timing signal PRE_TRG regardless of the division mode of the region ROI. Will be.
  • the reading circuit unit 90 performs a process of taking a difference from the pixel signals acquired in the area ROI0 and the area ROI1. As a result, the influence of ambient light can be eliminated.
  • ⁇ LD_NUM 0 (no division) In this division mode, the entire pixel signal is read out regardless of the value of the selection signal SEL.
  • ⁇ LD_NUM 2 (4 divisions: ROI0 / ROI1 / ROI2 / ROI3)
  • SEL [1: 0] 0 reads the area ROI0
  • SEL [1: 0] 1 reads the area ROI1
  • SEL [1: 0] 2 reads the area ROI2
  • SEL [1]. : 0] 3 to read the area ROI3.
  • LD_NUM 3 (8 divisions: ROI0 / ROI1 / ROI2 / ROI3 / ROI4 / ROI5 / ROI6 / ROI7)
  • SEL [2: 0] 0 reads the area ROI0
  • SEL [2: 0] 1 reads the area ROI1
  • SEL [2: 0] 2 reads the area ROI2, and SEL [2].
  • : 0] 3 to read the area ROI3
  • SEL [2: 0] 4 to read the area ROI4
  • SEL [2: 0] 5 to read the area ROI5
  • the number of divisions of the area ROI is set by the control signal LD_NUM and the area ROI is specified by the selection signal SEL, but the area ROI can also be specified only by the selection signal SEL.
  • the area ROI can also be specified only by the selection signal SEL.
  • a single area ROI is specified only by the selection signal SEL, or as shown in the lower part of FIG. 10B, a plurality of area ROIs are specified only by the selection signal SEL. Can be done.
  • control unit 40 can specify the region ROI for reading the signal of the pixel 50 according to the value of the selection signal SEL to be set. That is, the control unit 40 can arbitrarily specify the region for reading the signal of the pixel 50 from the set plurality of regions according to the value of the selection signal SEL.
  • the fourth embodiment is an example in which the signal of the region ROI is read out in a time division manner, and is an example in the case of a division mode of four divisions (ROI0 / ROI1 / ROI2 / ROI3).
  • FIG. 11 shows an operation example of time-division readout according to the fourth embodiment.
  • the area ROI0, the area ROI1, the area ROI2, and the area ROI3 are selected for each area, and the signal of each pixel 50 of the selected area ROI is read out.
  • the control unit 40 reads out the signal of each pixel 50 of one pixel row or a plurality of pixel rows selected by the row selection unit 70 in a time division for each area.
  • the control unit 40 first sets the area ROI1 as a read area, and then skips the area ROI2 to the area ROI3 separated from the area ROI1. Is set as the read area. Next, the control unit 40 skips the area ROI1 and the area ROI2 and sets the area ROI0 separated from the area ROI3 as the read area, and then skips the area ROI1 and sets the area ROI2 separated from the area ROI00 as the read area. ..
  • the area set this time is set by setting the reading area in the order of area ROI0 ⁇ area ROI3 ⁇ area ROI1 ⁇ area ROI4 ⁇ area ROI2 and reading each area in a time division manner.
  • the signal of each pixel 50 it is possible to suppress the influence of light emission in the previous reading area.
  • Example 5 is an example of selecting the peak of the histogram.
  • the distance measuring device measures the time t by executing the time measurement a plurality of times and detecting the peak of the histogram obtained by accumulating the measured times, and based on this time t, the distance to the subject is reached. The distance L will be calculated. Specific examples of peak selection of the histogram according to the fifth embodiment are shown in FIGS. 14A and 14B.
  • FIG. 14A is a waveform diagram in the case where a small peak occurs in the first peak portion due to the influence of light emission in the previous read region during the current histogram acquisition period.
  • a small peak due to the influence of light emission in the previous read area is not selected (acquired) by filtering processing or the like.
  • FIG. 14B is a waveform diagram when a small peak occurs at a short distance due to the influence of light emission in the previous read region. In the case of the specific example shown in FIG. 14B, the peak with a small short distance is not selected (acquired).
  • the influence of the light emission in the previous readout region can be eliminated in the current histogram acquisition period.
  • the technique according to the present disclosure has been described above based on the preferred embodiment, but the technique according to the present disclosure is not limited to the embodiment.
  • the configurations and structures of the light receiving device and the distance measuring device described in the above embodiment are examples, and can be changed as appropriate.
  • the case where the SPAD element is used as the light receiving element has been described as an example, but the light receiving element is not limited to the SPAD element, and the case where an element such as APD or CAPD is used. Even if there is, the same action and effect can be obtained.
  • the technology according to the present disclosure can be applied to various products. A more specific application example will be described below.
  • the technology according to the present disclosure includes any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machines, agricultural machines (tractors), and the like. It may be realized as a distance measuring device mounted on the body.
  • FIG. 15 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via the communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an external information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plurality of control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores a program executed by the microcomputer or parameters used for various arithmetics, and a drive circuit that drives various control target devices. To be equipped.
  • Each control unit is provided with a network I / F for communicating with other control units via the communication network 7010, and is connected to devices or sensors inside or outside the vehicle by wired communication or wireless communication.
  • a communication I / F for performing communication is provided. In FIG.
  • the microcomputer 7610 general-purpose communication I / F 7620, dedicated communication I / F 7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F 7660, audio image output unit 7670,
  • the vehicle-mounted network I / F 7680 and the storage unit 7690 are shown.
  • Other control units also include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the vehicle condition detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 may include, for example, a gyro sensor that detects the angular velocity of the axial rotation of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or steering wheel steering. Includes at least one of the sensors for detecting angular velocity, engine speed, wheel speed, and the like.
  • the drive system control unit 7100 performs arithmetic processing using signals input from the vehicle state detection unit 7110 to control an internal combustion engine, a drive motor, an electric power steering device, a brake device, and the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 7200 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 7200 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source of the drive motor, according to various programs. For example, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input to the battery control unit 7300 from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature control of the secondary battery 7310 or the cooling device provided in the battery device.
  • the vehicle outside information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle exterior information detection unit 7420 is used to detect, for example, the current weather or an environmental sensor for detecting the weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the ambient information detection sensors is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 16 shows an example of the installation positions of the image pickup unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, 7918 are provided, for example, at at least one of the front nose, side mirrors, rear bumpers, back door, and upper part of the windshield of the vehicle interior of the vehicle 7900.
  • the image pickup unit 7910 provided on the front nose and the image pickup section 7918 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the imaging units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the image pickup unit 7916 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 16 shows an example of the photographing range of each of the imaging units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors, respectively
  • the imaging range d indicates the imaging range d.
  • the imaging range of the imaging unit 7916 provided on the rear bumper or the back door is shown. For example, by superimposing the image data captured by the imaging units 7910, 7912, 7914, 7916, a bird's-eye view image of the vehicle 7900 as viewed from above can be obtained.
  • the vehicle exterior information detection units 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, side, corners and the upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, a lidar device.
  • These external information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle exterior information detection unit 7400 causes the image pickup unit 7410 to capture an image of the outside of the vehicle and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives the detection information from the connected vehicle exterior information detection unit 7420. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives the received reflected wave information.
  • the vehicle outside information detection unit 7400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform an environment recognition process for recognizing rainfall, fog, road surface conditions, etc., based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle exterior information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on the road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes the image data captured by different imaging units 7410 to generate a bird's-eye view image or a panoramic image. May be good.
  • the vehicle exterior information detection unit 7400 may perform the viewpoint conversion process using the image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects the in-vehicle information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that captures the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, the seat surface or the steering wheel, and detects the biometric information of the passenger sitting on the seat or the driver holding the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and may determine whether the driver is dozing or not. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device such as a touch panel, a button, a microphone, a switch or a lever, which can be input-operated by a passenger. Data obtained by recognizing the voice input by the microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. You may.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Further, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on the information input by the passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. By operating the input unit 7800, the passenger or the like inputs various data to the vehicle control system 7000 and instructs the processing operation.
  • the storage unit 7690 may include a ROM (Read Only Memory) for storing various programs executed by the microcomputer, and a RAM (Random Access Memory) for storing various parameters, calculation results, sensor values, and the like. Further, the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX, LTE (Long Term Evolution) or LTE-A (LTE-Advanced), or wireless LAN (Wi-Fi).
  • GSM Global System of Mobile communications
  • WiMAX Wireless F
  • LTE Long Term Evolution
  • LTE-A Long Term Evolution-A
  • Wi-Fi wireless LAN
  • Other wireless communication protocols such as (also referred to as (registered trademark)) and Bluetooth (registered trademark) may be implemented.
  • the general-purpose communication I / F7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a business-specific network) via a base station or an access point, for example. You may. Further, the general-purpose communication I / F7620 uses, for example, P2P (Peer To Peer) technology to use a terminal existing in the vicinity of the vehicle (for example, a terminal of a driver, a pedestrian or a store, or an MTC (Machine Type Communication) terminal). You may connect with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I / F7630 uses standard protocols such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of lower layer IEEE802.11p and upper layer IEEE1609. May be implemented.
  • the dedicated communication I / F7630 typically includes vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-home (Vehicle to Home) communication, and pedestrian-to-pedestrian (Vehicle to Pedestrian) communication. ) Carry out V2X communication, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), executes positioning, and executes positioning, and the latitude, longitude, and altitude of the vehicle. Generate location information including.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic congestion, road closure, or required time.
  • the function of the beacon receiving unit 7650 may be included in the above-mentioned dedicated communication I / F 7630.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I / F7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • the in-vehicle device I / F7660 is connected via a connection terminal (and a cable if necessary) (not shown), USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile).
  • a wired connection such as High-definition Link may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a passenger's mobile device or wearable device, or an information device carried or attached to the vehicle. In-vehicle device 7760 may also include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the vehicle-mounted network I / F7680 transmits and receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information acquired. For example, the microcomputer 7610 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. May be good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. Cooperative control may be performed for the purpose of. Further, the microcomputer 7610 automatically travels autonomously without relying on the driver's operation by controlling the driving force generator, the steering mechanism, the braking device, etc. based on the acquired information on the surroundings of the vehicle. Coordinated control may be performed for the purpose of driving or the like.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 has information acquired via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680. Based on the above, three-dimensional distance information between the vehicle and an object such as a surrounding structure or a person may be generated, and local map information including the peripheral information of the current position of the vehicle may be created. Further, the microcomputer 7610 may predict a danger such as a vehicle collision, a pedestrian or the like approaching or entering a closed road based on the acquired information, and generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or turning on a warning lamp.
  • the audio image output unit 7670 transmits an output signal of at least one of audio and image to an output device capable of visually or audibly notifying information to the passenger or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are exemplified as output devices.
  • the display unit 7720 may include, for example, at least one of an onboard display and a head-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as eyeglass-type displays worn by passengers, projectors or lamps, in addition to these devices.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or the information received from other control units in various formats such as texts, images, tables, and graphs. Display visually.
  • the audio output device converts an audio signal composed of reproduced audio data or acoustic data into an analog signal and outputs it audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit (not shown).
  • the other control unit may have a part or all of the functions carried out by any of the control units. That is, as long as information is transmitted and received via the communication network 7010, predetermined arithmetic processing may be performed by any control unit.
  • a sensor or device connected to any control unit may be connected to another control unit, and a plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • the above is an example of a vehicle control system to which the technology according to the present disclosure can be applied.
  • the technique according to the present disclosure can be applied to the ToF camera in the above-described configuration, for example, when the imaging unit 7410 includes a ToF camera. Then, by applying the technique according to the present disclosure, it is possible to suppress the power consumption when reading the signal of each pixel of the light receiving unit, so that, for example, a vehicle control system with low power consumption can be constructed.
  • the present disclosure may also have the following configuration.
  • a row selection unit that selects each pixel of the light receiving unit in units of one pixel row or a plurality of pixel rows.
  • a column selection unit that selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in pixel units, and a column selection unit. Equipped with a control unit that controls the column selection unit The control unit selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit with respect to the column selection unit in units of regions having a plurality of pixels as a unit, and for each region. Controls to read out pixel signals Light receiving device.
  • a reading circuit unit for processing a signal read from each pixel of the light receiving unit is provided.
  • the reading circuit unit processes the signal read from each pixel of the light receiving unit for each area selected by the column selection unit.
  • the control unit controls the reading circuit unit to deactivate the circuit parts other than the circuit part corresponding to the region selected by the column selection unit.
  • a pixel has a switch element for column selection, which is selected in pixel units in response to a scanning signal given from a column selection unit.
  • the light receiving device according to any one of the above [A-1] to the above [A-3].
  • the switch element for column selection puts a pixel in a non-selected state by shutting off the power of the pixel.
  • the control unit can set the number of regions in one pixel row or a plurality of pixel rows selected by the row selection unit in units of a plurality of pixels.
  • the control unit can arbitrarily specify an area for reading a pixel signal from a plurality of set areas.
  • the control unit When the control unit reads the signal of each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in a time division manner for each area, the control unit reads the signal last time as the area to be read this time. Set the area away from the area
  • the light receiving device according to any one of the above [A-1] to the above [A-7].
  • the light receiving element is an element that generates a signal in response to the light receiving of a photon.
  • the light receiving element is composed of a single photon avalanche diode.
  • a light source that irradiates the object to be measured with light, and Equipped with a light receiving device that detects the light reflected by the object to be measured
  • the light receiving device is A light receiving unit in which pixels including light receiving elements are arranged two-dimensionally in a matrix.
  • a row selection unit that selects each pixel of the light receiving unit in units of one pixel row or a plurality of pixel rows.
  • a column selection unit that selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in pixel units, and a column selection unit.
  • Equipped with a control unit that controls the column selection unit The control unit selects each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit with respect to the column selection unit in units of regions having a plurality of pixels as a unit, and for each region. Controls to read out pixel signals Distance measuring device.
  • a reading circuit unit for processing a signal read from each pixel of the light receiving unit is provided. The reading circuit unit processes the signal read from each pixel of the light receiving unit for each area selected by the column selection unit. The distance measuring device according to the above [B-1].
  • the control unit controls the read circuit unit to deactivate the circuit parts other than the circuit part corresponding to the region selected by the column selection unit.
  • a pixel has a switch element for column selection, which is selected in pixel units in response to a scanning signal given from a column selection unit.
  • the switch element for column selection puts a pixel in a non-selected state by shutting off the power of the pixel.
  • the control unit can set the number of regions in one pixel row or a plurality of pixel rows selected by the row selection unit in units of a plurality of pixels.
  • the control unit can arbitrarily specify an area for reading a pixel signal from a plurality of set areas.
  • the distance measuring device according to the above [B-6].
  • [B-8] When the control unit reads the signal of each pixel of one pixel row or a plurality of pixel rows selected by the row selection unit in a time division manner for each area, the control unit reads the signal last time as the area to be read this time. Set the area away from the area.
  • the distance measuring device according to any one of the above [B-1] to the above [B-7].
  • the light receiving element is an element that generates a signal in response to light reception of a photon.
  • the distance measuring device according to any one of the above [B-1] to the above [B-8].
  • the light receiving element is composed of a single photon avalanche diode. The distance measuring device according to the above [B-9].
  • 1 Distance measuring device, 10 ... Subject (measurement object), 20 ... Light source, 21 ... Laser driver, 22 ... Laser light source, 23 ... Diffuse lens, 30 ... Light receiving device, 31 ... light receiving lens, 32 ... optical sensor, 33 ... circuit unit, 40 ... control unit, 50 ... pixel, 51 ... SPAD element, 60 ... light receiving unit , 70 ... row selection unit, 80 ... column selection unit, 90 ... reading circuit unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Power Engineering (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

本開示の受光装置は、受光素子を含む画素が行列状に2次元配置されて成る受光部、受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、列選択部を制御する制御部を備える。そして、制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う。また、本開示の測距装置は、上記の構成の受光装置を用いる。

Description

受光装置及び受光装置の制御方法、並びに、測距装置
 本開示は、受光装置及び受光装置の制御方法、並びに、測距装置(距離測定装置)に関する。
 受光素子として、光子の受光に応じて信号を発生する素子を用いた受光装置がある(例えば、特許文献1参照)。この種の受光装置では、測定対象物までの距離を測定する測定法として、測定対象物に向けて照射した光が、当該測定対象物で反射されて戻ってくるまでの時間を測定するToF(Time of Flight:飛行時間)法が採用されている。
特開2016-211881号公報
 ToFのうち、光の飛行時間差から直接距離を算出するダイレクトToF法では、受光素子を含む画素が行列状に2次元配置されて成る受光部の各画素の信号を読み出す処理が行われる。このとき、受光部の各画素を、1つの画素行、又は、複数の画素行を単位として選択し、その選択した領域の全画素の信号を一度に読み出すようにすると、消費電力が大きくなってしまう。
 そこで、本開示は、受光部の各画素の信号を読み出す際の消費電力を抑制することができる受光装置及び受光装置の制御方法、並びに、当該受光装置を用いる測距装置を提供することを目的とする。
 上記の目的を達成するための本開示の受光装置は、
 受光素子を含む画素が行列状に2次元配置されて成る受光部、
 受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、
 行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、
 列選択部を制御する制御部を備え、
 制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う。
 上記の目的を達成するための本開示の受光装置の制御方法は、
 受光素子を含む画素が行列状に2次元配置されて成る受光部、
 受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、及び、
 行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、
 を備える受光装置の制御に当たって、
 列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う。
 上記の目的を達成するための本開示の測距装置は、
 測定対象物に対して光を照射する光源、及び、
 測定対象物で反射された光を検出する受光装置を備える。そして、
 受光装置は、
 受光素子を含む画素が行列状に2次元配置されて成る受光部、
 受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、
 行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、
 列選択部を制御する制御部を備え、
 制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う。
図1は、本開示の実施形態に係る測距装置の一例を示す概略構成図である。 図2A及び図2Bは、本開示の実施形態に係る測距装置の具体的な構成の一例を示すブロック図である。 図3は、SPAD素子を用いた基本的な画素回路の一例を示す回路図である。 図4Aは、SPAD素子のPN接合の電流-電圧特性を示す特性図であり、図4Bは、画素回路の回路動作の説明に供する波形図である。 図5は、本開示の実施形態に係る受光装置の一例を示す概略構成図である。 図6は、本開示の実施形態に係る受光装置の制御方法について説明するフローチャートである。 図7は、実施例1に係る画素回路の構成の一例を示す回路図である。 図8は、実施例2に係る読出し回路部の構成の一例を示す概略構成図である。 図9Aは、実施例3に係る制御例における制御信号LD_NUMと分割数との対応関係を示す図であり、図9Bは、LD_NUM=1とき、即ち、分割数=2のときの動作イメージを示す図である。 図10Aは、制御信号LD_NUMによる領域ROIの分割数の設定、及び、選択信号SELによる領域ROIの指定の一例を示す図であり、図10Bは、選択信号SELのみで領域ROIを指定する例を示す図である。 図11は、実施例4に係る時分割読出しの4分割の場合の動作例を示す図である。 図12は、読出し領域として隣り合う領域を順番に設定した場合の不具合について説明する図である。 図13は、5分割の場合の時分割読出しの動作例を示す図である。 図14A及び図14Bは、実施例5に係るヒストグラムのピーク選択の具体例について説明する波形図である。 図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システムの概略的な構成例を示すブロック図である。 図16は、測距装置の設置位置の例を示す図である。
 以下、本開示の技術を実施するための形態(以下、「実施形態」と記述する)について図面を用いて詳細に説明する。本開示の技術は実施形態に限定されるものではなく、実施形態における種々の数値などは例示である。以下の説明において、同一要素又は同一機能を有する要素には同一符号を用いることとし、重複する説明は省略する。尚、説明は以下の順序で行う。
1.本開示の受光装置及び測距装置、全般に関する説明
2.実施形態に係る測距装置
  2-1.測距装置の具体的な構成例
  2-2.SPAD素子を用いた基本的な画素回路例
  2-3.SPAD素子を用いた画素回路の回路動作例
3.実施形態に係る受光装置
  3-1.実施例1(画素回路の構成例)
  3-2.実施例2(読出し回路部の構成例)
  3-3.実施例3(制御部による制御例)
  3-4.実施例4(領域ROIの信号を時分割で読み出す例)
  3-5.実施例5(ヒストグラムのピークを選択する例)
4.変形例
5.本開示に係る技術の適用例(移動体の例)
6.本開示がとることができる構成
<本開示の受光装置及び測距装置、全般に関する説明>
 本開示の受光装置及び測距装置にあっては、受光部の各画素から読み出される信号を処理する読出し回路部を備える構成とすることができる。そして、読出し回路部について、受光部の各画素から読み出される信号を、列選択部によって選択された領域毎に処理する構成とすることができる。また、制御部について、読出し回路部に対して、列選択部によって選択された領域に対応する回路部分以外の回路部分を非活性化の状態にする制御を行う構成とすることができる。
 上述した好ましい構成を含む本開示の受光装置及び測距装置にあっては、画素について、列選択部から与えられる走査信号に応答して、画素単位で選択状態とする列選択用のスイッチ素子を有する構成とすることができる。また、列選択用のスイッチ素子について、画素の電源を遮断状態とすることにより、画素を非選択状態とする構成とすることができる。
 また、上述した好ましい構成を含む本開示の受光装置及び測距装置にあっては、制御部について、行選択部によって選択された1つの画素行、又は、複数の画素行における、複数の画素を単位とする領域の数を設定可能な構成とすることができる。更に、制御部について、設定した複数の領域のうち、画素の信号を読み出す領域を任意に指定可能な構成とすることができる。
 また、上述した好ましい構成を含む本開示の受光装置及び測距装置にあっては、制御部について、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素の信号について、領域毎に時分割で読み出すとき、今回の読出し領域として、前回の読出し領域と離れた領域を設定する構成とすることができる。
 また、上述した好ましい構成を含む本開示の受光装置及び測距装置にあっては、受光素子について、光子の受光に応じて信号を発生する素子、好ましくは、単一光子アバランシェダイオードから成る構成とすることができる。
<実施形態に係る測距装置>
 図1は、本開示の実施形態に係る測距装置の一例を示す概略構成図である。本実施形態に係る測距装置1は、測定対象物である被写体10までの距離を測定する測定法として、被写体10に向けて照射した光(例えば、赤外の波長域にピーク波長を有するレーザ光)が、当該被写体10で反射されて戻ってくるまでの飛行時間を測定するToF法を採用している。ToFによる距離測定を実現するために、本実施形態に係る測距装置1は、光源20及び受光装置30を備えている。そして、受光装置30として、後述する本開示の実施形態に係る受光装置を用いることができる。
[測距装置の具体的な構成例]
 本実施形態に係る測距装置1の具体的な構成の一例を図2A及び図2Bに示す。光源20は、例えば、レーザドライバ21、レーザ光源22、及び、拡散レンズ23を有し、被写体10に対してレーザ光を照射する。レーザドライバ21は、制御部40による制御の下に、レーザ光源22を駆動する。レーザ光源22は、例えば半導体レーザから成り、レーザドライバ21によって駆動されることによってレーザ光を出射する。拡散レンズ23は、レーザ光源22から出射されたレーザ光を拡散し、被写体10に対して照射する。
 受光装置30は、受光レンズ31、受光部である光センサ32、及び、論理回路33を有し、レーザ照射部20による照射レーザ光が被写体10で反射されて戻ってくる反射レーザ光を受光する。受光レンズ31は、被写体10からの反射レーザ光を光センサ32の受光面上に集光する。光センサ32は、受光レンズ31を経た被写体10からの反射レーザ光を画素単位で受光し、光電変換する。光センサ32としては、受光素子を含む画素が行列状(アレイ状)2次元配置されて成る2次元アレイセンサ(所謂、エリアセンサ)を用いることができる。
 光センサ32の出力信号は、論理回路33を経由して制御部40へ供給される。制御部40は、例えば、CPU(Central Processing Unit:中央処理ユニット)等によって構成され、光源20及び受光装置30を制御するとともに、光源20から被写体10に向けて照射したレーザ光が、当該被写体10で反射されて戻ってくるまでの時間tの計測を行う。この時間tを基に、被写体10までの距離Lを求めることができる。
 時間計測の方法としては、光源20からパルス光を照射したタイミングでタイマをスタートさせ、受光装置30が当該パルス光を受光したタイミングでタイマをストップし、時間tを計測する。時間計測のその他の方法として、光源20から所定の周期でパルス光を照射し、受光装置30が当該パルス光を受光した際の周期を検出し、発光の周期と受光の周期との位相差から時間tを計測してもよい。時間計測は複数回実行され、複数回計測された時間を積み上げたヒストグラムのピークを検出することで時間tを計測する。
 そして、本実施形態では、光センサ32として、画素の受光素子が、光子の受光に応じて信号を発生する素子、例えば、SPAD(Single Photon Avalanche Diode:単一光子アバランシェダイオード)素子から成るセンサを用いている。すなわち、本実施形態に係る受光装置30は、画素の受光素子がSPAD素子から成る構成となっている。尚、受光素子は、SPAD素子に限定されるものではなく、APD(Avalanche Photo Diode)やCAPD(Current Assisted Photonic Demodulator)等の種々の素子であってもよい。
[SPAD素子を用いた基本的な画素回路例]
 SPAD素子を用いた受光装置30における基本的な画素回路の一例を図3に示す。ここでは、1画素分の基本構成を図示している。
 SPAD素子を用いた画素50の基本的な画素回路は、SPAD素子51のカソード電極が、負荷であるP型MOSトランジスタQLを介して、電源電圧VDDが与えられる端子52に接続され、アノード電極が、アノード電圧Vbdが与えられる端子53に接続された構成となっている。アノード電圧Vbdとしては、アバランシェ増倍が発生する大きな負電圧が印加される。アノード電極とグランドとの間には容量素子Cが接続されている。そして、SPAD素子51のカソード電圧VCAが、P型MOSトランジスタQp及びN型MOSトランジスタQnが直列接続されて成るCMOSインバータ54を介してSPAD出力(画素出力)として導出される。
 SPAD素子51には、ブレークダウン電圧VBD以上の電圧が印加される。ブレークダウン電圧VBD以上の過剰電圧は、エクセスバイアス電圧VEXと呼ばれ、2-5V程度の電圧が一般的である。SPAD素子51は、DC的な安定点が無いガイガーモードと呼ばれる領域で動作する。SPAD素子51のPN接合のI(電流)-V(電圧)特性を図4Aに示す。
[SPAD素子を用いた画素回路の回路動作例]
 続いて、上記の構成の画素回路の回路動作の一例について、図4Bの波形図を用いて説明する。
 SPAD素子51に電流が流れていない状態では、SPAD素子51には、VDD-Vbdの値の電圧が印加されている。この電圧値(VDD-Vbd)は、(VBD+VEX)である。そして、SPAD素子51のPN接合部で暗電子の発生レートDCR(Dark Count Rate)や光照射によって発生した電子がアバランシェ増倍を生じ、アバランシェ電流が発生する。この現象は、遮光されている状態(即ち、光が入射していない状態)でも確率的に発生している。これが暗電子の発生レートDCRである。
 カソード電圧VCAが低下し、SPAD素子51の端子間の電圧がPNダイオードのフレークダウン電圧VBDになると、アバランシェ電流が停止する。そして、アバランシェ増倍で発生し、蓄積された電子が、負荷の抵抗素子R(又は、P型MOSトランジスタQL)によって放電し、カソード電圧VCAが電源電圧VDDまで回復し、再び初期状態に戻る。
 SPAD素子51に光が入射して1個でも電子-正孔対が発生すると、それが種となってアバランシェ電流が発生するので、光子1個の入射でも、ある検出効率PDE(Photon Detection Efficiency)で検出することができる。この光子を検出できる検出効率PDEは、通常、数%~20%程度のものが多い。
 以上の動作が繰り返される。そして、この一連の動作において、カソード電圧VCAが、CMOSインバータ54で波形整形され、1フォトンの到来時刻を開始点とするパルス幅Tのパルス信号がSPAD出力(画素出力)となる。
<実施形態に係る受光装置>
 次に、上記の構成の測距装置1に用いることができる、本開示の実施形態に係る受光装置、及び、当該受光装置の制御方法について説明する。本実施形態に係る受光装置は、上記の構成の画素50が、行列状に2次元配置されて成る受光部を有する。画素50が2次元配置されて成る受光部は、図2Aの光センサ32に相当するということができる。
 図5は、本開示の実施形態に係る受光装置の一例を示す概略構成図である。図5に示すように、本実施形態に係る受光装置30は、受光素子として、光子の受光に応じて信号を発生する素子、例えばSPAD素子51を含む画素50が、行列状に2次元配置されて成る受光部60を有している。本実施形態に係る受光装置30は、受光部60の他に、行選択部70、列選択部80、読出し回路部90、及び、制御部40等を有するシステム構成となっている。
 行選択部70は、受光装置30の外部から与えられるV制御信号に基づいて、受光部60の各画素50を1つの画素行、又は、複数の画素行を単位として選択する。ここでは、V制御信号として、V制御信号000[2:0]~062[2:0]を用いる場合を例示している。列選択部80は、受光装置30の外部から与えられるH制御信号に基づいて、受光部60の各画素50を画素単位で選択する。ここでは、H制御信号として、H制御信号EN_SPAD_H0[2:0]~EN_SPAD_H198[2:0]を用いる場合を例示している。
 読出し回路部90は、行選択部70によって選択された1つの画素行、又は、複数の画素行について、列選択部80によって画素単位で選択された画素50の信号を読み出し、当該信号に対し所定の処理を施した後、受光装置30の外部へ出力する。制御部40は、受光装置30の外部から与えられる同期信号S_SYNC、制御信号LD_NUM、タイミング信号TRG_I,PRE_TRG、及び、選択信号SELに基づいて、列選択部80による画素選択の制御、及び、読出し回路部90による各画素50の信号(画素信号)の読出し制御を行う。
 上記の構成の本実施形態に係る受光装置30において、受光部60の各画素50を、1つの画素行、又は、複数の画素行を単位として選択し、その選択した領域の全画素の信号を一度に読み出すようにすると、選択された画素行の全画素が同時に駆動され、ピーク電流が大きくなる。また、選択された画素行の全画素が同時に駆動されるだけでなく、読み出された画素信号を処理する読出し回路部についても、全画素に対応した全ての回路部分が処理動作を行うことになる。その結果、消費電力が大きくなってしまう。
 そこで、本実施形態に係る受光装置30では、行選択部70によって選択された画素行(1つの画素行、又は、複数の画素行)の各画素の信号50を、複数の画素を単位とする領域毎に時分割で読み出すようにする。具体的には、制御部40による制御の下に、列選択部80は、行選択部70によって選択された画素行の各画素50について、複数の画素を単位として選択する。そして、制御部40による制御の下に、読出し回路部90は、列選択部80によって選択された複数の画素を単位とする領域毎に時分割で、画素50の信号を読み出す。
 より具体的には、行方向(H方向)の制御線を画素50毎に分け、列選択部80によって画素単位で自由にON/OFF可能にする。そして、列選択部80による画素単位でのON/OFFを、外部から与えられるH制御信号に基づく制御によって切り替えて、複数の画素を単位として選択する。そして、複数の画素を単位とする領域の各画素50の信号を時分割で読み出す。
 続いて、制御部40による制御の下に実行される、本実施形態に係る受光装置30の制御方法について、図6のフローチャートを用いて説明する。制御部40は、行選択部70を制御することにより、受光部60の各画素50を、1つの画素行、又は、複数の画素行を単位として選択し(ステップS11)、次いで、列選択部80を制御することにより、選択した画素行の各画素50について、複数の画素を単位とする領域の単位で選択する(ステップS12)。そして、制御部40は、読出し回路部90を制御することにより、選択した領域毎に時分割で、画素50の信号を読み出す(ステップS13)。
 上述したように、本実施形態に係る受光装置30では、行選択部70によって選択された画素行(1つの画素行、又は、複数の画素行)の各画素50の信号について、複数の画素を単位とする領域毎に時分割で画素信号の読出しが行われる。このように、列選択部80によって選択された領域単位で画素信号の読出しを時分割で行うことにより、1つの画素行、又は、複数の画素行の全画素の信号を一度に読み出す場合に比べて、消費電力を低減することができる。
 以下に、低消費電力化を目的として、複数の画素を単位とする領域毎に時分割で画素信号の読出しを行うための本実施形態の具体的な実施例について説明する。
[実施例1]
 実施例1は、本開示の実施形態に係る受光装置30に用いられる画素50の回路例(画素回路例)である。実施例1に係る画素回路の構成の一例を図7に示す。
 実施例1に係る画素50は、第1の回路部50Aと、第2の回路部50Bとから成る。第1の回路部50Aは、図3に示した基本的な画素回路におけるP型MOSトランジスタQL(負荷)、及び、CMOSインバータ54の他に、スイッチ素子SW及び2つのN型MOSトランジスタQV,QHを有している。CMOSインバータ54は、図3のP型MOSトランジスタQp及びN型MOSトランジスタQnが直列接続されて成るCMOSインバータである。
 スイッチ素子SWは、クエンチスイッチであり、制御信号EN_PRに基づくクエンチング動作により、SPAD素子51に対する印加電圧を降伏電圧まで下げることによってアバランシェ現象を停止させる。
 2つのN型MOSトランジスタQV,QHはそれぞれ、SPAD素子51のカソード電極が接続された端子Tと基準電位ノード(例えば、グランドGND)との間に接続されている。一方のN型MOSトランジスタQVは、画素50を画素行の単位で選択するための行選択用のスイッチ素子である。他方のN型MOSトランジスタQHは、画素50を画素列の単位で選択するための列選択用のスイッチ素子である。
 行選択用のN型MOSトランジスタQVは、図5の行選択部70から与えられる走査信号XEN_SPAD_Vに応答して非導通状態となり、端子Tをオープン状態にすることで、画素50を画素行の単位で選択する。列選択用のN型MOSトランジスタQHは、図5の列選択部80から与えられる走査信号XEN_SPAD_Hに応答して非導通状態となり、端子Tをオープン状態にすることで、画素50を画素列の単位で選択する。
 列選択用のN型MOSトランジスタQHが設けられていることで、行選択部70によって選択された1つの画素行、又は、複数の画素行の各画素50について、画素単位での選択が可能となる。また、列選択用のN型MOSトランジスタQHは、導通状態となり、端子Tの電位を接地電位にすることで、画素50の電源を遮断状態とし、画素50を非選択の状態とする。このN型MOSトランジスタQHの作用により、非選択の画素では、画素50の電源を遮断状態とすることで、低消費電力化を図ることができる。
 実施例1に係る画素50の第2の回路部50Bは、レベルシフト回路55、3入力のNAND回路56、2入力のOR回路57、インバータ回路58、及び、インバータ回路59を有する回路構成となっている。
 端子Tの電圧VCAは、CMOSインバータ54を経た後、レベルシフト回路55でレベルシフトされて、3入力のNAND回路56の反転入力(第1の入力)となる。3入力のNAND回路56は、制御信号EN_C及び制御信号EN_Fを第2の入力及び第3の入力とする。制御信号EN_Cは、列方向(垂直方向)の制御のための信号である。制御信号EN_Fは、行方向(水平方向)の制御のための信号である。NAND回路56は、制御信号EN_C及び制御信号EN_Fが共に論理“1”のときにゲート開となる。
 NAND回路56の出力は、2入力のOR回路57の反転入力(第1の入力)となる。2入力のOR回路57は、画素50の外部、例えば図5の制御部40から与えられる制御信号I_ORを第2の入力とする。制御信号I_ORは、画素50の信号の読出しの可/不可の制御を行うための信号である。OR回路57の出力は、インバータ回路58及びインバータ回路59を介して、画素信号O_SPADとして出力される。
 上述したように、実施例1に係る画素回路は、列選択部80から与えられる走査信号XEN_SPAD_Hに応答して、画素単位で選択状態とする列選択用のスイッチ素子、即ちN型MOSトランジスタQHを有する構成となっている。これにより、行選択部70によって選択された1つの画素行、又は、複数の画素行の各画素50について、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出すことが可能になる。また、N型MOSトランジスタQHの作用により、非選択の画素については、画素50の電源を遮断状態とすることで、省電力化を図ることができる。
[実施例2]
 実施例2は、本開示の実施形態に係る受光装置30に用いられる読出し回路部90の構成例である。実施例2に係る読出し回路部90の構成の一例を図8に示す。
 ここでは、図面の簡略化のために、一例として、受光部60の画素配列を水平48×垂直24として図示している。この水平48×垂直24の画素配列に対して、例えば、水平走査信号XEN_SPAD_H、垂直走査信号XEN_SPAD_V、及び、制御信号EN_Cを伝送する各制御線が1画素毎に配線され、制御信号EN_Fを伝送する各制御線が水平3画素毎に配線されている。これらの制御信号については、図面の簡略化のために、図示を省略している。
 本例では、理解を容易にするために、水平48×垂直24の画素配列に対して、行選択部70は、例えば4つの画素行を単位として受光部60の各画素50を選択することとする。そして、列選択部80は、制御部40による制御の下に、例えば水平12画素の計48個(=水平12×垂直4)の画素を単位とする領域の単位で受光部60の各画素50を選択し、画素信号を読み出すこととする。ここでは、48個の画素を単位とする領域を、領域ROI0,ROI1,ROI2,ROI3とするとき、そのうちの領域ROI1を選択する領域とする。このとき、列選択部80による走査の下に、選択する領域ROI1以外の領域ROI0,ROI2,ROI3の各画素50は、列選択用のスイッチ素子、即ちN型MOSトランジスタQHのスイッチング作用により、画素50の電源が遮断され、非選択状態となる。
 上記のように、列選択部80が、例えば48個(水平12×垂直4)の画素を単位とする領域ROIの単位で画素50を選択し、領域ROI毎に画素50の信号を読み出すものとするとき、読出し回路部90は、列選択部80によって選択された領域ROI(ROI0/ROI1/ROI2/ROI3)毎に画素50の信号を処理する。具体的には、読出し回路部90の回路部分は、列選択部80によって選択される領域ROIに対応して、回路部分90A、回路部分90B、回路部分90C、及び、回路部分90Dの4つに分割されている。
 そして、制御部40は、読出し回路部90に対して、列選択部80によって選択された領域ROIに対応する回路部分(本例では、回路部分90B)のみを活性化の状態とし、回路部分90B以外の回路部分90A、回路部分90C、及び、回路部分90Dについては非活性化の状態にする制御を行う。読出し回路部90において、回路部分毎にクロック系統を分割し、電源島も分けることで、回路部分毎に活性化/非活性化の切り替えを行いことができる。
 上述したように、実施例2に係る読出し回路部90は、列選択部80によって選択される領域ROIに対応して回路部分が分割されており、制御部40による制御の下に、列選択部80によって選択された領域ROIに対応する回路部分以外の回路部分が、クロックOFF、電源OFFによって非活性化状態となる。これにより、画素50での省電力化に加えて、読出し回路部90においても省電力化を図ることができる。
[実施例3]
 実施例3は、制御部40による制御例である。制御部40は、先述したように、同期信号S_SYNC、制御信号LD_NUM、タイミング信号TRG_I,PRE_TRG、及び、選択信号SELに基づいて、列選択部80による画素選択の制御、及び、読出し回路部90による各画素50の信号(画素信号)の読出し制御を行う。
 制御信号LD_NUMは、列選択部80によって選択される領域ROIの分割数を決定するための信号であり、選択信号SELは、どの領域ROIを選択して画素信号を読み出すかを指定するための信号である。ここで、列選択部80によって選択される領域ROIの分割数とは、列選択部80によって選択された1つの画素行、又は、複数の画素行における、複数の画素を単位とする領域ROIの数である。
 制御部40は、先ず、制御信号LD_NUMに基づいて、列選択部80によって選択される領域ROIについて、図9Aに示すように、その分割数を設定する。一例として、LD_NUM=0とき分割数=1(即ち、分割無し)、LD_NUM=1とき分割数=2、LD_NUM=2とき分割数=4、LD_NUM=3とき分割数=8という具合に、分割数を設定する。ここでは、タイミング信号TRG_Iの1回当たりの有効SPAD数を、LD_NUM=0ときに576とし、LD_NUM=1ときに288とし、LD_NUM=2ときに144とし、LD_NUM=3ときに72とする場合を例示している。
 LD_NUM=1とき、即ち、分割数=2のときの動作イメージを図9Bに示す。分割数=2のときは、領域ROI0と領域ROI1とが読出し領域となる。そして、タイミング信号TRG_Iに同期して、領域ROI0と領域ROI1とが交互に動作状態となり、各画素50の信号の読出しが行われる。また、外乱光の影響を排除するために、タイミング信号PRE_TRGに同期して、領域ROIの分割モードによらず処理範囲全体(本例では、領域ROI0及び領域ROI1)で外乱光成分の取得が行われる。外乱光成分については、例えば、読出し回路部90において、領域ROI0及び領域ROI1で取得した画素信号に対して差分をとる処理が行われる。これにより、外乱光の影響を排除することができる。
 制御信号LD_NUMによる領域ROIの分割数の設定、及び、選択信号SELによる領域ROIの指定の一例について図10Aを用いて説明する。
・LD_NUM=0(分割無し)
 この分割モード場合、選択信号SELの値によらず、画素信号の全面読出し。
・LD_NUM=1(2分割:ROI0/ROI1)
 この分割モード場合、SEL[0]=0で領域ROI0の読出し、SEL[0]=1で領域ROI1の読出し。
・LD_NUM=2(4分割:ROI0/ROI1/ROI2/ROI3)
 この分割モード場合、SEL[1:0]=0で領域ROI0の読出し、SEL[1:0]=1で領域ROI1の読出し、SEL[1:0]=2で領域ROI2の読出し、SEL[1:0]=3で領域ROI3の読出し。
・LD_NUM=3(8分割:ROI0/ROI1/ROI2/ROI3/ROI4/ROI5/ROI6/ROI7)
 この分割モード場合、SEL[2:0]=0で領域ROI0の読出し、SEL[2:0]=1で領域ROI1の読出し、SEL[2:0]=2で領域ROI2の読出し、SEL[2:0]=3で領域ROI3の読出し、SEL[2:0]=4で領域ROI4の読出し、SEL[2:0]=5で領域ROI5の読出し、SEL[2:0]=6で領域ROI6の読出し、SEL[2:0]=7で領域ROI7の読出し。
 上記の例では、制御信号LD_NUMによる領域ROIの分割数の設定、及び、選択信号SELによる領域ROIの指定としたが、選択信号SELのみで領域ROIを指定することもできる。具体的には、図10Bの上段に示すように、選択信号SELのみで単一の領域ROIを指定したり、図10Bの下段に示すように、選択信号SELのみで複数の領域ROIを指定したりすることができる。
 上述したことから明らかなように、制御部40は、設定される選択信号SELの値に応じて、画素50の信号を読み出す領域ROIを指定することができる。すなわち、制御部40は、設定した複数の領域のうち、画素50の信号を読み出す領域を、選択信号SELの値に応じて任意に指定可能である。
[実施例4]
 実施例4は、領域ROIの信号を時分割で読み出す例であり、4分割(ROI0/ROI1/ROI2/ROI3)の分割モードの場合の例である。実施例4に係る時分割読出しの動作例を図11に示す。
 4分割の分割モードの場合、領域ROI0、領域ROI1、領域ROI2、及び、領域ROI3を領域単位で選択し、その選択した領域ROIの各画素50の信号を読み出すことになる。その読出しの際に、制御部40は、行選択部70によって選択された1つの画素行、又は、複数の画素行の各画素50の信号について、領域毎に時分割で読み出す。
 このとき、制御部40による制御の下に、今回の読出し領域として、前回の読出し領域と領域的に離れた領域を設定することが好ましい。具体的には、4分割の分割モードの場合、図11に示すように、制御部40は、先ず、領域ROI1を読出し領域として設定し、次いで、領域ROI2を飛ばして領域ROI1と離れた領域ROI3を読出し領域として設定する。次に、制御部40は、領域ROI1及び領域ROI2を飛ばして領域ROI3と離れた領域ROI0を読出し領域として設定し、次いで、領域ROI1を飛ばして領域ROI00と離れた領域ROI2を読出し領域として設定する。
 ここで、画素信号の読出し領域として、領域ROI0→領域ROI1→領域ROI2→領域ROI3という具合に、隣り合う領域を順番に設定した場合を考える。このように画素信号の読出し領域が隣り合っている場合、前回の読出し領域の発光の反射光(反射波)が収束しないうちに、今回の読出し領域の発光が始まることになるため、図12に点線で囲んだ領域Xに示すように、前回の読出し領域の発光の影響を受けることになる。これに対して、上述したように、今回の読出し領域として、前回の読出し領域と離れた領域を設定することで、今回の読出し領域の各画素50の信号を読み出す際に、前回の読出し領域の発光の影響を抑えることができるメリットがある。
 4分割の分割モード以外の例として、例えば、5分割の場合の時分割読出しの動作例を図13に示す。5分割の分割モードの場合は、例えば、領域ROI0→領域ROI3→領域ROI1→領域ROI4→領域ROI2の順に読出し領域として設定し、領域毎に時分割で読み出すようにすることで、今回設定した領域の各画素50の信号を読み出す際に、前回の読出し領域の発光の影響を抑制することができる。
[実施例5]
 実施例5は、ヒストグラムのピークを選択する例である。先述したように、測距装置では、時間計測を複数回実行し、複数回計測した時間を積み上げたヒストグラムのピークを検出することで時間tを計測し、この時間tを基に、被写体までの距離Lを求めることになる。実施例5に係るヒストグラムのピーク選択の具体例について図14A及び図14Bに示す。
 図14Aは、今回のヒストグラム取得期間において、最初のピーク部分に、前回の読出し領域の発光の影響によって小さいピークが生じる場合の波形図である。図14Aに示す具体例の場合には、フィルタリング処理等によって、前回の読出し領域の発光の影響による小さいピークについては選択(取得)しないようにする。図14Bは、前回の読出し領域の発光の影響によって近い距離に小さいピークが生じる場合の波形図である。図14Bに示す具体例の場合には、近い距離の小さいピークについては選択(取得)しないようにする。
 図14A及び図14Bに示す、実施例5に係るヒストグラムのピーク選択の具体例によれば、今回のヒストグラム取得期間において、前回の読出し領域の発光の影響を排除することができる。
<変形例>
 以上、本開示に係る技術について、好ましい実施形態に基づき説明したが、本開示に係る技術は当該実施形態に限定されるものではない。上記の実施形態において説明した受光装置及び測距装置の構成、構造は例示であり、適宜、変更することができる。例えば、上記の実施形態では、受光素子としてSPAD素子を用いる場合を例に挙げて説明したが、受光素子としては、SPAD素子に限られるものではなく、APDやCAPD等の素子を用いた場合であっても同様の作用、効果を得ることができる。
<本開示に係る技術の適用例>
 本開示に係る技術は、様々な製品に適用することができる。以下に、より具体的な適用例について説明する。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される測距装置として実現されてもよい。
[移動体]
 図15は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図15に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図15では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図16は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 尚、図16には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図15に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX、LTE(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。尚、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。尚、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図15の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 尚、図15に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 以上、本開示に係る技術が適用され得る車両制御システムの一例について説明した。本開示に係る技術は、以上説明した構成のうち、例えば、撮像部7410がToFカメラを含む場合に、当該ToFカメラに適用され得る。そして、本開示に係る技術を適用することにより、受光部の各画素の信号を読み出す際の消費電力を抑制することができるため、例えば、低消費電力の車両制御システムを構築できる。
<本開示がとることができる構成>
 尚、本開示は、以下のような構成をとることもできる。
≪A.受光装置≫
[A-1]受光素子を含む画素が行列状に2次元配置されて成る受光部、
 受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、
 行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、
 列選択部を制御する制御部を備え、
 制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う、
 受光装置。
[A-2]受光部の各画素から読み出される信号を処理する読出し回路部を備え、
 読出し回路部は、受光部の各画素から読み出される信号を、列選択部によって選択された領域毎に処理する、
 上記[A-1]に記載の受光装置。
[A-3]制御部は、読出し回路部に対して、列選択部によって選択された領域に対応する回路部分以外の回路部分を非活性化の状態にする制御を行う、
 上記[A-2]に記載の受光装置。
[A-4]画素は、列選択部から与えられる走査信号に応答して、画素単位で選択状態とする列選択用のスイッチ素子を有する、
 上記[A-1]乃至上記[A-3]のいずれかに記載の受光装置。
[A-5]列選択用のスイッチ素子は、画素の電源を遮断状態とすることにより、画素を非選択状態とする、
 上記[A-4]に記載の受光装置。
[A-6]制御部は、行選択部によって選択された1つの画素行、又は、複数の画素行における、複数の画素を単位とする領域の数を設定可能である、
 上記[A-1]乃至上記[A-5]のいずれかに記載の受光装置。
[A-7]制御部は、設定した複数の領域のうち、画素の信号を読み出す領域を任意に指定可能である、
 上記[A-6]に記載の受光装置。
[A-8]制御部は、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素の信号について、領域毎に時分割で読み出すとき、今回読み出す領域として、前回読み出した領域と離れた領域を設定する、
 上記[A-1]乃至上記[A-7]のいずれかに記載の受光装置。
[A-9]受光素子は、光子の受光に応じて信号を発生する素子である、
 上記[A-1]乃至上記[A-8]のいずれかに記載の受光装置。
[A-10]受光素子は、単一光子アバランシェダイオードから成る、
 上記[A-9]に記載の受光装置。
≪B.測距装置≫
[B-1]測定対象物に対して光を照射する光源、及び、
 測定対象物で反射された光を検出する受光装置を備え、
 受光装置は、
 受光素子を含む画素が行列状に2次元配置されて成る受光部、
 受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、
 行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、
 列選択部を制御する制御部を備え、
 制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う、
 測距装置。
[B-2]受光部の各画素から読み出される信号を処理する読出し回路部を備え、
 読出し回路部は、受光部の各画素から読み出される信号を、列選択部によって選択された領域毎に処理する、
 上記[B-1]に記載の測距装置。
[B-3]制御部は、読出し回路部に対して、列選択部によって選択された領域に対応する回路部分以外の回路部分を非活性化の状態にする制御を行う、
 上記[B-2]に記載の測距装置。
[B-4]画素は、列選択部から与えられる走査信号に応答して、画素単位で選択状態とする列選択用のスイッチ素子を有する、
 上記[B-1]乃至上記[B-3]のいずれかに記載の測距装置。
[B-5]列選択用のスイッチ素子は、画素の電源を遮断状態とすることにより、画素を非選択状態とする、
 上記[B-4]に記載の測距装置。
[B-6]制御部は、行選択部によって選択された1つの画素行、又は、複数の画素行における、複数の画素を単位とする領域の数を設定可能である、
 上記[B-1]乃至上記[B-5]のいずれかに記載の測距装置。
[B-7]制御部は、設定した複数の領域のうち、画素の信号を読み出す領域を任意に指定可能である、
 上記[B-6]に記載の測距装置。
[B-8]制御部は、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素の信号について、領域毎に時分割で読み出すとき、今回読み出す領域として、前回読み出した領域と離れた領域を設定する、
 上記[B-1]乃至上記[B-7]のいずれかに記載の測距装置。
[B-9]受光素子は、光子の受光に応じて信号を発生する素子である、
 上記[B-1]乃至上記[B-8]のいずれかに記載の測距装置。
[B-10]受光素子は、単一光子アバランシェダイオードから成る、
 上記[B-9]に記載の測距装置。
 1・・・測距装置、10・・・被写体(測定対象物)、20・・・光源、21・・・レーザドライバ、22・・・レーザ光源、23・・・拡散レンズ、30・・・受光装置、31・・・受光レンズ、32・・・光センサ、33・・・回路部、40・・・制御部、50・・・画素、51・・・SPAD素子、60・・・受光部、70・・・行選択部、80・・・列選択部、90・・・読出し回路部

Claims (12)

  1.  受光素子を含む画素が行列状に2次元配置されて成る受光部、
     受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、
     行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、
     列選択部を制御する制御部を備え、
     制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う、
     受光装置。
  2.  受光部の各画素から読み出される信号を処理する読出し回路部を備え、
     読出し回路部は、受光部の各画素から読み出される信号を、列選択部によって選択された領域毎に処理する、
     請求項1に記載の受光装置。
  3.  制御部は、読出し回路部に対して、列選択部によって選択された領域に対応する回路部分以外の回路部分を非活性化の状態にする制御を行う、
     請求項2に記載の受光装置。
  4.  画素は、列選択部から与えられる走査信号に応答して、画素単位で選択状態とする列選択用のスイッチ素子を有する、
     請求項1に記載の受光装置。
  5.  列選択用のスイッチ素子は、画素の電源を遮断状態とすることにより、画素を非選択状態とする、
     請求項4に記載の受光装置。
  6.  制御部は、行選択部によって選択された1つの画素行、又は、複数の画素行における、複数の画素を単位とする領域の数を設定可能である、
     請求項1に記載の受光装置。
  7.  制御部は、設定した複数の領域のうち、画素の信号を読み出す領域を任意に指定可能である、
     請求項6に記載の受光装置。
  8.  制御部は、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素の信号について、領域毎に時分割で読み出すとき、今回の読出し領域として、前回の読出し領域と離れた領域を設定する、
     請求項1に記載の受光装置。
  9.  受光素子は、光子の受光に応じて信号を発生する素子である、
     請求項1に記載の受光装置。
  10.  受光素子は、単一光子アバランシェダイオードから成る、
     請求項9に記載の受光装置。
  11.  受光素子を含む画素が行列状に2次元配置されて成る受光部、
     受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、及び、
     行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、
     を備える受光装置の制御に当たって、
     列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う、
     受光装置の制御方法。
  12.  測定対象物に対して光を照射する光源、及び、
     測定対象物で反射された光を検出する受光装置を備え、
     受光装置は、
     受光素子を含む画素が行列状に2次元配置されて成る受光部、
     受光部の各画素を1つの画素行、又は、複数の画素行の単位で選択する行選択部、
     行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を画素単位で選択する列選択部、及び、
     列選択部を制御する制御部を備え、
     制御部は、列選択部に対して、行選択部によって選択された1つの画素行、又は、複数の画素行の各画素を、複数の画素を単位とする領域の単位で選択し、領域毎に画素の信号を読み出す制御を行う、
     測距装置。
PCT/JP2020/023703 2019-07-26 2020-06-17 受光装置及び受光装置の制御方法、並びに、測距装置 WO2021019939A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021536651A JP7511562B2 (ja) 2019-07-26 2020-06-17 受光装置及び受光装置の制御方法、並びに、測距装置
US17/623,393 US20220353440A1 (en) 2019-07-26 2020-06-17 Light reception device, method of controlling light reception device, and distance measuring device
EP20847342.1A EP4006578A4 (en) 2019-07-26 2020-06-17 LIGHT RECEIVING DEVICE, METHOD FOR CONTROLLING A LIGHT RECEIVING DEVICE, AND DISTANCE MEASURING DEVICE

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019137656 2019-07-26
JP2019-137656 2019-07-26

Publications (1)

Publication Number Publication Date
WO2021019939A1 true WO2021019939A1 (ja) 2021-02-04

Family

ID=74229840

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/023703 WO2021019939A1 (ja) 2019-07-26 2020-06-17 受光装置及び受光装置の制御方法、並びに、測距装置

Country Status (4)

Country Link
US (1) US20220353440A1 (ja)
EP (1) EP4006578A4 (ja)
JP (1) JP7511562B2 (ja)
WO (1) WO2021019939A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113687386A (zh) * 2021-07-07 2021-11-23 曜芯科技有限公司 成像系统以及相关电子装置
WO2023068074A1 (ja) * 2021-10-20 2023-04-27 キヤノン株式会社 光電変換装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117059632B (zh) * 2022-05-05 2024-06-25 浙桂(杭州)半导体科技有限责任公司 一种低探测盲区雪崩二极管传感器

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013090074A (ja) * 2011-10-17 2013-05-13 Sony Corp 撮像装置および方法、並びにプログラム
JP2016211881A (ja) 2015-04-30 2016-12-15 株式会社デンソー 光飛行時間測定装置及び光学的測距装置
JP2018085099A (ja) * 2016-11-21 2018-05-31 三星電子株式会社Samsung Electronics Co.,Ltd. 電源制御回路を含むイベントベースセンサー
WO2019012756A1 (ja) * 2017-07-11 2019-01-17 ソニーセミコンダクタソリューションズ株式会社 電子装置、および、電子装置の制御方法
JP2019032305A (ja) * 2017-07-11 2019-02-28 フォンダッツィオーネ ブルーノ ケスラーFondazione Bruno Kessler 距離を計測するための光電センサ及び方法
WO2019049923A1 (ja) * 2017-09-06 2019-03-14 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置およびその制御方法と駆動方法、並びに電子機器
JP2019518200A (ja) * 2016-04-15 2019-06-27 クアルコム,インコーポレイテッド Lidarレシーバのためのアクティブ領域選択

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106165399B (zh) * 2014-04-07 2019-08-20 三星电子株式会社 高分辨率、高帧率、低功率的图像传感器

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013090074A (ja) * 2011-10-17 2013-05-13 Sony Corp 撮像装置および方法、並びにプログラム
JP2016211881A (ja) 2015-04-30 2016-12-15 株式会社デンソー 光飛行時間測定装置及び光学的測距装置
JP2019518200A (ja) * 2016-04-15 2019-06-27 クアルコム,インコーポレイテッド Lidarレシーバのためのアクティブ領域選択
JP2018085099A (ja) * 2016-11-21 2018-05-31 三星電子株式会社Samsung Electronics Co.,Ltd. 電源制御回路を含むイベントベースセンサー
WO2019012756A1 (ja) * 2017-07-11 2019-01-17 ソニーセミコンダクタソリューションズ株式会社 電子装置、および、電子装置の制御方法
JP2019032305A (ja) * 2017-07-11 2019-02-28 フォンダッツィオーネ ブルーノ ケスラーFondazione Bruno Kessler 距離を計測するための光電センサ及び方法
WO2019049923A1 (ja) * 2017-09-06 2019-03-14 ソニーセミコンダクタソリューションズ株式会社 固体撮像装置およびその制御方法と駆動方法、並びに電子機器

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4006578A4

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113687386A (zh) * 2021-07-07 2021-11-23 曜芯科技有限公司 成像系统以及相关电子装置
WO2023068074A1 (ja) * 2021-10-20 2023-04-27 キヤノン株式会社 光電変換装置
JP2023061643A (ja) * 2021-10-20 2023-05-02 キヤノン株式会社 光電変換装置
JP7286730B2 (ja) 2021-10-20 2023-06-05 キヤノン株式会社 光電変換装置

Also Published As

Publication number Publication date
JPWO2021019939A1 (ja) 2021-02-04
EP4006578A4 (en) 2022-09-21
US20220353440A1 (en) 2022-11-03
JP7511562B2 (ja) 2024-07-05
EP4006578A1 (en) 2022-06-01

Similar Documents

Publication Publication Date Title
JP7246863B2 (ja) 受光装置、車両制御システム及び測距装置
US20200348416A1 (en) Ranging device and ranging method
WO2021019939A1 (ja) 受光装置及び受光装置の制御方法、並びに、測距装置
CN112513678B (zh) 光电检测器和距离测量设备
WO2021111766A1 (ja) 受光装置及び受光装置の制御方法、並びに、測距装置
JP2021128084A (ja) 測距装置および測距方法
JP2020094849A (ja) 光検出装置及び測距装置
WO2021124762A1 (ja) 受光装置及び受光装置の制御方法、並びに、測距装置
WO2020153182A1 (ja) 光検出装置及び光検出装置の駆動方法、並びに、測距装置
WO2021053958A1 (ja) 受光装置、並びに、測距装置及び測距装置の制御方法
WO2021161858A1 (ja) 測距装置および測距方法
US11725983B2 (en) Light receiving device and distance measuring device comprising a circuit to protect a circuit element of a readout circuit from overvoltage
JP7407734B2 (ja) 光検出装置及び光検出装置の制御方法、並びに、測距装置
WO2021161857A1 (ja) 測距装置および測距方法
WO2023281824A1 (ja) 受光装置、測距装置及び受光装置の制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20847342

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021536651

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020847342

Country of ref document: EP

Effective date: 20220228