WO2022254839A1 - 光検出装置及び測距システム - Google Patents

光検出装置及び測距システム Download PDF

Info

Publication number
WO2022254839A1
WO2022254839A1 PCT/JP2022/008765 JP2022008765W WO2022254839A1 WO 2022254839 A1 WO2022254839 A1 WO 2022254839A1 JP 2022008765 W JP2022008765 W JP 2022008765W WO 2022254839 A1 WO2022254839 A1 WO 2022254839A1
Authority
WO
WIPO (PCT)
Prior art keywords
control
signal
unit
failure
light receiving
Prior art date
Application number
PCT/JP2022/008765
Other languages
English (en)
French (fr)
Inventor
周平 大槻
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Priority to EP22815597.4A priority Critical patent/EP4350283A4/en
Priority to JP2023525401A priority patent/JPWO2022254839A1/ja
Priority to CN202280038296.9A priority patent/CN117396775A/zh
Priority to KR1020237039340A priority patent/KR20240018431A/ko
Priority to US18/555,485 priority patent/US20240201338A1/en
Publication of WO2022254839A1 publication Critical patent/WO2022254839A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4861Circuits for detection, sampling, integration or read-out
    • G01S7/4863Detector arrays, e.g. charge-transfer gates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/481Constructional features, e.g. arrangements of optical elements
    • G01S7/4816Constructional features, e.g. arrangements of optical elements of receivers alone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/02Details
    • G01J1/0228Control of working procedures; Failure detection; Spectral bandwidth calculation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/4865Time delay measurement, e.g. time-of-flight measurement, time of arrival measurement or determining the exact position of a peak
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/68Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects
    • H04N25/683Noise processing, e.g. detecting, correcting, reducing or removing noise applied to defects by defect estimation performed on the scene signal, e.g. real time or on the fly detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/705Pixels for depth measurement, e.g. RGBZ
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/79Arrangements of circuitry being divided between different or multiple substrates, chips or circuit boards, e.g. stacked image sensors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • G01J2001/4413Type
    • G01J2001/442Single-photon detection or photon counting
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J1/00Photometry, e.g. photographic exposure meter
    • G01J1/42Photometry, e.g. photographic exposure meter using electric radiation detectors
    • G01J1/44Electric circuits
    • G01J2001/4446Type of detector
    • G01J2001/446Photodiode
    • G01J2001/4466Avalanche

Definitions

  • the present disclosure relates to a photodetector and a ranging system.
  • a SPAD Single Photon Avalanche Diode
  • a single light (photon) is incident, and electrons (charges) generated by photoelectric conversion are multiplied in the PN junction region (avalanche amplification) to detect light with high accuracy. can be done.
  • the distance can be measured with high accuracy by detecting the timing at which the current due to the multiplied electrons flows.
  • JP 2020-143996 A Japanese Patent Application Laid-Open No. 2020-112528 Japanese Unexamined Patent Application Publication No. 2020-112501
  • the range finder described above if there is a failure in the control line that electrically connects the control unit that controls each light receiving element, etc., the range finder is not properly controlled, and the light receiving element pixel signals may contain errors. Furthermore, in such a case, it will lead to malfunction of the system (automatic driving system etc.) using the distance measurement information by the distance measuring device. Therefore, there is a strong demand for a range finder to detect such failures in the control line as described above.
  • the present disclosure proposes a photodetector and a ranging system capable of detecting failures in control lines.
  • a light receiving section including a pixel array section composed of a plurality of light receiving elements arranged in a matrix, a control signal generating section for generating a control signal, and electrically connected to the light receiving section via a control line.
  • a control unit for controlling the light receiving unit based on the control signal;
  • a processing unit electrically connected to the light receiving unit via a signal line for processing an output signal from the light receiving unit; and detecting a failure.
  • a failure determination unit wherein the failure determination unit detects a failure of the control line based on the output signal from the light receiving unit controlled based on a failure detection control signal having a predetermined pattern;
  • an illumination device that emits irradiation light and a photodetector that receives reflected light of the irradiation light reflected by an object are included, and the photodetector includes a plurality of photodetectors arranged in a matrix.
  • a light-receiving portion including a pixel array portion composed of light-receiving elements; a control signal generating portion for generating a control signal; a control unit that is electrically connected to the light receiving unit via a signal line and processes an output signal from the light receiving unit; and a failure determination unit that detects a failure, wherein the failure determination unit provides a distance measuring system that detects a failure of the control line from the output signal from the light receiving section controlled based on a failure detection control signal having a predetermined pattern.
  • FIG. 4 is a diagram schematically illustrating ranging by a direct ToF method applicable to embodiments of the present disclosure
  • FIG. 5 is a diagram showing an example histogram based on the time when a light receiving unit receives light, applicable to the embodiment of the present disclosure
  • 1 is a block diagram showing an example of a configuration of a ranging system to which embodiments of the present disclosure can be applied
  • FIG. 1 is a block diagram showing an example of a configuration of a distance measuring device to which embodiments of the present disclosure can be applied
  • FIG. 1 is a circuit diagram showing an example of a configuration of a pixel circuit to which an embodiment of the present disclosure can be applied
  • FIG. 4 is an explanatory diagram showing an example of connection between a plurality of pixel circuits to which the embodiment of the present disclosure can be applied;
  • 1 is a schematic diagram showing an example of a layered structure of a distance measuring device to which an embodiment of the present disclosure can be applied;
  • FIG. 1 is a block diagram showing a configuration of part of a distance measuring device according to an embodiment of the present disclosure;
  • FIG. 1 is an explanatory diagram for explaining an outline of an embodiment of the present disclosure;
  • FIG. 4 is a flow chart of a processing procedure according to an embodiment of the present disclosure;
  • FIG. 4 is a flowchart for explaining an outline of a flow of SPAD access check according to an embodiment of the present disclosure;
  • FIG. 4 is a table showing control signal patterns for fault checking of the I_SPAD line;
  • FIG. 10 is an explanatory diagram for explaining details of control signal patterns for failure checking of the EN_VLINE line and the EN_AREA line;
  • FIG. 10 is a table showing control signal patterns for fault checking of the ACT_SPAD_V line and the ACT_SPAD_H line;
  • FIG. 10 is an explanatory diagram for explaining details of control signal patterns for failure check of the ACT_SPAD_V line and the ACT_SPAD_H line; 4 is a table showing control signal patterns for failure check of a downsampling circuit; FIG. 10 is an explanatory diagram for explaining details of a control signal pattern for failure check of the downsampling circuit; FIG. 10 is a diagram showing an example of a timing chart when a failure is detected; 1 is a block diagram showing a configuration example of a vehicle control system; FIG. FIG. 4 is a diagram showing an example of a sensing area;
  • electrically connected refers to a connection in which electricity (signal) is conducted between a plurality of elements. means that in addition, "electrically connected” in the following description includes not only the case of directly and electrically connecting a plurality of elements, but also the case of indirectly and electrically connecting a plurality of elements through other elements. It also includes the case of connecting to
  • the present disclosure relates to technology for distance measurement using light.
  • a direct ToF (Time of Flight) method is applied as a ranging method.
  • the direct ToF method the light emitted from the light source is reflected by the object to be measured, and the reflected light is received by a light-receiving element (specifically, a SPAD), and distance measurement is performed based on the time difference between the light emission timing and the light reception timing. It is a method to perform
  • FIG. 1 is a diagram schematically showing distance measurement by the direct ToF method applicable to the embodiment of the present disclosure
  • FIG. 3 shows an example histogram based on FIG.
  • the distance measuring device 300 includes a light source section (illumination device) 301 and a light receiving section 302 .
  • the light source unit 301 is, for example, a laser diode, and is driven to emit pulsed laser light. Light emitted from the light source unit 301 is reflected by the object to be measured (subject) 303 and received by the light receiving unit 302 as reflected light.
  • the light receiving unit 302 includes a plurality of light receiving elements that convert light into electrical signals by photoelectric conversion, and can output pixel signals according to the received light.
  • the time (light emission timing) at which the light source unit 301 emits light is time t 0
  • the time (light reception timing) at which the light receiving unit 302 receives the light emitted from the light source unit 301 and reflected by the object 303 to be measured be time t1 .
  • the constant c is the speed of light (2.9979 ⁇ 10 8 [m/sec]
  • the distance D between the rangefinder 300 and the object 303 is given by the following equation (1).
  • Range finder 300 can repeat the above process multiple times.
  • the light receiving unit 302 may include a plurality of light receiving elements, and the distance D may be calculated based on each light receiving timing when the reflected light is received by each light receiving element.
  • the distance measuring device 300 classifies the time tm (referred to as the light receiving time tm ) from the time t 0 of the light emission timing to the light receiving timing when the light is received by the light receiving unit 302 based on the class (bins), Generate a histogram.
  • the light received by the light receiving unit 302 at the light receiving time tm is not limited to the light emitted by the light source unit 301 and reflected by the object 303 to be measured.
  • ambient light around the distance measuring device 300 (light receiving unit 302 ) is also received by the light receiving unit 302 .
  • a bin is obtained by classifying the light receiving time tm for each predetermined unit time d. Specifically, 0 ⁇ t m ⁇ d for bin #0, d ⁇ t m ⁇ 2 ⁇ d for bin #1, 2 ⁇ d ⁇ t m ⁇ 3 ⁇ d for bin #2, . ⁇ 2) becomes (N ⁇ 2) ⁇ d ⁇ t m ⁇ (N ⁇ 1) ⁇ d.
  • the range finder 300 counts the number of times the light receiving time t m is acquired based on the bin to obtain the frequency 310 for each bin and generates a histogram.
  • the light receiving unit 302 also receives light other than the reflected light that is the reflected light of the light emitted from the light source unit 301 .
  • An example of such light other than the target reflected light is the ambient light described above.
  • the portion indicated by the range 311 in the histogram contains ambient light components due to ambient light. Ambient light is light randomly incident on the light receiving unit 302 and becomes noise for the target reflected light.
  • Reflected light of interest is light received according to a particular distance and appears as the active light component 312 in the histogram.
  • a bin corresponding to the frequency of peaks in the active light component 312 is a bin corresponding to the distance D of the object 303 to be measured.
  • Distance measuring device 300 acquires the representative time of the bin (for example, the time at the center of the bin) as time t1 described above, and calculates the distance D to object 303 according to equation (1) described above. be able to. By using a plurality of light reception results in this way, it is possible to perform appropriate distance measurement even if random noise occurs.
  • FIG. 3 is a block diagram showing an example configuration of a ranging system 90 to which the embodiment of the present disclosure can be applied.
  • the distance measurement system 90 can mainly include a light source section (illumination device) 400 , a distance measurement device 500 , a storage device 600 , a host 700 and an optical system 800 . Each block included in the distance measuring system 90 will be sequentially described below.
  • the light source unit 400 corresponds to the light source unit 301 shown in FIG. 1 described above, is made up of a laser diode or the like, and is driven to emit, for example, pulsed laser light.
  • the light source unit 400 can apply a VCSEL (Vertical Cavity Surface Emitting Laser) that emits laser light as a surface light source.
  • VCSEL Vertical Cavity Surface Emitting Laser
  • an array in which laser diodes are arranged in lines may be used as the light source unit 400, and a configuration in which laser light emitted from the laser diode array is scanned in a direction perpendicular to the lines may be used.
  • a configuration in which a laser diode as a single light source is used as the light source unit 400 and the laser light emitted from the laser diode is scanned in the horizontal and vertical directions may be used.
  • Distance measuring device 500 includes light receiving section 302 of FIG. 1 described above. Further, the light receiving section 302 has a pixel array section (not shown) composed of a plurality of light receiving elements arranged in a two-dimensional grid (matrix) (for example, 189 ⁇ 600). Details of the distance measuring device 500, the light receiving unit 302, and the like will be described later. Furthermore, the optical system 800 can guide external incident light to the pixel array section of the light receiving section 302 of the distance measuring device 500 .
  • the distance measuring device 500 counts the number of acquisitions of time information (light receiving time t m ) indicating the timing at which light is received by the pixel array section within a predetermined time range, and obtains the frequency for each bin to obtain the above-described frequency. generates a histogram with Distance measuring device 500 then calculates distance D to object 303 based on the generated histogram. Information indicating the calculated distance D is stored in the storage device 600, for example.
  • Host 700 can control the overall operation of ranging system 90 .
  • the host 700 supplies a light emission trigger, which is a trigger for causing the light source unit 400 to emit light, to the distance measuring device 500 .
  • the distance measuring device 500 causes the light source section 400 to emit light at the timing based on this light emission trigger, and stores the time t0 indicating the light emission timing.
  • the host 700 may set a pattern for ranging to the ranging device 500 in response to an instruction from the outside, for example.
  • FIG. 4 is a block diagram showing an example of a configuration of a distance measuring device 500 to which embodiments of the present disclosure can be applied.
  • distance measuring device 500 includes light receiving section 502 including pixel array section 510, processing section 530, control section 570, light emission timing control section 580, and interface (I/F) 590. Mainly contains Each block included in the distance measuring device 500 will be described below.
  • the light receiving section 502 includes a pixel array section 510 .
  • the pixel array section 510 has a plurality of SPADs (light receiving elements) 512 arranged in a matrix (for example, arranged in 189 ⁇ 600).
  • Each SPAD 512 is controlled by a control section 570 which will be described later.
  • the control unit 570 can control readout of pixel signals from each SPAD 512 for each block including (p ⁇ q) SPADs 512, p in the row direction and q in the column direction.
  • the control unit 570 can read out pixel signals from each SPAD 512 by scanning each SPAD 512 in the row direction and further in the column direction in units of blocks. Details of the light receiving unit 502 will be described later.
  • processing unit 530 can process pixel signals read from each SPAD 512 via signal lines. As shown in FIG. 4 , processing section 530 includes conversion section 540 , generation section 550 , and signal processing section 560 .
  • pixel signals read from each SPAD 512 and output from the pixel array section 510 are supplied to the conversion section 540 .
  • the conversion section 540 converts the pixel signals supplied from the pixel array section 510 into digital information. Specifically, the conversion section 540 converts the pixel signal supplied from the pixel array section 510 into time information indicating the timing at which the SPAD 512 corresponding to the pixel signal receives light.
  • the generation unit 550 generates a histogram based on the time information when the pixel signal is converted by the conversion unit 540.
  • the signal processing unit 560 performs predetermined arithmetic processing based on the histogram data generated by the generating unit 550, and calculates distance information, for example.
  • the signal processing unit 560 creates an approximate curve of the histogram based on the histogram data generated by the generating unit 550, for example.
  • the signal processing unit 560 can detect the peak of the curve approximated by this histogram, and obtain the distance D (an example of distance measurement information) based on the detected peak.
  • the signal processing unit 560 may perform filter processing on the curve approximated by the histogram when performing the curve approximation of the histogram. For example, the signal processing unit 560 can suppress noise components by applying low-pass filter processing to the histogram-approximated curve.
  • the interface 590 functions as an output section that outputs the distance information supplied from the signal processing section 560 to the outside as output data.
  • MIPI Mobile Industry Processor Interface
  • the distance information is output to the outside via the interface 590 in the above description, it is not limited to this example. That is, the histogram data generated by the generation unit 550 may be output from the interface 590 to the outside. In this case, the histogram data output from the interface 590 is supplied to, for example, an external information processing device and processed as appropriate.
  • control unit 570 can control the light receiving unit 502 and the like based on a control signal and a reference clock signal supplied from the outside, for example, according to a preinstalled program. Furthermore, as described above, the control unit 570 can control a predetermined area of the pixel array unit 510 as a target area and the SPAD 512 included in the target area as a target for reading pixel signals. In addition, the control unit 570 can collectively scan a plurality of rows (plurality of lines), further scan them in the column direction, and read pixel signals from each SPAD 512 .
  • the light emission timing control section 580 generates a light emission control signal indicating light emission timing according to an externally supplied light emission trigger signal.
  • the light emission control signal is supplied to the light source unit 400 and the processing unit 530 .
  • the light receiving unit 502 described above is configured from a plurality of pixel circuits 900 each including a plurality of SPADs 512 . Therefore, an example of the configuration of a pixel circuit 900 to which the embodiments of the present disclosure can be applied will be described with reference to FIGS. 5 and 6.
  • FIG. FIG. 5 is a circuit diagram showing an example of the configuration of a pixel circuit 900 to which the embodiment of the present disclosure can be applied
  • FIG. 6 is an explanatory diagram showing an example of connections between the plurality of pixel circuits 900.
  • the pixel circuit 900 includes a SPAD (light receiving element) 512, transistors 902 and 904, a constant current source 910, switch circuits 920 and 940, an inverter circuit 930, and an OR circuit (logical sum circuit). ) 950.
  • the SPAD 512 is a single photon avalanche diode that converts incident light into an electrical signal by photoelectric conversion and outputs the electrical signal.
  • the SPAD 512 converts incident photons (photons) into electrical signals by photoelectric conversion, and outputs pulses corresponding to incident photons.
  • the SPAD 512 has a characteristic that when a large negative voltage that causes avalanche multiplication is applied to the cathode, electrons generated in response to the incidence of one photon cause avalanche multiplication and a large current flows. By using such characteristics of the SPAD 512, it is possible to detect the incidence of one photon with high sensitivity.
  • the cathode of SPAD 512 is connected to the junction of two transistors 902 and 904 and to the input of inverter circuit 930 . Also, the anode of SPAD 512 is electrically connected to a voltage source of voltage (-Vbd). Voltage (-Vbd) is a large negative voltage for generating avalanche multiplication for SPAD 512 .
  • a transistor 902 is a P-channel MOSFET (Metal Oxide Semiconductor Field Effect Transistor), and a transistor 904 is an N-channel MOSFET, which are electrically connected to each other at their sources and drains. Gates of the transistors 902 and 904 are electrically connected to the switch circuit 920 . Further, the source of transistor 902 is electrically connected to power supply voltage Vdd through constant current source 910 .
  • MOSFET Metal Oxide Semiconductor Field Effect Transistor
  • the switch circuit (driving switch) 920 is composed of a NAND circuit and functions as a switch for driving the SPAD 512 according to the control signal from the control section 570 described above. Specifically, switch circuit 920 controls transistors 902 and 904 to apply a reverse bias to SPAD 512 based on the control signals from the ACT_SPAD_V and ACT_SPAD_H lines (first and third control lines). Then, the SPAD 512 is activated by applying a reverse bias, and when photons are incident on the SPAD 512 in this state, avalanche multiplication starts, and current flows from the cathode to the anode of the SPAD 512 .
  • the ACT_SPAD_V line and the ACT_SPAD_H line can each transmit the control signal of the pixel array section 510 to the switch circuit 920 of the pixel circuit 900 .
  • the ON state/OFF state of the switch circuit 920 can be controlled for each pixel circuit 900 .
  • the ON state of switch circuit 920 can render SPAD 912 active, while the OFF state of switch circuit 920 can render SPAD 912 inactive. Accordingly, power consumption of the SPAD 512 in the pixel array section 510 can be suppressed.
  • the pixel signal from the SPAD 512 is input to the inverter circuit 930 .
  • the inverter circuit 930 performs, for example, threshold determination on the input pixel signal, inverts the signal each time the pixel signal exceeds the threshold in the positive direction or the negative direction, and outputs a pulse signal.
  • a pulse signal output from the inverter circuit 930 is input to a switch circuit (output switch) 940 .
  • the switch circuit 940 is an AND circuit, and functions as a switch that controls the output of the pixel signal from the SPAD 512 according to the control signal from the control section 570 described above. Specifically, the switch circuit 940 outputs the pulse signal to the OR circuit 950 based on the control signals from the EN_VLINE line and the EN_AREA line (second and fourth control lines).
  • the EN_VLINE line and the EN_AREA line can each transmit the control signal of the pixel array section 510 to the switch circuit 940 of the pixel circuit 900 .
  • the ON state/OFF state of the switch circuit 940 can be controlled for each pixel circuit 900, and as a result, the output of each SPAD 512 can be controlled to be enabled/disabled.
  • One input of the OR circuit 950 is the output of the switch circuit 940, and the other input is the output of the switch circuit 940 of the other pixel circuit 900 or the horizontal direction control from the control unit 570 described above.
  • a signal is input via the I_SPAD line (fifth control line).
  • the OR circuit 950 outputs according to the input signal.
  • adjacent SPADs 512 across a predetermined number of rows for example, 20 rows
  • the processing section 530 more specifically, the downsampling circuit (not shown)
  • a plurality of pixel circuits 900 can be connected as shown in FIG. 6, for example, in the case of four SPAD cycles.
  • the distance measuring device 500 to which the embodiments of the present disclosure can be applied can have a laminated structure in which a plurality of semiconductor substrates are laminated. Therefore, with reference to FIG. 7, an example of a laminated structure of a distance measuring device 500 to which an embodiment of the present disclosure can be applied will be described.
  • FIG. 7 is a schematic diagram showing an example of a layered structure of a distance measuring device 500 to which an embodiment of the present disclosure can be applied.
  • the distance measuring device 500 has a laminated structure in which two semiconductor substrates (first and second substrates) 200 and 250 are laminated. These semiconductor substrates 200 and 250 may be called semiconductor chips.
  • the above-described pixel array section 510 is provided on the semiconductor substrate (first substrate) 200 shown on the upper side in FIG. are arranged in a matrix. Also, the transistors 902 and 904, the constant current source 910, the switch circuits 920 and 940, the inverter circuit 930, and the OR circuit 950 in the pixel circuit 900 are provided on the semiconductor substrate 250 shown on the lower side in FIG.
  • the SPAD 512 can be electrically connected to each element on the semiconductor substrate 250 by, for example, CCC (Copper-Copper Connection).
  • a semiconductor substrate 250 is provided with a logic array section 252 including transistors 902 and 904, a constant current source 910, switch circuits 920 and 940, an inverter circuit 930, and an OR circuit 950 in the pixel circuit 900. Furthermore, the semiconductor substrate 250 is provided with a processing unit 530 that processes pixel signals acquired by the SPAD 512 and a control unit 570 that controls the operation of the distance measuring device 500, etc., in proximity to the logic array unit 252. be able to. Control lines such as the ACT_SPAD_V line and ACT_SPAD_H line, the EN_VLINE line, the EN_AREA line, and the I_SPAD line are provided on the semiconductor substrate 250 .
  • the layout on the semiconductor substrates 200 and 250 is not limited to the configuration example shown in FIG. 7, and various layouts can be selected. Furthermore, the distance measuring device 500 is not limited to being formed by laminating a plurality of semiconductor substrates, and may be formed by a single semiconductor substrate.
  • FIG. 8 is a block diagram showing a configuration of part of the distance measuring device 500 according to the embodiment of the present disclosure
  • FIG. 9 is an explanatory diagram for explaining the outline of the embodiment of the present disclosure.
  • the control unit 570 can control the pixel circuit 900 through a plurality of control lines (specifically, the ACT_SPAD_V line and ACT_SPAD_H line, the EN_VLINE line, the EN_AREA line, the I_SPAD line, etc.). can.
  • the pixel signal from the pixel circuit 900 may contain an error due to improper control as described above.
  • the system using the distance measurement information from the distance measuring device 500 may malfunction. Therefore, the distance measuring device 500 is strongly required to detect the failure of the control line as described above.
  • faults in control lines can be detected.
  • a fault detection control signal having a predetermined pattern is generated in order to detect a fault in the control line.
  • the controller 570 controls the pixel circuit 900 based on the control signal.
  • the failure determination unit 534 provided in the processing unit 530 the pixel signal output from the pixel circuit 900 controlled based on the failure detection control signal is acquired, and the expected output value of the acquired pixel signal is determined. If it is different from , it is determined that there is a failure in the control line, and the host 700 or the like is notified.
  • the present disclosure created by the present inventor, it is possible to detect a failure in the control line. Furthermore, according to the present embodiment, the above failure can be detected by the distance measuring device 500 alone without receiving an instruction from the host 700 while the distance measuring device 500 is in operation. In addition, in the present embodiment, it is not necessary to irradiate the light receiving unit 502 (pixel array unit 510) with light, and it is not necessary to obtain a signal serving as a reference for determination in advance, thereby facilitating failure detection. It can be carried out. The details of each embodiment of the present disclosure will be sequentially described below.
  • distance measuring device 500 mainly includes pixel circuit 900 , control section 570 , and processing section 530 .
  • control section 570 controls the processing section 530 .
  • processing section 530 processing section 530 .
  • each block included in the range finder 500 will be described in order, but the description of the parts overlapping with the range finder 500 described so far will be omitted.
  • the pixel circuit 900 includes a SPAD (light receiving element) 512 , switch circuits 920 and 940 and an OR circuit (logical sum circuit) 950 .
  • a switch circuit (drive switch) 920 drives the SPAD 512 by control signals from the vertical control section 572 and the horizontal control section 574 of the control section 570 via the ACT_SPAD_V line and the ACT_SPAD_H line (first and third control lines).
  • the switch circuit (output switch) 940 switches the SPAD 512 according to control signals from the vertical control unit 572 and the horizontal control unit 574 of the control unit 570 via the EN_VLINE line and the EN_AREA line (second and fourth control lines). It functions as a switch that controls the output of pixel signals from.
  • an OR circuit (logical sum circuit) 950 downsamples the pixel signals of the SPAD 512 to the processing section 530 according to the control signal from the vertical control section 572 of the control section 570 via the I_SPAD line (fifth control line). It can be output to circuit 532 .
  • the downsampling circuit 532 may include a column shift circuit (not shown) that removes noise.
  • the controller 570 includes a vertical controller (row-direction readout controller) 572 , a horizontal controller (column-direction readout controller) 574 , and a control signal generator 576 .
  • the vertical control unit 572 can control the pixel circuits 900 (specifically, the operation and output of the SPAD 512) in the vertical direction, that is, in units of rows.
  • the vertical control section 572 can also control the OR circuit 950 described above.
  • the horizontal control section 574 can control the pixel circuits 900 (more specifically, the operation and output of the SPAD 512) in the horizontal direction, that is, in units of columns.
  • control signal generator 576 can generate a control signal and output it to the vertical controller 572 and the horizontal controller 574 described above. Specifically, the control signal generation unit 576 generates a failure detection control signal having a predetermined pattern, for example, in order to detect failures in various control lines, and sends the above-described vertical control unit 572 and horizontal control unit 574 can be output.
  • the processing section 530 mainly includes a downsampling circuit 532 and a failure determination section 534 .
  • the down-sampling circuit 532 converts the pixel signal read from the pixel circuit 900 through the signal line and subjected to signal processing such as noise removal in a column shift circuit (not shown) into a digital signal. Furthermore, the down-sampling circuit 532 outputs the pixel signal converted into a digital signal to the failure determination section 534, which will be described later.
  • the failure determination unit 534 acquires a pixel signal (output signal) from the pixel circuit 900 controlled by the failure detection control signal, determines whether the acquired pixel signal is different from an expected output value, and determines whether the acquired pixel signal is different from an expected output value. In this case, it is determined that the control line is faulty, and notifies the host 700 or the like.
  • the present embodiment is not limited to the configuration of FIG. 8 showing the essential parts of the configuration of the distance measuring device 500, and other elements and the like may be added.
  • FIG. 10 is a flow chart of processing procedures according to this embodiment.
  • the processing procedure according to this embodiment can mainly include a plurality of steps from step S101 to step S107. Details of each of these steps according to the present embodiment will be described below.
  • the processing for failure detection according to the present embodiment is performed while the ranging device 500 is in operation and the frame synchronization signal is inactive. Furthermore, the process is repeatedly performed at a suitable frequency while the distance measuring device 500 is in operation.
  • the ranging device 500 determines the content of failure detection (step S101). For example, in the present embodiment, in addition to detection of control line failure (SPAD access check), failure of the processing unit 530 may be detected (data path check), and failure of the pixel circuit 900 (light receiving unit) may be detected. It may be detected (SPAD check). In this embodiment, if the processing unit 530 breaks down, it may become impossible to detect a fault in the control line or the pixel circuit 900, so it is preferable to first perform the data path check. That is, it is preferable to perform the SPAD access check and the SPAD check in this order following the data path check.
  • the order of the SPAD access check and the SPAD check is not limited, and the order may be reversed, and only one of the failure detections may be performed. In this embodiment, it is possible to select whether to execute each fault detection by the enable register corresponding to each fault detection.
  • the distance measuring device 500 generates a failure detection control signal having a predetermined pattern for performing failure detection in a predetermined order based on the determination in step S101 described above (step S102). For example, when the data path check, SPAD access check, and SPAD check are performed in this order, the control signal for data path check, the control signal for SPAD access check, and the control signal for SPAD check should follow within the control signal for failure detection. becomes.
  • the distance measuring device 500 performs control for failure detection using the failure detection control signal generated in step S102 (step S103).
  • the distance measuring device 500 acquires pixel signals from the SPAD 512 under the control in step S103 described above (step S104).
  • the ranging device 500 determines whether or not a failure has been detected (step S105). Specifically, the distance measuring device 500 determines that a failure has been detected, for example, when the pixel signal acquired in step S104 described above is different from the expected output value. If the ranging device 500 determines that a failure has been detected (step S105: Yes), it proceeds to the processing of step S106. Proceed to processing.
  • the range finder 500 notifies the host 700 and the like of the result indicating that a failure has been detected (step S106). For example, when a failure is detected, a Low level signal may be output from a predetermined output terminal (error output terminal) of the distance measuring device 500 . Further, when a failure is detected, an ON signal (High level signal) may be written in an area indicating an error status in the status signal indicating the state of the ranging device 500 transmitted from the ranging device 500 to the host 700. Information indicating an error may be written on the signal (MIPI data) output from the interface 590 . Such information may not only be notified to the host 700, but may also be stored in a memory or the like (not shown).
  • the ranging device 500 may notify detailed information such as information as to whether or not failure is detected in any of the data path check, SPAD access check, and SPAD check.
  • the distance measuring device 500 outputs the processing result of the pixel signal acquired in step S104 described above, and ends the series of processing (step S107). It should be noted that, in the present embodiment, as described above, a series of processes are repeatedly performed at a suitable frequency while the distance measuring device 500 is operating.
  • FIG. 11 is a flowchart for explaining an overview of the SPAD access check flow according to this embodiment.
  • the SPAD access check primarily detects control line failures, as described above.
  • a check is performed to detect failure of the I_SPAD line (fifth control line) connecting the OR circuit (logical sum circuit) 950 and the vertical control section 572 and the like.
  • a check is performed to detect failures in the EN_VLINE and EN_AREA lines (second and fourth control lines) connecting the switch circuit 940 and the vertical control section 572 and the horizontal control section 574 of the control section 570 .
  • the ACT_SPAD_V line and the ACT_SPAD_H line first and third control lines connecting the switch circuit 920 and the vertical control section 572 and the horizontal control section 574 of the control section 570 are checked for failure detection.
  • checks are made to detect failures in the downsampling circuit 532 .
  • the order is not limited to that shown in FIG. 11, and the order may be changed.
  • the check may be stopped when a failure is detected; is preferred. By doing so, it is possible to recognize the failure point while shortening the check time. Details of each stage of the SPAD access check will be described below.
  • FIG. 12 is a table showing a control signal pattern (first signal) for failure check of the I_SPAD line
  • FIG. 13 is an explanation for explaining details of the control signal pattern for failure check of the I_SPAD line. It is a diagram.
  • test #1 of FIG. 12 all target regions (all pixel circuits 900 including the I_SPAD line) are short-circuited with the power supply voltage (fixed at High level). Specifically, the control signals from the vertical control section 572 and the horizontal control section 574 to the switch circuits 920 and 940 through the ACT_SPAD_V line, ACT_SPAD_H line, EN_VLINE line, and EN_AREA line are set to Low level. Further, the control signal from the vertical control section 572 to the OR circuit 950 through the I_SPAD line is set to Low level. At this time, if a pixel signal corresponding to the short circuit with the power supply voltage is output, it can be confirmed that the electrical connection of the I_SPAD line is secured, that is, there is no failure.
  • pattern A Used as a control signal from the vertical control section 572 to the circuit 950 via the I_SPAD line.
  • pattern A As shown in the upper part of FIG. 13, in a plurality of I_SPAD lines located in the same hierarchy, two I_SPAD lines in the OFF state are arranged between the I_SPAD lines in the ON state, A pattern is prepared that does not match the state of adjacent I_SPAD lines located in different hierarchies.
  • pattern B as shown in the lower part of FIG. 13, the pattern A is horizontally shifted one by one. Detectable locations in each pattern are locations indicated by solid lines in FIG. 13 .
  • the control signals from the vertical control unit 572 and horizontal control unit 574 to the switch circuits 920 and 940 through the ACT_SPAD_V line, ACT_SPAD_H line, EN_VLINE line, and EN_AREA line are set to Low level. .
  • a pixel signal corresponding to the electrical connection of patterns A and B shown in FIG. 13 is output, it can be confirmed that the electrical connection of the I_SPAD line is secured, that is, there is no failure. It will happen.
  • FIG. 14 is a table showing control signal patterns (second signals) for failure checking of the EN_VLINE and EN_AREA lines
  • FIG. 15 is a detailed control signal pattern for failure checking of the EN_VLINE and EN_AREA lines. It is an explanatory view for explaining.
  • the EN_VLINE line connected to the switch circuits 940 of all the target regions (all pixel circuits 900) is shorted to the power supply voltage (fixed to High level), and the power supply voltage and the EN_VLINE line are electrically connected.
  • the control signals from the vertical control section 572 and the horizontal control section 574 to the switch circuits 920 of all target regions (all pixel circuits 900) through the ACT_SPAD_V line and the ACT_SPAD_H line are set to Low level.
  • the control signal from the horizontal control unit 574 to the switch circuits 940 of all the target areas (all the pixel circuits 900) through the EN_AREA line is set to Low level, and all the target areas (all the pixel circuits 900)
  • the control signal from the vertical control section 572 to the switch circuit 940 through the EN_VLINE line is set to High level.
  • the EN_AREA lines connected to the switch circuits 940 of all target regions (all pixel circuits 900) are shorted to the power supply voltage (fixed at a high level), and the power supply voltage and the EN_AREA lines are electrically connected.
  • the control signal from the vertical control unit 572 to the switch circuit 940 of all the target regions (all the pixel circuits 900) through the EN_VLINE line is set to Low level, and all the target regions (all the pixel circuits 900)
  • the control signal from the horizontal control unit 574 to the switch circuit 940 through the EN_AREA line is set to High level.
  • a pixel signal corresponding to the short-circuit with the power supply voltage is output, it can be confirmed that the electrical connection of the EN_AREA line is secured, that is, there is no failure.
  • each target area of 21 columns and rows (21 rows of pixel circuits 900) is shorted to GND (fixed at Low level).
  • GND fixed at Low level.
  • the control signals from the vertical control section 572 and the horizontal control section 574 to the switch circuits 920 of all target regions (all pixel circuits 900) through the ACT_SPAD_V line and the ACT_SPAD_H line are set to Low level.
  • the control signal from the vertical control section 572 to the switch circuit 940 of each target region (the pixel circuits 900 for a predetermined row) through the EN_VLINE line is set to High level, and all the target regions (all the pixel circuits 900), the control signal from the horizontal control unit 574 to the switch circuit 940 via the EN_AREA line is set to High level.
  • the electrical connection between the EN_VLINE line and the EN_AREA line in the target area (the pixel circuits 900 for a predetermined row) is secured. It can be done, that is, there is no failure.
  • test #12 in FIG. 14 the electrical connection in the column direction of the target area from row 0 to row 20 (the pixel circuits 900 from row 0 to row 20) is confirmed. Specifically, the control signals from the vertical control section 572 and the horizontal control section 574 to the switch circuits 920 of all target regions (all pixel circuits 900) through the ACT_SPAD_V line and the ACT_SPAD_H line are set to Low level.
  • the control signal from the vertical control unit 572 to the switch circuit 940 of the target area from the 0th row to the 20th row (the pixel circuit 900 from the 0th row to the 20th row) through the EN_VLINE line is set to High level
  • FIG. 16 is a table showing control signal patterns (third signals) for failure checking of the ACT_SPAD_V line and ACT_SPAD_H line
  • FIG. 17 is a detailed control signal pattern for failure checking of the ACT_SPAD_V line and ACT_SPAD_H line. It is an explanatory view for explaining.
  • the electrical connection of the ACT_SPAD_V line and ACT_SPAD_H line to the power supply voltage and GND is checked, but here, if even one connection line failure is detected, it is determined to be a failure.
  • detection is performed in a state where all target regions (all pixel circuits 900) are short-circuited with GND (fixed at Low level), and then, as shown on the right side of FIG. Detection is performed in a state of being short-circuited with the power supply voltage in the row direction and column direction (fixed at high level) for each target region of every 21 rows. Note that, for example, in the H level fixation, a failure can be detected when a Low level signal is output.
  • test #1 of FIG. 16 as shown on the left side of FIG. 17, all target regions (all pixel circuits 900) are shorted to GND (fixed at Low level).
  • the control signals through the ACT_SPAD_V line, ACT_SPAD_H line, EN_VLINE line, and EN_AREA line from the vertical control unit 572 and the horizontal control unit 574 are set to High level. At this time, when a High level signal is output, failures in the ACT_SPAD_H line and the ACT_SPAD_V line can be detected.
  • the electrical connection with the power supply voltage in the row direction of the target area (pixel circuits 900 for 21 rows) every 21 rows is confirmed (fixed at high level).
  • the control signal from the vertical control unit 572 to the switch circuits 920 of all target regions (all pixel circuits 900) through the ACT_SPAD_V line is set to Low level
  • all target regions (all pixel circuits 900 ) from the horizontal control unit 574 to the switch circuit 920 via the ACT_SPAD_H line is set to a high level.
  • the control signal from the vertical control unit 572 to the switch circuit 940 of the target region (pixel circuit 900 for 21 rows) for every 21 rows is set to High level via the EN_VLINE line, and all target regions (all pixels
  • the control signal from the horizontal control section 574 to the switch circuit 940 of the circuit 900) through the EN_AREA line is set to High level.
  • a failure of the ACT_SPAD_V line in the target area can be detected.
  • the electrical connection with the power supply voltage in the column direction of the target area (pixel circuits 900 for 21 rows) for every 21 rows is confirmed (High level fixation).
  • the control signal from the vertical control section 572 to the switch circuits 920 of all target regions (all pixel circuits 900) through the ACT_SPAD_V line is set to High level
  • all target regions (all pixel circuits 900 ) from the horizontal control unit 574 to the switch circuit 920 via the ACT_SPAD_H line is set to Low level.
  • the control signal from the vertical control unit 572 to the switch circuit 940 of the target region (pixel circuit 900 for 21 rows) for every 21 rows is set to High level via the EN_VLINE line, and all target regions (all pixels
  • the control signal from the horizontal control section 574 to the switch circuit 940 of the circuit 900) through the EN_AREA line is set to High level.
  • a failure of the ACT_SPAD_H line in the target area can be detected.
  • FIG. 18 is a table showing control signal patterns (fourth signals) for failure checking of the downsampling circuit 532, and FIG. It is an explanatory view for explaining details.
  • failures of the downsampling circuits 532 corresponding to the sequentially selected target regions are sequentially detected.
  • the presence or absence of failures in the column direction of target regions of rows 0 to 20 is sequentially checked.
  • the ACT_SPAD_V and ACT_SPAD_H lines from the vertical control section 572 and the horizontal control section 574 to the switch circuits 920 of all target regions (all pixel circuits 900) are connected.
  • the control signal through it is set to Low level.
  • the control signal from the vertical control section 572 to the switch circuit 940 of the target area of rows 0 to 20 (pixel circuits 900 of rows 0 to 20) through the EN_VLINE line is set to High level.
  • the control signal from the horizontal control section 574 to the switch circuit 940 via the EN_AREA line is set to High level for each of the plurality of columns.
  • the control signal is sequentially set to High level while shifting the columns horizontally. At this time, if a pixel signal corresponding to the control signal pattern shown in FIG. 18 is output, it means that the down-sampling circuit 532 has no failure.
  • a signal indicating that a failure has been detected is output only when a failure is detected after performing a series of detections.
  • a Low level signal is output from a predetermined output terminal (error output terminal) of the distance measuring device 500. may be output.
  • An ON signal (High level signal) may be written.
  • failures in control lines can be detected.
  • the above failure can be detected by the distance measuring device 500 alone without receiving an instruction from the host 700 while the distance measuring device 500 is in operation.
  • FIG. 21 is a block diagram showing a configuration example of a vehicle control system 11, which is an example of a mobile device control system to which the present technology is applied.
  • the vehicle control system 11 is provided in the vehicle 1 and performs processing related to driving support and automatic driving of the vehicle 1.
  • the vehicle control system 11 includes a vehicle control ECU (Electronic Control Unit) 21, a communication unit 22, a map information accumulation unit 23, a position information acquisition unit 24, an external recognition sensor 25, an in-vehicle sensor 26, a vehicle sensor 27, a storage unit 28, a travel It has a support/automatic driving control unit 29 , a DMS (Driver Monitoring System) 30 , an HMI (Human Machine Interface) 31 , and a vehicle control unit 32 .
  • Vehicle control ECU 21, communication unit 22, map information storage unit 23, position information acquisition unit 24, external recognition sensor 25, in-vehicle sensor 26, vehicle sensor 27, storage unit 28, driving support/automatic driving control unit 29, driver monitoring system ( DMS) 30 , human machine interface (HMI) 31 , and vehicle control unit 32 are connected via a communication network 41 so as to be able to communicate with each other.
  • the communication network 41 is, for example, a CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), Ethernet (registered trademark), and other digital two-way communication standards. It is composed of a communication network, a bus, and the like.
  • the communication network 41 may be used properly depending on the type of data to be transmitted.
  • CAN may be applied to data related to vehicle control
  • Ethernet may be applied to large-capacity data.
  • each unit of the vehicle control system 11 communicates without the communication network 41, for example, near field communication (NFC (Near Field Communication)) or Bluetooth (registered trademark), which is assumed to be relatively short-distance communication. They may be directly connected using communications.
  • NFC Near Field Communication
  • Bluetooth registered trademark
  • the vehicle control ECU 21 is composed of various processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).
  • the vehicle control ECU 21 can control the functions of the entire vehicle control system 11 or a part of the functions.
  • the communication unit 22 can communicate with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmit and receive various data. At this time, the communication unit 22 may perform communication using a plurality of communication methods.
  • the communication unit 22 uses a wireless communication method such as 5G (5th generation mobile communication system), LTE (Long Term Evolution), DSRC (Dedicated Short Range Communications), etc., via a base station or access point, on an external network can communicate with a server (hereinafter referred to as an external server) located in the
  • the external network with which the communication unit 22 communicates is, for example, the Internet, a cloud network, or a provider's own network.
  • the communication method that the communication unit 22 performs with the external network is not particularly limited as long as it is a wireless communication method that enables digital two-way communication at a communication speed of a predetermined value or more and a distance of a predetermined value or more.
  • the communication unit 22 can communicate with a terminal existing in the vicinity of the own vehicle using P2P (Peer To Peer) technology.
  • Terminals in the vicinity of one's own vehicle are, for example, terminals worn by pedestrians, bicycles, and other moving objects that move at relatively low speeds, terminals installed at fixed locations in stores, etc., or MTC (Machine Type Communication) terminal.
  • the communication unit 22 can also perform V2X communication.
  • V2X communication includes, for example, vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside equipment, etc., and vehicle-to-home communication , and communication between the vehicle and others, such as vehicle-to-pedestrian communication with a terminal or the like possessed by a pedestrian.
  • the communication unit 22 can receive from the outside a program for updating the software that controls the operation of the vehicle control system 11 (Over The Air). Furthermore, the communication unit 22 can receive map information, traffic information, information around the vehicle 1, and the like from the outside. Further, for example, the communication unit 22 can transmit information about the vehicle 1, information about the surroundings of the vehicle 1, and the like to the outside. The information about the vehicle 1 that the communication unit 22 transmits to the outside includes, for example, data indicating the state of the vehicle 1, recognition results by the recognition unit 73, and the like. Furthermore, for example, the communication unit 22 can also perform communication corresponding to a vehicle emergency call system such as e-call.
  • a vehicle emergency call system such as e-call.
  • the communication unit 22 can also receive electromagnetic waves transmitted by a vehicle information and communication system (VICS (registered trademark)) such as radio beacons, optical beacons, and FM multiplex broadcasting.
  • VICS vehicle information and communication system
  • the communication unit 22 can communicate with each device in the vehicle using, for example, wireless communication.
  • the communication unit 22 performs wireless communication with devices in the vehicle using a communication method such as wireless LAN, Bluetooth, NFC, and WUSB (Wireless USB) that enables digital two-way communication at a communication speed higher than a predetermined value. can be done.
  • the communication unit 22 can also communicate with each device in the vehicle using wired communication.
  • the communication unit 22 can communicate with each device in the vehicle by wired communication via a cable connected to a connection terminal (not shown).
  • the communication unit 22 performs digital two-way communication at a predetermined communication speed or higher by wired communication, such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), and MHL (Mobile High-Definition Link). can communicate with each device in the vehicle.
  • wired communication such as USB (Universal Serial Bus), HDMI (High-Definition Multimedia Interface) (registered trademark), and MHL (Mobile High-Definition Link).
  • equipment in the vehicle refers to equipment that is not connected to the communication network 41 in the vehicle, for example.
  • in-vehicle devices include mobile devices and wearable devices possessed by passengers such as drivers, information devices that are brought into the vehicle and temporarily installed, and the like.
  • the map information accumulation unit 23 can accumulate one or both of a map obtained from the outside and a map created by the vehicle 1. For example, the map information accumulation unit 23 accumulates a three-dimensional high-precision map, a global map covering a wide area, and the like, which is lower in accuracy than the high-precision map.
  • High-precision maps are, for example, dynamic maps, point cloud maps, vector maps, etc.
  • the dynamic map is, for example, a map consisting of four layers of dynamic information, quasi-dynamic information, quasi-static information, and static information, and is provided to the vehicle 1 from an external server or the like.
  • a point cloud map is a map composed of a point cloud (point cloud data).
  • a vector map is a map adapted to ADAS (Advanced Driver Assistance System) and AD (Autonomous Driving) by associating traffic information such as lane and traffic signal positions with a point cloud map.
  • the point cloud map and the vector map may be provided from an external server or the like, and based on the sensing results of the camera 51, radar 52, LiDAR 53, etc., as a map for matching with a local map described later. It may be created by the vehicle 1 and stored in the map information storage unit 23 . Further, when a high-precision map is provided from an external server or the like, in order to reduce the communication capacity, map data of, for example, several hundred meters square, regarding the planned route that the vehicle 1 will travel from now on, is acquired from the external server or the like. .
  • the location information acquisition unit 24 can receive GNSS signals from GNSS (Global Navigation Satellite System) satellites and acquire location information of the vehicle 1 .
  • the acquired position information is supplied to the driving support/automatic driving control unit 29 .
  • the location information acquisition unit 24 is not limited to the method using GNSS signals, and may acquire location information using beacons, for example.
  • the external recognition sensor 25 has various sensors used to recognize the situation outside the vehicle 1 and can supply sensor data from each sensor to each part of the vehicle control system 11 .
  • the types and number of sensors included in the external recognition sensor 25 are not particularly limited.
  • the external recognition sensor 25 has a camera 51 , a radar 52 , a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 53 , and an ultrasonic sensor 54 .
  • the configuration is not limited to this, and the external recognition sensor 25 may have one or more sensors among the camera 51 , radar 52 , LiDAR 53 , and ultrasonic sensor 54 .
  • the numbers of cameras 51 , radars 52 , LiDARs 53 , and ultrasonic sensors 54 are not particularly limited as long as they are realistically installable in the vehicle 1 .
  • the type of sensor provided in the external recognition sensor 25 is not limited to this example, and the external recognition sensor 25 may have other types of sensors. An example of the sensing area of each sensor included in the external recognition sensor 25 will be described later.
  • the imaging method of the camera 51 is not particularly limited.
  • cameras of various shooting methods such as a ToF (Time of Flight) camera, a stereo camera, a monocular camera, and an infrared camera, which are shooting methods capable of distance measurement, can be applied to the camera 51 as necessary.
  • the camera 51 is not limited to this, and may simply acquire a photographed image regardless of distance measurement.
  • the external recognition sensor 25 can have an environment sensor for detecting the environment for the vehicle 1 .
  • the environment sensor is a sensor for detecting the environment such as weather, climate, brightness, etc., and can include various sensors such as raindrop sensors, fog sensors, sunshine sensors, snow sensors, and illuminance sensors.
  • the external recognition sensor 25 has a microphone used for detecting sounds around the vehicle 1 and the position of the sound source.
  • the in-vehicle sensor 26 has various sensors for detecting information inside the vehicle, and can supply sensor data from each sensor to each part of the vehicle control system 11 .
  • the types and number of various sensors included in the in-vehicle sensor 26 are not particularly limited as long as they are the types and number that can be realistically installed in the vehicle 1 .
  • the in-vehicle sensor 26 can have one or more sensors among cameras, radar, seating sensors, steering wheel sensors, microphones, and biosensors.
  • the camera provided in the in-vehicle sensor 26 for example, cameras of various shooting methods capable of distance measurement, such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera, can be used.
  • the camera included in the in-vehicle sensor 26 is not limited to this, and may simply acquire a photographed image regardless of distance measurement.
  • the biosensors included in the in-vehicle sensor 26 are provided, for example, on a seat, a steering wheel, or the like, and detect various biometric information of a passenger such as a driver.
  • the vehicle sensor 27 has various sensors for detecting the state of the vehicle 1 and can supply sensor data from each sensor to each part of the vehicle control system 11 .
  • the types and number of various sensors included in the vehicle sensor 27 are not particularly limited as long as the types and number are practically installable in the vehicle 1 .
  • the vehicle sensor 27 can have a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU (Inertial Measurement Unit)) integrating them.
  • the vehicle sensor 27 has a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of operation of the accelerator pedal, and a brake sensor that detects the amount of operation of the brake pedal.
  • the vehicle sensor 27 includes a rotation sensor that detects the number of rotations of an engine or a motor, an air pressure sensor that detects tire air pressure, a slip rate sensor that detects a tire slip rate, and a wheel speed sensor that detects the rotational speed of a wheel. It has a sensor.
  • the vehicle sensor 27 has a battery sensor that detects the remaining battery level and temperature, and an impact sensor that detects external impact.
  • the storage unit 28 includes at least one of a nonvolatile storage medium and a volatile storage medium, and can store data and programs.
  • the storage unit 28 is used, for example, as EEPROM (Electrically Erasable Programmable Read Only Memory) and RAM (Random Access Memory), and as a storage medium, magnetic storage devices such as HDD (Hard Disc Drive), semiconductor storage devices, optical storage devices, And a magneto-optical storage device can be applied.
  • the storage unit 28 stores various programs and data used by each unit of the vehicle control system 11 .
  • the storage unit 28 has an EDR (Event Data Recorder) and a DSSAD (Data Storage System for Automated Driving), and stores information of the vehicle 1 before and after an event such as an accident and information acquired by the in-vehicle sensor 26. .
  • EDR Event Data Recorder
  • DSSAD Data Storage System for Automated Driving
  • the driving support/automatic driving control unit 29 can control driving support and automatic driving of the vehicle 1 .
  • the driving support/automatic driving control unit 29 has an analysis unit 61 , an action planning unit 62 , and an operation control unit 63 .
  • the analysis unit 61 can analyze the vehicle 1 and its surroundings.
  • the analysis unit 61 has a self-position estimation unit 71 , a sensor fusion unit 72 and a recognition unit 73 .
  • the self-position estimation unit 71 can estimate the self-position of the vehicle 1 based on the sensor data from the external recognition sensor 25 and the high-precision map accumulated in the map information accumulation unit 23. For example, the self-position estimation unit 71 generates a local map based on sensor data from the external recognition sensor 25, and estimates the self-position of the vehicle 1 by matching the local map and the high-precision map.
  • the position of the vehicle 1 can be based on, for example, the rear wheel-to-axle center.
  • a local map is, for example, a three-dimensional high-precision map created using techniques such as SLAM (Simultaneous Localization and Mapping), an occupancy grid map, or the like.
  • the three-dimensional high-precision map is, for example, the point cloud map described above.
  • the occupancy grid map is a map that divides the three-dimensional or two-dimensional space around the vehicle 1 into grids (lattice) of a predetermined size and shows the occupancy state of objects in grid units.
  • the occupancy state of an object is indicated, for example, by the presence or absence of the object and the existence probability.
  • the local map is also used, for example, by the recognizing unit 73 for detection processing and recognition processing of the situation outside the vehicle 1 .
  • the self-position estimation unit 71 may estimate the self-position of the vehicle 1 based on the position information acquired by the position information acquisition unit 24 and the sensor data from the vehicle sensor 27.
  • the sensor fusion unit 72 combines a plurality of different types of sensor data (for example, image data supplied from the camera 51 and sensor data supplied from the radar 52) to perform sensor fusion processing to obtain new information. be able to. Methods for combining different types of sensor data may include integration, fusion, federation, and the like.
  • the recognition unit 73 can execute a detection process for detecting the situation outside the vehicle 1 and a recognition process for recognizing the situation outside the vehicle 1 .
  • the recognition unit 73 performs detection processing and recognition processing of the situation outside the vehicle 1 based on information from the external recognition sensor 25, information from the self-position estimation unit 71, information from the sensor fusion unit 72, and the like. .
  • the recognition unit 73 performs detection processing and recognition processing of objects around the vehicle 1 .
  • Object detection processing is, for example, processing for detecting the presence or absence, size, shape, position, movement, and the like of an object.
  • Object recognition processing is, for example, processing for recognizing an attribute such as the type of an object or identifying a specific object.
  • the detection process and the recognition process are not always clearly separated, and may overlap.
  • the recognition unit 73 detects objects around the vehicle 1 by clustering the point cloud based on sensor data from the radar 52 or the LiDAR 53 or the like for each cluster of point groups. As a result, presence/absence, size, shape, and position of objects around the vehicle 1 are detected.
  • the recognizing unit 73 detects the movement of objects around the vehicle 1 by performing tracking that follows the movement of the cluster of points classified by clustering. As a result, the speed and traveling direction (movement vector) of the object around the vehicle 1 are detected.
  • the recognition unit 73 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. based on image data supplied from the camera 51 . Further, the recognition unit 73 may recognize types of objects around the vehicle 1 by performing recognition processing such as semantic segmentation.
  • the recognition unit 73 based on the map accumulated in the map information accumulation unit 23, the estimation result of the self-position by the self-position estimation unit 71, and the recognition result of the object around the vehicle 1 by the recognition unit 73, Recognition processing of traffic rules around the vehicle 1 can be performed. Through this processing, the recognition unit 73 can recognize the position and state of traffic lights, the content of traffic signs and road markings, the content of traffic restrictions, the lanes in which the vehicle can travel, and the like.
  • the recognition unit 73 can perform recognition processing of the environment around the vehicle 1 .
  • the surrounding environment to be recognized by the recognition unit 73 includes the weather, temperature, humidity, brightness, road surface conditions, and the like.
  • the action plan section 62 creates an action plan for the vehicle 1.
  • the action planning unit 62 can create an action plan by performing route planning and route following processing.
  • trajectory planning is the process of planning a rough route from the start to the goal. This route planning is called trajectory planning, and in the planned route, trajectory generation (local path planning) that can proceed safely and smoothly in the vicinity of the vehicle 1 in consideration of the motion characteristics of the vehicle 1. It also includes the processing to be performed.
  • Route following is the process of planning actions to safely and accurately travel the route planned by route planning within the planned time.
  • the action planning unit 62 can, for example, calculate the target speed and the target angular speed of the vehicle 1 based on the result of this route following processing.
  • the motion control unit 63 can control the motion of the vehicle 1 in order to implement the action plan created by the action planning unit 62.
  • the operation control unit 63 controls a steering control unit 81, a brake control unit 82, and a drive control unit 83 included in the vehicle control unit 32, which will be described later, so that the vehicle 1 can control the trajectory calculated by the trajectory plan. Acceleration/deceleration control and direction control are performed so as to advance.
  • the operation control unit 63 performs cooperative control aimed at realizing ADAS functions such as collision avoidance or shock mitigation, follow-up driving, vehicle speed maintenance driving, collision warning of own vehicle, and lane deviation warning of own vehicle.
  • the operation control unit 63 performs cooperative control aimed at automatic driving in which the vehicle autonomously travels without depending on the driver's operation.
  • the DMS 30 can perform driver authentication processing, driver state recognition processing, etc., based on sensor data from the in-vehicle sensor 26 and input data input to the HMI 31, which will be described later.
  • As the state of the driver to be recognized for example, physical condition, wakefulness, concentration, fatigue, gaze direction, drunkenness, driving operation, posture, etc. are assumed.
  • the DMS 30 may perform authentication processing for passengers other than the driver and processing for recognizing the state of the passenger. Further, for example, the DMS 30 may perform recognition processing of the situation inside the vehicle based on the sensor data from the sensor 26 inside the vehicle. Conditions inside the vehicle to be recognized include temperature, humidity, brightness, smell, and the like, for example.
  • the HMI 31 can input various data, instructions, etc., and present various data to the driver.
  • the HMI 31 has an input device for human input of data.
  • the HMI 31 generates an input signal based on data, instructions, etc. input from an input device, and supplies the input signal to each section of the vehicle control system 11 .
  • the HMI 31 has operating elements such as a touch panel, buttons, switches, and levers as input devices.
  • the HMI 31 is not limited to this, and may further have an input device capable of inputting information by a method other than manual operation using voice, gestures, or the like.
  • the HMI 31 may use, as an input device, a remote control device using infrared rays or radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 11 .
  • the presentation of data by HMI31 will be briefly explained.
  • the HMI 31 generates visual information, auditory information, and tactile information for the passenger or outside the vehicle.
  • the HMI 31 performs output control for controlling the output, output content, output timing, output method, and the like of each generated information.
  • the HMI 31 generates and outputs visual information such as an operation screen, a status display of the vehicle 1, a warning display, an image such as a monitor image showing the situation around the vehicle 1, and information indicated by light.
  • the HMI 31 also generates and outputs information indicated by sounds such as voice guidance, warning sounds, warning messages, etc., as auditory information.
  • the HMI 31 generates and outputs, as tactile information, information given to the passenger's tactile sense by force, vibration, movement, or the like.
  • a display device that presents visual information by displaying an image by itself or a projector device that presents visual information by projecting an image can be applied.
  • the display device displays visual information within the passenger's field of view, such as a head-up display, a transmissive display, or a wearable device with an AR (Augmented Reality) function. It may be a device.
  • the HMI 31 can also use a display device provided in the vehicle 1, such as a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, etc., as an output device for outputting visual information.
  • Audio speakers, headphones, and earphones can be applied as output devices for the HMI 31 to output auditory information.
  • a haptic element using haptic technology can be applied as an output device for the HMI 31 to output tactile information.
  • a haptic element is provided at a portion of the vehicle 1 that is in contact with a passenger, such as a steering wheel or a seat.
  • the vehicle control unit 32 can control each unit of the vehicle 1.
  • the vehicle control unit 32 has a steering control unit 81 , a brake control unit 82 , a drive control unit 83 , a body system control unit 84 , a light control unit 85 and a horn control unit 86 .
  • the steering control unit 81 can detect and control the state of the steering system of the vehicle 1 .
  • the steering system has, for example, a steering mechanism including a steering wheel, an electric power steering, and the like.
  • the steering control unit 81 has, for example, a steering ECU that controls the steering system, an actuator that drives the steering system, and the like.
  • the brake control unit 82 can detect and control the state of the brake system of the vehicle 1 .
  • the brake system has, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, and the like.
  • the brake control unit 82 has, for example, a brake ECU that controls the brake system, an actuator that drives the brake system, and the like.
  • the drive control unit 83 can detect and control the state of the drive system of the vehicle 1 .
  • the drive system includes, for example, an accelerator pedal, a driving force generator for generating driving force such as an internal combustion engine or a driving motor, and a driving force transmission mechanism for transmitting the driving force to the wheels.
  • the drive control unit 83 has, for example, a drive ECU that controls the drive system, an actuator that drives the drive system, and the like.
  • the body system control unit 84 can detect and control the state of the body system of the vehicle 1 .
  • the body system includes, for example, a keyless entry system, smart key system, power window device, power seat, air conditioner, air bag, seat belt, shift lever, and the like.
  • the body system control unit 84 has, for example, a body system ECU that controls the body system, an actuator that drives the body system, and the like.
  • the light control unit 85 can detect and control the states of various lights of the vehicle 1 .
  • Lights to be controlled include, for example, headlights, backlights, fog lights, turn signals, brake lights, projections, bumper displays, and the like.
  • the light control unit 85 includes a light ECU for controlling lights, an actuator for driving lights, and the like.
  • the horn control unit 86 can detect and control the state of the car horn of the vehicle 1 .
  • the horn control unit 86 has, for example, a horn ECU for controlling the car horn, an actuator for driving the car horn, and the like.
  • FIG. 22 is a diagram showing an example of sensing areas by the camera 51, radar 52, LiDAR 53, ultrasonic sensor 54, etc. of the external recognition sensor 25 in FIG. 22 schematically shows the vehicle 1 viewed from above, the left end side is the front end (front) side of the vehicle 1, and the right end side is the rear end (rear) side of the vehicle 1.
  • a sensing area 101F and a sensing area 101B are examples of sensing areas of the ultrasonic sensor 54.
  • FIG. The sensing area 101 ⁇ /b>F covers the periphery of the front end of the vehicle 1 with a plurality of ultrasonic sensors 54 .
  • the sensing area 101B covers the periphery of the rear end of the vehicle 1 with a plurality of ultrasonic sensors 54 .
  • the sensing results in the sensing area 101F and the sensing area 101B are used, for example, for parking assistance of the vehicle 1 and the like.
  • Sensing areas 102F to 102B show examples of sensing areas of the radar 52 for short or medium range.
  • the sensing area 102F covers the front of the vehicle 1 to a position farther than the sensing area 101F.
  • the sensing area 102B covers the rear of the vehicle 1 to a position farther than the sensing area 101B.
  • the sensing area 102L covers the rear periphery of the left side surface of the vehicle 1 .
  • the sensing area 102R covers the rear periphery of the right side surface of the vehicle 1 .
  • the sensing result in the sensing area 102F is used, for example, to detect vehicles, pedestrians, etc. existing in front of the vehicle 1.
  • the sensing result in the sensing area 102B is used for the rear collision prevention function of the vehicle 1, for example.
  • the sensing results in the sensing area 102L and the sensing area 102R are used, for example, to detect an object in a blind spot on the side of the vehicle 1, or the like.
  • Sensing areas 103F to 103B show examples of sensing areas by the camera 51 .
  • the sensing area 103F covers the front of the vehicle 1 to a position farther than the sensing area 102F.
  • the sensing area 103B covers the rear of the vehicle 1 to a position farther than the sensing area 102B.
  • the sensing area 103L covers the periphery of the left side surface of the vehicle 1 .
  • the sensing area 103R covers the periphery of the right side surface of the vehicle 1 .
  • the sensing results in the sensing area 103F can be used, for example, for recognition of traffic lights and traffic signs, lane departure prevention support systems, and automatic headlight control systems.
  • a sensing result in the sensing area 103B can be used for parking assistance and a surround view system, for example.
  • Sensing results in the sensing area 103L and the sensing area 103R can be used, for example, in a surround view system.
  • the sensing area 104 shows an example of the sensing area of the LiDAR53.
  • the sensing area 104 covers the front of the vehicle 1 to a position farther than the sensing area 103F.
  • the sensing area 104 has a narrower lateral range than the sensing area 103F.
  • the sensing results in the sensing area 104 are used, for example, to detect objects such as surrounding vehicles.
  • a sensing area 105 shows an example of a sensing area of the long-range radar 52 .
  • the sensing area 105 covers the front of the vehicle 1 to a position farther than the sensing area 104 .
  • the sensing area 105 has a narrower lateral range than the sensing area 104 .
  • the sensing results in the sensing area 105 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, and collision avoidance.
  • ACC Adaptive Cruise Control
  • emergency braking emergency braking
  • collision avoidance collision avoidance
  • the sensing regions of the cameras 51, the radar 52, the LiDAR 53, and the ultrasonic sensors 54 included in the external recognition sensor 25 may have various configurations other than those shown in FIG. Specifically, the ultrasonic sensor 54 may also sense the sides of the vehicle 1 , and the LiDAR 53 may sense the rear of the vehicle 1 . Moreover, the installation position of each sensor is not limited to each example mentioned above. Also, the number of each sensor may be one or plural.
  • the technology of the present disclosure can be applied to, for example, LiDAR53.
  • LiDAR53 for example, by applying the technology of the present disclosure to the LiDAR 53 of the vehicle control system 11, it becomes possible to easily detect a failure occurring in the LiDAR 53, thereby preventing malfunction and erroneous detection of the LiDAR 53. Therefore, the LiDAR 53 can normally detect surrounding vehicles, etc., and the safety of the vehicle 1 can be ensured.
  • a light-receiving section including a pixel array section composed of a plurality of light-receiving elements arranged in a matrix; a control signal generator that generates a control signal; a control unit electrically connected to the light receiving unit via a control line and controlling the light receiving unit based on the control signal; a processing unit electrically connected to the light receiving unit via a signal line and processing an output signal from the light receiving unit; a failure determination unit that detects a failure; with The failure determination unit detects a failure of the control line from the output signal from the light receiving unit controlled based on a failure detection control signal having a predetermined pattern. Photodetector.
  • the light receiving unit is a drive switch provided for each light receiving element for driving the light receiving element; an output switch provided for each light-receiving element for controlling output of an output signal from the light-receiving element; A logical sum circuit that outputs according to the output signal from each light receiving element and the output signal from the other light receiving element,
  • the control line is a first control line electrically connecting the vertical control unit and the drive switch; a second control line electrically connecting the vertical control unit and the output switch; a third control line electrically connecting the horizontal control unit and the drive switch; a fourth control line electrical
  • the control signal generator outputs the failure detection control signal while the frame synchronization signal is inactive.
  • the failure detection control signal includes a control line failure detection signal for detecting a failure in the control line following a processing unit failure detection signal for detecting a failure in the processing unit; A photodetector as described.
  • the failure detection control signal includes a light receiving section failure detection signal for detecting a failure of the light receiving section before or after the control line failure detection signal.
  • the control line failure detection signal includes a first signal for detecting a failure of the fifth control line.
  • control line failure detection signal includes a second signal for detecting a failure of the second and fourth control lines.
  • control line failure detection signal includes a third signal for detecting failure of the first and third control lines.
  • control line failure detection signal includes a fourth signal for detecting failure of the downsampling circuit.
  • control line failure detection signal includes signals in the order of the first signal, the second signal, the third signal, and the fourth signal.
  • a lighting device that emits irradiation light; a photodetector that receives reflected light of the irradiation light reflected by a subject; including The photodetector is a light-receiving section including a pixel array section composed of a plurality of light-receiving elements arranged in a matrix; a control signal generator that generates a control signal; a control unit electrically connected to the light receiving unit via a control line and controlling the light receiving unit based on the control signal; a processing unit electrically connected to the light receiving unit via a signal line and processing an output signal from the light receiving unit; a failure determination unit that detects a failure; has The failure determination unit detects a failure of the control line from the output signal from the light receiving unit controlled based on a failure detection control signal having a predetermined pattern. ranging system.
  • Vehicle 11 Vehicle Control System 21

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

行列状に配列する複数の受光素子(512)からなる画素アレイ部(510)を含む受光部(502)と、制御信号を生成する制御信号生成部(576)と、前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部(570)と、前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部(530)と、故障を検出する故障判定部(534)とを備え、前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、光検出装置を提供する。

Description

光検出装置及び測距システム
 本開示は、光検出装置及び測距システムに関する。
 近年、ToF(Time of Flight)法により距離計測を行う測距装置(測距システム)が注目されている。測距システムに含まれる受光素子として、SPAD(Single Photon Avalanche Diode)を用いたものがある。当該SPADにおいては、1個の光(フォトン)光が入射し、光電変換により発生した電子(電荷)を、PN接合領域で増倍させること(アバランシェ増幅)で、高精度に光を検出することができる。そして、当該測距システムにおいては、増倍された電子による電流が流れたタイミングを検出することで、高精度に距離を計測することができる。
特開2020-143996号公報 特開2020-112528号公報 特開2020-112501号公報
 上述の測距装置では、各受光素子等を制御する制御部との間を電気的に接続する制御線に故障が生じていた場合には、測距装置が適切に制御されず、受光素子からの画素信号に誤りが含まれる場合が生じ得る。さらに、このような場合、測距装置による測距情報を利用するシステム(自動走行しシステム等)の誤作動につながることとなる。従って、測距装置に対しては、上述のような制御線の故障を検出することが強く求められている。
 そこで、本開示では、制御線の故障を検出することができる光検出装置及び測距システムを提案する。
 本開示によれば、行列状に配列する複数の受光素子からなる画素アレイ部を含む受光部と、制御信号を生成する制御信号生成部と、前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部と、前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部と、故障を検出する故障判定部とを備え、前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、光検出装置が提供される。
 また、本開示によれば、照射光を照射する照明装置と、前記照射光が被写体により反射された反射光を受光する光検出装置とを含み、前記光検出装置は、行列状に配列する複数の受光素子からなる画素アレイ部を含む受光部と、制御信号を生成する制御信号生成部と、前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部と、前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部と、故障を検出する故障判定部とを有し、前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、測距システムが提供される。
本開示の実施形態に適用可能な直接ToF方式による測距を模式的に示す図である。 本開示の実施形態に適用可能な、受光部が受光した時刻に基づく一例のヒストグラムを示す図である。 本開示の実施形態を適用可能な測距システムの構成の一例を示すブロック図である。 本開示の実施形態を適用可能な測距装置の構成の一例を示すブロック図である。 本開示の実施形態を適用可能な画素回路の構成の一例を示す回路図である。 本開示の実施形態を適用可能な、複数の画素回路間の接続の一例を示す説明図である。 本開示の実施形態を適用可能な測距装置の積層構造の一例を示す模式図である。 本開示の実施形態に係る測距装置の一部の構成を示すブロック図である。 本開示の実施形態の概要を説明するための説明図である。 本開示の実施形態に係る処理手順のフローチャートである。 本開示の実施形態に係るSPADアクセスチェックのフローの概要を説明するためのフローチャートである。 I_SPAD線の故障チェックのための制御信号パターンを示す表である。 I_SPAD線の故障チェックのための制御信号パターンの詳細を説明するための説明図である。 EN_VLINE線及びEN_AREA線の故障チェックのための制御信号パターンを示す表である。 EN_VLINE線及びEN_AREA線の故障チェックのための制御信号パターンの詳細を説明するための説明図である。 ACT_SPAD_V線及びACT_SPAD_H線の故障チェックのための制御信号パターンを示す表である。 ACT_SPAD_V線及びACT_SPAD_H線の故障チェックのための制御信号パターンの詳細を説明するための説明図である。 ダウンサンプリング回路の故障チェックのための制御信号パターンを示す表である。 ダウンサンプリング回路の故障チェックの故障チェックのための制御信号パターンの詳細を説明するための説明図である。 故障検出時のタイミングチャートの一例を示す図である。 車両制御システムの構成例を示すブロック図である。 センシング領域の例を示す図である。
 以下に、添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。また、本明細書及び図面において、実質的に同一又は類似の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合がある。ただし、実質的に同一又は類似の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。
 また、以下の回路(電気的な接続)の説明においては、特段の断りがない限りは、「電気的に接続」とは、複数の要素の間を電気(信号)が導通するように接続することを意味する。加えて、以下の説明における「電気的に接続」には、複数の要素を直接的に、且つ、電気的に接続する場合だけでなく、他の要素を介して間接的に、且つ、電気的に接続する場合も含むものとする。
 なお、説明は以下の順序で行うものとする。
1. 本発明者が本開示の実施形態を創作するに至る背景
   1.1 測距方式
   1.2 測距システム
   1.3 測距装置
   1.4 画素回路
   1.5 積層構造
   1.6 背景
2. 実施形態
   2.1 測距装置
   2.2 処理手順
3. まとめ
4. 応用例
5. 補足
 <<1. 本発明者が本開示の実施形態を創作するに至る背景>>
 <1.1 測距方式>
 まずは、本開示の実施形態を説明する前に、本発明者が本開示の実施形態を創作するに至る背景について説明するが、最初に、本開示の各実施形態が適用され得る測距方式の概要を説明する。本開示は、光を用いて測距を行う技術に関するものである。本開示の実施形態では、測距方式として、直接ToF(Time of Flight)方式を適用する。直接ToF方式は、光源から射出された光が被測定物により反射した反射光を受光素子(詳細には、SPAD)により受光し、光の射出タイミングと受光タイミングとの差分の時間に基づき測距を行う方式である。
 図1および図2を参照して、直接ToF方式による測距の概略を説明する。図1は、本開示の実施形態に適用可能な直接ToF方式による測距を模式的に示す図であり、図2は、本開示の実施形態に適用可能な、受光部302が受光した時刻に基づく一例のヒストグラムを示す図である。
 図1に示すように、測距装置300は、光源部(照明装置)301と、受光部302と、を含む。光源部301は、例えば、レーザダイオードであって、レーザ光をパルス状に発光するように駆動される。光源部301から照射された光は、被測定物(被写体)303により反射され、反射光として受光部302に受光される。受光部302は、光電変換により光を電気信号に変換する複数の受光素子を含み、受光した光に応じた画素信号を出力することができる。
 ここで、光源部301が発光した時刻(発光タイミング)を時間t、光源部301から射出された光が被測定物303により反射された反射光を受光部302が受光した時刻(受光タイミング)を時間tとする。定数cを光速度(2.9979×10[m/sec])とすると、測距装置300と被測定物303との間の距離Dは、次式(1)に示される。
Figure JPOXMLDOC01-appb-M000001
 測距装置300は、上述の処理を複数回繰り返して実行することができる。受光部302が複数の受光素子を含み、各受光素子に反射光が受光された各受光タイミングに基づき距離Dをそれぞれ算出してもよい。測距装置300は、発光タイミングの時間tから受光部302に光が受光された受光タイミングまでの時間t(受光時間tと呼ぶ)を階級(ビン(bins))に基づき分類し、ヒストグラムを生成する。
 なお、受光部302が受光時間tに受光した光は、光源部301が発光した光が被測定物303により反射された反射光に限定されるものではない。例えば、測距装置300(受光部302)の周囲の環境光も、受光部302に受光される。
 図2に示すヒストグラムにおいては、横軸はビン、縦軸は、ビン毎の頻度を示す。ビンは、受光時間tを所定の単位時間d毎に分類したものである。具体的には、ビン#0が0≦t<d、ビン#1がd≦t<2×d、ビン#2が2×d≦t<3×d、…、ビン#(N-2)が(N-2)×d≦t<(N-1)×dとなる。受光部302の露光時間を時間tepとした場合、tep=N×dとなる。
 測距装置300は、受光時間tを取得した回数をビンに基づき計数してビン毎の頻度310を求め、ヒストグラムを生成する。ここで、受光部302は、光源部301から射出された光が反射された反射光以外の光も受光する。このような、対象となる反射光以外の光の例としては、上述した環境光がある。ヒストグラムにおいて範囲311で示される部分は、環境光による環境光成分を含む。環境光は、受光部302にランダムに入射される光であって、対象となる反射光に対するノイズとなる。
 一方、対象となる反射光は、特定の距離に応じて受光される光であって、ヒストグラムにおいてアクティブ光成分312として現れる。このアクティブ光成分312内のピークの頻度に対応するビンが、被測定物303の距離Dに対応するビンとなる。測距装置300は、そのビンの代表時間(例えばビンの中央の時間)を上述した時間tとして取得することで、上述した式(1)に従い、被測定物303までの距離Dを算出することができる。このように、複数の受光結果を用いることにより、ランダムなノイズが生じても適切な測距を実行可能となる。
 <1.2 測距システム>
 次に、図3を参照して、本開示の実施形態が適用され得る測距システム90の構成の一例を説明する。図3は、本開示の実施形態を適用可能な測距システム90の構成の一例を示すブロック図である。図3に示すように、当該測距システム90は、光源部(照明装置)400と、測距装置500と、記憶装置600と、ホスト700と、光学系800とを主に含むことができる。以下、当該測距システム90が含む各ブロックを順次説明する。
 (光源部400)
 光源部400は、上述した図1の光源部301に対応し、レーザダイオード等からなり、例えばレーザ光をパルス状に発光するように駆動される。光源部400は、面光源としてレーザ光を射出するVCSEL(Vertical Cavity Surface Emitting Laser)を適用することができる。また、光源部400として、レーザダイオードをライン上に配列したアレイを用い、レーザダイオードアレイから射出されるレーザ光をラインに垂直の方向にスキャンする構成を用いてもよい。さらに、光源部400として、単光源としてのレーザダイオードを用い、レーザダイオードから射出されるレーザ光を水平および垂直方向にスキャンする構成を用いてもよい。
 (測距装置500)
 測距装置500は、上述した図1の受光部302を含む。さらに、当該受光部302は、例えば、2次元格子状(行列状)(例えば、189個×600個)に配列された複数の受光素子からなる画素アレイ部(図示省略)を有する。なお、当該測距装置500や受光部302等の詳細は後述する。さらに、光学系800は、外部から入射する光を、測距装置500の受光部302の上記画素アレイ部に導くことができる。
 さらに、測距装置500は、上記画素アレイ部に光が受光されたタイミングを示す時間情報(受光時間t)の取得回数を所定の時間範囲内で計数し、ビン毎の頻度を求めて上述したヒストグラムを生成する。そして、測距装置500は、生成したヒストグラムに基づき、被測定物303までの距離Dを算出する。算出された距離Dを示す情報は、例えば、記憶装置600に格納される。
 (ホスト700)
 ホスト700は、測距システム90の全体の動作を制御することができる。例えば、ホスト700は、測距装置500に対して、光源部400を発光させるためのトリガである発光トリガを供給する。測距装置500は、この発光トリガに基づくタイミングで光源部400を発光させると共に、発光タイミングを示す時間tを記憶する。また、ホスト700は、例えば外部からの指示に応じて、測距装置500に対して、測距の際のパターンの設定を行ってもよい。
 <1.3 測距装置>
 次に、図4を参照して、本開示の実施形態が適用され得る測距装置500の構成の一例を説明する。図4は、本開示の実施形態を適用可能な測距装置500の構成の一例を示すブロック図である。図4に示すように、測距装置500は、画素アレイ部510を含む受光部502と、処理部530と、制御部570と、発光タイミング制御部580と、インタフェース(I/F)590とを主に含む。以下、当該測距装置500が含む各ブロックを順次説明する。
 (受光部502)
 図4に示すように、受光部502は、画素アレイ部510を含む。そして、画素アレイ部510は、行列状に配列する複数のSPAD(受光素子)512を有する(例えば、189×600に配列する。)各SPAD512は、後述する制御部570により制御される。例えば、制御部570は、各SPAD512からの画素信号の読み出しを、行方向にp個、列方向にq個の、(p×q)個のSPAD512を含むブロック毎に制御することができる。また、制御部570は、上記ブロックを単位として、各SPAD512を行方向にスキャンし、さらに列方向にスキャンして、各SPAD512から画素信号を読み出すことができる。なお、受光部502の詳細については、後述する。
 (処理部530)
 処理部530は、各SPAD512から信号線を介して読み出された画素信号を処理することができる。図4に示すように、処理部530は、変換部540と、生成部550と、信号処理部560とを含む。
 まず、各SPAD512から読み出され、画素アレイ部510から出力された画素信号は、変換部540に供給される。変換部540は、画素アレイ部510から供給された画素信号を、デジタル情報に変換する。詳細には、変換部540は、画素アレイ部510から供給される画素信号を、当該画素信号が対応するSPAD512に光が受光されたタイミングを示す時間情報に変換する。
 生成部550は、変換部540により画素信号が変換された時間情報に基づきヒストグラムを生成する。
 信号処理部560は、生成部550により生成されたヒストグラムのデータに基づき所定の演算処理を行い、例えば距離情報を算出する。信号処理部560は、例えば、生成部550により生成されたヒストグラムのデータに基づき、当該ヒストグラムの近似曲線を作成する。信号処理部560は、このヒストグラムが近似された曲線のピークを検出し、検出されたピークに基づき距離D(測距情報の一例)を求めることができる。なお、信号処理部560は、ヒストグラムの曲線近似を行う際に、ヒストグラムが近似された曲線に対してフィルタ処理を施してもよい。例えば、信号処理部560は、ヒストグラムが近似された曲線に対してローパスフィルタ処理を施すことで、ノイズ成分を抑制することが可能である。
 そして、信号処理部560で求められた距離情報は、インタフェース590に供給される。インタフェース590は、信号処理部560から供給された距離情報を、出力データとして外部に出力する出力部として機能する。インタフェース590としては、例えばMIPI(Mobile Industry Processor Interface)を適用することができる。なお、上述では、距離情報は、インタフェース590を介して外部に出力しているが、この例に限定されるものではない。すなわち、生成部550により生成されたヒストグラムのデータであるヒストグラムデータを、インタフェース590から外部に出力する構成としてもよい。この場合、インタフェース590から出力されたヒストグラムデータは、例えば外部の情報処理装置に供給され、適宜、処理される。
 (制御部570)
 制御部570は、例えば予め組み込まれるプログラムに従い、制御信号や、外部から供給される基準クロック信号に基づき、受光部502等の制御を実行することができる。さらに、制御部570は、上述したように、画素アレイ部510の所定領域を対象領域として、対象領域に含まれるSPAD512を、画素信号を読み出す対象とするように制御することができる。また、制御部570は、複数行(複数ライン)を纏めてスキャンし、それを列方向にさらにスキャンして、各SPAD512から画素信号を読み出すこともできる。
 (発光タイミング制御部580)
 発光タイミング制御部580は、外部から供給される発光トリガ信号に従い発光タイミングを示す発光制御信号を生成する。発光制御信号は、光源部400に供給されると共に、処理部530に供給される。
 <1.4 画素回路>
 詳細には、上述した受光部502は、複数のSPAD512のそれぞれを含む複数の画素回路900から構成される。そこで、図5及び図6を参照して、本開示の実施形態が適用可能な画素回路900の構成の一例を説明する。図5は、本開示の実施形態を適用可能な画素回路900の構成の一例を示す回路図であり、図6は、複数の画素回路900間の接続の一例を示す説明図である。
 図5に示すように、画素回路900は、SPAD(受光素子)512と、トランジスタ902、904と、定電流源910と、スイッチ回路920、940と、インバータ回路930と、OR回路(理論和回路)950とを含む。
 SPAD512は、入射された光を光電変換により電気信号に変換して出力する単一フォトンアバランシェダイオードである。本開示の実施形態においては、SPAD512は、入射されたフォトン(光子)を光電変換により電気信号に変換し、フォトンの入射に応じたパルスを出力する。SPAD512は、カソードにアバランシェ増倍が発生する大きな負電圧を加えておくと、1フォトンの入射に応じて発生した電子がアバランシェ増倍を生じ、大電流が流れる特性を有する。このようなSPAD512の特性を利用することで、1フォトンの入射を高感度で検知することができる。
 SPAD512のカソードは、2つのトランジスタ902、904の結合部と、インバータ回路930の入力に接続される。また、SPAD512のアノードは、電圧(-Vbd)の電圧源に電気的に接続される。電圧(-Vbd)は、SPAD512に対してアバランシェ増倍を発生させるための大きな負電圧である。
 トランジスタ902は、PチャネルのMOSFET(Metal Oxide Semiconductor Field Effect Transistor)であり、トランジスタ904は、NチャンネルのMOSFETであり、ソース、ドレインで互いに電気的に接続されている。また、トランジスタ902、904のゲートは、スイッチ回路920と電気的に接続される。さらに、トランジスタ902のソースは、定電流源910を介して電源電圧Vddに電気的に接続される。
 スイッチ回路(駆動スイッチ)920は、NAND回路から構成され、上述した制御部570からの制御信号により、SPAD512を駆動するスイッチとして機能する。詳細には、スイッチ回路920は、ACT_SPAD_V線及びACT_SPAD_H線(第1及び第3の制御線)からの上記制御信号に基づいて、トランジスタ902、904を制御し、SPAD512に逆バイアスを印加する。そして、逆バイアスが印加されることによりSPAD512がアクティブ状態になり、この状態でSPAD512にフォトンが入射されると、アバランシェ増倍が開始され、SPAD512のカソードからアノードに向けて電流が流れる。
 詳細には、ACT_SPAD_V線及びACT_SPAD_H線は、それぞれ、画素アレイ部510の制御信号を画素回路900のスイッチ回路920に伝達することができる。このような制御信号により、スイッチ回路920のオン状態/オフ状態を、画素回路900毎に制御することができる。なお、スイッチ回路920のオン状態は、SPAD912をアクティブ状態にすることができ、一方、スイッチ回路920のオフ状態は、SPAD912を非アクティブ状態とすることができる。従って、これにより、画素アレイ部510におけるSPAD512の消費電力を抑えることができる。
 さらに、SPAD512からの画素信号が、インバータ回路930に入力される。インバータ回路930は、入力された画素信号に対して例えば閾値判定を行い、当該画素信号が閾値を正方向または負方向に超える毎に当該信号を反転し、パルス状の信号を出力する。
 インバータ回路930から出力されたパルス信号は、スイッチ回路(出力スイッチ)940に入力される。スイッチ回路940はAND回路であり、上述した制御部570からの制御信号により、SPAD512からの画素信号の出力を制御するスイッチとして機能する。詳細には、スイッチ回路940は、EN_VLINE線及びEN_AREA線(第2及び第4の制御線)からの上記制御信号に基づいて、上記パルス信号をOR回路950に出力する。
 詳細には、EN_VLINE線及びEN_AREA線は、それぞれ、画素アレイ部510の制御信号を画素回路900のスイッチ回路940に伝達することができる。このような制御信号により、スイッチ回路940のオン状態/オフ状態を画素回路900毎に制御し、その結果、各SPAD512の出力を有効/無効に制御することができる。
 OR回路950は、一方の入力にはスイッチ回路940の出力が入力され、他方の入力には、他の画素回路900のスイッチ回路940の出力、又は、上述した制御部570からの水平方向の制御信号がI_SPAD線(第5の制御線)を介して入力される。そして、OR回路950は、入力された信号に応じて出力する。詳細には、同じ列に位置する複数のSPAD512において、所定の数の行(例えば、20行)を挟んで隣り合うSPAD512同士がいわゆるデイジーチェーン接続されている。さらに、デイジーチェーンの一方の端が、制御部570と電気的に接続され、他方の端が、処理部530(詳細にはダウンサンプリング回路(図示省略))に接続されることとなる。このようにすることで、処理部530の回路規模を小さくすることができる(詳細には、上記ダウンサンプリング回路の数を減らすことができる)。
 そして、複数の画素回路900は、例えば、4SPAD周期とした場合には、図6に示すように接続されることができる。
 <1.5 積層構造>
 また、本開示の実施形態が適用され得る測距装置500は、複数の半導体基板を積層した積層構造を持つことができる。そこで、図7を参照して、本開示の実施形態が適用され得る測距装置500の積層構造の例を説明する。図7は、本開示の実施形態を適用可能な測距装置500の積層構造の一例を示す模式図である。
 図7に示すように、測距装置500は、2つの半導体基板(第1及び第2の基板)200、250が積層された積層構造を有する。なお、これら半導体基板200、250は、半導体チップと称されてもよい。
 詳細には、図7中の上側に示される半導体基板(第1の基板)200上には、上述した画素アレイ部510が設けられ、さらに、画素アレイ部510の領域において、複数の画素回路900のそれぞれに含まれるSPAD512が行列状に配列される。また、画素回路900における、トランジスタ902、904、定電流源910、スイッチ回路920、940、インバータ回路930、及びOR回路950は、図7中の下側に示される半導体基板250上に設けられる。なお、SPAD512は、例えばCCC(Copper-Copper Connection)等によって、半導体基板250上の各素子と電気的に接続されることができる。
 半導体基板250には、画素回路900における、トランジスタ902、904、定電流源910、スイッチ回路920、940、インバータ回路930、及びOR回路950を含むロジックアレイ部252が設けられる。さらに、半導体基板250には、当該ロジックアレイ部252と近接して、SPAD512によって取得された画素信号の処理を行う処理部530と、測距装置500としての動作を制御する制御部570等を設けることができる。また、上述のACT_SPAD_V線及びACT_SPAD_H線、EN_VLINE線及びEN_AREA線、I_SPAD線等の制御線は、半導体基板250に設けられる。
 なお、半導体基板200、250上のレイアウトは、図7に示す構成例に限定されるものではなく、様々なレイアウトを選択することができる。さらに、また、測距装置500は、複数の半導体基板の積層からなるものに限定されるものではなく、1つの半導体基板で構成されてもよい。
 <1.6 背景>
 次に、上述した測距装置500の構成例を踏まえ、図8及び図9を参照して、本発明者が本開示の実施形態を創作するに至った背景の詳細を説明する。図8は、本開示の実施形態に係る測距装置500の一部の構成を示すブロック図であり、図9は、本開示の実施形態の概要を説明するための説明図である。
 図8に示すように、制御部570は、複数の制御線(詳細には、上述したACT_SPAD_V線及びACT_SPAD_H線、EN_VLINE線及びEN_AREA線、I_SPAD線等)を介して画素回路900を制御することができる。しかしながら、このような制御線に故障が生じていた場合には、先に説明したように、適切な制御されないことから画素回路900からの画素信号に誤りが含まれる場合が生じ得る。さらに、このような場合、測距装置500による測距情報を利用するシステムの誤作動につながることとなる。従って、測距装置500に対しては、上述のような制御線の故障を検出することが強く求められている。
 しかしながら、従来の測距装置500では、その多くにおいて、制御線の故障の検出について詳細に検討がなされていない。また。故障を検出する手段を設けていた場合であっても、画素回路900の故障なのか、制御線の故障なのかを切り分けて検出することができなかった。さらに、故障を検出するために、多くの時間を必要としたり、故障検出のための基準値を予め取得するために所定の条件下で(光が照射されない状態や、所定の光を照射した状態等)計測を行うことが求められたりすることから、頻繁に故障検出を行うことが容易ではなかった。
 そこで、本発明者は、このような状況を鑑みて、以下に説明する本開示の実施形態を創作するに至った。本開示の実施形態においては、制御線の故障を検出することができる。詳細には、図9に示すように、本発明者が創作した実施形態においては、制御線の故障を検出するために、所定のパターンを有する故障検出用制御信号を生成し、生成した故障検出用制御信号に基づいて、制御部570は画素回路900を制御する。次に、処理部530内に設けられた故障判定部534において、故障検出用制御信号に基づいて制御された画素回路900から出力された画素信号を取得し、取得した画素信号が期待する出力値と異なった場合には、制御線の故障と判定し、ホスト700等へ通知する。
 このような本発明者が創作した本開示の実施形態によれば、制御線の故障を検出することができる。さらに、本実施形態によれば、測距装置500の作動中に、ホスト700からの指示を受けることなく、測距装置500だけで上記故障を検出することができる。また、本実施形態においては、受光部502(画素アレイ部510)に光を照射する必要もなく、事前に、判定のための基準となる信号を取得することがなく、容易に故障の検出を行うことができる。以下、このような本開示の各実施形態の詳細を順次説明する。
 <<2. 実施形態>>
 <2.1 測距装置>
 まずは、図8を参照して、本開示の実施形態に係る測距装置500の構成の要部を説明する。図8に示すように、測距装置500は、画素回路900と、制御部570と、処理部530とを主に含む。以下、当該測距装置500が含む各ブロックを順次説明するが、これまで説明した測距装置500と重複する個所については、説明を省略する。
 (画素回路900)
 図8に示すように、画素回路900は、SPAD(受光素子)512と、スイッチ回路920、940と、OR回路(理論和回路)950とを含む。スイッチ回路(駆動スイッチ)920は、ACT_SPAD_V線及びACT_SPAD_H線(第1及び第3の制御線)を介した、制御部570の垂直制御部572及び水平制御部574からの制御信号により、SPAD512を駆動するスイッチとして機能する。また、スイッチ回路(出力スイッチ)940は、EN_VLINE線及びEN_AREA線(第2及び第4の制御線)を介した、制御部570の垂直制御部572及び水平制御部574からの制御信号により、SPAD512からの画素信号の出力を制御するスイッチとして機能する。さらに、OR回路(理論和回路)950は、I_SPAD線(第5の制御線)を介した、制御部570の垂直制御部572からの制御信号により、SPAD512の画素信号を処理部530のダウンサンプリング回路532に出力することができる。なお、ダウンサンプリング回路532には、ノイズを除去するカラムシフト回路(図示省略)が含まれていてもよい。
 (制御部570)
 図8に示すように、制御部570は、垂直制御部(行方向読み出し制御部)572と、水平制御部(列方向読み出し制御部)574と、制御信号生成部576とを含む。垂直制御部572は、垂直方向、すなわち、行単位で画素回路900(詳細には、SPAD512の動作や出力)を制御することができる。さらに、垂直制御部572は、上述したOR回路950も制御することができる。また、水平制御部574は、水平方向、すなわち、列単位で画素回路900(詳細には、SPAD512の動作や出力)を制御することができる。
 さらに、制御信号生成部576は、制御信号を生成し、上述の垂直制御部572及び水平制御部574に出力することができる。詳細には、制御信号生成部576は、例えば、各種制御線の故障を検出するために、所定のパターンを有する故障検出用制御信号を生成し、上述の垂直制御部572及び水平制御部574に出力することができる。
 (処理部530)
 図8に示すように、処理部530は、ダウンサンプリング回路532と、故障判定部534とを主に含む。ダウンサンプリング回路532は、画素回路900から信号線を介して読み出され、図示されていないカラムシフト回路においてノイズ除去等の信号処理が施された画素信号をデジタル信号に変換する。さらに、ダウンサンプリング回路532は、デジタル信号に変換された画素信号を、後述する故障判定部534に出力する。
 さらに、故障判定部534は、故障検出用制御信号により制御された画素回路900からの画素信号(出力信号)を取得し、取得した画素信号が期待する出力値と異なるかどうか判定し、異なった場合には、制御線が故障と判定し、ホスト700等へ通知する。
 なお、本実施形態においては、測距装置500の構成の要部を示す図8の構成に限定されるものではなく、他の要素等が追加されていてもよい。
 <2.2 処理手順>
 (処理手順の概要)
 次に、図10を参照して、本実施形態の処理手順の概要を説明する。図10は、本実施形態に係る処理手順のフローチャートである。図10に示すように、本実施形態に係る処理手順は、ステップS101からステップS107までの複数のステップを主に含むことができる。以下に、本実施形態に係るこれら各ステップの詳細について説明する。
 本実施形態に係る故障検出のための処理は、測距装置500が動作中であって、フレーム同期信号が非アクティブである間に行われる。さらに、当該処理は、測距装置500の動作中に、好適な頻度で繰り返し行われることとなる。
 まずは、測距装置500は、故障検出の内容を決定する(ステップS101)。例えば、本実施形態においては、制御線の故障の検出(SPADアクセスチェック)のほかに、処理部530の故障を検出してもよく(データパスチェック)、画素回路900(受光部)の故障を検出してもよい(SPADチェック)。本実施形態においては、処理部530が故障してしまうと、制御線や画素回路900の故障を検出することができなくなる恐れがあることから、最初に、上記データパスチェックを行うことが好ましい。すなわち、上記データパスチェックに続いて、SPADアクセスチェック、SPADチェックの順に行うことが好ましい。しかしながら、本実施形態においては、SPADアクセスチェック、SPADチェックの順は限定されるものではなく、逆であってもよく、いずれか一方の故障検出のみを実行するようにしてもよい。なお、本実施形態においては、各故障検出に対応するイネーブルレジスタにより、各故障検出を実行するかを選択することができる。
 このように、本実施形態によれば、異なる箇所の故障検出を順次行うことで、故障の箇所を特定することができる。
 次に、測距装置500は、上述のステップS101での決定に基づき、所定の順番で故障検出を行うための、所定のパターンを有する故障検出用制御信号を生成する(ステップS102)。例えば、データパスチェック、SPADアクセスチェック、SPADチェックの順に行う場合には、故障検出用制御信号内では、データパスチェック用の制御信号、SPADアクセスチェックの制御信号、SPADチェックの制御信号が続くこととなる。
 そして、測距装置500は、上述のステップS102で生成した故障検出用制御信号を用いて、故障検出のための制御を行う(ステップS103)。
 次に、測距装置500は、上述のステップS103での制御下で、SPAD512からの画素信号を取得する(ステップS104)。
 そして、測距装置500は、故障が検出されたかどうかを判定する(ステップS105)。詳細には、測距装置500は、例えば、上述したステップS104で取得した画素信号が期待する出力値と異なる場合には、故障が検出されたと判定する。測距装置500は、故障が検出されたと判定した場合(ステップS105:Yes)には、ステップS106の処理へ進み、故障が検出されないと判定した場合(ステップS105:No)には、ステップS107の処理へ進む。
 測距装置500は、故障が検出された旨の結果を、ホスト700等へ通知する(ステップS106)。例えば、故障検出時には、測距装置500の所定の出力端子(エラー出力端子)からLowレベル信号を出力してもよい。また、故障検出時には、測距装置500からホスト700へ送信される測距装置500の状態を示すステータス信号のうち、エラーステータスを示す領域にON信号(Highレベル信号)を書き込んでもよく、上述したインタフェース590から出力される信号(MIPIデータ)上にエラーを示す情報を書き込んでもよい。なお、このような情報は、ホスト700へ通知するだけでなく、メモリ等(図示省略)等に格納してもよい。
 なお、上述の説明では、故障が検出された旨の情報をホスト700に通知するものとして説明したが、本実施形態においては、これに限定されるものではない。例えば、測距装置500は、データパスチェック、SPADアクセスチェック、SPADチェックのどのチェックで故障が検出されたかどうかの情報等、詳細な情報を通知してもよい。
 測距装置500は、上述したステップS104で取得した画素信号の処理結果を出力し、一連の処理を終了する(ステップS107)。なお、本実施形態においては、先に説明したように、一連の処理は、測距装置500の動作中に、好適な頻度で繰り返し行われることとなる。
 なお、上述の説明では、データパスチェック、SPADアクセスチェック、SPADチェックの一連のチェックを順次実行するものとして説明したが、本実施形態においては、これに限定されるものではなく、故障が検出された時点でチェックを停止してもよい。
 (SPADアクセスチェック)
 次に、図11を参照して、本実施形態に係る、制御線の故障を検出するSPADアクセスチェックの詳細について説明する。図11は、本実施形態に係るSPADアクセスチェックのフローの概要を説明するためのフローチャートである。SPADアクセスチェックでは、先に説明したように、制御線の故障を主に検出する。
 詳細には、図11に示すように、まずは、OR回路(理論和回路)950と垂直制御部572等とを接続するI_SPAD線(第5の制御線)の故障を検出するためのチェックを行う。次に、スイッチ回路940と制御部570の垂直制御部572及び水平制御部574とを接続するEN_VLINE線及びEN_AREA線(第2及び第4の制御線)の故障を検出するためのチェックを行う。そして、スイッチ回路920と制御部570の垂直制御部572及び水平制御部574とを接続するACT_SPAD_V線及びACT_SPAD_H線(第1及び第3の制御線)の故障を検出するためのチェックを行う。さらに、ダウンサンプリング回路532の故障を検出するためのチェックを行う。
 本実施形態においては、図11に示す順番で行うことに限定されるものではなく、順番を変更してもよい。なお、本実施形態においては、故障が検出された時点でチェックを停止してもよいが、このような場合には、処理部530側の箇所から順次故障の有無をチェックするような順番で行うことが好ましい。このようにすることで、チェックの時間を短くしつつ、故障個所を認識することが可能となる。以下、SPADアクセスチェックの各段階の詳細について順次説明する。
 (I_SPAD線の故障チェック)
 図12及び図13を参照して、I_SPAD線の故障チェックの詳細について説明する。図12は、I_SPAD線の故障チェックのための制御信号パターン(第1の信号)を示す表であり、図13は、I_SPAD線の故障チェックのための制御信号パターンの詳細を説明するための説明図である。
 図12のテスト#1では、全ての対象領域(I_SPAD線を含む全ての画素回路900)が電源電圧とショートする状態(Highレベル固着)にする。詳細には、スイッチ回路920、940への垂直制御部572及び水平制御部574から、ACT_SPAD_V線、ACT_SPAD_H線、EN_VLINE線及びEN_AREA線を介した制御信号をLowレベルにする。さらに、OR回路950への垂直制御部572からの、I_SPAD線を介した制御信号をLowレベルにする。この際、電源電圧とのショートに対応する画素信号が出力されれば、I_SPAD線の電気的な接続が確保されていることが確認でき、すなわち、故障がないということとなる。
 図12のテスト#2では、全ての対象領域(I_SPAD線を含む全ての画素回路900)がGNDとショートする状態(Lowレベル固着)にする。詳細には、スイッチ回路920、940への垂直制御部572及び水平制御部574から、ACT_SPAD_V線、ACT_SPAD_H線、EN_VLINE線及びEN_AREA線を介した制御信号をLowレベルにする。さらに、OR回路950への垂直制御部572からの、I_SPAD線を介した制御信号として1パルス(Highレベル)を入力する。この際、GNDとのショートに対応する画素信号が出力されれば、I_SPAD線の電気的な接続が確保されていることが確認でき、すなわち、故障がないということとなる。
 図12のテスト#3、4では、隣接する画素回路900の間のI_SPAD線の電気的な接続を確認する。例えば、複数の画素回路900の間のI_SPAD線が、互いに電気的な影響を受けないように異なる2つの階層に設けられているとする。このような場合、上下左右を接続するI_SPAD線の故障を確認するためにI_SPAD線の階層に応じて信号パターンを複数準備し、それぞれ実行することとなる。例えば、図13に示すように、複数の画素回路900が異なる2つの階層に設けられている(2層配線)場合には、図に示すような2つのパターンA、Bの制御信号を、OR回路950への垂直制御部572からの、I_SPAD線を介した制御信号として用いる。詳細には、パターンAとしては、図13の上段に示すように、同じ階層に位置する複数のI_SPAD線では、オン状態のI_SPAD線の間に、2つのオフ状態のI_SPAD線となるようにし、異なる階層に位置し、且つ、隣接するI_SPAD線とは状態が一致することがないようなパターンを準備する。また、パターンBとしては、図13の下段に示すように、パターンAを横に1つずつずらしたパターンとなる。なお、各パターンで検出可能な箇所については、図13の実線で示される箇所となる。この際、これまでのテストと同様に、スイッチ回路920、940への垂直制御部572及び水平制御部574から、ACT_SPAD_V線、ACT_SPAD_H線、EN_VLINE線及びEN_AREA線を介した制御信号をLowレベルにする。このような2つのパターンの制御信号を用いることにより、上下左右を接続するI_SPAD線の故障を確認することができる。この際、図13に示すパターンA、Bの電気的な接続に対応する画素信号が出力されれば、I_SPAD線の電気的な接続が確保されていることが確認でき、すなわち、故障がないということとなる。
 なお、複数の画素回路900が1つの階層に設けられている(1層配線)場合には、左右を接続するI_SPAD線の故障を確認すればよいことから、複数の信号パターンを準備する必要はない。
 (EN_VLINE線及びEN_AREA線の故障チェック)
 図14及び図15を参照して、EN_VLINE線及びEN_AREA線の故障チェックの詳細について説明する。図14は、EN_VLINE線及びEN_AREA線の故障チェックのための制御信号パターン(第2の信号)を示す表であり、図15は、EN_VLINE線及びEN_AREA線の故障チェックのための制御信号パターンの詳細を説明するための説明図である。
 図14のテスト#1では、全ての対象領域(全ての画素回路900)のスイッチ回路940と接続するEN_VLINE線を電源電圧とショートする状態(Highレベル固着)し、電源電圧とEN_VLINE線との電気的接続をチェックする。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572及び水平制御部574からの、ACT_SPAD_V線、ACT_SPAD_H線を介した制御信号をLowレベルにする。そして、全ての対象領域(全ての画素回路900)のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をLowレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにする。この際、電源電圧とのショートに対応する画素信号が出力されれば、EN_VLINE線の電気的な接続が確保されていることが確認でき、すなわち、故障がないということとなる。
 図14のテスト#2では、全ての対象領域(全ての画素回路900)のスイッチ回路940と接続するEN_AREA線を電源電圧とショートする状態(Highレベル固着)し、電源電圧とEN_AREA線との電気的接続をチェックする。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572及び水平制御部574からの、ACT_SPAD_V線、ACT_SPAD_H線を介した制御信号をLowレベルにする。そして、全ての対象領域(全ての画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をLowレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。この際、電源電圧とのショートに対応する画素信号が出力されれば、EN_AREA線の電気的な接続が確保されていることが確認でき、すなわち、故障がないということとなる。
 次に、図14のテスト#3から#11では、21列行の各対象領域(21行分の画素回路900)がGNDとショートする状態(Lowレベル固着)にする。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572及び水平制御部574からの、ACT_SPAD_V線、ACT_SPAD_H線を介した制御信号をLowレベルにする。そして、上記各対象領域(所定の行分の画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。この際、GNDとのショートに対応する画素信号が出力されれば、上記対象領域(所定の行分の画素回路900)のEN_VLINE線及びEN_AREA線の電気的な接続が確保されていることが確認でき、すなわち、故障がないということとなる。
 次に、図14のテスト#12では、0行から20行までの対象領域(0行から20行までの画素回路900)の列方向の電気的な接続を確認する。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572及び水平制御部574からの、ACT_SPAD_V線、ACT_SPAD_H線を介した制御信号をLowレベルにする。そして、0行から20行までの対象領域(0行から20行までの画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにし、全ての対象領域(全ての画素回路900)のうち奇数列(2x+1(x=0~20))のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。すなわち、図15の示す、ショートする恐れのある隣接箇所(上下隣接、左右隣接)で異なる画素信号を出力するような信号パターンとする。この際、図15に示すような上下隣接、左右隣接でのショートに対応する画素信号が出力されなければ、EN_AREA線はショートしていないことが確認でき、すなわち、故障がないということとなる。
 次に、図14のテスト#13では、#12と同様に、21行から41行までの対象領域(0行から20行までの画素回路900)の列方向の電気的な接続を確認する。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572及び水平制御部574からの、ACT_SPAD_V線、ACT_SPAD_H線を介した制御信号をLowレベルにする。そして、21行から41行までの対象領域(21行から41行までの画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにし、全ての対象領域(全ての画素回路900)のうち奇数列(2x+1(Xx=0~20))のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。すなわち、図15の示す、ショートする恐れのある隣接箇所(上下隣接、左右隣接)で異なる画素信号を出力するような信号パターンとする。この際、図15に示すような上下隣接、左右隣接でのショートに対応する画素信号が出力されなければ、EN_AREA線はショートしていないことが確認でき、すなわち、故障がないということとなる。
 (ACT_SPAD_V線及びACT_SPAD_H線の故障チェック)
 図16及び図17を参照して、ACT_SPAD_V線及びACT_SPAD_H線の詳細について説明する。図16は、ACT_SPAD_V線及びACT_SPAD_H線の故障チェックのための制御信号パターン(第3の信号)を示す表であり、図17は、ACT_SPAD_V線及びACT_SPAD_H線の故障チェックのための制御信号パターンの詳細を説明するための説明図である。
 ここでは、ACT_SPAD_V線及びACT_SPAD_H線の電源電圧及びGNDとの電気的な接続を確認するが、ここでは、1つでも接続線の故障が検出された場合には、故障と判断する。図17の左側に示すように、全ての対象領域(全ての画素回路900)がGNDとショートする状態(Lowレベル固着)での検出を行い、次いで、図17の右側に示すように、対象領域の21行毎の対象領域ごとに、行方向及び列方向での電源電圧とショートする状態(Highレベル固着)での検出を行う。なお、例えば、Hレベル固着では、Lowレベル信号が出力された場合に、故障を検出することができる。
 図16のテスト#1では、図17の左側に示すように、全ての対象領域(全ての画素回路900)がGNDとショートする状態(Lowレベル固着)にするために、スイッチ回路920、940への垂直制御部572及び水平制御部574から、ACT_SPAD_V線、ACT_SPAD_H線、EN_VLINE線及びEN_AREA線を介した制御信号をHighレベルにする。この際、Highレベル信号が出力された場合に、ACT_SPAD_H線及びACT_SPAD_V線の故障を検出することができる。
 次に、図16のテスト#2から#10では、21行毎の対象領域(21行分の画素回路900)の行方向の、電源電圧との電気的な接続を確認する(Highレベル固着)。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572からの、ACT_SPAD_V線を介した制御信号をLowレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路920への水平制御部574からの、ACT_SPAD_H線を介した制御信号をHighレベルにする。そして、21行毎の対象領域(21行分の画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。この際、Lowレベル信号が出力された場合に、対象領域のACT_SPAD_V線の故障を検出することができる。
 次に、図16のテスト#11から#19では、21行毎の対象領域(21行分の画素回路900)の列方向の、電源電圧との電気的な接続を確認する(Highレベル固着)。詳細には、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572からの、ACT_SPAD_V線を介した制御信号をHighレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路920への水平制御部574からの、ACT_SPAD_H線を介した制御信号をLowレベルにする。そして、21行毎の対象領域(21行分の画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにし、全ての対象領域(全ての画素回路900)のスイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。この際、Lowレベル信号が出力された場合に、対象領域のACT_SPAD_H線の故障を検出することができる。
 (ダウンサンプリング回路532の故障チェック)
 図18及び図19を参照して、ダウンサンプリング回路532の故障チェックについて説明する。図18は、ダウンサンプリング回路532の故障チェックのための制御信号パターン(第4の信号)を示す表であり、図19は、ダウンサンプリング回路532の故障チェックの故障チェックのための制御信号パターンの詳細を説明するための説明図である。
 ここでは、順次選択された対象領域に対応するダウンサンプリング回路532の故障を順次検出する。詳細には、図18のテスト#1から#11では、0行から20行の対象領域(0行から20行までの画素回路900)の列方向の故障の有無を順次確認する。詳細には、図18のテスト#1から#11では、全ての対象領域(全ての画素回路900)のスイッチ回路920への垂直制御部572及び水平制御部574からの、ACT_SPAD_V線及びACT_SPAD_H線を介した制御信号をLowレベルにする。そして、0行から20行の対象領域(0行から20行までの画素回路900)のスイッチ回路940への垂直制御部572からの、EN_VLINE線を介した制御信号をHighレベルにする。さらに、複数の列毎に、スイッチ回路940への水平制御部574からの、EN_AREA線を介した制御信号をHighレベルにする。なお、テストごとに、図19に示すように、横に列をずらしながら、制御信号をHighレベルに順次していくこととなる。この際、図18に示す制御信号のパターンに対応する画素信号が出力されれば、ダウンサンプリング回路532には故障がないということとなる。
 (故障検出時について)
 また、本実施形態においては、故障検出時には、先に説明したように、一連の検出を行った後、故障が検出された場合にのみ、故障を検出した旨の信号を出力する。例えば、故障検出時のタイミングチャートの一例を示す図20の下段の領域R100に示されるように、例えば、故障検出時には、測距装置500の所定の出力端子(エラー出力端子)からLowレベル信号を出力してもよい。
 また、例えば、図20の中段の領域R101に示すように、故障検出時には、測距装置500からホスト700へ送信される測距装置500の状態を示すステータス信号のうち、エラーステータスを示す領域にON信号(Highレベル信号)を書き込んでもよい。
 <<3. まとめ>>
 以上のように、本開示の実施形態によれば、制御線の故障を検出することができる。詳細には、本実施形態によれば、測距装置500の作動中に、ホスト700からの指示を受けることなく、測距装置500だけで上記故障を検出することができる。また、本実施形態においては、受光部502(画素アレイ部510)に光を照射する必要もなく、事前に、判定のための基準となる信号を取得することがなく、容易に故障の検出を行うことができる。
 <<4. 応用例>>
 図21を参照して、本開示で提案した技術が適用され得る移動装置制御システムの一例について説明する。図21は、本技術が適用される移動装置制御システムの一例である車両制御システム11の構成例を示すブロック図である。
 車両制御システム11は、車両1に設けられ、車両1の走行支援及び自動運転に関わる処理を行う。
 車両制御システム11は、車両制御ECU(Electronic Control Unit)21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、DMS(Driver Monitoring System)30、HMI(Human Machine Interface)31、及び、車両制御部32を有する。
 車両制御ECU21、通信部22、地図情報蓄積部23、位置情報取得部24、外部認識センサ25、車内センサ26、車両センサ27、記憶部28、走行支援・自動運転制御部29、ドライバモニタリングシステム(DMS)30、ヒューマンマシーンインタフェース(HMI)31、及び、車両制御部32は、通信ネットワーク41を介して相互に通信可能に接続されている。通信ネットワーク41は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったデジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク41は、伝送されるデータの種類によって使い分けられてもよい。例えば、車両制御に関するデータに対してCANが適用され、大容量データに対してイーサネットが適用されるようにしてもよい。なお、車両制御システム11の各部は、通信ネットワーク41を介さずに、例えば、近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続されてもよい。
 なお、以下、車両制御システム11の各部が、通信ネットワーク41を介して通信を行う場合、通信ネットワーク41の記載を省略するものとする。例えば、車両制御ECU21と通信部22が通信ネットワーク41を介して通信を行う場合、単に車両制御ECU21と通信部22とが通信を行うと記載する。
 車両制御ECU21は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種のプロセッサにより構成される。車両制御ECU21は、車両制御システム11全体又は一部の機能の制御を行うことができる。
 通信部22は、車内及び車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行うことができる。このとき、通信部22は、複数の通信方式を用いて通信を行ってもよい。
 ここで、通信部22が実行可能な車外との通信について概略的に説明する。通信部22は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行うことができる。通信部22が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部22が外部ネットワークに対して行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でデジタル双方向通信が可能な無線通信方式であれば、特に限定されるものではない。
 また、例えば、通信部22は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車等の比較的低速で移動する移動体が装着する端末、店舗等に位置が固定されて設置される端末、又は、MTC(Machine Type Communication)端末を挙げることができる。さらに、通信部22は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、及び、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信のことをいう。
 通信部22は、例えば、車両制御システム11の動作を制御するソフトウエアを更新するためのプログラムを外部から受信することができる(Over The Air)。さらに、通信部22は、地図情報、交通情報、車両1の周囲の情報等を外部から受信することができる。また、例えば、通信部22は、車両1に関する情報や、車両1の周囲の情報等を外部に送信することができる。通信部22が外部に送信する車両1に関する情報としては、例えば、車両1の状態を示すデータ、認識部73による認識結果等を挙げることができる。さらに、例えば、通信部22は、eコール等の車両緊急通報システムに対応した通信を行うこともできる。
 例えば、通信部22は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(Vehicle Information and Communication System)(登録商標))により送信される電磁波を受信することもできる。
 さらに、通信部22が実行可能な車内との通信について、概略的に説明する。通信部22は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部22は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でデジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部22は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部22は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部22は、例えば、USB(Universal Serial Bus)、HDMI(High-Definition Multimedia Interface)(登録商標)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でデジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
 ここで、車内の機器とは、例えば、車内において通信ネットワーク41に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
 地図情報蓄積部23は、外部から取得した地図及び車両1で作成した地図の一方又は両方を蓄積することができる。例えば、地図情報蓄積部23は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
 高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップ等である。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両1に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ベクターマップは、例えば、車線や信号機の位置といった交通情報等をポイントクラウドマップに対応付け、ADAS(Advanced Driver Assistance System)やAD(Autonomous Driving)に適合させた地図である。
 ポイントクラウドマップ及びベクターマップは、例えば、外部のサーバ等から提供されてもよいし、カメラ51、レーダ52、LiDAR53等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両1で作成され、地図情報蓄積部23に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両1がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
 位置情報取得部24は、GNSS(Global Navigation Satellite System)衛星からGNSS信号を受信し、車両1の位置情報を取得することができる。取得した位置情報は、走行支援・自動運転制御部29に供給される。なお、位置情報取得部24は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
 外部認識センサ25は、車両1の外部の状況の認識に用いられる各種のセンサを有し、各センサからのセンサデータを車両制御システム11の各部に供給することができる。外部認識センサ25が有するセンサの種類や数は、特に限定されるものではない。
 例えば、外部認識センサ25は、カメラ51、レーダ52、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)53、及び、超音波センサ54を有する。これに限らず、外部認識センサ25は、カメラ51、レーダ52、LiDAR53、及び、超音波センサ54のうち1種類以上のセンサを有する構成であってもよい。カメラ51、レーダ52、LiDAR53、及び、超音波センサ54の数は、現実的に車両1に設置可能な数であれば特に限定されない。また、外部認識センサ25が備えるセンサの種類は、この例に限定されず、外部認識センサ25は、他の種類のセンサを有してもよい。外部認識センサ25が有する各センサのセンシング領域の例については、後述する。
 なお、カメラ51の撮影方式は、特に限定されない。例えば、測距が可能な撮影方式であるToF(Time of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じてカメラ51に適用することができる。これに限らず、カメラ51は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
 また、例えば、外部認識センサ25は、車両1に対する環境を検出するための環境センサを有することができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
 さらに、例えば、外部認識センサ25は、車両1の周囲の音や音源の位置の検出等に用いられるマイクロフォンを有する。
 車内センサ26は、車内の情報を検出するための各種のセンサを有し、各センサからのセンサデータを車両制御システム11の各部に供給することができる。車内センサ26が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
 例えば、車内センサ26は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロフォン、生体センサのうち1種類以上のセンサを有することができる。車内センサ26が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ26が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ26が備える生体センサは、例えば、シートやステアリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
 車両センサ27は、車両1の状態を検出するための各種のセンサを有し、各センサからのセンサデータを車両制御システム11の各部に供給することができる。車両センサ27が備える各種センサの種類や数は、現実的に車両1に設置可能な種類や数であれば特に限定されない。
 例えば、車両センサ27は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、及び、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を有することができる。例えば、車両センサ27は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、及び、ブレーキペダルの操作量を検出するブレーキセンサを有する。例えば、車両センサ27は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、及び、車輪の回転速度を検出する車輪速センサを有する。例えば、車両センサ27は、バッテリの残量及び温度を検出するバッテリセンサ、並びに、外部からの衝撃を検出する衝撃センサを有する。
 記憶部28は、不揮発性の記憶媒体及び揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶することができる。記憶部28は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)及びRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、及び、光磁気記憶デバイスを適用することができる。記憶部28は、車両制御システム11の各部が用いる各種プログラムやデータを記憶する。例えば、記憶部28は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を有し、事故等のイベントの前後の車両1の情報や車内センサ26によって取得された情報を記憶する。
 走行支援・自動運転制御部29は、車両1の走行支援及び自動運転の制御を行うことができる。例えば、走行支援・自動運転制御部29は、分析部61、行動計画部62、及び、動作制御部63を有する。
 分析部61は、車両1及び周囲の状況の分析処理を行うことができる。分析部61は、自己位置推定部71、センサフュージョン部72、及び、認識部73を有する。
 自己位置推定部71は、外部認識センサ25からのセンサデータ、及び、地図情報蓄積部23に蓄積されている高精度地図に基づいて、車両1の自己位置を推定することができる。例えば、自己位置推定部71は、外部認識センサ25からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両1の自己位置を推定する。車両1の位置は、例えば、後輪対車軸の中心を基準とすることができる。
 ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両1の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部73による車両1の外部の状況の検出処理及び認識処理にも用いられる。
 なお、自己位置推定部71は、位置情報取得部24により取得される位置情報、及び、車両センサ27からのセンサデータに基づいて、車両1の自己位置を推定してもよい。
 センサフュージョン部72は、複数の異なる種類のセンサデータ(例えば、カメラ51から供給される画像データ、及び、レーダ52から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行うことができる。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等を挙げることができる。
 認識部73は、車両1の外部の状況の検出を行う検出処理、及び、車両1の外部の状況の認識を行う認識処理を実行することができる。
 例えば、認識部73は、外部認識センサ25からの情報、自己位置推定部71からの情報、センサフュージョン部72からの情報等に基づいて、車両1の外部の状況の検出処理及び認識処理を行う。
 具体的には、例えば、認識部73は、車両1の周囲の物体の検出処理及び認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複することがある。
 例えば、認識部73は、レーダ52又はLiDAR53等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両1の周囲の物体を検出する。これにより、車両1の周囲の物体の有無、大きさ、形状、位置が検出される。
 例えば、認識部73は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両1の周囲の物体の動きを検出する。これにより、車両1の周囲の物体の速度及び進行方向(移動ベクトル)が検出される。
 例えば、認識部73は、カメラ51から供給される画像データに基づいて、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示等を検出又は認識する。また、認識部73は、セマンティックセグメンテーション等の認識処理を行うことにより、車両1の周囲の物体の種類を認識してもよい。
 例えば、認識部73は、地図情報蓄積部23に蓄積されている地図、自己位置推定部71による自己位置の推定結果、及び、認識部73による車両1の周囲の物体の認識結果に基づいて、車両1の周囲の交通ルールの認識処理を行うことができる。認識部73は、この処理により、信号機の位置及び状態、交通標識及び道路標示の内容、交通規制の内容、並びに、走行可能な車線等を認識することができる。
 例えば、認識部73は、車両1の周囲の環境の認識処理を行うことができる。認識部73が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、及び、路面の状態等が想定される。
 行動計画部62は、車両1の行動計画を作成する。例えば、行動計画部62は、経路計画、経路追従の処理を行うことにより、行動計画を作成することができる。
 なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、計画した経路において、車両1の運動特性を考慮して、車両1の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)を行う処理も含まれる。
 経路追従とは、経路計画により計画された経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部62は、例えば、この経路追従の処理の結果に基づき、車両1の目標速度と目標角速度を計算することができる。
 動作制御部63は、行動計画部62により作成された行動計画を実現するために、車両1の動作を制御することができる。
 例えば、動作制御部63は、後述する車両制御部32に含まれる、ステアリング制御部81、ブレーキ制御部82、及び、駆動制御部83を制御して、軌道計画により計算された軌道を車両1が進行するように、加減速制御及び方向制御を行う。例えば、動作制御部63は、衝突回避又は衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部63は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
 DMS30は、車内センサ26からのセンサデータ、及び、後述するHMI31に入力される入力データ等に基づいて、運転者の認証処理、及び、運転者の状態の認識処理等を行うことができる。認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
 なお、DMS30が、運転者以外の搭乗者の認証処理、及び、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS30が、車内センサ26からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
 HMI31は、各種のデータや指示等の入力と、各種のデータの運転者等への提示を行うことができる。
 HMI31によるデータの入力について、概略的に説明する。HMI31は、人がデータを入力するための入力デバイスを有する。HMI31は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム11の各部に供給する。HMI31は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、及び、レバーといった操作子を有する。これに限らず、HMI31は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに有してもよい。さらに、HMI31は、例えば、赤外線又は電波を利用したリモートコントロール装置や、車両制御システム11の操作に対応したモバイル機器又はウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
 HMI31によるデータの提示について、概略的に説明する。HMI31は、搭乗者又は車外に対する視覚情報、聴覚情報、及び、触覚情報の生成を行う。また、HMI31は、生成された各情報の出力、出力内容、出力タイミング及び出力方法等を制御する出力制御を行う。HMI31は、視覚情報として、例えば、操作画面、車両1の状態表示、警告表示、車両1の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成及び出力する。また、HMI31は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成及び出力する。さらに、HMI31は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成及び出力する。
 HMI31が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI31は、車両1に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプ等が有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
 HMI31が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
 HMI31が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両1の搭乗者が接触する部分に設けられる。
 車両制御部32は、車両1の各部の制御を行うことができる。車両制御部32は、ステアリング制御部81、ブレーキ制御部82、駆動制御部83、ボディ系制御部84、ライト制御部85、及び、ホーン制御部86を有する。
 ステアリング制御部81は、車両1のステアリングシステムの状態の検出及び制御等を行うことができる。ステアリングシステムは、例えば、ステアリングホイール等を含むステアリング機構、電動パワーステアリング等を有する。ステアリング制御部81は、例えば、ステアリングシステムの制御を行うステアリングECU、ステアリングシステムの駆動を行うアクチュエータ等を有する。
 ブレーキ制御部82は、車両1のブレーキシステムの状態の検出及び制御等を行うことができる。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を有する。ブレーキ制御部82は、例えば、ブレーキシステムの制御を行うブレーキECU、ブレーキシステムの駆動を行うアクチュエータ等を有する。
 駆動制御部83は、車両1の駆動システムの状態の検出及び制御等を行うことができる。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を有する。駆動制御部83は、例えば、駆動システムの制御を行う駆動ECU、駆動システムの駆動を行うアクチュエータ等を有する。
 ボディ系制御部84は、車両1のボディ系システムの状態の検出及び制御等を行うことができる。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を有する。ボディ系制御部84は、例えば、ボディ系システムの制御を行うボディ系ECU、ボディ系システムの駆動を行うアクチュエータ等を有する。
 ライト制御部85は、車両1の各種のライトの状態の検出及び制御等を行うことができる。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部85は、ライトの制御を行うライトECU、ライトの駆動を行うアクチュエータ等を有する。
 ホーン制御部86は、車両1のカーホーンの状態の検出及び制御等を行うことができる。ホーン制御部86は、例えば、カーホーンの制御を行うホーンECU、カーホーンの駆動を行うアクチュエータ等を有する。
 図22は、図21の外部認識センサ25のカメラ51、レーダ52、LiDAR53、及び、超音波センサ54等によるセンシング領域の例を示す図である。なお、図22において、車両1を上面から見た様子が模式的に示され、左端側が車両1の前端(フロント)側であり、右端側が車両1の後端(リア)側となっている。
 センシング領域101F及びセンシング領域101Bは、超音波センサ54のセンシング領域の例を示している。センシング領域101Fは、複数の超音波センサ54によって車両1の前端周辺をカバーしている。センシング領域101Bは、複数の超音波センサ54によって車両1の後端周辺をカバーしている。
 センシング領域101F及びセンシング領域101Bにおけるセンシング結果は、例えば、車両1の駐車支援等に用いられる。
 センシング領域102F乃至センシング領域102Bは、短距離又は中距離用のレーダ52のセンシング領域の例を示している。センシング領域102Fは、車両1の前方において、センシング領域101Fより遠い位置までカバーしている。センシング領域102Bは、車両1の後方において、センシング領域101Bより遠い位置までカバーしている。センシング領域102Lは、車両1の左側面の後方の周辺をカバーしている。センシング領域102Rは、車両1の右側面の後方の周辺をカバーしている。
 センシング領域102Fにおけるセンシング結果は、例えば、車両1の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域102Bにおけるセンシング結果は、例えば、車両1の後方の衝突防止機能等に用いられる。センシング領域102L及びセンシング領域102Rにおけるセンシング結果は、例えば、車両1の側方の死角における物体の検出等に用いられる。
 センシング領域103F乃至センシング領域103Bは、カメラ51によるセンシング領域の例を示している。センシング領域103Fは、車両1の前方において、センシング領域102Fより遠い位置までカバーしている。センシング領域103Bは、車両1の後方において、センシング領域102Bより遠い位置までカバーしている。センシング領域103Lは、車両1の左側面の周辺をカバーしている。センシング領域103Rは、車両1の右側面の周辺をカバーしている。
 センシング領域103Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域103Bにおけるセンシング結果は、例えば、駐車支援、及び、サラウンドビューシステムに用いることができる。センシング領域103L及びセンシング領域103Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
 センシング領域104は、LiDAR53のセンシング領域の例を示している。センシング領域104は、車両1の前方において、センシング領域103Fより遠い位置までカバーしている。一方、センシング領域104は、センシング領域103Fより左右方向の範囲が狭くなっている。
 センシング領域104におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
 センシング領域105は、長距離用のレーダ52のセンシング領域の例を示している。センシング領域105は、車両1の前方において、センシング領域104より遠い位置までカバーしている。一方、センシング領域105は、センシング領域104より左右方向の範囲が狭くなっている。
 センシング領域105におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
 なお、外部認識センサ25が含むカメラ51、レーダ52、LiDAR53、及び、超音波センサ54の各センサのセンシング領域は、図22以外に各種の構成をとってもよい。具体的には、超音波センサ54が車両1の側方もセンシングするようにしてもよいし、LiDAR53が車両1の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
 本開示の技術は、例えばLiDAR53等に適用することができる。例えば、本開示の技術を車両制御システム11のLiDAR53に適用することにより、LiDAR53で生じた故障を容易に検出することが可能となることから、LiDAR53の誤動作や誤検出を防ぐことができる。従って、LiDAR53による周辺車両等の検出を正常に行うことが可能となり、車両1の走行の安全性を担保することができる。
 <<5. 補足>>
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、本技術は以下のような構成も取ることができる。
(1)
 行列状に配列する複数の受光素子からなる画素アレイ部を含む受光部と、
 制御信号を生成する制御信号生成部と、
 前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部と、
 前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部と、
 故障を検出する故障判定部と、
 を備え、
 前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、
 光検出装置。
(2)
 前記受光素子は、アバランシェフォトダイオードからなる、上記(1)に記載の光検出装置。
(3)
 前記受光部は、
 前記受光素子ごとに設けられた、前記受光素子を駆動する駆動スイッチと、
 前記受光素子ごとに設けられた、前記受光素子からの出力信号の出力を制御する出力スイッチと、
 前記各受光素子からの出力信号と他の受光素子からの出力信号に応じて出力する理論和回路と、
 をさらに含む、上記(1)又は(2)に記載の光検出装置。
(4)
 前記制御部は、
 前記制御部は、
 列単位で前記受光素子を制御する水平制御部と、
 行単位で前記受光素子を制御する垂直制御部と、
 を含む、上記(3)に記載の光検出装置。
(5)
 前記制御線は、
 前記垂直制御部と前記駆動スイッチとを電気的に接続する第1の制御線と、
 前記垂直制御部と前記出力スイッチとを電気的に接続する第2の制御線と、
 前記水平制御部と前記駆動スイッチとを電気的に接続する第3の制御線と、
 前記水平制御部と前記出力スイッチとを電気的に接続する第4の制御線と、
 前記垂直制御部と前記理論和回路とを電気的に接続する第5の制御線と、
 を含む、上記(4)に記載の光検出装置。
(6)
 前記処理部は、ダウンサンプリング回路を含む、上記(5)に記載の光検出装置。
(7)
 前記制御信号生成部は、フレーム同期信号が非アクティブである間に、前記故障検出用制御信号を出力する、上記(6)に記載の光検出装置。
(8)
 前記故障検出用制御信号は、前記処理部の故障を検出するための処理部故障検出信号に続いて、前記制御線の故障を検出するための制御線故障検出信号を含む、上記(7)に記載の光検出装置。
(9)
 前記故障検出用制御信号は、前記制御線故障検出信号の前又は後に、前記受光部の故障を検出するための受光部故障検出信号を含む、上記(8)に記載の光検出装置。
(10)
 前記制御線故障検出信号は、前記第5の制御線の故障を検出する第1の信号を含む、上記(9)に記載の光検出装置。
(11)
 前記制御線故障検出信号は、前記第2及び第4の制御線の故障を検出する第2の信号を含む、上記(10)に記載の光検出装置。
(12)
 前記制御線故障検出信号は、前記第1及び第3の制御線の故障を検出する第3の信号を含む、上記(11)に記載の光検出装置。
(13)
 前記制御線故障検出信号は、前記ダウンサンプリング回路の故障を検出する第4の信号を含む、上記(12)に記載の光検出装置。
(14)
 前記制御線故障検出信号は、前記第1の信号、前記第2の信号、前記第3の信号、前記第4の信号の順に各信号を含む、上記(13)に記載の光検出装置。
(15)
 前記故障判定部は、故障を検出した場合、出力端子又はホストコンピュータに所定の信号を出力する、上記(1)~(14)のいずれか1つに記載の光検出装置。
(16)
 前記画素アレイ部が設けられた第1の基板と、
 前記第1の基板に積層し、前記制御部、前記処理部、及び、前記故障判定部が設けられた第2の基板と、
 から形成される、上記(1)~(15)のいずれか1つに記載の光検出装置。
(17)
 前記制御線は、前記第2の基板に設けられている、上記(16)に記載の光検出装置。
(18)
 照射光を照射する照明装置と、
 前記照射光が被写体により反射された反射光を受光する光検出装置と、
 を含み、
 前記光検出装置は、
 行列状に配列する複数の受光素子からなる画素アレイ部を含む受光部と、
 制御信号を生成する制御信号生成部と、
 前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部と、
 前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部と、
 故障を検出する故障判定部と、
 を有し、
 前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、
 測距システム。
  1  車両
  11  車両制御システム
  21  車両制御ECU(Electronic Control Unit)
  22  通信部
  23  地図情報蓄積部
  24  位置情報取得部
  25  外部認識センサ
  26  車内センサ
  27  車両センサ
  28  記憶部
  29  走行支援・自動運転制御部
  30  ドライバモニタリングシステム(DMS)
  31  ヒューマンマシーンインタフェース(HMI)
  32  車両制御部
  41  通信ネットワーク
  51  カメラ
  52  レーダ
  53  LiDAR
  54  超音波センサ
  61  分析部
  62  行動計画部
  63  動作制御部
  71  自己位置推定部
  72  センサフュージョン部
  73  認識部
  81  ステアリング制御部
  82  ブレーキ制御部
  83  駆動制御部
  84  ボディ系制御部
  85  ライト制御部
  86  ホーン制御部
  90  測距システム
  200、250  半導体基板
  252  ロジックアレイ部
  300、500  測距装置
  301、400  光源部
  302、502  受光部
  303  被測定物
  310  頻度
  311  範囲
  312  アクティブ光成分
  510  画素アレイ部
  512  SPAD
  530  処理部
  532  ダウンサンプリング回路
  534  故障判定部
  540  変換部
  550  生成部
  560  信号処理部
  570  制御部
  572  垂直制御部
  574  水平制御部
  576  制御信号生成部
  580  発光タイミング制御部
  590  インタフェース
  600  記憶装置
  700  ホスト
  800  光学系
  900  画素回路
  902、904  トランジスタ
  910  定電流源
  920、940  スイッチ回路
  930  インバータ回路
  950  OR回路
  R100、R101  領域

Claims (18)

  1.  行列状に配列する複数の受光素子からなる画素アレイ部を含む受光部と、
     制御信号を生成する制御信号生成部と、
     前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部と、
     前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部と、
     故障を検出する故障判定部と、
     を備え、
     前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、
     光検出装置。
  2.  前記受光素子は、アバランシェフォトダイオードからなる、請求項1に記載の光検出装置。
  3.  前記受光部は、
     前記受光素子ごとに設けられた、前記受光素子を駆動する駆動スイッチと、
     前記受光素子ごとに設けられた、前記受光素子からの出力信号の出力を制御する出力スイッチと、
     前記各受光素子からの出力信号と他の受光素子からの出力信号に応じて出力する理論和回路と、
     をさらに含む、請求項1に記載の光検出装置。
  4.  前記制御部は、
     列単位で前記受光素子を制御する水平制御部と、
     行単位で前記受光素子を制御する垂直制御部と、
     を含む、請求項3に記載の光検出装置。
  5.  前記制御線は、
     前記垂直制御部と前記駆動スイッチとを電気的に接続する第1の制御線と、
     前記垂直制御部と前記出力スイッチとを電気的に接続する第2の制御線と、
     前記水平制御部と前記駆動スイッチとを電気的に接続する第3の制御線と、
     前記水平制御部と前記出力スイッチとを電気的に接続する第4の制御線と、
     前記垂直制御部と前記理論和回路とを電気的に接続する第5の制御線と、
     を含む、請求項4に記載の光検出装置。
  6.  前記処理部は、ダウンサンプリング回路を含む、請求項5に記載の光検出装置。
  7.  前記制御信号生成部は、フレーム同期信号が非アクティブである間に、前記故障検出用制御信号を出力する、請求項6に記載の光検出装置。
  8.  前記故障検出用制御信号は、前記処理部の故障を検出するための処理部故障検出信号に続いて、前記制御線の故障を検出するための制御線故障検出信号を含む、請求項7に記載の光検出装置。
  9.  前記故障検出用制御信号は、前記制御線故障検出信号の前又は後に、前記受光部の故障を検出するための受光部故障検出信号を含む、請求項8に記載の光検出装置。
  10.  前記制御線故障検出信号は、前記第5の制御線の故障を検出する第1の信号を含む、請求項9に記載の光検出装置。
  11.  前記制御線故障検出信号は、前記第2及び第4の制御線の故障を検出する第2の信号を含む、請求項10に記載の光検出装置。
  12.  前記制御線故障検出信号は、前記第1及び第3の制御線の故障を検出する第3の信号を含む、請求項11に記載の光検出装置。
  13.  前記制御線故障検出信号は、前記ダウンサンプリング回路の故障を検出する第4の信号を含む、請求項12に記載の光検出装置。
  14.  前記制御線故障検出信号は、前記第1の信号、前記第2の信号、前記第3の信号、前記第4の信号の順に各信号を含む、請求項13に記載の光検出装置。
  15.  前記故障判定部は、故障を検出した場合、出力端子又はホストコンピュータに所定の信号を出力する、請求項1に記載の光検出装置。
  16.  前記画素アレイ部が設けられた第1の基板と、
     前記第1の基板に積層し、前記制御部、前記処理部、及び、前記故障判定部が設けられた第2の基板と、
     から形成される、請求項1に記載の光検出装置。
  17.  前記制御線は、前記第2の基板に設けられている、請求項16に記載の光検出装置。
  18.  照射光を照射する照明装置と、
     前記照射光が被写体により反射された反射光を受光する光検出装置と、
     を含み、
     前記光検出装置は、
     行列状に配列する複数の受光素子からなる画素アレイ部を含む受光部と、
     制御信号を生成する制御信号生成部と、
     前記受光部と制御線を介して電気的に接続され、前記制御信号に基づいて受光部を制御する制御部と、
     前記受光部と信号線を介して電気的に接続され、前記受光部からの出力信号を処理する処理部と、
     故障を検出する故障判定部と、
     を有し、
     前記故障判定部は、所定のパターンを有する故障検出用制御信号に基づいて制御された前記受光部からの前記出力信号により、前記制御線の故障を検出する、
     測距システム。
PCT/JP2022/008765 2021-06-04 2022-03-02 光検出装置及び測距システム WO2022254839A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
EP22815597.4A EP4350283A4 (en) 2021-06-04 2022-03-02 OPTICAL DETECTION DEVICE AND DISTANCE MEASURING SYSTEM
JP2023525401A JPWO2022254839A1 (ja) 2021-06-04 2022-03-02
CN202280038296.9A CN117396775A (zh) 2021-06-04 2022-03-02 光学检测装置和距离测量系统
KR1020237039340A KR20240018431A (ko) 2021-06-04 2022-03-02 광 검출 장치 및 측거 시스템
US18/555,485 US20240201338A1 (en) 2021-06-04 2022-03-02 Photodetection device and distance measurement system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021094495 2021-06-04
JP2021-094495 2021-06-04

Publications (1)

Publication Number Publication Date
WO2022254839A1 true WO2022254839A1 (ja) 2022-12-08

Family

ID=84324163

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/008765 WO2022254839A1 (ja) 2021-06-04 2022-03-02 光検出装置及び測距システム

Country Status (7)

Country Link
US (1) US20240201338A1 (ja)
EP (1) EP4350283A4 (ja)
JP (1) JPWO2022254839A1 (ja)
KR (1) KR20240018431A (ja)
CN (1) CN117396775A (ja)
TW (1) TW202307461A (ja)
WO (1) WO2022254839A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015155854A (ja) * 2014-02-21 2015-08-27 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
WO2017209221A1 (ja) * 2016-05-31 2017-12-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像方法、カメラモジュール、並びに電子機器
JP2020010150A (ja) * 2018-07-06 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像システム
JP2020112528A (ja) 2019-01-17 2020-07-27 株式会社デンソー 光測距装置およびその制御方法
JP2020112501A (ja) 2019-01-16 2020-07-27 株式会社デンソー 光学的測距装置および光学的測距装置における異常の発生を検出する方法
JP2020143996A (ja) 2019-03-06 2020-09-10 株式会社デンソー 光学的測距装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015155854A (ja) * 2014-02-21 2015-08-27 オムロンオートモーティブエレクトロニクス株式会社 レーザレーダ装置
WO2017209221A1 (ja) * 2016-05-31 2017-12-07 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像方法、カメラモジュール、並びに電子機器
JP2020010150A (ja) * 2018-07-06 2020-01-16 ソニーセミコンダクタソリューションズ株式会社 撮像装置および撮像システム
JP2020112501A (ja) 2019-01-16 2020-07-27 株式会社デンソー 光学的測距装置および光学的測距装置における異常の発生を検出する方法
JP2020112528A (ja) 2019-01-17 2020-07-27 株式会社デンソー 光測距装置およびその制御方法
JP2020143996A (ja) 2019-03-06 2020-09-10 株式会社デンソー 光学的測距装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4350283A4

Also Published As

Publication number Publication date
JPWO2022254839A1 (ja) 2022-12-08
KR20240018431A (ko) 2024-02-13
EP4350283A4 (en) 2024-09-04
US20240201338A1 (en) 2024-06-20
CN117396775A (zh) 2024-01-12
EP4350283A1 (en) 2024-04-10
TW202307461A (zh) 2023-02-16

Similar Documents

Publication Publication Date Title
US11940536B2 (en) Light receiving element and ranging system
US20230230368A1 (en) Information processing apparatus, information processing method, and program
US20210224617A1 (en) Information processing device, information processing method, computer program, and mobile device
CN114424265A (zh) 信号处理设备、信号处理方法、程序和移动设备
WO2022254839A1 (ja) 光検出装置及び測距システム
US12117313B2 (en) Photodetection device and photodetection system
WO2024181041A1 (ja) 測距装置及び測距方法
WO2023276223A1 (ja) 測距装置、測距方法及び制御装置
US20240241227A1 (en) Distance measuring device and distance measuring method
US20240272285A1 (en) Light source control device, light source control method, and distance measuring device
WO2023145529A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20240179429A1 (en) Solid-state imaging device, imaging device, processing method in solid-state imaging device, processing program in solid-state imaging device, processing method in imaging device, and processing program in imaging device
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023223928A1 (ja) 測距装置及び測距システム
WO2024185361A1 (ja) 固体撮像装置
WO2023149089A1 (ja) 学習装置、学習方法及び学習プログラム
WO2024009739A1 (ja) 光学式測距センサ、及び光学式測距システム
WO2024106196A1 (ja) 固体撮像装置および電子機器
US20240241235A1 (en) Light detecting device and distance measuring system
WO2024062842A1 (ja) 固体撮像装置
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2023074419A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023162497A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2023281824A1 (ja) 受光装置、測距装置及び受光装置の制御方法
WO2023047666A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22815597

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023525401

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 18555485

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202280038296.9

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2022815597

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2022815597

Country of ref document: EP

Effective date: 20240104