WO2024106214A1 - 物体検知装置及び物体検知方法 - Google Patents

物体検知装置及び物体検知方法 Download PDF

Info

Publication number
WO2024106214A1
WO2024106214A1 PCT/JP2023/039542 JP2023039542W WO2024106214A1 WO 2024106214 A1 WO2024106214 A1 WO 2024106214A1 JP 2023039542 W JP2023039542 W JP 2023039542W WO 2024106214 A1 WO2024106214 A1 WO 2024106214A1
Authority
WO
WIPO (PCT)
Prior art keywords
signal waveform
pseudo
distance
signal
detection device
Prior art date
Application number
PCT/JP2023/039542
Other languages
English (en)
French (fr)
Inventor
凌 山本
啓子 秋山
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Publication of WO2024106214A1 publication Critical patent/WO2024106214A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/483Details of pulse systems
    • G01S7/486Receivers
    • G01S7/487Extracting wanted echo signals, e.g. pulse detection

Definitions

  • This specification discloses technology for detecting objects.
  • Patent Document 1 a signal waveform of reflected light from a sensor that detects reflected light from an object is acquired, and multiple signal waveforms that arrive at the sensor with a time difference are acquired. The peak intensities of the multiple signal waveforms are then compared to determine whether the object shown in the signal waveform is a pseudo object.
  • Patent Document 1 when the peak intensity in the signal waveform becomes saturated, it becomes impossible to compare the magnitude relationship. In other words, it cannot be said that the versatility is sufficiently high for use in determining whether or not there is a pseudo object.
  • One of the objectives of the disclosure of this specification is to provide an object detection device and an object detection method that improves the versatility of determining pseudo objects.
  • the aspect disclosed herein is an object detection device that detects an object based on information acquired from a sensor that irradiates an irradiation light toward a measurement area and detects a reflected light from an object in the measurement area, the object detection device comprising: a waveform detection unit that detects a plurality of signal waveforms that are signal waveforms of reflected light and arrive at the sensor with a time difference; The device further includes a pseudo object determination unit that determines whether or not an object indicated by a signal waveform is a pseudo object based on the magnitude relationship between the wave widths of a plurality of signal waveforms.
  • Another aspect disclosed herein is a method of object detection executed by at least one processor to detect an object, the method comprising: causing the sensor to emit light toward a measurement area; causing a sensor to detect reflected light from an object in a measurement area; detecting a plurality of signal waveforms of reflected light that arrive at the sensor with a time difference; and determining whether or not the object indicated by the signal waveform is a pseudo object based on the magnitude relationship in the wave widths of the multiple signal waveforms.
  • an object shown in a signal waveform is a pseudo object is determined based on the magnitude relationship of the wave width of the signal waveform, so the determination is valid even when, for example, the peak intensity in the signal waveform is saturated. Therefore, the versatility of determining pseudo objects is improved.
  • FIG. 1 is a diagram showing a schematic configuration of a LiDAR module. Schematic diagram illustrating the mechanical configuration and measurement area of the LiDAR.
  • FIG. FIG. 2 is a diagram showing the functional configuration of a processing unit.
  • FIG. 1 is a diagram for explaining an assumed measurement situation.
  • 5 is a graph illustrating the wave width of a signal waveform corresponding to a reflector.
  • 11 is a graph illustrating the wave width of a signal waveform corresponding to raindrops.
  • 1 is a graph illustrating the relationship between the magnitudes of wave widths.
  • 1 is a graph illustrating the relationship between the magnitudes of wave widths.
  • 5 is a graph illustrating the peak intensity of a signal waveform corresponding to a reflector.
  • FIG. 5 is a graph illustrating peak intensities of signal waveforms corresponding to raindrops.
  • 11 is a flowchart showing an example of an object detection process.
  • FIG. 2 is a diagram showing the functional configuration of a processing unit.
  • FIG. 13 is a diagram for explaining the relationship between ROI and intensity saturation.
  • FIG. 13 is a diagram for explaining the relationship between ROI and intensity saturation.
  • FIG. 2 is a diagram showing the functional configuration of a processing unit.
  • 4A and 4B are diagrams illustrating detection of a road surface using a disturbance light image. 1 is a diagram for explaining the relationship between the reflector distance and overlap of signal waveforms;
  • a LiDAR module 1 As shown in Fig. 1, a LiDAR module 1 according to a first embodiment of the present disclosure is mounted on a vehicle as a moving body.
  • the LiDAR module 1 detects objects around the vehicle.
  • the LiDAR module 1 includes a LiDAR (Light Detection and Ranging/Laser imaging Detection and Ranging) 2 main body and a processing unit 3.
  • the LiDAR 2 main body and the processing unit 3 are housed in a common housing, for example, and integrated.
  • the processing unit 3 is a dedicated processing device specialized for controlling the LiDAR 2 main body or detecting objects.
  • the LiDAR2 is an on-board sensor and optical distance measuring device that irradiates illumination light IL from a light source 11 toward a measurement area MA and detects reflected light RL from an object.
  • the LiDAR2 is disposed, for example, on the front grill or roof of the vehicle. As shown in FIG. 2, the LiDAR2 includes a light emitting unit 10, a scanning unit 15, and a light receiving unit 20.
  • the light-emitting unit 10 emits irradiation light IL toward the measurement area MA.
  • the light-emitting unit 10 includes, for example, a light source 11 and a light-projecting optical system 12. There may be one or more light sources 11.
  • the light source 11 may be, for example, a laser oscillation element such as a laser diode (LD).
  • the light source 11 may be an LED.
  • the wavelength of the light emitted by the light source 11 may be a wavelength other than visible light, such as near-infrared light.
  • the light-projecting optical system 12 collects the light emitted from the light source 11 and projects a beam of light toward the measurement area MA.
  • the light-projecting optical system 12 includes one or more lenses.
  • the scanning unit 15 scans the light emitted by the light emitting unit 10 within the measurement area MA.
  • the scanning unit 15 includes a scanning mirror 16.
  • the scanning mirror 16 includes a drive motor and a reflector.
  • the drive motor is, for example, a voice coil motor, a brushed DC motor, a stepping motor, etc.
  • the drive motor drives the rotation axis of the reflector in conjunction with the light emission timing.
  • the reflector is a mirror having a reflective surface that reflects the irradiation light IL to the measurement area MA.
  • the reflective surface is, for example, formed in a flat shape.
  • the reflector faces both the light projecting optical system 12 of the light emitting unit 10 and the light receiving optical system 21 of the light receiving unit 20. Therefore, the reflector can simultaneously reflect not only the illumination light IL, but also the reflected light RL that is the light reflected from an object in the measurement area MA, and cause it to enter the light receiving unit 20.
  • the light receiving unit 20 receives the reflected light RL.
  • the light receiving unit 20 includes a light receiving optical system 21, a light receiving element 22, and a decoder 23.
  • the light receiving optical system 21 collects the reflected light RL and makes it incident on the light receiving element 22.
  • the light receiving optical system 21 includes one or more lenses.
  • the light receiving element 22 receives the reflected light RL collected by the light receiving optical system 21.
  • the light receiving element 22 may be, for example, a single photon avalanche photodiode (SPAD, Single Photon Avalanche Diode) sensor. As shown in FIG. 3, the light receiving element 22 is formed in a two-dimensional array of multiple SPADs (hereinafter referred to as sensor pixels 22a) that are highly integrated on the detection surface 22b.
  • SPAD Single Photon Avalanche Diode
  • each sensor pixel 22a When each sensor pixel 22a receives a single photon, it generates a single electrical pulse through an electron multiplication operation caused by avalanche multiplication (the so-called Geiger mode). In other words, the sensor pixel 22a can generate an electrical pulse as a digital signal directly, without going through an AD conversion circuit that converts an analog signal into a digital signal. Therefore, the light reception result can be read out at high speed.
  • avalanche multiplication the so-called Geiger mode
  • the decoder 23 is provided to output the electrical pulses generated by the sensor pixels 22a, and includes a selection circuit and a clock oscillator.
  • the selection circuit sequentially selects the sensor pixels 22a from which to extract the electrical pulses.
  • the selected sensor pixels 22a output the electrical pulses to the processing unit 3.
  • the selection circuit has finished selecting the sensor pixels 22a one by one, one sampling is completed. This sampling period corresponds to the clock frequency output from the clock circuit.
  • the light receiver 20 can receive and detect disturbance light from a direction that corresponds to the angle of the reflector. Furthermore, the disturbance light is imaged on the light receiver 22, making it possible to detect an object in the measurement area MA.
  • the disturbance light referred to here is also referred to as background light.
  • the processing unit 3 processes the information acquired from the LiDAR 2 main body and detects objects in the measurement area MA.
  • the processing unit 3 may be realized, for example, by a dedicated computer.
  • the processing unit 3 may have at least one memory 3a and one processor 3b.
  • the memory 3a may be at least one type of non-transient physical storage medium, such as a semiconductor memory, a magnetic medium, or an optical medium, that non-temporarily stores programs and data that can be read by the processor 3b.
  • a rewritable volatile storage medium such as a RAM (Random Access Memory), may be provided as the memory 3a.
  • the processor 3b includes at least one type of core, such as a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or a RISC (Reduced Instruction Set Computer)-CPU.
  • the processing unit 3 may also include circuits such as an FPGA (Field-Programmable Gate Array) or an ASIC (Application Specific Integrated Circuit).
  • the processing unit 3 includes a histogram generating unit 31, a distance calculating unit 32, and a pseudo object determining unit 33 as functional blocks realized by at least one processor 3b that executes a program.
  • the histogram generating unit 31 adds up the electrical pulses corresponding to the reflected light RL output from the light receiving unit 20.
  • the histogram generating unit 31 generates a histogram of the reflected light intensity versus time from the addition result.
  • the generated histogram essentially shows the signal waveform of the reflected light RL.
  • the histogram generator 31 typically generates a histogram obtained by accumulating multiple samples for pixels in the aperture region (i.e., ROI, Region Of Interest) of the sensor pixels 22a. By accumulating multiple samples, the S/N ratio can be improved.
  • each sensor pixel 22a essentially outputs a signal of 0 or 1 for each sampling.
  • the number of sensor pixels 22a in the ROI that output 1 is said to correspond to the reflected light intensity. Therefore, when all sensor pixels 22a in the ROI output 1, the reflected light intensity indicates the maximum value in the measurement and saturates. This saturation phenomenon often occurs when an object is located close by or when the object is a reflector RF (also called a strongly reflective object).
  • the distance calculation unit 32 calculates the distance at which an object exists based on the histogram generated by the histogram generation unit 31, i.e., the signal waveform of the reflected light RL.
  • the time axis corresponds to the time it takes for the irradiated light IL from the light emission unit 10 to be reflected by the object and return to the light receiving unit 20, the so-called TOF (Time Of Flight), and this time is proportional to the distance.
  • the distance calculation unit 32 calculates the time showing the peak intensity of the signal waveform, and calculates the distance of the object according to the time showing that peak intensity PI.
  • the distance calculation unit 32 may determine that two or more objects are present at different distances.
  • the pseudo object determination unit 33 determines whether or not an object exists at each distance calculated by the distance calculation unit 32.
  • the pseudo object determination unit 33 determines whether or not the signal waveform acquired from the LiDAR 2 indicates a pseudo object VO based on whether or not the signal waveform satisfies a predetermined condition.
  • the pseudo object VO may be, for example, a ghost or virtual image caused by multiple reflected light that is multiple-reflected between the LiDAR2 and the reflector RF located at a distance D1.
  • the pseudo object VO may be, for example, a ghost or virtual image caused by multiple reflected light that is multiple-reflected between the LiDAR2 and the reflector RF located at a distance D1.
  • a second signal waveform S2 and even a third signal waveform to be generated, which arrive with a time difference from the first signal waveform S1 indicating the reflector RF.
  • the second signal waveform S2 to the third signal waveform correspond to the pseudo object VO that should not actually exist at a position at distance D2.
  • the signal waveform corresponding to the pseudo object VO should be distinguished from the signal waveform of a real object. For example, as shown in Figure 5, when it is raining and an ordinary object RO is present at a distance D2 behind a raindrop RD located at a distance D1, a signal waveform similar to the pseudo object VO may be measured. It is necessary to prevent the object RO behind the raindrop RD from being judged as a pseudo object VO.
  • the conditions under which the pseudo object determination unit 33 determines that a pseudo object VO exists when the first signal waveform S1 and the second signal waveform S2 arriving with a time difference are detected are as follows:
  • the first condition is that the object distance indicated by the second signal waveform S2 is substantially N times the object distance indicated by the first signal waveform S1.
  • the relationship of N times the distance indicates the possibility that the second signal waveform S2 is caused by multiple reflections.
  • N may be an integer of 2 or more.
  • it is also possible to determine only when N 2, i.e., only the double distance.
  • the second condition is that the amplitude of the first signal waveform S1 is equal to or greater than a preset amplitude threshold.
  • the amplitude of the signal waveform here is a width defined in the time domain or distance domain.
  • the amplitude refers to the width of the signal waveform that is the threshold intensity obtained by multiplying the peak intensity PI of the signal waveform by a predetermined coefficient that is set in advance.
  • the predetermined coefficient may be set as appropriate. If the coefficient is 0.5, the amplitude W1 can be said to be the half-width.
  • the amplitude of the first signal waveform S1 corresponding to the reflector RF is relatively large.
  • the amplitude of the first signal waveform S1 corresponding to the raindrop RD is relatively small. Therefore, when the amplitude W1 of the first signal waveform S1 is equal to or greater than the amplitude threshold, it indicates that the object indicated by the first signal waveform S1 is likely to be a reflector RF that is likely to cause a pseudo object VO.
  • the amplitude threshold may be set to a value that can distinguish between the reflector RF and the raindrop RD.
  • the amplitude threshold may also be appropriately adjusted according to the climate or environment of the area in which the vehicle is used (e.g., an area where squalls are likely to occur).
  • the third condition is that the difference between the amplitude W1 of the first signal waveform S1 and the amplitude W2 of the second signal waveform S2 is equal to or greater than a predetermined difference threshold.
  • the difference between the amplitude W1 of the first signal waveform S1 and the amplitude W1 of the second signal waveform S2 is the value obtained by subtracting the amplitude W2 of the second signal waveform S2 from the amplitude W1 of the first signal waveform S1.
  • the amplitude W1 of the first signal waveform S1 is greater than the amplitude W2 of the second signal waveform S2.
  • the difference between the amplitude W1 of the first signal waveform S1 and the amplitude W2 of the second signal waveform S2 tends to be smaller.
  • the amplitude W1 of the first signal waveform S1 were simply set to be greater than the amplitude W2 of the second signal waveform S2, the condition could be met by chance even when raindrops RD and object RO are present. Therefore, by setting a difference threshold, which is a lower limit for the difference, the possibility that the object indicated by the second signal waveform S2 is a pseudo object VO is increased.
  • the difference threshold is a value greater than 0, and an optimal value can be set based on knowledge gained, for example, from experiments, etc.
  • the fourth condition is that the peak intensity PI of the second signal waveform S2 is equal to or greater than the intensity threshold.
  • the peak intensity PI of the second signal waveform S2 becomes relatively high due to the high specular reflectance of the reflector RF.
  • the first signal waveform S1 corresponds to raindrops RD
  • the second signal waveform S2 corresponds to the object RO
  • the intensity of the light traveling back and forth between the LiDAR2 and the object RO is attenuated by the raindrops RD. Therefore, the peak intensity PI of the second signal waveform S2 becomes relatively low.
  • the peak intensity PI of the second signal waveform S2 is equal to or greater than the intensity threshold, this indicates that the second signal waveform S2 may be caused by multiple reflections.
  • the pseudo object determination unit 33 may determine that the object corresponding to the second signal waveform S2 is a pseudo object VO only if all of the above first to fourth conditions are met. On the other hand, the pseudo object determination unit 33 may determine that the object corresponding to the second signal waveform S2 is a pseudo object VO if one, two or more, or three or more of the above first to fourth conditions are met. The pseudo object determination unit 33 may perform a comprehensive determination of the pseudo object VO based on the success or failure of each condition or the numerical values used therefor.
  • the pseudo object determination unit 33 determines that no object exists at the distance calculated by the distance calculation unit 32, that is, that the pseudo object VO is present, it removes the information of the pseudo object VO. If the pseudo object determination unit 33 determines that the second signal waveform S2 is a pseudo object VO because the object distance indicated by the second signal waveform S2 indicates a distance N times the object distance indicated by the first signal waveform S1, it may remove all candidate objects detected beyond the pseudo object VO as noise.
  • the candidate objects detected beyond the pseudo object VO here refer to candidate objects detected at a distance equal to or greater than the pseudo object VO, based on the LiDAR2.
  • the pseudo object determination unit 33 may add information that the object corresponding to the second signal waveform S2 is a pseudo object VO.
  • Information about the object detected by the processing unit 3 in this manner may be output and provided to a vehicle driving assistance system, an autonomous driving system, an HMI, etc., which are external to the processing unit 3.
  • steps S11 to S16 are executed mainly by at least one processor 3b at a predetermined execution cycle or based on a predetermined trigger.
  • the light receiving unit 20 receives reflected light RL reflected from an object in the measurement area MA. After S12, proceed to S13.
  • the histogram generating section 31 in the processing unit 3 acquires information from the light receiving section 20.
  • the histogram generating section 31 detects the signal waveform of the reflected light RL by generating a histogram.
  • the detection here includes the detection of multiple signal waveforms having peak intensities PI at different positions in the histogram, i.e., the detection of multiple signal waveforms S1, S2 that arrive with a time difference. After S13, proceed to S14.
  • the distance calculation unit 32 calculates the distance of the object corresponding to the signal waveform. When multiple signal waveforms are detected, the distance calculation unit 32 calculates the distance of the object corresponding to each signal waveform individually. After S14, proceed to S15.
  • the pseudo object determination unit 33 determines whether or not the object corresponding to the signal waveform is a pseudo object VO. If a positive determination is made in S15, the process moves to S16. If a negative determination is made in S15, the process ends.
  • the pseudo object determination unit 33 removes the information of the pseudo object VO determined in S16. This completes the process.
  • whether the object shown in the signal waveforms S1 and S2 is a pseudo object VO is determined based on the magnitude relationship between the wave widths W1 and W2 of the signal waveforms S1 and S2, so the determination is valid even when, for example, the peak intensity PI in the signal waveform is saturated. Therefore, the versatility of the determination of the pseudo object VO is improved.
  • the judgment conditions include that the object distance indicated by the second signal waveform S2 is substantially N times the object distance indicated by the first signal waveform S1.
  • the relationship of N times the distance indicates the possibility that the second signal waveform S2 is caused by multiple reflections, and therefore the judgment accuracy of the pseudo object VO caused by multiple reflections can be improved.
  • the reflector RF is likely to generate a pseudo object VO, and the amplitude W1 of the first signal waveform S1 corresponding to the reflector RF tends to be relatively large.
  • the determination conditions include that the amplitude W1 of the first signal waveform S1 is equal to or greater than a preset amplitude threshold value. Therefore, the accuracy of determining the pseudo object VO can be improved.
  • the determination conditions include that the difference between the amplitude W1 of the first signal waveform S1 and the amplitude W2 of the second signal waveform S2 is equal to or greater than a predetermined difference threshold. In other words, since it is possible to distinguish between patterns caused by raindrops RD and objects RO, it is possible to improve the accuracy of determining pseudo objects VO.
  • the determination conditions include that the peak intensity PI of the second signal waveform S2 is equal to or greater than the intensity threshold. Therefore, it is possible to improve the accuracy of determining the pseudo object VO caused by multiple reflections.
  • the LiDAR 2 corresponds to the "sensor”.
  • the processing unit 3 corresponds to the "object detection device”.
  • the histogram generation unit 31 corresponds to the "waveform detection unit”.
  • the second embodiment is a modification of the first embodiment.
  • the second embodiment will be described focusing on the differences from the first embodiment.
  • the processing unit 3 of the second embodiment is configured to include a measurement condition change unit 34 as a functional block realized by at least one processor 3b that executes a program.
  • the measurement condition change unit 34 changes the measurement conditions based on a predetermined trigger.
  • the predetermined trigger may be the detection by the histogram generation unit 31 of multiple signal waveforms S1 and S2 that arrive with a time difference.
  • the predetermined trigger may also be the detection of multiple signal waveforms, among which the intensity of the first signal waveform S1 and the intensity of the second signal waveform S2 are saturated.
  • the predetermined trigger may also be the detection of multiple signal waveforms, among which the intensity of the first signal waveform S1 is saturated.
  • the measurement condition change unit 34 may also change the measurement conditions each time a histogram is generated (in other words, each frame).
  • the first measurement condition and the second measurement condition may be set in advance, and the measurement condition change unit 34 may alternately set the first measurement condition and the second measurement condition.
  • the measurement condition change unit 34 may reduce the emission intensity of the light-emitting unit 10 so that the emission intensity is weaker than the emission intensity of the light-emitting unit 10 before the trigger was detected.
  • the measurement condition change unit 34 may reduce the accumulated number of samples so that the accumulated number of samples is less than the accumulated number of samples before the trigger was detected.
  • the measurement condition change unit 34 may change at least one of the position and size of the ROI for the ROI when the trigger is detected.
  • FIG. 14 shows the ROI 220 before the change and the corresponding signal waveforms S1, S2, and S3.
  • the ROI 220 shown in the upper part of FIG. 14 corresponds to the area (receiving spot SP) where the receiving beam of the reflected light RL is incident on the light receiving element 22.
  • the graph shown in the middle part of FIG. 14 shows a case where the first signal waveform S1 corresponds to the reflector RF, and the second signal waveform S2 and the third signal waveform S3 correspond to the pseudo object VO for the ROI 220 in the upper part.
  • the graph shown in the lower part of FIG. 14 shows a case where the first signal waveform S1 corresponds to the raindrop RD, and the second signal waveform S2 corresponds to the object RO for the ROI 220 in the upper part.
  • FIG. 15 shows the modified ROI 221 and the corresponding signal waveforms S1, S2, and S3.
  • the ROI 221 shown in the upper part of FIG. 15 is shifted in position relative to the light receiving spot SP on the light receiving element 22, and is larger in size than before the modification.
  • the modified ROI 221 is set in an area where the intensity is less likely to saturate than the unmodified ROI 220.
  • the graph shown in the middle of Figure 15 shows a case where the first signal waveform S1 corresponds to the reflector RF, and the second signal waveform S2 and the third signal waveform S3 correspond to the pseudo object VO, for the ROI 221 in the upper part.
  • the graph shown in the lower part of Figure 15 shows a case where the first signal waveform S1 corresponds to the raindrop RD, and the second signal waveform S2 corresponds to the object RO, for the ROI 221 in the upper part.
  • a comparison of Figures 14 and 15 shows that when the first signal waveform S1 corresponds to a raindrop RD, intensity saturation tends to be easily avoided by changing the ROI. On the other hand, when the first signal waveform S1 corresponds to a reflector RF, intensity saturation tends to be difficult to avoid even by changing the ROI.
  • the pseudo object determination unit 33 can use this difference in tendency to determine that the second signal waveform S2 and the third signal waveform S3 correspond to a pseudo object VO.
  • the measurement conditions of the reflected light RL are changed so as to cause a saturation change in the intensity of the signal waveforms S1, S2, and S3 according to the type of object.
  • the object types may be types classified based on different reflection characteristics such as reflectors RF and raindrops RD.
  • the third embodiment is a modification of the first embodiment.
  • the third embodiment will be described focusing on the differences from the first embodiment.
  • the processing unit 3 of the second embodiment includes an ambient light image generating unit 35 and a road surface detecting unit 36 as functional blocks realized by at least one processor 3b that executes a program.
  • the disturbance light image generating unit 35 generates a disturbance light image IM based on the sampling results by the light receiving element 22 when the light emitting unit 10 is not emitting light.
  • the disturbance light image IM shown in FIG. 17 is an image that does not include reflected light RL, and is an image of the intensity of the disturbance light received by the light receiving element 22.
  • the disturbance light image IM is sometimes called a background light image.
  • the road surface detection unit 36 processes the disturbance light image IM to detect the road surface RR reflected in the disturbance light image IM.
  • the road surface detection unit 36 may extract an area of the disturbance light image IM that is occupied by the road surface RR.
  • the detection of the road surface RR may be performed using preset conditions for distinguishing the road surface RR.
  • the detection of the road surface RR may be performed using a trained road surface detection model including a neural network.
  • the pseudo object determination unit 33 of the third embodiment determines the pseudo object VO by referring to the detection result of the road surface detection unit 36. Specifically, even if a signal waveform S2 other than the first signal waveform S1, which corresponds to a distance substantially N times the distance of the object indicated by the first signal waveform S1, is detected as a candidate for the pseudo object VO, if the road surface RR is detected at the N times distance, the pseudo object determination unit 33 determines that the other signal waveform S2 does not indicate the pseudo object VO. In other words, even if the first condition shown in the first embodiment is satisfied, the pseudo object determination unit 33 determines that it is not a pseudo object VO.
  • the object indicated by the second signal waveform S2 is substantially N times the object distance indicated by the first signal waveform S1, and a road surface RR present at a distance N times greater is detected, the object indicated by the second signal waveform S2 is determined not to be a pseudo object VO.
  • the detection result of the road surface RR can be used to improve the accuracy of determining the pseudo object VO.
  • the fourth embodiment is a modification of the first embodiment.
  • the fourth embodiment will be described focusing on the differences from the first embodiment.
  • the fourth embodiment is configured to improve the accuracy of determination when the signal waveforms S2R and S3R corresponding to the pseudo object VO overlap with the signal waveform S1R corresponding to the reflector RF.
  • the overlap state of the signal waveforms S2R and S3R including the pseudo object VO changes depending on the distance at which the reflector RF is present. For example, when the distance at which the reflector RF is present is smaller than CD1, i.e., "very close", the signal waveforms S2R and S3R due to multiple reflections overlap with the signal waveform S1R due to a single reflection. More specifically, since the distance at which the reflector RF is present is close to twice the distance and three times the distance, the signal waveform S2R due to two round trip reflections and the signal waveform S3R due to three round trip reflections overlap within the range of the wave width indicated by the signal waveform S1R due to a single reflection. In other words, the signal waveforms S1R, S2R, and S3R can be detected as a single, unified signal waveform S1. Note that "very close” is assumed to be, for example, a distance smaller than 1.5 m.
  • the distance at which the reflector RF exists is greater than CD2, i.e., "medium to long distance," the signal waveform S1R due to one reflection, the signal waveform S2R due to two round trip reflections, and the signal waveform S3R due to three round trip reflections are each separated.
  • CD2 is assumed to be a value greater than CD1.
  • “medium to long distance” is assumed to be a distance greater than, for example, 3.0 m.
  • the pseudo object VO can be determined under the same conditions as in the first embodiment. Strictly speaking, it is sufficient to determine that, under the first condition, the object distance indicated by the second signal waveform S2 is substantially twice the object distance indicated by the first signal waveform S1.
  • the third signal waveform S3, which corresponds to three or more times the distance, can be handled in accordance with the determination result for the second signal waveform S2, which corresponds to twice the distance.
  • the signal waveform S3R resulting from three round trip reflections will be separated, but the signal waveform S1R resulting from one reflection and the signal waveform S2R resulting from two round trip reflections will overlap.
  • the signal waveforms S1R and S2R will be detected as a single, unified first signal waveform S1, and the signal waveform S3R will be detected as the second signal waveform S2.
  • "close distance” is assumed to be, for example, a range of 1.5 to 3.0 m.
  • the pseudo object determination unit 33 of the fourth embodiment determines that the object distance indicated by the second signal waveform S2 is substantially three times the object distance indicated by the first signal waveform S1 when the object distance indicated by the first signal waveform S1 is within a preset distance range.
  • This distance range corresponds to a "close distance.”
  • the distance range can be set to correspond to the range CD1 to CD2 in FIG. 18, for example, based on knowledge obtained through experiments, etc.
  • the pseudo object determination unit 33 determines that the object corresponding to the second signal waveform S2 is a pseudo object VO in combination with other conditions shown in the first embodiment.
  • the judgment conditions include that when the distance indicated by the first signal waveform S1 is within a predetermined distance range (a distance range corresponding to a "close distance"), the object distance indicated by the second signal waveform S2 is substantially three times the distance of the object indicated by the first signal waveform S1.
  • a predetermined distance range a distance range corresponding to a "close distance”
  • the object distance indicated by the second signal waveform S2 is substantially three times the distance of the object indicated by the first signal waveform S1.
  • the LiDAR 2 main body and the processing unit 3 may be disposed in different positions in the vehicle and may be communicatively connected to each other via wired or wireless communication using an in-vehicle network.
  • the processing unit 3 may be incorporated as part of, for example, an ADAS domain controller, an autonomous driving system, etc., and may be shared with these hardware.
  • the pseudo object determination unit 33 may perform the determination described in each embodiment and remove the information of the pseudo object VO.
  • the road surface detection unit 36 may detect the road surface RR using a point cloud measured by the LiDAR2 instead of the disturbance light image IM.
  • the road surface detection unit 36 may detect the road surface RR from an image of an in-vehicle camera instead of the disturbance light image IM.
  • the road surface detection unit 36 may simply acquire the detection result of the road surface RR detected by another processing device of the vehicle.
  • control unit and the method described in the present disclosure may be realized by a dedicated computer comprising a processor programmed to execute one or more functions embodied in a computer program.
  • the device and the method described in the present disclosure may be realized by a dedicated hardware logic circuit.
  • the device and the method described in the present disclosure may be realized by one or more dedicated computers configured by a combination of a processor that executes a computer program and one or more hardware logic circuits.
  • the computer program may be stored on a computer-readable non-transient tangible recording medium as instructions executed by the computer.
  • An object detection device that detects an object based on information acquired from a sensor (2) that irradiates an illumination light (IL) toward a measurement area (MA) and detects a reflected light (RL) from an object in the measurement area, comprising: a waveform detection unit (31) for detecting a plurality of signal waveforms (S1, S2, S3) of the reflected light that arrive at the sensor with a time difference; and a pseudo object determination unit (33) that determines whether or not an object shown in the signal waveform is a pseudo object (VO) based on the magnitude relationship in the wave widths of the multiple signal waveforms.
  • the plurality of signal waveforms include a first signal waveform and a second signal waveform arriving after the first signal waveform; If N is an integer equal to or greater than 2,
  • the plurality of signal waveforms include a first signal waveform and a second signal waveform arriving after the first signal waveform;
  • the plurality of signal waveforms include a first signal waveform and a second signal waveform arriving after the first signal waveform;
  • the plurality of signal waveforms include a first signal waveform and a second signal waveform arriving after the first signal waveform;
  • the intensity of the signal waveform is obtained based on the reflected light detected in an aperture region of a pixel of the sensor;
  • the object detection device according to Technical Idea 7 or 8, wherein the measurement condition change unit changes the position of the opening area as the change in the measurement condition.
  • the plurality of signal waveforms include a first signal waveform and a second signal waveform arriving after the first signal waveform; An object detection device described in any one of Technical Ideas 11 to 13, wherein the pseudo object determination unit determines that the object indicated by the second signal waveform is not the pseudo object when the distance of the object indicated by the second signal waveform indicates a distance that is substantially N times the distance of the object indicated by the first signal waveform and the road surface is present at the N times distance.
  • the plurality of signal waveforms include a first signal waveform and a second signal waveform that arrives after the first signal waveform;
  • the pseudo object determination unit An object detection device described in any one of Technical Ideas 1 to 14, which includes as a judgment condition the judgment that the object indicated by the second signal waveform is the pseudo object even if the candidate pseudo object is not detected at a distance twice the distance of the object indicated by the first signal waveform, when the distance indicated by the first signal waveform is within a predetermined distance range and the distance of the object indicated by the second signal waveform is substantially three times the distance of the object indicated by the first signal waveform.
  • An object detection device comprising at least one processor (3b), which detects an object based on information acquired from a sensor (2) that irradiates an illumination light (IL) toward a measurement area (MA) and detects a reflected light (RL) from an object in the measurement area, The processor, detecting a first signal waveform (S1) and a second signal waveform (S2) of the reflected light that arrive at the sensor with a time difference; An object detection device that, when the intensity of the first signal waveform and the intensity of the second signal waveform are saturated and the average width of the first signal waveform is greater than the wave width of the second signal waveform, removes information about the object related to the second signal waveform and outputs it to the outside.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

物体検知装置としての処理ユニットは、測定領域へ向けて照射光を照射し、測定領域の物体からの反射光を検出するLiDARから取得する情報に基づいて、物体を検知する。処理ユニットは、反射光の信号波形であって、時間差を生じてLiDARに到達する複数の信号波形(S1,S2)を検出する波形検出部と、複数の信号波形(S1,S2)の波幅(W1,W2)の大小関係に基づき、信号波形(S2)に示される物体が疑似物体であるか否かを判定する疑似物体判定部と、を備える。

Description

物体検知装置及び物体検知方法 関連出願の相互参照
 この出願は、2022年11月15日に日本に出願された特許出願第2022-182746号を基礎としており、基礎の出願の内容を、全体的に、参照により援用している。
 この明細書による開示は、物体を検知する技術に関する。
 特許文献1では、物体の反射光を検出するセンサの反射光の信号波形であって、時間差を生じてセンサに到達する複数の信号波形が取得される。そして、複数の信号波形のピーク強度の大小関係を比較し、信号波形に示される物体が疑似物体であるか否かが判定される。
特開2021-169944号公報
 しかしながら、特許文献1の構成では、信号波形におけるピーク強度が飽和した場合等に、大小関係の比較自体が不可能となってしまう。すなわち、疑似物体の判定に用いるには、汎用性が十分高いとはいえなかった。
 この明細書の開示による目的のひとつは、疑似物体の判定の汎用性を向上させた物体検知装置及び物体検知方法を提供することにある。
 ここに開示された態様は、測定領域へ向けて照射光を照射し、測定領域の物体からの反射光を検出するセンサから取得する情報に基づいて、物体を検知する物体検知装置であって、
 反射光の信号波形であって、時間差を生じてセンサに到達する複数の信号波形を検出する波形検出部と、
 複数の信号波形の波幅の大小関係に基づき、信号波形に示される物体が疑似物体であるか否かを判定する疑似物体判定部と、を備える。
 ここに開示された他の態様は、物体を検知するために、少なくとも1つのプロセッサにより実行される物体検知方法であって、
 センサに、測定領域へ向けて光を照射させることと、
 センサに、測定領域の物体からの反射光を検出させることと、
 反射光の信号波形であって、時間差を生じてセンサに到達する複数の信号波形を検出すること、
 複数の信号波形の波幅における大小関係に基づき、信号波形に示される物体が疑似物体であるか否かを判定することと、を含む。
 これらの態様によると、信号波形に示される物体が疑似物体であるかは、信号波形の波幅の大小関係によって判定されるので、例えば信号波形におけるピーク強度が飽和した場合等にも判定は有効になる。故に、疑似物体の判定の汎用性が向上する。
 なお、請求の範囲等に含まれる括弧内の符号は、後述する実施形態の部分との対応関係を例示的に示すものであって、技術的範囲を限定することを意図するものではない。
LiDARモジュールの概略構成を示す構成図。 LiDARの機械的構成及び測定領域を説明する模式図。 受光素子を示す図。 処理ユニットの機能的構成を示す図。 想定される測定状況を説明する図。 リフレクタに対応する信号波形の波幅を説明するグラフ。 雨滴に対応する信号波形の波幅を説明するグラフ。 波幅の大小関係を説明するグラフ。 波幅の大小関係を説明するグラフ。 リフレクタに対応する信号波形のピーク強度を説明するグラフ。 雨滴に対応する信号波形のピーク強度を説明するグラフ。 物体検知処理の一例を示すフローチャート。 処理ユニットの機能的構成を示す図。 ROIと強度の飽和との関係を説明する図。 ROIと強度の飽和との関係を説明する図。 処理ユニットの機能的構成を示す図。 外乱光画像による路面の検知を説明する図。 リフレクタの距離と信号波形の重なりを説明する図。
 以下、複数の実施形態を図面に基づいて説明する。なお、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合せることができる。
 (第1実施形態)
 図1に示すように、本開示の第1実施形態によるLiDARモジュール1は、移動体としての車両に搭載されている。LiDARモジュール1は、車両の周辺の物体を検知する。LiDARモジュール1は、LiDAR(Light Detection and Ranging/Laser imaging Detection and Ranging)2本体及び処理ユニット3を含む構成である。本実施形態において、LiDAR2本体及び処理ユニット3は、例えば共通の筐体に収容されて、一体化されている。処理ユニット3は、LiDAR2本体の制御ないし物体検知に特化した専用の処理装置である。
 LiDAR2は、光源11から照射光ILを測定領域MAへ向けて照射し、物体からの反射光RLを検出する車載センサであり、光測距装置である。LiDAR2は、例えば車両のフロントグリル、屋根部等に配置されている。LiDAR2は、図2にも示すように、発光部10、走査部15及び受光部20を含む構成である。
 発光部10は、測定領域MAへ向けて照射光ILを発光する。発光部10は、例えば光源11及び投光光学系12を含む構成である。光源11は、1つであっても複数であってもよい。光源11は、例えばレーザダイオード(LD,Laser Diode)等のレーザ発振素子であってよい。光源11は、LEDであってもよい。光源11により発行される光の波長は、近赤外光等の可視光以外の波長であってよい。投光光学系12は、光源11から発光された光を集光し、測定領域MAへ向けてビーム状の光を投光する。投光光学系12は、1つ又は複数のレンズを含む構成である。
 走査部15は、発光部10が発光した光を測定領域MAの範囲内で走査する。走査部15は、走査ミラー16を含む構成である。走査ミラー16は、駆動モータ及び反射体を含む構成である。駆動モータは、例えばボイスコイルモータ、ブラシ付きDCモータ、ステッピングモータ等である。駆動モータは、発光タイミングと連動するように、反射体の回転軸を駆動する。反射体は、照射光ILを測定領域MAへ反射する反射面を有するミラーである。反射面は、例えば平面状に形成されている。
 特に本実施形態において、反射体は、発光部10の投光光学系12及び受光部20の受光光学系21の両方に対向する。故に反射体は、照射光ILだけでなく、当該光が測定領域MAの物体から反射された反射光RLも同時に反射して受光部20へ入射させることが可能となっている。
 受光部20は、反射光RLを受光する。受光部20は、受光光学系21、受光素子22及びデコーダ23を含む構成である。受光光学系21は、反射光RLを集光し、受光素子22に入射させる。受光光学系21は、1つ又は複数のレンズを含む構成である。
 受光素子22は、受光光学系21によって集光された反射光RLを受光する。受光素子22は、例えば単一光子アバランシェフォトダイオード(SPAD,Single Photon Avalanche Diode)センサであってよい。図3に示すように、受光素子22は、複数のSPAD(以下、センサ画素22aとする)を検出面22b上に高度に集積化された状態で、2次元配列して形成されている。
 各センサ画素22aは、1つの光子を受光すると、アバランシェ倍増による電子倍増動作(いわゆるガイガーモード)により、1つの電気パルスを生成する。すなわち、センサ画素22aは、アナログ信号からデジタル信号へのAD変換回路を介さずに、換言すると直接的に、デジタル信号としての電気パルスを発生させることができる。したがって、受光結果は高速に読み出し可能である。
 デコーダ23は、センサ画素22aが生成した電気パルスを出力するために設けられ、選択回路及びクロック発振器を含む構成である。選択回路は、電気パルスを取り出す対象となるセンサ画素22aを、順次選択していく。選択されたセンサ画素22aは、電気パルスを処理ユニット3に出力する。選択回路がセンサ画素22aを1回ずつ選択し終えると、1回のサンプリングが終了する。このサンプリング周期は、クロック回路から出力されるクロック周波数に応じたものとなる。
 なお、発光部10から照射光ILが発光されないタイミング、すなわち無発光時においては、受光部20は、反射体の角度に応じた方向からの外乱光を受光して検出することが可能である。さらに、外乱光が受光素子22上に結像されることにより、測定領域MAの物体を検知することも可能である。ここでいう外乱光は、背景光とも称される。
 処理ユニット3は、LiDAR2本体から取得した情報を処理し、測定領域MAの物体を検知する。処理ユニット3は、例えば専用コンピュータにより実現されてよい。処理ユニット3は、メモリ3a及びプロセッサ3bを少なくとも1つずつ有していてもよい。メモリ3aは、プロセッサ3bにより読み取り可能なプログラム及びデータ等を非一時的に記憶する、例えば半導体メモリ、磁気媒体、及び光学媒体等のうち、少なくとも1種類の非遷移的実態的記憶媒体であってよい。さらにメモリ3aとして、例えばRAM(Random Access Memory)等の書き換え可能な揮発性の記憶媒体が設けられていてもよい。
 プロセッサ3bは、例えばCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、及びRISC(Reduced Instruction Set Computer)-CPU等のうち、少なくとも1種類をコアとして含む。また、処理ユニット3は、FPGA(Field-Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等の回路をさらに含む構成であってもよい。
 図4に示すように、処理ユニット3は、ヒストグラム生成部31、距離演算部32及び疑似物体判定部33を、プログラムを実行する少なくとも1つのプロセッサ3bにより実現される機能ブロックとして含む構成である。
 ヒストグラム生成部31は、受光部20から出力された反射光RLに対応する電気パルスを加算する。ヒストグラム生成部31は、加算結果を時間軸に対する反射光強度のヒストグラムを生成する。生成されたヒストグラムが、実質的に反射光RLの信号波形を示している。
 ヒストグラム生成部31は、通常、センサ画素22aのうち開口領域(すなわちROI,Region Of Interest)の画素について、複数回のサンプリングの積算によって得られるヒストグラムを生成する。複数回のサンプリングの積算によって、S/N比を向上させることができる。
 また、各センサ画素22aは、1回のサンプリングにつき実質的に0か1の信号を出力する。ROIのセンサ画素22aのうち1を出力する画素数が、反射光強度に相当するとされる。したがって、ROIのセンサ画素22aが全て1を出力した場合、反射光強度は測定上の最大値を示し、飽和する。この飽和現象は、物体が近距離に存在する場合や物体がリフレクタRF(強反射物体とも呼ばれる)である場合に、しばしば発生する。
 距離演算部32は、ヒストグラム生成部31が生成したヒストグラム、すなわち、反射光RLの信号波形に基づき、物体が存在する距離を演算する。時間軸は、発光部10からの照射光ILが物体に反射されて受光部20に戻るまでの時間、いわゆるTOF(Time Of Flight)に対応し、この時間は距離に比例する。すなわち、距離演算部32は、信号波形のピーク強度を示す時間を算出し、当該ピーク強度PIを示す時間に応じた物体の距離を演算する。
 1回の発光に対して時間差を生じて複数の信号波形が受光部20に到達することもある。換言すると、ヒストグラムにおいてピーク強度PIを示す箇所が複数箇所存在している場合もある。その場合、距離演算部32は、別々の距離に複数の物体が存在していると判断し得る。
 疑似物体判定部33は、距離演算部32が算出した距離に、物体がそれぞれ存在しているか否かを判定する。疑似物体判定部33は、LiDAR2から取得された信号波形が所定の条件を満たしているか否かに基づいて、当該信号波形が疑似物体VOを示すものであるか否かを判定する。
 図5に示すように、疑似物体VOは、例えばLiDAR2と距離D1に位置するリフレクタRFとの間を多重反射する多重反射光によるゴースト、虚像等である場合がある。この場合、図6のように、リフレクタRFを示す第1信号波形S1に対して時間差を生じて到達する第2信号波形S2、さらには第3信号波形が発生する傾向がある。第2信号波形S2ないし第3信号波形が本来は距離D2の位置に存在しないはずの疑似物体VOに対応する。
 疑似物体VOに相当する信号波形は、実体のある物体の信号波形とは区別されるべきである。例えば、図5に示すように、雨天時に、距離D1に位置する雨滴RDの奥の距離D2の位置に通常の物体ROが存在している場合等に、疑似物体VOに類似の信号波形が測定されることがある。雨滴RDの奥の物体ROが疑似物体VOを判定されることは回避する必要がある。
 ここで、時間差を生じて到達する第1信号波形S1及び第2信号波形S2が検出された場合に、疑似物体判定部33が疑似物体VOを判定する条件を以下に示す。
 第1の条件は、第2信号波形S2が示す物体の距離が、第1信号波形S1が示す物体の距離の実質的にN倍の距離を示すことである。N倍の距離の関係は、第2信号波形S2が多重反射を原因とするものである可能性を示す。ここでNは2以上の整数であってよい。一方で、N=2の場合のみ、すなわち2倍距離のみが判定されるようにしてもよい。
 第2の条件は、第1信号波形S1の波幅が予め設定された波幅閾値以上を示すことである。ここでいう信号波形の波幅とは、時間領域又は距離領域に定義される幅である。波幅は、信号波形のうち、当該信号波形のピーク強度PIに予め設定された所定の係数を乗じた閾値強度となる幅を意味する。所定の係数は、適宜設定されてよい。仮に係数が0.5である場合、波幅W1は半値幅であるといえる。
 図6に示すように、疑似物体VOの検知を発生させ易いリフレクタRFが存在している場合、リフレクタRFに対応する第1信号波形S1の波幅は比較的大きくなる。一方、図7に示すように、雨滴RDの奥に物体ROが存在している場合では、雨滴RDに対応する第1信号波形S1の波幅は比較的小さくなる。したがって、第1信号波形S1の波幅W1が波幅閾値以上を示すことは、第1信号波形S1が示す物体が疑似物体VOを発生させ易いリフレクタRFである可能性を示す。波幅閾値は、リフレクタRFと雨滴RDとを区別できる値に設定されればよい。また、波幅閾値は、車両が使用される地域(例えばスコールが発生し易い地域)の気候ないし環境に応じて、適切に調整されてよい。
 第3の条件は、第1信号波形S1の波幅W1と第2信号波形S2の波幅W2との差分が予め設定された差分閾値以上を示すことである。第1信号波形S1の波幅W1と第2信号波形S2の波幅W1との差分は、第1信号波形S1の波幅W1から第2信号波形S2の波幅W2を減算した値である。
 図8に示すように、第1信号波形S1がリフレクタRFに相当し、第2信号波形S2が疑似物体VOに相当する場合、第1信号波形S1の波幅W1は、第2信号波形S2の波幅W2よりも大きくなる。一方、図9に示すように、第1信号波形S1が雨滴RDに相当し、第2信号波形S2が物体ROに相当する場合、第1信号波形S1の波幅W1と第2信号波形S2の波幅W2との間では、差分が小さくなる傾向にある。
 ここで仮に、第3の条件に差分の下限を設けずに、単に第1信号波形S1の波幅W1が第2信号波形S2の波幅W2よりも大きいこととしてしまうと、雨滴RDと物体ROとが存在している場合も、偶然に条件を満たすことがあり得る。したがって、差分の下限である差分閾値を設けることにより、第2信号波形S2が示す物体が疑似物体VOである可能性が高まるようにされている。差分閾値は、0より大きな値であり、例えば実験等で得られた知見により、最適な値を設定することができる。
 第4の条件は、第2信号波形S2のピーク強度PIが強度閾値以上を示すことである。図10に示すように、第2信号波形S2がリフレクタRFの多重反射を示す場合、リフレクタRFの高い鏡面反射率によって、第2信号波形S2のピーク強度PIは比較的高くなる。一方、図11に示すように、第1信号波形S1が雨滴RDに相当し、第2信号波形S2が物体ROに相当する場合、LiDAR2と物体ROとの間を往復する光の強度は雨滴RDによって減衰する。故に、第2信号波形S2のピーク強度PIは比較的低くなる。
 したがって、第2信号波形S2のピーク強度PIが強度閾値以上を示すことは、第2信号波形S2が多重反射を原因とするものである可能性を示す。
 疑似物体判定部33は、以上の第1~4の条件が全て成立した場合にのみ、第2信号波形S2に相当する物体が疑似物体VOであると判定してよい。一方、疑似物体判定部33は、以上の第1~4の条件のうち1つ、2つ以上又は3つ以上の条件を満たしていれば、第2信号波形S2に相当する物体が疑似物体VOであると判定してもよい。疑似物体判定部33は、各条件の成否ないしそれに用いられる各数値に基づき、総合的に疑似物体VOの判定を実施してもよい。
 疑似物体判定部33は、距離演算部32が算出した距離に物体が存在していない、すなわち疑似物体VOを判定した場合、その疑似物体VOの情報を除去する。疑似物体判定部33は、第2信号波形がS2示す物体の距離が第1信号波形S1が示す物体の距離のN倍の距離を示すことにより、第2信号波形S2を疑似物体VOであると判定した場合に、疑似物体VO以遠に検出された物体の候補を、全てノイズとみなして除去してもよい。ここでの疑似物体VO以遠に検出された物体の候補とは、LiDAR2を基準とし、疑似物体VOの以上の距離に検出された物体の候補を示す。N倍距離の疑似物体VO以外にも、不要発光やセンサ後方物体の映り込みにより、N倍距離でない点にノイズが発生するため、これらが除去される。あるいは、疑似物体判定部33は、疑似物体VOの情報を除去する代わりに、第2信号波形S2に相当する物体が疑似物体VOであるという情報を付加してもよい。
 こうして処理ユニット3によって検知された物体の情報は、処理ユニット3の外部である車両の運転支援システム、自動運転システム、HMI等へ出力され、提供されてよい。
 次に、LiDARモジュール1による物体検知方法のうち特に疑似物体VOに対する処理の例を、図12のフローチャートを用いて説明する。ステップS11~16に示される一連の処理は、所定の実行周期で、又は、所定のトリガに基づき、少なくとも1つのプロセッサ3bを主体として実行される。
 S11では、LiDAR2において発光部10が発光する。S11の後、S12へ進む。
 S12では、受光部20が測定領域MAの物体から反射される反射光RLを受光する。S12の後、S13へ進む。
 S13では、処理ユニット3においてヒストグラム生成部31は、受光部20から情報を取得する。ヒストグラム生成部31は、ヒストグラムを生成することにより、反射光RLの信号波形を検出する。ここでの検出は、ヒストグラムにおいて異なる位置にピーク強度PIをもつ複数の信号波形が検出されること、すなわち時間差を生じて到達する複数の信号波形S1,S2が検出されることを含む。S13の後、S14へ進む。
 S14では、距離演算部32は、信号波形に対応する物体の距離を演算する。距離演算部32は、複数の信号波形が検出された場合に、各信号波形に対応する物体の距離をそれぞれ個別に演算する。S14の後、S15へ進む。
 S15では、疑似物体判定部33は、信号波形に対応する物体が疑似物体VOであるか否かを判定する。S15にて肯定判定が下されると、S16へ移る。S15にて否定判定が下されると、一連の処理を終了する。
 S16では、疑似物体判定部33は、S16で判定された疑似物体VOの情報を除去する。S16を以って一連の処理を終了する。
 以上説明した第1実施形態によると、信号波形S1,S2に示される物体が疑似物体VOであるかは、信号波形S1,S2の波幅W1,W2の大小関係によって判定されるので、例えば信号波形におけるピーク強度PIが飽和した場合等にも判定は有効になる。故に、疑似物体VOの判定の汎用性が向上する。
 また、第1実施形態によると、第2信号波形S2に示される物体の距離が第1信号波形S1に示される物体の距離の実質的にN倍の距離を示すことが、判定条件に含まれている。N倍の距離の関係は、第2信号波形S2が多重反射を原因とするものである可能性を示すので、多重反射に起因した疑似物体VOの判定精度を高めることができる。
 ここで、リフレクタRFは疑似物体VOを発生させ易く、また、リフレクタRFに対応する第1信号波形S1の波幅W1は比較的大きくなる傾向がある。対して第1実施形態によると、第1信号波形S1の波幅W1が予め設定された波幅閾値以上を示すことが判定条件に含まれている。故に、疑似物体VOの判定精度を高めることができる。
 ここで、第1信号波形S1が雨滴RDに相当し、第2信号波形S2が物体ROに相当する場合、差分が小さくなる傾向にある。対して第1実施形態によると、第1信号波形S1の波幅W1と第2信号波形S2の波幅W2との差分が予め設定された差分閾値以上を示すことが判定条件に含まれている。すなわち、雨滴RD及び物体ROによるパターンを区別することができるので、疑似物体VOの判定精度を高めることができる。
 ここで、第2信号波形S2がリフレクタRFの多重反射を示す場合、リフレクタRFの高い鏡面反射率によって、第2信号波形S2のピーク強度PIは比較的高くなる。対して第1実施形態によると、第2信号波形S2のピーク強度PIが強度閾値以上を示すことが判定条件に含まれている。故に、多重反射に起因した疑似物体VOの判定精度を高めることができる。
 なお、第1実施形態では、LiDAR2が「センサ」に相当する。処理ユニット3が「物体検知装置」に相当する。ヒストグラム生成部31が「波形検出部」に相当する。
 (第2実施形態)
 図13~15に示すように、第2実施形態は第1実施形態の変形例である。第2実施形態について、第1実施形態とは異なる点を中心に説明する。
 第2実施形態の処理ユニット3は、図13に示すように、測定条件変更部34を、プログラムを実行する少なくとも1つのプロセッサ3bにより実現される機能ブロックとして含む構成である。
 測定条件変更部34は、所定のトリガに基づいて、測定条件を変更する。所定のトリガは、ヒストグラム生成部31により時間差を生じて到達する複数の信号波形S1,S2が検出されたことであってもよい。また、所定のトリガは、複数の信号波形が検出され、そのうち第1信号波形S1の強度及び第2信号波形S2の強度が飽和していることであってもよい。また、所定のトリガは、複数の信号波形が検出され、そのうち第1信号波形S1の強度が飽和していることであってもよい。
 また、測定条件変更部34は、ヒストグラムの生成1回毎(換言すると1フレーム毎)に、測定条件を変更してもよい。例えば第1測定条件と第2測定条件を予め設定しておき、測定条件変更部34が、第1測定条件と第2測定条件とを交互に設定するようにしてもよい。
 測定条件の変更としては、具体的に以下の変更のうち少なくとも1種類が実施されることが好ましい。以下の列挙する測定条件のうち1種類のみが変更されてもよく、2種類以上が同時に変更されてもよい。
 測定条件の変更として、測定条件変更部34は、トリガを検出する前の発光部10の発光強度よりも弱い強度となるように、発光部10の発光強度を減少させてもよい。
 測定条件の変更として、測定条件変更部34は、トリガを検出する前のサンプリングの積算回数よりも少ない回数となるように、サンプリングの積算回数を減少させてもよい。
 測定条件の変更として、測定条件変更部34は、トリガを検出したときのROIに対して、ROIの位置及びROIの大きさのうち少なくとも一方を変更してもよい。
 図14,15には、ROIを変更する事例が示されている。図14は、変更前のROI220と、それに対応する信号波形S1,S2,S3とを示す。図14上段に示されるROI220は、受光素子22において反射光RLの受光ビームが入射する領域(受光スポットSP)に合致している。図14中段に示されるグラフは、上段のROI220に対し、第1信号波形S1がリフレクタRFに相当し、第2信号波形S2及び第3信号波形S3が疑似物体VOに相当する場合を示す。図14下段に示されるグラフは、上段のROI220に対し、第1信号波形S1が雨滴RDに相当し、第2信号波形S2が物体ROに相当する場合を示す。
 図15は、変更後のROI221と、それに対応する信号波形S1,S2,S3とを示す。図15上段に示されるROI221は、受光素子22において受光スポットSPに対して位置がずれており、さらに変更前よりも大きさが拡大している。すなわち、変更後のROI221は、変更前のROI220よりも強度が飽和し難いような領域に設定されている。
 図15中段に示されるグラフは、上段のROI221に対し、第1信号波形S1がリフレクタRFに相当し、第2信号波形S2及び第3信号波形S3が疑似物体VOに相当する場合を示す。図15下段に示されるグラフは、上段のROI221に対し、第1信号波形S1が雨滴RDに相当し、第2信号波形S2が物体ROに相当する場合を示す。
 図14,15の比較によれば、第1信号波形S1が雨滴RDに相当する場合、ROIの変更によって強度の飽和は回避され易い傾向がある。一方で、第1信号波形S1がリフレクタRFに相当する場合、ROIの変更によっても、強度の飽和は回避され難い傾向がある。疑似物体判定部33は、この傾向の違いを利用して、第2信号波形S2及び第3信号波形S3が疑似物体VOに相当していると判定することができる。
 以上説明した第2実施形態によると、物体の種類に応じた信号波形S1,S2,S3の強度の飽和状態変化を生じさせるように、反射光RLの測定条件が変更される。測定条件変更前後の信号波形S1,S2,S3の応答、すなわち飽和状態変化を確認することによって、疑似物体VOの判定精度を格段に高めることができる。
 ここで、物体の種類は、リフレクタRF、雨滴RD等の反射特性が異なることに基づいて分類された種類であってよい。
 (第3実施形態)
 図16,17に示すように、第3実施形態は第1実施形態の変形例である。第3実施形態について、第1実施形態とは異なる点を中心に説明する。
 第2実施形態の処理ユニット3は、図16に示すように、外乱光画像生成部35及び路面検知部36を、プログラムを実行する少なくとも1つのプロセッサ3bにより実現される機能ブロックとして含む構成である。
 外乱光画像生成部35は、発光部10の非発光時での受光素子22によるサンプリング結果に基づき、外乱光画像IMを生成する。図17に示す外乱光画像IMは、反射光RLを含まない画像であり、受光素子22によって受光された外乱光の強度を画像化したものである。外乱光画像IMは、背景光画像と呼ばれることもある。
 路面検知部36は、外乱光画像IMを画像処理して、外乱光画像IMに映り込む路面RRを検知する。路面検知部36は、外乱光画像IMのうち路面RRが占有する領域を抽出してよい。路面RRの検知は、予め設定された、路面RRを区別するための条件を用いて実行されてもよい。路面RRの検知は、ニューラルネットワークを含む学習済みの路面検知モデルを用いて実行されてもよい。
 第3実施形態の疑似物体判定部33は、路面検知部36の検知結果を参照して、疑似物体VOを判定する。具体的に、疑似物体判定部33は、第1信号波形S1が示す物体の距離の実質的にN倍の距離に相当する、第1信号波形S1とは別の信号波形S2が疑似物体VOの候補として検出されていたとしても、当該N倍の距離に路面RRが検知されていた場合、当該別の信号波形S2が疑似物体VOを示すものではないと判定する。すなわち、疑似物体判定部33は、第1実施形態に示された第1の条件が満たされていた場合であっても、疑似物体VOでないと判定する。
 以上説明した第3実施形態によると、第2信号波形S2が示す物体の距離が、第1信号波形S1が示す物体の距離の実質的にN倍の距離を示し、かつ、N倍の距離に存在する路面RRが検知されている場合に、第2信号波形S2が示す物体は、疑似物体VOではないと判定される。路面RRの検知結果を利用して疑似物体VOの判定精度を高めることができる。
 (第4実施形態)
 図18に示すように、第4実施形態は第1実施形態の変形例である。第4実施形態について、第1実施形態とは異なる点を中心に説明する。
 第4実施形態は、疑似物体VOに相当する信号波形S2R,S3RがリフレクタRFに相当する信号波形S1Rと重なってしまった場合に、判定精度を高める構成である。
 図18に示すように、疑似物体VOを含む信号波形S2R,S3Rの重なり状態は、リフレクタRFが存在する距離によって変化する。例えばリフレクタRFの存在する距離がCD1より小さい、すなわち「非常に近距離」である場合、多重反射による信号波形S2R,S3Rが1回反射による信号波形S1Rと重なる。より詳細に、リフレクタRFが存在する距離と、その2倍距離及び3倍距離とが近くなるため、1回反射による信号波形S1Rが示す波幅の範囲に、2往復反射による信号波形S2R及び3往復反射による信号波形S3Rが重なる。すなわち、信号波形S1R,S2R,S3Rが1つのまとまった信号波形S1として検知され得る。なお、「非常に近距離」は、例えば1.5mよりも小さな距離を想定している。
 ところがこの場合では、2往復反射による信号波形S2R及び3往復反射による信号波形S3RがリフレクタRFとは独立した物体として誤検知されることはない。故に、疑似物体VOの判定における問題は発生しない。
 リフレクタRFの存在する距離がCD2より大きい、すなわち「中・遠距離」である場合、1回反射による信号波形S1R、2往復反射による信号波形S2R及び3往復反射による信号波形S3Rがそれぞれ分離する。なお、CD2はCD1よりも大きな値であるとする。またなお、「中・遠距離」は、例えば3.0mよりも大きな距離を想定している。
 この「中・遠距離」の場合では、第1実施形態と同様の条件で疑似物体VOを判定することができる。厳密には、第1の条件において、第2信号波形S2が示す物体の距離が、第1信号波形S1が示す物体の距離の実質的に2倍距離を示すことを判定すればよい。3倍以上の距離に相当する第3信号波形S3は、2倍距離に相当する第2信号波形S2に対する判定結果に準じて対処されればよい。
 そして、リフレクタRFの存在する距離がCD1より大きく、かつ、CD2より小さい、すなわち「近距離」である場合、3往復反射による信号波形S3Rは分離するものの、1回反射による信号波形S1Rと2往復反射による信号波形S2Rが重なってしまう。すなわち、信号波形S1R,S2R1つのまとまった第1信号波形S1として検知され、信号波形S3Rが第2信号波形S2として検知され得る。なお、「近距離」は、例えば1.5~3.0mの範囲を想定している。
 この「近距離」の場合では、2倍距離に独立した信号波形が存在していなかったとしても、3倍距離に独立した信号波形S2が存在している場合、第2信号波形S2がリフレクタRFとは独立した物体として検知される可能性がある。
 そこで第4実施形態の疑似物体判定部33は、第1信号波形S1が示す物体の距離が予め設定された距離範囲である場合に、第2信号波形S2が示す物体の距離が、第1信号波形S1が示す物体の距離の実質的に3倍距離を示すことを判定する。この距離範囲は、「近距離」に相当する。距離範囲は、例えば実験等で得られた知見により、図18のCD1~CD2の範囲に相当するものとして設定することができる。疑似物体判定部33は、第2信号波形S2が3倍距離を示す場合に、第1実施形態に示された他の条件と組み合わせて、第2信号波形S2に相当する物体が疑似物体VOと判定する。
 以上説明した第4実施形態によると、第1信号波形S1に示される距離が所定の距離範囲(「近距離」に相当する距離範囲)である場合に、第2信号波形S2が示す物体の距離が第1信号波形S1に示される物体の距離の実質的に3倍の距離を示すことが、判定条件に含まれている。すなわち、「近距離」に相当する距離範囲において、2倍距離に対応する信号が確認されなくても、3倍距離に対応する信号が確認されていれば、それを擬似物体と判定する。すなわち、疑似物体VOを実体のある物体として誤検出してしまうことを抑制することができる。
 (他の実施形態)
 以上、複数の実施形態について説明したが、本開示は、それらの実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
 具体的に、LiDAR2本体と処理ユニット3とは、車両において互いに異なる位置に配置され、車内ネットワークを用いた有線通信又は無線通信によって互いに通信可能に接続されていてもよい。処理ユニット3は、例えばADASドメインコントローラ、自動運転システム等の一部として組み込まれ、これらのハードウエアと共通化されていてもよい。
 疑似物体判定部33は、第1信号波形S1の強度及び第2信号波形S2の強度が飽和している場合に、各実施形態に説明された判定を実施し、疑似物体VOの情報を除去するようにしてもよい。
 第3実施形態において、路面検知部36は、外乱光画像IMの代わりに、LiDAR2により測距された点群を用いて路面RRを検出してもよい。路面検知部36は、外乱光画像IMの代わりに、車載カメラの画像から路面RRを検知してもよい。路面検知部36は、車両の他の処理装置により検知された路面RRの検知結果を、単に取得するだけであってもよい。
 本開示に記載の制御部及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサを構成する専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の装置及びその手法は、専用ハードウエア論理回路により、実現されてもよい。もしくは、本開示に記載の装置及びその手法は、コンピュータプログラムを実行するプロセッサと一つ以上のハードウエア論理回路との組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。
 (技術的思想の開示)
 この明細書は、以下に列挙する複数の項に記載された複数の技術的思想を開示している。いくつかの項は、後続の項において先行する項を択一的に引用する多項従属形式(a multiple dependent form)により記載されている場合がある。これらの多項従属形式で記載された項は、複数の技術的思想を定義している。
 <技術的思想1>
 測定領域(MA)へ向けて照射光(IL)を照射し、前記測定領域の物体からの反射光(RL)を検出するセンサ(2)から取得する情報に基づいて、物体を検知する物体検知装置であって、
 前記反射光の信号波形であって、時間差を生じて前記センサに到達する複数の信号波形(S1,S2,S3)を検出する波形検出部(31)と、
 複数の前記信号波形の波幅における大小関係に基づき、前記信号波形に示される物体が疑似物体(VO)であるか否かを判定する疑似物体判定部(33)と、を備える、物体検知装置。
 <技術的思想2>
 複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
 Nを2以上の整数とすると、
 前記疑似物体判定部は、前記第2信号波形が示す物体の距離が、前記第1信号波形が示す物体の距離のN倍の距離を示すことを判定条件として含む、技術的思想1に記載の物体検知装置。
 <技術的思想3>
 前記疑似物体判定部は、前記第2信号波形が示す物体の距離が前記第1信号波形が示す物体の距離のN倍の距離を示すことにより、前記第2信号波形を前記疑似物体であると判定した場合に、前記疑似物体以遠に検出された物体の候補を、全てノイズとみなして除去する、技術的思想2に記載の物体検知装置。
 <技術的思想4>
 複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
 前記疑似物体判定部は、前記第1信号波形の波幅(W1)が予め設定された波幅閾値以上を示すことを判定条件として含む、技術的思想1から3のいずれか1項に記載の物体検知装置。
 <技術的思想5>
 複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
 前記疑似物体判定部は、前記第1信号波形の波幅と前記第2信号波形の波幅(W2)との差分が予め設定された差分閾値以上を示すことを判定条件として含む、技術的思想1から4のいずれか1項に記載の物体検知装置。
 <技術的思想6>
 複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
 前記疑似物体判定部は、前記第2信号波形のピーク強度(PI)が強度閾値以上を示すことを判定条件として含む、技術的思想1から5のいずれか1項に記載の物体検知装置。
 <技術的思想7>
 物体の種類に応じた前記信号波形の強度の飽和状態を回避するように、前記反射光の測定条件を変更する測定条件変更部(34)を、さらに備える、技術的思想1から6のいずれか1項に記載の物体検知装置。
 <技術的思想8>
 前記信号波形の強度は、前記センサの画素のうち開口領域に検出された前記反射光に基づいて得られ、
 前記測定条件変更部は、前記測定条件の変更として、前記開口領域の大きさを変更する、技術的思想7に記載の物体検知装置。
 <技術的思想9>
 前記信号波形の強度は、前記センサの画素のうち開口領域に検出された前記反射光に基づいて得られ、
 前記測定条件変更部は、前記測定条件の変更として、前記開口領域の位置を変更する、技術的思想7又は8に記載の物体検知装置。
 <技術的思想10>
 前記測定条件変更部は、前記測定条件の変更として、前記センサから照射する前記照射光の発光強度を、変更前よりも弱い強度とする、技術的思想7から9のいずれか1項に記載の物体検知装置。
 <技術的思想11>
 前記センサの情報に基づき、路面(RR)を検知する路面検知部(36)を、さらに備え、
 前記疑似物体判定部は、前記疑似物体の候補の位置が前記路面の位置に含まれている場合、前記候補を前記疑似物体でないと判定することを、判定条件として含む、技術的思想1から10のいずれか1項に記載の物体検知装置。
 <技術的思想12>
 前記路面検知部は、外乱光を用いて、前記路面を検知する、技術的思想11に記載の物体検知装置。
 <技術的思想13>
 前記路面検知部は、前記センサが測距した点群を用いて、前記路面を検知する、技術的思想11又は12に記載の物体検知装置。
 <技術的思想14>
 複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
 前記疑似物体判定部は、前記第2信号波形が示す物体の距離が前記第1信号波形が示す物体の距離の実質的にN倍の距離を示し、かつ、前記N倍の距離に前記路面が存在している場合に、前記第2信号波形が示す物体が前記疑似物体でないと判定する、技術的思想11から13のいずれか1項に記載の物体検知装置。
 <技術的思想15>
 複数の前記信号波形は、第1信号波形と、前記第1信号波形の次に到達する第2信号波形と、を含み、
 前記疑似物体判定部は、
 前記第1信号波形が示す物体の距離の2倍の距離に前記疑似物体の候補が検出されていない場合であっても、前記第1信号波形が示す距離が予め設定された距離範囲である場合であって、前記第2信号波形が示す物体の距離が、前記第1信号波形が示す物体の距離の実質的に3倍の距離を示す場合に、前記第2信号波形が示す物体が前記疑似物体であると判定することを、判定条件として含む、技術的思想1から14のいずれか1項に記載の物体検知装置。
 <技術的思想16>
 少なくとも1つのプロセッサ(3b)を備え、測定領域(MA)へ向けて照射光(IL)を照射し、前記測定領域の物体からの反射光(RL)を検出するセンサ(2)から取得する情報に基づいて、物体を検知する物体検知装置であって、
 前記プロセッサは、
 前記反射光の信号波形であって、時間差を生じて前記センサに到達する第1信号波形(S1)及び第2信号波形(S2)を検出することと、
 前記第1信号波形の強度及び前記第2信号波形の強度が飽和し、前記第1信号波形の並幅が前記第2信号波形の波幅よりも大きな場合に、前記第2信号波形に関する物体の情報を除去して外部へ出力することと、実行する、物体検知装置。

Claims (16)

  1.  測定領域(MA)へ向けて照射光(IL)を照射し、前記測定領域の物体からの反射光(RL)を検出するセンサ(2)から取得する情報に基づいて、物体を検知する物体検知装置であって、
     前記反射光の信号波形であって、時間差を生じて前記センサに到達する複数の信号波形(S1,S2,S3)を検出する波形検出部(31)と、
     複数の前記信号波形の波幅における大小関係に基づき、前記信号波形に示される物体が疑似物体(VO)であるか否かを判定する疑似物体判定部(33)と、を備える、物体検知装置。
  2.  複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
     Nを2以上の整数とすると、
     前記疑似物体判定部は、前記第2信号波形が示す物体の距離が、前記第1信号波形が示す物体の距離のN倍の距離を示すことを判定条件として含む、請求項1に記載の物体検知装置。
  3.  前記疑似物体判定部は、前記第2信号波形が示す物体の距離が前記第1信号波形が示す物体の距離のN倍の距離を示すことにより、前記第2信号波形を前記疑似物体であると判定した場合に、前記疑似物体以遠に検出された物体の候補を、全てノイズとみなして除去する、請求項2に記載の物体検知装置。
  4.  複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
     前記疑似物体判定部は、前記第1信号波形の波幅(W1)が予め設定された波幅閾値以上を示すことを判定条件として含む、請求項1に記載の物体検知装置。
  5.  複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
     前記疑似物体判定部は、前記第1信号波形の波幅と前記第2信号波形の波幅(W2)との差分が予め設定された差分閾値以上を示すことを判定条件として含む、請求項1に記載の物体検知装置。
  6.  複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
     前記疑似物体判定部は、前記第2信号波形のピーク強度(PI)が強度閾値以上を示すことを判定条件として含む、請求項1に記載の物体検知装置。
  7.  物体の種類に応じた前記信号波形の強度の飽和状態を回避するように、前記反射光の測定条件を変更する測定条件変更部(34)を、さらに備える、請求項1に記載の物体検知装置。
  8.  前記信号波形の強度は、前記センサの画素のうち開口領域に検出された前記反射光に基づいて得られ、
     前記測定条件変更部は、前記測定条件の変更として、前記開口領域の大きさを変更する、請求項7に記載の物体検知装置。
  9.  前記信号波形の強度は、前記センサの画素のうち開口領域に検出された前記反射光に基づいて得られ、
     前記測定条件変更部は、前記測定条件の変更として、前記開口領域の位置を変更する、請求項7に記載の物体検知装置。
  10.  前記測定条件変更部は、前記測定条件の変更として、前記センサから照射する前記照射光の発光強度を、変更前よりも弱い強度とする、請求項7に記載の物体検知装置。
  11.  前記センサの情報に基づき、路面(RR)を検知する路面検知部(36)を、さらに備え、
     前記疑似物体判定部は、前記疑似物体の候補の位置が前記路面の位置に含まれている場合、前記候補を前記疑似物体でないと判定することを、判定条件として含む、請求項1から10のいずれか1項に記載の物体検知装置。
  12.  前記路面検知部は、外乱光を用いて、前記路面を検知する、請求項11に記載の物体検知装置。
  13.  前記路面検知部は、前記センサが測距した点群を用いて、前記路面を検知する、請求項11に記載の物体検知装置。
  14.  複数の前記信号波形は、第1信号波形と、前記第1信号波形の後で到達する第2信号波形と、を含み、
     前記疑似物体判定部は、前記第2信号波形が示す物体の距離が前記第1信号波形が示す物体の距離の実質的にN倍の距離を示し、かつ、前記N倍の距離に前記路面が存在している場合に、前記第2信号波形が示す物体が前記疑似物体でないと判定することを、判定条件として含む、請求項11に記載の物体検知装置。
  15.  複数の前記信号波形は、第1信号波形と、前記第1信号波形の次に到達する第2信号波形と、を含み、
     前記疑似物体判定部は、前記第1信号波形が示す物体の距離の2倍の距離に前記疑似物体の候補が検出されていない場合であっても、前記第1信号波形が示す距離が予め設定された距離範囲である場合であって、前記第2信号波形が示す物体の距離が、前記第1信号波形が示す物体の距離の実質的に3倍の距離を示す場合に、前記第2信号波形が示す物体が前記疑似物体であると判定することを、判定条件として含む、請求項1に記載の物体検知装置。
  16.  物体を検知するために、少なくとも1つのプロセッサ(3b)により実行される物体検知方法であって、
     センサ(2)に、測定領域(MA)へ向けて光を照射させることと、
     前記センサに、前記測定領域の物体からの反射光(RL)を検出させることと、
     前記反射光の信号波形であって、時間差を生じて前記センサに到達する複数の信号波形(S1,S2,S3)を検出すること、
     複数の前記信号波形の波幅における大小関係に基づき、前記信号波形に示される物体が疑似物体であるか否かを判定することと、を含む、物体検知方法。
PCT/JP2023/039542 2022-11-15 2023-11-02 物体検知装置及び物体検知方法 WO2024106214A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-182746 2022-11-15
JP2022182746A JP2024072098A (ja) 2022-11-15 2022-11-15 物体検知装置及び物体検知方法

Publications (1)

Publication Number Publication Date
WO2024106214A1 true WO2024106214A1 (ja) 2024-05-23

Family

ID=91084357

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/039542 WO2024106214A1 (ja) 2022-11-15 2023-11-02 物体検知装置及び物体検知方法

Country Status (2)

Country Link
JP (1) JP2024072098A (ja)
WO (1) WO2024106214A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005313780A (ja) * 2004-04-28 2005-11-10 Denso Corp 先行車両認識装置
WO2019116641A1 (ja) * 2017-12-15 2019-06-20 コニカミノルタ株式会社 距離測定装置、距離測定装置の制御方法、および距離測定装置の制御プログラム
JP2021119336A (ja) * 2019-09-06 2021-08-12 株式会社デンソー 測距装置
JP2021169944A (ja) * 2020-04-15 2021-10-28 株式会社デンソー 光測距装置
JP2022034136A (ja) * 2020-08-18 2022-03-03 北陽電機株式会社 光電センサおよび光測距装置
JP2022168956A (ja) * 2021-04-27 2022-11-09 日立Geニュークリア・エナジー株式会社 レーザ計測装置およびその計測方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005313780A (ja) * 2004-04-28 2005-11-10 Denso Corp 先行車両認識装置
WO2019116641A1 (ja) * 2017-12-15 2019-06-20 コニカミノルタ株式会社 距離測定装置、距離測定装置の制御方法、および距離測定装置の制御プログラム
JP2021119336A (ja) * 2019-09-06 2021-08-12 株式会社デンソー 測距装置
JP2021169944A (ja) * 2020-04-15 2021-10-28 株式会社デンソー 光測距装置
JP2022034136A (ja) * 2020-08-18 2022-03-03 北陽電機株式会社 光電センサおよび光測距装置
JP2022168956A (ja) * 2021-04-27 2022-11-09 日立Geニュークリア・エナジー株式会社 レーザ計測装置およびその計測方法

Also Published As

Publication number Publication date
JP2024072098A (ja) 2024-05-27

Similar Documents

Publication Publication Date Title
US9207074B2 (en) Distance measurement apparatus, and distance measurement method
JP2019144186A (ja) 光学的測距装置およびその方法
JP6804949B2 (ja) 制御装置、測定装置、およびコンピュータプログラム
JP2007327840A (ja) レーダ装置
KR102280072B1 (ko) Lidar 시스템들에 대한 간섭 검출 및 완화
JP7095640B2 (ja) 物体検出装置
JP2019211358A (ja) 光学的測距装置およびその方法
JP7306310B2 (ja) 光測距装置
JP2018048896A (ja) 測定装置、制御装置、およびコンピュータプログラム
WO2024106214A1 (ja) 物体検知装置及び物体検知方法
JP2010078364A (ja) レーダ装置
JP7375838B2 (ja) 測距補正装置、測距補正方法、測距補正プログラム、および測距装置
JP7338455B2 (ja) 物体検出装置
WO2023281978A1 (ja) 測距装置および測距方法
JP2020148633A (ja) 対象物検出装置
WO2022176679A1 (ja) 測距補正装置、測距補正方法、測距補正プログラム、および測距装置
WO2023181948A1 (ja) ノイズ除去装置、物体検出装置およびノイズ除去方法
WO2023042637A1 (ja) 制御装置、制御方法、制御プログラム
US20240230899A9 (en) Distance measurement device and distance measurement method
WO2023112884A1 (ja) 測距装置、判定装置、判定方法、およびプログラム
US20240159879A1 (en) Detection control method and apparatus
WO2023090415A1 (ja) 測距装置
WO2023079944A1 (ja) 制御装置、制御方法、制御プログラム
WO2021166912A1 (ja) 物体検出装置
WO2023074207A1 (ja) 制御装置、制御方法、制御プログラム