WO2022149485A1 - 物体検出装置 - Google Patents

物体検出装置 Download PDF

Info

Publication number
WO2022149485A1
WO2022149485A1 PCT/JP2021/047986 JP2021047986W WO2022149485A1 WO 2022149485 A1 WO2022149485 A1 WO 2022149485A1 JP 2021047986 W JP2021047986 W JP 2021047986W WO 2022149485 A1 WO2022149485 A1 WO 2022149485A1
Authority
WO
WIPO (PCT)
Prior art keywords
road surface
object detection
cfar
wave
detection device
Prior art date
Application number
PCT/JP2021/047986
Other languages
English (en)
French (fr)
Inventor
一平 菅江
恒 井奈波
Original Assignee
株式会社アイシン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社アイシン filed Critical 株式会社アイシン
Priority to CN202180083935.9A priority Critical patent/CN116583746A/zh
Priority to EP21917705.2A priority patent/EP4276492A4/en
Priority to US18/035,600 priority patent/US20240012123A1/en
Priority to JP2022574002A priority patent/JP7501673B2/ja
Publication of WO2022149485A1 publication Critical patent/WO2022149485A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N29/00Investigating or analysing materials by the use of ultrasonic, sonic or infrasonic waves; Visualisation of the interior of objects by transmitting ultrasonic or sonic waves through the object
    • G01N29/04Analysing solids
    • G01N29/11Analysing solids by measuring attenuation of acoustic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/523Details of pulse systems
    • G01S7/526Receivers
    • G01S7/527Extracting wanted echo signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/52Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00
    • G01S7/539Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S15/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/02Indexing codes associated with the analysed material
    • G01N2291/023Solids
    • G01N2291/0232Glass, ceramics, concrete or stone
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/02Indexing codes associated with the analysed material
    • G01N2291/025Change of phase or condition
    • G01N2291/0258Structural degradation, e.g. fatigue of composites, ageing of oils
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2291/00Indexing codes associated with group G01N29/00
    • G01N2291/04Wave modes and trajectories
    • G01N2291/044Internal reflections (echoes), e.g. on walls or defects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/02Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems using reflection of acoustic waves
    • G01S15/06Systems determining the position data of a target
    • G01S15/08Systems for measuring distance only
    • G01S15/10Systems for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S15/00Systems using the reflection or reradiation of acoustic waves, e.g. sonar systems
    • G01S15/88Sonar systems specially adapted for specific applications
    • G01S15/93Sonar systems specially adapted for specific applications for anti-collision purposes
    • G01S15/931Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • G01S2015/937Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details
    • G01S2015/938Sonar systems specially adapted for specific applications for anti-collision purposes of land vehicles sensor installation details in the bumper area

Definitions

  • This disclosure relates to an object detection device.
  • CFAR Constant False Alarm Rate
  • CFAR processing it is possible to acquire a CFAR signal corresponding to a signal obtained by removing clutter from the processing target signal by using the moving average of the value (signal level) of the processing target signal based on the received wave.
  • an object can be detected by comparing the CFAR signal with the threshold value.
  • the type of the road surface cannot be estimated in the CFAR process when the transmitted wave is transmitted toward the road surface. If the type of road surface can be estimated, the accuracy of setting threshold value, object detection, etc. will be improved, which is meaningful.
  • one of the problems of the present disclosure is to provide an object detection device capable of estimating the type of road surface by CFAR processing.
  • the object detection device includes a transmission unit that transmits a transmission wave toward a road surface, a reception unit that receives a reflected wave of the transmission wave object as a reception wave, and a plurality of transmission waves, respectively.
  • the value of the first processing target signal based on the received wave received at the predetermined detection timing and the value of the second processing target signal based on the received wave received in the predetermined section before and after the detection timing.
  • a CFAR processing unit that acquires CFAR signals at the detection timing by CFAR processing based on the average value, and an estimation unit that estimates the type of road surface based on the average signal level of a plurality of the CFAR signals and the degree of variation. And.
  • the object detection device described above includes a plurality of the transmission units, and each of the plurality of transmission units simultaneously transmits the transmission wave toward the road surface.
  • the type of road surface can be estimated with high accuracy even when the vehicle is traveling by transmitting the transmitted wave from a plurality of transmission units toward the road surface at the same time.
  • a threshold value processing unit for setting a threshold value for the CFAR signal according to the type of the road surface estimated by the estimation unit is further provided.
  • the threshold value for the CFAR signal can be set with high accuracy according to the estimated type of road surface.
  • the object detection device is mounted on the vehicle, and the estimation unit transmits information on the estimated road surface type to the brake control unit of the vehicle.
  • the threshold value processing unit sets the threshold value larger as the degree of variation corresponding to the type of the road surface is larger.
  • the estimation unit sets an average value of each of the second processing target signals on a map in which a region is defined in advance by the measured values of the average signal level and the degree of variation for each type of road surface. And the degree of variation is applied to estimate the corresponding road surface type.
  • the type of road surface can be estimated with high accuracy by using the above-mentioned map created in advance.
  • FIG. 1 is an exemplary and schematic view showing the appearance of a vehicle equipped with the object detection system according to the first embodiment as viewed from above.
  • FIG. 2 is an exemplary and schematic block diagram showing the hardware configuration of the object detection system according to the first embodiment.
  • FIG. 3 is an exemplary and schematic diagram for explaining an outline of a technique according to the first embodiment but used for detecting a distance to an object.
  • FIG. 4 is an exemplary and schematic block diagram showing the function of the object detection device according to the first embodiment.
  • FIG. 5 is an exemplary and schematic diagram showing the relationship between the amplitude and the distance of the CFAR signal in the first embodiment.
  • FIG. 6 is an exemplary and schematic diagram showing an example of table information in which information on the variation and average signal level for each type of road surface in the first embodiment is stored.
  • FIG. 7 is an exemplary and schematic flowchart showing a series of processes executed by the object detection system according to the first embodiment.
  • FIG. 8 is a diagram schematically showing an example of a first map used by the object detection system according to the second embodiment when estimating the type of the road surface ahead.
  • FIG. 9 is a diagram schematically showing an example of a second map used by the object detection system according to the second embodiment when estimating the type of the road surface directly below.
  • FIG. 1 is an exemplary and schematic view showing the appearance of the vehicle 1 provided with the object detection system according to the first embodiment as viewed from above.
  • the object detection system transmits and receives sound waves (ultrasonic waves), and by acquiring the time difference between the transmission and reception, an object including humans existing in the surroundings (for example, described later).
  • This is an in-vehicle sensor system that detects information about an obstacle O) shown in FIG.
  • the object detection system includes an ECU (Electronic Control Unit) 100 as an in-vehicle control device and object detection devices 201 to 204 as an in-vehicle sonar. , Is equipped.
  • the ECU 100 is mounted inside the four-wheeled vehicle 1 including the pair of front wheels 3F and the pair of rear wheels 3R, and the object detection devices 201 to 204 are mounted on the exterior of the vehicle 1.
  • the object detection devices 201 to 204 are installed at different positions from each other at the rear end portion (rear bumper) of the vehicle body 2 as the exterior of the vehicle 1, but the object detection device 201
  • the installation positions of ⁇ 204 are not limited to the example shown in FIG.
  • the object detection devices 201 to 204 may be installed at the front end portion (front bumper) of the vehicle body 2, may be installed at the side surface portion of the vehicle body 2, or may be installed at the rear end portion, the front end portion, and the side surface portion. It may be installed in two or more of them.
  • the hardware configurations and functions of the object detection devices 201 to 204 are the same. Therefore, in the following, for the sake of brevity, the object detection devices 201 to 204 may be collectively referred to as the object detection device 200. Further, in the first embodiment, the number of object detection devices 200 is not limited to four as shown in FIG.
  • FIG. 2 is an exemplary and schematic block diagram showing the hardware configuration of the object detection system according to the first embodiment.
  • the ECU 100 has a hardware configuration similar to that of a normal computer. More specifically, the ECU 100 includes an input / output device 110, a storage device 120, and a processor 130.
  • the input / output device 110 is an interface for realizing information transmission / reception between the ECU 100 and the outside.
  • the communication partner of the ECU 100 is the object detection device 200.
  • the storage device 120 includes a main storage device such as ROM (Read Only Memory) and RAM (Random Access Memory), and / or an auxiliary storage device such as HDD (Hard Disk Drive) and SSD (Solid State Drive). ..
  • the processor 130 controls various processes executed in the ECU 100.
  • the processor 130 includes, for example, an arithmetic unit such as a CPU (Central Processing Unit).
  • the processor 130 realizes various functions such as automatic parking by reading and executing a computer program stored in the storage device 120.
  • the object detection device 200 includes a transmitter / receiver 210 and a control unit 220.
  • the transmitter / receiver 210 has an oscillator 211 composed of a piezoelectric element or the like, and the oscillator 211 executes transmission / reception of ultrasonic waves.
  • the transmitter / receiver 210 transmits ultrasonic waves generated in response to the vibration of the vibrator 211 as transmission waves, and the ultrasonic waves transmitted as the transmission waves are reflected by an external object.
  • the vibration of the vibrator 211 brought about by returning is received as a received wave.
  • an obstacle O installed on the road surface RS is exemplified as an object that reflects ultrasonic waves from the transmitter / receiver 210.
  • a configuration in which both transmission of the transmitted wave and reception of the received wave are realized by a single transmitter / receiver 210 having a single oscillator 211 is exemplified.
  • the technique of the first embodiment is on the transmitting side, for example, in a configuration in which a first oscillator for transmitting a transmitted wave and a second oscillator for receiving a received wave are separately provided. It can also be applied to a configuration in which the configuration and the configuration on the receiving side are separated.
  • the control unit 220 has a hardware configuration similar to that of a normal computer. More specifically, the control unit 220 includes an input / output device 221, a storage device 222, and a processor 223.
  • the input / output device 221 is an interface for realizing information transmission / reception between the control unit 220 and the outside (ECU 100 and the transmitter / receiver 210 in the example shown in FIG. 1).
  • the storage device 222 includes a main storage device such as ROM and RAM, and / or an auxiliary storage device such as HDD and SSD.
  • the processor 223 controls various processes executed by the control unit 220.
  • the processor 223 includes an arithmetic unit such as a CPU.
  • the processor 223 realizes various functions by reading and executing a computer program stored in the storage device 333.
  • the object detection device 200 detects the distance to the object by a technique called the so-called TOF (Time Of Flight) method.
  • TOF Time Of Flight
  • the TOF method refers to the timing at which a transmitted wave is transmitted (more specifically, it begins to be transmitted) and the timing at which the received wave is received (more specifically, it begins to be received). It is a technique to calculate the distance to an object in consideration of the difference from the timing.
  • FIG. 3 is an exemplary and schematic diagram for explaining an outline of a technique used by the object detection device 200 according to the first embodiment to detect a distance to an object.
  • FIG. 3 is a diagram schematically and schematically showing the time change of the signal level (for example, amplitude) of the ultrasonic wave transmitted and received by the object detection device 200 according to the first embodiment in a graph format. ..
  • the horizontal axis corresponds to time
  • the vertical axis corresponds to the signal level of the signal transmitted and received by the object detection device 200 via the transmitter / receiver 210 (oscillator 211).
  • the solid line L11 represents an example of an envelope that represents the signal level of the signal transmitted and received by the object detection device 200, that is, the time change of the degree of vibration of the vibrator 211. From this solid line L11, the oscillator 211 is driven from the timing t0 by the time Ta and vibrates, so that the transmission of the transmitted wave is completed at the timing t1 and then the time Tb until the timing t2 is due to inertia. It can be read that the vibration of the vibrator 211 continues while being attenuated. Therefore, in the graph shown in FIG. 3, the time Tb corresponds to the so-called reverberation time.
  • the solid line L11 is the timing t4 in which the time Tp has elapsed from the timing t0 when the transmission of the transmitted wave is started, and the degree of vibration of the oscillator 211 exceeds (or is equal to or higher than) the predetermined threshold value Th1 represented by the alternate long and short dash line L21. ) Peak.
  • This threshold Th1 is whether the vibration of the vibrator 211 is caused by the reception of the received wave as the transmitted wave returned by being reflected by the object to be detected (for example, the obstacle O shown in FIG. 2).
  • a preset value for identifying whether it was brought about by the reception of the received wave as the transmitted wave reflected and returned by an object other than the sample target for example, the road surface RS shown in FIG. 2). Is.
  • FIG. 3 shows an example in which the threshold value Th1 is set as a constant value that does not change with the passage of time
  • the threshold value Th1 is set as a value that changes with the passage of time. You may.
  • the vibration having a peak exceeding (or higher than) the threshold value Th1 can be regarded as being caused by the reception of the received wave as the transmitted wave reflected and returned by the object to be detected. ..
  • the vibration having a peak of (or less than) the threshold value Th1 can be considered to be caused by the reception of the received wave as the transmitted wave reflected and returned by the object not to be detected.
  • the vibration of the vibrator 211 at the timing t4 is caused by the reception of the received wave as the transmitted wave reflected and returned by the object to be detected.
  • the timing t4 is the timing at which the reception of the received wave as the transmitted wave reflected and returned by the object to be detected is completed, in other words, the transmitted wave last transmitted at the timing t1 is returned as the received wave. Corresponds to the timing.
  • the timing t3 as the start point of the peak at the timing t4 is the timing at which the reception of the received wave as the transmitted wave reflected and returned by the object to be detected starts, in other words, at the timing t0.
  • the time ⁇ T between the timing t3 and the timing t4 becomes equal to the time Ta as the transmission time of the transmitted wave.
  • the time Tf between the timing t0 when the transmitted wave starts to be transmitted and the timing t3 when the received wave starts to be received is obtained. Is needed.
  • This time Tf is obtained by subtracting the time ⁇ T equal to the time Ta as the transmission time of the transmission wave from the time Tp as the difference between the timing t0 and the timing t4 at which the signal level of the received wave reaches the peak exceeding the threshold value Th1. It can be obtained by.
  • the timing t0 at which the transmitted wave starts to be transmitted can be easily specified as the timing at which the object detection device 200 starts operating, and the time Ta as the transmission time of the transmitted wave is predetermined by a setting or the like. Therefore, in order to obtain the distance to the object to be detected by the TOF method, it is important to specify the timing t4 at which the signal level of the received wave reaches the peak exceeding the threshold value Th1 after all. Then, in order to specify the timing t4, it is important to accurately detect the correspondence between the transmitted wave and the received wave as the transmitted wave reflected and returned by the object to be detected.
  • the type of the road surface cannot be estimated in the CFAR process when the transmitted wave is transmitted toward the road surface. If the type of road surface can be estimated, the accuracy of setting threshold value, object detection, etc. will be improved, which is meaningful.
  • the type of the road surface can be estimated by the CFAR process.
  • the CFAR process it will be described in detail.
  • FIG. 4 is an exemplary and schematic block diagram showing a detailed configuration of the object detection device 200 according to the first embodiment.
  • FIG. 4 shows a state in which the configuration on the transmitting side and the configuration on the receiving side are separated, but such an illustrated embodiment is for convenience of explanation only. Therefore, in the first embodiment, as described above, both the transmission of the transmitted wave and the reception of the received wave are realized by the single transmitter / receiver 210. However, as described above, the technique of the first embodiment can be applied to a configuration in which the configuration on the transmitting side and the configuration on the receiving side are separated.
  • the object detection device 200 has a transmission unit 411 as a configuration on the transmission side. Further, the object detection device 200 has a reception unit 421, a pre-processing unit 422, a CFAR processing unit 423, a threshold value processing unit 424, a detection processing unit 425, and an estimation unit 426 as a configuration on the receiving side. is doing.
  • At least a part of the configurations shown in FIG. 4 is the result of the cooperation between the hardware and the software, and more specifically, the processor 223 of the object detection device 200 is stored in the storage device 222. It is realized as a result of reading and executing a computer program.
  • at least a part of the configuration shown in FIG. 4 may be realized by dedicated hardware (circuit: circuitity).
  • each configuration shown in FIG. 4 may be operated under the control of the control unit 220 of the object detection device 200 itself, or may be operated under the control of the external ECU 100. You may.
  • the transmission unit 411 transmits the transmission wave to the outside including the road surface by vibrating the above-mentioned oscillator 211 at a predetermined transmission interval.
  • the transmission interval is a time interval from the transmission of the transmitted wave to the next transmission of the transmitted wave.
  • the transmission unit 411 is, for example, a circuit that generates a carrier wave, a circuit that generates a pulse signal corresponding to identification information to be given to the carrier wave, a multiplier that modulates the carrier wave according to the pulse signal, and a transmission output from the multiplier. It is configured by using an amplifier that amplifies the signal.
  • the object detection device 200 includes, for example, a plurality of transmission units 411. For example, since each of the object detection devices 201 to 204 includes one transmission unit 411, four transmission units 411 can be used. Then, each of the plurality of transmission units 411 simultaneously transmits the transmission wave toward the road surface.
  • the receiving unit 421 receives the reflected wave of the transmitted wave transmitted from the transmitting unit 411 at the object as the received wave until a predetermined measurement time elapses after the transmitted wave is transmitted.
  • the measurement time is a standby time set for receiving a received wave as a reflected wave of the transmitted wave after the transmission of the transmitted wave.
  • the pre-processing unit 422 performs pre-processing for converting the received signal corresponding to the received wave received by the receiving unit 421 into a processing target signal to be input to the CFAR processing unit 423.
  • the preprocessing is, for example, an amplification process for amplifying a received signal corresponding to a received wave, a filter process for reducing noise contained in the amplified received signal, and a correlation value indicating the degree of similarity between the transmitted signal and the received signal.
  • Correlation processing and wrapping line processing for generating a signal based on the wrapping line of a waveform showing a time change of the correlation value as a processing target signal are included.
  • the CFAR processing unit 423 acquires a CFAR signal by performing CFAR processing on the processing target signal output from the preprocessing unit 422.
  • the CFAR process is a process of acquiring a CFAR signal corresponding to a signal obtained by removing clutter from the process target signal by using a moving average of the value (signal level) of the process target signal.
  • the CFAR processing unit 423 has a value of the first processing target signal based on the received wave received at a predetermined detection timing for each of the plurality of transmission waves, and reception received in a predetermined section before and after the detection timing.
  • the CFAR signal at the detection timing is acquired by CFAR processing based on the difference between the average value of the values of the second processing target signal based on the wave.
  • the detection processing unit 425 specifies the detection timing in which the CFAR signal value exceeds the threshold value based on the comparison between the CFAR signal value and the threshold value set by the threshold value processing unit 424. Since the detection timing at which the CFAR signal value exceeds the threshold value coincides with the timing at which the signal level of the received wave as the transmitted wave returned by the reflection on the object reaches its peak, the detection timing at which the CFAR signal value exceeds the threshold value is used. Once specified, the distance to the object can be detected by the TOF method described above.
  • the estimation unit 426 estimates the type of road surface based on the average signal level of a plurality of CFAR signals and the degree of variation (for example, standard deviation, variance, etc.).
  • FIG. 5 is an exemplary and schematic diagram showing the relationship between the amplitude and the distance of the CFAR signal in the first embodiment.
  • each of the four transmission units 411 simultaneously transmits a transmission wave toward the road surface, and the CFAR signals L1 to L4 are acquired by the CFAR processing unit 423 for each transmission wave.
  • the degree of variation of the CFAR signals L1 to L4 is expressed as the degree of variation B. Further, the average signal level of the CFAR signals L1 to L4 is referred to as an average signal level A.
  • the CFAR signals L1 to L4 are represented by lines for the sake of simplification, but since they are actually point clouds, the average signal level A is determined by processing using, for example, the least squares method. can.
  • the degree of variation B and the average signal level A differ depending on the type of road surface. It is considered that the reason why these are different is that, for example, each element such as surface roughness, constituent substances, and color is different for each type of road surface.
  • FIG. 6 is an exemplary and schematic diagram showing an example of table information storing information of the degree of variation B and the average signal level A for each type of road surface in the first embodiment.
  • This table information is stored in, for example, a storage device 222.
  • the estimation unit 426 estimates the type of the road surface based on the average signal level of the plurality of CFAR signals and the degree of variation, for example, with reference to this table information.
  • the estimation unit 426 transmits, for example, information on the estimated road surface type to the brake control unit of the vehicle.
  • the threshold value processing unit 424 sets a threshold value for the CFAR signal according to the type of road surface estimated by the estimation unit 426.
  • the threshold value processing unit 424 sets the threshold value larger, for example, when the degree of variation corresponding to the type of the road surface is larger.
  • the threshold value processing unit 424 sets the threshold value of asphalt to a value larger than the threshold value of concrete.
  • FIG. 7 is an exemplary and schematic flowchart showing a series of processes executed by the object detection system according to the first embodiment.
  • the plurality of transmission units 411 of the object detection device 200 transmit the transmission wave.
  • the receiving unit 421 of the object detection device 200 receives the received wave corresponding to the transmitted wave transmitted in S801.
  • the preprocessing unit 422 of the object detection device 200 performs preprocessing for the next processing of S804 with respect to the received signal corresponding to the received wave received in S802.
  • the CFAR processing unit 423 of the object detection device 200 executes CFAR processing on the processing target signal output from the preprocessing unit 422 after the preprocessing in S803, and generates a CFAR signal.
  • the estimation unit 426 estimates the type of road surface based on the average signal level of the plurality of CFAR signals and the degree of variation.
  • the threshold value processing unit 424 of the object detection device 200 sets a threshold value for the CFAR signal generated in S804 according to the type of the road surface estimated in S805.
  • the detection processing unit 425 of the object detection device 200 detects the distance to the object based on the comparison between the value of the CFAR signal and the threshold value set in S805. Then, the process ends.
  • the type of the road surface can be estimated based on the average signal level of the plurality of CFAR signals and the degree of variation. That is, the type of road surface can be estimated only from the information obtained by the ultrasonic sensor.
  • the type of the road surface can be estimated with high accuracy even when the vehicle is traveling.
  • the threshold value for the CFAR signal can be set with high accuracy according to the estimated type of road surface.
  • a specific appropriate threshold value can be set for each road surface type.
  • FIG. 8 is a diagram schematically showing an example of a first map used by the object detection system according to the second embodiment when estimating the type of the road surface ahead.
  • the horizontal axis is the average signal level and the vertical axis is the degree of variation.
  • the correspondence between the areas R11 to R16 and the type of road surface is as follows.
  • Area R11 Asphalt Area
  • R12 Gravel Area
  • R13 Fresh snow / concrete / ice (no unevenness)
  • Area R14 Snow compression area
  • Other area R16: Other area
  • the correspondence with the type of road surface for each region in the first map is defined in advance by the measured values of the average signal level and the degree of variation regarding the reflected wave from the road surface in front. Then, the estimation unit 426 estimates the corresponding road surface type by referring to the first map and applying the average value and the degree of variation of each of the second processing target signals based on the reflected wave from the road surface ahead. do. In this way, the type of road surface ahead can be estimated with high accuracy.
  • FIG. 9 is a diagram schematically showing an example of a second map used when the object detection system according to the second embodiment estimates the type of the road surface directly below.
  • the horizontal axis is the average signal level and the vertical axis is the degree of variation.
  • the correspondence between the areas R21 to R27 and the type of road surface is as follows.
  • Area R21 Asphalt Area
  • R22 Concrete / ice (no unevenness)
  • R23 Gravel Area
  • R24 Fresh snow Area
  • R25 Compressed snow Area
  • R26 Ice (with unevenness)
  • Area R27 Other
  • the correspondence with the type of road surface for each region in the second map is defined in advance by the measured values of the average signal level and the degree of variation regarding the reflected wave from the road surface directly below. Then, the estimation unit 426 estimates the corresponding road surface type by applying the average value and the degree of variation of each of the second processing target signals based on the reflected wave from the road surface directly below with reference to this second map. do. In this way, the type of road surface directly below can be estimated with high accuracy.
  • the technique of the present disclosure is applied to a configuration in which the distance to an object is detected by transmitting and receiving ultrasonic waves.
  • the techniques of the present disclosure can also be applied to configurations that detect the distance to an object by transmitting and receiving waves other than ultrasonic waves, such as sound waves, millimeter waves, radar, and electromagnetic waves.
  • the transmitted wave is simultaneously transmitted from the plurality of transmitting units 411 toward the road surface, but the present invention is not limited to this.
  • the road surface type may be estimated based on a plurality of transmitted waves transmitted by a single transmitting unit 411. In particular, when the vehicle is stopped or traveling at low speed, it is still possible to estimate the type of road surface with sufficiently high accuracy.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Acoustics & Sound (AREA)
  • Biochemistry (AREA)
  • General Health & Medical Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

本開示の一例としての物体検出装置は、路面に向けて送信波を送信する送信部と、前記送信波の物体での反射波を受信波として受信する受信部と、複数の前記送信波のそれぞれについて、所定の検出タイミングで受信された前記受信波に基づく第1処理対象信号の値と、前記検出タイミングの前後の所定の区間において受信された前記受信波に基づく第2処理対象信号の値の平均値と、に基づくCFAR処理により、前記検出タイミングにおけるCFAR信号を取得するCFAR処理部と、複数の前記CFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定する推定部と、を備える。

Description

物体検出装置
 本開示は、物体検出装置に関する。
 従来から、超音波等の送受信に基づいて物体に関する情報を検出する技術がある。また、この技術において、検出対象ではない物体による反射に起因して発生するクラッタと呼ばれるノイズを低減するための処理として、CFAR(Constant False Alarm Rate)処理が知られている。
 CFAR処理によれば、受信波に基づく処理対象信号の値(信号レベル)の移動平均を利用して、処理対象信号からクラッタを除去した信号に相当するCFAR信号を取得することが可能である。また、CFAR信号を閾値と比較することで、物体を検出することができる。
特開2006-292597号公報
 しかしながら、上述の従来技術では、路面に向けて送信波を送信した場合のCFAR処理において、路面の種類を推定できない。路面の種類を推定できれば、設定閾値や物体検出等の精度が向上するので、有意義である。
 そこで、本開示の課題の一つは、CFAR処理によって路面の種類を推定することができる物体検出装置を提供することである。
 本開示の一例としての物体検出装置は、路面に向けて送信波を送信する送信部と、前記送信波の物体での反射波を受信波として受信する受信部と、複数の前記送信波のそれぞれについて、所定の検出タイミングで受信された前記受信波に基づく第1処理対象信号の値と、前記検出タイミングの前後の所定の区間において受信された前記受信波に基づく第2処理対象信号の値の平均値と、に基づくCFAR処理により、前記検出タイミングにおけるCFAR信号を取得するCFAR処理部と、複数の前記CFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定する推定部と、を備える。
 このような構成により、CFAR処理において、複数のCFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定することができる。
 また、上述した物体検出装置において、複数の前記送信部を備えており、複数の前記送信部のそれぞれは、同時に前記送信波を前記路面に向けて送信する。
 このような構成により、複数の送信部から同時に送信波を路面に向けて送信することによって、車両の走行時にも路面の種類を高精度に推定できる。
 また、上述した物体検出装置において、前記推定部によって推定された前記路面の種類に応じて、前記CFAR信号に関する閾値を設定する閾値処理部を、さらに備える。
 このような構成により、推定した路面の種類に応じてCFAR信号に関する閾値を高精度に設定できる。
 また、上述した物体検出装置において、前記物体検出装置は、車両に搭載され、前記推定部は、推定した前記路面の種類の情報を前記車両のブレーキ制御部に送信する。
 このような構成により、推定した路面の種類に応じて的確なブレーキ制御を実現できる。
 また、上述した物体検出装置において、前記閾値処理部は、前記路面の種類に対応する前記ばらつき度合いが大きい場合ほど、前記閾値を大きく設定する。
 このような構成により、路面の種類ごとに、具体的に適切な閾値を設定できる。
 また、上述した物体検出装置において、前記推定部は、路面の種類ごとの前記平均信号レベルおよび前記ばらつき度合いの実測値により予め領域を定義したマップに、前記第2処理対象信号の各々の平均値およびばらつき度合いをあてはめて、対応する路面の種類を推定する。
 このような構成により、予め作成した上述のマップを用いることで、路面の種類を高精度に推定できる。
図1は、第1実施形態にかかる物体検出システムを備えた車両を上方から見た外観を示した例示的かつ模式的な図である。 図2は、第1実施形態にかかる物体検出システムのハードウェア構成を示した例示的かつ模式的なブロック図である。 図3は、第1実施形態にかかるが物体までの距離を検出するために利用する技術の概要を説明するための例示的かつ模式的な図である。 図4は、第1実施形態にかかる物体検出装置の機能を示した例示的かつ模式的なブロック図である。 図5は、第1実施形態におけるCFAR信号の振幅と距離の関係を示した例示的かつ模式的な図である。 図6は、第1実施形態における路面の種類ごとのばらつきと平均信号レベルの情報を格納したテーブル情報の一例を示した例示的かつ模式的な図である。 図7は、第1実施形態にかかる物体検出システムが実行する一連の処理を示した例示的かつ模式的なフローチャートである。 図8は、第2実施形態にかかる物体検出システムが前方の路面の種類を推定するときに使用する第1のマップの例を模式的に示す図である。 図9は、第2実施形態にかかる物体検出システムが真下の路面の種類を推定するときに使用する第2のマップの例を模式的に示す図である。
 以下、本開示の実施形態および変形例を図面に基づいて説明する。以下に記載する実施形態および変形例の構成、ならびに当該構成によってもたらされる作用および効果は、あくまで一例であって、以下の記載内容に限られるものではない。
<第1実施形態>
 図1は、第1実施形態にかかる物体検出システムを備えた車両1を上方から見た外観を示した例示的かつ模式的な図である。
 以下に説明するように、第1実施形態にかかる物体検出システムは、音波(超音波)の送受信を行い、当該送受信の時間差などを取得することで、周囲に存在する人間を含む物体(例えば後述する図2に示される障害物O)に関する情報を検知する車載センサシステムである。
 より具体的には、図1に示されるように、第1実施形態にかかる物体検出システムは、車載制御装置としてのECU(Electronic Control Unit)100と、車載ソナーとしての物体検出装置201~204と、を備えている。ECU100は、一対の前輪3Fと一対の後輪3Rとを含んだ四輪の車両1の内部に搭載されており、物体検出装置201~204は、車両1の外装に搭載されている。
 図1に示される例では、一例として、物体検出装置201~204が、車両1の外装としての車体2の後端部(リヤバンパ)において、互いに異なる位置に設置されているが、物体検出装置201~204の設置位置は、図1に示される例に制限されるものではない。例えば、物体検出装置201~204は、車体2の前端部(フロントバンパ)に設置されてもよいし、車体2の側面部に設置されてもよいし、後端部、前端部、および側面部のうち2つ以上に設置されてもよい。
 なお、第1実施形態において、物体検出装置201~204が有するハードウェア構成および機能は、それぞれ同一である。したがって、以下では、説明を簡潔にするために、物体検出装置201~204を総称して物体検出装置200と記載する場合がある。また、第1実施形態において、物体検出装置200の個数は、図1に示されるような4つに制限されるものではない。
 図2は、第1実施形態にかかる物体検出システムのハードウェア構成を示した例示的かつ模式的なブロック図である。
 図2に示されるように、ECU100は、通常のコンピュータと同様のハードウェア構成を備えている。より具体的には、ECU100は、入出力装置110と、記憶装置120と、プロセッサ130と、を備えている。
 入出力装置110は、ECU100と外部との間における情報の送受信を実現するためのインターフェースである。例えば、図2に示される例において、ECU100の通信相手は、物体検出装置200である。
 記憶装置120は、ROM(Read Only Memory)やRAM(Random Access Memory)などの主記憶装置、および/または、HDD(Hard Disk Drive)やSSD(Solid State Drive)などの補助記憶装置を含んでいる。
 プロセッサ130は、ECU100において実行される各種の処理を司る。プロセッサ130は、例えばCPU(Central Processing Unit)などの演算装置を含んでいる。プロセッサ130は、記憶装置120に記憶されたコンピュータプログラムを読み出して実行することで、例えば自動駐車などの各種の機能を実現する。
 また、図2に示されるように、物体検出装置200は、送受波器210と、制御部220と、を備えている。
 送受波器210は、圧電素子などにより構成された振動子211を有しており、振動子211により、超音波の送受信を実行する。
 より具体的には、送受波器210は、振動子211の振動に応じて発生する超音波を送信波として送信し、当該送信波として送信された超音波が外部に存在する物体で反射されて戻ってくることでもたらされる振動子211の振動を受信波として受信する。図2に示される例では、送受波器210からの超音波を反射する物体として、路面RS上に設置された障害物Oが例示されている。
 なお、図2に示される例では、送信波の送信と受信波の受信との両方が単一の振動子211を有した単一の送受波器210により実現される構成が例示されている。しかしながら、第1実施形態の技術は、例えば、送信波の送信用の第1の振動子と受信波の受信用の第2の振動子とが別々に設けられた構成のような、送信側の構成と受信側の構成とが分離された構成にも適用可能である。
 制御部220は、通常のコンピュータと同様のハードウェア構成を備えている。より具体的には、制御部220は、入出力装置221と、記憶装置222と、プロセッサ223と、を備えている。
 入出力装置221は、制御部220と外部(図1に示される例ではECU100および送受波器210)との間における情報の送受信を実現するためのインターフェースである。
 記憶装置222は、ROMやRAMなどの主記憶装置、および/または、HDDやSSDなどの補助記憶装置を含んでいる。
 プロセッサ223は、制御部220において実行される各種の処理を司る。プロセッサ223は、例えばCPUなどの演算装置を含んでいる。プロセッサ223は、記憶装置333に記憶されたコンピュータプログラムを読み出して実行することで、各種の機能を実現する。
 ここで、第1実施形態にかかる物体検出装置200は、いわゆるTOF(Time Of Flight)法と呼ばれる技術により、物体までの距離を検出する。以下に詳述するように、TOF法とは、送信波が送信された(より具体的には送信され始めた)タイミングと、受信波が受信された(より具体的には受信され始めた)タイミングとの差を考慮して、物体までの距離を算出する技術である。
 図3は、第1実施形態にかかる物体検出装置200が物体までの距離を検出するために利用する技術の概要を説明するための例示的かつ模式的な図である。
 より具体的には、図3は、第1実施形態にかかる物体検出装置200が送受信する超音波の信号レベル(例えば振幅)の時間変化をグラフ形式で例示的かつ模式的に示した図である。図3に示されるグラフにおいて、横軸は、時間に対応し、縦軸は、物体検出装置200が送受波器210(振動子211)を介して送受信する信号の信号レベルに対応する。
 図3に示されるグラフにおいて、実線L11は、物体検出装置200が送受信する信号の信号レベル、つまり振動子211の振動の度合の時間変化を表す包絡線の一例を表している。この実線L11からは、振動子211がタイミングt0から時間Taだけ駆動されて振動することで、タイミングt1で送信波の送信が完了し、その後タイミングt2に至るまでの時間Tbの間は、慣性による振動子211の振動が減衰しながら継続する、ということが読み取れる。したがって、図3に示されるグラフにおいては、時間Tbが、いわゆる残響時間に対応する。
 実線L11は、送信波の送信が開始したタイミングt0から時間Tpだけ経過したタイミングt4で、振動子211の振動の度合が、一点鎖線L21で表される所定の閾値Th1を超える(または以上になる)ピークを迎える。この閾値Th1は、振動子211の振動が、検知対象の物体(例えば図2に示される障害物O)により反射されて戻ってきた送信波としての受信波の受信によってもたらされたものか、または、検体対象外の物体(例えば図2に示される路面RS)により反射されて戻ってきた送信波としての受信波の受信によってもたらされたものか、を識別するために予め設定された値である。
 なお、図3には、閾値Th1が時間経過によらず変化しない一定値として設定された例が示されているが、第1実施形態において、閾値Th1は、時間経過とともに変化する値として設定されてもよい。
 ここで、閾値Th1を超えた(または以上の)ピークを有する振動は、検知対象の物体により反射されて戻ってきた送信波としての受信波の受信によってもたらされたものだとみなすことができる。一方、閾値Th1以下の(または未満の)ピークを有する振動は、検知対象外の物体により反射されて戻ってきた送信波としての受信波の受信によってもたらされたものだとみなすことができる。
 したがって、実線L11からは、タイミングt4における振動子211の振動が、検知対象の物体により反射されて戻ってきた送信波としての受信波の受信によってもたらされたものである、ということが読み取れる。
 なお、実線L11においては、タイミングt4以降で、振動子211の振動が減衰している。したがって、タイミングt4は、検知対象の物体により反射されて戻ってきた送信波としての受信波の受信が完了したタイミング、換言すればタイミングt1で最後に送信された送信波が受信波として戻ってくるタイミング、に対応する。
 また、実線L11においては、タイミングt4におけるピークの開始点としてのタイミングt3は、検知対象の物体により反射されて戻ってきた送信波としての受信波の受信が開始したタイミング、換言すればタイミングt0で最初に送信された送信波が受信波として戻ってくるタイミング、に対応する。したがって、実線L11においては、タイミングt3とタイミングt4との間の時間ΔTが、送信波の送信時間としての時間Taと等しくなる。
 上記を踏まえて、TOF法により検知対象の物体までの距離を求めるためには、送信波が送信され始めたタイミングt0と、受信波が受信され始めたタイミングt3と、の間の時間Tfを求めることが必要となる。この時間Tfは、タイミングt0と、受信波の信号レベルが閾値Th1を超えたピークを迎えるタイミングt4と、の差分としての時間Tpから、送信波の送信時間としての時間Taに等しい時間ΔTを差し引くことで求めることができる。
 送信波が送信され始めたタイミングt0は、物体検出装置200が動作を開始したタイミングとして容易に特定することができ、送信波の送信時間としての時間Taは、設定などによって予め決められている。したがって、TOF法により検知対象の物体までの距離を求めるためには、結局のところ、受信波の信号レベルが閾値Th1を超えたピークを迎えるタイミングt4を特定することが重要となる。そして、当該タイミングt4を特定するためには、送信波と、検知対象の物体により反射されて戻ってきた送信波としての受信波と、の対応関係を精度良く検出することが重要となる。
 ところで、上述のように、従来技術では、路面に向けて送信波を送信した場合のCFAR処理において、路面の種類を推定できない。路面の種類を推定できれば、設定閾値や物体検出等の精度が向上するので、有意義である。
 そこで、第1実施形態では、物体検出装置200を以下に説明するように構成することで、CFAR処理によって路面の種類を推定することができる。以下、詳細に説明する。
 図4は、第1実施形態にかかる物体検出装置200の詳細な構成を示した例示的かつ模式的なブロック図である。
 なお、図4には、送信側の構成と受信側の構成とが分離された状態で図示されているが、このような図示の態様は、あくまで説明の便宜のためのものである。したがって、第1実施形態では、前述したように、送信波の送信と受信波の受信との両方が単一の送受波器210により実現される。ただし、前述のように、第1実施形態の技術は、送信側の構成と受信側の構成とが分離された構成にも適用可能である。
 図4に示されるように、物体検出装置200は、送信側の構成として、送信部411を有している。また、物体検出装置200は、受信側の構成として、受信部421と、前処理部422と、CFAR処理部423と、閾値処理部424と、検出処理部425と、推定部426と、を有している。
 なお、第1実施形態において、図4に示される構成のうち少なくとも一部は、ハードウェアとソフトウェアとの協働の結果、より具体的には、物体検出装置200のプロセッサ223が記憶装置222からコンピュータプログラムを読み出して実行した結果として実現される。ただし、第1実施形態では、図4に示される構成のうち少なくとも一部が、専用のハードウェア(回路:circuitry)によって実現されてもよい。また、第1実施形態において、図4に示される各構成は、物体検出装置200自身の制御部220による制御のもとで動作してもよいし、外部のECU100による制御のもとで動作してもよい。
 まず、送信側の構成について説明する。
 送信部411は、上述した振動子211を所定の送信間隔で振動させることにより路面を含む外部へ向けて送信波を送信する。送信間隔とは、送信波が送信されてから次に送信波が送信されるまでの時間間隔である。送信部411は、例えば、搬送波を生成する回路、搬送波に付与すべき識別情報に対応するパルス信号を生成する回路、パルス信号に応じて搬送波を変調する乗算器、および乗算器から出力された送信信号を増幅する増幅器などを利用して構成される。
 物体検出装置200は、例えば、複数の送信部411を備えている。例えば、物体検出装置201~204のそれぞれが送信部411を1つずつ備えていることで、4つの送信部411を用いることができる。そして、複数の送信部411のそれぞれは、同時に送信波を路面に向けて送信する。
 次に、受信側の構成について説明する。
 受信部421は、送信部411から送信された送信波の物体での反射波を受信波として、送信波が送信されてから所定の測定時間が経過するまで受信する。測定時間とは、送信波の送信後、当該送信波の反射波としての受信波を受信するために設定された待機時間である。
 前処理部422は、受信部421により受信された受信波に対応した受信信号をCFAR処理部423に入力すべき処理対象信号に変換するための前処理を行う。前処理は、例えば、受信波に対応する受信信号を増幅する増幅処理、増幅された受信信号に含まれるノイズを低減するフィルタ処理、送信信号と受信信号との類似度を示す相関値を取得する相関処理、および相関値の時間変化を示す波形の包絡線に基づく信号を処理対象信号として生成する包絡線処理などが含まれる。
 CFAR処理部423は、前処理部422から出力される処理対象信号に対してCFAR処理を施すことで、CFAR信号を取得する。前述したように、CFAR処理とは、処理対象信号の値(信号レベル)の移動平均を利用して、処理対象信号からクラッタを除去した信号に相当するCFAR信号を取得する処理である。
 例えば、CFAR処理部423は、複数の送信波のそれぞれについて、所定の検出タイミングで受信された受信波に基づく第1処理対象信号の値と、検出タイミングの前後の所定の区間において受信された受信波に基づく第2処理対象信号の値の平均値と、の差分に基づくCFAR処理により、検出タイミングにおけるCFAR信号を取得する。
 そして、検出処理部425は、CFAR信号の値と、閾値処理部424により設定された閾値と、の比較に基づいて、CFAR信号の値が閾値を超える検出タイミングを特定する。CFAR信号の値が閾値を超える検出タイミングは、物体での反射により戻ってきた送信波としての受信波の信号レベルがピークを迎えるタイミングと一致するので、CFAR信号の値が閾値を超える検出タイミングを特定すれば、前述したTOF法により、物体までの距離を検出することができる。
 推定部426は、複数のCFAR信号の平均信号レベル、および、ばらつき度合い(例えば、標準偏差、分散等)に基づいて、路面の種類を推定する。
 ここで、図5は、第1実施形態におけるCFAR信号の振幅と距離の関係を示した例示的かつ模式的な図である。例えば、4つの送信部411のそれぞれが同時に送信波を路面に向けて送信し、それぞれの送信波について、CFAR処理部423によって取得されたのがCFAR信号L1~L4である。
 CFAR信号L1~L4のばらつき度合いを、ばらつき度合いBと表す。また、CFAR信号L1~L4の平均信号レベルを、平均信号レベルAと表す。なお、図5では図示の簡略化のためにCFAR信号L1~L4を線で表しているが、実際には点群なので、平均信号レベルAは、例えば、最小二乗法等を用いた処理により決定できる。
 そして、路面の種類によって、ばらつき度合いBと平均信号レベルAが異なる。これらが異なる原因としては、例えば、路面の種類ごとに、表面の粗さ、構成物質、色等の各要素が異なるためだと考えられる。
 ここで、図6は、第1実施形態における路面の種類ごとのばらつき度合いBと平均信号レベルAの情報を格納したテーブル情報の一例を示した例示的かつ模式的な図である。このテーブル情報は、例えば、記憶装置222に格納される。
 このテーブル情報では、まず、路面の種類の例として、アスファルト、コンクリート、砂利、新雪、圧雪、氷の6種類が格納されている。そして、その6種類の路面のそれぞれについて、実験等により決定したばらつき度合いBと平均信号レベルAの情報が格納されている。
 したがって、推定部426は、例えば、このテーブル情報を参照して、複数のCFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定する。
 図4に戻って、また、推定部426は、例えば、推定した路面の種類の情報を車両のブレーキ制御部に送信する。
 閾値処理部424は、推定部426によって推定された路面の種類に応じて、CFAR信号に関する閾値を設定する。閾値処理部424は、例えば、路面の種類に対応するばらつき度合いが大きい場合ほど、閾値を大きく設定する。
 例えば、一般に、アスファルトはコンクリートと比較して表面が粗くてばらつき度合いが大きいので、閾値処理部424は、アスファルトの閾値をコンクリートの閾値よりも大きい値に設定する。
 図7は、第1実施形態にかかる物体検出システムが実行する一連の処理を示した例示的かつ模式的なフローチャートである。
 図7に示されるように、第1実施形態では、まず、S801において、物体検出装置200の複数の送信部411は、送信波を送信する。
 次に、S802において、物体検出装置200の受信部421は、S801で送信された送信波に応じた受信波を受信する。
 次に、S803において、物体検出装置200の前処理部422は、S802で受信された受信波に対応した受信信号に対して、次のS804の処理のための前処理を行う。
 次に、S804において、物体検出装置200のCFAR処理部423は、S803での前処理を経て前処理部422から出力された処理対象信号に対してCFAR処理を実行し、CFAR信号を生成する。
 次に、S805において、推定部426は、複数のCFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定する。
 次に、S806において、物体検出装置200の閾値処理部424は、S804で生成されたCFAR信号に関して、S805で推定された路面の種類に応じて閾値を設定する。
 次に、S807において、物体検出装置200の検出処理部425は、CFAR信号の値とS805で設定された閾値との比較に基づいて、物体までの距離を検出する。そして、処理が終了する。
 このように、第1実施形態の物体検出装置200によれば、CFAR処理において、複数のCFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定することができる。つまり、超音波センサによる情報のみで、路面の種類を推定できる。
 また、複数の送信部411から同時に送信波を路面に向けて送信することによって、車両の走行時にも路面の種類を高精度に推定できる。
 また、推定した路面の種類に応じてCFAR信号に関する閾値を高精度に設定できる。
 また、推定した路面の種類に応じて的確なブレーキ制御を実現できる。
 また、路面の種類に対応するばらつき度合いが大きい場合ほど閾値を大きく設定することで、路面の種類ごとに、具体的に適切な閾値を設定できる。
<第2実施形態>
 次に、第2実施形態について説明する。第1実施形態と同様の事項については、重複する説明を適宜省略する。第2実施形態では、物体検出システムが、マップを用いて、前方の路面の種類を推定するときと、真下の路面の種類を推定するときについて説明する。
 図8は、第2実施形態にかかる物体検出システムが前方の路面の種類を推定するときに使用する第1のマップの例を模式的に示す図である。この第1のマップでは、横軸が平均信号レベルで、縦軸がばらつき度合いである。領域R11~R16と路面の種類との対応は、以下の通りである。
 領域R11:アスファルト
 領域R12:砂利
 領域R13:新雪/コンクリート/氷(凸凹無し)
 領域R14:圧雪
 領域R15:その他
 領域R16:その他
 第1のマップにおけるこのような領域ごとの路面の種類との対応を、前方の路面からの反射波に関する平均信号レベルおよびばらつき度合いの実測値により予め定義しておく。そして、推定部426は、この第1のマップを参照して、前方の路面からの反射波に基づく第2処理対象信号の各々の平均値およびばらつき度合いをあてはめて、対応する路面の種類を推定する。このようにして、前方の路面の種類を高精度に推定できる。
 次に、図9は、第2実施形態にかかる物体検出システムが真下の路面の種類を推定するときに使用する第2のマップの例を模式的に示す図である。この第2のマップでも、第1のマップと同様、横軸が平均信号レベルで、縦軸がばらつき度合いである。領域R21~R27と路面の種類との対応は、以下の通りである。
 領域R21:アスファルト
 領域R22:コンクリート/氷(凸凹無し)
 領域R23:砂利
 領域R24:新雪
 領域R25:圧雪
 領域R26:氷(凸凹有り)
 領域R27:その他
 第2のマップにおけるこのような領域ごとの路面の種類との対応を、真下の路面からの反射波に関する平均信号レベルおよびばらつき度合いの実測値により予め定義しておく。そして、推定部426は、この第2のマップを参照して、真下の路面からの反射波に基づく第2処理対象信号の各々の平均値およびばらつき度合いをあてはめて、対応する路面の種類を推定する。このようにして、真下の路面の種類を高精度に推定できる。
<変形例>
 なお、上述した実施形態では、本開示の技術が、超音波の送受信によって物体までの距離を検出する構成に適用されている。しかしながら、本開示の技術は、音波、ミリ波、レーダ、および電磁波などのような、超音波以外の他の波動の送受信によって物体までの距離を検出する構成にも適用することが可能である。
 以上、本開示の実施形態および変形例を説明したが、上述した実施形態および変形例はあくまで一例であって、発明の範囲を限定することは意図していない。上述した新規な実施形態および変形例は、様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上述した実施形態および変形例は、発明の範囲や要旨に含まれるとともに、請求の範囲に記載された発明とその均等の範囲に含まれる。
 例えば、上述の実施形態では、複数の送信部411から同時に送信波を路面に向けて送信するものとしたが、これに限定されない。例えば、単一の送信部411が送信した複数の送信波に基づいて、路面の種類を推定するようにしてもよい。特に、車両が停車や低速走行している場合は、それでも充分に高精度な路面の種類の推定ができる。
 1 車両
 100 ECU
 200 物体検出装置
 210 送受波器
 411 送信部
 421 受信部
 423 CFAR処理部
 424 閾値処理部
 425 検出処理部
 426 推定部
 
 
 

Claims (6)

  1.  路面に向けて送信波を送信する送信部と、
     前記送信波の物体での反射波を受信波として受信する受信部と、
     複数の前記送信波のそれぞれについて、所定の検出タイミングで受信された前記受信波に基づく第1処理対象信号の値と、前記検出タイミングの前後の所定の区間において受信された前記受信波に基づく第2処理対象信号の値の平均値と、に基づくCFAR処理により、前記検出タイミングにおけるCFAR信号を取得するCFAR処理部と、
     複数の前記CFAR信号の平均信号レベル、および、ばらつき度合いに基づいて、路面の種類を推定する推定部と、
     を備える、物体検出装置。
  2.  複数の前記送信部を備えており、
     複数の前記送信部のそれぞれは、同時に前記送信波を前記路面に向けて送信する、請求項1に記載の物体検出装置。
  3.  前記推定部によって推定された前記路面の種類に応じて、前記CFAR信号に関する閾値を設定する閾値処理部を、さらに備える、請求項1または請求項2に記載の物体検出装置。
  4.  前記物体検出装置は、車両に搭載され、
     前記推定部は、推定した前記路面の種類の情報を前記車両のブレーキ制御部に送信する、請求項1から請求項3のいずれか一項に記載の物体検出装置。
  5.  前記閾値処理部は、前記路面の種類に対応する前記ばらつき度合いが大きいほど、前記閾値を大きく設定する、請求項3に記載の物体検出装置。
  6.  前記推定部は、路面の種類ごとの前記平均信号レベルおよび前記ばらつき度合いの実測値により予め領域を定義したマップに、前記第2処理対象信号の各々の平均値およびばらつき度合いをあてはめて、対応する路面の種類を推定する、請求項1に記載の物体検出装置。
PCT/JP2021/047986 2021-01-08 2021-12-23 物体検出装置 WO2022149485A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN202180083935.9A CN116583746A (zh) 2021-01-08 2021-12-23 物体检测装置
EP21917705.2A EP4276492A4 (en) 2021-01-08 2021-12-23 OBJECT DETECTION DEVICE
US18/035,600 US20240012123A1 (en) 2021-01-08 2021-12-23 Object detection device
JP2022574002A JP7501673B2 (ja) 2021-01-08 2021-12-23 物体検出装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-002369 2021-01-08
JP2021002369 2021-01-08

Publications (1)

Publication Number Publication Date
WO2022149485A1 true WO2022149485A1 (ja) 2022-07-14

Family

ID=82357718

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047986 WO2022149485A1 (ja) 2021-01-08 2021-12-23 物体検出装置

Country Status (5)

Country Link
US (1) US20240012123A1 (ja)
EP (1) EP4276492A4 (ja)
JP (1) JP7501673B2 (ja)
CN (1) CN116583746A (ja)
WO (1) WO2022149485A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006292597A (ja) 2005-04-13 2006-10-26 Nec Corp レーダ信号処理装置及びそれに用いるcfar処理方法
WO2015162812A1 (ja) * 2014-04-21 2015-10-29 シャープ株式会社 路面検出センサおよび該路面検出センサを備えた自律走行装置
US20190302258A1 (en) * 2018-04-02 2019-10-03 Hyundai Mobis Co., Ltd. Parking assistance system of vehicle and method of improving detection performance of ultrasonic sensor therefor
JP2021001811A (ja) * 2019-06-21 2021-01-07 アイシン精機株式会社 物体検出装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006292597A (ja) 2005-04-13 2006-10-26 Nec Corp レーダ信号処理装置及びそれに用いるcfar処理方法
WO2015162812A1 (ja) * 2014-04-21 2015-10-29 シャープ株式会社 路面検出センサおよび該路面検出センサを備えた自律走行装置
US20190302258A1 (en) * 2018-04-02 2019-10-03 Hyundai Mobis Co., Ltd. Parking assistance system of vehicle and method of improving detection performance of ultrasonic sensor therefor
JP2021001811A (ja) * 2019-06-21 2021-01-07 アイシン精機株式会社 物体検出装置

Also Published As

Publication number Publication date
EP4276492A4 (en) 2024-07-03
JPWO2022149485A1 (ja) 2022-07-14
JP7501673B2 (ja) 2024-06-18
US20240012123A1 (en) 2024-01-11
EP4276492A1 (en) 2023-11-15
CN116583746A (zh) 2023-08-11

Similar Documents

Publication Publication Date Title
JP2021162347A (ja) 物体検出システムおよび物体検出装置
US11249186B2 (en) Distance detection apparatus and object detection apparatus
CN110678775A (zh) 物体检测装置、物体检测方法以及物体检测程序
WO2022149485A1 (ja) 物体検出装置
US20210318432A1 (en) Object detection device and object detection system
US11994583B2 (en) Object detection device
WO2023276825A1 (ja) 物体検出装置
JP2022107424A (ja) 物体検出装置
US20210302571A1 (en) Object detection system
JP7487534B2 (ja) 物体検出装置
WO2023282096A1 (ja) 物体検出装置
US11698456B2 (en) Object detection system
US20240210561A1 (en) Object detection system and object detection device
WO2023171346A1 (ja) 物体検出装置
WO2023277097A1 (ja) 物体検出装置
JP2018054580A (ja) 検出装置、検出方法、および検出プログラム
CN117063088A (zh) 物体检测装置
CN115598628A (zh) 物体检测系统以及物体检测装置
CN115144859A (zh) 物体检测装置以及移动体控制装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21917705

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022574002

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 18035600

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 202180083935.9

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021917705

Country of ref document: EP

Effective date: 20230808