WO2020209344A1 - レーダ装置 - Google Patents

レーダ装置 Download PDF

Info

Publication number
WO2020209344A1
WO2020209344A1 PCT/JP2020/016007 JP2020016007W WO2020209344A1 WO 2020209344 A1 WO2020209344 A1 WO 2020209344A1 JP 2020016007 W JP2020016007 W JP 2020016007W WO 2020209344 A1 WO2020209344 A1 WO 2020209344A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual image
spectrum
target
radar device
probability
Prior art date
Application number
PCT/JP2020/016007
Other languages
English (en)
French (fr)
Inventor
聖也 藤津
Original Assignee
株式会社デンソー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソー filed Critical 株式会社デンソー
Priority to DE112020001825.3T priority Critical patent/DE112020001825T5/de
Priority to CN202080027299.3A priority patent/CN113661406B/zh
Publication of WO2020209344A1 publication Critical patent/WO2020209344A1/ja
Priority to US17/496,264 priority patent/US20220026528A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/345Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using triangular modulation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • G01S13/347Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal using more than one modulation frequency
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/36Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/354Extracting wanted echo-signals
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/356Receivers involving particularities of FFT processing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/411Identification of targets based on measurements of radar reflectivity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/77Determining position or orientation of objects or cameras using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/08Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • This disclosure relates to a radar device mounted on a moving body.
  • a method of calculating a distance using a signal phase difference in other words, a phase of a difference signal, such as a dual frequency CW (hereinafter, 2FCW)
  • the distance obtained by using the phase includes ambiguity due to phase folding (hereinafter, ambiguity).
  • the detected phase is ⁇
  • the actual phase may be ⁇ + 2 ⁇ ⁇ n (n is an integer), and this cannot be distinguished. That is, the distance at which the phase of the signal rotates once becomes the detection upper limit distance, and the target located farther than the detection upper limit distance is erroneously detected as the distance within the detection upper limit distance by the phase folding back.
  • Patent Document 1 a radar method that generates ambiguity and an FMCW method that does not generate ambiguity are used in combination, and the detection results of each method are matched to perform highly accurate measurement. Techniques for obtaining results are disclosed.
  • Patent Document 1 has the following problems. That is, in an in-vehicle radar device that combines an FMCW with a radar method that generates ambiguity such as 2FCW and FCM by applying the conventional technology, the orientation when matching the detection result in the 2FCW and the detection result in the FMCW. And power are used as indicators, and those with similar indicators are matched.
  • Reflected waves from a long-distance target that cause distance folds in 2FCW usually have lower power due to the diffusion of radio waves, so the difference in power suppresses mismatching with the detection result in FMCW.
  • the reflected wave from a long-distance target is repeatedly reflected and propagated on the wall surface without being diffused, so that it is received without being sufficiently attenuated.
  • both the reflected wave from the ceiling located at a short distance and the reflected wave from a distant target arrive from almost directly behind, so that both are detected in substantially the same direction.
  • the reflected wave from the long-distance target detected by 2FCW that is, the virtual image detected at a position closer to the actual position by ambiguity and the reflected wave from the ceiling of the tunnel are similar in direction and power. , Mismatching may occur. As a result, the position of the virtual image detected at a position closer than the actual position is erroneously detected as the position of the actual target, which causes a malfunction of the driving support control such as a false alarm.
  • the radar device may provide a technique for suppressing erroneous detection based on the ambiguity of the measurement result.
  • One aspect of the present disclosure is a radar device, which includes a spectrum generation unit, an instantaneous value generation unit, a connection determination unit, a feature amount extraction unit, a distribution storage unit, and a virtual image determination unit.
  • the spectrum generator uses one or more types of modulation methods, and analyzes the signal obtained by transmitting and receiving the modulation wave by each modulation method as a radar wave for each preset processing cycle to obtain a one-dimensional spectrum and a one-dimensional spectrum. Generate at least one of the two-dimensional spectra.
  • the instantaneous value generation unit generates one or more instantaneous values by extracting a peak from at least one of the one-dimensional spectrum and the two-dimensional spectrum generated for each modulation method.
  • the connection determination unit determines whether or not there is a history connection between the target and the target candidate generated up to the previous processing cycle and the instantaneous value generated by the instantaneous value generation unit, thereby determining the target and the target candidate. Is created and extinguished.
  • the feature amount extraction unit is the information associated with the instantaneous value generated by the instantaneous value generation unit, and the information associated with the target and the target target candidate target generated by the connection determination unit. At least one of them is used to extract one or more predetermined feature quantities.
  • the distribution storage unit stores the virtual image distribution and the real image distribution generated in advance for each feature amount.
  • the virtual image determination unit uses the extraction result of the feature amount extraction unit for the target, etc. for each target, etc.
  • the connection determination unit determines the virtual image probability from the virtual image distribution and the real image probability from the real image distribution, respectively. calculate. Further, the virtual image determination unit determines whether or not the target or the like is a virtual image according to the result of integrating the calculated virtual image probability and the real image probability.
  • the virtual image distribution is a distribution representing the probability that the feature quantity is extracted from the virtual image when the feature quantity is given.
  • the real image distribution is a distribution that represents the probability that the feature quantity is extracted from the real image when the feature quantity is given.
  • the feature quantity one having a distribution shape in which the virtual image distribution and the real image distribution are different is used.
  • the target or the like is a virtual image is determined by using the feature amount of the target or the like and the feature amount of an instantaneous value having a history connection with the target or the like.
  • the accuracy can be improved.
  • the physical quantities associated with the coordinate axes of the one-dimensional spectrum and the two-dimensional spectrum differ depending on the modulation method.
  • the coordinate axes of the one-dimensional spectrum are, for example, associated with relative velocity in 2FCW and with distance and relative velocity in FMCW.
  • the coordinate axes of the two-dimensional spectrum are associated with, for example, relative velocity and azimuth in 2FCW, distance, relative velocity and azimuth in FMCW, and distance and relative velocity in FCM.
  • FMCW is an abbreviation for Frequency Modulated Continuous Wave
  • CW is an abbreviation for Continuous Wave
  • FCM is an abbreviation for Fast-Chirp Modulation.
  • 2F of 2FCW means two frequencies.
  • the in-vehicle system 1 includes a radar device 10 and a driving support ECU 100.
  • ECU is an abbreviation for Electronic Control Unit.
  • the in-vehicle system 1 is mounted on a vehicle such as a four-wheeled vehicle which is a moving body.
  • the radar device 10 is attached to each of the rear end and the left and right ends of the vehicle, for example, so that the detection range of the radar device 10 includes a rear direction along the straight direction of the vehicle and a lateral direction orthogonal to the straight direction. Placed in.
  • a vehicle equipped with the radar device 10 is also referred to as a own vehicle.
  • the radar device 10 emits a radar wave, receives the reflected wave, and observes the distance R to the target that reflected the radar wave, the speed V of the target, and the azimuth ⁇ of the target based on the received signal. ..
  • the radar device 10 calculates estimated values of the horizontal position x, the vertical position y, the horizontal speed Vx, and the vertical speed Vy from these observed values (R, V, ⁇ ), and these estimated values (x, y, Vx, Vy) is input to the driving support ECU 100.
  • the horizontal position x is a position along the vehicle width direction of the vehicle on which the in-vehicle system 1 is mounted
  • the vertical position y is a position along the traveling direction of the vehicle.
  • the driving support ECU 100 executes various processes for assisting the driver in driving the vehicle based on the estimated values (x, y, Vx, Vy) of each target input from the radar device 10.
  • processing related to driving support for example, processing for issuing an alarm to the driver that there is an approaching object, and vehicle control for avoiding a collision with an approaching object are executed by controlling a braking system, a steering system, or the like. There is processing etc.
  • the radar device 10 includes a transmission circuit 20, a distributor 30, a transmission antenna 40, a reception antenna 50, a reception circuit 60, a processing unit 70, and an output unit 80.
  • the transmission circuit 20 is a circuit for supplying the transmission signal Ss to the transmission antenna 40.
  • the transmission circuit 20 inputs a high frequency signal in the millimeter wave band to the distributor 30 located upstream of the transmission antenna 40.
  • the transmission circuit 20 alternately repeats the first modulation period and the second modulation period for each preset processing cycle, and distributes the generated high-frequency signal to the distributor 30.
  • In the first modulation period a frequency-modulated high-frequency signal is generated so that the frequency increases and decreases in a triangular wave shape.
  • the second modulation period a high frequency signal in which the frequencies are alternately switched is generated.
  • the processing cycle is set longer than the total period of the first modulation period and the second modulation period, and the period from the end of the second modulation period to the start of the first modulation period of the next processing cycle is called the processing period. ..
  • the radar device 10 operates as an FMCW radar that transmits and receives FMCW as a first modulation wave in the first modulation period, and a 2FCW radar that transmits a dual frequency CW (hereinafter, 2FCW) as a second modulation wave in the second modulation period.
  • the two frequencies used in 2FCW are set so that the distance can be uniquely measured within a predetermined upper limit distance (for example, 150 m).
  • the two signals used in 2FCW with different frequencies are hereinafter referred to as a first signal and a second signal.
  • the waveform of the FMCW is set so that the distance can be uniquely specified in a range of a distance sufficiently longer than the upper limit distance.
  • the distributor 30 distributes the high frequency signal input from the transmission circuit 20 to the transmission signal Ss and the local signal L.
  • the transmission antenna 40 emits a radar wave having a frequency corresponding to the transmission signal Ss based on the transmission signal Ss supplied from the distributor 30.
  • the receiving antenna 50 is an antenna for receiving a reflected wave which is a radar wave reflected by a target.
  • the receiving antenna 50 is configured as a linear array antenna in which a plurality of antenna elements 51 are arranged in a row.
  • the received signal Sr of the reflected wave by each antenna element 51 is input to the receiving circuit 60.
  • the receiving circuit 60 processes the received signal Sr input from each antenna element 51 constituting the receiving antenna 50, generates a beat signal BT for each antenna element 51, and outputs the beat signal BT. Specifically, the receiving circuit 60 uses a mixer 61 to mix the received signal Sr input from the antenna element 51 and the local signal L input from the distributor 30 for each antenna element 51 to obtain an antenna. A beat signal BT for each element 51 is generated and output.
  • the process up to the output of the beat signal BT includes a process of amplifying the received signal Sr, a process of removing unnecessary signal components from the beat signal BT, and a process of converting the beat signal BT into digital data. ..
  • the receiving circuit 60 converts the generated beat signal BT for each antenna element 51 into digital data and outputs it.
  • the output beat signal BT for each antenna element 51 is input to the processing unit 70.
  • the A / D conversion data of the beat signal BT acquired in the first modulation period is referred to as the first modulation data
  • the A / D conversion data of the beat signal BT acquired in the second modulation period is referred to as the second modulation data.
  • the processing unit 70 includes a microcomputer having a CPU 71 and, for example, a semiconductor memory such as RAM or ROM (hereinafter, memory 72). Each function of the processing unit 70 is realized by the CPU 71 executing a program stored in a non-transitional substantive recording medium.
  • the memory 72 corresponds to a non-transitional substantive recording medium in which a program is stored.
  • the method corresponding to the program is executed.
  • the processing unit 70 may include one microcomputer or a plurality of microcomputers. Further, the processing unit 70 may include a coprocessor that executes high-speed Fourier transform (hereinafter, FFT) processing and the like.
  • FFT high-speed Fourier transform
  • the processing unit 70 at least executes a target detection process for calculating an estimated value (x, y, Vx, Vy) for each target that reflects radar waves by analyzing the beat signal BT for each antenna element 51. ..
  • the method for realizing the functions of each part included in the processing unit 70 is not limited to software, and some or all of the functions may be realized by using one or more hardware.
  • the electronic circuit may be realized by a digital circuit, an analog circuit, or a combination thereof.
  • This process is repeatedly executed every process cycle when the in-vehicle system 1 is started.
  • the processing unit 70 determines in S110 whether or not the first modulation period has ended, that is, whether or not the acquisition of the first modulation data has been completed. If the acquisition of the first modulation data is not completed, the processing unit 70 waits by repeating the same step, and if the acquisition of the first modulation data is completed, the processing unit 70 shifts the processing to S120.
  • the processing unit 70 calculates the power spectrum by executing frequency analysis processing for each antenna element 51 and for each of the up chirp and the down chirp of the first modulation data.
  • FFT is an abbreviation for Fast Fourier Transform.
  • the power spectrum obtained by FFT is called FFT spectrum.
  • the power of the reflected wave is represented for each frequency bin.
  • the frequency bin is a frequency range that serves as a unit scale of the FFT spectrum, and is determined by the number of samples of data to be FFT and the sampling frequency.
  • the up chirp is a signal whose frequency increases with time in FMCW
  • the down chirp is a signal whose frequency decreases with time in FMCW.
  • the up-chirp FFT spectrum is referred to as an UP-FFT spectrum
  • the down-chirp FFT spectrum is referred to as a DN-FFT spectrum.
  • the processing unit 70 calculates an average FFT spectrum obtained by averaging the FFT spectra obtained from each antenna element 51 for each of the UP-FFT spectrum and the DN-FFT spectrum. Further, the processing unit 70 extracts a frequency bin having a peak whose signal level is equal to or higher than a preset threshold value on the average FFT spectrum.
  • the signal level referred to here may simply be the peak power or the peak power ratio to the noise floor. The same applies hereinafter.
  • the processing unit 70 executes the azimuth calculation for each of the UP-FFT spectrum and the DN-FFT spectrum calculated in S120.
  • the azimuth is developed by utilizing the fact that the phase of the peak detected in the same frequency bin of each channel is different for each channel.
  • a two-dimensional spectrum having a frequency bin and a azimuth as coordinate axes is generated.
  • a high resolution algorithm such as MUSIC may be used for the orientation calculation.
  • MUSIC is an abbreviation for Multiple Signal Classification. Not limited to this, beamforming or the like may be used.
  • the azimuth calculation is performed at least for all frequency bins whose peaks are detected on the FFT spectrum in S120.
  • the two-dimensional spectrum of the up chirp is referred to as the UP spectrum
  • the two-dimensional spectrum of the down chirp is referred to as the DN spectrum.
  • the processing unit 70 determines whether or not the second modulation period has ended, that is, whether or not the acquisition of the second modulation data has ended. If the second modulation period has not ended, the processing unit 70 waits by repeating the same step, and if the second modulation period has ended, the processing unit 70 shifts the processing to S150.
  • the processing unit 70 executes frequency analysis processing for each antenna element 51 and for each of the first signal and the second signal to generate a power spectrum, and detects a peak on the power spectrum.
  • the FFT process is used as the frequency analysis process.
  • the FFT spectrum obtained as a result of this FFT processing also corresponds to a one-dimensional spectrum.
  • the Doppler frequency detected from the first signal and the Doppler frequency detected from the second signal are substantially the same magnitude. .. That is, in the FFT spectrum of the first signal and the FFT spectrum of the second signal, peaks are detected in the same frequency bin. That is, since the FFT spectrum of the first signal and the FFT spectrum of the second signal have the same shape, only one FFT spectrum is shown in FIG.
  • the distance is calculated from the phase difference ⁇ of the two peak frequency components detected in the same frequency bin from the two average FFT spectra.
  • the distance calculated from the phase difference ⁇ has ambiguity due to phase folding (hereinafter, ambiguity).
  • n is an integer.
  • the processing unit 70 uses the FFT spectrum (hereinafter, MF-FFT spectrum) of either the first signal or the second signal, and executes the azimuth calculation in the same manner as in the S130.
  • the two-dimensional spectrum generated by this orientation calculation is called an MF spectrum.
  • the azimuth calculation is performed at least for all frequency bins whose peaks are detected on the MF-FFT spectrum in S150.
  • the processing unit 70 extracts all peaks having a power equal to or higher than a preset threshold value from the UP spectrum and DN spectrum generated in S130 and the MF spectrum generated in S160.
  • the processing unit 70 generates an instantaneous value in the processing cycle by performing peak matching in which peaks presumed to be based on the same target are associated with each other among the peaks extracted in S170. ..
  • the peaks based on the same reflection point extracted from the UP spectrum and the DN spectrum are both detected in the same direction, and the frequency bin detected changes according to the relative speed between the reflection point and the own vehicle. To do.
  • the frequency bin at which the peak is detected is the same for the UP spectrum and the DN spectrum.
  • the frequency bin in which the peak is detected is lower in the UP spectrum than in the DN spectrum.
  • the frequency bin in which the peak is detected is higher in the UP spectrum than in the DN spectrum. This is based on the characteristics of the FMCW in which the magnitude relationship between the frequency detected in the up chirp and the frequency detected in the down chirp changes due to the Doppler shift.
  • XX represents any one of MF-FFT, UP-FFT, DN-FFT, MF, UP, and DN.
  • the instantaneous value when both the UP peak and the DN peak corresponding to the MF peak are extracted is represented by (MF, UP, DN), and the instantaneous value when only the UP peak corresponding to the MF peak is extracted is expressed. It is represented by (MF, UP), and the instantaneous value when only the DN peak corresponding to the MF peak is extracted is represented by (MF, DN).
  • pair matching using a known method in the FMCW radar is also performed by using the UP peak and the DN peak without using the MF peak.
  • the instantaneous value extracted by this is represented by (UP, DN).
  • the processing unit 70 executes tracking using the instantaneous value generated in S180.
  • the target and target candidate hereinafter, target, etc.
  • Position the distance and direction in which the target, etc. is predicted to be detected in this processing cycle (hereinafter, prediction). Position) is calculated.
  • the distance and azimuth (hereinafter, detection position) of the reflection point (hereinafter, peak corresponding point) represented by the instantaneous value are calculated from the instantaneous value. Then, if the difference between the predicted position and the detected position is within the preset allowable range, the target and the instantaneous value are associated with the reflection from the same target, and the history connection is performed.
  • the target target candidate is recognized as a formal target when the history connection is confirmed over a predetermined processing cycle.
  • the processing unit 70 assigns a virtual image flag F to each of the targets and the like generated in S190, and initializes the virtual image flag. Specifically, all virtual image flags F are set to off, which indicates that the target or the like is not a virtual image (that is, it is a real image).
  • the processing unit 70 determines whether or not the surrounding situation in which the own vehicle is traveling is a turnaround environment.
  • the folded environment is an environment in which ambiguity may occur in the distance calculated from the instantaneous value. Specifically, it is an environment surrounded by walls, such as inside a tunnel.
  • the determination of whether or not the environment is a turnaround may be performed by analyzing the signal obtained by the radar. Further, instead of the signal obtained by the radar, for example, an image of an in-vehicle camera may be used, or the position information and map information of the own vehicle may be used. Moreover, you may use these in combination.
  • the processing unit 70 determines that the environment is a return environment, the process shifts to S220, and when it determines that the environment is not a return environment, the processing unit 70 shifts the process to S230.
  • the processing unit 70 determines whether or not the target or the like is a virtual image for each target or the like, executes a virtual image determination process for updating the virtual image flag, and proceeds to the process in S230.
  • the processing unit 70 generates an estimated value (x, y.Vx.Vy) regarding the target detected by the tracking in S190, outputs it to the driving support ECU 100 via the output unit 80, and performs processing. finish.
  • the estimated value may include the virtual image flag F.
  • the virtual image flag F when the virtual image flag F is included in the estimated value, for example, the virtual image flag is used as the alarm on / off information, and the estimated value (that is, the target) in which the virtual image flag F is set to be turned on is an alarm. It may be excluded from the target of.
  • the virtual image flag F can be used not only for alarms but also for various other controls.
  • the feature quantity is a combination of information extracted from the MF spectrum, the UP spectrum and the DN spectrum, and information obtained from the MF-FFT spectrum, the UP-FFT spectrum and the DN-FFT spectrum obtained in the process of generating these spectra. It is obtained by calculating.
  • five feature quantities will be described.
  • the five feature quantities are referred to as first to fifth feature quantities D1 to D5.
  • the first feature amount D1 is calculated when the instantaneous value is (MF, UP, DN) or (UP, DN), that is, when both the UP peak and the DN peak are included in the instantaneous value.
  • the peak level of the DN peak is Pdd
  • the peak level of the UP-FFT peak corresponding to the UP peak is Pfu, which is a value calculated by using the equation (1).
  • the first feature amount D1 is a feature amount for realizing a determination using the following facts. That is, if the peak corresponding point specified by the instantaneous value is a real image, there is a high probability that the peak level Pdd after azimuth expansion will be equal to or lower than the peak level Pfu before azimuth expansion. On the other hand, if the peak correspondence point is a virtual image, the probability that the magnitude relationship will be reversed is higher than that of the real image.
  • the second feature amount D2 to the fifth feature amount D5 are calculated for all target objects and the like.
  • D3 Pfd (3) That is, in the second feature amount D2 and the third feature amount D3, the peak levels of the UP-FFT peak and the DN-FFT peak tend to be higher when the peak correspondence point is a real image than when it is a virtual image. It is a feature quantity for realizing a judgment using facts.
  • the fourth feature amount D4 is the horizontal position x of the target or the like.
  • the horizontal position x is a position in the vehicle width direction of the own vehicle, and is represented as a horizontal position of 0 m in the direction directly behind the own vehicle as seen from the radar device 10.
  • the azimuth ⁇ in which the target or the like is located may be used instead of the horizontal position x, the horizontal position x is suitable for expressing the real image distribution and the virtual image distribution described later in a normal distribution.
  • the fourth feature amount D4 is a feature amount for realizing a determination using the following facts. That is, as shown in FIG. 5, the entity that is the source of the virtual image exists farther than the upper limit distance, and is easily detected directly behind the radar device 10, that is, in the vicinity of the lateral position of 0 m. On the other hand, it is a fact that the vehicle M1 to be noted as a target of an alarm or the like is likely to be traveling in an adjacent lane.
  • the fifth feature amount D5 is the arrival horizontal position of a target or the like.
  • the arrival horizontal position is a predicted horizontal position when the target or the like reaches the rear end of the own vehicle, which is estimated from the vertical position and the horizontal position of the target or the like, the moving speed, and the moving direction.
  • the vertical position is the position in the vehicle length direction of the own vehicle.
  • the fifth feature amount D5 is a feature amount for realizing a determination using the following facts. That is, as shown in FIG. 5, in the case of a virtual image, the arrival horizontal position is around 0 m in the horizontal position. On the other hand, for the vehicle M1 that is traveling in the adjacent lane and is trying to overtake the own vehicle and the vehicle M2 that is trying to change lanes, there is a high possibility that the position away from the lateral position 0 m will be the arrival lateral position. That is the fact.
  • the real image probability is set to the normal distribution. It is expressed as.
  • the virtual image distribution is a normal distribution expressing the probability that the peak corresponding point from which the feature amount Di is extracted is a virtual image (hereinafter referred to as the virtual image probability) when the feature amount Di is given.
  • the real image appearance probability P (R) is the probability that the real image appears in all the targets
  • the virtual image appearance probability P (I) is the probability that the virtual image appears in all the targets.
  • the real image distribution, the virtual image distribution, the real image appearance probability P (R), and the virtual image appearance probability P (I) are generated in advance by learning and stored in the memory 72 of the processing unit 70.
  • an instantaneous value is generated from the measurement result obtained by operating the radar device 10, and a target or the like is generated by tracking using the generated instantaneous value.
  • each feature amount D1 to D3 is obtained for each of the peak powers of each FFT peak estimated from the generated instantaneous value, the target, and the like.
  • the features D1 to D3 with teacher data indicating the correct answer as to whether the target or the like having a historical connection with the peak power of each FFT peak estimated from those instantaneous values or the target is a real image or a virtual image.
  • the feature quantities D4 and D5 are obtained for each of the generated targets and the like, and the feature quantities D4 and D5 with teacher data indicating the correct answer as to whether the targets or the like are a real image or a virtual image are accumulated.
  • a histogram of the feature quantity Di representing a real image and a feature quantity Di representing a virtual image are used. Create a histogram. Further, the real image distribution is generated by converting the histogram representing the real image into a normal distribution, and the virtual image distribution is generated by converting the histogram representing the virtual image into a normal distribution.
  • the real image appearance probability P (R) and the virtual image appearance probability P (I) are calculated using the data obtained in the above learning.
  • each feature amount D1 to D5 The real image distribution and the virtual image distribution of each feature amount D1 to D5 are illustrated in FIGS. 7 to 11.
  • the real image probability when the feature amount Di is given is represented by P (Di
  • the virtual image probability is represented by P (Di
  • the horizontal axis of each distribution is the signal strength representing the peak level of the difference in D1, the signal strength representing the peak level in D2 and D3, and the horizontal positions x in D4 and D5.
  • the real image distribution and the virtual image distribution are separately prepared for long-distance use and short-distance use, and are stored in the memory 72.
  • the processing unit 70 selects the following targets or the like that have not been processed in S320 to S410 from the targets or the like extracted in S180.
  • the selected target, etc. will be referred to as a selected target, etc.
  • connection instantaneous value an instantaneous value for which the historical connection with the selected target is confirmed by the tracking process of S190.
  • the processing unit 70 selects either a long-distance distribution or a short-distance distribution according to the distance calculated for the selected object target or the like. For example, if the distance is within 50 m, the short-distance distribution is selected, and if the distance exceeds 50 m, the long-distance distribution is selected. In the following processing of S340 to S380, the real image distribution and the virtual image distribution selected here are used.
  • the processing unit 70 calculates the first feature amount D1 for the instantaneous value of connection to the selected object, etc., and is based on the calculated first feature amount D1 and the real image distribution and the virtual image distribution of the first feature amount D1.
  • I) are calculated.
  • the processing unit 70 calculates the second feature amount D2 for the instantaneous value of connection to the selected object, etc., and based on the calculated second feature amount D2 and the real image distribution and the virtual image distribution of the second feature amount.
  • I) are calculated.
  • the processing unit 70 calculates the third feature amount D3 for the instantaneous value of connection to the selected object, etc., and based on the calculated third feature amount D3 and the real image distribution and virtual image distribution of the third feature amount.
  • I) are calculated.
  • the processing unit 70 calculates the fourth feature amount D4 for the selected object, etc., and based on the calculated fourth feature amount D4 and the real image distribution and virtual image distribution of the fourth feature amount, the real image probability P ( D4
  • the processing unit 70 calculates the fifth feature amount D5 for the selected object, etc., and the real image probability P is based on the calculated fifth feature amount D5 and the real image distribution and the virtual image distribution of the first feature amount D5. (D5
  • the processing unit 70 calculates the integrated virtual image probability PG according to the equations (4) to (6).
  • the probability that the selected target or the like is a virtual image is calculated using Naive Bayes to which Bayesian inference is applied.
  • Equation (5) represents a composite virtual image probability that combines virtual image probabilities for all features
  • equation (6) represents a composite real image probability that combines real image probabilities for all features.
  • the processing unit 70 determines whether or not the integrated virtual image probability PG of the selected object target or the like calculated in S390 is larger than the preset threshold value TH. If the integrated virtual image probability PG is larger than the threshold value TH, the process shifts to S410, and if the integrated virtual image probability PG is equal to or less than the threshold value TH, the process shifts to S420.
  • the processing unit 70 updates the virtual image flag F given to the selected object target or the like to ON, and proceeds with the processing to S420.
  • the processing unit 70 determines whether or not all the targets and the like have been selected in the previous S310. If there is a target or the like that has not been selected, the process shifts to S310, and if all the targets or the like have been selected, the process ends.
  • the radar device 10 generates a two-dimensional spectrum developed in terms of distance and azimuth from the FMCW-type up-chirp and down-chirp, and the 2FCW-type received signal, and peaks on these plurality of two-dimensional spectra. Generates an instantaneous value by matching. Further, a target or the like is generated by tracking using an instantaneous value, and whether or not the generated target or the like is a virtual image is determined by using the integrated virtual image probability PG.
  • the integrated virtual image probability PG is the real image probability (Di
  • the radar device 10 uses a naive Bayesian method in which each event is assumed to be independent when integrating the real image probability P (Di
  • the integrated virtual image probability PG is used for determining the virtual image.
  • the second embodiment is different from the first embodiment in that the logbayes ratio is used. That is, the contents of the virtual image determination process are partially different.
  • the processing unit 70 calculates the logbayes ratio LB according to the equations (9) and (10). However, log P (D
  • TH log P (D
  • TH log P (I) -log P (R) + A (10)
  • a in the equation (10) is an experimentally set constant and may be 0.
  • TH is a threshold value, and is set so that if LB is a positive value, it can be determined as a virtual image, and if LB is a negative value, it can be determined as a real image.
  • the processing unit 70 executes a filter process for suppressing a sudden change in the value of the logbayes ratio LB.
  • the logbayes ratio calculated in S392 is LB [n]
  • the logbayes ratio after filtering is LBf [n]
  • the logbayes ratio after filtering calculated in the previous processing cycle is LBf [n-1].
  • the coefficient ⁇ is a real number with 0 ⁇ ⁇ 1.
  • the operation shown in the equation (11) is executed.
  • the logbayes ratio LBf [n] after the filtering process is also simply referred to as the logbayes ratio LBf.
  • the processing unit 70 determines whether or not the logbayes ratio LBf of the selection target or the like calculated in S394 is greater than 0. If the logbayes ratio LBf is larger than 0, the selection target etc. is assumed to be a virtual image and the process is shifted to S410. Transition.
  • FIGS. 14 and 15 the upper graph shows the ghost probability PG calculated by the equation (4), the lower graph shows the logbayes ratio LB before filtering calculated by the equation (9), and the equation (11). The result of plotting the logbayes ratio LBf after the filter processing calculated by is plotted for each processing cycle is shown.
  • FIG. 14 shows a case where the target object or the like to be processed is a real image
  • FIG. 15 shows a case where the target object or the like to be processed is a virtual image.
  • the ghost probability PG becomes a large value exceeding 50% and the logbayes ratio LB becomes a positive value due to the disturbance even though the target or the like is a real image. .. That is, when it is determined whether or not it is a virtual image using the ghost probability PG or the logbayes ratio LB before the filter processing, an erroneous determination result may be obtained. On the other hand, the logbayes ratio LBf after the filtering process remains a negative value, and a correct determination result can be obtained.
  • the logbayes ratio LBf is a logbays ratio LB [n] before the filter processing obtained in the current processing cycle and a logbays ratio LBf [n-1] after the filter processing obtained in the previous processing cycle. It is calculated by performing a mixing filter process using the coefficient ⁇ . Therefore, even if the abnormal logbayes ratio LB [n] is suddenly calculated due to the disturbance, the virtual image determination does not immediately follow, and a stable determination result can be obtained.
  • the threshold value TH is incorporated in the calculation of the logbayes ratio LB, and the threshold value TH can be easily adjusted.
  • the first to fifth feature amounts D1 to D5 are used as the feature amount used for calculating the logbayes ratio LB, but the feature amount causes a clear difference between the real image distribution and the virtual image distribution. All you need is. Further, the number of feature quantities used for calculating the integrated virtual image probability PG is not limited to 5, and may be 1 to 4 or 6 or more.
  • the peak level of the MF-FFT peak may be used as a feature amount.
  • a value obtained by subtracting the peak level of the MF-FFT peak from the peak level of the UP-FFT peak may be used as the feature amount.
  • a value obtained by subtracting the peak level of the MF-FFT peak from the peak level of the DN-FFT peak may be used as the feature amount.
  • a value obtained by subtracting the peak level of the DN-FFT peak from the peak level of the UP-FFT peak may be used as the feature amount.
  • the real image and the virtual image are distributed to the two feature quantities A and B as shown in FIG. 20, when the feature quantity A is used alone, the real image distribution and the virtual image distribution shown by a in the figure are distributed.
  • the feature amount B is used alone, the real image distribution and the virtual image distribution shown by b in the figure can be obtained.
  • the real image distribution and the virtual image distribution shown by c in the figure can be obtained.
  • the feature amount may be set in consideration of such a viewpoint.
  • FMCW is used as the first modulation
  • the present disclosure is not limited to this, and what kind of radar is used as the first modulation as long as it is different from at least the second modulation.
  • the method may be used. Further, in the above embodiment, the case where two types of radar methods are combined has been described, but three or more types of radar methods may be combined.
  • peaks detected from each of the up chirp and down chirp of 2FCW and FMCW are matched to generate an instantaneous value, but the present disclosure is not limited to this.
  • the up chirp of the FMCW may be regarded as the first modulation and the down chirp as the second modulation, and may be applied to a radar device that matches only the peaks detected from both chirps to generate an instantaneous value.
  • an instantaneous value is generated from the result of matching the peaks extracted by each of the plurality of modulation methods, but a single modulation method is used without matching with other peaks.
  • An instantaneous value may be generated from the peak extracted from the above.
  • two real image distributions and virtual image distributions are prepared for each feature amount, but the present disclosure is not limited to this.
  • only one real image distribution and one virtual image distribution may be prepared for each feature amount without dividing by distance.
  • the distance may be further subdivided, and three or more real image distributions and three or more virtual image distributions may be prepared for each feature amount.
  • a plurality of functions possessed by one component in the above embodiment may be realized by a plurality of components, or one function possessed by one component may be realized by a plurality of components. .. Further, a plurality of functions possessed by the plurality of components may be realized by one component, or one function realized by the plurality of components may be realized by one component. Further, a part of the configuration of the above embodiment may be omitted. In addition, at least a part of the configuration of the above embodiment may be added or replaced with the configuration of the other above embodiment.
  • a system having the radar device as a component, a program for operating a computer as the radar device, a non-transitional actual recording medium such as a semiconductor memory in which this program is recorded, and a virtual image In addition to the radar device described above, a system having the radar device as a component, a program for operating a computer as the radar device, a non-transitional actual recording medium such as a semiconductor memory in which this program is recorded, and a virtual image.
  • the present disclosure can also be realized in various forms such as a determination method.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Electromagnetism (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

特徴量抽出部(S330~S380)は、瞬時値生成部(S170~S180)にて生成された瞬時値に対応づけられる情報、及び接続判定部(S190)にて生成された物標等に対応づけられる情報のうち少なくとも一方を用いて、一種類以上の特徴量を抽出する。虚像判定部(S390~S410)は、接続判定部にて生成される物標等毎に、該物標等に関する特徴量抽出部での抽出結果を用いて、虚像分布から虚像確率と実像分布から実像確率とをそれぞれ算出する。虚像判定部は、更に、算出された虚像確率と実像確率とを統合した結果に従って、物標等が虚像であるか否かを判定する。

Description

レーダ装置 関連出願の相互参照
 本国際出願は、2019年4月10日に日本国特許庁に出願された日本国特許出願第2019-074875号に基づく優先権を主張するものであり、日本国特許出願第2019-074875号の全内容を本国際出願に参照により援用する。
 本開示は、移動体に搭載されるレーダ装置に関する。
 車両等に搭載されるレーダ装置として、2周波CW(以下、2FCW)等のように、信号の位相差、換言すれば差信号の位相を利用して距離を算出する方式が知られている。位相を利用して求められる距離は、位相折返しによる曖昧性(以下、アンビギュイティ)が含まれる。具体的には、検出された位相がθである場合、実際の位相はθ+2π・n(nは整数)である可能性があり、これを区別できない。つまり、信号の位相が1回転する距離が検知上限距離となり、検知上限距離より遠くに位置するターゲットは、位相折返しによって、検知上限距離内の距離として誤検出される。
 これに対して、特許文献1には、アンビギュイティを生じるレーダ方式と、アンビギュイティを生じないFMCW方式とを併用し、各方式での検出結果を、マッチングすることで、精度の高い測定結果を得る技術が開示されている。
特開2016-3873号公報
 しかしながら、本発明者等の詳細な検討の結果、特許文献1に記載の従来技術には、以下の課題があることが見出された。即ち、従来技術を適用して2FCW及びFCM等のアンビギュイティを生じるレーダ方式とFMCWとを組み合わせた車載レーダ装置では、2FCWでの検出結果と、FMCWでの検出結果をマッチングする際に、方位や電力を指標として、これらの指標が近いもの同士をマッチングする。
 2FCWにおいて距離の折返しが生じるような遠距離ターゲットからの反射波は、通常であれば、電波の拡散により電力が小さくなるため、電力の違いによって、FMCWでの検出結果とのミスマッチングが抑制される。
 ところが、トンネル等の壁面に囲われた空間では、遠距離ターゲットからの反射波は、拡散せずに壁面で繰り返し反射されて伝搬されるため、十分に減衰されずに受信される。しかも、まっすぐな形状のトンネル内では、近距離に位置する天井からの反射波も、遠方のターゲットからの反射波もほぼ真後ろから到来するため、両者は、略同一方位で検出される。
 つまり、2FCWで検出される遠距離ターゲットからの反射波、すなわち、アンビギュイティにより実際より近い位置で検出される虚像と、トンネルの天井などからの反射波とは、方位も電力も類似するため、ミスマッチングが生じる場合がある。その結果、実際より近い位置で検出される虚像の位置が、実際のターゲットの位置として誤検出されることで、誤警報の発生等、運転支援制御を誤作動させる原因となる。
 本開示の1つの局面では、レーダ装置において、測定結果のアンビギュイティに基づく誤検出を抑制する技術を提供してもよい。
 本開示の一態様は、レーダ装置であって、スペクトラム生成部と、瞬時値生成部と、接続判定部と、特徴量抽出部と、分布記憶部と、虚像判定部と、を備える。スペクトラム生成部は、1種類以上の変調方式を用い、予め設定された処理サイクル毎に、各変調方式による変調波をレーダ波として送受信することで得られる信号を解析することで、1次元スペクトラム及び2次元スペクトラムのうち少なくとも一方を生成する。瞬時値生成部は、変調方式毎に生成される1次元スペクトラム及び2次元スペクトラムのうち少なくとも一方からピークを抽出することで、一つ以上の瞬時値を生成する。接続判定部は、前回の処理サイクルまでに生成された物標及び物標候補と瞬時値生成部にて生成された瞬時値との履歴接続の有無を判定することで、物標及び物標候補を生成及び消滅させる。特徴量抽出部は、瞬時値生成部にて生成された瞬時値に対応づけられる情報、及び接続判定部にて生成された前記物標及び物標候補である物標等に対応づけられる情報のうち少なくとも一方を用いて、予め決められた一種類以上の特徴量を抽出する。分布記憶部には、特徴量毎に予め生成された虚像分布及び実像分布が記憶される。虚像判定部は、接続判定部にて生成される物標等毎に、該物標等に関する特徴量抽出部での抽出結果を用いて、虚像分布から虚像確率と実像分布から実像確率とをそれぞれ算出する。更に、虚像判定部は、算出された虚像確率と実像確率とを統合した結果に従って、物標等が虚像であるか否かを判定する。虚像分布は、特徴量が与えられたときに、特徴量の抽出元が虚像である確率を表す分布である。実像分布は、特徴量が与えられたときに、特徴量の抽出元が実像である確率を表す分布である。特徴量は、虚像分布と実像分布とが異なった分布形状を有するものが用いられる。
 このような構成によれば、物標等が虚像であるか否かを、物標等の特徴量及び該物標等との履歴接続がある瞬時値の特徴量を用いて判定するため、判定精度を向上させることができる。その結果、瞬時値のアンビギュイティによって発生する虚像が、実像として誤検出されることを抑制できる。なお、1次元スペクトラム及び2次元スペクトラムの座標軸に対応づけられる物理量は、変調方式によって異なる。1次元スペクトラムの座標軸は、例えば、2FCWでは相対速度に対応づけられ、FMCWでは距離及び相対速度に対応づけられる。また、2次元スペクトラムの座標軸は、例えば、2FCWでは相対速度と方位とに対応づけられ、FMCWでは、距離及び相対速度と方位とに対応づけられ、FCMでは、距離と相対速度とに対応づけられる。なお、FMCWは、Frequency Modulated Continuous Waveの略であり、CWは、Continuous Waveの略であり、FCMは、Fast-Chirp Modulationの略である。2FCWの2Fは、2つの周波数という意味である。
車載システムの構成を示すブロック図である。 使用するレーダ波の変調方式に関する説明図である。 物標検出処理のフローチャートである。 物標検出処理で生成されるFFTスペクトラムや方位展開された2次元スペクトラムを例示する説明図である。 第3特徴量である横位置及び第4特徴量である到達横位置を示す説明図である。 実像分布及び虚像分布の生成に関する説明図である。 第1特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 第2特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 第3特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 第4特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 第5特徴量の実像分布及び虚像分布を示すグラフである。 第1実施形態における虚像判定処理のフローチャートである。 第2実施形態における虚像判定処理のフローチャートである。 処理対象の物標等が実像である場合に算出された統合虚像確率と、フィルタ処理前及びフィルタ処理後のログベイズ比とを処理サイクル毎にプロットしたグラフである。 処理対象の物標等が虚像である場合に算出された統合虚像確率と、フィルタ処理前及びフィルタ処理後のログベイズ比とを処理サイクル毎にプロットしたグラフである。 他の特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 他の特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 他の特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 他の特徴量の実像分布及び虚像分布を、遠距離用及び近距離用について示すグラフである。 物標等が実像である場合及び虚像である場合について、2種類の特徴量に対する分布を示すと共に、特徴量の設定の仕方により実像分布及び虚像分布の形状が異なることを示す説明図である。
 以下、図面を参照しながら、本開示の実施形態を説明する。
 [1.第1実施形態]
 [1-1.構成]
 車載システム1は、図1に示すように、レーダ装置10と運転支援ECU100とを備える。ECUは、Electronic Control Unitの略である。この車載システム1は、移動体である四輪自動車等の車両に搭載される。レーダ装置10は、例えば、車両の後端かつ左右端のそれぞれに取り付けられ、レーダ装置10の検知範囲内に車両の直進方向に沿った後方向、及び直進方向に直交する横方向が含まれるように配置される。レーダ装置10が搭載された車両を自車ともいう。
 レーダ装置10は、レーダ波を発射して反射波を受信し、その受信信号に基づいて、レーダ波を反射した物標までの距離R、物標の速度V、物標の方位θを観測する。レーダ装置10は、これらの観測値(R,V,θ)から、横位置x、縦位置y、横速度Vx、縦速度Vyの推定値を算出し、これら推定値(x,y,Vx,Vy)を運転支援ECU100に入力する。なお、横位置xは、車載システム1を搭載する車両の車幅方向に沿った位置であり、縦位置yは、車両の進行方向に沿った位置である。
 運転支援ECU100は、レーダ装置10から入力される各物標の推定値(x,y,Vx,Vy)に基づいて、運転者による車両の運転を支援するための各種処理を実行する。運転支援に関する処理としては、例えば、接近物があることを運転者に警報を発する処理や、ブレーキシステムやステアリングシステム等を制御することにより、接近物との衝突回避のための車両制御を実行する処理等がある。
 レーダ装置10は、送信回路20と、分配器30と、送信アンテナ40と、受信アンテナ50と、受信回路60と、処理ユニット70と、出力ユニット80とを備える。
 送信回路20は、送信アンテナ40に送信信号Ssを供給するための回路である。送信回路20は、ミリ波帯の高周波信号を、送信アンテナ40の上流に位置する分配器30に入力する。具体的には、送信回路20は、図2に示すように、予め設定された処理サイクルごとに、第1変調期間と第2変調期間とを交互に繰り返し、生成された高周波信号を分配器30に入力する。第1変調期間では、周波数が三角波状に増加、減少するように周波数変調された高周波信号を生成する。第2変調期間では、周波数が交互に切り替わる高周波信号を生成する。処理サイクルは、第1変調期間と第2変調期間との合計期間より長く設定されており、第2変調期間の終了後、次の処理サイクルの第1変調期間が始まるまでの期間を処理期間という。
 つまり、レーダ装置10は、第1変調期間では第1変調波としてFMCWを送受信するFMCWレーダとして動作し、第2変調期間では第2変調波として2周波CW(以下、2FCW)を送信する2FCWレーダとして動作する。なお、2FCWで使用される2つの周波数は、所定の上限距離(例えば、150m)の範囲で、距離を一意に測定できるように設定される。2FCWで使用する周波数が異なる二つの信号を、以下では、第1信号及び第2信号という。また、FMCWの波形は、上限距離より十分に長い距離の範囲で、距離を一意に特定できるように設定される。
 図1に戻り、分配器30は、送信回路20から入力される高周波信号を、送信信号Ssとローカル信号Lとに電力分配する。
 送信アンテナ40は、分配器30から供給される送信信号Ssに基づいて、送信信号Ssに対応する周波数のレーダ波を発射する。
 受信アンテナ50は、物標にて反射されたレーダ波である反射波を受信するためのアンテナである。この受信アンテナ50は、複数のアンテナ素子51が一列に配置されたリニアアレーアンテナとして構成される。各アンテナ素子51による反射波の受信信号Srは、受信回路60に入力される。
 受信回路60は、受信アンテナ50を構成する各アンテナ素子51から入力される受信信号Srを処理して、アンテナ素子51毎のビート信号BTを生成し出力する。具体的に、受信回路60は、アンテナ素子51毎に、当該アンテナ素子51から入力される受信信号Srと分配器30から入力されるローカル信号Lとをミキサ61を用いて混合することにより、アンテナ素子51毎のビート信号BTを生成して出力する。
 但し、ビート信号BTを出力するまでの過程には、受信信号Srを増幅する過程、ビート信号BTから不要な信号成分を除去する過程、及び、ビート信号BTをデジタルデータに変換する過程が含まれる。このように、受信回路60は、生成したアンテナ素子51毎のビート信号BTをデジタルデータに変換して出力する。出力されたアンテナ素子51毎のビート信号BTは、処理ユニット70に入力される。以下では、第1変調期間に取得されるビート信号BTのA/D変換データを第1変調データ、第2変調期間に取得されるビート信号BTのA/D変換データを第2変調データという。
 処理ユニット70は、CPU71と、例えば、RAM又はROM等の半導体メモリ(以下、メモリ72)と、を有するマイクロコンピュータを備える。処理ユニット70の各機能は、CPU71が非遷移的実体的記録媒体に格納されたプログラムを実行することにより実現される。この例では、メモリ72が、プログラムを格納した非遷移的実体的記録媒体に該当する。また、このプログラムが実行されることで、プログラムに対応する方法が実行される。なお、処理ユニット70は、1つのマイクロコンピュータを備えてもよいし、複数のマイクロコンピュータを備えてもよい。また、処理ユニット70は、高速フーリエ変換(以下、FFT)処理等を実行するコプロセッサを備えてもよい。
 処理ユニット70は、アンテナ素子51毎のビート信号BTを解析することにより、レーダ波を反射した物標毎の推定値(x,y,Vx,Vy)を算出する物標検出処理を少なくとも実行する。
 処理ユニット70に含まれる各部の機能を実現する手法はソフトウェアに限るものではなく、その一部又は全部の機能は、一つあるいは複数のハードウェアを用いて実現されてもよい。例えば、上記機能がハードウェアである電子回路によって実現される場合、その電子回路は、デジタル回路、又はアナログ回路、あるいはこれらの組合せによって実現されてもよい。
 [1-2.処理]
 [1-2-1.物標検出処理]
 処理ユニット70が実行する物標検出処理を、図3のフローチャートを用いて説明する。
 本処理は、車載システム1が起動すると、処理サイクル毎に繰り返し実行される。
 本処理が起動すると、処理ユニット70は、S110にて、第1変調期間が終了したか否か、即ち、第1変調データの取得が終了したか否かを判定する。処理ユニット70は、第1変調データの取得が終了していなければ、同ステップを繰り返すことで待機し、第1変調データの取得が終了していれば、処理をS120に移行する。
 S120では、処理ユニット70は、第1変調データを、アンテナ素子51毎、かつ、アップチャープ及びダウンチャープのそれぞれについて周波数解析処理を実行することでパワースペクトラムを算出する。
 ここでは、周波数解析処理としてFFT処理を実行する。FFTは、Fast Fourier Transformの略である。FFTによって得られるパワースペクトラムをFFTスペクトラムという。FFTスペクトラムでは、反射波のパワーが周波数ビン毎に表される。周波数ビンは、FFTスペクトラムの単位目盛りとなる周波数範囲であり、FFTの対象となるデータのサンプル数とサンプリング周波数とによって決まる。
 なお、アップチャープは、FMCWにおいて、時間とともに周波数が増加する信号であり、ダウンチャープは、FMCWにおいて、時間とともに周波数が減少する信号である。以下では、アップチャープのFFTペクトラムをUP-FFTスペクトラム及びダウンチャープのFFTペクトラムをDN-FFTスペクトラムという。これらUP-FFTスペクトラム及びDN-FFTスペクトラムが1次元スペクトラムに相当する。
 処理ユニット70は、UP-FFTスペクトラム及びDN-FFTスペクトラムのそれぞれについて、各アンテナ素子51から得られたFFTスペクトラムを平均した平均FFTスペクトラムを算出する。更に、処理ユニット70は、平均FFTスペクトラム上で信号レベルが予め設定された閾値以上となるピークを有する周波数ビンを抽出する。ここでいう信号レベルは、単純にピークの電力でもよいし、ノイズフロアに対するピークの電力比でもよい。以下、同様である。
 続くS130では、処理ユニット70は、S120にて算出されたUP-FFTスペクトラム及びDN-FFTスペクトラムのそれぞれについて、方位演算を実行する。
 方位演算では、各チャネルの同一周波数ビンで検出されるピークの位相が、チャネル毎に異なることを利用して方位展開する。この方位演算により、周波数ビン及び方位を座標軸とする2次元スペクトラムを生成する。方位演算にはMUSIC等の高分解アルゴリズムを用いてもよい。MUSICは、Multiple Signal Classificationの略である。これに限らず、ビームフォーミング等を用いてもよい。また、方位演算は、少なくとも、先のS120にてFFTスペクトラム上でピークが検出された全ての周波数ビンについて実行する。以下では、アップチャープの2次元スペクトラムをUPスペクトラム、ダウンチャープの2次元スペクトラムをDNスペクトラムという。
 続くS140では、処理ユニット70は、第2変調期間が終了したか否か、即ち、第2変調データの取得が終了したか否かを判定する。処理ユニット70は、第2変調期間が終了していなければ、同ステップを繰り返すことで待機し、第2変調期間が終了していれば、処理をS150に移行する。
 S150では、処理ユニット70は、第2変調データをアンテナ素子51毎かつ第1信号及び第2信号のそれぞれについて周波数解析処理を実行してパワースペクトラムを生成し、パワースペクトラム上のピークを検出する。ここでは、S120と同様に、周波数解析処理としてFFT処理を用いる。このFFT処理の結果として得られるFFTスペクトラムも1次元スペクトラムに相当する。
 なお、2FCWにおける第1信号及び第2信号の周波数は十分に接近しているため、第1信号から検出されるドップラ周波数と、第2信号から検出されるドップラ周波数とは、略同じ大きさとなる。つまり、第1信号のFFTスペクトラムと第2信号のFFTスペクトラムでは、同じ周波数ビンにてピークが検出される。つまり、第1信号のFFTスペクトラムと第2信号のFFTスペクトラムとは、同様の形状となるため、図4には、一方のFFTスペクトラムのみを示す。
 そして、第1信号及び第2信号のそれぞれについて、アンテナ素子51毎に得られたFFTスペクトラムを平均化した平均FFTスペクトルを算出し、パワーが予め設定された閾値以上となるピークを有する周波数ビンを抽出する。
 更に、二つの平均FFTスペクトラムから同一周波数ビンにて検出される2つのピーク周波数成分の位相差Δθから距離を算出する。但し、実際の位相差は、Δθであるか2nπ+Δθであるかを区別できないため、位相差Δθから算出される距離は、位相折返しによる曖昧さ(以下、アンビギュイティ)を有する。nは整数である。
 続くS160では、処理ユニット70は、第1信号及び第2信号のいずれか一方のFFTスペクトラム(以下、MF-FFTスペクトラム)を用い、S130と同様に、方位演算を実行する。この方位演算により、生成される2次元ペクトラムを、MFスペクトラムという。方位演算は、少なくとも、先のS150にてMF-FFTスペクトラム上でピークが検出された全ての周波数ビンについて実行する。
 続くS170では、処理ユニット70は、S130にて生成されたUPスペクトラム及びDNスペクトラム、並びにS160にて生成されたMFスペクトラムから、予め設定された閾値以上のパワーを有する全てのピークを抽出する。
 続くS180では、処理ユニット70は、S170にて抽出されたピーク間で、同一物標に基づくと推定されるピーク同士を対応づけるピークマッチングを行うことで、当該処理サイクルでの瞬時値を生成する。
 なお、UPスペクトラムとDNスペクトラムとで抽出される同一の反射点に基づくピークは、いずれも同一方位で検出され、かつ、反射点と自車両との相対速度に応じて検出される周波数ビンが変化する。
 具体的には、反射点と自車両との相対速度がゼロである場合、ピークが検出される周波数ビンは、UPスペクトラムとDNスペクトラムとで同じとなる。反射点が自車両に接近中である場合、ピークが検出される周波数ビンは、UPスペクトラムの方がDNスペクトラムより低くなる。反射点が自車両から離隔中である場合、ピークが検出される周波数ビンは、UPスペクトラムの方がDNスペクトラムより高くなる。これは、ドップラシフトによりアップチャープで検出される周波数とダウンチャープで検出される周波数との大小関係が変化するFMCWの特性に基づく。但し、反射点と自車両との相対速度がゼロである場合、2FCWでのピークは、低周波ノイズに埋もれて検出できないため、FMCWのピークとのマッチングが不能となる。この場合、FMCWの中だけで、即ち、UPスペクトラムのピークとDNスペクトラムのピークとのマッチングが行われる。
 以下では、XXスペクトラム上のピークをXXピークという。但し、XXは、MF-FFT、UP-FFT、DN-FFT、MF、UP、及びDNのいずれかを表す。
 そして、MFピークに対応するUPピーク及びDNピークがいずれも抽出された場合の瞬時値を(MF,UP,DN)で表し、MFピークに対応するUPピークのみが抽出された場合の瞬時値を(MF,UP)で表し、MFピークに対応するDNピークのみが抽出された場合の瞬時値を(MF,DN)で表す。
 更に、MFピークを用いることなく、UPピークとDNピークとを用いて、FMCWレーダにおける公知の手法を用いたペアマッチングも行う。これにより抽出される瞬時値を(UP,DN)で表す。
 続くS190では、処理ユニット70は、S180で生成された瞬時値を用いて、トラッキングを実行する。トラッキングでは、前回の処理サイクルで検出された物標及び物標候補(以下、物標等)から、今回の処理サイクルで物標等が検出されることが予測される距離及び方位(以下、予測位置)を算出する。また、瞬時値からその瞬時値により表される反射点(以下、ピーク対応点)の距離及び方位(以下、検出位置)を算出する。そして、予測位置と検出位置との差が予め設定された許容範囲内にあれば、物標等と瞬時値とは、同一の対象からの反射であると対応づけ、履歴接続を実施する。そして、どの物標にも対応づけることができなければ、新規に検出された履歴接続がない瞬時値であるとして、その瞬時値を新たな物標候補とする。また、物標候補は、所定回の処理サイクルに渡って履歴接続が確認された場合に、正式な物標として認識される。
 続くS200では、処理ユニット70は、S190にて生成された物標等のそれぞれに虚像フラグFを付与して、その虚像フラグを初期化する。具体的には、全ての虚像フラグFを、物標等が虚像ではないこと(即ち、実像であること)を示すオフに設定する。
 続くS210では、処理ユニット70は、自車両が走行している周囲の状況が折返し環境であるか否かを判定する。折返し環境とは、瞬時値から算出される距離に、アンビギュイティが生じる可能性がある環境のことである。具体的には、トンネル内など、壁面に囲まれた環境である。折返し環境であるか否かの判定は、レーダで得られる信号を解析することによって行ってもよい。また、レーダで得られる信号の代わりに、例えば、車載カメラの画像を用いてもよいし、自車両の位置情報と地図情報とを用いてもよい。また、これらを組み合わせて用いてもよい。処理ユニット70は、折返し環境であると判定した場合は、処理をS220に移行し、折返し環境ではないと判定した場合は、処理をS230に移行する。
 S220では、処理ユニット70は、物標等毎に、その物標等が虚像であるか否かを判定して、虚像フラグを更新する虚像判定処理を実行して、処理をS230に進める。
 S230では、処理ユニット70は、S190でのトラッキングによって検出された物標に関する推定値(x,y.Vx.Vy)を生成し、出力ユニット80を介して運転支援ECU100に出力して、処理を終了する。推定値には、虚像フラグFが含まれてもよい。
 なお、運転支援ECU100では、推定値に虚像フラグFが含まれる場合、例えば、虚像フラグを警報オンオフ情報として用い、虚像フラグFがオンに設定された推定値(すなわち、物標)については、警報の対象から除外してもよい。なお、虚像フラグFは、警報に限らず、その他の種々の制御に用いることができる。
 [1-2-2.特徴量/実像分布/虚像分布]
 処理ユニット70が、先のS220で実行する虚像判定処理について説明する前に、虚像判定に使用する特徴量、実像分布、虚像分布、及び虚像出現確率について説明する。
 特徴量は、MFスペクトラム、UPスペクトラム及びDNスペクトラムから抽出される情報、並びに、これらのスペクトラムを生成する過程で得られるMF-FFTスペクトラム、UP-FFTスペクトラム、DN-FFTスペクトラムから得られる情報を組み合わせて演算することによって得られる。ここでは、5つの特徴量について説明する。5つの特徴量を第1~第5特徴量D1~D5という。
 第1特徴量D1は、瞬時値が(MF,UP,DN)又は(UP,DN)の場合、即ち、瞬時値に、UPピークとDNピークとがいずれも含まれる場合に算出される。具体的には、DNピークのピークレベルをPddとし、UPピークに対応するUP-FFTピークのピークレベルをPfuとして、(1)式を用いて算出される値である。
  D1=Pdd-Pfu    (1)
 第1特徴量D1は、以下の事実を利用した判定を実現するための特徴量である。すなわち、瞬時値により特定されるピーク対応点が実像であれば、方位展開後のピークレベルPddは、方位展開前のピークレベルPfu以下となる確率が高い。これに対して、ピーク対応点が虚像であれば、その大小関係に逆転が生じる確率が実像に比べて高いという事実である。
 第2特徴量D2~第5特徴量D5は、すべての物標等について算出される。
 第2特徴量D2は、(2)式に示すように、UPピークに対応するUP-FFTピークのピークレベルであるPfuを第2特徴量D2とする。
  D2=Pfu    (2)
 第3特徴量D3は、(3)式に示すように、DNピークに対応するDN-FFTピークのピークレベルであるPfdを第3特徴量D3とする。
  D3=Pfd    (3)
 つまり、第2特徴量D2及び第3特徴量D3は、UP-FFTピーク及びDN-FFTピークのピークレベルは、ピーク対応点が実像である場合の方が虚像である場合より大きい傾向があるという事実を利用した判定を実現するための特徴量である。
 第4特徴量D4は、物標等の横位置xである。横位置xは、自車の車幅方向の位置であり、レーダ装置10から見た自車の真後ろ方向を横位置0mとして表される。なお、横位置xの代わりに物標等が位置する方位θを用いてもよいが、後述する実像分布及び虚像分布を正規分布で表すには、横位置xが適する。
 第4特徴量D4は、以下の事実を利用した判定を実現するための特徴量である。すなわち、図5に示すように、虚像の発生元となる実体は、上限距離より遠くに存在し、レーダ装置10の真後ろ、つまり横位置0m付近で検出され易い。これに対して、警報等の対象として注意すべき車両M1は、隣接レーンを走行している可能性が高いという事実である。
 第5特徴量D5は、物標等の到達横位置である。到達横位置は、物標等の縦位置と横位置と移動速度と移動方向とから推定される、その物標等が自車の後端に到達した時の予測横位置である。なお、縦位置は、自車の車長方向の位置である。
 第5特徴量D5は、以下の事実を利用した判定を実現するための特徴量である。すなわち、図5に示すように、虚像であれば横位置0m付近が到達横位置となる。これに対して、隣接車線を走行し、自車両を追い越そうとしている車両M1や、車線変更をしようとしている車両M2は、横位置0mから離れた位置が到達横位置となる可能性が高いという事実である。
 実像分布は、i=1~5として、特徴量Diが与えられたときに、その特徴量Diの抽出元となったピーク対応点が実像である確率(以下、実像確率)を、正規分布にて表現したものである。
 虚像分布は、特徴量Diが与えられたときに、その特徴量Diの抽出元となったピーク対応点が虚像である確率(以下、虚像確率)を、正規分布にて表現したものである。
 実像出現確率P(R)は、全ての物標等の中で実像が出現する確率であり、虚像出現確率P(I)は、全ての物標等の中で虚像が出現する確率である。
 実像分布、虚像分布、実像出現確率P(R)、及び虚像出現確率P(I)は、学習により予め生成され、処理ユニット70のメモリ72に記憶される。
 学習では、まず、トンネル内及びトンネル外を走行しながら、レーダ装置10を作動させることで得られる測定結果から瞬時値を生成すると共に、生成された瞬時値を用いたトラッキングによって物標等を生成する。そして、生成された瞬時値や物標等から推定される各FFTピークのピークパワーのそれぞれについて各特徴量D1~D3を求める。更に、それら瞬時値や物標等から推定される各FFTピークのピークパワーとの履歴接続を有する物標等が実像であるか虚像であるかの正解を表す教師データ付きの特徴量D1~D3を蓄積する。また、生成された物標等のそれぞれについて特徴量D4,D5を求め、それら物標等が実像であるか虚像であるかの正解を表す教師データ付きの特徴量D4,D5を蓄積する。
 このようにして蓄積された教師データ付きの特徴量D1~D5を用いて、図6に示すように、特徴量Di毎に、実像を表す特徴量Diのヒストグラムと、虚像を表す特徴量Diのヒストグラムとを作成する。更に、実像を表すヒストグラムを正規分布に変換することで実像分布を生成し、虚像を表すヒストグラムを正規分布に変換することで虚像分布を生成する。実像出現確率P(R)及び虚像出現確率P(I)は、上記学習で得られるデータを用いて算出される。
 各特徴量D1~D5の実像分布及び虚像分布を、図7~図11に例示する。以下では、特徴量Diが与えられたときの実像確率をP(Di|R)、虚像確率をP(Di|I)で表す。各分布の横軸は、D1では差分のピークレベルを表す信号強度であり、D2,D3ではピークレベルを表す信号強度であり、D4,D5は横位置xである。なお、実像分布及び虚像分布は、遠距離用及び近距離用について別々に用意され、メモリ72に記憶される。
 [1-2-3.虚像判定処理]
 処理ユニット70が実行する虚像判定処理を、図12のフローチャートを用いて説明する。
 S310では、処理ユニット70は、S180にて抽出された物標等のうち、以下のS320からS410の処理を実施していない物標等を選択する。以下、選択された物標等を選択物標等という。
 続く320では、S190のトラッキング処理により選択物標との履歴接続が確認された瞬時値(以下、接続瞬時値)が存在するか否かを判定する。処理ユニット70は、S320にて肯定判定した場合は、処理をS330に移行し、S320にて否定判定した場合は、処理をS420に移行する。
 S330では、処理ユニット70は、選択物標等について算出される距離に応じて、遠距離用分布及び近距離用分布のいずれかを選択する。例えば、距離が50m以内であれば近距離用分布を選択し、距離が50mを超えていれば遠距離用分布を選択する。以下のS340~S380の処理では、ここで選択された実像分布及び虚像分布が用いられる。
 続くS340では、処理ユニット70は、選択物標等に対する接続瞬時値について第1特徴量D1を算出し、算出された第1特徴量D1と、第1特徴量D1の実像分布及び虚像分布に基づいて実像確率P(D1|R)及び虚像確率P(D1|I)を算出する。
 続くS350では、処理ユニット70は、選択物標等に対する接続瞬時値について第2特徴量D2を算出し、算出された第2特徴量D2と、第2特徴量の実像分布及び虚像分布に基づいて実像確率P(D2|R)及び虚像確率P(D2|I)を算出する。
 続くS360では、処理ユニット70は、選択物標等に対する接続瞬時値について第3特徴量D3を算出し、算出された第3特徴量D3と、第3特徴量の実像分布及び虚像分布に基づいて実像確率P(D3|R)及び虚像確率P(D3|I)を算出する。
 続くS370では、処理ユニット70は、選択物標等について第4特徴量D4を算出し、算出された第4特徴量D4と、第4特徴量の実像分布及び虚像分布に基づいて実像確率P(D4|R)及び虚像確率P(D4|I)を算出する。
 続くS380では、処理ユニット70は、選択物標等について第5特徴量D5を算出し、算出された第5特徴量D5と、第1特徴量D5の実像分布及び虚像分布に基づいて実像確率P(D5|R)及び虚像確率P(D5|I)を算出する。
 続くS390では、処理ユニット70は、(4)~(6)式に従って、統合虚像確率PGを算出する。この式では、実像確率及び虚像確率が独立した事象であると仮定して、ベイズ推定を適用するナイーブベイズを用いて、選択物標等が虚像である確率を算出する。
  PG=P(I)×P(D|I)/(P(D|I)+P(D|R))            (4)
  P(D|I)=P(D1|I)×P(D2|I)×P(D3|I)×P(D4|I) ×P(D5|I)   (5)
  P(D|R)=P(D1|R)×P(D2|R)×P(D3|R)×P(D4|R)×P(D5|R)    (6)
 (5)式は、全ての特徴量についての虚像確率を合成した合成虚像確率を表し、(6)式は、全ての特徴量について実像確率を合成した合成実像確率を表す。但し、(5)式及び(6)式の代わりに、(7)式及び(8)式を用いることで、演算量を削減すると共に、ソフトウェア上の桁落ちを抑制してもよい。
  P(D|I)=exp(log P(D|I))
  log P(D|I)=log P(D1|I)+log P(D2|I)+log P(D3|I)+log P(D4|I) +log P(D5|I)
                               (7)
  P(D|R)=exp(log P(D|R))
  log P(D|R)=log P(D1|R)+log P(D2|R)+log P(D3|R)+log P(D4|R) +log P(D5|R)
                               (8)
 続くS400では、処理ユニット70は、S390にて算出された選択物標等の統合虚像確率PGが、予め設定された閾値THより大きいか否かを判定する。統合虚像確率PGが閾値THより大きければ、処理をS410に移行し、統合虚像確率PGが閾値TH以下であれば、処理をS420に移行する。
 S410では、処理ユニット70は、選択物標等に付与された虚像フラグFをオンに更新して、処理をS420に進める。
 S420では、処理ユニット70は、先のS310にて、全ての物標等が選択済みであるか否かを判定する。選択済みではない物標等が存在する場合は、S310に処理を移行し、全ての物標等が選択済みであれば、処理を終了する。
 [1-3.効果]
 以上詳述した実施形態によれば、以下の効果を奏する。
 (1a)レーダ装置10は、FMCW方式のアップチャープ及びダウンチャープ、並びに2FCW方式の受信信号から、距離及び方位について展開した2次元スペクトラムをそれぞれ生成し、これら複数の2次元スペクトラム上のピークを、マッチングすることで瞬時値を生成する。更に、瞬時値を用いたトラッキングによって物標等を生成し、生成された物標等が虚像であるか否かを、統合虚像確率PGを用いて判定する。なお、統合虚像確率PGは、瞬時値からから抽出される特徴量D1~D3、及び物標等から抽出される特徴量D4,D5のそれぞれについて、実像確率(Di|R)及び虚像確率P(Di|I)を算出し、これらを統合することで算出される値である。このため、レーダ装置10によれば、瞬時値を生成する際のピークのミスマッチング等による物標の誤検出を抑制でき、その結果、誤検出に基づく運転支援制御の誤作動を抑制できる。
 (1b)レーダ装置10では、実像確率P(Di|R)及び虚像確率P(Di|I)を統合する際に、各事象が独立である仮定するナイーブベイズの手法を利用する。このため、特徴量Diの追加削除を簡単に行うことができ、虚像判定の精度を適宜調整できる。
 [2.第2実施形態]
 [2-1.第1実施形態との相違点]
 第2実施形態は、基本的な構成は第1実施形態と同様であるため、相違点について以下に説明する。なお、第1実施形態と同じ符号は、同一の構成を示すものであって、先行する説明を参照する。
 前述した第1実施形態では、虚像の判定に統合虚像確率PGを用いる。これに対し、第2実施形態では、ログベイズ比を用いる点で、第1実施形態と相違する。つまり、虚像判定処理の内容が一部相違する。
 [2-2.処理]
 処理ユニット70が、図12に示した第1実施形態の虚像判定処理に代えて実行する第2実施形態の虚像判定処理について、図13のフローチャートを用いて説明する。なお、S310~S380及びS410~S420の処理は、第1実施形態での処理と同様であるため、説明を省略する。
 S380に続くS392では、処理ユニット70は、(9)(10)式に従って、ログベイズ比LBを算出する。但し、log P(D|I)及びlog P(D|R)は、上述の(7)(8)式を用いて算出する。
  LB=TH+log P(D|I)-log P(D|R)        (9)
  TH=log P(I)-log P(R)+A         (10)
 (10)式におけるAは、実験的に設定される定数であり、0であってもよい。THは、閾値であり、LBが正値であれば虚像、LBが負値であれば実像と判定できるように設定される。
 続くS394では処理ユニット70は、ログベイズ比LBに対して、値の急激な変化を抑制するフィルタ処理を実行する。なお、S392にて算出されたログベイズ比をLB[n]、フィルタ処理後のログベイズ比をLBf[n]、前回の処理サイクルで算出されたフィルタ処理後のログベイズ比をLBf[n-1]で表す。また、係数αは、0<α≦1の実数である。フィルタ処理では、(11)式に示す演算を実行する。フィルタ処理後のログベイズ比LBf[n]を、単にログベイズ比LBfとも表記する。
  LBf[n]=α×LB[n]+(1-α)LBf[n-1] (11)
 続くS402では、処理ユニット70は、S394にて算出された選択物標等のログベイズ比LBfが0より大きいか否かを判定する。ログベイズ比LBfが0より大きければ、選択物標等は虚像であるとして、処理をS410に移行し、ログベイズ比LBfが0以下であれば、選択物標等は実像であるとして、処理をS420に移行する。
 [2-3.動作例]
 図14及び図15は、上側のグラフが(4)式によって算出されるゴースト確率PG、下側のグラフは、(9)式によって算出されるフィルタ処理前のログベイズ比LB、及び(11)式によって算出されるフィルタ処理後のログベイズ比LBfを、処理サイクル毎にプロットした結果を示す。なお、図14は、処理の対象となる物標等が実像である場合、図15は、処理の対象となる物標等が虚像である場合を示す。
 図14に示すように25番目の処理サイクルでは、外乱により、物標等が実像であるにも関わらず、ゴースト確率PGが50%を超える大きな値となると共に、ログベイズ比LBが正値となる。つまり、ゴースト確率PGやフィルタ処理前のログベイズ比LBを用いて虚像であるか否かの判定を行った場合に、誤った判定結果が得られる可能性がある。これに対して、フィルタ処理後のログベイズ比LBfは負値のままであり、正しい判定結果が得られる。
 なお、(10)式のパラメータAを調整することで、閾値THを変化させることができる。例えば、A=0に設定した場合、実像を誤って虚像であると誤判定する確率と、逆に虚像を実像であると誤判定する確率とが等しくなる。但し、実際には、ゴーストを実像であると誤判定してシステムが無駄に作動するより、実像を虚像と誤判定してシステムが作動しない方が、より問題である可能性が高い。このため、A>0に設定すること、すなわち、図14において、閾値THをプラス側にシフトさせることで、実像を虚像であると誤判定する確率をより低下させてもよい。
 [2-4.効果]
 以上詳述した第2実施形態によれば、前述した第1実施形態の効果(1a)(1b)を奏し、さらに、以下の効果を奏する。
 (2a)ログベイズ比LBfは、今回の処理サイクルで得られたフィルタ処理前のログベイズ比LB[n]と前回の処理サイクルで得られたフィルタ処理後のログベイズ比LBf[n-1]とを、係数αを用いて混合するフィルタ処理を行うことで算出する。このため、外乱により異常なログベイズ比LB[n]が突発的に算出されたとしても、虚像判定が直ちに追従することがなく、安定した判定結果を得ることができる。
 (2b)ログベイズ比LBfを用いることで、統合虚像確率PGを用いる場合と比較して、より演算量を削減できる。
 (2c)ログベイズ比LBの演算に、閾値THが組み込まれており、閾値THの調整も簡易に行うことができる。
 [3.他の実施形態]
 以上、本開示の実施形態について説明したが、本開示は上述の実施形態に限定されることなく、種々変形して実施することができる。
 (3a)上記実施形態では、ログベイズ比LBの算出に用いる特徴量として、第1~第5特徴量D1~D5を用いるが、実像分布と虚像分布との間に明確な違いが生じる特徴量であればよい。また、統合虚像確率PGの算出に用いる特徴量の数も、5個に限定されるものではなく、1~4個でも、6個以上でもよい。
 例えば、図16に示すように、MF-FFTピークのピークレベルを、特徴量として用いてもよい。図17に示すように、UP-FFTピークのピークレベルから、MF-FFTピークのピークレベルを減算した値を、特徴量として用いてもよい。図18に示すように、DN-FFTピークのピークレベルからMF-FFTピークのピークレベルを減算した値を、特徴量として用いてもよい。図19に示すように、UP-FFTピークのピークレベルから、DN-FFTピークのピークレベルを減算した値を、特徴量として用いてもよい。
 ここで、二つの特徴量A,Bに対して実像及び虚像が、図20に示すように分布する場合、特徴量Aを単独で用いた場合は、図中aで示す実像分布及び虚像分布が得られ、特徴量Bを単独で用いた場合は、図中bで示す実像分布及び虚像分布が得られる。更に、両者の差分を用いた場合は、図中cで示す実像分布及び虚像分布が得られる。つまり、特徴量間の演算を行うことで、同じ分布であっても、より両者の差が明らかと成るような見方で分布を切り取ることができる。従って、このような視点を考慮して、特徴量を設定してもよい。
 (3b)上記実施形態では、レーダ装置によって検出される距離がアンビギュイティを有する場合について説明したが、速度または方位がアンビギュイティを有する場合に適用してもよい。
 (3c)上記実施形態では、第2変調として2FCWを用いたが、本開示は、これに限定されるものではなく、第2変調として測定結果にアンビギュイティを有するFCM等の他のレーダ方式を用いてもよい。
 (3d)上記実施形態では、第1変調としてFMCWを用いたが、本開示は、これに限定されるものではなく、少なくとも第2変調と異なっていれば、第1変調として、どのようなレーダ方式用いてもよい。また、上記実施形態では、2種類のレーダ方式を組み合わせた場合について説明したが、3種類以上のレーダ方式を組み合わせてもよい。
 (3e)上記実施形態では、2FCWとFMCWのアップチャープ及びダウンチャープのそれぞれから検出されるピークをマッチングして瞬時値を生成するが、本開示は、これに限定されるものではない。例えば、FMCWのアップチャープを第1変調、ダウンチャープを第2変調とみなして、両チャープから検出されるピークのみをマッチングして瞬時値を生成するレーダ装置に適用してもよい。
 (3f)上記実施形態では、複数の変調方式のそれぞれにて抽出されるピークをマッチングした結果から瞬時値が生成されるが、他のピークとのマッチングを行うことなく、単一の変調方式にて抽出されるピークから、瞬時値が生成されてもよい。
 (3g)上記実施形態では、実像分布及び虚像分布を、特徴量毎に、遠距離用及び近距離用の二つが用意されるが、本開示は、これに限定されるものではない。例えば、距離によって分けることなく、特徴量毎に、実像分布及び虚像分布を一つだけ用意されてもよい。また、距離をより細分化して、特徴量毎に、実像分布及び虚像分布が三つ以上ずつ用意されてもよい。
 (3h)上記実施形態において、(7)(8)式を用いて、log確率であるlog P(D|R)及びlog P(D|I)を求めた場合、非常に小さな値になり易い。但し、最終的に算出される統合虚像確率PGは、これらの値の比で求められる。従って、logP(Di|R)及びlogP(D|I)の中で最大値を、MAXとして、それぞれから最大値を減じた結果を、log確率として用いてもよい。
 (3i)上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。
 (3j)上述したレーダ装置の他、当該レーダ装置を構成要素とするシステム、当該レーダ装置としてコンピュータを機能させるためのプログラム、このプログラムを記録した半導体メモリ等の非遷移的実態的記録媒体、虚像判定方法など、種々の形態で本開示を実現することもできる。

Claims (14)

  1.  1種類以上の変調方式を用い、予め設定された処理サイクル毎に、各変調方式による変調波をレーダ波として送受信することで得られる信号を解析することで、1次元スペクトラム及び2次元スペクトラムのうち少なくとも一方を生成するように構成されたスペクトラム生成部(70:S110~S160)と、
     前記変調方式毎に生成される前記1次元スペクトラム及び前記2次元スペクトラムのうち少なくとも一方からピークを抽出することで、一つ以上の瞬時値を生成するように構成された瞬時値生成部(70:S170~S180)と、
     前回の処理サイクルまでに生成された物標及び物標候補と前記瞬時値生成部にて生成された前記瞬時値との履歴接続の有無を判定することで、前記物標及び前記物標候補を生成及び消滅させるように構成された接続判定部(70:S190)と、
     前記瞬時値生成部にて生成された前記瞬時値に対応づけられる情報、及び前記接続判定部にて生成された前記物標及び前記物標候補である物標等に対応づけられる情報のうち少なくとも一方を用いて、予め決められた一種類以上の特徴量を抽出するように構成された特徴量抽出部(70:S330~S380)と、
     前記特徴量毎に予め生成された虚像分布及び実像分布が記憶される分布記憶部(72)と、
     前記接続判定部にて生成される前記物標等毎に、該物標等に関する前記特徴量抽出部での抽出結果を用いて、前記虚像分布から虚像確率と前記実像分布から実像確率とをそれぞれ算出し、算出された前記虚像確率と前記実像確率とを統合した結果に従って、前記物標等が虚像であるか否かを判定するように構成された虚像判定部(70:S390~S410)と、
     を備え、
     前記虚像分布は、前記特徴量が与えられたときに、該特徴量の抽出元が虚像である確率を表す分布であり、
     前記実像分布は、前記特徴量が与えられたときに、該特徴量の抽出元が実像である確率を表す分布であり、
     前記特徴量は、前記虚像分布と前記実像分布とが異なった分布形状を有するものが用いられる、
     レーダ装置。
  2.  請求項1に記載のレーダ装置であって、
     前記変調方式には、FMCW変調が少なくとも含まれ、
     前記スペクトラム生成部は、前記FMCW変調におけるアップチャープ及びダウンチャープを異なる変調方式として、それぞれについて周波数及び方位を座標軸とする2次元スペクトラムを生成する
     レーダ装置。
  3.  請求項2に記載のレーダ装置であって、
     前記スペクトラム生成部は、前記アップチャームの前記1次元スペクトラムであるUP-FFTスペクトラム、前記ダウンチャープの前記1次元スペクトラムであるDN-FFTスペクトラム、更に、前記アップチャープの2次元スペクトラムであるUPスペクトラム、及び前記ダウンチャープの2次元スペクトラムであるDNスペクトラムを生成するように構成され、
     前記UP-FFTスペクトラム及び前記DN-FFTスペクトラムは、前記アップチャープ及び前記ダウンチャープ毎にFFTを実行することで算出される、周波数ビンが距離及び相対速度に対応するスペクトラムであり、
     前記UPスペクトラム及び前記DNスペクトラムは、前記UP-FFTスペクトラム及びDN-FFTスペクトラムをそれぞれ前記周波数ビン毎に方位展開することで、算出されるスペクトラムである
     レーダ装置。
  4.  請求項3に記載のレーダ装置であって、
     前記瞬時値生成部にて生成される前記瞬時値には、前記DNスペクトラム上のピークと、前記UPスペクトラム上のピークとが少なくとも含まれ、
     前記特徴量抽出部は、前記DNスペクトラム上のピークの信号レベルから、前記UPスペクトラム上のピークに対応する前記UP-FFTスペクトラム上のピークの信号レベルを減算した値を、前記特徴量の一つとして抽出する
     レーダ装置。
  5.  請求項3または請求項4に記載のレーダ装置であって、
     前記瞬時値生成部にて生成される物標等には、前記UPスペクトラム上のピークが少なくとも含まれ、
     前記特徴量抽出部は、前記UPスペクトラム上のピークの信号レベルを、前記特徴量の一つとして抽出する
     レーダ装置。
  6.  請求項3から請求項5までのいずれか1項に記載のレーダ装置であって、 前記瞬時値生成部にて生成される瞬時値には、前記DNスペクトラム上のピークが少なくとも含まれ、
     前記特徴量抽出部は、前記DNスペクトラム上のピークの信号レベルを、前記特徴量の一つとして抽出する
     レーダ装置。
  7.  請求項1から請求項6までのいずれか1項に記載のレーダ装置であって、
     当該レーダ装置は移動体に搭載され、前記移動体が直進する方向とは直交する方向における位置を横位置として、
     前記特徴量抽出部は、前記物標等の横位置を、前記特徴量の一つとして抽出する
     レーダ装置。
  8.  請求項7に記載のレーダ装置であって、
     前記物標等の移動方向及び移動速度から推定される、前記物標等が前記移動体まで到達した時の横位置を到達横位置として、
     前記特徴量抽出部は、前記物標等の到達横位置を、前記特徴量の一つとして抽出する
     レーダ装置。
  9.  請求項1から請求項8までのいずれか1項に記載のレーダ装置であって、
     前記特徴量が複数用いられ、
     前記虚像判定部は、着目する前記物標等を着目物標等として、前記着目物標等に対応づけられた前記特徴量毎に算出される前記虚像確率及び前記実像確率を、ナイーブベイズにより統合した統合虚像確率を用いて、前記着目物標等が虚像であるか否かを判定するように構成された、
     レーダ装置。
  10.  請求項1から請求項8までのいずれか1項に記載のレーダ装置であって、
     前記特徴量が複数用いられ、
     着目する物標等を着目物標等として、
     前記虚像判定部は、合成虚像確率と合成実像確率との比であるベイズ比を用いて、前記着目物標等が虚像であるか否かを判定するように構成され、
     前記合成虚像確率は、前記着目物標等に対応づけられたすべての前記特徴量についての前記虚像確率を合成することで算出され、
     前記合成実像確率は、前記着目物標等に対応づけられたすべての前記特徴量について前記実像確率を合成することで算出される
     レーダ装置。
  11.  請求項10に記載のレーダ装置であって、
     前記虚像判定部は、前記ベイズ比に対して、値の急激な変化を抑制するフィルタ処理を施し、前記フィルタ処理後のベイズ比を用いて、前記着目物標等が虚像であるか否かを判定するように構成された、
     レーダ装置。
  12.  請求項1から請求項11までのいずれか1項に記載のレーダ装置であって、
     前記分布記憶部には、前記物標等までの距離に対応づけて、前記特徴量毎に、複数種類の前記虚像分布及び前記実像分布が記憶され、
     前記虚像判定部は、前記瞬時値から特定される前記物標等までの距離に応じて選択された前記虚像分布及び前記実像分布を用いて、前記虚像確率及び前記実像確率を算出するように構成された、
     レーダ装置。
  13.  請求項1から請求項12までのいずれか1項に記載のレーダ装置であって、
     前記変調方式には、受信信号から、位相折返しによる曖昧さを有した情報が検出される変調が少なくとも含まれる
     レーダ装置。
  14.  請求項13に記載のレーダ装置であって、
     前記変調方式には、多周波CW変調又はFCM変調が少なくとも含まれる
     レーダ装置。
PCT/JP2020/016007 2019-04-10 2020-04-09 レーダ装置 WO2020209344A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE112020001825.3T DE112020001825T5 (de) 2019-04-10 2020-04-09 Radarvorrichtung
CN202080027299.3A CN113661406B (zh) 2019-04-10 2020-04-09 雷达装置
US17/496,264 US20220026528A1 (en) 2019-04-10 2021-10-07 Radar device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-074875 2019-04-10
JP2019074875A JP7196744B2 (ja) 2019-04-10 2019-04-10 レーダ装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/496,264 Continuation US20220026528A1 (en) 2019-04-10 2021-10-07 Radar device

Publications (1)

Publication Number Publication Date
WO2020209344A1 true WO2020209344A1 (ja) 2020-10-15

Family

ID=72750716

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/016007 WO2020209344A1 (ja) 2019-04-10 2020-04-09 レーダ装置

Country Status (5)

Country Link
US (1) US20220026528A1 (ja)
JP (1) JP7196744B2 (ja)
CN (1) CN113661406B (ja)
DE (1) DE112020001825T5 (ja)
WO (1) WO2020209344A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965060A (zh) * 2021-02-19 2021-06-15 加特兰微电子科技(上海)有限公司 生命特征参数的检测方法、装置和检测体征点的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008128946A (ja) * 2006-11-24 2008-06-05 Hitachi Ltd レーダ装置及び信号処理方法
JP2014098571A (ja) * 2012-11-13 2014-05-29 Honda Elesys Co Ltd 物体検知装置、物体検知方法、物体検知プログラム、及び動作制御システム
JP2014106120A (ja) * 2012-11-28 2014-06-09 Fujitsu Ten Ltd レーダ装置、および、信号処理方法
US20150153447A1 (en) * 2013-12-02 2015-06-04 Mando Corporation Method and apparatus for detecting surrounding environment based on sensing signals of frequency-modulated continuous wave radar and continuous wave radar

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006007818A (ja) * 2004-06-22 2006-01-12 Daido Signal Co Ltd 踏切障害物検知装置
JP2008026239A (ja) * 2006-07-24 2008-02-07 Murata Mfg Co Ltd レーダ
JP5184196B2 (ja) * 2008-04-25 2013-04-17 富士通テン株式会社 レーダ装置、レーダ装置の信号処理方法及び、車両制御システム
JP2010071865A (ja) * 2008-09-19 2010-04-02 Fujitsu Ten Ltd 信号処理装置、及びレーダ装置。
CN201293836Y (zh) * 2008-11-20 2009-08-19 长沙华诺星空电子技术有限公司 超宽带生命搜救探测仪
WO2011007828A1 (ja) * 2009-07-16 2011-01-20 国立大学法人 千葉大学 Fm-cwレーダ装置、ドップラ速度測定方法
JP5763395B2 (ja) * 2011-04-14 2015-08-12 古野電気株式会社 探知装置およびプログラム
EP2790032B1 (en) * 2011-12-09 2019-10-16 Furuno Electric Co., Ltd. Image processing apparatus, radar apparatus, image processing method, and image processing program
JP2013213761A (ja) * 2012-04-03 2013-10-17 Honda Elesys Co Ltd レーダ装置、車載レーダシステム、及びプログラム
JP2013221838A (ja) * 2012-04-16 2013-10-28 Denso Corp レーダ制御装置
JP6150418B2 (ja) * 2012-04-27 2017-06-21 古野電気株式会社 情報表示装置、魚群探知機及び情報表示方法
JP6205729B2 (ja) * 2013-01-21 2017-10-04 株式会社デンソー レーダ装置
CN103944845B (zh) * 2014-04-10 2018-06-22 厦门大学 全频谱载波调制的相关检测方法
RS20140247A1 (en) * 2014-05-14 2015-12-31 Novelic D.O.O. RADAR SENSOR FOR DETECTION OF SIGNS OF LIFE OPERATING IN THE MILLIMETER FREQUENCY RANGE AND METHOD OF OPERATION
JP6321464B2 (ja) * 2014-06-13 2018-05-09 株式会社デンソー レーダ装置
WO2015192117A1 (en) * 2014-06-14 2015-12-17 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality
JP6260482B2 (ja) * 2014-07-16 2018-01-17 株式会社デンソー 物標検出装置
JP6526531B2 (ja) * 2015-09-17 2019-06-05 古野電気株式会社 レーダ装置
JP6729864B2 (ja) * 2015-11-02 2020-07-29 株式会社デンソーテン レーダ装置、レーダ装置の信号処理装置及び信号処理方法
JP6462630B2 (ja) * 2016-05-24 2019-01-30 株式会社デンソー 物標検出装置
JP2018182742A (ja) * 2017-04-14 2018-11-15 日本電産株式会社 スロットアンテナアレイ
JP6639437B2 (ja) * 2017-04-20 2020-02-05 株式会社Subaru 情報提示装置
JP2019074875A (ja) 2017-10-13 2019-05-16 キヤノン株式会社 情報処理装置、制御方法、およびプログラム
CN107656255B (zh) * 2017-10-25 2019-10-25 中国人民解放军国防科技大学 基于多径回波的超宽带雷达动目标二维定位方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008128946A (ja) * 2006-11-24 2008-06-05 Hitachi Ltd レーダ装置及び信号処理方法
JP2014098571A (ja) * 2012-11-13 2014-05-29 Honda Elesys Co Ltd 物体検知装置、物体検知方法、物体検知プログラム、及び動作制御システム
JP2014106120A (ja) * 2012-11-28 2014-06-09 Fujitsu Ten Ltd レーダ装置、および、信号処理方法
US20150153447A1 (en) * 2013-12-02 2015-06-04 Mando Corporation Method and apparatus for detecting surrounding environment based on sensing signals of frequency-modulated continuous wave radar and continuous wave radar

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112965060A (zh) * 2021-02-19 2021-06-15 加特兰微电子科技(上海)有限公司 生命特征参数的检测方法、装置和检测体征点的方法

Also Published As

Publication number Publication date
CN113661406B (zh) 2024-06-07
DE112020001825T5 (de) 2021-12-30
JP7196744B2 (ja) 2022-12-27
CN113661406A (zh) 2021-11-16
US20220026528A1 (en) 2022-01-27
JP2020173163A (ja) 2020-10-22

Similar Documents

Publication Publication Date Title
KR101737590B1 (ko) 레이더 신호 프로세싱을 위한 방법 및 장치
US11226407B2 (en) Vehicle radar system arranged for determining an unoccupied domain
JP6716984B2 (ja) 物標検出装置
JP6092596B2 (ja) レーダ装置、および、信号処理方法
US9977126B2 (en) Radar apparatus
JP2000147103A (ja) 周囲状況検出装置及び記録媒体
WO2001055745A1 (fr) Dispositif de mesure de distance
JP5184196B2 (ja) レーダ装置、レーダ装置の信号処理方法及び、車両制御システム
CN110726986A (zh) 用于操作雷达的方法和装置
KR20200124838A (ko) 레이더 장치와 물체 감지 방법 및 그를 위한 신호 처리 장치
JP7173735B2 (ja) レーダ装置及び信号処理方法
JP4281632B2 (ja) 物標検出装置
US20140225722A1 (en) Alarm device
JP7103767B2 (ja) レーダ装置および物標検出方法
US20210239825A1 (en) Object tracking apparatus
JP2018115931A (ja) レーダ装置および物標検出方法
JP4779704B2 (ja) 物標検出装置および物標検出方法
KR20220000363A (ko) 자동차 내에서 레이더 센서를 작동시키기 위한 방법
JP2009109417A (ja) レーダシステムとレーダ搭載移動体装置
WO2020209344A1 (ja) レーダ装置
JP7188894B2 (ja) レーダ装置及び信号処理方法
WO2020189419A1 (ja) 物体追跡装置
WO2021006098A1 (ja) 物標検出装置
WO2020209347A1 (ja) レーダ装置
EP3825717A1 (en) Electronic device, electronic device control method, and electronic device control program

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20787503

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 20787503

Country of ref document: EP

Kind code of ref document: A1