WO2021251637A1 - Signal processing apparatus and method using vehicle radar sensor, and computer-readable recording medium - Google Patents

Signal processing apparatus and method using vehicle radar sensor, and computer-readable recording medium Download PDF

Info

Publication number
WO2021251637A1
WO2021251637A1 PCT/KR2021/006133 KR2021006133W WO2021251637A1 WO 2021251637 A1 WO2021251637 A1 WO 2021251637A1 KR 2021006133 W KR2021006133 W KR 2021006133W WO 2021251637 A1 WO2021251637 A1 WO 2021251637A1
Authority
WO
WIPO (PCT)
Prior art keywords
micro
convolutional layer
signal
doppler
feature map
Prior art date
Application number
PCT/KR2021/006133
Other languages
French (fr)
Korean (ko)
Inventor
김기민
마지도프이크티요르
Original Assignee
주식회사 이씨스
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 이씨스 filed Critical 주식회사 이씨스
Publication of WO2021251637A1 publication Critical patent/WO2021251637A1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Definitions

  • the present application relates to a signal processing apparatus using a vehicle radar sensor, a method, and a computer-readable recording medium.
  • Object detection/classification/recognition using vehicle sensors is important information of the Advanced Driver Assistant System (ADAS), and active responses can be made according to the classification/recognition of objects (eg, pedestrians, motorcycles, trucks) .
  • ADAS Advanced Driver Assistant System
  • the radar sensor uses electromagnetic waves, the performance degradation due to bad weather, fog, and day/night conditions is insignificant, unlike the image sensor.
  • Such a radar sensor transmits several frequency-modulated signals, and then analyzes the received signal reflected from the object to detect the object's position (e.g., distance and angle between the radar sensor and the object) and speed (e.g., Doppler frequency). .
  • the Doppler frequency refers to a frequency generated by the speed of an object when a signal transmitted from a radar sensor is reflected by a moving object.
  • the currently developed object classification method using a vehicle radar sensor is a method of improving the distance resolution using a high bandwidth, which is referred to as a 'High Resolution Range Profile (HRRP)' (see FIG. 1 ).
  • HRRP High Resolution Range Profile
  • this method has a problem in that it requires a large number of discrete samples at a high sampling frequency, and a large amount of calculation is required.
  • the present invention provides a signal processing apparatus using a vehicle radar sensor capable of classifying an object with a small amount of calculation, a method, and a computer-readable recording medium.
  • a beat frequency signal that is a difference frequency between a transmitted FMCW (Frequency Modulation Continuous Wave) signal and a received FMCW signal reflected by an object whose position including movement or movement is changed according to time RF module to generate; a signal processing module for generating an image of a micro-Doppler frequency change pattern based on the generated beat frequency signal; Convolutional Neural Network (CNN) module for classifying the object according to the generated image of the micro-Doppler frequency change pattern; provides a signal processing apparatus using a vehicle radar, including a.
  • FMCW Frequency Modulation Continuous Wave
  • the transmitted FMCW (Frequency Modulation Continuous Wave) signal and the difference frequency of the received FMCW signal reflected by an object whose position including movement or movement is changed according to time a first step of generating an in-bit frequency signal; a second step of generating, in a signal processing module, an image of a micro-Doppler frequency change pattern based on the generated beat frequency signal; and a third step of classifying the object according to the generated image of the micro-Doppler frequency change pattern in a Convolution Neural Network (CNN) module.
  • CNN Convolution Neural Network
  • a computer-readable recording medium in which a program for executing the method in a computer is recorded.
  • a micro Doppler frequency change pattern generated based on a difference frequency between a transmitted FMCW signal and a received FMCW signal reflected by an object whose position including movement or movement changes with time
  • 1 is a diagram for explaining object classification using a conventional high-resolution distance profile.
  • FIG. 2 is a block diagram of a signal processing apparatus using a vehicle radar sensor according to an embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a transmitted FMCW signal and a received FMCW signal reflected by an object according to an embodiment of the present invention.
  • FIG. 4 is a diagram for explaining a process of extracting a range bin in which an object exists among a plurality of range bins in which a difference frequency according to a delay time is converted into a distance according to an embodiment of the present invention.
  • FIG. 5 is a view for explaining a process of obtaining a modified angle when a plurality of reception channels are included according to an embodiment of the present invention.
  • FIG. 6 is a diagram illustrating a location of an object displayed on a distance-angle map through location tracking of the object according to an embodiment of the present invention.
  • FIG. 8 is an image of a micro Doppler frequency change pattern generated using a plurality of frames of an FMCW signal according to an embodiment of the present invention and an image of a micro Doppler frequency change pattern generated using one frame of an FMCW signal. It is the drawing shown.
  • FIG. 9 is a diagram illustrating layers constituting a convolutional neural network model according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a signal processing method using a vehicle radar sensor according to an embodiment of the present invention.
  • FIG. 2 is a block diagram of a signal processing apparatus 100 using a vehicle radar sensor according to an embodiment of the present invention.
  • any one of a position including movement or movement according to a transmitted FMCW signal and time is changed.
  • An RF module 110 that generates a beat frequency signal that is a difference frequency of the received FMCW signal reflected by the object S, and a signal processing module that generates an image of a micro Doppler frequency change pattern based on the generated beat frequency signal 123 and a Convolution Neural Network (CNN) module 124 that classifies the object S according to the image of the generated micro-Doppler frequency change pattern, and a signal processing module 123 and a CNN module 124 ) between the low-pass filter 121 for low-pass filtering the bit frequency signal and the A/D converter 122 for converting the low-pass filtered bit frequency signal into a digital signal.
  • CNN Convolution Neural Network
  • the RF module 110 transmits the FMCW signal in response to the frequency modulation control signal output from the signal processing module 123, and the bit frequency signal that is the difference frequency of the received FMCW signal reflected by the object S. It may be generated and transmitted to the signal processing module 123 .
  • the RF module 110 may include a waveform generator 111 , a voltage controlled oscillator 112 , a power amplifier 113 , a low noise amplifier 114 , and a frequency synthesizer 115 .
  • the waveform generator 111 may generate a signal corresponding to the frequency modulation control signal output from the signal processing module 123 and having information about the frequency modulation of the transmission signal.
  • the voltage-controlled oscillator 112 may generate an oscillation signal having a constant frequency in response to a signal output from the waveform generator 111 .
  • the power amplifier 113 may amplify the oscillation signal generated from the voltage controlled oscillator 112 .
  • the low-noise amplifier 114 may amplify only a true received signal excluding noise included in the received FMCW signal.
  • the frequency synthesizer 115 may generate a synthesized signal by adding the received signal amplified by the low noise amplifier 114 and the oscillating signal output from the voltage controlled oscillator 112 .
  • the reason for synthesizing the received signal and the oscillation signal is to generate a bit frequency signal expressed as a frequency difference between the transmit signal and the received signal.
  • the low-pass filter 121 may remove noise of a high-frequency component by filtering only a signal of a low frequency band among the bit frequency signals output from the RF module 110 .
  • the A/D converter 122 may convert the low-pass filtered bit frequency signal into a digital signal corresponding thereto.
  • a transmission signal according to an embodiment of the present invention uses an FMCW signal.
  • one frequency-modulated signal is defined as a chirp, and a plurality of chirp signals are transmitted at regular time intervals for a predetermined time.
  • an arrangement of a plurality of chirped signals for a predetermined time is defined as one frame.
  • the signal processing module 123 outputs a frequency modulation control signal necessary for generating a transmission waveform to the waveform generator 111, and based on the beat frequency signal generated by the frequency synthesizer 115, an image of a micro Doppler frequency change pattern. can create
  • the signal processing module 123 calculates a plurality of range bins in which a difference frequency according to a delay time is converted into a distance for each of a plurality of chirp signals received in one frame for a single time.
  • a range bin in which an object (S) exists among a plurality of range bins for each chirp signal is extracted, and a microprocessor through Short Time Fourier Transform (STFT) of a beat frequency signal corresponding to the extracted range bin
  • STFT Short Time Fourier Transform
  • an image of a micro-Doppler frequency change pattern is generated using a plurality of beat frequency signals sensed in one frame, it is difficult to classify an object because it has a low-resolution image. Therefore, according to an embodiment of the present invention, a plurality of chirped signals included in a plurality of frames are received, and the corresponding beat frequency is obtained by tracking the object according to the changed distance and angle of the object S according to the continuous time change. can be collected Thereafter, an image of a high-resolution micro-Doppler frequency change pattern may be generated through a Short Time Fourier Transform (STFT) of a plurality of beat frequencies collected using a plurality of frames. This will be described later with reference to FIG. 7 .
  • STFT Short Time Fourier Transform
  • the signal processing module 123 frequency-transforms (Fast Fourier Transform, FFT) one bit frequency signal in one frame received from the frequency synthesizer 115, and the size of the frequency-converted bit frequency signal for each distance. to calculate This is repeated for a plurality of beat frequency signals. Thereafter, when the frequency-converted bit frequency signal has a size greater than or equal to a predetermined threshold, a range bin to which the generated beat frequency signal belongs may be extracted as a range bin in which an object exists.
  • FFT Fast Fourier Transform
  • FIG. 3 is a diagram illustrating a transmitted FMCW signal and a received FMCW signal reflected by an object according to an embodiment of the present invention
  • FIG. 4 is a distance difference frequency according to a delay time according to an embodiment of the present invention
  • the FMCW signal uses a sawtooth wave shape whose frequency increases with time, and the transmit FMCW signal (Tx Signal) shown in the solid line and the received FMCW signal (Rx Signal) shown in the dotted line are used.
  • fsweep is the bandwidth
  • Tchip is the time length of the chirp
  • 1 to L N are the number of chirps transmitted per frame.
  • FIG. 3 illustrates a sawtooth wave, the present invention is not necessarily limited thereto, and it goes without saying that it can also be applied to a triangular wave.
  • the beat frequency fbeat is proportional to the distance R to the object S, and can be expressed by Equation 1 below.
  • fbeat is the beat frequency
  • c is the speed of light
  • fsweep is the bandwidth
  • Tchirp is the length of time of the chirp
  • R is the distance to the object.
  • the signal processing module 123 may extract a range bin in which the object S exists among a plurality of range bins obtained by converting a difference frequency according to a delay time into a distance.
  • FIG. 4 shows a plurality of range bins (range bin #1 to range bin #256) in which a difference frequency fbeat according to a delay time ( ⁇ in FIG. 3 ) according to Equation 1 is converted into a distance.
  • 4 shows the frequency conversion of the bit frequency signal, which is the difference frequency between the transmitted FMCW signal and the received FMCW signal reflected by the object, where the X axis is the bit frequency and the Y axis is the signal size.
  • the beat frequency signal generated by the frequency mixer 115 is in the form of a square wave, and when it is frequency-converted and expressed in the frequency domain, as shown in FIG. can
  • the signal processing module 123 frequency-transforms (FFT) the bit frequency signal received from the frequency synthesizer 115 , and when the magnitude of the frequency-converted bit frequency signal is greater than or equal to a predetermined threshold value, the generated bit frequency signal belongs to A range bin (range bin #2 in FIG. 4 ) may be extracted as a range bin in which an object exists.
  • the threshold value may be a preset value.
  • the signal processing module 123 frequency-converts the bit frequency signals of each of the plurality of chirps included in one frame of the FMCW signal, When the sum value (refer to FIG. 4(c) ) is equal to or greater than a predetermined threshold, a range bin to which the generated beat frequency signal belongs may be extracted as a range bin in which an object exists.
  • the reason for summing the magnitudes of the plurality of frequency-converted beat frequency signals is that the magnitude of one frequency-converted bit frequency signal may not have a sufficient peak value to detect the object S.
  • the signal processing module 123 obtains the reception angle of the FMCW signal with respect to the range bin in which the object is detected, A range bin in which a reception angle and an object are present may be plotted on a distance-angle map indicating a reception angle compared to the range bin.
  • FIG. 5 is a diagram illustrating a process for obtaining a mathematical expression angle and a distance-angle map when a plurality of reception channels are included according to an embodiment of the present invention.
  • the chirps received through a plurality of receiving antennas (here, four) are Rx#0 to Rx#3, respectively, the distance between the receiving antennas is d, and the chirps received through the four receiving antennas are d.
  • the frequency-converted values of the bit frequency signals for each are expressed as Z 0 [2] to Z 3 [2].
  • FIG. 5B when an object is detected in range bin #2, it is displayed on the distance-angle map.
  • the frequency-converted value of the bit frequency signal for each chirp received through the four reception antennas is Z 0 [2] to Z 3 [2],
  • the angle can be obtained according to Equation 2 below.
  • H H () is the system matrix
  • is the angular resolution
  • i is from -60 to 60 degrees in units of 1 degree
  • is the center frequency wavelength
  • d is the distance between the receiving antennas
  • Z 0 [2] to Z 3 [2] is a frequency-converted value of a bit frequency signal for each chirp received through four receiving antennas.
  • the signal processing module 123 obtains a reception angle of the FMCW signal with respect to a range bin in which an object is detected, and the obtained A range bin in which a reception angle and an object are present may be plotted on a distance-angle map indicating a reception angle compared to the range bin.
  • the signal processing module 123 obtains a reception angle only for the first chirp (Chirp #1) among a plurality of chirps included in one frame, and one frame receives 90 chirps. If included, since it is usually less than 1 ms to transmit and receive 90 chirps, it can be seen that there is little change in the angle of the object during 1 ms. .
  • the signal processing module 123 tracks the position of the object using the extended Kalman filter based on the distance-angle map per frame, and sets the position of the tracked object in each frame. It can be plotted on a per distance-angle map.
  • FIG. 6 is a diagram illustrating a location of an object displayed on a distance-angle map through location tracking of the object according to an embodiment of the present invention.
  • the FMCW signal of one frame (consisting of 90 chirps) is transmitted and received at k-2 time point, k-1 time point, and time point k, respectively, and the signal processing module ( 123) may track the location of the object using the extended Kalman filter, and display the tracked location of the object on the distance-angle map.
  • the extended Kalman filter for tracking the position of an object is a well-known technique, and thus, it will not be described in detail in the present invention.
  • an image of a high-resolution micro Doppler frequency change pattern may mean an image of a micro Doppler frequency change pattern generated with at least 512 or more bit frequency samples.
  • the signal processing module 123 is a bit frequency signal of each of a plurality of chirps included in each frame over a plurality of frames of an FMCW signal for an object tracked using the extended Kalman filter.
  • An image of a micro-Doppler frequency change pattern can be generated through a short-time Fourier transform (STFT) of
  • FIG. 7 shows a plurality of chirps included in a plurality of frames of an FMCW signal collected with respect to an object tracked using an extended Kalman filter according to an embodiment of the present invention and a micro Doppler generated from the beat frequency signals thereof. It is a diagram showing an image of a frequency change pattern.
  • the signal processing module 123 uses the extended Kalman filter to track the position of the object according to the time passage, and to each frame over a plurality of frames (frame #1 to frame #k).
  • a beat frequency signal of each of the included chirps (chirp #1 to chirp #N) is collected.
  • an image of a micro-Doppler frequency change pattern as shown in FIG. 7B may be generated through a short-time Fourier transform (STFT) of each of the plurality of chirps of the plurality of collected frames.
  • STFT short-time Fourier transform
  • the distance of an object tracked using the extended Kalman filter during k which is the number of frames, is the same. do.
  • the number of chirps, N may be, for example, 90, and the number of frames, k, may be 10, but it should be noted that it is not necessarily limited to a specific numerical value.
  • FIG. 8 is an image of a micro Doppler frequency variation pattern generated using a plurality of frames of an FMCW signal and an image of a micro Doppler frequency variation pattern generated using one frame of an FMCW signal according to an embodiment of the present invention. is a diagram showing comparison.
  • (a) is a color image of a micro Doppler frequency variation pattern generated through a plurality of frames
  • (b) is a color image of a micro Doppler frequency variation pattern generated through one frame.
  • STFT short-time Fourier transform
  • the image of the micro-Doppler frequency change pattern generated by the signal processing module 123 is input to the CNN module 124, and the CNN module 124 is the image of the input micro-Doppler frequency change pattern.
  • the object (S) can be classified.
  • the CNN (Convolution Neural Network) module 124 includes a Doppler feature extraction module 124a that extracts micro Doppler pattern features by applying a pre-learned convolutional neural network model to an image of a micro Doppler frequency change pattern, and a Doppler feature extraction module ( A classification module 124b for classifying an object as a pedestrian or a non-pedestrian according to the micro-Doppler pattern feature extracted in 124a) may be included.
  • FIG. 9 is a diagram illustrating layers constituting a convolutional neural network model according to an embodiment of the present invention.
  • the convolutional neural network model is a type of deep neural network (DNN), and includes seven convolutional layer groups (G1 to G7) including at least one convolutional layer, an average pool layer , AVG pool), a fully connected layer (FC: 2), and a softmax layer. It has a structure suitable for learning two-dimensional data, and is can be trained
  • the convolutional neural network model according to an embodiment of the present invention may be referred to as 'Resnet 14'.
  • a group of 7 convolutional layers moves 16 filters of a size of 5 ⁇ 5 ⁇ 3 in an image of a size of 100 ⁇ 91 ⁇ 3 pixels in the vertical, left, and right directions at intervals of 1 pixel by 2 padding.
  • a first convolutional layer group 811 and G1 for extracting a micro-Doppler pattern feature map having a size of 100 ⁇ 91 ⁇ 16 may be included.
  • the seven convolutional layer groups include a filter 16 having a size of 3 ⁇ 3 ⁇ 16 in a micro Doppler pattern feature map having a size of 100 ⁇ 91 ⁇ 16 output through the first convolutional layer group G1.
  • a first convolutional layer 812 that extracts a micro-Doppler pattern feature map with a size of 100 ⁇ 91 ⁇ 16 by moving the dog one padding at intervals of 1 pixel in the up, down, left and right directions, and the first convolutional layer 812
  • 16 3 ⁇ 3 ⁇ 16 filters are moved up, down, left and right by one padding at 1 pixel intervals to create a 100 ⁇ 91 ⁇ 16 micro Doppler pattern feature map.
  • the second convolutional layer group G2 including the extracted second convolutional layer 813 may be included.
  • the seven convolutional layer groups include a filter 16 having a size of 3 ⁇ 3 ⁇ 16 in a micro Doppler pattern feature map having a size of 100 ⁇ 91 ⁇ 16 output through the second convolutional layer group G2.
  • a first convolutional layer 814 that extracts a micro Doppler pattern feature map with a size of 100 ⁇ 91 ⁇ 16 by moving the dog one padding at intervals of 1 pixel in the up, down, left and right directions, and the first convolutional layer 814 Output through
  • 16 3 ⁇ 3 ⁇ 16 filters are moved up, down, left and right by one padding at 1 pixel intervals to create a 100 ⁇ 91 ⁇ 16 micro Doppler pattern feature map.
  • the seven convolutional layer groups include a filter 32 having a size of 3 ⁇ 3 ⁇ 16 in a micro Doppler pattern feature map having a size of 100 ⁇ 91 ⁇ 16 output through the third convolution layer group G3.
  • the first convolutional layer 816 that extracts the micro Doppler pattern feature map of 50 ⁇ 46 ⁇ 32 size by moving the dog one padding at an interval of 2 pixels in the up, down, left and right directions, and the first convolutional layer 816 In the 50 ⁇ 46 ⁇ 32 micro Doppler pattern feature map, 32 filters of 3 ⁇ 3 ⁇ 32 size are moved up, down, left and right by one padding at 1 pixel intervals to create a 50 ⁇ 46 ⁇ 32 micro Doppler pattern feature map.
  • a fourth convolutional layer group G4 including the extracted second convolutional layer 817 may be included.
  • the seven convolutional layer groups include a 3 ⁇ 3 ⁇ 32 filter 32 in the 50 ⁇ 46 ⁇ 32 micro Doppler pattern feature map output through the fourth convolutional layer group G4.
  • a first convolutional layer 818 that extracts a 50 ⁇ 46 ⁇ 32 micro Doppler pattern feature map by moving the dog one padding at 1 pixel intervals in the vertical, left and right directions, and the first convolutional layer 818 In the 50 ⁇ 46 ⁇ 32 micro Doppler pattern feature map, 32 filters of 3 ⁇ 3 ⁇ 32 size are moved up, down, left and right by one padding at 1 pixel intervals to create a 50 ⁇ 46 ⁇ 32 micro Doppler pattern feature map.
  • a fifth convolutional layer group G5 including the second convolutional layer 819 to be extracted may be included.
  • the seven convolutional layer groups include a filter 64 having a size of 3 ⁇ 3 ⁇ 32 in a micro Doppler pattern feature map having a size of 50 ⁇ 46 ⁇ 32 output through the fifth convolutional layer group G5.
  • a first convolutional layer 820 that extracts a micro-Doppler pattern feature map having a size of 25 ⁇ 23 ⁇ 64 by moving the dog one padding at an interval of 2 pixels in the up, down, left, and right directions, and the 25 output through the first convolutional layer 820
  • 64 3 ⁇ 3 ⁇ 32 filters are moved up, down, left, and right by one padding at 1 pixel intervals to extract a 25 ⁇ 23 ⁇ 64 micro Doppler pattern feature map.
  • a sixth convolutional layer group G6 including a second convolutional layer 821 may be included.
  • the seven convolutional layer groups include a filter 64 having a size of 3 ⁇ 3 ⁇ 64 in a micro Doppler pattern feature map having a size of 25 ⁇ 23 ⁇ 64 output through the sixth convolutional layer group G6.
  • a first convolutional layer 822 that extracts a micro Doppler pattern feature map having a size of 25 ⁇ 23 ⁇ 64 by moving the dog one padding at intervals of 1 pixel in the up, down, left and right directions, and the first convolutional layer 822 In the 25 ⁇ 23 ⁇ 64 micro Doppler pattern feature map, 64 filters of 3 ⁇ 3 ⁇ 32 size are moved up, down, left, and right by one padding at 1 pixel intervals to create a 25 ⁇ 23 ⁇ 64 micro Doppler pattern feature map.
  • a seventh convolutional layer group G7 including the extracted second convolutional layer 823 may be included.
  • the second convolutional layer group G2 to the seventh convolutional layer group G6 include the micro Doppler pattern feature map extracted in the previous step and the micro Doppler pattern feature extracted in the current step. Information for each element of the map can be combined through Short Cut (SC).
  • SC Short Cut
  • the average full layer 824 has a size of 7 ⁇ 7 ⁇ 64 in the micro Doppler pattern feature map of size 25 ⁇ 23 ⁇ 64 output through the seventh convolutional layer group G7.
  • a 1 ⁇ 1 ⁇ 64 size micro Doppler pattern feature map can be extracted by moving one filter in the vertical direction by one padding at 1-pixel intervals.
  • the fully connected layer 825 is connected to the average full layer 824 and has 64 and 2 nodes as inputs and outputs, respectively, and reduces the micro-micro Doppler pattern feature map using weights of 64 ⁇ 2, , softmax layer may calculate the probability of the micro-micro Doppler pattern feature map output through the fully connected layer 824 according to Equation 3 below.
  • Z (i) is the feature value (weight) for the i-th class, and J means the total number of classes.
  • the classification module 124b may classify the object as a pedestrian or a non-pedestrian according to the calculated probability. That is, if the probability calculated according to Equation 4 is greater than 0.5, it may be determined as a pedestrian, and if it is less than 0.5, it may be determined as not a pedestrian.
  • cross validation was performed for more accurate analysis of the Resnet-14 model according to an embodiment of the present invention.
  • the cross-validation method used 10-fold Cross Validation, and after randomly dividing 30,252 images of the collected micro-Doppler frequency change patterns into 10 groups, one group per fold was selected for testing. and the remaining 9 groups performed training to calculate the accuracy and loss of cross-validation.
  • the Resnet-14 model according to an embodiment of the present invention has a faster learning time because it consists of a smaller number of parameters than the existing Resnet-18 model and the AlexNet model.
  • Table 2 shows a comparison of the model parameters of Resnet-14 and the existing Resnet-18 and AlexNet according to an embodiment of the present invention.
  • FIG. 10 is a flowchart illustrating a signal processing method using a vehicle radar sensor according to an embodiment of the present invention.
  • FIGS. 1 to 10 a signal processing method using a vehicle radar sensor according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10 .
  • descriptions of overlapping parts with respect to FIGS. 1 to 10 will be omitted for the sake of simplification of the invention.
  • the transmitted FMCW signal and the received FMCW signal are reflected by the object S in the RF module 110 . It may be initiated by the step of generating a bit frequency signal that is the difference frequency of the signal (S1000).
  • the signal processing module 123 may generate an image of the micro-Doppler frequency change pattern based on the generated beat frequency signal (S1010).
  • step S1010 the signal processing module 123 extracts a range bin in which the object S exists among a plurality of range bins obtained by converting a difference frequency according to a delay time into a distance, and extracts As described above, an image of a micro-Doppler frequency change pattern can be generated through a Short Time Fourier Transform (STFT) of a beat frequency signal corresponding to the range bin.
  • STFT Short Time Fourier Transform
  • step S1010 the signal processing module 123 frequency-transforms the bit frequency signal received from the frequency synthesizer 115 (Fast Fourier Transform, FFT), and the magnitude of the frequency-converted bit frequency signal is set to a predetermined threshold value.
  • FFT Fast Fourier Transform
  • step S1010 the signal processing module 123 frequency-converts the bit frequency signals of each of the plurality of chirps included in one frame of the FMCW signal, and the sum of the magnitudes of the frequency-converted plurality of bit frequency signals (FIG. 4).
  • (c) of (refer to (c)) is greater than or equal to a predetermined threshold, a range bin to which the generated beat frequency signal belongs can be extracted as a range bin in which an object exists.
  • step S1010 the signal processing module 123 tracks the position of the object according to time by using the extended Kalman filter, and over a plurality of frames of the FMCW signal, each corresponding bit of a plurality of chirps included in each frame.
  • a high-resolution micro-Doppler frequency change pattern image can be generated by collecting a frequency and performing short-time Fourier transform (STFT) of the collected beat frequency signal.
  • STFT short-time Fourier transform
  • the CNN module 124 may classify the object S according to the image of the generated micro-Doppler frequency change pattern (S1020).
  • the Doppler feature extraction module 124a of the CNN module 124 extracts the micro Doppler pattern feature by applying a pre-learned convolutional neural network model to the image of the micro Doppler frequency change pattern, and in the CNN module 124 As described above, the classification module 124b may classify the object as a pedestrian or a non-pedestrian according to the extracted micro-Doppler pattern feature.
  • the signal processing method using the vehicle radar sensor according to the embodiment of the present invention described above may be produced as a program to be executed by a computer and stored in a computer-readable recording medium.
  • the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like.
  • the computer-readable recording medium is distributed in a computer system connected to a network, so that the computer-readable code can be stored and executed in a distributed manner.
  • a functional program, code, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.
  • ' ⁇ module' refers to various methods, for example, a processor, program instructions executed by the processor, software module, microcode, computer program product, logic circuit, application-specific integrated circuit, firmware and the like can be implemented.

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Electromagnetism (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Provided are a signal processing apparatus and method using a vehicle radar sensor, and a computer-readable recording medium. The signal processing apparatus using the vehicle radar sensor may comprise: an RF module which generates a beat frequency signal that is a difference frequency between a transmitted FMCW signal and an FMCW signal received by being reflected by an object whose movement or position including a movement changes over time; a signal processing module which generates an image having a micro-Doppler frequency change pattern on the basis of the generated beat frequency signal; and a CNN module which classifies the object according to the generated image having the micro-Doppler frequency change pattern.

Description

차량용 레이더 센서를 이용한 신호 처리 장치, 방법 및 컴퓨터로 독출 가능한 기록 매체Signal processing apparatus, method and computer-readable recording medium using vehicle radar sensor
본 출원은, 차량용 레이더 센서를 이용한 신호 처리 장치, 방법 및 컴퓨터로 독출 가능한 기록 매체에 관한 것이다.The present application relates to a signal processing apparatus using a vehicle radar sensor, a method, and a computer-readable recording medium.
차량용 센서를 이용한 물체 감지/분류/인지는 지능형 운전자 보조시스템(ADAS: Advanced Driver Assistant System)의 중요한 정보이며, 물체의 분류/인지(예: 보행자, 오토바이, 트럭)에 따라 능동적인 대처가 가능하다.Object detection/classification/recognition using vehicle sensors is important information of the Advanced Driver Assistant System (ADAS), and active responses can be made according to the classification/recognition of objects (eg, pedestrians, motorcycles, trucks) .
현재 물체 분류는 이미지 센서(예: 디지털 카메라)를 사용하여 물체를 분류한다. 하지만, 이미지 센서는 기상 조건(예: 눈, 비, 안개) 및 주/야(예: 일출, 일몰, 야간)에 따라 물체 분류 내지 인지 성능이 확연히 저하된다.Current object classification uses image sensors (eg digital cameras) to classify objects. However, in the image sensor, object classification or recognition performance is significantly degraded depending on weather conditions (eg, snow, rain, fog) and day/night (eg, sunrise, sunset, night).
한편, 레이더 센서는 전자파를 사용하기 때문에 악천후, 안개 및 주/야 조건에 따른 성능 저하가 이미지 센서와 다르게 미미하다.On the other hand, since the radar sensor uses electromagnetic waves, the performance degradation due to bad weather, fog, and day/night conditions is insignificant, unlike the image sensor.
이러한 레이더 센서는 여러 개의 주파수 변조된 신호를 송신 후, 물체에서 반사되어 수신된 신호를 분석하여 물체의 위치(예: 레이더 센서와 물체의 거리, 각도)와 속도(예: 도플러 주파수)를 감지한다.Such a radar sensor transmits several frequency-modulated signals, and then analyzes the received signal reflected from the object to detect the object's position (e.g., distance and angle between the radar sensor and the object) and speed (e.g., Doppler frequency). .
도플러 주파수는 레이더 센서에서 송신된 신호가 이동물체에 의해 반사 시 물체의 속도에 의해 생성되는 주파수를 의미한다.The Doppler frequency refers to a frequency generated by the speed of an object when a signal transmitted from a radar sensor is reflected by a moving object.
현재 개발되는 차량용 레이더 센서를 이용한 물체 분류 방법은 높은 대역폭을 사용하여 거리 분해능을 향상시키는 방법으로, 이를 '고해상도 거리 프로파일 (HRRP: High Resolution Range Profile)'이라 한다(도 1 참조).The currently developed object classification method using a vehicle radar sensor is a method of improving the distance resolution using a high bandwidth, which is referred to as a 'High Resolution Range Profile (HRRP)' (see FIG. 1 ).
하지만, 이러한 방법은 높은 샘플링 주파수로 이산화된 많은 샘플수의 신호처리가 필요하며, 많은 계산 량이 요구된다는 문제점이 있다.However, this method has a problem in that it requires a large number of discrete samples at a high sampling frequency, and a large amount of calculation is required.
관련 기술로, 한국공개특허 제2018-0042052호('FMCW 레이더를 이용한 타겟 탐지 장치 및 방법', 공개일:2018년04월25일)이 있다.As a related technology, there is Korean Patent Application Laid-Open No. 2018-0042052 ('A device and method for detecting a target using an FMCW radar, publication date: April 25, 2018).
본 발명은, 적은 계산량으로 대상물의 분류가 가능한 차량용 레이더 센서를 이용한 신호 처리 장치, 방법 및 컴퓨터로 독출 가능한 기록 매체를 제공한다.The present invention provides a signal processing apparatus using a vehicle radar sensor capable of classifying an object with a small amount of calculation, a method, and a computer-readable recording medium.
본 발명의 일 실시 형태에 의하면, 송신된 FMCW(Frequency Modulation Continuous Wave) 신호와 시간에 따라 움직임 또는 움직임을 포함한 위치 중 어느 하나가 변하는 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하는 RF 모듈; 생성된 상기 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는 신호 처리 모듈; 생성된 상기 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 상기 대상물을 분류하는 CNN(Convolution Neural Network) 모듈;을 포함하는, 차량용 레이더를 이용한 신호 처리 장치를 제공한다. According to an embodiment of the present invention, a beat frequency signal that is a difference frequency between a transmitted FMCW (Frequency Modulation Continuous Wave) signal and a received FMCW signal reflected by an object whose position including movement or movement is changed according to time RF module to generate; a signal processing module for generating an image of a micro-Doppler frequency change pattern based on the generated beat frequency signal; Convolutional Neural Network (CNN) module for classifying the object according to the generated image of the micro-Doppler frequency change pattern; provides a signal processing apparatus using a vehicle radar, including a.
본 발명의 일 실시 형태에 의하면, RF 모듈에서, 송신된 FMCW(Frequency Modulation Continuous Wave) 신호와 시간에 따라 움직임 또는 움직임을 포함한 위치 중 어느 하나가 변하는 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하는 제1 단계; 신호 처리 모듈에서, 생성된 상기 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는 제2 단계; 및 CNN(Convolution Neural Network) 모듈에서, 생성된 상기 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 상기 대상물을 분류하는 제3 단계;를 포함하는, 차량용 레이더를 이용한 신호 처리 방법을 제공한다.According to an embodiment of the present invention, in the RF module, the transmitted FMCW (Frequency Modulation Continuous Wave) signal and the difference frequency of the received FMCW signal reflected by an object whose position including movement or movement is changed according to time a first step of generating an in-bit frequency signal; a second step of generating, in a signal processing module, an image of a micro-Doppler frequency change pattern based on the generated beat frequency signal; and a third step of classifying the object according to the generated image of the micro-Doppler frequency change pattern in a Convolution Neural Network (CNN) module.
본 발명의 일 실시 형태에 의하면, 상기 방법을 컴퓨터에서 실행하기 위한 프로그램을 기록한, 컴퓨터로 독출 가능한 기록 매체를 제공한다.According to one embodiment of the present invention, there is provided a computer-readable recording medium in which a program for executing the method in a computer is recorded.
본 발명의 일 실시 형태에 의하면, 송신된 FMCW 신호와 시간에 따라 움직임 또는 움직임을 포함한 위치 중 어느 하나가 변하는 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수를 기반으로 생성된 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 대상물을 분류함으로써, 적은 계산량으로 대상물의 분류가 가능한 이점이 있다.According to an embodiment of the present invention, a micro Doppler frequency change pattern generated based on a difference frequency between a transmitted FMCW signal and a received FMCW signal reflected by an object whose position including movement or movement changes with time By classifying the object according to the image of
도 1은 종래 고해상도 거리 프로파일 이용한 물체 분류를 설명하기 위한 도면이다.1 is a diagram for explaining object classification using a conventional high-resolution distance profile.
도 2는 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 장치의 블록도이다.2 is a block diagram of a signal processing apparatus using a vehicle radar sensor according to an embodiment of the present invention.
도 3은 본 발명의 일 실시 형태에 따라 송신된 FMCW 신호와 대상물에 의해 반사되어 수신된 FMCW 신호를 도시한 도면이다.3 is a diagram illustrating a transmitted FMCW signal and a received FMCW signal reflected by an object according to an embodiment of the present invention.
도 4는 본 발명의 일 실시 형태에 따라 지연 시간에 따른 차 주파수를 거리로 환산한 복수개의 레인지 빈 중 대상물이 존재하는 레인지 빈을 추출하는 과정을 설명하기 위한 도면이다.4 is a diagram for explaining a process of extracting a range bin in which an object exists among a plurality of range bins in which a difference frequency according to a delay time is converted into a distance according to an embodiment of the present invention.
도 5는 본 발명의 일 실시 형태에 따라 복수개의 수신 채널을 포함하는 경우에 수식 각도를 구하는 과정을 설명하는 도면이다.FIG. 5 is a view for explaining a process of obtaining a modified angle when a plurality of reception channels are included according to an embodiment of the present invention.
도 6은 본 발명의 일 실시 형태에 따라 대상물의 위치 추적을 통해 거리-각도 맵에 표시된 대상물의 위치를 도시한 도면이다.6 is a diagram illustrating a location of an object displayed on a distance-angle map through location tracking of the object according to an embodiment of the present invention.
도 7은 본 발명의 일 실시 형태에 따라 확장 칼만 필터를 이용하여 추적한 대상물에 대하여 수집한 FMCW 신호의 복수개의 프레임에 포함된 복수개의 처프와 이들의 비트 주파수 신호로부터 생성된 마이크로 도플러 주파수 변화 패턴의 이미지를 도시한 도면이다7 is a micro-Doppler frequency change pattern generated from a plurality of chirps included in a plurality of frames of an FMCW signal collected with respect to an object tracked using an extended Kalman filter according to an embodiment of the present invention and beat frequency signals thereof; It is a drawing showing an image of
도 8은 본 발명의 일 실시 형태에 따라 FMCW 신호의 복수개의 프레임을 이용하여 생성된 마이크로 도플러 주파수 변화 패턴의 이미지와 FMCW 신호의 하나의 프레임을 이용하여 생성된 마이크로 도플러 주파수 변화 패턴의 이미지를 비교 도시한 도면이다.8 is an image of a micro Doppler frequency change pattern generated using a plurality of frames of an FMCW signal according to an embodiment of the present invention and an image of a micro Doppler frequency change pattern generated using one frame of an FMCW signal. It is the drawing shown.
도 9는 본 발명의 일 실시 형태에 따른 컨볼루션 신경망 모델을 구성하는 레이어들을 도시한 도면이다.9 is a diagram illustrating layers constituting a convolutional neural network model according to an embodiment of the present invention.
도 10은 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 방법을 설명하는 흐름도이다.10 is a flowchart illustrating a signal processing method using a vehicle radar sensor according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 발명의 실시형태를 설명한다. 그러나 본 발명의 실시형태는 여러 가지의 다른 형태로 변형될 수 있으며, 본 발명의 범위가 이하 설명하는 실시형태로만 한정되는 것은 아니다. 도면에서의 요소들의 형상 및 크기 등은 보다 명확한 설명을 위해 과장될 수 있으며, 도면상의 동일한 부호로 표시되는 요소는 동일한 요소이다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. However, the embodiment of the present invention may be modified in various other forms, and the scope of the present invention is not limited only to the embodiments described below. The shapes and sizes of elements in the drawings may be exaggerated for a clearer description, and elements indicated by the same reference numerals in the drawings are the same elements.
도 2는 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 장치(100)의 블록도이다.2 is a block diagram of a signal processing apparatus 100 using a vehicle radar sensor according to an embodiment of the present invention.
우선, 도 2에 도시된 바와 같이, 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 장치(100)는, 송신된 FMCW 신호와 시간에 따라 움직임 또는 움직임을 포함한 위치 중 어느 하나가 변하는 대상물(S)에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하는 RF 모듈(110)과, 생성된 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는 신호 처리 모듈(123)과, 생성된 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 대상물(S)을 분류하는 CNN(Convolution Neural Network) 모듈(124)을 포함할 수 있으며, 신호 처리 모듈(123)과 CNN 모듈(124) 사이에는 비트 주파수 신호를 저역 통과 필터링하는 저역 통과 필터(121)과 저역 통과 필터링된 비트 주파수 신호를 디지털 신호로 변환하는 A/D 컨버터(122)가 더 구비될 수 있다. 예를 들어, 대상물(S)이 보행자인 경우 움직임은 팔, 다리 등의 움직임을, 위치는 보행자의 이동에 따른 위치를 의미할 수 있다.First, as shown in FIG. 2 , in the signal processing apparatus 100 using the vehicle radar sensor according to an embodiment of the present invention, any one of a position including movement or movement according to a transmitted FMCW signal and time is changed. An RF module 110 that generates a beat frequency signal that is a difference frequency of the received FMCW signal reflected by the object S, and a signal processing module that generates an image of a micro Doppler frequency change pattern based on the generated beat frequency signal 123 and a Convolution Neural Network (CNN) module 124 that classifies the object S according to the image of the generated micro-Doppler frequency change pattern, and a signal processing module 123 and a CNN module 124 ) between the low-pass filter 121 for low-pass filtering the bit frequency signal and the A/D converter 122 for converting the low-pass filtered bit frequency signal into a digital signal may be further provided. For example, when the object S is a pedestrian, the movement may refer to movement of an arm or leg, and the position may refer to a position according to the movement of the pedestrian.
우선, RF 모듈(110)은 신호 처리 모듈(123)로부터 출력되는 주파수 변조 제어신호에 응답하여 FMCW 신호를 송신하고, 대상물(S)에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하여 신호 처리 모듈(123)에 전달할 수 있다. 이러한 RF 모듈(110)은 파형 발생기(111), 전압 제어 발진기(112), 전력 증폭기(113), 저잡음 증폭기(114) 및 주파수 합성기(115)를 구비할 수 있다.First, the RF module 110 transmits the FMCW signal in response to the frequency modulation control signal output from the signal processing module 123, and the bit frequency signal that is the difference frequency of the received FMCW signal reflected by the object S. It may be generated and transmitted to the signal processing module 123 . The RF module 110 may include a waveform generator 111 , a voltage controlled oscillator 112 , a power amplifier 113 , a low noise amplifier 114 , and a frequency synthesizer 115 .
구체적으로, 파형 발생기(111)는 신호 처리 모듈(123)로부터 출력되며 송신 신호의 주파수 변조에 대한 정보를 가지고 있는 주파수 변조 제어 신호에 대응되는 신호를 생성할 수 있다Specifically, the waveform generator 111 may generate a signal corresponding to the frequency modulation control signal output from the signal processing module 123 and having information about the frequency modulation of the transmission signal.
전압 제어 발진기(112)는 파형 발생기(111)로부터 출력되는 신호에 응답하여 일정한 주파수를 가지는 발진 신호를 생성할 수 있다 The voltage-controlled oscillator 112 may generate an oscillation signal having a constant frequency in response to a signal output from the waveform generator 111 .
전력 증폭기(113)는 전압 제어 발진기(112)로부터 생성된 발진 신호를 증폭할 수 있다.The power amplifier 113 may amplify the oscillation signal generated from the voltage controlled oscillator 112 .
저잡음 증폭기(114)는 수신된 FMCW 신호에 포함된 잡음을 제외한 진정한 수신 신호만을 증폭할 수 있다.The low-noise amplifier 114 may amplify only a true received signal excluding noise included in the received FMCW signal.
주파수 합성기(115)는 저잡음 증폭기(114)에 의해 증폭된 수신 신호와 전압 제어 발진기(112)로부터 출력되는 발진 신호를 합한 합성 신호를 생성할 수 있다.The frequency synthesizer 115 may generate a synthesized signal by adding the received signal amplified by the low noise amplifier 114 and the oscillating signal output from the voltage controlled oscillator 112 .
여기서 수신 신호와 발진 신호를 합성하는 이유는, 송신 신호와 수신 신호의 주파수 차이로 표현되는 비트 주파수 신호를 생성하기 위해서이다. Here, the reason for synthesizing the received signal and the oscillation signal is to generate a bit frequency signal expressed as a frequency difference between the transmit signal and the received signal.
저역 통과 필터(121)는 RF 모듈(110)로부터 출력되는 비트 주파수 신호 중 저주파수 대역의 신호만 필터링하여 고주파 성분의 잡음을 제거할 수 있다 The low-pass filter 121 may remove noise of a high-frequency component by filtering only a signal of a low frequency band among the bit frequency signals output from the RF module 110 .
A/D 컨버터(122)는 저역 통과 필터링된 비트 주파수 신호를 이에 대응되는 디지털 신호로 변환할 수 있다 The A/D converter 122 may convert the low-pass filtered bit frequency signal into a digital signal corresponding thereto.
본 발명의 일 실시 형태에 따른 송신 신호는 FMCW 신호를 이용하며, 이를 위해 하나의 주파수 변조된 신호를 처프(Chirp)로 정의하며, 일정 시간 동안 일정 시간 간격으로 복수개의 처프 신호를 송신한다. 또한, 일정 시간 동안 복수개의 처프 신호의 배열을 하나의 프레임으로 정의한다.A transmission signal according to an embodiment of the present invention uses an FMCW signal. For this, one frequency-modulated signal is defined as a chirp, and a plurality of chirp signals are transmitted at regular time intervals for a predetermined time. Also, an arrangement of a plurality of chirped signals for a predetermined time is defined as one frame.
한편, 신호 처리 모듈(123)은 송신 파형 생성에 필요한 주파수 변조 제어 신호를 파형 발생기(111)로 출력하며, 주파수 합성기(115)에서 생성된 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다On the other hand, the signal processing module 123 outputs a frequency modulation control signal necessary for generating a transmission waveform to the waveform generator 111, and based on the beat frequency signal generated by the frequency synthesizer 115, an image of a micro Doppler frequency change pattern. can create
이를 위해, 신호 처리 모듈(123)은 단일 시간 동안 하나의 프레임에서 수신된 복수개의 처프 신호 각각에 대하여, 지연 시간에 따른 차 주파수를 거리로 환산한 복수개의 레인지 빈을 산출한다. 또한, 각 처프 신호에 대한 복수개의 레인지 빈 중 대상물(S)이 존재하는 레인지 빈을 추출하고, 추출된 레인지 빈에 대응하는 비트 주파수 신호의 단시간 푸리에 변환(Short Time Fourier Transform, STFT)을 통해 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다. To this end, the signal processing module 123 calculates a plurality of range bins in which a difference frequency according to a delay time is converted into a distance for each of a plurality of chirp signals received in one frame for a single time. In addition, a range bin in which an object (S) exists among a plurality of range bins for each chirp signal is extracted, and a microprocessor through Short Time Fourier Transform (STFT) of a beat frequency signal corresponding to the extracted range bin An image of a Doppler frequency change pattern can be generated.
여기서, 하나의 프레임에서 감지된 복수개의 비트 주파수 신호를 이용하여 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 경우에는, 저해상도 이미지를 가지기 때문에 대상물의 분류에 어려움이 있다. 따라서, 본 발명의 일 실시 형태에 의하면, 복수개의 프레임에 포함된 복수개의 처프 신호를 수신하고, 연속된 시간 변화에 따른 대상물(S)의 변화된 거리와 각도에 따른 대상물을 추적하여 해당 비트 주파수를 수집할 수 있다. 이후 복수개의 프레임을 이용하여 수집된 복수개의 비트 주파수의 단시간 푸리에 변환(Short Time Fourier Transform, STFT)을 통해 고해상도 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다. 이에 대해서는, 도 7을 참조하여 후술한다.Here, when an image of a micro-Doppler frequency change pattern is generated using a plurality of beat frequency signals sensed in one frame, it is difficult to classify an object because it has a low-resolution image. Therefore, according to an embodiment of the present invention, a plurality of chirped signals included in a plurality of frames are received, and the corresponding beat frequency is obtained by tracking the object according to the changed distance and angle of the object S according to the continuous time change. can be collected Thereafter, an image of a high-resolution micro-Doppler frequency change pattern may be generated through a Short Time Fourier Transform (STFT) of a plurality of beat frequencies collected using a plurality of frames. This will be described later with reference to FIG. 7 .
구체적으로, 신호 처리 모듈(123)은, 주파수 합성기(115)로부터 전달받은 하나의 프레임에서 하나의 비트 주파수 신호를 주파수 변환(Fast Fourier Transform, FFT)하고, 거리별 주파수 변환된 비트 주파수 신호의 크기를 산출한다. 이는 복수개의 비트 주파수 신호만큼 반복한다. 이후 주파수 변환된 비트 주파수 신호의 크기가 소정의 임계값 이상이면 생성된 비트 주파수 신호가 속하는 레인지 빈을 대상물이 존재하는 레인지 빈으로 추출할 수 있다.Specifically, the signal processing module 123 frequency-transforms (Fast Fourier Transform, FFT) one bit frequency signal in one frame received from the frequency synthesizer 115, and the size of the frequency-converted bit frequency signal for each distance. to calculate This is repeated for a plurality of beat frequency signals. Thereafter, when the frequency-converted bit frequency signal has a size greater than or equal to a predetermined threshold, a range bin to which the generated beat frequency signal belongs may be extracted as a range bin in which an object exists.
도 3은 본 발명의 일 실시 형태에 따라 송신된 FMCW 신호와 대상물에 의해 반사되어 수신된 FMCW 신호를 도시한 도면이며, 도 4는 본 발명의 일 실시 형태에 따라 지연 시간에 따른 차 주파수를 거리로 환산한 복수개의 레인지 빈 중 대상물이 존재하는 레인지 빈을 추출하는 과정을 설명하기 위한 도면이다.3 is a diagram illustrating a transmitted FMCW signal and a received FMCW signal reflected by an object according to an embodiment of the present invention, and FIG. 4 is a distance difference frequency according to a delay time according to an embodiment of the present invention A diagram for explaining a process of extracting a range bin in which an object exists among a plurality of range bins converted to .
이하 도 3 및 도 4를 참조하여 복수개의 레인지 빈 중 대상물이 존재하는 레인지 빈을 추출하는 과정을 상세하게 설명한다.Hereinafter, a process of extracting a range bin having an object from among a plurality of range bins will be described in detail with reference to FIGS. 3 and 4 .
도 3에 도시된 바와 같이, 본 발명에서 FMCW 신호는 시간에 따라 주파수가 증가하는 톱니파 형태를 사용하였으며, 실선으로 도시된 송신 FMCW 신호(Tx Signal)와 점선으로 도시된 수신 FMCW 신호(Rx Signal)는 지연 시간(τ)만큼의 차 주파수(fbeat, 또는 '비트 주파수'라 함)가 존재한다. 여기서, fsweep는 대역폭, Tchip는 처프의 시간 길이, 1 내지 L N은 한 프레임당 전송되는 처프의 갯수이다. 도 3에서는 톱니파를 예시하고 있으나, 본 발명은 반드시 이에 한정되는 것은 아니며, 삼각파에도 적용될 수 있음은 물론이다.3, in the present invention, the FMCW signal uses a sawtooth wave shape whose frequency increases with time, and the transmit FMCW signal (Tx Signal) shown in the solid line and the received FMCW signal (Rx Signal) shown in the dotted line are used. There is a difference frequency (fbeat, or 'beat frequency') equal to the delay time τ. Here, fsweep is the bandwidth, Tchip is the time length of the chirp, and 1 to L N are the number of chirps transmitted per frame. Although FIG. 3 illustrates a sawtooth wave, the present invention is not necessarily limited thereto, and it goes without saying that it can also be applied to a triangular wave.
상술한 도 3에서 비트 주파수(fbeat)는 대상물(S)까지의 거리(R)에 비례하며, 하기와 같은 수학식 1로 표현될 수 있다.3, the beat frequency fbeat is proportional to the distance R to the object S, and can be expressed by Equation 1 below.
Figure PCTKR2021006133-appb-img-000001
Figure PCTKR2021006133-appb-img-000001
여기서, fbeat는 비트 주파수, c는 광속, fsweep는 대역폭, Tchirp는 처프의 시간 길이, R은 대상물까지의 거리이다.where fbeat is the beat frequency, c is the speed of light, fsweep is the bandwidth, Tchirp is the length of time of the chirp, and R is the distance to the object.
한편, 도 4에 도시된 바와 같이, 신호 처리 모듈(123)은, 지연 시간에 따른 차 주파수를 거리로 환산한 복수개의 레인지 빈 중 대상물(S)이 존재하는 레인지 빈을 추출할 수 있다.Meanwhile, as shown in FIG. 4 , the signal processing module 123 may extract a range bin in which the object S exists among a plurality of range bins obtained by converting a difference frequency according to a delay time into a distance.
구체적으로, 도 4의 (a)는 수학식 1에 따라 지연 시간(도 3의 τ)에 따른 차 주파수(fbeat)를 거리로 환산한 복수개의 레인지 빈(range bin #1 내지 range bin #256) 나타내며, 도 4의 (b)는 송신된 FMCW 신호와 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 주파수 변환한 것으로, X축은 비트 주파수, Y축은 신호의 크기이다.Specifically, (a) of FIG. 4 shows a plurality of range bins (range bin #1 to range bin #256) in which a difference frequency fbeat according to a delay time (τ in FIG. 3 ) according to Equation 1 is converted into a distance. 4 (b) shows the frequency conversion of the bit frequency signal, which is the difference frequency between the transmitted FMCW signal and the received FMCW signal reflected by the object, where the X axis is the bit frequency and the Y axis is the signal size.
즉, 주파수 혼합기(115)에 의해 생성된 비트 주파수 신호는 사각파 형태가 되며, 이를 주파수 변환하여 주파수 영역에서 나타내면, 도 4의 (b)에 도시된 바와 같이, 싱크(sinc) 함수로 표현될 수 있다. That is, the beat frequency signal generated by the frequency mixer 115 is in the form of a square wave, and when it is frequency-converted and expressed in the frequency domain, as shown in FIG. can
따라서, 신호 처리 모듈(123)은 주파수 합성기(115)로부터 전달받은 비트 주파수 신호를 주파수 변환(FFT)하고, 주파수 변환된 비트 주파수 신호의 크기가 소정의 임계값 이상이면 생성된 비트 주파수 신호가 속하는 레인지 빈(도 4에서는 range bin #2)을 대상물이 존재하는 레인지 빈으로 추출할 수 있다. 여기서, 임계값은 기 설정된 값일 수 있다.Accordingly, the signal processing module 123 frequency-transforms (FFT) the bit frequency signal received from the frequency synthesizer 115 , and when the magnitude of the frequency-converted bit frequency signal is greater than or equal to a predetermined threshold value, the generated bit frequency signal belongs to A range bin (range bin #2 in FIG. 4 ) may be extracted as a range bin in which an object exists. Here, the threshold value may be a preset value.
한편, 본 발명의 일 실시 형태에 의하면, 신호 처리 모듈(123)은 FMCW 신호의 한 프레임에 포함된 복수개의 처프 각각의 비트 주파수 신호를 주파수 변환하고, 주파수 변환된 복수개의 비트 주파수 신호의 크기의 합산값(도 4의 (c) 참조)이 소정의 임계값 이상이면, 생성된 비트 주파수 신호가 속하는 레인지 빈을 대상물이 존재하는 레인지 빈으로 추출할 수 있다.On the other hand, according to an embodiment of the present invention, the signal processing module 123 frequency-converts the bit frequency signals of each of the plurality of chirps included in one frame of the FMCW signal, When the sum value (refer to FIG. 4(c) ) is equal to or greater than a predetermined threshold, a range bin to which the generated beat frequency signal belongs may be extracted as a range bin in which an object exists.
이와 같이, 주파수 변환된 복수개의 비트 주파수 신호의 크기를 합산하는 이유는, 주파수 변환된 하나의 비트 주파수 신호의 크기는 대상물(S)을 탐지할 정도로 충분한 피크값을 가질 수 없을 수도 있기 때문이다.As such, the reason for summing the magnitudes of the plurality of frequency-converted beat frequency signals is that the magnitude of one frequency-converted bit frequency signal may not have a sufficient peak value to detect the object S.
한편, 본 발명의 일 실시 형태에 의하면, RF 모듈(110)이 복수개의 수신 채널을 포함할 경우, 신호 처리 모듈(123)은 대상물이 검출된 레인지 빈에 대하여 FMCW 신호의 수신 각도를 구하고, 구한 수신 각도 및 대상물이 존재하는 레인지 빈을 레인지 빈 대비 수신 각도를 나타내는 거리-각도 맵에 도시할 수 있다.On the other hand, according to an embodiment of the present invention, when the RF module 110 includes a plurality of reception channels, the signal processing module 123 obtains the reception angle of the FMCW signal with respect to the range bin in which the object is detected, A range bin in which a reception angle and an object are present may be plotted on a distance-angle map indicating a reception angle compared to the range bin.
도 5는 본 발명의 일 실시 형태에 따라 복수개의 수신 채널을 포함하는 경우에 수식 각도를 구하는 과정 및 거리-각도 맵을 도시한 도면이다. 도 5의 (a)에서, 복수개의 수신 안테나(여기서는 4개)를 통해 수신된 처프는 각각 Rx#0 내지 Rx#3이며, 수신 안테나 사이의 거리는 d로, 4개의 수신 안테나를 통해 수신된 처프 각각에 대한 비트 주파수 신호를 주파수 변환한 값은 Z 0[2] 내지 Z 3[2]으로 표시하였다. 한편, 도 5의 (b)는 레인지 빈 #2에서 대상물이 검출된 경우 이를 거리-각도 맵에 표시한 것이다.FIG. 5 is a diagram illustrating a process for obtaining a mathematical expression angle and a distance-angle map when a plurality of reception channels are included according to an embodiment of the present invention. In (a) of FIG. 5, the chirps received through a plurality of receiving antennas (here, four) are Rx#0 to Rx#3, respectively, the distance between the receiving antennas is d, and the chirps received through the four receiving antennas are d. The frequency-converted values of the bit frequency signals for each are expressed as Z 0 [2] to Z 3 [2]. Meanwhile, in FIG. 5B , when an object is detected in range bin #2, it is displayed on the distance-angle map.
즉, 도 5의 (a)에 도시된 바와 같이, 4개의 수신 안테나를 통해 수신된 처프 각각에 대한 비트 주파수 신호를 주파수 변환한 값은 Z 0[2] 내지 Z 3[2]이며, 대상물의 각도는 하기 수학식 2에 따라 구할 수 있다.That is, as shown in (a) of Figure 5, the frequency-converted value of the bit frequency signal for each chirp received through the four reception antennas is Z 0 [2] to Z 3 [2], The angle can be obtained according to Equation 2 below.
Figure PCTKR2021006133-appb-img-000002
Figure PCTKR2021006133-appb-img-000002
여기서, H H()는 시스템 매트릭스, △θ는 각도 분해능, i는 -60도부터 60도까지 1도 단위, λ는 중심 주파수 파장, d는 수신 안테나간의 거리, Z 0[2] 내지 Z 3[2]는 4개의 수신 안테나를 통해 수신된 처프 각각에 대한 비트 주파수 신호를 주파수 변환한 값이다.where H H () is the system matrix, Δθ is the angular resolution, i is from -60 to 60 degrees in units of 1 degree, λ is the center frequency wavelength, d is the distance between the receiving antennas, Z 0 [2] to Z 3 [2] is a frequency-converted value of a bit frequency signal for each chirp received through four receiving antennas.
즉, 도 5에 도시된 바와 같이, 신호 처리 모듈(123)은, RF 모듈(110)이 복수개의 수신 채널을 포함할 경우, 대상물이 검출된 레인지 빈에 대하여 FMCW 신호의 수신 각도를 구하고, 구한 수신 각도 및 대상물이 존재하는 레인지 빈을 레인지 빈 대비 수신 각도를 나타내는 거리-각도 맵에 도시할 수 있다.That is, as shown in FIG. 5 , when the RF module 110 includes a plurality of reception channels, the signal processing module 123 obtains a reception angle of the FMCW signal with respect to a range bin in which an object is detected, and the obtained A range bin in which a reception angle and an object are present may be plotted on a distance-angle map indicating a reception angle compared to the range bin.
특히, 본 발명의 일 실시 형태에 의하면, 신호 처리 모듈(123)은, 한 프레임에 포함된 복수개의 처프 중 첫번째 처프(Chirp #1)에 대해서만 수신 각도를 구하는바, 한 프레임이 90개의 처프를 포함할 경우 90개의 처프를 송수신하는데 통상 1ms 미만이므로, 1ms 동안 대상물의 각도 변화가 거의 없다고 볼 수 있으며, 이와 같이 한 프레임 당 1개의 처프에 대해서만 수신 각도를 구함으로써 연산량을 줄일 수 있는 이점이 있다.In particular, according to an embodiment of the present invention, the signal processing module 123 obtains a reception angle only for the first chirp (Chirp #1) among a plurality of chirps included in one frame, and one frame receives 90 chirps. If included, since it is usually less than 1 ms to transmit and receive 90 chirps, it can be seen that there is little change in the angle of the object during 1 ms. .
한편, 본 발명의 일 실시 형태에 의하면, 신호 처리 모듈(123)은, 한 프레임당 거리-각도 맵을 기반으로 확장 칼만 필터를 이용하여 대상물의 위치를 추적하며, 추적된 대상물의 위치를 각 프레임당 거리-각도 맵에 도시할 수 있다.Meanwhile, according to an embodiment of the present invention, the signal processing module 123 tracks the position of the object using the extended Kalman filter based on the distance-angle map per frame, and sets the position of the tracked object in each frame. It can be plotted on a per distance-angle map.
도 6은 본 발명의 일 실시 형태에 따라 대상물의 위치 추적을 통해 거리-각도 맵에 표시된 대상물의 위치를 도시한 도면이다.6 is a diagram illustrating a location of an object displayed on a distance-angle map through location tracking of the object according to an embodiment of the present invention.
도 6에 도시된 바와 같이, 보행자(대상물)가 이동할 때 k-2 시점, k-1 시점, k 시점에 각각 1개 프레임(90개의 처프로 구성됨)의 FMCW 신호를 송수신하며, 신호 처리 모듈(123)은, 확장 칼만 필터를 이용하여 대상물의 위치를 추적하며, 추적된 대상물의 위치를 거리-각도 맵에 표시할 수 있다. 대상물의 위치를 추적하기 위한 확장된 칼만 필터는 널리 알려진 기술인바, 본 발명에서는 상세하게 설명하지는 않는다. 또한, 확장 칼만 필터를 이용하여 시간 추이에 따른 대상물의 위치를 추적하여 FMCW 신호의 복수 개의 프레임에 걸쳐 각 프레임에 포함된 복수 개의 처프 각각의 해당 비트 주파수를 수집할 수 있다.As shown in FIG. 6, when a pedestrian (object) moves, the FMCW signal of one frame (consisting of 90 chirps) is transmitted and received at k-2 time point, k-1 time point, and time point k, respectively, and the signal processing module ( 123) may track the location of the object using the extended Kalman filter, and display the tracked location of the object on the distance-angle map. The extended Kalman filter for tracking the position of an object is a well-known technique, and thus, it will not be described in detail in the present invention. In addition, by using the extended Kalman filter to track the position of the object over time, it is possible to collect the corresponding bit frequency of each of a plurality of chirps included in each frame over a plurality of frames of the FMCW signal.
이후, 신호 처리 모듈(123)은 시간 추이에 따른 대상물의 위치가 추적된 레인지 빈에 대응하는 비트 주파수 신호의 단시간 푸리에 변환(Short Time Fourier Transform, STFT)을 통해 고해상도의 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다. 본 발명에서, 고해상도의 마이크로 도플러 주파수 변화 패턴의 이미지는 적어도 512개 이상의 비트 주파수 샘플을 가지고 생성된 마이크로 도플러 주파수 변화 패턴의 이미지를 의미할 수 있다.Thereafter, the signal processing module 123 performs a high-resolution micro Doppler frequency change pattern image through a Short Time Fourier Transform (STFT) of a bit frequency signal corresponding to a range bin in which the position of the object is tracked according to time. can create In the present invention, an image of a high-resolution micro Doppler frequency change pattern may mean an image of a micro Doppler frequency change pattern generated with at least 512 or more bit frequency samples.
특히, 본 발명의 일 실시 형태에 의하면, 신호 처리 모듈(123)은 확장 칼만 필터를 이용하여 추적한 대상물에 대한 FMCW 신호의 복수개의 프레임에 걸쳐 각 프레임에 포함된 복수개의 처프 각각의 비트 주파수 신호의 단시간 푸리에 변환(STFT)을 통해 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다.In particular, according to an embodiment of the present invention, the signal processing module 123 is a bit frequency signal of each of a plurality of chirps included in each frame over a plurality of frames of an FMCW signal for an object tracked using the extended Kalman filter. An image of a micro-Doppler frequency change pattern can be generated through a short-time Fourier transform (STFT) of
관련하여, 도 7은 본 발명의 일 실시 형태에 따라 확장 칼만 필터를 이용하여 추적한 대상물에 대하여 수집한 FMCW 신호의 복수개의 프레임에 포함된 복수개의 처프와 이들의 비트 주파수 신호로부터 생성된 마이크로 도플러 주파수 변화 패턴의 이미지를 도시한 도면이다.In relation to this, FIG. 7 shows a plurality of chirps included in a plurality of frames of an FMCW signal collected with respect to an object tracked using an extended Kalman filter according to an embodiment of the present invention and a micro Doppler generated from the beat frequency signals thereof. It is a diagram showing an image of a frequency change pattern.
즉, 도 7에 도시된 바와 같이, 신호 처리 모듈(123)은 확장 칼만 필터를 이용하여 시간 추이에 따른 대상물의 위치를 추적하여 복수개의 프레임(프레임 #1 내지 프레임 #k)에 걸쳐 각 프레임에 포함된 복수개의 처프(chirp #1 내지 chirp #N) 각각의 비트 주파수 신호를 수집한다. 이후, 수집된 복수개의 프레임의 복수개의 처프 각각의 단시간 푸리에 변환(STFT)을 통해, 도 7의 (b)와 같은 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다. That is, as shown in FIG. 7 , the signal processing module 123 uses the extended Kalman filter to track the position of the object according to the time passage, and to each frame over a plurality of frames (frame #1 to frame #k). A beat frequency signal of each of the included chirps (chirp #1 to chirp #N) is collected. Thereafter, an image of a micro-Doppler frequency change pattern as shown in FIG. 7B may be generated through a short-time Fourier transform (STFT) of each of the plurality of chirps of the plurality of collected frames.
도 7에서는, 프레임의 수인 k 동안 확장 칼만 필터를 이용하여 추적된 대상물의 거리는 동일한 경우를 도시하고 있으나, 반드시 추적된 거리가 동일한 경우에만 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는 것은 아님에 유의하여야 한다. 또한, 본 발명에서는 처프의 수인 N은 예를 들면 90일 수 있으며, 프레임의 수인 k는 10개일 수 있으나, 반드시 구체적인 수치에 한정되는 것은 아님에 유의하여야 한다.In FIG. 7 , the distance of an object tracked using the extended Kalman filter during k, which is the number of frames, is the same. do. Also, in the present invention, the number of chirps, N, may be, for example, 90, and the number of frames, k, may be 10, but it should be noted that it is not necessarily limited to a specific numerical value.
한편, 도 8은 본 발명의 일 실시 형태에 따라 FMCW 신호의 복수개의 프레임을 이용하여 생성된 마이크로 도플러 주파수 변화 패턴의 이미지와 FMCW 신호의 하나의 프레임을 이용하여 생성된 마이크로 도플러 주파수 변화 패턴의 이미지를 비교 도시한 도면이다. 여기서, (a)는 복수개의 프레임을 통해 생성된 마이크로 도플러 주파수 변화 패턴의 컬러 이미지이며, (b)는 하나의 프레임을 통해 생성된 마이크로 도플러 주파수 변화 패턴의 컬러 이미지이다.Meanwhile, FIG. 8 is an image of a micro Doppler frequency variation pattern generated using a plurality of frames of an FMCW signal and an image of a micro Doppler frequency variation pattern generated using one frame of an FMCW signal according to an embodiment of the present invention. is a diagram showing comparison. Here, (a) is a color image of a micro Doppler frequency variation pattern generated through a plurality of frames, and (b) is a color image of a micro Doppler frequency variation pattern generated through one frame.
도 8에 도시된 바와 같이, 단시간 푸리에 변환(STFT)을 위한 샘플들의 수가 많을수록 주파수 고분해능을 가지며, 따라서, 복수개의 프레임을 통해 생성된 마이크로 도플러 주파수 변화 패턴의 이미지(도 8의 (a)가 하나의 프레임을 통해 생성된 마이크로 도플러 주파수 변화 패턴의 이미지(도 8의 (b))보다 주파수 고분해능을 가진다는 것을 알 수 있다.As shown in FIG. 8 , the higher the number of samples for the short-time Fourier transform (STFT), the higher the frequency resolution. It can be seen that the image of the micro-Doppler frequency change pattern generated through the frame of .
다시 도 2를 참조하면, 신호 처리 모듈(123)에 의해 생성된 마이크로 도플러 주파수 변화 패턴의 이미지는 CNN 모듈(124)로 입력되며, CNN 모듈(124)은 입력된 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 대상물(S)을 분류할 수 있다.Referring back to Figure 2, the image of the micro-Doppler frequency change pattern generated by the signal processing module 123 is input to the CNN module 124, and the CNN module 124 is the image of the input micro-Doppler frequency change pattern. Depending on the object (S) can be classified.
CNN(Convolution Neural Network) 모듈(124)은 마이크로 도플러 주파수 변화 패턴의 이미지를 기 학습된 컨볼루션 신경망 모델을 적용하여 마이크로 도플러 패턴 특징을 추출하는 도플러 특징 추출 모듈(124a)과, 도플러 특징 추출 모듈(124a)에서 추출한 마이크로 도플러 패턴 특징에 따라 대상물을 보행자 또는 비보행자로 분류하는 분류 모듈(124b)를 포함할 수 있다.The CNN (Convolution Neural Network) module 124 includes a Doppler feature extraction module 124a that extracts micro Doppler pattern features by applying a pre-learned convolutional neural network model to an image of a micro Doppler frequency change pattern, and a Doppler feature extraction module ( A classification module 124b for classifying an object as a pedestrian or a non-pedestrian according to the micro-Doppler pattern feature extracted in 124a) may be included.
도 9는 본 발명의 일 실시 형태에 따른 컨볼루션 신경망 모델을 구성하는 레이어들을 도시한 도면이다.9 is a diagram illustrating layers constituting a convolutional neural network model according to an embodiment of the present invention.
컨볼루션 신경망 모델은 심층 신경망(DNN, deep neural network)의 한 종류로, 적어도 하나의 컨볼루션 레이어(convolutional layer)를 포함하는 7개의 컨벌루션 레이어 그룹(G1 내지 G7), 에버리지 풀 레이어(average pool layer, AVG pool), 풀 커넥티드 레이어(fully connected layer, FC: 2) 및 소프트맥스 레이어(softmax layer)로 구성된 신경망으로, 2차원 데이터의 학습에 적합한 구조를 가지며, 역전달(backpropagation algorithm)을 통해 훈련될 수 있다. 본 발명의 일 실시 형태에 따른 컨볼루션 신경망 모델은 'Resnet 14'로 지칭될 수 있다.The convolutional neural network model is a type of deep neural network (DNN), and includes seven convolutional layer groups (G1 to G7) including at least one convolutional layer, an average pool layer , AVG pool), a fully connected layer (FC: 2), and a softmax layer. It has a structure suitable for learning two-dimensional data, and is can be trained The convolutional neural network model according to an embodiment of the present invention may be referred to as 'Resnet 14'.
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 100×91×3 픽셀 크기의 이미지에서 5×5×3 크기의 필터 16개를 1픽셀 간격으로 2패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어 그룹(811, G1)을 포함할 수 있다.According to an embodiment of the present invention, a group of 7 convolutional layers moves 16 filters of a size of 5×5×3 in an image of a size of 100×91×3 pixels in the vertical, left, and right directions at intervals of 1 pixel by 2 padding. A first convolutional layer group 811 and G1 for extracting a micro-Doppler pattern feature map having a size of 100×91×16 may be included.
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 제1 컨벌루션 레이어 그룹(G1)을 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어(812)와, 제1 컨벌루션 레이어(812)를 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어(813)를 포함하는 제2 컨벌루션 레이어 그룹(G2)을 포함할 수 있다.According to an embodiment of the present invention, the seven convolutional layer groups include a filter 16 having a size of 3×3×16 in a micro Doppler pattern feature map having a size of 100×91×16 output through the first convolutional layer group G1. A first convolutional layer 812 that extracts a micro-Doppler pattern feature map with a size of 100×91×16 by moving the dog one padding at intervals of 1 pixel in the up, down, left and right directions, and the first convolutional layer 812 In the 100×91×16 size micro Doppler pattern feature map, 16 3×3×16 filters are moved up, down, left and right by one padding at 1 pixel intervals to create a 100×91×16 micro Doppler pattern feature map. The second convolutional layer group G2 including the extracted second convolutional layer 813 may be included.
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 제2 컨벌루션 레이어 그룹(G2)을 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어(814)와, 상기 제1 컨벌루션 레이어(814)를 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어(815)를 포함하는 제3 컨벌루션 레이어 그룹(G3)을 포함할 수 있다.According to an embodiment of the present invention, the seven convolutional layer groups include a filter 16 having a size of 3×3×16 in a micro Doppler pattern feature map having a size of 100×91×16 output through the second convolutional layer group G2. A first convolutional layer 814 that extracts a micro Doppler pattern feature map with a size of 100×91×16 by moving the dog one padding at intervals of 1 pixel in the up, down, left and right directions, and the first convolutional layer 814 Output through In the 100×91×16 sized micro Doppler pattern feature map, 16 3×3×16 filters are moved up, down, left and right by one padding at 1 pixel intervals to create a 100×91×16 micro Doppler pattern feature map. may include a third convolutional layer group G3 including a second convolutional layer 815 for extracting .
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 제3 컨벌루션 레이어 그룹(G3)을 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 32개를 2픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어(816)와, 제1 컨벌루션 레이어(816)를 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 32개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어(817)를 포함하는 제4 컨벌루션 레이어 그룹(G4)을 포함할 수 있다.According to an embodiment of the present invention, the seven convolutional layer groups include a filter 32 having a size of 3×3×16 in a micro Doppler pattern feature map having a size of 100×91×16 output through the third convolution layer group G3. The first convolutional layer 816 that extracts the micro Doppler pattern feature map of 50×46×32 size by moving the dog one padding at an interval of 2 pixels in the up, down, left and right directions, and the first convolutional layer 816 In the 50×46×32 micro Doppler pattern feature map, 32 filters of 3×3×32 size are moved up, down, left and right by one padding at 1 pixel intervals to create a 50×46×32 micro Doppler pattern feature map. A fourth convolutional layer group G4 including the extracted second convolutional layer 817 may be included.
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 제4 컨벌루션 레이어 그룹(G4)을 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 32개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어(818)와, 제1 컨벌루션 레이어(818)를 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 32개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어(819)를 포함하는 제5 컨벌루션 레이어 그룹(G5)을 포함할 수 있다.According to an embodiment of the present invention, the seven convolutional layer groups include a 3×3×32 filter 32 in the 50×46×32 micro Doppler pattern feature map output through the fourth convolutional layer group G4. A first convolutional layer 818 that extracts a 50×46×32 micro Doppler pattern feature map by moving the dog one padding at 1 pixel intervals in the vertical, left and right directions, and the first convolutional layer 818 In the 50×46×32 micro Doppler pattern feature map, 32 filters of 3×3×32 size are moved up, down, left and right by one padding at 1 pixel intervals to create a 50×46×32 micro Doppler pattern feature map. A fifth convolutional layer group G5 including the second convolutional layer 819 to be extracted may be included.
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 제5 컨벌루션 레이어 그룹(G5)을 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 64개를 2픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어(820)와, 제1 컨벌루션 레이어(820를 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 64개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어(821)를 포함하는 제6 컨벌루션 레이어 그룹(G6)을 포함할 수 있다.According to an embodiment of the present invention, the seven convolutional layer groups include a filter 64 having a size of 3×3×32 in a micro Doppler pattern feature map having a size of 50×46×32 output through the fifth convolutional layer group G5. A first convolutional layer 820 that extracts a micro-Doppler pattern feature map having a size of 25×23×64 by moving the dog one padding at an interval of 2 pixels in the up, down, left, and right directions, and the 25 output through the first convolutional layer 820 In the ×23×64 size micro Doppler pattern feature map, 64 3×3×32 filters are moved up, down, left, and right by one padding at 1 pixel intervals to extract a 25×23×64 micro Doppler pattern feature map. A sixth convolutional layer group G6 including a second convolutional layer 821 may be included.
본 발명의 일 실시 형태에 의하면, 7개의 컨벌루션 레이어 그룹은, 제6 컨벌루션 레이어 그룹(G6)을 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 3×3×64 크기의 필터 64개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어(822)와, 제1 컨벌루션 레이어(822)를 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 64개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어(823)를 포함하는 제7 컨벌루션 레이어 그룹(G7)을 포함할 수 있다.According to an embodiment of the present invention, the seven convolutional layer groups include a filter 64 having a size of 3×3×64 in a micro Doppler pattern feature map having a size of 25×23×64 output through the sixth convolutional layer group G6. A first convolutional layer 822 that extracts a micro Doppler pattern feature map having a size of 25×23×64 by moving the dog one padding at intervals of 1 pixel in the up, down, left and right directions, and the first convolutional layer 822 In the 25×23×64 micro Doppler pattern feature map, 64 filters of 3×3×32 size are moved up, down, left, and right by one padding at 1 pixel intervals to create a 25×23×64 micro Doppler pattern feature map. A seventh convolutional layer group G7 including the extracted second convolutional layer 823 may be included.
또한, 본 발명의 일 실시 형태에 의하면, 제2 컨벌루션 레이어 그룹(G2) 내지 제7 컨벌루션 레이어 그룹(G6)은, 이전 단계에서 추출된 마이크로 도플러 패턴 특징맵과 현 단계에서 추출된 마이크로 도플러 패턴 특징맵의 요소별 정보를 숏컷(Short CUT, SC)을 통해 결합할 수 있다.In addition, according to an embodiment of the present invention, the second convolutional layer group G2 to the seventh convolutional layer group G6 include the micro Doppler pattern feature map extracted in the previous step and the micro Doppler pattern feature extracted in the current step. Information for each element of the map can be combined through Short Cut (SC).
한편, 본 발명의 일 실시 형태에 의하면, 에버리지 풀 레이어(824)는, 제7 컨벌루션 레이어 그룹(G7)을 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 7×7×64 크기의 필터 1개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 1×1×64 크기의 마이크로 도플러 패턴 특징맵을 추출할 수 있다.Meanwhile, according to an embodiment of the present invention, the average full layer 824 has a size of 7×7×64 in the micro Doppler pattern feature map of size 25×23×64 output through the seventh convolutional layer group G7. A 1×1×64 size micro Doppler pattern feature map can be extracted by moving one filter in the vertical direction by one padding at 1-pixel intervals.
그리고, 풀 커넥티드 레이어(825)는, 에버리지 풀 레이어(824)에 연결되어 64 및 2 노드들을 입력 및 출력으로 각각 가지며, 64×2 만큼의 가중치들을 이용하여 마이크로 마이크로 도플러 패턴 특징맵을 축소하고, 소프트맥스 레이어는, 풀 커넥티드 레이어(824)를 통해 출력된 마이크로 마이크로 도플러 패턴 특징맵의 확률을 하기의 수학식 3에 따라 산출할 수 있다.And, the fully connected layer 825 is connected to the average full layer 824 and has 64 and 2 nodes as inputs and outputs, respectively, and reduces the micro-micro Doppler pattern feature map using weights of 64×2, , softmax layer may calculate the probability of the micro-micro Doppler pattern feature map output through the fully connected layer 824 according to Equation 3 below.
Figure PCTKR2021006133-appb-img-000003
Figure PCTKR2021006133-appb-img-000003
여기서,
Figure PCTKR2021006133-appb-img-000004
는 i번째 클래스에 대한 확률로, 0 ~ 1 사이의 값을 가진다. Z (i)는 i번째 클래스에 대한 특징값(가중치)이며, J는 전체 클래스의 개수를 의미한다. 본 발명에서, J=2이고, i=1이면 보행자의 마이크로 도플러 패턴, i=2이면 보행자가 아닌 마이크로 도플러 패턴으로 분류할 수 있다.
here,
Figure PCTKR2021006133-appb-img-000004
is the probability for the i-th class, and has a value between 0 and 1. Z (i) is the feature value (weight) for the i-th class, and J means the total number of classes. In the present invention, when J=2 and i=1, it can be classified as a pedestrian micro Doppler pattern, and when i=2, it can be classified as a non-pedestrian micro Doppler pattern.
마지막으로, 분류 모듈(124b)은, 산출된 확률에 따라 대상물을 보행자 또는 비보행자로 분류할 수 있다. 즉, 하기 수학식 4에 따라 산출된 확률이 0.5를 초과하면 보행자, 0.5 미만이면 보행자가 아닌 것으로 판단할 수 있다.Finally, the classification module 124b may classify the object as a pedestrian or a non-pedestrian according to the calculated probability. That is, if the probability calculated according to Equation 4 is greater than 0.5, it may be determined as a pedestrian, and if it is less than 0.5, it may be determined as not a pedestrian.
Figure PCTKR2021006133-appb-img-000005
Figure PCTKR2021006133-appb-img-000005
한편, 하기 표 1에는 본 발명의 일 실시 형태에 따른 상술한 Resnet 14 모델의 파라미터를 정리하였다.Meanwhile, in Table 1 below, the parameters of the above-described Resnet 14 model according to an embodiment of the present invention are summarized.
Figure PCTKR2021006133-appb-img-000006
Figure PCTKR2021006133-appb-img-000006
한편, 본 발명의 일 실시 형태에 따른 Resnet-14 모델의 보다 정확한 분석을 위해 교차 검증(Cross Validation)을 수행하였다. 교차 검증 방법은 10 폴드 교차 검증(10 fold Cross Validation)을 사용하였으며, 수집된 마이크로 도플러 주파수 변화 패턴의 이미지 30,252개를 무작위로 10개의 그룹으로 나눈 후, 1폴드당 1개 그룹을 선택하여 테스트를 실행하고, 나머지 9개 그룹은 트레이닝을 실행하여 교차 검증의 정확도와 손실을 산출하였다.Meanwhile, cross validation was performed for more accurate analysis of the Resnet-14 model according to an embodiment of the present invention. The cross-validation method used 10-fold Cross Validation, and after randomly dividing 30,252 images of the collected micro-Doppler frequency change patterns into 10 groups, one group per fold was selected for testing. and the remaining 9 groups performed training to calculate the accuracy and loss of cross-validation.
또한, 본 발명의 일 실시 형태에 따른 Resnet-14 모델은 기존 Resnet-18 모델과 AlexNet 모델보다 적은 수의 파리미터로 구성되어 보다 빠른 학습 시간을 가진다.In addition, the Resnet-14 model according to an embodiment of the present invention has a faster learning time because it consists of a smaller number of parameters than the existing Resnet-18 model and the AlexNet model.
하기 표 2는 본 발명의 일 실시 형태에 따른 Resnet-14와 기존 Resnet-18 및 AlexNet의 모델 파라미터를 비교 도시한 것이다.Table 2 below shows a comparison of the model parameters of Resnet-14 and the existing Resnet-18 and AlexNet according to an embodiment of the present invention.
Figure PCTKR2021006133-appb-img-000007
Figure PCTKR2021006133-appb-img-000007
표 2에 도시된 바와 같이, 본 발명의 일 실시 형태에 따른 Resnet-14 모델의 교차 검증의 정확도는 다른 모델과 비슷하지만, 교차 검증 손실, 1회 프로세싱 시간 및 모델 파라미터의 개수는 현저히 낮음을 알 수 있다.As shown in Table 2, it can be seen that the cross-validation accuracy of the Resnet-14 model according to an embodiment of the present invention is similar to that of other models, but the cross-validation loss, one-time processing time, and the number of model parameters are significantly lower. can
상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 송신된 FMCW 신호와 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수를 기반으로 생성된 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 대상물을 분류함으로써, 적은 계산량으로 대상물의 분류가 가능한 이점이 있다.As described above, according to an embodiment of the present invention, by classifying an object according to an image of a micro-Doppler frequency change pattern generated based on the difference frequency between the transmitted FMCW signal and the received FMCW signal reflected by the object, There is an advantage in that an object can be classified with a small amount of calculation.
한편, 도 10은 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 방법을 설명하는 흐름도이다.Meanwhile, FIG. 10 is a flowchart illustrating a signal processing method using a vehicle radar sensor according to an embodiment of the present invention.
이하에서는 도 1 내지 도 10을 참조하여 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 방법을 설명한다. 다만, 발명의 간명화를 위해 도 1 내지 도 10과 관련하여 중복된 부분에 대한 설명은 생략하기로 한다.Hereinafter, a signal processing method using a vehicle radar sensor according to an embodiment of the present invention will be described with reference to FIGS. 1 to 10 . However, descriptions of overlapping parts with respect to FIGS. 1 to 10 will be omitted for the sake of simplification of the invention.
도 1 내지 도 10을 참조하면, 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 방법은, RF 모듈(110)에서, 송신된 FMCW 신호와 대상물(S)에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하는 단계에 의해 개시될 수 있다(S1000). 1 to 10 , in the signal processing method using a vehicle radar sensor according to an embodiment of the present invention, the transmitted FMCW signal and the received FMCW signal are reflected by the object S in the RF module 110 . It may be initiated by the step of generating a bit frequency signal that is the difference frequency of the signal (S1000).
다음, 신호 처리 모듈(123)은 생성된 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있다(S1010).Next, the signal processing module 123 may generate an image of the micro-Doppler frequency change pattern based on the generated beat frequency signal (S1010).
단계 S1010에서, 본 발명의 일 실시 형태에 의하면, 신호 처리 모듈(123)은 지연 시간에 따른 차 주파수를 거리로 환산한 복수개의 레인지 빈 중 대상물(S)이 존재하는 레인지 빈을 추출하고, 추출된 레인지 빈에 대응하는 비트 주파수 신호의 단시간 푸리에 변환(Short Time Fourier Transform, STFT)을 통해 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있음은 상술한 바와 같다.In step S1010, according to an embodiment of the present invention, the signal processing module 123 extracts a range bin in which the object S exists among a plurality of range bins obtained by converting a difference frequency according to a delay time into a distance, and extracts As described above, an image of a micro-Doppler frequency change pattern can be generated through a Short Time Fourier Transform (STFT) of a beat frequency signal corresponding to the range bin.
또한, 단계 S1010에서, 신호 처리 모듈(123)은, 주파수 합성기(115)로부터 전달받은 비트 주파수 신호를 주파수 변환(Fast Fourier Transform, FFT)하고, 주파수 변환된 비트 주파수 신호의 크기가 소정의 임계값 이상이면 생성된 비트 주파수 신호가 속하는 레인지 빈을 대상물이 존재하는 레인지 빈으로 추출할 수 있음은 상술한 바와 같다.In addition, in step S1010, the signal processing module 123 frequency-transforms the bit frequency signal received from the frequency synthesizer 115 (Fast Fourier Transform, FFT), and the magnitude of the frequency-converted bit frequency signal is set to a predetermined threshold value. As described above, in the above case, the range bin to which the generated beat frequency signal belongs can be extracted as the range bin in which the object exists.
특히, 단계 S1010에서, 신호 처리 모듈(123)은 FMCW 신호의 한 프레임에 포함된 복수 개의 처프 각각의 비트 주파수 신호를 주파수 변환하고, 주파수 변환된 복수개의 비트 주파수 신호의 크기의 합산값(도 4의 (c) 참조)이 소정의 임계값 이상이면, 생성된 비트 주파수 신호가 속하는 레인지 빈을 대상물이 존재하는 레인지 빈으로 추출할 수 있음은 상술한 바와 같다.In particular, in step S1010, the signal processing module 123 frequency-converts the bit frequency signals of each of the plurality of chirps included in one frame of the FMCW signal, and the sum of the magnitudes of the frequency-converted plurality of bit frequency signals (FIG. 4). As described above, if (c) of (refer to (c)) is greater than or equal to a predetermined threshold, a range bin to which the generated beat frequency signal belongs can be extracted as a range bin in which an object exists.
또한, 단계 S1010에서, 신호 처리 모듈(123)은 확장 칼만 필터를 이용하여 시간 추이에 따른 대상물의 위치를 추적하며, FMCW 신호의 복수 개의 프레임에 걸쳐 각 프레임에 포함된 복수 개의 처프 각각의 해당 비트 주파수를 수집하고, 수집된 비트 주파수 신호의 단시간 푸리에 변환(STFT)을 통해 고해상도 마이크로 도플러 주파수 변화 패턴의 이미지를 생성할 수 있음은 상술한 바와 같다.In addition, in step S1010, the signal processing module 123 tracks the position of the object according to time by using the extended Kalman filter, and over a plurality of frames of the FMCW signal, each corresponding bit of a plurality of chirps included in each frame As described above, a high-resolution micro-Doppler frequency change pattern image can be generated by collecting a frequency and performing short-time Fourier transform (STFT) of the collected beat frequency signal.
마지막으로, CNN 모듈(124)은, 생성된 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 대상물(S)을 분류할 수 있다(S1020).Finally, the CNN module 124 may classify the object S according to the image of the generated micro-Doppler frequency change pattern (S1020).
구체적으로, CNN 모듈(124) 중 도플러 특징 추출 모듈(124a)은, 마이크로 도플러 주파수 변화 패턴의 이미지를 기 학습된 컨볼루션 신경망 모델을 적용하여 마이크로 도플러 패턴 특징을 추출하며, CNN 모듈(124) 중 분류 모듈(124b)은 추출된 마이크로 도플러 패턴 특징에 따라 대상물을 보행자 또는 비보행자로 분류할 수 있음은 상술한 바와 같다.Specifically, the Doppler feature extraction module 124a of the CNN module 124 extracts the micro Doppler pattern feature by applying a pre-learned convolutional neural network model to the image of the micro Doppler frequency change pattern, and in the CNN module 124 As described above, the classification module 124b may classify the object as a pedestrian or a non-pedestrian according to the extracted micro-Doppler pattern feature.
상술한 바와 같이, 본 발명의 일 실시 형태에 의하면, 송신된 FMCW 신호와 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수를 기반으로 생성된 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 대상물을 분류함으로써, 적은 계산량으로 대상물의 분류가 가능한 이점이 있다.As described above, according to an embodiment of the present invention, by classifying an object according to an image of a micro-Doppler frequency change pattern generated based on the difference frequency between the transmitted FMCW signal and the received FMCW signal reflected by the object, There is an advantage in that an object can be classified with a small amount of calculation.
상술한 본 발명의 일 실시 형태에 따른 차량용 레이더 센서를 이용한 신호 처리 방법은 컴퓨터에서 실행되기 위한 프로그램으로 제작되어 컴퓨터가 읽을 수 있는 기록 매체에 저장될 수 있다. 컴퓨터가 읽을 수 있는 기록 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등을 포함한다. 또한, 컴퓨터가 읽을 수 있는 기록 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고 상기 방법을 구현하기 위한 기능적인(function) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The signal processing method using the vehicle radar sensor according to the embodiment of the present invention described above may be produced as a program to be executed by a computer and stored in a computer-readable recording medium. Examples of the computer-readable recording medium include ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, and the like. In addition, the computer-readable recording medium is distributed in a computer system connected to a network, so that the computer-readable code can be stored and executed in a distributed manner. And a functional program, code, and code segments for implementing the method can be easily inferred by programmers in the art to which the present invention pertains.
또한, 본 발명을 설명함에 있어, '~모듈'은 다양한 방식, 예를 들면 프로세서, 프로세서에 의해 수행되는 프로그램 명령들, 소프트웨어 모듈, 마이크로 코드, 컴퓨터 프로그램 생성물, 로직 회로, 애플리케이션 전용 집적 회로, 펌웨어 등에 의해 구현될 수 있다.In addition, in describing the present invention, '~ module' refers to various methods, for example, a processor, program instructions executed by the processor, software module, microcode, computer program product, logic circuit, application-specific integrated circuit, firmware and the like can be implemented.
본 발명은 상술한 실시형태 및 첨부된 도면에 의해 한정되지 아니한다. 첨부된 청구범위에 의해 권리범위를 한정하고자 하며, 청구범위에 기재된 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 형태의 치환, 변형 및 변경할 수 있다는 것은 당 기술분야의 통상의 지식을 가진 자에게 자명할 것이다.The present invention is not limited by the above-described embodiments and the accompanying drawings. It is intended to limit the scope of rights by the appended claims, and it is to those of ordinary skill in the art that various types of substitutions, modifications and changes can be made without departing from the technical spirit of the present invention described in the claims. it will be self-evident

Claims (22)

  1. 송신된 FMCW(Frequency Modulation Continuous Wave) 신호와 시간에 따라 움직임 또는 움직임을 포함한 위치 중 어느 하나가 변하는 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하는 RF 모듈;An RF module for generating a beat frequency signal that is a difference frequency between the transmitted FMCW (Frequency Modulation Continuous Wave) signal and the received FMCW signal by being reflected by an object whose position including movement or movement according to time is changed;
    생성된 상기 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는 신호 처리 모듈; 및a signal processing module for generating an image of a micro-Doppler frequency change pattern based on the generated beat frequency signal; and
    생성된 상기 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 상기 대상물을 분류하는 CNN(Convolution Neural Network) 모듈;a Convolution Neural Network (CNN) module for classifying the object according to the generated image of the micro-Doppler frequency change pattern;
    을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.Including, a signal processing device using a vehicle radar.
  2. 제1항에 있어서,According to claim 1,
    상기 신호 처리 모듈은,The signal processing module,
    지연 시간에 따른 차 주파수를 거리로 환산한 복수개의 레인지 빈 중 상기 대상물이 존재하는 레인지 빈을 추출하고,extracting a range bin in which the object exists among a plurality of range bins in which a difference frequency according to a delay time is converted into a distance,
    추출된 상기 레인지 빈에 대응하는 비트 주파수 신호의 단시간 푸리에 변환(Short Time Fourier Transform, STFT)을 통해 상기 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing apparatus using a vehicle radar to generate an image of the micro-Doppler frequency change pattern through Short Time Fourier Transform (STFT) of a beat frequency signal corresponding to the extracted range bin.
  3. 제2항에 있어서,3. The method of claim 2,
    상기 신호 처리 모듈은,The signal processing module,
    생성된 상기 비트 주파수 신호를 주파수 변환하고, frequency-converting the generated beat frequency signal;
    주파수 변환된 상기 비트 주파수 신호의 크기가 소정의 임계값 이상이면 생성된 상기 비트 주파수 신호가 속하는 레인지 빈을 상기 대상물이 존재하는 레인지 빈으로 추출하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing apparatus using a vehicle radar for extracting a range bin to which the generated beat frequency signal belongs as a range bin in which the target exists when the frequency-converted magnitude of the beat frequency signal is greater than or equal to a predetermined threshold.
  4. 제3항에 있어서,4. The method of claim 3,
    상기 신호 처리 모듈은,The signal processing module,
    FMCW 신호의 한 프레임에 포함된 복수개의 처프 각각의 비트 주파수 신호를 주파수 변환하고,Frequency-converting the bit frequency signal of each of a plurality of chirps included in one frame of the FMCW signal,
    주파수 변환된 복수개의 비트 주파수 신호의 크기의 합산값이 소정의 임계값 이상이면, 생성된 상기 비트 주파수 신호가 속하는 레인지 빈을 상기 대상물이 존재하는 레인지 빈으로 추출하는,When the sum of the magnitudes of the frequency-converted plurality of beat frequency signals is equal to or greater than a predetermined threshold, extracting a range bin to which the generated beat frequency signal belongs as a range bin in which the object exists,
    차량용 레이더를 이용한 신호 처리 장치.Signal processing device using vehicle radar.
  5. 제2항에 있어서,3. The method of claim 2,
    상기 신호 처리 모듈은,The signal processing module,
    복수개의 수신 채널을 포함하는 경우, 상기 대상물이 검출된 레인지 빈에 대하여 상기 FMCW 신호의 수신 각도를 구하고, If a plurality of reception channels are included, the reception angle of the FMCW signal is obtained with respect to the range bin in which the object is detected,
    구한 상기 수신 각도 및 상기 대상물이 존재하는 레인지 빈을 레인지 빈 대비 수신 각도를 나타내는 거리-각도 맵에 표시하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing apparatus using a vehicle radar for displaying the obtained reception angle and a range bin in which the target exists on a distance-angle map indicating a reception angle compared to the range bin.
  6. 제5항에 있어서,6. The method of claim 5,
    상기 신호 처리 모듈은,The signal processing module,
    한 프레임에 포함된 복수개의 처프 중 첫번째 처프에 대해서만 상기 수신 각도를 구하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing apparatus using a vehicle radar to obtain the reception angle only for a first chirp among a plurality of chirps included in one frame.
  7. 제5항에 있어서,6. The method of claim 5,
    상기 신호 처리 모듈은,The signal processing module,
    확장 칼만 필터를 이용하여 상기 대상물의 위치를 추적하며, 추적된 상기 대상물의 위치를 상기 거리-각도 맵에 표시하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing apparatus using a vehicle radar for tracking the position of the object using an extended Kalman filter, and displaying the tracked position of the object on the distance-angle map.
  8. 제2항에 있어서,3. The method of claim 2,
    상기 신호 처리 모듈은,The signal processing module,
    확장 칼만 필터를 이용하여 상기 대상물의 위치를 추적하며, 추적된 위치를 기반으로 FMCW 신호의 복수개의 프레임에 걸쳐 각 프레임에 포함된 복수개의 처프 각각의 비트 주파수 신호의 단시간 푸리에 변환을 통해 상기 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는, 차량용 레이더를 이용한 신호 처리 장치.The position of the object is tracked using an extended Kalman filter, and the micro Doppler is performed through a short-time Fourier transform of each beat frequency signal of a plurality of chirps included in each frame over a plurality of frames of an FMCW signal based on the tracked position. A signal processing device using a vehicle radar to generate an image of a frequency change pattern.
  9. 제1항에 있어서,According to claim 1,
    상기 CNN(Convolution Neural Network) 모듈은,The CNN (Convolution Neural Network) module,
    생성된 상기 마이크로 도플러 주파수 변화 패턴의 이미지를 기 학습된 컨볼루션 신경망(CNN) 모델을 적용하여 마이크로 도플러 패턴 특징을 추출하는 도플러 특징 추출 모듈; 및a Doppler feature extraction module for extracting micro Doppler pattern features by applying a pre-trained convolutional neural network (CNN) model to the generated image of the micro Doppler frequency change pattern; and
    상기 도플러 특징 추출 모듈에서 추출한 마이크로 도플러 패턴 특징에 따라 상기 대상물을 보행자 또는 비보행자로 분류하는 분류 모듈;a classification module for classifying the object as a pedestrian or a non-pedestrian according to the micro-Doppler pattern features extracted by the Doppler feature extraction module;
    를 포함하는, 차량용 레이더를 이용한 신호 처리 장치. Including, a signal processing device using a vehicle radar.
  10. 제9항에 있어서, 10. The method of claim 9,
    상기 컨볼루션 신경망(CNN) 모델은,The convolutional neural network (CNN) model is
    적어도 하나의 컨볼루션 레이어를 포함하는 7개의 컨벌루션 레이어 그룹, 에버리지 풀 레이어, 풀 커넥티드 레이어 및 소프트맥스 레이어를 포함하며,7 convolutional layer groups containing at least one convolutional layer, including an average full layer, a fully connected layer and a softmax layer,
    적어도 하나의 콘볼루션 레이어 그룹은, 숏컷을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.At least one convolutional layer group, including a shortcut, a signal processing apparatus using a vehicle radar.
  11. 제10항에 있어서,11. The method of claim 10,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    100×91×3 픽셀 크기의 이미지에서 5×5×3크기의 필터 16개를 1픽셀 간격으로 2패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.A method of extracting a 100×91×16 micro Doppler pattern feature map by moving 16 5×5×3 filters in the up, down, left, and right directions at intervals of 1 pixel from an image of 100×91×3 pixels. 1 A signal processing apparatus using a vehicle radar, including a convolutional layer group.
  12. 제11항에 있어서,12. The method of claim 11,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    상기 제1 컨벌루션 레이어 그룹을 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어와, 상기 제1 컨벌루션 레이어를 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어를 포함하는 제2 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.In the micro-Doppler pattern feature map of size 100×91×16 output through the first convolutional layer group, 16 filters of size 3×3×16 are moved up, down, left, and right by one padding at 1-pixel intervals in the 100×91 A first convolutional layer for extracting a micro-Doppler pattern feature map with a size of ×16, and 16 filters of a size of 3×3×16 from a micro-Doppler pattern feature map with a size of 100×91×16 output through the first convolution layer A signal using a vehicle radar, including a second convolutional layer group including a second convolutional layer for extracting a micro Doppler pattern feature map of 100 × 91 × 16 by moving one padding at intervals of 1 pixel in the vertical, left and right directions. processing unit.
  13. 제12항에 있어서,13. The method of claim 12,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    상기 제2 컨벌루션 레이어 그룹을 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어와, 상기 제1 컨벌루션 레이어를 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 16개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 100×91×16 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어를 포함하는 제3 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.In the micro-Doppler pattern feature map of size 100×91×16 output through the second convolutional layer group, 16 filters of size 3×3×16 are moved up, down, left, and right by one padding at 1-pixel intervals in the 100×91 A first convolutional layer for extracting a micro-Doppler pattern feature map with a size of ×16, and 16 filters of a size of 3×3×16 from a micro-Doppler pattern feature map with a size of 100×91×16 output through the first convolution layer A signal using a vehicle radar, including a third convolutional layer group including a second convolutional layer for extracting a 100×91×16 micro Doppler pattern feature map by moving 1 padding at 1 pixel intervals in the vertical, left and right directions. processing unit.
  14. 제13항에 있어서,14. The method of claim 13,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    상기 제3 컨벌루션 레이어 그룹을 통해 출력된 100×91×16 크기의 마이크로 도플러 패턴 특징맵에서 3×3×16 크기의 필터 32개를 2픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어와, 상기 제1 컨벌루션 레이어를 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 32개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어를 포함하는 제4 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.In the 100×91×16 micro-Doppler pattern feature map output through the third convolutional layer group, 32 filters of 3×3×16 size are moved up, down, left, and right by one padding at 2 pixel intervals in the vertical, left, and right direction to 50×46 A first convolutional layer for extracting a micro-Doppler pattern feature map with a size of ×32, and 32 filters of a size of 3×3×32 from a micro-Doppler pattern feature map with a size of 50×46×32 output through the first convolution layer A signal using a vehicle radar, including a fourth convolutional layer group including a second convolutional layer that extracts a 50×46×32 micro Doppler pattern feature map by moving 1 padding at 1 pixel intervals in the vertical, left and right directions. processing unit.
  15. 제14항에 있어서,15. The method of claim 14,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    상기 제4 컨벌루션 레이어 그룹을 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 32개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어와, 상기 제1 컨벌루션 레이어를 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 32개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 50×46×32 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어를 포함하는 제5 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.In the 50×46×32 micro-Doppler pattern feature map output through the fourth convolutional layer group, 32 filters of 3×3×32 size are moved up, down, left, and right by one padding at 1-pixel intervals in the 50×46 A first convolutional layer for extracting a micro-Doppler pattern feature map with a size of ×32, and 32 filters of a size of 3×3×32 from a micro-Doppler pattern feature map with a size of 50×46×32 output through the first convolution layer A signal using a vehicle radar, including a fifth convolutional layer group including a second convolutional layer for extracting a 50×46×32 micro Doppler pattern feature map by moving 1 padding at 1 pixel intervals in the vertical and horizontal directions. processing unit.
  16. 제15항에 있어서,16. The method of claim 15,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    상기 제5 컨벌루션 레이어 그룹을 통해 출력된 50×46×32 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 64개를 2픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어와, 상기 제1 컨벌루션 레이어를 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 64개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어를 포함하는 제6 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.In the 50×46×32-sized micro-Doppler pattern feature map output through the fifth convolutional layer group, 64 filters of 3×3×32 size are moved up, down, left, and right by one padding at 2-pixel intervals in the 25×23 A first convolutional layer for extracting a micro-Doppler pattern feature map with a size of ×64, and 64 filters of a size of 3×3×32 from a micro-Doppler pattern feature map with a size of 25×23×64 output through the first convolution layer A signal using a vehicle radar, including a sixth convolutional layer group including a second convolutional layer for extracting a 25 × 23 × 64 micro Doppler pattern feature map by moving 1 padding at 1 pixel intervals in the vertical and horizontal directions. processing unit.
  17. 제16항에 있어서,17. The method of claim 16,
    상기 7개의 컨벌루션 레이어 그룹은,The seven convolutional layer groups are
    상기 제6 컨벌루션 레이어 그룹을 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 3×3×64 크기의 필터 64개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제1 컨벌루션 레이어와, 상기 제1 컨벌루션 레이어를 통해 출력된 25×23×64 크기의 마이크로 도플러 패턴 특징맵에서 3×3×32 크기의 필터 64개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 25×23×64 크기의 마이크로 도플러 패턴 특징맵을 추출하는 제2 컨벌루션 레이어를 포함하는 제7 컨벌루션 레이어 그룹을 포함하는, 차량용 레이더를 이용한 신호 처리 장치.In the 25×23×64 micro-Doppler pattern feature map output through the sixth convolutional layer group, 64 filters of 3×3×64 size are moved up, down, left, and right by one padding at 1-pixel intervals in the 25×23 A first convolutional layer for extracting a micro-Doppler pattern feature map with a size of ×64, and 64 filters of a size of 3×3×32 from a micro-Doppler pattern feature map with a size of 25×23×64 output through the first convolution layer A signal using a vehicle radar, including a seventh convolutional layer group including a second convolutional layer for extracting a micro-Doppler pattern feature map of 25 × 23 × 64 by moving one padding at intervals of one pixel in the vertical, left and right directions. processing unit.
  18. 제12항 내지 제17항 중 어느 한 항에 있어서,18. The method according to any one of claims 12 to 17,
    상기 제2 컨벌루션 레이어 그룹 내지 상기 제7 컨벌루션 레이어 그룹은,The second convolutional layer group to the seventh convolutional layer group include,
    이전 단계에서 추출된 마이크로 도플러 패턴 특징맵과 현 단계에서 추출된 마이크로 도플러 패턴 특징맵의 요소별 정보를 숏컷을 통해 결합하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing device using a vehicle radar that combines element-specific information of the micro Doppler pattern feature map extracted in the previous step and the micro Doppler pattern feature map extracted in the current step through a shortcut.
  19. 제17항에 있어서,18. The method of claim 17,
    상기 에버리지 풀 레이어는,The average full layer is,
    상기 제7 컨벌루션 레이어 그룹을 통해 출력된 23×23×64 크기의 마이크로 도플러 패턴 특징맵에서 7×7×64 크기의 필터 1개를 1픽셀 간격으로 1패딩씩 상하좌우방향으로 이동하여 1×1×64 크기의 마이크로 도플러 패턴 특징맵을 추출하고, In the micro-Doppler pattern feature map of size 23×23×64 output through the seventh convolutional layer group, one filter of size 7×7×64 is moved up, down, left, and right by one padding at 1-pixel intervals in the direction of 1×1 Extracting a micro-Doppler pattern feature map of ×64 size,
    상기 풀 커넥티드 레이어는, 상기 에버리지 풀 레이어와 연결되어 64 및 2 노드들을 입력 및 출력으로 각각 가지며, 64×2 만큼의 가중치들을 이용하여 마이크로 마이크로 도플러 패턴 특징맵을 축소하고,The fully connected layer is connected to the average full layer and has 64 and 2 nodes as inputs and outputs, respectively, and reduces the micro-micro Doppler pattern feature map using weights of 64×2,
    상기 소프트맥스 레이어는, 상기 풀 커넥티드 레이어를 통해 출력된 마이크로 마이크로 도플러 패턴 특징맵이 보행자 또는 비보행자일 확률을 산출하는, 차량용 레이더를 이용한 신호 처리 장치. The softmax layer is a signal processing device using a vehicle radar to calculate a probability that the micro-micro Doppler pattern feature map output through the fully connected layer is a pedestrian or a non-pedestrian.
  20. 제19항에 있어서,20. The method of claim 19,
    상기 분류 모듈은,The classification module is
    산출된 상기 확률에 따라 상기 대상물을 보행자 또는 비보행자로 분류하는, 차량용 레이더를 이용한 신호 처리 장치.A signal processing apparatus using a vehicle radar for classifying the object as a pedestrian or a non-pedestrian according to the calculated probability.
  21. RF 모듈에서, 송신된 FMCW(Frequency Modulation Continuous Wave) 신호와 시간에 따라 움직임 또는 움직임을 포함한 위치 중 어느 하나가 변하는 대상물에 의해 반사되어 수신된 FMCW 신호의 차 주파수인 비트 주파수 신호를 생성하는 제1 단계;In the RF module, the transmitted FMCW (Frequency Modulation Continuous Wave) signal and the first that is reflected by an object whose position including movement or movement with time is changed to generate a beat frequency signal that is a difference frequency between the received FMCW signal step;
    신호 처리 모듈에서, 생성된 상기 비트 주파수 신호를 기반으로 마이크로 도플러 주파수 변화 패턴의 이미지를 생성하는 제2 단계; 및a second step of generating, in a signal processing module, an image of a micro-Doppler frequency change pattern based on the generated beat frequency signal; and
    CNN(Convolution Neural Network) 모듈에서, 생성된 상기 마이크로 도플러 주파수 변화 패턴의 이미지에 따라 상기 대상물을 분류하는 제3 단계;를 포함하는, 차량용 레이더를 이용한 신호 처리 방법.A third step of classifying the object according to the generated image of the micro-Doppler frequency change pattern in a CNN (Convolution Neural Network) module; including; a signal processing method using a vehicle radar.
  22. 제21항의 방법을 컴퓨터상에서 실행하기 위한 프로그램을 기록한, 컴퓨터로 독출 가능한 기록 매체.A computer-readable recording medium recording a program for executing the method of claim 21 on a computer.
PCT/KR2021/006133 2020-06-12 2021-05-17 Signal processing apparatus and method using vehicle radar sensor, and computer-readable recording medium WO2021251637A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR10-2020-0071633 2020-06-12
KR1020200071633A KR102212109B1 (en) 2020-06-12 2020-06-12 Apparatus and method of precessing signal using vehicular radar sensor, computer readable medium

Publications (1)

Publication Number Publication Date
WO2021251637A1 true WO2021251637A1 (en) 2021-12-16

Family

ID=74558683

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2021/006133 WO2021251637A1 (en) 2020-06-12 2021-05-17 Signal processing apparatus and method using vehicle radar sensor, and computer-readable recording medium

Country Status (2)

Country Link
KR (1) KR102212109B1 (en)
WO (1) WO2021251637A1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102212109B1 (en) * 2020-06-12 2021-02-04 (주)이씨스 Apparatus and method of precessing signal using vehicular radar sensor, computer readable medium
KR102377226B1 (en) * 2021-09-02 2022-03-22 주식회사 세렉스 Machine learning-based perimeter intrusion detection system using radar
US11536801B1 (en) * 2021-10-27 2022-12-27 Aurora Operations, Inc. Vehicle radar sensor utilizing non-uniform frequency modulated continuous wave (FMCW) chirps

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006103391A1 (en) * 2005-03-29 2006-10-05 Qinetiq Limited Coherent frequency modulated continuous wave radar
KR20180042052A (en) * 2016-10-17 2018-04-25 한국전자통신연구원 Target detection apparatus and method using fmcw radar
KR20190040637A (en) * 2017-10-11 2019-04-19 한국전자통신연구원 SYSTEM AND METHOD FOR ESTIMATING RADAR DoA
KR20200023221A (en) * 2018-08-23 2020-03-04 서울대학교산학협력단 Method and system for real-time target tracking based on deep learning
KR102212109B1 (en) * 2020-06-12 2021-02-04 (주)이씨스 Apparatus and method of precessing signal using vehicular radar sensor, computer readable medium

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018183546A1 (en) * 2017-03-28 2018-10-04 Sri International Identification system for subject or activity identification using range and velocity data

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006103391A1 (en) * 2005-03-29 2006-10-05 Qinetiq Limited Coherent frequency modulated continuous wave radar
KR20180042052A (en) * 2016-10-17 2018-04-25 한국전자통신연구원 Target detection apparatus and method using fmcw radar
KR20190040637A (en) * 2017-10-11 2019-04-19 한국전자통신연구원 SYSTEM AND METHOD FOR ESTIMATING RADAR DoA
KR20200023221A (en) * 2018-08-23 2020-03-04 서울대학교산학협력단 Method and system for real-time target tracking based on deep learning
KR102212109B1 (en) * 2020-06-12 2021-02-04 (주)이씨스 Apparatus and method of precessing signal using vehicular radar sensor, computer readable medium

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
ANGELOV ALEKSANDAR; ROBERTSON ANDREW; MURRAY-SMITH RODERICK; FIORANELLI FRANCESCO: "Practical classification of different moving targets using automotive radar and deep neural networks", IET RADAR SONAR NAVIGATION, THE INSTITUTION OF ENGINEERING AND TECHNOLOGY, UK, vol. 12, no. 10, 1 October 2018 (2018-10-01), UK , pages 1082 - 1089, XP006069594, ISSN: 1751-8784, DOI: 10.1049/iet-rsn.2018.0103 *

Also Published As

Publication number Publication date
KR102212109B1 (en) 2021-02-04

Similar Documents

Publication Publication Date Title
WO2021251637A1 (en) Signal processing apparatus and method using vehicle radar sensor, and computer-readable recording medium
CN109271838B (en) FMCW radar-based three-parameter feature fusion gesture recognition method
EP1303767B1 (en) Method and apparatus for recognising a radar target
CN111123212B (en) Signal processing method of scene surveillance radar based on complex clutter background
CN111157988B (en) Gesture radar signal processing method based on RDTM and ATM fusion
CN112835009B (en) Data set expanding method based on RAI (radar-ranging) of FMCW (frequency modulated continuous wave)
WO2022220464A1 (en) Dnn-based human face classificati0n
WO2021002733A1 (en) Device and method for recognizing gesture in air
CN107564285A (en) Vehicle queue length detection method and system based on microwave
CN201270046Y (en) Terminal timing system based on linear array CCD
CN111929685A (en) Radar detection method and device based on linear frequency modulation continuous wave, radar device and motor vehicle
CN116824629A (en) High-robustness gesture recognition method based on millimeter wave radar
Wang et al. Use of digital cameras for pavement surface distress survey
CN104914416B (en) A kind of UHF waveband SAR GMTI moving-target screening techniques
CN202887456U (en) Traffic flow video detection device
JPH06161339A (en) Hologram observation device
JP3407045B2 (en) Millimeter-wave sensor signal processing method
Liang et al. Energy and width features-based SVM for vehicles classification using low power consumption radar
CN112782665B (en) Data set expanding method based on FMCW radar RDI
CN113820701A (en) High-frame-frequency rapid target detection method based on two-dimensional frequency phase scanning array
CN107886774B (en) A kind of bridge intelligent early-warning anticollision device
CN116430354B (en) FMCW laser radar target information resolving method and system
WO2020013433A1 (en) High-accuracy and high-speed wireless positioning method and apparatus
JPH10334395A (en) Method and device for measuring traffic information
Tang et al. Experimental results of target classification using mm wave corner radar sensors

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21822821

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21822821

Country of ref document: EP

Kind code of ref document: A1