KR20240001968A - FMCW radar using deep learning and method for improving of range precision the same - Google Patents

FMCW radar using deep learning and method for improving of range precision the same Download PDF

Info

Publication number
KR20240001968A
KR20240001968A KR1020220078947A KR20220078947A KR20240001968A KR 20240001968 A KR20240001968 A KR 20240001968A KR 1020220078947 A KR1020220078947 A KR 1020220078947A KR 20220078947 A KR20220078947 A KR 20220078947A KR 20240001968 A KR20240001968 A KR 20240001968A
Authority
KR
South Korea
Prior art keywords
equation
target
distance
signal
spectrum
Prior art date
Application number
KR1020220078947A
Other languages
Korean (ko)
Inventor
이성주
조호민
Original Assignee
세종대학교산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 세종대학교산학협력단 filed Critical 세종대학교산학협력단
Priority to KR1020220078947A priority Critical patent/KR20240001968A/en
Publication of KR20240001968A publication Critical patent/KR20240001968A/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/536Discriminating between fixed and moving objects or between objects moving at different speeds using transmission of continuous unmodulated waves, amplitude-, frequency-, or phase-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/06Systems determining position data of a target
    • G01S13/08Systems for measuring distance only
    • G01S13/32Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S13/34Systems for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated using transmission of continuous, frequency-modulated waves while heterodyning the received signal, or a signal derived therefrom, with a locally-generated signal related to the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/35Details of non-pulse systems
    • G01S7/352Receivers
    • G01S7/356Receivers involving particularities of FFT processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

본 발명은 타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호를 각각 생성하는 제 1 및 제 2 레이더; 상기 제 1 및 제 2 레이더 각각의 중간 주파수로부터 피크 검출을 통해 피크 인덱스(

Figure pat00115
)를 각각 구하는 제 1 및 제 2 피크 검출부; 상기 피크 인덱스(
Figure pat00116
)에 해당하는 정수배(n)와 그 일정 값(ncenter)의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 시프트시키는 제 1 및 제 2 스펙트럼 시프트부; 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 딥러닝부; 및 상기 타겟의 소수배 거리를 정수배로 복원하는 스펙트럼 복원부를 포함하는 딥러닝을 이용한 FMCW 레이더 및 거리 해상도 향상 방법이 제시된다.The present invention includes first and second radars that respectively generate intermediate frequency signals using a transmitted signal radiated to a target and a received signal reflected from the target; Peak index through peak detection from the intermediate frequencies of each of the first and second radars (
Figure pat00115
) first and second peak detection units respectively calculating; The peak index (
Figure pat00116
) Calculate the frequency difference between an integer multiple (n) and the constant value (n center ) and shift the spectrum by the difference; A deep learning unit that inputs a spectrum-shifted frequency signal and infers the decimal distance of the target using deep learning; An FMCW radar using deep learning and a method for improving range resolution are presented, including a spectrum restoration unit that restores the fractional distance of the target to an integer multiple.

Figure P1020220078947
Figure P1020220078947

Description

딥러닝을 이용한 FMCW 레이더 및 거리 해상도 향상 방법{FMCW radar using deep learning and method for improving of range precision the same}FMCW radar using deep learning and method for improving range precision the same}

본 발명은 FMCW 레이더 장치에 관한 것으로, 특히 스펙트럼 시프트(spectrum shift)를 이용하여 인공지능 구조를 단순화시키면서 거리 해상도를 향상시킬 수 있는 딥러닝을 이용한 FMCW 레이더 및 거리 해상도 향상 방법에 관한 것이다.The present invention relates to an FMCW radar device, and in particular, to an FMCW radar and a method for improving distance resolution using deep learning that can improve distance resolution while simplifying the artificial intelligence structure using spectrum shift.

레이더(Radar)는 전자기파를 방출하고 해당 영역 내의 타겟에 의해 반사되는 반사파를 수신하여 타겟의 존재와 그 거리를 탐지하는 장치이다. 이러한 레이더는 적용되는 송신 신호의 변조(Modulation) 방식에 따라 펄스(pulse) 방식, FMCW(Frequency Modulated Continuous Wave) 방식, 주파수 편이(Frequency Shift Keying; FSK) 방식 등이 있으며, 각각의 변조 방식에 따라 타겟의 속도 및 거리를 추출하는 방법이 달라진다.Radar is a device that detects the presence of a target and its distance by emitting electromagnetic waves and receiving reflected waves reflected by the target in the area. These radars include pulse method, FMCW (Frequency Modulated Continuous Wave) method, and Frequency Shift Keying (FSK) method depending on the modulation method of the applied transmission signal. Depending on each modulation method, The method of extracting the speed and distance of the target changes.

여기서, FMCW 레이더는 연속파 신호를 송신하면서 타겟으로부터의 반사파 신호를 동시에 수신한다. 이때, FMCW 레이더는 송신 신호와 수신 신호의 차 주파수 성분인 비트 주파수를 이용하여 타겟의 상대 거리 정보 및 상대 속도 정보를 추출한다. FMCW 레이더는 초고주파를 사용하므로 외부 환경에 영향을 받지 않으면서도 비교적 간단하게 구현 가능하다. 따라서, FMCW 레이더는 군사용 뿐만 아니라 자율주행 자동차 등의 민간 분야에서 그 사용이 점차 증가하고 있다. Here, the FMCW radar transmits a continuous wave signal and simultaneously receives a reflected wave signal from the target. At this time, the FMCW radar extracts the relative distance information and relative speed information of the target using the beat frequency, which is the difference frequency component between the transmitted signal and the received signal. Because FMCW radar uses ultra-high frequencies, it can be implemented relatively simply without being affected by the external environment. Therefore, the use of FMCW radar is gradually increasing not only in military applications but also in civilian fields such as self-driving cars.

FMCW 레이더는 타겟과의 거리 해상도가 중요하다. 즉, FMCW 레이더의 성능은 타겟의 위치와 속도 등을 정확하게 탐지하는 것이 중요하다. 이때, FMCW 레이더의 거리 해상도는 주파수 대역폭으로 결정될 수 있다.For FMCW radar, distance resolution from the target is important. In other words, it is important for the performance of the FMCW radar to accurately detect the target's location and speed. At this time, the distance resolution of the FMCW radar can be determined by the frequency bandwidth.

한편, 레이저의 거리 해상도를 향상시키기 위해 인공지능 기술을 적용할 수 있다. 인공지능 기술은 비지도 학습(Unsupervised Learning), 지도 학습(Supervised Learning) 등으로 나눌 수 있다. 비지도 학습은 정답을 주지 않고 입력되는 데이터에 의해서 스스로 학습하는 방법이고, 지도 학습은 데이터와 정답을 같이 입력하여 학습하는 방법이다. 레이더는 주로 지도 학습을 이용해서 거리 해상도를 향상시킨다. 타겟의 위치를 정하고(정답), 레이더로 측정해 나온 스펙트럼(데이터)을 같이 입력으로 넣어주는 방식이다. 이 방법은 타겟의 위치를 빈(bin) 사이에 있게 위치시켜가며 스펙트럼 정보를 모으고 인공지능 모델에 학습시켜주면, 인공지능은 빈(bin) 사이에 숨어있는 피크 값을 찾아내어 보다 정확한 타겟의 위치를 알아낼 수 있다. 그러나, 이 방법은 거리를 직접 설정해주어야 하는 문제가 있다. 일반적으로 '정답'은 인공지능에서 '라벨(label)'이라고 표현하는데, 이 라벨은 라벨에 맞는 데이터가 있어야 한다. 타겟하는 거리 해상도가 작으면, 각 빈(bin) 사이에 존재하는 라벨의 수가 많아야 하고, 이에 따라서 학습 데이터도 많아진다. 또한, 타겟의 거리가 멀어지거나 탐지 범위가 넓어질수록 라벨의 수가 증가한다. 라벨의 수는 무한할 수 없을 뿐만아니라 인공지능 구조를 복잡하게 만드는 원인이 되기 때문에 탐지 범위와 라벨의 개수는 적절하게 제한돼야 한다.Meanwhile, artificial intelligence technology can be applied to improve the distance resolution of the laser. Artificial intelligence technology can be divided into unsupervised learning and supervised learning. Unsupervised learning is a method of learning on your own by inputting data without providing the correct answer, while supervised learning is a method of learning by inputting data and the correct answer together. Radar mainly uses supervised learning to improve distance resolution. This method determines the location of the target (correct answer) and inputs the spectrum (data) measured by radar as input. This method collects spectrum information by locating the target between bins and trains it in an artificial intelligence model. The artificial intelligence finds the peak value hidden between the bins to provide a more accurate location of the target. can be found out. However, this method has the problem of having to set the distance directly. In general, the 'correct answer' is expressed as a 'label' in artificial intelligence, and this label must have data that matches the label. If the target distance resolution is small, the number of labels that exist between each bin must be large, and thus the training data also increases. Additionally, as the distance to the target increases or the detection range widens, the number of labels increases. Not only can the number of labels be infinite, but it also complicates the artificial intelligence structure, so the detection range and number of labels must be appropriately limited.

예를 들어, 1m의 거리 해상도를 가진 레이더로 0.1m 간격으로 거리를 추정하려면, 미터당 10개의 라벨이 필요하고, 라벨당 N개 이상의 학습 데이터를 구해야 한다. 최대 측정 범위가 50m라고 한다면, 라벨의 수는 50×10=500개가 되고, 학습에 필요한 데이터양은 500N이 된다. 즉, 라벨의 수가 많아지고 그에 따라 인공지능 구조를 복잡하게 한다.For example, to estimate the distance at 0.1m intervals with a radar with a distance resolution of 1m, 10 labels per meter are needed, and more than N pieces of training data per label must be obtained. If the maximum measurement range is 50m, the number of labels is 50 × 10 = 500, and the amount of data required for learning is 500N. In other words, the number of labels increases, thereby complicating the artificial intelligence structure.

한국특허등록 제10-1908490호Korean Patent Registration No. 10-1908490

본 발명은 인공지능을 적용하여 거리 해상도를 향상시킬 수 있는 딥러닝을 이용한 FMCW 레이더 및 거리 해상도 향상 방법을 제공한다.The present invention provides an FMCW radar and a method for improving distance resolution using deep learning that can improve distance resolution by applying artificial intelligence.

본 발명은 스펙트럼 시프트를 이용하여 인공지능 구조를 단순화할 수 있는 딥러닝을 이용한 FMCW 레이더 및 거리 해상도 향상 방법을 제공한다.The present invention provides an FMCW radar and a method for improving range resolution using deep learning that can simplify the artificial intelligence structure using spectrum shift.

본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더는 타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호를 각각 생성하는 제 1 및 제 2 레이더; 상기 제 1 및 제 2 레이더 각각의 중간 주파수로부터 피크 검출을 통해 피크 인덱스(

Figure pat00001
)를 각각 구하는 제 1 및 제 2 피크 검출부; 상기 피크 인덱스(
Figure pat00002
)에 해당하는 정수배(n)와 그 일정 값(ncenter)의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 시프트시키는 제 1 및 제 2 스펙트럼 시프트부; 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 딥러닝부; 상기 타겟의 소수배 거리를 정수배로 복원하는 스펙트럼 복원부를 포함한다.An FMCW radar using deep learning according to an embodiment of the present invention includes first and second radars that respectively generate intermediate frequency signals using a transmitted signal radiated to a target and a received signal reflected from the target; Peak index through peak detection from the intermediate frequencies of each of the first and second radars (
Figure pat00001
) first and second peak detection units respectively calculating; The peak index (
Figure pat00002
) Calculate the frequency difference between an integer multiple (n) and the constant value (n center ) and shift the spectrum by the difference; A deep learning unit that inputs a spectrum-shifted frequency signal and infers the decimal distance of the target using deep learning; It includes a spectrum restoration unit that restores the fractional distance of the target to an integer multiple.

상기 스펙트럼 복원부를 통해 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정하는 타겟 추정부를 더 포함한다.It further includes a target estimation unit that estimates spatial coordinates of the target using the spectrum restored through the spectrum restoration unit.

상기 제 1 및 제 2 레이더 각각은, FMCW 파형의 송신 신호를 방사하는 송신 안테나와, 타겟으로부터 반사된 신호를 수신하는 수신 안테나와, 송신 신호와 수신 신호를 믹싱하는 믹서와, 믹싱 신호를 고속 푸리에 변환하여 중간 주파수 신호를 생성하는 고속 푸리에 변환기를 포함한다.Each of the first and second radars includes a transmission antenna that radiates a transmission signal of an FMCW waveform, a reception antenna that receives a signal reflected from the target, a mixer that mixes the transmission signal and the reception signal, and a fast Fourier transformer for mixing the mixed signal. It contains a fast Fourier transformer that converts and generates an intermediate frequency signal.

상기 제 1 및 제 2 스펙트럼 시프트부는 타겟의

Figure pat00003
과 ncenter의 인덱스 차이(bindiff)를 수학식 10과 같이 구하고, 이동시켜야 할 주파수(fdiff)를 구한 후 스펙트럼 시프트된 신호를 구하며, 스펙트럼 시프트된 신호를 샘플링한 후 주파수 변환하여 주파수를 이동시킨다.The first and second spectrum shift units are
Figure pat00003
Find the index difference (bin diff ) between n center and n center as shown in Equation 10, find the frequency to be moved (f diff ), find the spectrum shifted signal, sample the spectrum shifted signal, and then move the frequency by converting the frequency. I order it.

[수학식 10][Equation 10]

Figure pat00004
Figure pat00004

상기 이동시켜야 할 주파수(fdiff)는 수학식 10으로부터 산출된 인덱스 차이(bindiff)에 빈(bin) 사이의 간격 주파수(fs/N)를 곱하여 수학식 11과 같이 구한다.The frequency to be moved (f diff ) is obtained as shown in Equation 11 by multiplying the index difference (bin diff ) calculated from Equation 10 by the interval frequency between bins (fs/N).

[수학식 11][Equation 11]

Figure pat00005
Figure pat00005

여기서, N은 FFT 포인트 수를 의미하고, fs는 샘플링 주파수이다. Here, N refers to the number of FFT points, and fs is the sampling frequency.

상기 스펙트럼 시프트된 신호는 수학식 12를 이용하여 구한다.The spectrum shifted signal is obtained using Equation 12.

[수학식 12][Equation 12]

Figure pat00006
Figure pat00006

여기서, sIF는 시간 도메인에서의 IF 신호이고, sshift는 스펙트럼 시프트된 신호이다.Here, s IF is an IF signal in the time domain, and s shift is a spectrum shifted signal.

상기 신호 샘플링은 수학식 12에 t=nTs를 적용해서 수학식 13과 같이 구한다.The signal sampling is obtained as in Equation 13 by applying t=nT s to Equation 12.

[수학식 13][Equation 13]

Figure pat00007
Figure pat00007

여기서, t는 시간 변수이고, n는 0부터 (N-1)까지의 범위를 갖는 샘플 인덱스이며, Ts는 샘플링 주기이다.Here, t is a time variable, n is a sample index ranging from 0 to (N-1), and Ts is the sampling period.

상기 주파수 이동은 수학식 13을 수학식 14로 변환한 후 주파수 변환하여 수학식 15와 같이 구한다.The frequency shift is obtained by converting Equation 13 to Equation 14 and then converting the frequency to Equation 15.

[수학식 14][Equation 14]

Figure pat00008
Figure pat00008

[수학식 15][Equation 15]

Figure pat00009
Figure pat00009

여기서, Sshift와 SIF는 각각 sshift와 sIF를 푸리에 변환한 것이다. Here, S shift and S IF are the Fourier transforms of s shift and s IF , respectively.

상기 딥러닝부는 입력 레이어, 컨볼루션 레이어, 풀링 레이어, 완전히 연결된(fully connected) 레이어를 포함하고, 소프트맥스(softmax) 및 분류(classification) 작업을 진행하는 CNN 구조를 이용한다.The deep learning unit uses a CNN structure that includes an input layer, a convolution layer, a pooling layer, and a fully connected layer, and performs softmax and classification tasks.

상기 딥러닝부는 스펙트럼 시프트된 주파수 신호가 입력되어 라벨이 출력되는 과정으로 이루어지며, 수학식 16을 통해 소수배 거리 k로 변환된다.The deep learning unit consists of a process in which a spectrum-shifted frequency signal is input and a label is output, and is converted to a decimal distance k through Equation 16.

[수학식 16][Equation 16]

Figure pat00010
Figure pat00010

여기서, 트레인드 영역(trained area)은 학습 영역에서 가장 작은 거리를 나타내고, 라벨(label)이 커질수록 레이더로부터 더 멀리 있는 타겟이 된다. labelres는 라벨 해상도(label resolution)로 하나의 라벨이 나타내는 거리를 나타내고, 라벨 해상도는 레이더 거리 해상도 보다 좁은 간격으로 설정된다.Here, the trained area represents the smallest distance in the learning area, and the larger the label, the farther the target is from the radar. label res represents the distance indicated by one label as label resolution, and the label resolution is set at intervals narrower than the radar distance resolution.

상기 라벨 해상도는 수학식 17과 같이 거리 해상도를 전체 라벨의 수로 나눠준 거리가 된다.The label resolution is the distance obtained by dividing the distance resolution by the total number of labels, as shown in Equation 17.

[수학식 17][Equation 17]

Figure pat00011
Figure pat00011

여기서, m은 전체 라벨의 수이고, Rres는 거리 해상도이다.Here, m is the total number of labels and Rres is the distance resolution.

상기 스펙트럼 복원부는 타겟의 거리가

Figure pat00012
일 때, 스펙트럼 시프트를 통해서
Figure pat00013
이 되므로
Figure pat00014
를 더해줘서 정수배 거리로 복원한다.The spectrum restoration unit determines the distance to the target.
Figure pat00012
When, through spectral shift
Figure pat00013
Because this happens
Figure pat00014
By adding , it is restored to an integer multiple distance.

본 발명의 다른 실시 예에 따른 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법은 타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호를 생성하는 과정; 상기 중간 주파수로부터 피크 검출을 통해 피크 인덱스(

Figure pat00015
)를 각각 구하는 과정; 상기 피크 인덱스(
Figure pat00016
)에 해당하는 정수배(n)와 그 일정 값(ncenter)의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 시프트시키는 과정; 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 과정; 및 상기 타겟의 소수배 거리를 정수배로 복원하는 과정을 포함한다.A method of improving the range resolution of an FMCW radar using deep learning according to another embodiment of the present invention includes the process of generating an intermediate frequency signal using a transmitted signal radiated to a target and a received signal reflected from the target; Peak index through peak detection from the intermediate frequency (
Figure pat00015
) process of calculating each; The peak index (
Figure pat00016
A process of calculating the frequency difference between an integer multiple (n) corresponding to ) and a certain value (n center ) and shifting the spectrum by the difference; A process of inputting a spectrally shifted frequency signal and inferring the decimal distance of the target using deep learning; and a process of restoring the decimal multiple distance of the target to an integer multiple.

상기 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정하는 과정을 더 포함한다.It further includes a process of estimating the spatial coordinates of the target using the restored spectrum.

상기 중간 주파수를 생성하는 과정은, 송신 신호를 방사하고 타겟으로부터 반사된 신호를 수신한 후 송신 신호와 수신 신호를 믹싱하고 고속 푸리에 변환하여 상기 중간 주파수를 생성한다.In the process of generating the intermediate frequency, the intermediate frequency is generated by radiating a transmitted signal and receiving a signal reflected from the target, mixing the transmitted signal and the received signal, and performing fast Fourier transform.

상기 스펙트럼 시프트 과정은, 수학식 10으로부터 타겟의

Figure pat00017
과 ncenter의 인덱스 차이(bindiff)를 구하는 과정과, 상기 인덱스 차이(bindiff)에 빈(bin) 사이의 간격 주파수(fs/N)를 곱하여 수학식 11과 같이 이동시켜야 할 주파수(fdiff)를 구하는 과정과, 수학식 12를 이용하여 스펙트럼 시프트된 신호를 구하는 과정과, 수학식 12에 t=nTs를 적용해서 수학식 13과 같이 스펙트럼 시프트된 신호를 샘플링하는 과정과, 수학식 13을 수학식 14로 변환한 후 주파수 변환하여 수학식 15와 같이 주파수를 이동시키는 과정을 포함한다.The spectrum shift process is, from Equation 10, the target
Figure pat00017
The process of calculating the index difference (bin diff ) between n center and the index difference (bin diff ) is multiplied by the frequency of the interval between bins (fs/N) to calculate the frequency (f diff ) to be moved as shown in Equation 11. ), a process of obtaining a spectrum shifted signal using Equation 12, a process of sampling the spectrum shifted signal as shown in Equation 13 by applying t=nT s to Equation 12, and Equation 13 It includes the process of converting to Equation 14, then converting the frequency, and moving the frequency as shown in Equation 15.

[수학식 10][Equation 10]

Figure pat00018
Figure pat00018

[수학식 11][Equation 11]

Figure pat00019
Figure pat00019

여기서, N은 FFT 포인트 수를 의미하고, fs는 샘플링 주파수이다. Here, N refers to the number of FFT points, and fs is the sampling frequency.

[수학식 12][Equation 12]

Figure pat00020
Figure pat00020

여기서, sIF는 시간 도메인에서의 IF 신호이고, sshift는 스펙트럼 시프트된 신호이다.Here, s IF is an IF signal in the time domain, and s shift is a spectrum shifted signal.

[수학식 13][Equation 13]

Figure pat00021
Figure pat00021

여기서, t는 시간 변수이고, n는 0부터 (N-1)까지의 범위를 갖는 샘플 인덱스이며, Ts는 샘플링 주기이다.Here, t is a time variable, n is a sample index ranging from 0 to (N-1), and Ts is the sampling period.

[수학식 14][Equation 14]

Figure pat00022
Figure pat00022

[수학식 15][Equation 15]

Figure pat00023
Figure pat00023

여기서, Sshift와 SIF는 각각 sshift와 sIF를 푸리에 변환한 것이다. Here, S shift and S IF are the Fourier transforms of s shift and s IF , respectively.

상기 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 과정은 스펙트럼 시프트된 주파수 신호가 입력되어 라벨이 출력되는 과정으로, 수학식 16을 통해 소수배 거리 k로 변환된다.The process of inferring the decimal distance of a target using deep learning is a process in which a spectrum-shifted frequency signal is input and a label is output, which is converted to the decimal distance k through Equation 16.

[수학식 16][Equation 16]

Figure pat00024
Figure pat00024

여기서, 트레인드 영역(trained area)은 학습 영역에서 가장 작은 거리를 나타내고, 라벨(label)이 커질수록 레이더로부터 더 멀리 있는 타겟이 된다. labelres는 라벨 해상도(label resolution)로 하나의 라벨이 나타내는 거리를 나타내고, 라벨 해상도는 레이더 거리 해상도 보다 좁은 간격으로 설정된다.Here, the trained area represents the smallest distance in the learning area, and the larger the label, the farther the target is from the radar. label res represents the distance indicated by one label as label resolution, and the label resolution is set at intervals narrower than the radar distance resolution.

상기 라벨 해상도는 수학식 17과 같이 거리 해상도를 전체 라벨의 수로 나눠준 거리가 된다.The label resolution is the distance obtained by dividing the distance resolution by the total number of labels, as shown in Equation 17.

[수학식 17][Equation 17]

Figure pat00025
Figure pat00025

여기서, m은 전체 라벨의 수이고, Rres는 거리 해상도이다.Here, m is the total number of labels and Rres is the distance resolution.

상기 타겟의 소수배 거리를 정수배로 복원하는 과정은, 타겟의 거리가

Figure pat00026
일 때, 스펙트럼 시프트를 통해서
Figure pat00027
이 되므로
Figure pat00028
를 더해줘서 정수배 거리로 복원한다.In the process of restoring the decimal distance of the target to an integer multiple, the distance of the target is
Figure pat00026
When, through spectral shift
Figure pat00027
Because this happens
Figure pat00028
By adding , it is restored to an integer multiple distance.

본 발명은 소정 거리 이격된 제 1 및 제 2 레이더의 중간 주파수를 피크 검출하여 스펙트럼에서 가장 큰 주파수(즉 피크 인덱스,

Figure pat00029
)를 구하고, 스펙트럼 시프트 후 딥러닝을 통해 소수배 거리를 구하며, 소수배 거리를 정수배 거리로 복원한 후 타겟의 공간 좌표를 추정한다. 따라서, 본 발명은 스펙트럼 시프트 후 딥러닝을 수행함으로써 모든 거리에 대해서 스펙트럼을 학습시키지 않아도 거리 해상도를 향상시킬 수 있고, 적은 라벨을 이용하여 인공지능 구조의 복잡도를 감소시킬 수 있다.The present invention peak detects the intermediate frequencies of the first and second radars spaced a predetermined distance apart and detects the largest frequency in the spectrum (i.e. peak index,
Figure pat00029
) is obtained, and after spectral shift, the decimal distance is obtained through deep learning, and the decimal multiple distance is restored to an integer multiple distance, and then the spatial coordinates of the target are estimated. Therefore, by performing deep learning after spectrum shifting, the present invention can improve distance resolution without having to learn the spectrum for all distances, and reduce the complexity of the artificial intelligence structure by using fewer labels.

도 1은 FMCW 레이더의 첩 그래프이다.
도 2는 FMCW 레이더의 구성을 도시한 블럭도이다.
도 3은 3.8m 위치에 있는 타겟을 0.3m의 거리 해상도를 갖는 레이더로 측정하는 시뮬레이션이다.
도 4는 본 발명에 이용되는 두개의 레이더를 위한 타겟 위치 탐지 방법을 설명하기 위한 개략도이다.
도 5(a) 내지 도 5(c)는 각각 이상적인 환경의 시뮬레이션에서 각 타겟의 위치를 3.5m, 4.7m, 6.5m로 설정한 스펙트럼 결과이다.
도 6은 본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더를 설명하기 위한 블럭도이다.
도 7에 본 발명에서 이용하는 CNN의 구조를 레이어별로 도시한 도면이다.
도 8은 각 라벨에 따라 타겟의 위치를 나타내기 위한 개략도이다.
도 9 및 도 10은 본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법을 설명하기 위한 흐름도이다.
도 11은 본 발명의 일 실시 예에 따른 FMCW 레이더를 이용하여 타겟의 위치를 구하는 방법을 설명하기 위한 개략도이다.
도 12는 본 발명에 따른 스펙트럼 시프트의 예시도이다
Figure 1 is a chirp graph of the FMCW radar.
Figure 2 is a block diagram showing the configuration of the FMCW radar.
Figure 3 is a simulation of measuring a target located at 3.8m using a radar with a distance resolution of 0.3m.
Figure 4 is a schematic diagram illustrating a target location detection method for two radars used in the present invention.
Figures 5(a) to 5(c) are spectrum results in which the positions of each target are set to 3.5m, 4.7m, and 6.5m in a simulation of an ideal environment, respectively.
Figure 6 is a block diagram for explaining an FMCW radar using deep learning according to an embodiment of the present invention.
Figure 7 is a diagram showing the structure of CNN used in the present invention by layer.
Figure 8 is a schematic diagram showing the location of the target according to each label.
9 and 10 are flowcharts illustrating a method for improving the distance resolution of an FMCW radar using deep learning according to an embodiment of the present invention.
Figure 11 is a schematic diagram illustrating a method of obtaining the location of a target using an FMCW radar according to an embodiment of the present invention.
12 is an exemplary diagram of spectral shift according to the present invention.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세히 설명하기로 한다. 그러나, 본 발명은 이하에서 개시되는 실시 예에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 것이며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하며, 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이다.Hereinafter, embodiments of the present invention will be described in detail with reference to the attached drawings. However, the present invention is not limited to the embodiments disclosed below and will be implemented in various different forms. These embodiments only serve to ensure that the disclosure of the present invention is complete and to convey the scope of the invention to those skilled in the art. It is provided for complete information.

FMCW 레이더는 시간에 따라 주파수가 증가하는 첩(chirp)을 이용한다. 도 1은 FMCW 레이더의 첩 그래프로서, 송신 신호(Tx)와 수신 신호(Rx)의 모습을 보여준다. 즉, 도 1은 FMCW 레이더로부터 송출되는 송신 신호와 송신 신호가 타겟으로부터 반사되어 입사되는 수신 신호를 나타낸다. 또한, 비트 주파수(fbeat), 시간 지연(τ), 주파수 대역폭(Sweepbw)의 파라미터가 존재한다. 도 1에 도시된 바와 같이 FMCW 레이더와 타겟 사이의 거리로 인하여 지연 시간(τ)이 발생하고, 이에 따라 주파수 차이가 존재한다.FMCW radar uses a chirp whose frequency increases with time. Figure 1 is a chirp graph of an FMCW radar, showing the transmitted signal (Tx) and the received signal (Rx). That is, Figure 1 shows a transmitted signal transmitted from the FMCW radar and a received signal that is incident after the transmitted signal is reflected from the target. Additionally, there are parameters of beat frequency (f beat ), time delay (τ), and frequency bandwidth (Sweep bw ). As shown in Figure 1, a delay time (τ) occurs due to the distance between the FMCW radar and the target, and accordingly, a frequency difference exists.

도 2는 FMCW 레이더의 구성을 도시한 블럭도로서, 레이더에서 타겟의 거리를 구하기 위한 신호 처리 과정을 설명하기 위한 것이다. 도 2에 도시된 바와 같이FMCW 레이저는 톱니파 또는 삼각파의 FMCW 신호를 생성하는 VCO(Voltage Controlled Oscillator)(11)와, FMCW 신호를 저잡음 증폭하는 저잡음 증폭기(Low Noise Amplifier; LNA)(12)와, 저잡음 증폭기(12)를 통한 송신 신호(Tx)를 타겟를 향해 방사하는 송신 안테나(13)와, 타겟으로부터 반사된 신호(Rx)를 수신하는 수신 안테나(14)와, 수신 안테나(14)를 통한 반사파 수신 신호(Rx)를 저잡음 증폭하는 저잡음 증폭기(Low Noise Amplifier; LNA)(15)와, 타겟으로부터 반사되어 저잡음 증폭기(15)를 통한 신호와 VOC(11)로부터 출력되는 FMCW 신호를 믹싱하는 믹서(16)와, 믹서(16)를 통해 믹싱된 신호를 증폭하는 증폭기(17)와, 증폭기(17)를 통한 아날로그 신호를 디지털 신호로 변환하는 컨버터(Analog to Digital Converter; ADC)(18)와, 컨버터(18)를 통한 신호를 필터링하는 저역 통과 필터(Low Pass Filter; LPT)(19)와, 저역 통과 필터(19)를 통한 신호를 중간 주파수(Intermediate Frequency; IF)로 변환하는 고속 푸리에 변환기(fast Fourier transform; FFT)(20)를 포함할 수 있다.Figure 2 is a block diagram showing the configuration of an FMCW radar, and is intended to explain the signal processing process for calculating the target distance from the radar. As shown in Figure 2, the FMCW laser includes a VCO (Voltage Controlled Oscillator) 11 that generates a sawtooth wave or triangle wave FMCW signal, a low noise amplifier (LNA) 12 that amplifies the FMCW signal with low noise, A transmission antenna 13 that radiates a transmission signal (Tx) through a low noise amplifier 12 toward a target, a reception antenna 14 that receives a signal (Rx) reflected from the target, and a reflected wave through the reception antenna 14. A low noise amplifier (LNA) 15 that amplifies the received signal (Rx) with low noise, and a mixer that mixes the signal reflected from the target through the low noise amplifier 15 and the FMCW signal output from the VOC 11 ( 16), an amplifier 17 that amplifies the signal mixed through the mixer 16, and a converter (Analog to Digital Converter (ADC) 18) that converts the analog signal through the amplifier 17 into a digital signal, A low pass filter (LPT) 19 that filters the signal through the converter 18, and a fast Fourier transformer (19) that converts the signal through the low pass filter 19 into an intermediate frequency (IF). It may include fast Fourier transform (FFT) (20).

이러한 FMCW 레이저의 구동 방법을 살펴보면, VCO(Voltage Controlled Oscillator)(11)는 톱니파 또는 삼각파의 FMCW 신호를 생성하고, 송신 안테나(130)는 저잡음 증폭기(Low Noise Amplifier; LNA)(12)를 거친 FMCW 신호, 즉 송신 신호(Tx)를 타겟를 향해 방사한다. 송신 안테나(13)를 통해 방사된 신호는 타겟에 반사되고, 반사 신호는 레이더와 타겟의 거리에 따라 시간적으로 지연되어 수신 안테나(14)를 통해 수신된다. 수신 안테나(14)로 수신된 신호(Rx)는 저잡음 증폭기(Low Noise Amplifier; LNA)(15)를 거쳐 믹서(16)에서 VOC(11)로부터 발생된 FMCW 신호와 믹싱된다. 그리고, 믹싱된 신호는 증폭기(17)를 통해 증폭되고, 컨버터(18)를 통해 디지털 신호로 변환된 후 저역 통과 필터(Low Pass Filter; LPT)(19) 및 고속 푸리에 변환기(fast Fourier transform; FFT)(20)를 거쳐서 중간 주파수(Intermediate Frequency; IF)로 변환된다. 중간 주파수는 여러 타겟의 주파수를 가지고 있는데 가장 파워가 큰 빈(bin)을 찾아서 한 타겟의 비트 주파수를 결정한다. 여기서, 빈은 스펙트럼 그래프에서 하나의 주파수 막대를 의미한다. Looking at the driving method of this FMCW laser, the VCO (Voltage Controlled Oscillator) 11 generates a sawtooth wave or triangle wave FMCW signal, and the transmission antenna 130 passes the FMCW signal through a low noise amplifier (LNA) 12. A signal, that is, a transmission signal (Tx), is radiated toward the target. The signal radiated through the transmitting antenna 13 is reflected by the target, and the reflected signal is delayed in time according to the distance between the radar and the target and is received through the receiving antenna 14. The signal (Rx) received through the receiving antenna 14 passes through a low noise amplifier (LNA) 15 and is mixed with the FMCW signal generated from the VOC 11 in the mixer 16. Then, the mixed signal is amplified through an amplifier 17, converted into a digital signal through a converter 18, and then filtered through a low pass filter (LPT) 19 and a fast Fourier transform (FFT). )(20) and converted to intermediate frequency (IF). The intermediate frequency has the frequencies of several targets, and the beat frequency of one target is determined by finding the bin with the highest power. Here, bin refers to one frequency bar in the spectrum graph.

레이더에서 구할 수 있는 가장 짧은 시간 지연을 τmin이라고 할 때, 이 시간 지연에 의한 비트 주파수는 fb,min으로 나타낼 수 있고, 수학식 1에 의해서 다음과 같이 표현된다.When the shortest time delay that can be obtained from the radar is τ min , the beat frequency due to this time delay can be expressed as f b,min , and is expressed by Equation 1 as follows.

Figure pat00030
Figure pat00030

여기서, Sweepbw는 FMCW의 주파수가 변화하는 대역폭이고, Tm은 FMCW 한 주기 동안의 지속 시간이다. 타겟의 비트 주파수 fb,min을 표현하는데 필요한 FFT의 포인트 수는

Figure pat00031
이며, fs는 샘플링 주파수이다. 일반적으로 하나의 첩 데이터를 가지고 FFT를 진행하기 때문에 Tm은
Figure pat00032
로 표시할 수 있다.Here, Sweep bw is the bandwidth at which the frequency of FMCW changes, and Tm is the duration of one FMCW cycle. The number of points in the FFT needed to represent the target beat frequency f b,min is
Figure pat00031
, and fs is the sampling frequency. Since FFT is generally performed with one chirp data, Tm is
Figure pat00032
It can be displayed as .

주파수 대역폭은

Figure pat00033
과 같이 첩의 기울기에 시간 지연을 곱하면 구할 수 있다. 여기서,
Figure pat00034
(c는 광속)이므로
Figure pat00035
이다. Rres은 레이더의 거리 해상도를 의미하며, 아래의 수학식 2로 다시 정리할 수 있다.The frequency bandwidth is
Figure pat00033
It can be obtained by multiplying the slope of the chirp by the time delay as shown. here,
Figure pat00034
(c is the speed of light), so
Figure pat00035
am. R res means the distance resolution of the radar, and can be rearranged as Equation 2 below.

Figure pat00036
Figure pat00036

수학식 2에 의하면, 레이더의 거리 해상도는 주파수 대역폭에 따라 결정됨을 알 수 있다.According to Equation 2, it can be seen that the range resolution of the radar is determined by the frequency bandwidth.

일반적으로, 타겟의 거리를 감지하기 위해 빈(bin)의 값이 최대인 주파수를 비트 주파수로 결정한다. 이를 최댓값 기반 거리 감지(Max peak Detection)라 한다. 이는 수학식 3으로 표현할 수 있다.Generally, in order to detect the distance of a target, the frequency at which the bin value is maximum is determined as the beat frequency. This is called maximum peak detection. This can be expressed in equation 3.

Figure pat00038
은 Sf(n)의 절댓값이고
Figure pat00039
Figure pat00040
의 크기가 최대인 빈(bin)의 인덱스이다. 즉,
Figure pat00041
은 피크 인덱스로서, 스펙트럼에서 가장 큰 주파수를 갖는 지점이다. 이때, 빈(bin)의 인덱스는 0부터 FFT 포인트 수만큼의 이산적인 값을 갖는다. 타겟의 거리는
Figure pat00042
에 레이더의 단위 거리인 거리 해상도를 곱해주는 것으로 수학식 4와 같이 구할 수 있다.
Figure pat00038
is the absolute value of S f (n) and
Figure pat00039
silver
Figure pat00040
is the index of the bin with the largest size. in other words,
Figure pat00041
is the peak index, which is the point with the highest frequency in the spectrum. At this time, the index of the bin has discrete values ranging from 0 to the number of FFT points. The target distance is
Figure pat00042
It can be obtained as shown in Equation 4 by multiplying the distance resolution, which is the unit distance of the radar.

Figure pat00043
Figure pat00043

이해를 돕기 위해 도 3은 3.8m 위치에 있는 타겟을 0.3m의 거리 해상도를 갖는 레이더로 측정하는 시뮬레이션을 보인다. 수학식 4에 의하면, 타겟 거리는 거리 해상도×피크 인덱스이므로 타겟 거리는 3.9m가 된다. 즉, 거리 해상도가 0.3m이고 도 3에서 피크 인덱스(즉 가장 큰 주파수 막대)가 13이므로 수학식 4에 의해 타겟 거리를 0.3m×13=3.9m가 된다. 이때, 실제 타겟 위치 3.8m와 수학식 4에 의한 타겟 거리 사이에 +0.1m의 오차가 발생되는데, +0.1m 오차는 13번째 bin과 14번째 bin 사이에 sinc의 최대값이 숨어있다는 것을 의미한다.To aid understanding, Figure 3 shows a simulation of measuring a target located at 3.8m with a radar with a distance resolution of 0.3m. According to Equation 4, the target distance is distance resolution × peak index, so the target distance is 3.9m. That is, since the distance resolution is 0.3m and the peak index (i.e., the largest frequency bar) in FIG. 3 is 13, the target distance is 0.3m × 13 = 3.9m according to Equation 4. At this time, an error of +0.1m occurs between the actual target position of 3.8m and the target distance according to Equation 4. The +0.1m error means that the maximum value of sinc is hidden between the 13th bin and the 14th bin. .

상기한 바와 같이 최댓값 기반 거리 감지를 이용하여 구한 거리는 오차가 있기 때문에 정확하지 못하다. 일정 주기 동안 샘플링된 신호의 구간 외에는 0의 값을 갖는 신호로 볼 수 있다. 이러한 신호는 FFT 됐을 때 sinc 함수의 특징을 가진다. 즉, 수식으로 표현하면

Figure pat00044
이다.As mentioned above, the distance obtained using maximum value-based distance detection is not accurate because there is an error. Except for the section of the signal sampled during a certain period, it can be viewed as a signal with a value of 0. These signals have the characteristics of a sinc function when FFTed. In other words, if expressed in a formula,
Figure pat00044
am.

시간에 따라서 주파수가 변하는 FMCW의 톱니파 신호는 아래 수학식 5와 같이 표현할 수 있다.The FMCW sawtooth wave signal whose frequency changes with time can be expressed as Equation 5 below.

Figure pat00045
Figure pat00045

sIF(t)는 비트 주파수의 시간 도메인 신호를 나타내며 exp 항은 자연 상수의 제곱의 표현으로 허수를 의미하는 j를 같이 사용하는 것으로 복소수 형식의 값을 나타낸다. A는 송신 신호의 진폭, σ는 진폭 감쇄량, fc는 캐리어 주파수, τ는 타겟의 거리에 의한 시간 지연, Sweepbw는 스윕 대역폭, Tm은 첩의 주기이다. τ는 2R/c로 기재할 수 있는데, R은 타겟의 거리, 그리고 c는 광속이다. Π(t/Tm)은 -Tm/2 ∼Tm/2 까지 Tm만큼 지속 시간동안 1의 값을 갖고 그 이외의 범위에서는 0의 값을 갖는 사각 펄스이다.

Figure pat00046
를 푸리에 변환하면 아래의 수학식 6을 구할 수 있는데, τ는 2R/c로 표현되었다.s IF (t) represents the time domain signal of the beat frequency, and the exp term is an expression of the square of a natural constant and is used together with j, which means an imaginary number, to represent a value in complex number format. A is the amplitude of the transmitted signal, σ is the amplitude attenuation, fc is the carrier frequency, τ is the time delay due to the distance of the target, Sweep bw is the sweep bandwidth, and Tm is the chirp period. τ can be written as 2R/c, where R is the distance to the target and c is the speed of light. Π(t/Tm) is a square pulse that has a value of 1 for the duration of Tm from -Tm/2 to Tm/2 and a value of 0 in the other range.
Figure pat00046
By Fourier transforming, Equation 6 below can be obtained, where τ is expressed as 2R/c.

Figure pat00047
Figure pat00047

R이 거리 해상도의 정수배인 경우에는

Figure pat00048
(n은 정수)로 기재할 수 있는데, R에 대입하면
Figure pat00049
이 된다.
Figure pat00050
는 f=n/Tm(n은 정수)마다 0의 진폭을 가지기 때문에 1/Tm만큼 이동한 신호는 원점이 움직일 뿐이며, Tm 간격으로 0의 간격을 가진다. 그런데, R이 정수배가 아니면 진폭은 무시한다고 했을 때 sinc 함수가
Figure pat00051
만큼 이동하게 되는데, 이 경우 sinc가 0인 지점이 1/Tm은 아닌 것을 알 수 있다. If R is an integer multiple of the distance resolution,
Figure pat00048
It can be written as (n is an integer), and when substituted into R,
Figure pat00049
This happens.
Figure pat00050
Since has an amplitude of 0 every f=n/Tm (n is an integer), a signal that moves by 1/Tm only moves the origin, and has an interval of 0 at Tm intervals. However, if R is not an integer multiple, the amplitude is ignored, and the sinc function
Figure pat00051
In this case, you can see that the point where sinc is 0 is not 1/Tm.

따라서, 타겟이 거리 해상도의 정수배에 위치하면 sinc 함수의 특징에 의해서 사이드로브가 0이 된다. 여기서, 사이드로브는 하나의 타겟에 의해 생기는 bin중 가장 큰 값(메인 로브) 근처에 존재하면서 피크값보다 작은 진폭을 가지는 bin이다. 그러나, 타겟이 거리 해상도의 사이에 있으면 sinc의 직교성이 깨지면서 사이드로브가 생긴다. 이 사이드로브는 타겟의 인덱스를 잘못 구하게 하는 원인이 된다. 이 상황에서 해당 인덱스 사이의 최대 인덱스를 찾을 수 있다면, 레이더의 거리 정확도는 향상될 것이다.Therefore, when the target is located at an integer multiple of the distance resolution, the sidelobe becomes 0 due to the characteristics of the sinc function. Here, the sidelobe is a bin that exists near the largest value (main lobe) among the bins generated by one target and has an amplitude smaller than the peak value. However, if the target is between the distance resolutions, the orthogonality of sinc is broken and sidelobes appear. This sidelobe causes the index of the target to be obtained incorrectly. In this situation, if you can find the maximum index between those indices, the radar's range accuracy will be improved.

<본 발명의 설명><Description of the present invention>

1. 거리를 이용하여 타겟의 좌표를 구하는 방법1. How to find the coordinates of a target using distance

레이더는 다양한 방법으로 타겟의 위치를 구할 수 있는데, 본 발명은 두 개의 레이더를 이용하여 타겟 위치를 구한다. 도 4는 본 발명에 이용되는 두개의 레이더를 위한 타겟 위치 탐지 방법을 설명하기 위한 개략도이다. 즉, 도 4는 본 발명에 이용되는 다변 측정법을 이용한 위치 탐지 방법의 개략도이다. 도 4에 도시된 바와 같이 두개의 레이더, 즉 제 1 및 제 2 레이더(Radar 1, Radar 2)가 소정 간격 이격되어 있다. 이때, 제 1 및 제 2 레이더 각각은 도 2에 도시된 바와 같은 구성을 갖는다. 즉, 제 1 및 제 2 레이더는 각각 FMCW 신호를 생성하여 타겟으로 송신하고 타겟으로부터 반사되어 수신된 신호와 FMCW 신호의 믹싱 및 FFT로부터 중간 주파수 신호(IF)를 생성한다. 도 4에서 ri는 i(i=1,2)번째 레이더와 타겟 사이의 거리(즉, r1 및 r2는 각각 제 1 및 제 2 레이더와 타겟 사이의 거리), dx는 제 1 및 제 2 레이더 사이의 간격, h는 타겟과 기준 수평선과의 수직거리, 그리고 x는 타겟과 레이더 사이의 수평 거리이다. 여기서, 두개의 레이더를 이용한 타겟의 좌표는 수학식 7 및 수학식 8을 이용하여 구할 수 있다. 즉, 타겟과 레이더의 수평 거리(x)는 수학식 7를 이용하여 구할 수 있고, 타겟과 기준 수평선과의 수직 거리(h)는 수학식 8을 이용하여 구할 수 있다.Radars can obtain the target's location in various ways, and the present invention uses two radars to obtain the target's location. Figure 4 is a schematic diagram illustrating a target location detection method for two radars used in the present invention. That is, Figure 4 is a schematic diagram of a location detection method using the multivariate measurement method used in the present invention. As shown in FIG. 4, two radars, that is, first and second radars (Radar 1 and Radar 2), are spaced apart at a predetermined distance. At this time, each of the first and second radars has the configuration shown in FIG. 2. That is, the first and second radars each generate an FMCW signal and transmit it to the target, and generate an intermediate frequency signal (IF) from mixing and FFT of the signal reflected and received from the target and the FMCW signal. In Figure 4, r i is the distance between the i (i=1, 2)th radar and the target (i.e., r1 and r2 are the distances between the first and second radars and the target, respectively), and dx is the first and second radar. The gap, h is the vertical distance between the target and the reference horizon, and x is the horizontal distance between the target and the radar. Here, the coordinates of the target using two radars can be obtained using Equation 7 and Equation 8. That is, the horizontal distance (x) between the target and the radar can be obtained using Equation 7, and the vertical distance (h) between the target and the reference horizon can be obtained using Equation 8.

Figure pat00052
Figure pat00052

Figure pat00053
Figure pat00053

2. 피크 이동2. Peak movement

본 발명에서 제안하는 피크 이동은 중간 주파수(Intermediate Frequency; IF)가 가지는 규칙성을 이용해서 라벨(label)에 의한 거리 제한 및 학습 데이터가 증가하는 문제와 복잡도 증가 문제를 해결한다. 믹싱된 신호는 A/D 샘플링에 의해 이산적인 데이터 길이를 갖는데, 이 신호가 푸리에 변환되면 sinc 함수 모양으로 주파수 스펙트럼이 형성된다. 샘플링된 신호를 주파수 변환하면, 주파수 영역에서 하나의 시간 샘플당 하나의 sinc 함수를 만들어내므로 직교성을 유지하는게 중요하다. 그러나, 타겟이 각각의 bin 사이에 위치하면, 직교성이 깨져서 사이드로브는 0이 아닌 값을 갖게 된다. 이 경우에 스펙트럼의 파워가 가장 큰 지점(

Figure pat00054
)과 인접한 지점(
Figure pat00055
)의 크기가 서로 달라지면서 타겟 측정이 잘못될 수 있다. 그러나, 아날로그 신호로 보았을 때, 스펙트럼은 sinc 형태로 만들어지므로 샘플링된 스펙트럼에서도 sinc의 규칙성이 존재할 것이다. 레이더와 타겟 사이의 거리는 수학식 7에 의해 구할 수 있다.The peak movement proposed in the present invention uses the regularity of the intermediate frequency (IF) to solve the problems of distance limitation due to labels, increased learning data, and increased complexity. The mixed signal has discrete data lengths through A/D sampling, and when this signal is Fourier transformed, a frequency spectrum is formed in the shape of a sinc function. When frequency converting a sampled signal, one sinc function is created per time sample in the frequency domain, so it is important to maintain orthogonality. However, if the target is located between each bin, orthogonality is broken and the sidelobes have non-zero values. In this case, the point where the power of the spectrum is greatest (
Figure pat00054
) and adjacent points (
Figure pat00055
) may vary in size, causing target measurement to be incorrect. However, when viewed as an analog signal, the spectrum is created in a sinc form, so sinc regularity will exist in the sampled spectrum. The distance between the radar and the target can be obtained by Equation 7.

Figure pat00056
Figure pat00056

수학식 9에서

Figure pat00057
는 레이더와 타겟 사이의 거리이고, n은 정수배(n=1, 2,…, nmax), k는 소수배(-α/2<k<α/2)를 나타내며, α는 레이더의 거리 해상도(=Rres)이다. n은 1부터 nmax까지의 범위를 가지며 nmax는 레이더의 최대 감지 거리이다. 그리고, k는 거리 해상도(α/2)보다 작고 -α/2보다 큰 범위의 값을 가진다. 수학식 9는 타겟과의 거리를 정수배와 거리 해상도의 소수배의 합으로 표현하였다. 서로 다른 두 n에 대해서 k가 같은 경우, 스펙트럼은 n에 따라서 크기는 달라지지만 인접한 데이터들의 증감 패턴은 일정한 규칙성을 보인다. 예를 들어, 도 5(a) 내지 도 5(c)는 α가 0.3m이고, n이 각각 11, 15, 21이며, k는 0.2m인 시뮬레이션 결과이다. 즉, 도 5(a) 내지 도 5(c)는 각각 이상적인 환경의 시뮬레이션에서 각 타겟의 위치를 3.5m, 4.7m, 6.5m로 설정한 스펙트럼 결과이다. 도 5에서 볼 수 있는 바와 같이 k가 일정한 경우 스펙트럼의 증감 추이가 일정하게 유지되는 것을 그래프를 통해 확인할 수 있다. 이처럼 k 위치에 대해서 타겟 스펙트럼이 일정한 패턴을 반복한다면 n을 하나의 값으로 통일하고 k에 대해서만 추론하는 인공지능 환경을 구성하는 것이 가능하다. In equation 9:
Figure pat00057
is the distance between the radar and the target, n represents an integer multiple (n=1, 2,…, n max ), k represents a decimal multiple (-α/2<k<α/2), and α is the distance resolution of the radar. (=R res ). n ranges from 1 to n max , where n max is the maximum detection range of the radar. And, k has a value that is smaller than the distance resolution (α/2) and larger than -α/2. Equation 9 expresses the distance to the target as the sum of an integer multiple and a decimal multiple of the distance resolution. When k is the same for two different n, the size of the spectrum varies depending on n, but the increase/decrease pattern of adjacent data shows certain regularity. For example, Figures 5(a) to 5(c) are simulation results where α is 0.3m, n is 11, 15, and 21, respectively, and k is 0.2m. That is, Figures 5(a) to 5(c) are spectrum results in which the positions of each target are set to 3.5m, 4.7m, and 6.5m in a simulation of an ideal environment, respectively. As can be seen in Figure 5, when k is constant, it can be confirmed through the graph that the increase/decrease trend of the spectrum remains constant. In this way, if the target spectrum repeats a certain pattern for k positions, it is possible to configure an artificial intelligence environment that unifies n into one value and infers only about k.

이 방식은 모든 거리에 대해서 스펙트럼을 학습시키지 않아도 거리 해상도를 향상시킬 수 있고, 적은 라벨을 이용하여 인공지능 구조의 복잡도를 감소시킬 수 있다.This method can improve distance resolution without having to learn the spectrum for all distances, and can reduce the complexity of the artificial intelligence structure by using fewer labels.

3. 본 발명의 구성3. Configuration of the present invention

본 발명에서는 n의 값을 일정한 값(ncenter)으로 만든 후 사이 소수배 거리 k에 대한 패턴을 학습한다. 도 6은 본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더를 설명하기 위한 블럭도로서, 딥러닝을 이용하여 거리 해상도를 향상시키기 위한 FMCW 레이더의 블럭도이다. 도 6을 참조하면, 발명의 일 실시 예에 따른 FMCW 레이더는 타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호(IF)를 각각 생성하는 제 1 및 제 2 레이더(110, 120)와, 제 1 및 제 2 레이더(110, 120) 각각의 중간 주파수(IF)로부터 FFT 및 피크 검출(Peak detection)을 통해

Figure pat00058
을 각각 구하는 제 1 및 제 2 피크 검출부(210, 220)와, 수학식 9에서
Figure pat00059
에 해당하는 n과 ncenter의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 이동시키는 제 1 및 제 2 스펙트럼 시프트부(310, 320)와, 제 1 및 제 2 스펙트럼 시프트부(310, 320)에 의해 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝(deep learning)을 이용하여 소수배 거리를 추론하는 딥러닝부(400)와, 스펙트럼 시프트 및 딥러닝을 통한 타겟의 소수배 거리를 정수배로 복원하는 스펙트럼 복원부(500)와, 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정하는 타겟 추정부(600)를 포함할 수 있다.In the present invention, the value of n is set to a constant value (n center ) and then a pattern for the prime multiple distance k is learned. Figure 6 is a block diagram for explaining an FMCW radar using deep learning according to an embodiment of the present invention. It is a block diagram of an FMCW radar for improving distance resolution using deep learning. Referring to FIG. 6, the FMCW radar according to an embodiment of the invention is a first and second radar (110) that generates an intermediate frequency signal (IF) using a transmitted signal radiated to the target and a received signal reflected from the target, respectively. , 120) and through FFT and peak detection from the intermediate frequencies (IF) of each of the first and second radars 110 and 120.
Figure pat00058
In Equation 9, the first and second peak detection units 210 and 220 respectively calculate
Figure pat00059
By the first and second spectrum shift units 310 and 320, which calculate the frequency difference between n and n center corresponding to and shift the spectrum by the difference, and the first and second spectrum shift units 310 and 320 A deep learning unit 400 that inputs a spectrum-shifted frequency signal and infers the fractional distance using deep learning, and spectral restoration that restores the fractional distance of the target to an integer multiple through spectrum shifting and deep learning. It may include a unit 500 and a target estimation unit 600 that estimates the spatial coordinates of the target using the restored spectrum.

3.1. 레이더3.1. radar

제 1 및 제 2 레이더(110, 120)는 도 4에 도시된 바와 같이 소정 간격 이격되어 있다. 즉, 제 1 및 제 2 레이더(110, 120)는 소정 간격 이격되어 타겟을 향해 송신 신호를 각각 방사할 수 있고, 타겟으로부터 반사된 신호를 수신할 수 있다. 또한, 제 1 및 제 2 레이더(110, 120) 각각은 도 2에 도시된 바와 같은 구성을 갖는다. 즉, 도 2에 도시된 바와 같이 제 1 및 제 2 레이저(110, 120) 각각은 톱니파 또는 삼각파의 FMCW 신호를 생성하는 VCO(11)와, FMCW 신호를 저잡음 증폭하는 LNA(12)와, LNA(12)를 통한 송신 신호(Tx)를 타겟를 향해 방사하는 송신 안테나(13)와, 타겟으로부터 반사된 신호(Rx)를 수신하는 수신 안테나(14)와, 수신 안테나(14)를 통한 반사파 수신 신호(Rx)를 저잡음 증폭하는 LNA(15)와, 타겟으로부터 반사되어 LNA(15)를 통한 신호와 VOC(11)로부터 출력되는 FMCW 신호를 믹싱하는 믹서(16)와, 믹서(16)를 통해 믹싱된 신호를 증폭하는 증폭기(17)와, 증폭기(17)를 통한 아날로그 신호를 디지털 신호로 변환하는 ADC(18)와, ADC(18)를 통한 신호를 필터링하는 LPT(19)와, LPT(19)를 통한 신호를 IF로 변환하는 FFT(20)를 포함할 수 있다. 이러한 제 1 및 제 2 레이더(110, 120)는 각각 FMCW 신호를 생성하여 타겟으로 송신하고 타겟으로부터 반사되어 수신된 신호와 FMCW 신호의 믹싱 및 FFT로부터 중간 주파수 신호(IF)를 생성한다.The first and second radars 110 and 120 are spaced apart from each other at a predetermined distance as shown in FIG. 4 . That is, the first and second radars 110 and 120 can each radiate a transmission signal toward the target at a predetermined interval and receive a signal reflected from the target. Additionally, each of the first and second radars 110 and 120 has a configuration as shown in FIG. 2. That is, as shown in FIG. 2, the first and second lasers 110 and 120 each include a VCO 11 that generates a sawtooth wave or triangle wave FMCW signal, an LNA 12 that amplifies the FMCW signal with low noise, and an LNA A transmitting antenna 13 that radiates a transmitted signal (Tx) through (12) toward the target, a receiving antenna 14 that receives a signal (Rx) reflected from the target, and a reflected wave receiving signal through the receiving antenna 14. An LNA (15) that amplifies (Rx) with low noise, a mixer (16) that mixes the signal reflected from the target through the LNA (15) and the FMCW signal output from the VOC (11), and mixing through the mixer (16) An amplifier 17 that amplifies the signal, an ADC 18 that converts the analog signal through the amplifier 17 into a digital signal, an LPT 19 that filters the signal through the ADC 18, and an LPT 19 ) may include an FFT (20) that converts the signal through IF to IF. The first and second radars 110 and 120 each generate an FMCW signal and transmit it to the target, and generate an intermediate frequency signal (IF) from mixing and FFT of the signal reflected and received from the target and the FMCW signal.

3.2. 피크 검출부3.2. Peak detection unit

제 1 및 제 2 및 피크 검출부(210, 220)는 제 1 및 제 2 레이더(110, 120)로부터 중간 주파수(IF)를 각각 입력하여 FFT 및 피크 검출(Peak detection)을 통해

Figure pat00060
을 구한다. 즉, 제 1 피크 검출부(210)는 제 1 레이더(110)의 중간 주파수로부터 FFT 및 피크 검출을 통해
Figure pat00061
을 구하고, 제 2 피크 검출부(220)는 제 2 레이더(120)의 중간 주파수로부터 FFT 및 피크 검출을 통해
Figure pat00062
을 구한다. 여기서,
Figure pat00063
은 피크 인덱스로서, 스펙트럼에서 가장 큰 주파수를 갖는 지점으로, 수학식 3에 의해 구할 수 있다. 이때, 빈(bin)의 인덱스는 0부터 FFT 포인트 수만큼의 이산적인 값을 갖는다.The first and second and peak detection units 210 and 220 input the intermediate frequency (IF) from the first and second radars 110 and 120, respectively, and perform FFT and peak detection.
Figure pat00060
Find . That is, the first peak detection unit 210 detects the signal through FFT and peak detection from the intermediate frequency of the first radar 110.
Figure pat00061
is obtained, and the second peak detector 220 detects the signal through FFT and peak detection from the intermediate frequency of the second radar 120.
Figure pat00062
Find . here,
Figure pat00063
is the peak index, which is the point with the highest frequency in the spectrum and can be obtained by Equation 3. At this time, the index of the bin has discrete values ranging from 0 to the number of FFT points.

3.3. 스펙트럼 시프트부3.3. spectrum shift unit

제 1 및 제 2 스펙트럼 시프트부(310, 320)는 수학식 7에서

Figure pat00064
에 해당하는 n과 ncenter의 주파수 차이를 계산하고, 그 차이만큼 스펙트럼을 이동시킨다. 이때, 스펙트럼 시프트는 시간 도메인에서 이루어진다. 제 1 및 제 2 스펙트럼 시프트부(310, 320)는 수학식 10 내지 수학식 15에 따라 스펙트럼 시프트 과정을 수행한다. 먼저, 타겟의 스펙트럼 파워가 가장 큰 지점(
Figure pat00065
)과 ncenter의 인덱스 차이를 구한다. 즉, 수학식 10과 같이 타겟의
Figure pat00066
과 ncenter의 인덱스 차이로서 bindiff를 구한다. 이어서, 이동시켜야 할 주파수를 구한다. 즉, 수학식 11의 fdiff는 인덱스 차이인 bindiff에 bin 사이의 간격 주파수(fs/N)를 곱하여 이동시켜야 할 주파수를 구한다. 여기서, N은 FFT 포인트수를 의미하고, fs는 샘플링 주파수이다. 그리고, 수학식 12를 이용하여 스펙트럼 시프트된 신호를 구한다. 여기서, sIF는 시간 도메인에서의 IF 신호이고, sshift는 스펙트럼 시프트된 신호이다.The first and second spectrum shift units 310 and 320 have Equation 7:
Figure pat00064
Calculate the frequency difference between n and n center , and move the spectrum by the difference. At this time, the spectrum shift occurs in the time domain. The first and second spectrum shift units 310 and 320 perform a spectrum shift process according to Equations 10 to 15. First, the point where the target's spectral power is greatest (
Figure pat00065
) and n center . In other words, as shown in Equation 10, the target
Figure pat00066
Find bin diff as the index difference between and n center . Next, find the frequency to be moved. That is, f diff in Equation 11 calculates the frequency to be moved by multiplying bin diff , which is the index difference, by the interval frequency between bins (fs/N). Here, N means the number of FFT points, and fs is the sampling frequency. Then, the spectrum shifted signal is obtained using Equation 12. Here, s IF is an IF signal in the time domain, and s shift is a spectrum shifted signal.

Figure pat00067
Figure pat00067

Figure pat00068
Figure pat00068

Figure pat00069
Figure pat00069

그리고, 수학식 13과 같이 수학식 12에 t=nTs를 적용해서 신호를 샘플링한다. t는 시간 변수이고, n는 0부터 (N-1)까지의 범위를 갖는 샘플 인덱스이며, Ts는 샘플링 주기이다.Then, as shown in Equation 13, the signal is sampled by applying t=nT s to Equation 12. t is a time variable, n is a sample index ranging from 0 to (N-1), and Ts is the sampling period.

Figure pat00070
Figure pat00070

수학식 13을 다시 정리하면 수학식 14로 표현할 수 있다.If Equation 13 is rearranged, it can be expressed as Equation 14.

Figure pat00071
Figure pat00071

수학식 14는 주파수 변환하면 주파수 이동에 의해 수학식 15와 같이 표현된다.Equation 14 is expressed as Equation 15 due to frequency shift when the frequency is converted.

Figure pat00072
Figure pat00072

이때, Sshift와 SIF는 각각 sshift와 sIF를 푸리에 변환한 것이다. 수학식 15를 거치면 SIF 신호의 피크가 ncenter로 온다. 예를 들어 ncenter가 20이고,

Figure pat00073
이 3이라면 bindiff는 20-3=17이 된다. 수학식 15를 통과하면 피크 인덱스가 3인 스펙트럼이 bindiff인 17만큼 오른쪽으로 이동하기 때문에 피크 인덱스가 20이 된다.At this time, S shift and S IF are Fourier transforms of s shift and s IF , respectively. After going through Equation 15, the peak of the S IF signal comes to n center . For example, n center is 20,
Figure pat00073
If this is 3, bin diff becomes 20-3=17. If Equation 15 is passed, the peak index becomes 20 because the spectrum with a peak index of 3 is shifted to the right by 17, which is bin diff .

3.4.딥러닝부3.4.Deep Learning Department

딥러닝부(400)는 제 1 및 제 2 스펙트럼 시프트부(310, 320)에 의해 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝(deep learning)을 이용하여 소수배 거리를 추론한다. 여기서, 딥러닝부(400)는 심층 신경망(Deep Neural Network; DNN)으로 구현될 수 있다. DNN은 히든 레이어(입출력 레이어를 제외한 나머지 레이어)를 여러개 사용하는 신경망 구조를 의미하는데, 그 종류 중 하나가 합성곱 신경망(Convolution Neural Network; CNN)이다. 도 7에 본 발명에서 이용하는 CNN의 구조를 레이어별로 도시한 것으로, CNN 구조는 입력 레이어, 컨볼루션 레이어, 풀링 레이어, 완전히 연결된(fully connected) 구조의 뉴런 등이 있고, 마지막에 플래튼(flatten)을 거친 후 소프트맥스(softmax)와 분류(classification) 작업을 진행한다. 도 7에 도시된 바와 같이 CNN은 입력 레이어가 최대값이 1로 정규화된 256개의 데이터 스펙트럼을 사용할 수 있다. 컨벌루션(convolution) 레이어는 각 레이어별로 8, 16, 32개의 채널을 가진다. 각 컨벌루션 레이어는 1×1 크기의 마스크가 채널 수 만큼 겹쳐진 형태로, 256×1×1 크기의 입력 데이터가 8개 채널을 가진 레이어를 통과하면 256×1×8 크기의 피처맵이라고 불리는 레이어가 출력되고, 16채널 컨볼루션 레이어를 통과하면 256×1×16의 레이어 데이터가 출력된다. 컨볼루션 레이어는 단계가 깊어질수록 채널이 많아진다. 컨볼루션을 하고난 후에는 배치 정규화(batch normalization)를 수행하고 정류한 선형 유닛(Rectified Linear Unit; ReLU) 활성화(Activation) 함수를 통과한다. 배치 정규화는 데이터를 표준 정규 분포의 값으로 정규화해준다. ReLU는 활성화 함수의 일종으로 양의 값은 그대로 출력하고 음의 값은 0으로 처리해서 양의 값의 데이터에 초점을 맞추는 필터이다. 그리고 맥스 풀링(Max pooling)은 데이터를 그룹으로 묶어서 그 그룹안에 가장 큰 값만을 뽑아내는 레이어이다. 본 발명에서는 2개 중 하나를 뽑아내는 stride-2 max pooling을 이용하였다. fc layer, 즉 완전히 연결된 레이어(fully connected layer) 구조는 플래튼(flatten)을 거친후에 출력 뉴런과 연결된다. 출력 뉴런은 11개가 있으며 출력 뉴런은 소프트맥스(softmax)를 거쳐서 각 라벨에 대한 확률에 대해서 라벨값을 출력한다. 소프트맥스(softmax)와 분류(classification)는 라벨의 확률과 에러값(loss)를 계산하고 최종적으로 출력 라벨중 하나의 라벨값을 출력한다. 결국, 딥러닝부(400)는 CNN의 "추론" 과정으로 스펙트럼 시프트된 주파수 신호가 입력으로 들어가서 라벨이 나오는 과정으로 일종의 패턴 인식 과정과 유사하다.The deep learning unit 400 inputs the frequency signal spectrally shifted by the first and second spectrum shift units 310 and 320 and infers the fractional distance using deep learning. Here, the deep learning unit 400 may be implemented as a deep neural network (DNN). DNN refers to a neural network structure that uses multiple hidden layers (layers other than the input/output layer), and one of its types is the Convolution Neural Network (CNN). Figure 7 shows the structure of the CNN used in the present invention by layer. The CNN structure includes an input layer, a convolution layer, a pooling layer, a fully connected neuron, and finally a flatten. After that, softmax and classification tasks are performed. As shown in Figure 7, the CNN input layer can use 256 data spectra with a maximum value normalized to 1. Convolution layers have 8, 16, and 32 channels for each layer. Each convolutional layer is a 1×1-sized mask overlapped with the number of channels. When input data of 256×1×1 size passes through a layer with 8 channels, a layer called a feature map of 256×1×8 size is created. It is output, and when it passes through a 16-channel convolution layer, 256×1×16 layer data is output. The deeper the convolutional layer, the more channels it has. After convolution, batch normalization is performed and the rectified linear unit (ReLU) activation function is passed. Batch normalization normalizes data to values from a standard normal distribution. ReLU is a type of activation function and is a filter that focuses on data with positive values by outputting positive values as is and treating negative values as 0. And Max pooling is a layer that groups data and extracts only the largest value in that group. In the present invention, stride-2 max pooling was used to select one out of two. The fc layer, that is, a fully connected layer structure, is connected to the output neuron after going through flattening. There are 11 output neurons, and the output neurons output label values for the probability of each label through softmax. Softmax and classification calculate the probability and error value (loss) of the label and finally output the label value of one of the output labels. Ultimately, the deep learning unit 400 is a CNN "inference" process in which a spectrum-shifted frequency signal is input and a label is generated, which is similar to a pattern recognition process.

라벨은 정수값을 가지고, 수학식 9에서 k를 나타내게 되는데, 수학식 16을 통해 소수배 거리 k로 변환된다. The label has an integer value and represents k in Equation 9, which is converted to a decimal distance k through Equation 16.

Figure pat00074
Figure pat00074

여기서, 트레인드 영역(trained area)은 학습 영역에서 가장 작은 거리를 나타내고, 라벨(label)이 커질수록 레이더로부터 더 멀리 있는 타겟이 된다. labelres는 라벨 해상도(label resolution)로 하나의 라벨이 나타내는 거리를 나타내고, 라벨 해상도는 레이더 거리 해상도 보다 좁은 간격으로 설정되어야 한다. Here, the trained area represents the smallest distance in the learning area, and the larger the label, the farther the target is from the radar. label res represents the distance indicated by one label as label resolution, and the label resolution must be set to a narrower interval than the radar distance resolution.

Figure pat00075
Figure pat00075

여기서, m은 전체 라벨의 수이다. 라벨 해상도는 거리 해상도를 전체 라벨의 수로 나눠준 거리가 된다. 도 8은 각 라벨에 따라서 타겟의 위치가 어디인지 나타낸다. 만약 타겟이 빨간 네모인 위치에 있다면 스펙트럼 시프트를 통해서 정수배 거리는 ncenter가 되고 추론(inference)를 통해 나온 라벨에 label_resolution을 곱해서 소수배 거리를 구한다. 학습 과정은 컴퓨터로 진행되며 파란 트레인드 영역에서만 학습 데이터를 수집한다. 수집 방법은 타겟을 각 라벨에 위치시키며 각각 200번씩 데이터를 측정했고, CNN 모델이 각 라벨에 맞는 데이터를 가지고 학습하여 소수점 위치를 유추한다. 한편, 학습 데이터는 MATLAB 시뮬레이션을 사용하여 만들어졌다. 거리 정확도가 0.3m인 FMCW 레이더를 사용했으며, 중심 영역의 인덱스(ncenter)는 20으로 설정되었고, ±0.15m의 트레인드 영역을 갖는다. 라벨 간 간격은 0.03m이고 타겟의 학습 위치와 라벨은 1:1로 대응된다. 일반적으로 타겟 위치는 완전히 동일할 수 없으므로 측정 스펙트럼의 변화를 주기 위해 거리 정확도의 ±1.5%에 해당하는 랜덤 거리(random range)가 추가되었다. 추가로 잡음과 멀티패스와 같은 왜곡을 고려한 데이터를 만들기 위해 라이시안 멀티패스와 AWGN 그리고 위상 오류(phase error)를 추가한다. 전체 데이터의 크기는 각 라벨당 200개 데이터를 사용하여 총 2200개의 학습 데이터 셋을 구성하였다. 또한, 본 발명에서는 트레인드 영역이 5.85m∼6.15m의 범위를 가지고, 각각의 라벨이 0.03m의 간격으로 배치되어 있다. 따라서, 5.85m부터 6.15m까지 0.3m의 간격을 10등분 한 것과 같은 효과를 내고 인덱스 계산에 의해서 11개의 라벨이 설정되었다. 결국, 본 발명은 FMCW의 대역폭을 넓히지 않고 거리 해상도를 높이기 위해 거리 해상도의 소수배에 해당하는 스펙트럼 패턴(학습 데이터)을 라벨 정보와 함께 학습시켜 CNN으로 그에 맞는 라벨을 추론한다.Here, m is the total number of labels. Label resolution is the distance resolution divided by the total number of labels. Figure 8 shows where the target is located according to each label. If the target is located in the red square, the integer distance becomes n center through spectral shift, and the decimal distance is obtained by multiplying the label obtained through inference by label_resolution. The learning process is carried out by a computer, and learning data is collected only in the blue trained area. The collection method placed the target on each label and measured the data 200 times each, and the CNN model learned the data for each label to infer the position of the decimal point. Meanwhile, the training data was created using MATLAB simulation. An FMCW radar with a range accuracy of 0.3m was used, the index of the center area (n center ) was set to 20, and it had a trained area of ±0.15m. The interval between labels is 0.03m, and the learning location of the target and the label correspond 1:1. In general, the target location cannot be completely the same, so a random range equivalent to ±1.5% of the distance accuracy was added to change the measurement spectrum. In addition, Rician multipath, AWGN, and phase error are added to create data that takes into account distortions such as noise and multipath. The total data size was 200 pieces of data for each label, creating a total of 2,200 learning data sets. Additionally, in the present invention, the trained area ranges from 5.85 m to 6.15 m, and each label is arranged at intervals of 0.03 m. Therefore, it has the same effect as dividing the 0.3m interval into 10 equal parts from 5.85m to 6.15m, and 11 labels were set by index calculation. Ultimately, in order to increase the distance resolution without expanding the bandwidth of FMCW, the present invention trains the spectral pattern (learning data) corresponding to a fraction of the distance resolution together with the label information and infers the corresponding label with CNN.

3.5. 스펙트럼 복원부3.5. Spectrum restoration unit

스펙트럼 복원부(500)는 스펙트럼 시프트 및 딥러닝을 통한 타겟의 소수배 거리를 정수배로 복원한다. 딥러닝부(400), 즉 CNN이 스펙트럼 입력에 대하여 하나의 라벨을 출력하면, 소수점 거리에 대해 추론된 것이다. 기존 타겟의 거리가

Figure pat00076
일 때, 스펙트럼 시프트를 통해서
Figure pat00077
이 되었기 때문에
Figure pat00078
를 더해줘서 기존의 정수배 거리로 복원해준다.The spectrum restoration unit 500 restores the fractional distance of the target to an integer multiple through spectral shift and deep learning. When the deep learning unit 400, that is, CNN, outputs one label for the spectral input, the decimal point distance has been inferred. Distance from existing target
Figure pat00076
When, through spectral shift
Figure pat00077
Because it has been
Figure pat00078
By adding , it is restored to the original integer distance.

3.6. 타겟 추정부3.6. target estimation unit

타겟 추정(target estimation)부(600)는 스펙트럼 복원부(500)에 의해 정수배 거리로 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정한다. 스펙트럼 복원부(500)를 통해 정수배 거리로 스펙트럼이 복원되면 본 발명은 대략적으로 마무리된 것이고, 같은 방법을 통해 다른 하나의 레이더도 거리 정확도를 높인다. 본 발명에 따라 거리 정확도가 향상된 두 거리 정보는 수학식 7 및 8에 의해 구할 수 있다.The target estimation unit 600 estimates the spatial coordinates of the target using the spectrum restored to an integer distance by the spectrum restoration unit 500. When the spectrum is restored to an integer distance through the spectrum restoration unit 500, the present invention is approximately completed, and the distance accuracy of another radar is also improved through the same method. The two distance information with improved distance accuracy according to the present invention can be obtained by Equations 7 and 8.

한편, 도시되지 않았지만 스펙트럼 시프트부(310, 320)를 통해 스펙트럼 시트프한 후 딥러닝부(400)를 통해 학습하기 이전에 스펙트럼 정규화(spectrum normalization) 과정을 실시할 수 있다. 즉, 스펙트럼 시프트부(310, 320)와 딥러닝부(400) 사이에 도시되지 않은 스펙트럼 정규화부가 마련될 수 있다. 거리와 신호 세기의 관계식은 수학식 18와 같이 구할 수 있다.Meanwhile, although not shown, a spectrum normalization process may be performed after shifting the spectrum through the spectrum shift units 310 and 320 and before learning it through the deep learning unit 400. That is, a spectrum normalization unit (not shown) may be provided between the spectrum shift units 310 and 320 and the deep learning unit 400. The relationship between distance and signal strength can be obtained as Equation 18.

Figure pat00079
Figure pat00079

여기서, Pr은 수신 신호의 세기, Pt는 송신 신호의 세기이고, G는 안테나 게인, λ는 송신 신호의 파장, σ는 타겟의 반사 면적, 그리고 Rmax는 최대 감지 거리이다. 수학식 18에 따르면, 레이더 신호는 거리가 멀어질수록 스펙트럼의 크기가 점점 감소한다. 그런데, 스펙트럼 시프트로 인해 피크 인덱스가 이동하면, 학습에 사용된 데이터와 추론하려는 데이터 두 신호의 스펙트럼 크기가 맞지 않는 문제가 발생될 수 있다. 따라서, 스펙트럼은 스펙트럼 시프트를 거친 후에 파워 정규화 과정을 거쳐야 한다. 파워 정규화는 피크 인덱스의 크기를 스펙트럼 전체에 나눠준다. 이 작업을 통해서 n에 상관없이 가장 큰 신호의 값이 1이 되고, 인접 인덱스의 증감 추이가 유지되는 스펙트럼을 만들 수 있다.Here, P r is the intensity of the received signal, P t is the intensity of the transmitted signal, G is the antenna gain, λ is the wavelength of the transmitted signal, σ is the reflection area of the target, and R max is the maximum detection distance. According to Equation 18, the size of the spectrum of the radar signal gradually decreases as the distance increases. However, if the peak index moves due to spectral shift, a problem may occur where the spectral sizes of the two signals, the data used for learning and the data to be inferred, do not match. Therefore, the spectrum must undergo a power normalization process after undergoing spectral shift. Power normalization divides the magnitude of the peak index across the spectrum. Through this work, it is possible to create a spectrum in which the value of the largest signal is 1, regardless of n, and the increase/decrease trend of adjacent indices is maintained.

4. 본 발명의 방법4. Method of the present invention

도 9 및 도 10은 본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법을 설명하기 위한 흐름도이다. 즉, 도 9는 본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법의 흐름도이고, 도 10은 스펙트럼 시프트 과정을 설명하기 위한 흐름도이다. 여기서, 본 발명의 거리 해상도 향상 방법은 도 6의 딥러닝을 이용한 FMCW 레이더를 이용하므로 FMCW 레이더의 구성을 과정별로 설명한 것으로, 중복되는 내용의 설명을 생략하여 대략적인 과정을 설명하면 다음과 같다.9 and 10 are flowcharts illustrating a method for improving the distance resolution of an FMCW radar using deep learning according to an embodiment of the present invention. That is, FIG. 9 is a flowchart of a method for improving the range resolution of an FMCW radar using deep learning according to an embodiment of the present invention, and FIG. 10 is a flowchart for explaining the spectrum shift process. Here, since the method for improving distance resolution of the present invention uses the FMCW radar using deep learning of FIG. 6, the configuration of the FMCW radar is explained process by process. The description of redundant content is omitted and the approximate process is described as follows.

도 9에 도시된 바와 같이 발명의 일 실시 예에 따른 FMCW 레이더의 거리 해상도 향상 방법은 제 1 및 제 2 레이더(110, 120)를 이용하여 타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호(IF)를 각각 생성하는 과정(S100)과, 제 1 및 제 2 피크 검출부(210, 220)를 이용하여 제 1 및 제 2 레이더(110, 120) 각각의 중간 주파수(IF)로부터 FFT 및 피크 검출(Peak detection)을 통해

Figure pat00080
을 각각 구하는 과정(S200)과, 제 1 및 제 2 스펙트럼 시프트부(310, 320)를 이용하여
Figure pat00081
에 해당하는 n과 ncenter의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 이동시키는 과정(S300)과, 딥러닝부(400)를 이용하여 제 1 및 제 2 스펙트럼 시프트부(310, 320)에 의해 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝(deep learning)을 이용하여 소수배 거리를 추론하는 과정(S400)과, 스펙트럼 복원부(500)를 이용하여 스펙트럼 시프트 및 딥러닝을 통한 타겟의 소수배 거리를 정수배로 복원하는 과정(S500)과, 타겟 추정부(600)를 이용하여 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정하는 과정(S600)를 포함할 수 있다. 또한, 도시되지 않았지만, 스펙트럼 시프트 과정(S300)을 거친 후 딥러닝 과정(S400) 이전에 파워 정규화 과정을 더 포함할 수 있다.As shown in FIG. 9, the method of improving the distance resolution of the FMCW radar according to an embodiment of the invention uses the first and second radars 110 and 120 to transmit a transmitted signal radiated to the target and a received signal reflected from the target. A process (S100) of generating an intermediate frequency signal (IF) using the first and second peak detectors 210 and 220, respectively, and an intermediate frequency (IF) of each of the first and second radars 110 and 120 using the first and second peak detectors 210 and 220. ) through FFT and peak detection
Figure pat00080
Using the process of obtaining each (S200) and the first and second spectrum shift units 310 and 320,
Figure pat00081
A process of calculating the frequency difference between n and n center corresponding to and shifting the spectrum by the difference (S300), and the first and second spectrum shift units 310 and 320 using the deep learning unit 400. A process of inputting a spectrum shifted frequency signal and inferring the decimal distance using deep learning (S400), and the decimal multiple distance of the target through spectrum shifting and deep learning using the spectrum restoration unit 500. It may include a process of restoring to an integer multiple (S500) and a process of estimating the spatial coordinates of the target using the spectrum restored using the target estimation unit 600 (S600). In addition, although not shown, a power normalization process may be further included after the spectrum shift process (S300) and before the deep learning process (S400).

또한, 도 10에 도시된 바와 같이 스펙트럼 시프트 과정(S300)은 수학식 10과 같이 타겟의 스펙트럼 파워가 가장 큰 지점(

Figure pat00082
)과 ncenter의 인덱스 차이로서 bindiff를 구하는 과정(S310)과, 수학식 11과 같이 인덱스 차이인 bindiff에 bin 사이의 간격 주파수(fs/N)를 곱하여 이동시켜야 할 주파수 fdiff를 구하는 과정(S320)과, 수학식 12를 이용하여 스펙트럼 시프트된 신호를 구하는 과정(S330)과, 수학식 13과 같이 수학식 12에 t=nTs를 적용해서 신호를 샘플링하는 과정(S340)과, 수학식 14를 주파수 변환하여 수학식 15와 같이 주파수 이동시키는 과정(S350)을 포함할 수 있다.In addition, as shown in FIG. 10, the spectrum shift process (S300) is performed at the point where the target's spectral power is greatest as shown in Equation 10 (
Figure pat00082
) and the process of calculating bin diff as the index difference between n center (S310), and calculating the frequency f diff to be moved by multiplying bin diff , which is the index difference, by the frequency of the interval between bins (fs/N), as shown in Equation 11. (S320), a process of obtaining a spectrum-shifted signal using Equation 12 (S330), a process of sampling the signal by applying t=nT s to Equation 12 as in Equation 13 (S340), and mathematics It may include a process (S350) of frequency converting Equation 14 and shifting the frequency as shown in Equation 15.

도 11은 본 발명의 일 실시 예에 거리 해상도 향상을 위해 딥러닝을 이용한 FMCW 레이더를 이용하여 타겟의 위치를 구하는 방법을 설명하기 위한 개략도이다. 먼제, 제 1 및 제 2 레이더가 dx만큼 떨어져 존재하고, 각 레이더는 피크 검출(peak detection)을 통하여 타겟의 위치를 추정한다. 그 결과로 레이더는 소수배 오차로 인해 도 11의 타겟의 실제 위치(real target)을 타겟의 추정 위치(est. target)으로 측정한다. 즉, 레이더의 소수배 오차로 인해 타겟의 실제 위치와 추정 위치가 차이가 나게 된다.Figure 11 is a schematic diagram illustrating a method of obtaining the location of a target using an FMCW radar using deep learning to improve distance resolution in an embodiment of the present invention. First, the first and second radars are separated by dx, and each radar estimates the target's location through peak detection. As a result, the radar measures the actual location of the target in FIG. 11 as the estimated location of the target (est. target) due to a fractional error. In other words, there is a difference between the target's actual location and the estimated location due to the radar's fractional error.

제 1 및 제 2 레이더와 타겟의 거리를 각각 d1, d2라고 할 때, d1, d2는 수학식 9에 따라

Figure pat00083
로 나타낼 수 있는데, ni의 값을 ncenter로 옮겨오는 스펙트럼 시프트를 진행한다. 그러면 도 11에서 보이는 것처럼 타겟의 추정 위치가 화살표를 따라서 추론 영역의 중심점으로 들어온다. 이에 소수배 오차만큼 떨어져 있던 타겟의 실제 위치도 같이 화살표를 따라 추론 영역 안으로 들어오게 된다. 타겟의 추정 위치는 피크 검출(peak detection)로 구한 점이고, 타겟의 실제 위치는 스펙트럼 bin 사이에 숨어있는 것을 표현한 것으로 타겟의 실제 위치를 구하는 것이 목적이다. 이후 학습된 인공지능 영역에 의해서 소수배 오차인 ki를 추론한다. When the distances between the first and second radars and the target are d1 and d2, respectively, d1 and d2 are calculated according to Equation 9.
Figure pat00083
It can be expressed as, and spectral shift is performed to move the value of n i to n center . Then, as shown in Figure 11, the estimated position of the target follows the arrow and enters the center point of the inference area. Accordingly, the actual location of the target, which was separated by a fractional error, also follows the arrow and enters the inference area. The estimated position of the target is obtained through peak detection, and the actual position of the target is expressed as what is hidden between spectral bins, and the purpose is to obtain the actual position of the target. Afterwards, ki, the fractional error, is inferred based on the learned artificial intelligence domain.

도 12는 본 발명의 일 실시 예에 따른 스펙트럼 시프트의 예시도이다. 도 12(a)는 3.2m+k의 타겟을 측정한 스펙트럼이고, 도 12(b)는 도 12(a)를 스펙트럼 시프트한 것으로 최댓값을 포함해서 주위의 bin값이 그대로 유지된 모습을 볼 수 있다.Figure 12 is an example diagram of spectral shift according to an embodiment of the present invention. Figure 12(a) is a spectrum measured for a target of 3.2m+k, and Figure 12(b) is a spectrum shift of Figure 12(a), and it can be seen that the surrounding bin values, including the maximum value, are maintained as is. there is.

상기한 바와 같이 본 발명의 일 실시 예에 따른 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 장치 및 방법은 소정 거리 이격된 제 1 및 제 2 레이더(110, 120)를 이용하여 중간 주파수 신호(IF)를 각각 생성한 후 제 1 및 제 2 피크 검출부(210, 220)를 이용하여 제 1 및 제 2 레이더(110, 120) 각각의 중간 주파수(IF)로부터 FFT 및 피크 검출(Peak detection)을 통해

Figure pat00084
을 각각 구하고, 제 1 및 제 2 스펙트럼 시프트부(310, 320)를 이용하여
Figure pat00085
에 해당하는 n과 ncenter의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 이동시킨 후 딥러닝부(400)를 이용하여 스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝(deep learning)을 이용하여 소수배 거리를 추론하고, 스펙트럼 복원부(500)를 이용하여 스펙트럼 시프트 및 딥러닝을 통한 타겟의 소수배 거리를 정수배로 복원한 후 타겟 추정부(600)를 이용하여 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정한다. 즉, 본 발명은 소정 거리 이격된 제 1 및 제 2 레이더(110, 120)의 중간 주파수를 피크 검출하여
Figure pat00086
를 구하고, 스펙트럼 이동시킨 후 딥러닝을 통해 소수배 거리를 구하며, 소수배 거리를 정수배 거리로 복원한 후 타겟의 공간 좌표를 추정한다. 따라서, 본 발명은 스펙트럼 시프트 후 딥러닝을 수행함으로써 모든 거리에 대해서 스펙트럼을 학습시키지 않아도 거리 해상도를 향상시킬 수 있고, 적은 라벨을 이용하여 인공지능 구조의 복잡도를 감소시킬 수 있다.As described above, the apparatus and method for improving the range resolution of an FMCW radar using deep learning according to an embodiment of the present invention uses the first and second radars 110 and 120 spaced apart by a predetermined distance to generate an intermediate frequency signal (IF). After generating each, using the first and second peak detectors 210 and 220, FFT and peak detection are performed from the intermediate frequencies (IF) of the first and second radars 110 and 120, respectively.
Figure pat00084
are obtained respectively, and using the first and second spectrum shift units 310 and 320,
Figure pat00085
Calculate the frequency difference between n and n center , move the spectrum by the difference, input the spectrum-shifted frequency signal using the deep learning unit 400, and use deep learning to calculate the decimal multiple distance. Infer, use the spectrum restoration unit 500 to restore the fractional distance of the target to an integer multiple through spectrum shift and deep learning, and then use the spectrum restored using the target estimation unit 600 to determine the spatial coordinates of the target. Estimate . That is, the present invention peak detects the intermediate frequencies of the first and second radars 110 and 120 spaced apart by a predetermined distance.
Figure pat00086
After calculating and moving the spectrum, the decimal distance is obtained through deep learning, and the spatial coordinates of the target are estimated after restoring the decimal distance to an integer distance. Therefore, by performing deep learning after spectrum shifting, the present invention can improve distance resolution without having to learn the spectrum for all distances, and reduce the complexity of the artificial intelligence structure by using fewer labels.

상기한 바와 같은 본 발명의 기술적 사상은 상기 실시 예에 따라 구체적으로 기술되었으나, 상기 실시 예는 그 설명을 위한 것이며, 그 제한을 위한 것이 아님을 주지해야 한다. 또한, 본 발명의 기술분야에서 당업자는 본 발명의 기술 사상의 범위 내에서 다양한 실시 예가 가능함을 이해할 수 있을 것이다.The technical idea of the present invention as described above has been described in detail according to the above-mentioned embodiments, but it should be noted that the above-described embodiments are for explanation and not limitation. Additionally, those skilled in the art will understand that various embodiments are possible within the scope of the technical idea of the present invention.

110, 120 : 제 1 및 제 2 레이더
210, 220 : 제 1 및 제 2 피크 검출부
310, 320 : 제 1 및 제 2 스펙트럼 시프트부
400 : 딥러닝부 500 : 스펙트럼 복원부
600 : 타겟 추정부
110, 120: 1st and 2nd radar
210, 220: first and second peak detection units
310, 320: first and second spectrum shift units
400: Deep learning unit 500: Spectrum restoration unit
600: Target estimation unit

Claims (19)

타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호를 각각 생성하는 제 1 및 제 2 레이더;
상기 제 1 및 제 2 레이더 각각의 중간 주파수로부터 피크 검출을 통해 피크 인덱스(
Figure pat00087
)를 각각 구하는 제 1 및 제 2 피크 검출부;
상기 피크 인덱스(
Figure pat00088
)에 해당하는 정수배(n)와 그 일정 값(ncenter)의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 시프트시키는 제 1 및 제 2 스펙트럼 시프트부;
스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 딥러닝부; 및
상기 타겟의 소수배 거리를 정수배로 복원하는 스펙트럼 복원부를 포함하는 딥러닝을 이용한 FMCW 레이더.
First and second radars that respectively generate intermediate frequency signals using a transmitted signal radiated to the target and a received signal reflected from the target;
Peak index through peak detection from the intermediate frequencies of each of the first and second radars (
Figure pat00087
) first and second peak detection units respectively calculating;
The peak index (
Figure pat00088
) Calculate the frequency difference between an integer multiple (n) and the constant value (n center ) and shift the spectrum by the difference;
A deep learning unit that inputs a spectrum-shifted frequency signal and infers the decimal distance of the target using deep learning; and
An FMCW radar using deep learning including a spectrum restoration unit that restores the fractional distance of the target to an integer multiple.
청구항 1에 있어서, 상기 스펙트럼 복원부를 통해 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정하는 타겟 추정부를 더 포함하는 딥러닝을 이용한 FMCW 레이더.
The FMCW radar using deep learning according to claim 1, further comprising a target estimation unit that estimates spatial coordinates of the target using the spectrum restored through the spectrum restoration unit.
청구항 1 또는 청구항 2에 있어서, 상기 제 1 및 제 2 레이더 각각은,
FMCW 파형의 송신 신호를 방사하고 타겟으로부터 반사된 신호를 수신하는 송수신 안테나와,
송신 신호와 수신 신호를 믹싱하는 믹서와,
믹싱 신호를 고속 푸리에 변환하여 중간 주파수 신호를 생성하는 고속 푸리에 변환기를 포함하는 딥러닝을 이용한 FMCW 레이더.
The method of claim 1 or claim 2, wherein each of the first and second radars,
A transmitting and receiving antenna that radiates a transmission signal of an FMCW waveform and receives a signal reflected from the target,
A mixer for mixing the transmitted signal and the received signal,
FMCW radar using deep learning that includes a fast Fourier transformer that generates an intermediate frequency signal by fast Fourier transforming the mixing signal.
청구항 3에 있어서, 상기 제 1 및 제 2 스펙트럼 시프트부는 타겟의
Figure pat00089
과 ncenter의 인덱스 차이(bindiff)를 수학식 10과 같이 구하고, 이동시켜야 할 주파수(fdiff)를 구한 후 스펙트럼 시프트된 신호를 구하며, 스펙트럼 시프트된 신호를 샘플링한 후 주파수 변환하여 주파수를 이동시키는 딥러닝을 이용한 FMCW 레이더.
[수학식 10]
Figure pat00090

The method of claim 3, wherein the first and second spectrum shift units of the target
Figure pat00089
Find the index difference (bin diff ) between n center and n center as shown in Equation 10, find the frequency to be moved (f diff ), find the spectrum shifted signal, sample the spectrum shifted signal, and then move the frequency by converting the frequency. FMCW radar using deep learning.
[Equation 10]
Figure pat00090

청구항 4에 있어서, 상기 이동시켜야 할 주파수(fdiff)는 수학식 10으로부터 산출된 인덱스 차이(bindiff)에 빈(bin) 사이의 간격 주파수(fs/N)를 곱하여 수학식 11과 같이 구하는 딥러닝을 이용한 FMCW 레이더.
[수학식 11]
Figure pat00091

여기서, N은 FFT 포인트 수를 의미하고, fs는 샘플링 주파수이다.
The method of claim 4, wherein the frequency to be moved (f diff ) is a dip calculated as in Equation 11 by multiplying the index difference (bin diff ) calculated from Equation 10 by the interval frequency between bins (fs/N). FMCW radar using running.
[Equation 11]
Figure pat00091

Here, N refers to the number of FFT points, and fs is the sampling frequency.
청구항 5에 있어서, 상기 스펙트럼 시프트된 신호는 수학식 12를 이용하여 구하는 딥러닝을 이용한 FMCW 레이더.
[수학식 12]
Figure pat00092

여기서, sIF는 시간 도메인에서의 IF 신호이고, sshift는 스펙트럼 시프트된 신호이다.
The FMCW radar using deep learning according to claim 5, wherein the spectrum shifted signal is obtained using Equation 12.
[Equation 12]
Figure pat00092

Here, s IF is an IF signal in the time domain, and s shift is a spectrum shifted signal.
청구항 6에 있어서, 상기 신호 샘플링은 수학식 12에 t=nTs를 적용해서 수학식 13과 같이 구하는 딥러닝을 이용한 FMCW 레이더.
[수학식 13]
Figure pat00093

여기서, t는 시간 변수이고, n는 0부터 (N-1)까지의 범위를 갖는 샘플 인덱스이며, Ts는 샘플링 주기이다.
The method of claim 6, wherein the signal sampling is obtained as Equation 13 by applying t=nT s to Equation 12. FMCW radar using deep learning.
[Equation 13]
Figure pat00093

Here, t is a time variable, n is a sample index ranging from 0 to (N-1), and Ts is the sampling period.
청구항 7에 있어서, 상기 주파수 이동은 수학식 13을 수학식 14로 변환한 후 주파수 변환하여 수학식 15와 같이 구하는 딥러닝을 이용한 FMCW 레이더.
[수학식 14]
Figure pat00094

[수학식 15]
Figure pat00095

여기서, Sshift와 SIF는 각각 sshift와 sIF를 푸리에 변환한 것이다.
The method of claim 7, wherein the frequency shift is obtained by converting Equation 13 to Equation 14 and then frequency converting to Equation 15. FMCW radar using deep learning.
[Equation 14]
Figure pat00094

[Equation 15]
Figure pat00095

Here, S shift and S IF are the Fourier transforms of s shift and s IF , respectively.
청구항 8에 있어서, 상기 딥러닝부는 입력 레이어, 컨볼루션 레이어, 풀링 레이어, 완전히 연결된(fully connected) 레이어를 포함하고, 소프트맥스(softmax) 및 분류(classification) 작업을 진행하는 CNN 구조를 이용하는 딥러닝을 이용한 FMCW 레이더.
The method of claim 8, wherein the deep learning unit includes an input layer, a convolution layer, a pooling layer, and a fully connected layer, and deep learning uses a CNN structure that performs softmax and classification tasks. FMCW radar using.
청구항 9에 있어서, 상기 딥러닝부는 스펙트럼 시프트된 주파수 신호가 입력되어 라벨이 출력되는 과정으로 이루어지며, 수학식 16을 통해 소수배 거리 k로 변환되는 딥러닝을 이용한 FMCW 레이더.
[수학식 16]
Figure pat00096

여기서, 트레인드 영역(trained area)은 학습 영역에서 가장 작은 거리를 나타내고, labelres는 하나의 라벨이 나타내는 거리를 나타내는 라벨 해상도(label resolution)이다.
The FMCW radar using deep learning according to claim 9, wherein the deep learning unit is configured to input a spectrum-shifted frequency signal and output a label, and is converted to a decimal distance k through Equation 16.
[Equation 16]
Figure pat00096

Here, the trained area represents the smallest distance in the learning area, and label res is the label resolution, which represents the distance represented by one label.
청구항 10에 있어서, 상기 라벨 해상도는 수학식 17과 같이 거리 해상도를 전체 라벨의 수로 나눠준 거리가 되는 딥러닝을 이용한 FMCW 레이더.
[수학식 17]
Figure pat00097

여기서, m은 전체 라벨의 수이고, Rres는 거리 해상도이다.
The FMCW radar using deep learning according to claim 10, wherein the label resolution is the distance divided by the distance resolution by the total number of labels, as shown in Equation 17.
[Equation 17]
Figure pat00097

Here, m is the total number of labels and Rres is the distance resolution.
청구항 11에 있어서, 상기 스펙트럼 복원부는 타겟의 거리가
Figure pat00098
일 때, 스펙트럼 시프트를 통해서
Figure pat00099
이 되므로
Figure pat00100
를 더해줘서 정수배 거리로 복원하는 딥러닝을 이용한 FMCW 레이더.
The method of claim 11, wherein the spectrum restoration unit determines that the distance to the target is
Figure pat00098
When, through spectral shift
Figure pat00099
Because this happens
Figure pat00100
FMCW radar using deep learning that restores the distance to an integer multiple by adding .
타겟으로 방사되는 송신 신호와 타겟으로부터 반사된 수신 신호를 이용하여 중간 주파수 신호를 생성하는 과정;
상기 중간 주파수로부터 피크 검출을 통해 피크 인덱스(
Figure pat00101
)를 각각 구하는 과정;
상기 피크 인덱스(
Figure pat00102
)에 해당하는 정수배(n)와 그 일정 값(ncenter)의 주파수 차이를 계산하고 그 차이만큼 스펙트럼을 시프트시키는 과정;
스펙트럼 시프트된 주파수 신호를 입력하고 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 과정;
상기 타겟의 소수배 거리를 정수배로 복원하는 과정을 포함하는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법.
A process of generating an intermediate frequency signal using a transmitted signal radiated to a target and a received signal reflected from the target;
Peak index through peak detection from the intermediate frequency (
Figure pat00101
) process of calculating each;
The peak index (
Figure pat00102
A process of calculating the frequency difference between an integer multiple (n) corresponding to ) and a certain value (n center ) and shifting the spectrum by the difference;
A process of inputting a spectrally shifted frequency signal and inferring the decimal distance of the target using deep learning;
A method of improving the distance resolution of an FMCW radar using deep learning, including the process of restoring the decimal multiple distance of the target to an integer multiple.
청구항 13에 있어서, 상기 복원된 스펙트럼을 이용하여 타겟의 공간 좌표를 추정하는 과정을 더 포함하는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법.
The method of claim 13, further comprising the step of estimating the spatial coordinates of the target using the restored spectrum.
청구항 14에 있어서, 상기 중간 주파수를 생성하는 과정은, 송신 신호를 방사하고 타겟으로부터 반사된 신호를 수신한 후 송신 신호와 수신 신호를 믹싱하고 고속 푸리에 변환하여 상기 중간 주파수를 생성하는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법.
The method of claim 14, wherein the process of generating the intermediate frequency uses deep learning to radiate a transmitted signal, receive a signal reflected from the target, mix the transmitted signal and the received signal, and perform fast Fourier transform to generate the intermediate frequency. How to improve the range resolution of FMCW radar.
청구항 15에 있어서, 상기 스펙트럼 시프트 과정은,
수학식 10으로부터 타겟의
Figure pat00103
과 ncenter의 인덱스 차이(bindiff)를 구하는 과정과,
상기 인덱스 차이(bindiff)에 빈(bin) 사이의 간격 주파수(fs/N)를 곱하여 수학식 11과 같이 이동시켜야 할 주파수(fdiff)를 구하는 과정과,
수학식 12를 이용하여 스펙트럼 시프트된 신호를 구하는 과정과,
수학식 12에 t=nTs를 적용해서 수학식 13과 같이 스펙트럼 시프트된 신호를 샘플링하는 과정과,
수학식 13을 수학식 14로 변환한 후 주파수 변환하여 수학식 15와 같이 주파수를 이동시키는 과정을 포함하는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법.
[수학식 10]
Figure pat00104

[수학식 11]
Figure pat00105

여기서, N은 FFT 포인트 수를 의미하고, fs는 샘플링 주파수이다.
[수학식 12]
Figure pat00106

여기서, sIF는 시간 도메인에서의 IF 신호이고, sshift는 스펙트럼 시프트된 신호이다.
[수학식 13]
Figure pat00107

여기서, t는 시간 변수이고, n는 0부터 (N-1)까지의 범위를 갖는 샘플 인덱스이며, Ts는 샘플링 주기이다.
[수학식 14]
Figure pat00108

[수학식 15]
Figure pat00109

여기서, Sshift와 SIF는 각각 sshift와 sIF를 푸리에 변환한 것이다.
The method of claim 15, wherein the spectrum shift process,
From equation 10, the target
Figure pat00103
The process of calculating the index difference (bin diff ) between and n center ,
A process of multiplying the index difference (bin diff ) by the interval frequency between bins (fs/N) to obtain the frequency (f diff ) to be moved as shown in Equation 11,
The process of obtaining a spectrum shifted signal using Equation 12,
A process of sampling a spectrum-shifted signal as shown in Equation 13 by applying t=nT s to Equation 12,
A method of improving the distance resolution of an FMCW radar using deep learning, which includes converting Equation 13 to Equation 14, then converting the frequency, and moving the frequency as shown in Equation 15.
[Equation 10]
Figure pat00104

[Equation 11]
Figure pat00105

Here, N refers to the number of FFT points, and fs is the sampling frequency.
[Equation 12]
Figure pat00106

Here, s IF is an IF signal in the time domain, and s shift is a spectrum shifted signal.
[Equation 13]
Figure pat00107

Here, t is a time variable, n is a sample index ranging from 0 to (N-1), and Ts is the sampling period.
[Equation 14]
Figure pat00108

[Equation 15]
Figure pat00109

Here, S shift and S IF are the Fourier transforms of s shift and s IF , respectively.
청구항 16에 있어서, 상기 딥러닝을 이용하여 타겟의 소수배 거리를 추론하는 과정은 스펙트럼 시프트된 주파수 신호가 입력되어 라벨이 출력되는 과정으로, 수학식 16을 통해 소수배 거리 k로 변환되는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법.
[수학식 16]
Figure pat00110

여기서, 트레인드 영역(trained area)은 학습 영역에서 가장 작은 거리를 나타내고, labelres는 하나의 라벨이 나타내는 거리인 라벨 해상도(label resolution)를 나타낸다.
The method of claim 16, wherein the process of inferring the decimal distance of the target using deep learning is a process in which a spectrum-shifted frequency signal is input and a label is output, and deep learning is converted to the decimal distance k through Equation 16. Method for improving range resolution of FMCW radar using .
[Equation 16]
Figure pat00110

Here, the trained area represents the smallest distance in the learning area, and label res represents the label resolution, which is the distance represented by one label.
청구항 17에 있어서, 상기 라벨 해상도는 수학식 17과 같이 거리 해상도를 전체 라벨의 수로 나눠준 거리가 되는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 장치.
[수학식 17]
Figure pat00111

여기서, m은 전체 라벨의 수이고, Rres는 거리 해상도이다.
The method of claim 17, wherein the label resolution is the distance obtained by dividing the distance resolution by the total number of labels as shown in Equation 17.
[Equation 17]
Figure pat00111

Here, m is the total number of labels and Rres is the distance resolution.
청구항 18에 있어서, 상기 타겟의 소수배 거리를 정수배로 복원하는 과정은, 타겟의 거리가
Figure pat00112
일 때, 스펙트럼 시프트를 통해서
Figure pat00113
이 되므로
Figure pat00114
를 더해줘서 정수배 거리로 복원하는 딥러닝을 이용한 FMCW 레이더의 거리 해상도 향상 방법.
The method of claim 18, wherein the process of restoring the decimal distance of the target to an integer multiple includes:
Figure pat00112
When, through spectral shift
Figure pat00113
Because this happens
Figure pat00114
A method of improving the distance resolution of FMCW radar using deep learning, which restores the distance to an integer multiple by adding .
KR1020220078947A 2022-06-28 2022-06-28 FMCW radar using deep learning and method for improving of range precision the same KR20240001968A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020220078947A KR20240001968A (en) 2022-06-28 2022-06-28 FMCW radar using deep learning and method for improving of range precision the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020220078947A KR20240001968A (en) 2022-06-28 2022-06-28 FMCW radar using deep learning and method for improving of range precision the same

Publications (1)

Publication Number Publication Date
KR20240001968A true KR20240001968A (en) 2024-01-04

Family

ID=89542459

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220078947A KR20240001968A (en) 2022-06-28 2022-06-28 FMCW radar using deep learning and method for improving of range precision the same

Country Status (1)

Country Link
KR (1) KR20240001968A (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101908490B1 (en) 2018-03-02 2018-10-16 한화시스템 주식회사 W band radar apparatus for reducing a leakage current

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101908490B1 (en) 2018-03-02 2018-10-16 한화시스템 주식회사 W band radar apparatus for reducing a leakage current

Similar Documents

Publication Publication Date Title
US11802965B2 (en) Method and system for doppler detection and doppler correction of optical chirped range detection
US11199617B2 (en) Radar sensor for motor vehicles
US6396436B1 (en) Radar method for measuring distances between and relative speeds of a vehicle and one or more obstacles
JP5362004B2 (en) Car radar using complex multi-gradient FM chirp waveform
RU2419813C2 (en) Method and device for measuring distance
KR101135982B1 (en) Synchronization method of radar systems for the rejection of interference in FMCW radars
WO2010134381A1 (en) Radar device
Ristea et al. Fully convolutional neural networks for automotive radar interference mitigation
JP2011247902A (en) Technique for non-coherent integration of target having ambiguous speed
EP4009074B1 (en) Co-prime coded (cpc) doppler division multiplexing (ddm) mimo radar method and system
US11131741B2 (en) Method and apparatus for providing a passive transmitter based synthetic aperture radar
CN111505631A (en) Heart rate estimation algorithm based on L FMCW radar
JP5779370B2 (en) Electronic scanning radar apparatus, received wave direction estimation method, and program
CN113805166A (en) Target tracking and ranging method and system of radar level meter
CN107923967B (en) Processing received radiation reflected from a target
CN110927691A (en) Low-interception radar signal design method based on multi-time coding phase modulation
KR20240001968A (en) FMCW radar using deep learning and method for improving of range precision the same
CN104698444B (en) Method for determining influences of array element position errors on three-dimensional imaging quality of array antenna
Kang et al. A study on pulsed-LFM and pulsed-NLFM waveforms for radar systems
CN113906307A (en) Radar signal processing device, radar system, and signal processing method
CN102998659B (en) Doppler frequency spectrum shaping method and system based on interpulse modulation
KR102610631B1 (en) FMCW Rada resolution enhancement method and system
JP2019086351A (en) Signal processing system, signal processing device, signal processing method and signal processing program
RU2533198C1 (en) Method of controlling radar station resolution
Bezoušek et al. MIMO radar signals with better correlation characteristics