KR102534622B1 - Deep learning-based radar system and method of filtering clutter signal - Google Patents
Deep learning-based radar system and method of filtering clutter signal Download PDFInfo
- Publication number
- KR102534622B1 KR102534622B1 KR1020200176015A KR20200176015A KR102534622B1 KR 102534622 B1 KR102534622 B1 KR 102534622B1 KR 1020200176015 A KR1020200176015 A KR 1020200176015A KR 20200176015 A KR20200176015 A KR 20200176015A KR 102534622 B1 KR102534622 B1 KR 102534622B1
- Authority
- KR
- South Korea
- Prior art keywords
- data
- signal
- radar
- size
- clutter
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/02—Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
- G01S13/50—Systems of measurement based on relative movement of target
- G01S13/52—Discriminating between fixed and moving objects or between objects moving at different speeds
- G01S13/522—Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves
- G01S13/524—Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves based upon the phase or frequency shift resulting from movement of objects, with reference to the transmitted signals, e.g. coherent MTi
- G01S13/5244—Adaptive clutter cancellation
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
레이더 신호에서 클러터 신호를 제거하는 레이더 시스템 및 방법이 개시될 수 있다. 일 실시예에 따른 레이더 시스템은 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 레이더 센서; 및 제1 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행하는 프로세서를 포함하고, 레이더 센서는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하고, 프로세서는 훈련된 DNN에 기초하여 제2 레이더 수신 신호에 DNN 추론을 수행하여 클러터 신호를 제거할 수 있다.A radar system and method for removing clutter signals from a radar signal may be disclosed. A radar system according to an embodiment includes a radar sensor configured to obtain a first radar received signal including a target signal and a clutter signal corresponding to a target to be detected; and a processor performing deep neural network (DNN) training based on the first radar received signal, wherein the radar sensor acquires a second radar received signal including a target signal corresponding to a target and a clutter signal, and a processor may remove the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN.
Description
본 발명은 레이더 신호에서 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템 및 방법에 관한 것이다.The present invention relates to a deep learning-based radar system and method for removing clutter signals from radar signals.
레이더 시스템은 레이더 센서를 통해 레이더 신호를 방사하고 표적 등에 의해 반사되는 레이더 수신 신호를 신호 처리하여 원하는 표적을 탐지한다. 레이더 수신 신호를 탐지하고자 하는 표적 이외에 다양한 운용 환경에 따라 원하지 않는 신호 성분들을 포함한다. 이러한 원하지 않는 신호 성분을 레이더의 클러터 성분이라 한다.A radar system detects a desired target by radiating a radar signal through a radar sensor and processing a radar received signal reflected by a target. In addition to the target to be detected, the radar reception signal includes unwanted signal components according to various operating environments. These unwanted signal components are referred to as radar clutter components.
일반적으로, 레이더 센서의 탐지 성능은 클러터 성분에 상당한 영향을 받는다. 특히, 해상 클러터 환경에서는 클러터 성분(즉, 클러터 신호)을 제거하는 것이 필수이며, 해상 클러터 환경에서 클러터 신호를 제거하는 것은 레이더 시스템의 설계 및 이동 표적 탐지에 가장 중요한 요소이다.In general, the detection performance of a radar sensor is significantly affected by clutter components. In particular, in a maritime clutter environment, it is essential to remove clutter components (ie, clutter signals), and removing clutter signals in a maritime clutter environment is the most important factor in designing a radar system and detecting a moving target.
종래에는 클러터 신호를 제거하기 위해 MTI(moving target indication) 기반 신호 처리가 이용되고 있다. MTI 기반 신호 처리는 주파수 영역에서 표적에 해당하는 신호와 클러터 신호의 차이를 이용하여 레이더 수신 신호에 필터링 처리를 수행하여 클러터 신호를 제거한다. 이러한 MTI 기반 신호 처리는 표적의 도플러 변화를 관측하여 도플러 변화가 큰 신호 성분만을 추출하는 방법으로서, 탐지하고자 하는 표적의 이동 속도가 빠른 경우 상당히 우수한 탐지 성능을 나타내지만, 표적의 이동 속도가 느린 경우(예를 들어, 5m/s 이하인 경우), 저속의 표적의 해상 클러터 특성으로 인해 이동 속도가 느린 표적을 탐지하는 것이 불가능하다. 예를 들면, MTI 기반 신호 처리는 큰 RCS(radar cross section)를 가지며 일정 속도 이상의 대형 선박 또는 군함을 탐지할 수 있지만, 소형 선박, 잠수함의 잠만경 등과 같이 아주 작은 RCS를 갖거나 정지 표적의 경우 해상 클러터 및 노이즈 신호 간섭으로 인해 탐지가 불가능하다.Conventionally, signal processing based on moving target indication (MTI) is used to remove clutter signals. MTI-based signal processing removes the clutter signal by performing filtering processing on the radar reception signal using a difference between the signal corresponding to the target and the clutter signal in the frequency domain. This MTI-based signal processing is a method of extracting only the signal component with a large Doppler change by observing the Doppler change of the target. It shows excellent detection performance when the target to be detected moves fast, but when the target moves slow (eg, less than 5 m/s), it is impossible to detect a slow-moving target due to the maritime clutter characteristics of the low-speed target. For example, MTI-based signal processing has a large radar cross section (RCS) and can detect large ships or warships above a certain speed, but has a very small RCS, such as small ships and submarines, or stationary targets. Detection is impossible due to maritime clutter and noise signal interference.
한편, 클러터 신호를 제거하기 위해 STAP(space time adaptive processing)를 통한 클러터 신호 억압(suppression) 기술이 이용되고 있다. STAP의 경우, 공분산 행렬(covariance matrix)을 예측하기 위해 훈련 데이터가 필요하다. 훈련 데이터는 연관된 셀들의 정보를 이용하여 생성될 수 있으며, 이러한 셀들에 클러터 신호가 포함되면 안 된다. 그러나, 실제 상황에서는 해상 클러터의 돌출(spiky) 특성으로 인해 연관된 셀들이 오염되어 성능의 열화가 발생하는 경우가 빈번하다는 문제점이 있다.Meanwhile, a clutter signal suppression technique through space time adaptive processing (STAP) is used to remove the clutter signal. For STAP, training data is needed to predict the covariance matrix. Training data may be generated using information of associated cells, and clutter signals should not be included in these cells. However, in real situations, there is a problem in that related cells are often contaminated due to the spiky characteristics of marine clutter, resulting in performance deterioration.
본 발명은 컨벌루션 심층 신경망(convolution deep neural network)을 이용하여 특징맵 표적의 특징을 추출하고 선택적으로 표적 복원하여 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템 및 방법을 제공할 수 있다.The present invention can provide a deep learning-based radar system and method for removing clutter signals by extracting features of a feature map target using a convolution deep neural network and selectively restoring the target.
본 발명의 일 실시예에 따르면, 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템이 개시될 수 있다. 일 실시예에 따른 딥러인 기반 레이더 시스템은 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 레이더 센서; 및 상기 제1 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행하는 프로세서를 포함하고, 상기 레이더 센서는 상기 표적에 해당하는 상기 표적 신호 및 상기 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하고, 상기 프로세서는 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거할 수 있다.According to an embodiment of the present invention, a deep learning-based radar system for removing clutter signals may be disclosed. A radar system based on deep learning according to an embodiment includes a radar sensor configured to obtain a first radar reception signal including a target signal and a clutter signal corresponding to a target to be detected; and a processor performing deep neural network (DNN) training based on the first radar received signal, wherein the radar sensor includes a second radar received signal including the target signal and the clutter signal corresponding to the target. , and the processor may remove the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN.
일 실시예에 있어서, 상기 제1 레이더 수신 신호는 필드 테스트 환경에서 획득될 수 있다.In one embodiment, the first radar reception signal may be obtained in a field test environment.
일 실시예에 있어서, 상기 프로세서는 상기 제1 레이더 수신 신호에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 제1 신호 처리부; 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 제2 신호 처리부; 및 상기 DNN 훈련 정보에 기초하여, 상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 제3 신호 처리부를 포함할 수 있다.In one embodiment, the processor includes a first signal processing unit generating DNN training information by performing the DNN training on the first radar received signal; a second signal processing unit generating second data based on the second radar received signal; and a third signal processing unit generating data from which the clutter signal is removed by performing the DNN inference on the second data based on the DNN training information.
일 실시예에 있어서, 상기 DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스(weight matrix) 데이터 및 바이어스(bias) 데이터를 포함할 수 있다.In one embodiment, the DNN training information may include labeling information, weight matrix data, and bias data.
일 실시예에 있어서, 상기 제1 신호 처리부는 상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 제1 데이터 생성부; 상기 제1 데이터에 레이블링(labeling) 처리를 수행하는 레이블링 처리부; 및 상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 상기 DNN 훈련 정보를 생성하는 DNN 훈련부를 포함할 수 있다.In one embodiment, the first signal processor may include a first data generator configured to generate first data for labeling processing using the first radar reception signal; a labeling processing unit performing labeling processing on the first data; and a DNN training unit generating the DNN training information by performing the DNN training on the labeled first data.
일 실시예에 있어서, 상기 제1 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the first data may include RDmap data.
일 실시예에 있어서, 상기 레이블링 처리부는 상기 제1 데이터에 상기 레이블링 처리를 수행하여, 상기 표적 신호에 데이터 레이블링을 수행하고, 상기 클러터 신호에 데이터 레이블링을 수행할 수 있다.In an embodiment, the labeling processor may perform the labeling process on the first data, data labeling on the target signal, and data labeling on the clutter signal.
일 실시예에 있어서, 상기 제2 신호 처리부는 상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 도플러 처리부; 및 상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 제2 데이터 생성부를 포함할 수 있다.In one embodiment, the second signal processing unit Doppler processing unit for performing Doppler processing on the second radar received signal; and a second data generator configured to generate the second data based on the Doppler-processed second radar reception signal.
일 실시예에 있어서, 상기 제2 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the second data may include RDmap data.
일 실시예에 있어서, 상기 제3 신호 처리부는 상기 제2 데이터에 엔코딩(encoding) 처리를 수행하는 엔코더; 상기 DNN 훈련 정보에 기초하여, 상기 엔코딩 처리된 제2 데이터로부터 특징맵을 생성하는 특징맵 생성부; 및 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 디코딩(decoding) 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 디코더를 포함할 수 있다.In one embodiment, the third signal processing unit encoder for performing an encoding (encoding) process on the second data; a feature map generating unit generating a feature map from the encoded second data based on the DNN training information; and a decoder generating second data from which the clutter signal is removed by performing a decoding process on the encoded second data based on the DNN training information and the feature map.
일 실시예에 있어서, 상기 엔코더는 상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 컨벌루션부를 복수개 포함할 수 있다.In one embodiment, the encoder may include a plurality of convolution units that reduce the data size of the second data to half.
일 실시예에 있어서, 상기 컨벌루션부는 2×2 크기를 갖는 컨벌루션 필터를 포함할 수 있다.In one embodiment, the convolution unit may include a convolution filter having a size of 2×2.
일 실시예에 있어서, 상기 특징맵은 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함할 수 있다.In one embodiment, the feature map may include compressed information on the target, clutter, and noise.
일 실시예에 있어서, 상기 디코더는 상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 전치 컨벌루션부를 복수개 포함할 수 있다.In one embodiment, the decoder may include a plurality of pre-convolution units that double the data size of the encoded second data.
일 실시예에 있어서, 상기 전치 컨벌루션부는 2×2 크기를 갖는 전치 컨벌루션 필터를 포함할 수 있다.In an embodiment, the pre-convolution unit may include a pre-convolution filter having a size of 2×2.
본 발명의 일 실시예에 따르면, 딥러닝 기반 클러터 신호를 제거하는 클러터 신호 제거 방법이 개시될 수 있다. 일 실시예에 따른 딥러닝 기반 클러터 신호 제거 방법은 레이더 시스템의 레이더 센서에서, 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 단계; 상기 레이더 시스템의 프로세서에서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계; 상기 레이더 센서에서, 상기 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하는 단계; 및 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계를 포함할 수 있다.According to one embodiment of the present invention, a clutter signal removal method for removing clutter signals based on deep learning may be disclosed. A deep learning-based clutter signal removal method according to an embodiment includes obtaining a first radar reception signal including a target signal corresponding to a target to be detected and a clutter signal in a radar sensor of a radar system; In a processor of the radar system, performing DNN training on the first radar received signal; acquiring a second radar received signal including a target signal corresponding to the target and a clutter signal, in the radar sensor; and removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN.
일 실시예에 있어서, 상기 제1 레이더 수신 신호는 필드 테스트 환경에서 획득될 수 있다.In one embodiment, the first radar reception signal may be obtained in a field test environment.
일 실시예에 있어서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계는 상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 단계; 상기 제1 데이터에 레이블링 처리를 수행하는 단계; 및 상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 단계를 포함할 수 있다.In one embodiment, performing DNN training on the first radar received signal includes generating first data for labeling processing using the first radar received signal; performing labeling processing on the first data; and generating DNN training information by performing the DNN training on the labeled first data.
일 실시예에 있어서, 상기 제1 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the first data may include RDmap data.
일 실시예에 있어서, 상기 DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스 데이터 및 바이어스 데이터를 포함할 수 있다.In one embodiment, the DNN training information may include labeling information, weight matrix data, and bias data.
일 실시예에 있어서, 상기 제1 데이터에 레이블링 처리를 수행하는 단계는 상기 표적 신호에 데이터 레이블링을 수행하는 단계; 및 상기 클러터 신호에 데이터 레이블링을 수행하는 단계를 포함할 수 있다.In an embodiment, performing labeling processing on the first data includes: performing data labeling on the target signal; and performing data labeling on the clutter signal.
일 실시예에 있어서, 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계는 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계; 및 상기 DNN 훈련 정보에 기초하여, 상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 단계를 포함할 수 있다.In one embodiment, the removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN includes generating second data based on the second radar received signal. ; and generating data from which the clutter signal is removed by performing the DNN inference on the second data based on the DNN training information.
일 실시예에 있어서, 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계는 상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 단계; 및 상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 단계를 포함할 수 있다.In one embodiment, generating the second data based on the second radar received signal comprises performing Doppler processing on the second radar received signal; and generating the second data based on the Doppler-processed second radar reception signal.
일 실시예에 있어서, 상기 제2 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the second data may include RDmap data.
일 실시예에 있어서, 상기 DNN 훈련 정보에 기초하여, 상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 단계는 상기 제2 데이터에 엔코딩 처리를 수행하는 단계; 상기 DNN 훈련 정보에 기초하여, 상기 엔코딩 처리된 제2 데이터로부터 특징맵을 생성하는 단계; 및 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 단계를 포함할 수 있다.In an embodiment, the step of performing the DNN inference on the second data based on the DNN training information to generate the data from which the clutter signal is removed comprises: performing an encoding process on the second data; generating a feature map from the encoded second data based on the DNN training information; and performing a decoding process on the encoded second data based on the DNN training information and the feature map to generate second data from which the clutter signal is removed.
일 실시예에 있어서, 상기 제2 데이터에 엔코딩 처리를 수행하는 단계는 상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 컨벌루션부를 복수개 포함하는 엔코더를 이용하여 상기 제2 데이터에 엔코딩 처리를 수행하는 단계를 포함할 수 있다.In one embodiment, the performing of encoding processing on the second data performs encoding processing on the second data using an encoder including a plurality of convolution units reducing the data size of the second data to half. steps may be included.
일 실시예에 있어서, 상기 컨벌루션부는 2×2 크기를 갖는 컨벌루션 필터를 포함할 수 있다.In one embodiment, the convolution unit may include a convolution filter having a size of 2×2.
일 실시예에 있어서, 상기 특징맵은 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함할 수 있다.In one embodiment, the feature map may include compressed information on the target, clutter, and noise.
일 실시예에 있어서, 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 단계는 상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 전치 컨벌루션부를 복수개 포함하는 디코더를 이용하여 상기 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하는 단계를 포함할 수 있다.In one embodiment, generating the second data from which the clutter signal is removed by performing decoding processing on the encoded second data based on the DNN training information and the feature map may include: and performing a decoding process on the encoded second data using a decoder including a plurality of pre-convolution units that double the data size of the 2 data.
일 실시예에 있어서, 상기 전치 컨벌루션부는 2×2 크기를 갖는 전치 컨벌루션 필터를 포함할 수 있다.In an embodiment, the pre-convolution unit may include a pre-convolution filter having a size of 2×2.
본 발명의 다양한 실시예에 따르면, 기존의 영상 인식 및 분류에서 적용한 CNN 구조와 다르게 소형 표적의 특징을 추출하기 위해 컨벌루션 필터의 커널 크기를 2×2로 줄일 수 있다.According to various embodiments of the present invention, unlike a CNN structure applied in conventional image recognition and classification, the kernel size of the convolution filter can be reduced to 2×2 in order to extract features of a small target.
또한, 기존의 영상 인식에 적용된 CNN 구조에서 연산량을 줄이기 위해 사용되었던 풀링 계층(pooling layer)를 제거할 수 있고, 풀링 계층을 제거함으로써, 다운 샘플링(down-sampling) 과정에서 소형 표적의 특징이 소실되는 것을 방지할 수 있다.In addition, it is possible to remove the pooling layer used to reduce the amount of computation in the conventional CNN structure applied to image recognition, and by removing the pooling layer, the characteristics of small targets are lost in the down-sampling process. can prevent it from happening.
또한, 해상 표적의 신호 크기가 작아 클러터 신호에 의해 가려져 표적의 탐지가 불가능할 때 CNN 추론을 수행하여 클러터 신호를 제거할 수 있어, 대상 표적에 대한 탐지가 가능하다.In addition, when the signal size of the maritime target is small and obscured by the clutter signal, and thus the target cannot be detected, CNN inference can be performed to remove the clutter signal, enabling detection of the target target.
더욱이, 본 발명의 다양한 실시예에 따르면, 클러터 환경 하의 소형 및 저속 표적을 탐지하는 해상 레이더 시스템에 활용될 수 있다.Moreover, according to various embodiments of the present invention, it can be utilized in a maritime radar system that detects small and low-velocity targets in a clutter environment.
도 1은 본 발명의 일 실시예에 따른 레이더 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 프로세서의 구성을 개략적으로 나타낸 블록도이다.
도 3a는 본 발명의 일 실시예에 따른 제1 RDmap 데이터를 나타낸 예시도이다.
도 3b는 본 발명의 일 실시예에 따른 표적 신호 및 클러터 신호에 데이터 레이블링을 수행한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 엔코더의 구성을 개략적으로 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 엔코더의 엔코딩 처리를 나타낸 예시도이다.
도 6은 본 발명의 일 실시예에 따른 디코더의 구성을 개략적으로 나타낸 블록도이다.
도 7은 본 발명의 일 실시예에 따른 디코더의 디코딩 처리를 나타낸 예시도이다.
도 8은 본 발명의 일 실시예에 따라 클러터 신호를 제거하는 방법을 나타낸 흐름도이다.
도 9는 본 발명의 일 실시예에 따라 DNN 훈련을 수행하는 방법을 나타낸 흐름도이다.
도 10은 본 발명의 일 실시예에 따라 DNN 추론을 수행하는 방법을 나타낸 흐름도이다.
도 11a는 본 발명의 일 실시예에 따른 DNN 추론을 수행하기 전의 제2 RDmap 데이터를 나타낸 예시도이다.
도 11b는 본 발명의 일 실시예에 따른 DNN 추론을 수행한 후의 제2 RDmap 데이터를 나타낸 예시도이다.1 is a schematic block diagram of a radar system according to an embodiment of the present invention.
2 is a block diagram schematically illustrating the configuration of a processor according to an embodiment of the present invention.
3A is an exemplary diagram illustrating first RDmap data according to an embodiment of the present invention.
3B is an exemplary diagram in which data labeling is performed on a target signal and a clutter signal according to an embodiment of the present invention.
4 is a block diagram schematically showing the configuration of an encoder according to an embodiment of the present invention.
5 is an exemplary diagram illustrating an encoding process of an encoder according to an embodiment of the present invention.
6 is a block diagram schematically showing the configuration of a decoder according to an embodiment of the present invention.
7 is an exemplary diagram illustrating decoding processing of a decoder according to an embodiment of the present invention.
8 is a flowchart illustrating a method of removing a clutter signal according to an embodiment of the present invention.
9 is a flowchart illustrating a method of performing DNN training according to an embodiment of the present invention.
10 is a flowchart illustrating a method of performing DNN inference according to an embodiment of the present invention.
11A is an exemplary diagram illustrating second RDmap data before performing DNN inference according to an embodiment of the present invention.
11B is an exemplary diagram illustrating second RDmap data after performing DNN inference according to an embodiment of the present invention.
본 발명의 실시예들은 본 발명의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 발명에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.Embodiments of the present invention are illustrated for the purpose of explaining the technical idea of the present invention. The scope of rights according to the present invention is not limited to the specific description of the embodiments or these embodiments presented below.
본 발명에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 발명에 사용되는 모든 용어들은 본 발명을 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 발명에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical terms and scientific terms used in the present invention have meanings commonly understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise defined. All terms used in the present invention are selected for the purpose of more clearly describing the present invention and are not selected to limit the scope of rights according to the present invention.
본 발명에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.Expressions such as "comprising", "including", "having", etc. used in the present invention are open-ended terms that imply the possibility of including other embodiments, unless otherwise stated in the phrase or sentence in which the expression is included. (open-ended terms).
본 발명에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.Singular expressions described in the present invention may include plural meanings unless otherwise stated, and this applies to singular expressions described in the claims as well.
본 발명에서 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다.Expressions such as "first" and "second" used in the present invention are used to distinguish a plurality of components from each other, and do not limit the order or importance of the components.
본 발명에서 사용되는 용어 "부"는, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 분리될 수 있다.The term "unit" used in the present invention means software or a hardware component such as a field-programmable gate array (FPGA) or an application specific integrated circuit (ASIC). However, "unit" is not limited to hardware and software. A “unit” may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Thus, as an example, "unit" refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, It includes segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Functions provided within components and “units” may be combined into fewer components and “units” or separated into additional components and “units”.
본 발명에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되며, 이 표현은 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.As used herein, the expression "based on" is used to describe one or more factors that affect the action or operation of a decision judgment, described in a phrase or sentence in which the expression is included, and this expression refers to a decision However, it does not preclude additional factors that affect the act or operation of the judgment.
본 발명에서, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 경우, 어떤 구성요소가 다른 구성요소에 직접적으로 연결될 수 있거나 접속될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 접속될 수 있는 것으로 이해되어야 한다.In the present invention, when an element is referred to as being “connected” or “connected” to another element, that element is directly connectable or connectable to the other element, or a new or different configuration. It should be understood that it can be connected or connected via an element.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, identical or corresponding elements are given the same reference numerals. In addition, in the description of the following embodiments, overlapping descriptions of the same or corresponding components may be omitted. However, omission of a description of a component does not intend that such a component is not included in an embodiment.
도 1은 본 발명의 일 실시예에 따른 레이더 시스템을 개략적으로 나타낸 블록도이다. 도 1을 참조하면, 딥러닝 기반 레이더 시스템(100)은 레이더 센서(110), 저장부(120), 프로세서(130) 및 제어부(140)를 포함할 수 있다.1 is a schematic block diagram of a radar system according to an embodiment of the present invention. Referring to FIG. 1 , a deep learning-based
레이더 센서(110)는 레이더 신호를 생성하고, 생성된 레이더 신호를 방사할 수 있다. 또한, 레이더 센서(110)는 탐지하고자 하는 표적 등으로부터 반사되는 레이더 신호를 수신하여 레이더 수신 신호를 획득할 수 있다. 일 실시예에 있어서, 레이더 수신 신호는 탐지하고자 하는 표적에 해당하는 신호(이하, "표적 신호"라 함) 및 클러터 신호를 포함할 수 있다. 일 실시예에 있어서, 레이더 센서(110)는 필드 테스트(field test) 환경에서 레이더 신호를 방사하고 레이더 수신 신호를 획득할 수 있다.The
저장부(120)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호를 저장할 수 있다. 또한, 저장부(120)는 프로세서(130)에 의해 필터링 처리된 레이더 수신 신호를 저장할 수 있다.The
일 실시예에 있어서, 저장부(120)는 자기 디스크(예를 들어, 자기 테이프, 플렉시블 디스크, 하드 디스크 등), 광 디스크(예를 들어, CD, DVD 등), 반도체 메모리(예를 들어, USB 메모리, 메모리 카드 등) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the
프로세서(130)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호를 수신하고, 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행할 수 있다. 또한, 프로세서(130)는 훈련된 DNN에 기초하여, 레이더 센서(110)로부터 제공되는 레이더 수신 신호에 DNN 추론을 수행하여 레이더 수신 신호에서 클러터 신호를 제거할 수 있다.The
일 실시예에 있어서, 프로세서(130)는 이상 기술된 제어 동작들 또는 이 동작들을 실행하는 프로그램 명령어를 실행할 수 있는 CPU(central processing unit), FPGA(field programmable gate array), ASIC(application specific integrated circuit) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the
제어부(140)는 레이더 센서(110), 저장부(120) 및 프로세서(130)에 연결되고, 레이더 시스템(100)의 각 구성요소의 동작을 제어할 수 있다. 일 실시예에 있어서, 제어부(140)는 레이더 신호의 송신 및 수신을 제어할 수 있다. 또한, 제어부(140)는 레이더 수신 신호의 DNN 훈련 및 DNN 추론을 제어할 수 있다.The
도 2는 본 발명의 일 실시예에 따른 프로세서의 구성을 개략적으로 나타낸 블록도이다. 도 2를 참조하면, 프로세서(130)는 제1 신호 처리부(210), 제2 신호 처리부(220) 및 제3 신호 처리부(230)를 포함할 수 있다.2 is a block diagram schematically illustrating the configuration of a processor according to an embodiment of the present invention. Referring to FIG. 2 , the
제1 신호 처리부(210)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호에 DNN 훈련을 수행할 수 있다. 일 실시예에 있어서, 레이더 수신 신호는 필드 테스트 환경에서 획득된 레이더 수신 신호일 수 있다. 일 실시예에 있어서, 제1 신호 처리부(210)는 도 2에 도시된 바와 같이, 제1 데이터 생성부(211), 레이블링 처리부(212) 및 DNN 훈련부(213)를 포함할 수 있다.The
제1 데이터 생성부(211)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호를 이용하여 레이블링 처리를 위한 데이터를 생성할 수 있다. 일 실시예에 있어서, 레이블링 처리를 위한 데이터는 RDmap 데이터(이하, "제1 RDmap 데이터"라 함)를 포함할 수 있다.The
레이블링 처리부(212)는 제1 데이터 생성부(211)에 연결되고, 제1 데이터 생성부(211)에 의해 생성된 제1 RDmap 데이터를 수신할 수 있다. 레이블링 처리부(212)는 제1 RDmap 데이터에 레이블링(labeling) 처리를 수행할 수 있다. 일 실시예에 있어서, 레이블링 처리부(212)는 제1 RDmap 데이터에 레이블링 처리를 수행하여, 표적 신호에 데이터 레이블링을 수행하고, 클러터 신호에 데이터 레이블링을 수행할 수 있다.The
예를 들면, 레이블링 처리부(212)는 도 3a에 도시된 바와 같이, 표적 신호(310), 클러터 신호(320) 및 노이즈 신호(330)를 포함하는 제1 RDmap 데이터를 수신할 수 있다. 레이블링 처리부(212)는 도 3b에 도시된 바와 같이, 제1 RDmap 데이터에 레이블링 처리를 수행하여, 표적 신호(310)에 데이터 레이블링(310')을 수행하고, 클러터 신호(320)에 데이터 레이블링(320')을 수행할 수 있다.For example, the
DNN 훈련부(213)는 레이블링 처리부(212)에 연결되고, 레이블링 처리부(212)에 의해 레이블링 처리된 제1 RDmap 데이터를 수신할 수 있다. DNN 훈련부(213)는 수신된 제1 RDmap 데이터에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다. 일 실시예에 있어서, DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스(weight matrix) 데이터 및 바이어스(bias) 데이터를 포함할 수 있다.The
제2 신호 처리부(220)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호에 기초하여 RDmap 데이터(이하, "제2 RDmap 데이터"라 함)를 생성할 수 있다. 일 실시예에 있어서, 제2 신호 처리부(220)는 도 2에 도시된 바와 같이, 도플러 처리부(221) 및 제2 데이터 생성부(222)를 포함할 수 있다.The second
도플러 처리부(221)는 레이더 센서(110)로부터 레이더 수신 신호를 수신하고, 수신된 레이더 수신 신호에 도플러 처리를 수행할 수 있다. 일 실시예에 있어서, 레이더 수신 신호는 실제 환경에서 레이더 센서(110)에 의해 레이더 신호(레이더 파형)가 방사되고, 탐지하고자 하는 표적 등으로부터 반사되는 레이더 신호의 썸 채널(sum channel) 데이터일 수 있다.The
제2 데이터 생성부(222)는 도플러 처리부(221)에 연결되고, 도플러 처리부(221)에 의해 도플러 처리된 레이더 수신 신호를 수신할 수 있다. 제2 데이터 생성부(222)는 도플러 처리된 레이더 수신 신호에 기초하여 제2 RDmap 데이터를 생성할 수 있다.The
제3 신호 처리부(230)는 제1 신호 처리부(210) 및 제2 신호 처리부(220)에 연결되고, 제1 신호 처리부(210)로부터 DNN 훈련 정보를 수신하고, 제2 신호 처리부(220)로부터 제2 RDmap 데이터를 수신할 수 있다. 제3 신호 처리부(230)는 DNN 훈련 정보에 기초하여, 제2 RDmap 데이터에 DNN 추론을 수행하여 클러터 신호가 제거된 RDmap 데이터를 생성할 수 있다. 일 실시예에 있어서, 제3 신호 처리부(230)는 엔코더(231), 특징맵 생성부(232) 및 디코더(233)를 포함할 수 있다.The third
엔코더(231)는 제2 신호 처리부(220)에 의해 생성된 제2 RDmap 데이터를 수신할 수 있다. 엔코더(231)는 제2 RDmap 데이터에 엔코딩(encoding) 처리를 수행할 수 있다. 일 실시예에 있어서, 엔코더(231)는 제2 RDmap 데이터에서 저속 및 소형 표적의 특징을 추출하기 위해 엔코딩 처리를 수행할 수 있다.The
일 실시예에 있어서, 엔코더(231)는 제2 RDmap 데이터를 m×n으로 잘라서 엔코딩 처리를 수행할 수 있다. 예를 들면, 엔코더(231)는 도 4에 도시된 바와 같이, 제1 컨벌루션부(410), 제2 컨벌루션부(420), 제3 컨벌루션부(430) 및 제4 컨벌루션부(440)를 포함할 수 있다.In one embodiment, the
제1 컨벌루션부(410)는 제2 RDmap 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 수행할 수 있다. 예를 들면, 제1 컨벌루션부(410)는 도 5에 도시된 바와 같이, 256×256 크기를 갖는 제2 RDmap 데이터를 절반 크기(즉, 128×128)를 갖는 제2 RDmap 데이터로 데이터 크기를 감소시키기 위한 엔코딩 처리를 수행할 수 있다. 여기서, 제1 컨벌루션부(410)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트(stride)는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩(padding)은 0일 수 있다.The
제2 컨벌루션부(420)는 제1 컨벌루션부(410)에 연결되고, 제1 컨벌루션부(410)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제2 컨벌루션부(420)는 수신된 제2 RDmap 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 수행할 수 있다. 예를 들면, 제2 컨벌루션부(420)는 도 4에 도시된 바와 같이, 128×128 크기를 갖는 제2 RDmap 데이터를 절반 크기(즉, 64×64)를 갖는 제2 RDmap 데이터로 데이터 크기를 감소시키기 위한 엔코딩 처리를 수행할 수 있다. 여기서, 제2 컨볼루션부(420)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The
제3 컨벌루션부(430)는 제2 컨벌루션부(420)에 연결되고, 제2 컨벌루션부(420)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제3 컨벌루션부(430)는 수신된 제2 RDmap 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 수행할 수 있다. 예를 들면, 제3 컨벌루션부(430)는 도 4에 도시된 바와 같이, 64×64 크기를 갖는 제2 RDmap 데이터를 절반 크기(즉, 32×32)를 갖는 제2 RDmap 데이터로 데이터 크기를 감소시키기 위한 엔코딩 처리를 수행할 수 있다. 여기서, 제3 컨볼루션부(430)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The
제4 컨벌루션부(440)는 제3 컨벌루션부(430)에 연결되고, 제3 컨벌루션부(430)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제4 컨벌루션부(440)는 수신된 제2 RDmap 데이터에 엔코딩 처리를 수행할 수 있다. 예를 들면, 제4 컨벌루션부(440)는 도 4에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 32×32 크기를 갖는 제2 RDmap 데이터로 엔코딩 처리를 수행할 수 있다. 여기서, 제4 컨볼루션부(440)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The
특징맵 생성부(232)는 엔코더(231)에 연결되고, 엔코더(231)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 특징맵 생성부(232)는 DNN 훈련 정보에 기초하여, 수신된 제2 RDmap 데이터로부터 특징맵을 생성할 수 있다. 일 실시예에 있어서, 특징맵은 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함할 수 있다.The
디코더(233)는 특징맵 생성부(232)에 연결되고, 특징맵 생성부(232)에 의해 생성된 특징맵을 수신할 수 있다. 디코더(233)는 DNN 훈련 정보에 기초하여 특징맵으로부터 저속 및 낮은 RCS의 표적의 특징을 선택하고, 표적 데이터를 포함하는 RDmap 데이터를 원래 크기의 RDmap 데이터를 복원하고 클러터 신호를 제거할 수 있다. 일 실시예에 있어서, 디코더(233)는 도 6에 도시된 바와 같이, 제1 전치 컨벌루션(transposed convolution)부(610), 제2 전치 컨벌루션부(620), 제3 전치 컨벌루션부(630) 및 제4 전치 컨벌루션부(640)를 포함할 수 있다.The
제1 전치 컨벌루션부(610)는 제2 RDmap 데이터에 디코딩(decoding) 처리를 수행할 수 있다. 예를 들면, 제1 전치 컨벌루션부(610)는 도 7에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 32×32 크기를 갖는 제2 RDmap 데이터로 디코딩 처리를 수행할 수 있다. 예를 들면, 제1 전치 컨벌루션부(610)는 도 7에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 32×32 크기를 갖는 제2 RDmap 데이터로 디코딩 처리를 수행할 수 있다. 여기서, 제1 전치 컨벌루션부(610)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The
제2 전치 컨벌루션부(620)는 제1 전치 컨벌루션부(610)에 연결되고, 제1 전치 컨벌루션부(610)에 의해 디코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제2 전치 컨벌루션부(620)는 수신된 제2 RDmap 데이터의 크기를 2배 크기로 증가시키는 디코딩 처리를 수행할 수 있다. 예를 들면, 제2 전치 컨벌루션부(620)는 도 7에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 2배 크기(즉, 64×64)를 갖는 제2 RDmap 데이터로 데이터 크기를 증가시키기 위한 디코딩 처리를 수행할 수 있다. 여기서, 제2 전치 컨벌루션부(620)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The
제3 전치 컨벌루션부(630)는 제2 전치 컨벌루션부(620)에 연결되고, 제2 전치 컨벌루션부(620)에 의해 디코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제3 전치 컨벌루션부(630)는 수신된 제2 RDmap 데이터의 크기를 2배 크기로 증가시키는 디코딩 처리를 수행할 수 있다. 예를 들면, 제3 전치 컨벌루션부(630)는 도 6에 도시된 바와 같이, 64×64 크기를 갖는 제2 RDmap 데이터를 2배 크기(즉, 128×128)를 갖는 제2 RDmap 데이터로 데이터 크기를 증가시키기 위한 디코딩 처리를 수행할 수 있다. 여기서, 제3 전치 컨벌루션부(630)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The third
제4 전치 컨벌루션부(640)는 제3 전치 컨벌루션부(630)에 연결되고, 제3 전치 컨벌루션부(630)에 의해 디코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제4 전치 컨벌루션부(640)는 수신된 제2 RDmap 데이터의 크기를 2배 크기로 증가시키는 디코딩 처리를 수행할 수 있다. 예를 들면, 제4 전치 컨벌루션부(640)는 도 7에 도시된 바와 같이, 128×128 크기를 갖는 제2 RDmap 데이터를 2배 크기(즉, 2568×256)를 갖는 제2 RDmap 데이터로 데이터 크기를 증가시키기 위한 디코딩 처리를 수행할 수 있다. 여기서, 제4 전치 컨벌루션부(640)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The
본 발명에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동되도록 구성될 수 있다. 다시 말하면, 본 발명의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 발명에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 발명의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.Although process steps, method steps, algorithms, etc. are described in sequential order in the flowcharts shown herein, such processes, methods and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in the various embodiments of the invention need not be performed in the order described herein. Also, although some steps are described as being performed asynchronously, in other embodiments some of these steps may be performed concurrently. Further, illustration of a process by depiction in the drawings does not mean that the illustrated process is exclusive of other changes and modifications thereto, and that any of the illustrated process or steps thereof may be one of various embodiments of the present invention. It is not meant to be essential to one or more, and it does not imply that the illustrated process is preferred.
도 8은 본 발명의 일 실시예에 따라 클러터 신호를 제거하는 방법을 나타낸 흐름도이다. 도 8을 참조하면, 단계 S802에서, 레이더 센서(110)는 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득할 수 있다. 일 실시예에 있어서, 레이더 센서(110)는 필드 테스트 환경에서 레이더 신호를 방사하여 제1 레이더 수신 신호를 획득할 수 있다.8 is a flowchart illustrating a method of removing a clutter signal according to an embodiment of the present invention. Referring to FIG. 8 , in step S802, the
단계 S804에서, 프로세서(130)는 제1 레이더 수신 신호에 DNN 훈련을 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 제1 레이더 수신 신호에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다.In step S804, the
단계 S806에서, 레이더 센서(110)는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득할 수 있다. 일 실시예에 있어서, 레이더 센서(110)는 실제 환경에서 레이더 신호(레이더 파형)를 방사하고 탐지하고자 하는 표적 등으로부터 반사되는 레이더 신호를 수신하여 제2 레이더 수신 신호를 획득할 수 있다. 예를 들면, 제2 레이더 수신 신호는 표적 등으로부터 반사되는 레이더 신호의 썸 채널 데이터일 수 있다.In step S806, the
단계 S808에서, 프로세서(130)는 훈련된 DNN에 기초하여 제2 레이더 수신 신호에 DNN 추론을 수행하여 클러터 신호를 제거할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제2 신호 처리부(220)는 제2 레이더 수신 신호에 기초하여 제2 데이터(예를 들어, 제2 RDmap 데이터)를 생성하고, 제3 신호 처리부(230)는 DNN 훈련 정보에 기초하여, 제2 데이터에 DNN 추론을 수행하여 클러터 신호가 제거된 제2 데이터를 생성할 수 있다.In step S808, the
선택적으로, 단계 S806 및 단계 S808은 시험 종료까지 반복 수행될 수 있다.Optionally, steps S806 and S808 may be repeatedly performed until the end of the test.
도 9는 본 발명의 일 실시예에 따라 DNN 훈련을 수행하는 방법을 나타낸 흐름도이다. 도 9를 참조하면, 단계 S902에서, 프로세서(130)는 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터(예를 들어, 제1 RDmap 데이터)를 생성할 수 있다.9 is a flowchart illustrating a method of performing DNN training according to an embodiment of the present invention. Referring to FIG. 9 , in step S902, the
단계 S904에서, 프로세서(130)는 제1 데이터에 레이블링 처리를 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 표적 신호에 데이터 레이블링을 수행하고, 클러터 신호에 데이터 레이블링을 수행할 수 있다.In step S904, the
단계 S906에서, 프로세서(130)는 레이블링 처리된 제1 데이터에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 제1 데이터(예를 들어, 제1 RDmap 데이터)에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다. 예를 들면, DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스 데이터 및 바이어스 데이터를 포함할 수 있다.In step S906, the
도 10은 본 발명의 일 실시예에 따라 DNN 추론을 수행하는 방법을 나타낸 흐름도이다. 도 10을 참조하면, 단계 S1002에서, 프로세서(130)는 제2 레이더 수신 신호에 도플러 처리를 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제2 신호 처리부(220)는 제2 레이더 수신 신호에 도플러 처리를 수행할 수 있다.10 is a flowchart illustrating a method of performing DNN inference according to an embodiment of the present invention. Referring to FIG. 10 , in step S1002, the
단계 S1004에서, 프로세서(130)는 도플러 처리된 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제2 신호 처리부(220)는 도플러 처리된 제2 레이더 수신 신호에 기초하여 제2 데이터(예를 들어, 제2 RDmap 데이터)를 생성할 수 있다. In step S1004, the
단계 S1006에서, 프로세서(130)는 제2 데이터에 엔코딩 처리를 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제3 신호 처리부(230)는 제2 데이터(예를 들어, 제2 RDmap 데이터)의 데이터 크기를 절반의 크기로 감소시키는 컨벌루션부를 복수개 포함하는 엔코더를 이용하여 제2 데이터에 엔코딩 처리를 수행할 수 있다.In step S1006, the
단계 S1008에서, 프로세서(130)는 DNN 훈련 정보에 기초하여, 엔코딩 처리된 제2 데이터로부터 특징맵을 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제3 신호 처리부(230)는 DNN 훈련 정보에 기초하여, 엔코딩 처리된 제2 데이터로부터 특징맵을 생성할 수 있다.In step S1008, the
단계 S1010에서, 프로세서(130)는 DNN 훈련 정보 및 특징맵에 기초하여 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하여 클러터 신호가 제거된 제2 데이터를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제3 신호 처리부(230)는 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 전치 컨벌루션부를 복수개 포함하는 디코더를 이용하여 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행할 수 있다.In step S1010, the
예를 들면, 도 11a에서 붉은색 원으로 표시된 바와 같이, 표적 신호가 클러터 신호에 의해 묻혀 보이지 않는 경우, 본 실시예에 따른 DNN 추론을 수행함으로써, 도 11b에서 푸른색 원으로 표시된 바와 같이, 클러터 신호에 가려져 있던 표적 신호가 RDmap 데이터 상에 정상적으로 나타날 수 있다.For example, as indicated by a red circle in FIG. 11A, when the target signal is not visible buried by the clutter signal, by performing DNN inference according to the present embodiment, as indicated by a blue circle in FIG. 11B, The target signal hidden by the clutter signal may appear normally on the RDmap data.
위 방법은 특정 실시예들을 통하여 설명되었지만, 위 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 위 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the above method has been described through specific embodiments, it is also possible to implement the above method as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium is distributed in computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily inferred by programmers in the technical field to which the present invention belongs.
이상 일부 실시예들과 첨부된 도면에 도시된 예에 의해 본 발명의 기술적 사상이 설명되었지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 이해할 수 있는 본 발명의 기술적 사상 및 범위를 벗어나지 않는 범위에서 다양한 치환, 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 속하는 것으로 생각되어야 한다.Although the technical idea of the present invention has been described by the examples shown in some embodiments and the accompanying drawings, it does not deviate from the technical spirit and scope of the present invention that can be understood by those skilled in the art to which the present invention belongs. It will be appreciated that various substitutions, modifications and alterations may be made within the range. Moreover, such substitutions, modifications and alterations are intended to fall within the scope of the appended claims.
100: 레이더 시스템, 110: 레이더 센서, 120: 저장부, 130: 프로세서, 140: 제어부, 210: 제1 신호 처리부, 211: 제1 데이터 생성부, 212: 레이블링 처리부, 213: DNN 훈련부, 220: 제2 신호 처리부, 221: 도플러 처리부, 222: 제2 데이터 생성부, 230: 제3 신호 처리부, 231: 엔코더, 232: 특징맵 생성부, 233: 디코더100: radar system, 110: radar sensor, 120: storage unit, 130: processor, 140: control unit, 210: first signal processing unit, 211: first data generation unit, 212: labeling processing unit, 213: DNN training unit, 220: 2nd signal processor, 221: Doppler processor, 222: second data generator, 230: third signal processor, 231: encoder, 232: feature map generator, 233: decoder
Claims (30)
탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 레이더 센서; 및
상기 제1 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행하는 프로세서
를 포함하고,
상기 레이더 센서는 상기 표적에 해당하는 상기 표적 신호 및 상기 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하고,
상기 프로세서는 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하고,
상기 프로세서는
상기 제1 레이더 수신 신호에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 제1 신호 처리부;
상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 제2 신호 처리부; 및
상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 제3 신호 처리부
를 포함하고,
상기 제3 신호 처리부는 상기 제2 데이터의 크기를 절반으로 감소시키는 엔코딩(encoding) 처리를 복수회 수행하여 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함하는 특징맵을 생성하고, 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터의 크기를 2배 증가시키는 디코딩(decoding) 처리를 복수회 수행하여 상기 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템.As a deep learning-based radar system,
a radar sensor that obtains a first radar reception signal including a target signal and a clutter signal corresponding to a target to be detected; and
A processor performing deep neural network (DNN) training based on the first radar received signal
including,
The radar sensor obtains a second radar reception signal including the target signal and the clutter signal corresponding to the target,
The processor removes the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN,
The processor
a first signal processor generating DNN training information by performing the DNN training on the first radar received signal;
a second signal processing unit generating second data based on the second radar received signal; and
A third signal processor configured to generate data from which the clutter signal is removed by performing the DNN inference on the second data
including,
The third signal processor generates a feature map including compressed information about the target, clutter, and noise by performing an encoding process of reducing the size of the second data by half a plurality of times, and the DNN A deep learning-based radar system that removes the clutter signal by performing a decoding process for doubling the size of the encoded second data based on training information and the feature map.
상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 제1 데이터 생성부;
상기 제1 데이터에 레이블링(labeling) 처리를 수행하는 레이블링 처리부; 및
상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 상기 DNN 훈련 정보를 생성하는 DNN 훈련부
를 포함하는 딥러닝 기반 레이더 시스템.The method of claim 1, wherein the first signal processing unit
a first data generating unit generating first data for labeling processing using the first radar received signal;
a labeling processing unit performing labeling processing on the first data; and
A DNN training unit generating the DNN training information by performing the DNN training on the labeled first data
A deep learning-based radar system that includes a.
상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 도플러 처리부; 및
상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 제2 데이터 생성부
를 포함하는 딥러닝 기반 레이더 시스템.The method of claim 1, wherein the second signal processing unit
a Doppler processing unit which performs Doppler processing on the second radar reception signal; and
A second data generator configured to generate the second data based on the Doppler-processed second radar reception signal
A deep learning-based radar system that includes a.
상기 제2 데이터에 상기 엔코딩 처리를 수행하는 엔코더;
상기 DNN 훈련 정보에 기초하여, 상기 엔코딩 처리된 제2 데이터로부터 상기 특징맵을 생성하는 특징맵 생성부; 및
상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 상기 디코딩 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 디코더
를 포함하는 딥러닝 기반 레이더 시스템.The method of claim 1, wherein the third signal processing unit
an encoder that performs the encoding process on the second data;
a feature map generating unit generating the feature map from the encoded second data based on the DNN training information; and
A decoder configured to generate second data from which the clutter signal is removed by performing the decoding process on the encoded second data based on the DNN training information and the feature map.
A deep learning-based radar system that includes a.
레이더 시스템의 레이더 센서에서, 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 단계;
상기 레이더 시스템의 프로세서에서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계;
상기 레이더 센서에서, 상기 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하는 단계; 및
상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계
를 포함하고,
상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계는
상기 제1 레이더 수신 신호에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 단계
를 포함하고,
상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계는
상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계; 및
상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 단계
를 포함하고,
상기 클러터 신호가 제거된 데이터를 생성하는 단계는
상기 제2 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 복수회 수행하여 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함하는 특징맵을 생성하고, 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터의 크기를 2배 증가시키는 디코딩 처리를 복수회 수행하여 상기 클러터 신호를 제거하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.As a deep learning-based clutter signal removal method,
obtaining, in a radar sensor of a radar system, a first radar reception signal including a target signal and a clutter signal corresponding to a target to be detected;
In a processor of the radar system, performing DNN training on the first radar received signal;
acquiring a second radar received signal including a target signal corresponding to the target and a clutter signal, in the radar sensor; and
removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN;
including,
Performing DNN training on the first radar received signal
Generating DNN training information by performing the DNN training on the first radar received signal
including,
The step of removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN
generating second data based on the second radar reception signal; and
generating data from which the clutter signal is removed by performing the DNN inference on the second data;
including,
Generating data from which the clutter signal has been removed is
An encoding process for reducing the size of the second data by half is performed a plurality of times to generate a feature map including compressed information on the target, clutter, and noise, and based on the DNN training information and the feature map removing the clutter signal by performing a decoding process of doubling the size of the encoded second data a plurality of times;
Deep learning-based clutter signal removal method comprising a.
상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 단계;
상기 제1 데이터에 레이블링 처리를 수행하는 단계; 및
상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 상기 DNN 훈련 정보를 생성하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.The method of claim 16, wherein performing DNN training on the first radar received signal
generating first data for labeling processing using the first radar reception signal;
performing labeling processing on the first data; and
generating the DNN training information by performing the DNN training on the labeled first data;
Deep learning-based clutter signal removal method comprising a.
상기 표적 신호에 데이터 레이블링을 수행하는 단계; 및
상기 클러터 신호에 데이터 레이블링을 수행하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.19. The method of claim 18, wherein labeling the first data comprises:
performing data labeling on the target signal; and
performing data labeling on the clutter signal;
Deep learning-based clutter signal removal method comprising a.
상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 단계; 및
상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.The method of claim 18, wherein generating the second data based on the second radar received signal
performing Doppler processing on the second radar received signal; and
Generating the second data based on the Doppler-processed second radar reception signal
Deep learning-based clutter signal removal method comprising a.
상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제1 엔코딩 처리를 수행하는 제1 컨벌루션부, 상기 제1 엔코딩 처리된 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제2 엔코딩 처리를 수행하는 제2 컨벌루션부, 및 상기 제2 엔코딩 처리된 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제3 엔코딩 처리를 수행하는 제3 컨벌루션부를 이용하여 상기 제2 데이터에 상기 엔코딩 처리를 수행하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.17. The method of claim 16, wherein generating the data from which the clutter signal is removed
A first convolution unit performing a first encoding process for reducing the data size of the second data by half, and a second encoding process for reducing the data size of the first encoded second data to half the size The encoding process is performed on the second data using a second convolution unit that performs a second convolution unit and a third convolution unit that performs a third encoding process that reduces the data size of the second data that has been subjected to the second encoding process to half the size. step to do
Deep learning-based clutter signal removal method comprising a.
상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제1 디코딩 처리를 수행하는 제1 전치 컨벌루션부, 상기 제1 디코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제2 디코딩 처리를 수행하는 제2 전치 컨벌루션부, 및 상기 제2 디코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제3 디코딩 처리를 수행하는 제3 전치 컨벌루션부를 이용하여 상기 엔코딩 처리된 제2 데이터에 상기 디코딩 처리를 수행하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.27. The method of claim 26, wherein generating the data from which the clutter signal is removed
A first pre-convolution unit which performs a first decoding process of increasing the data size of the encoded second data by a factor of two, and increasing the data size of the first decoded second data by a factor of two A second pre-convolution unit for performing a second decoding process for performing the second decoding process, and a third pre-convolution unit for performing a third decoding process for increasing the data size of the second data that has been subjected to the second decoding process by a factor of two. performing the decoding process on the encoded second data;
Deep learning-based clutter signal removal method comprising a.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200176015A KR102534622B1 (en) | 2020-12-16 | 2020-12-16 | Deep learning-based radar system and method of filtering clutter signal |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020200176015A KR102534622B1 (en) | 2020-12-16 | 2020-12-16 | Deep learning-based radar system and method of filtering clutter signal |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220085977A KR20220085977A (en) | 2022-06-23 |
KR102534622B1 true KR102534622B1 (en) | 2023-05-19 |
Family
ID=82222083
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020200176015A KR102534622B1 (en) | 2020-12-16 | 2020-12-16 | Deep learning-based radar system and method of filtering clutter signal |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102534622B1 (en) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020193904A (en) * | 2019-05-29 | 2020-12-03 | 日本電気株式会社 | Target signal separation device, passive radar device, and target signal separation method |
-
2020
- 2020-12-16 KR KR1020200176015A patent/KR102534622B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020193904A (en) * | 2019-05-29 | 2020-12-03 | 日本電気株式会社 | Target signal separation device, passive radar device, and target signal separation method |
Non-Patent Citations (3)
Title |
---|
Gang Zhang 외 3인, "Learning synthetic aperture radar image despeckling without clean data," J. Appl. Remote Sens. 2020년 6월 3일* |
Johanna Rock 외 4인, "Complex Signal Denoising and Interference Mitigation for Automotive Radar Using Convolutional Neural Networks," NeurIPS 2019, 2019년* |
SANDRO RHODIN 외 1인, "A comparative study between MLP and CNN for noise reduction on images: The impact of different input dataset sizes and the impact of different types of noise on performance," 2019* |
Also Published As
Publication number | Publication date |
---|---|
KR20220085977A (en) | 2022-06-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Strauss et al. | Ensemble methods as a defense to adversarial perturbations against deep neural networks | |
KR102315311B1 (en) | Deep learning based object detection model training method and an object detection apparatus to execute the object detection model | |
CN110163108B (en) | Robust sonar target detection method based on dual-path feature fusion network | |
US20210018609A1 (en) | Method and system for object detection | |
CN111209903B (en) | Face detection method and device | |
Ni et al. | LPI radar waveform recognition based on multi-resolution deep feature fusion | |
Schwegmann et al. | Synthetic aperture radar ship detection using capsule networks | |
KR102534622B1 (en) | Deep learning-based radar system and method of filtering clutter signal | |
Wen et al. | Multiframe detection of sea-surface small target using deep convolutional neural network | |
KR102534629B1 (en) | Deep learning-based radar system and method of detecting maritime moving target | |
de BA Barros et al. | Development of a ship classification method based on Convolutional neural network and Cyclostationarity Analysis | |
Abdul et al. | A new feature extraction technique based on 1D local binary pattern for gear fault detection | |
Chen et al. | Background-annihilated target-constrained interference-minimized filter (TCIMF) for hyperspectral target detection | |
CN116665110B (en) | Video action recognition method and device | |
Rixon Fuchs et al. | Deep learning based technique for enhanced sonar imaging | |
Bhattarai et al. | A deep learning approach for underwater bubble detection | |
CN113160279A (en) | Method and device for detecting abnormal behaviors of pedestrians in subway environment | |
Priyadarshni et al. | Underwater object detection and tracking | |
KR102311033B1 (en) | Apparatus of apparatus of extracting image feature based on deep learning | |
KR102427861B1 (en) | Apparatus and method for generating underwater image data | |
Barngrover | Automated detection of mine-like objects in side scan sonar imagery | |
Tang et al. | Side-scan sonar underwater target segmentation using the BHP-UNet | |
US20210406682A1 (en) | Quantization of neural network models using data augmentation | |
CN114707518A (en) | Semantic fragment-oriented target emotion analysis method, device, equipment and medium | |
JP2008045939A (en) | Target detection device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |