KR102534622B1 - Deep learning-based radar system and method of filtering clutter signal - Google Patents

Deep learning-based radar system and method of filtering clutter signal Download PDF

Info

Publication number
KR102534622B1
KR102534622B1 KR1020200176015A KR20200176015A KR102534622B1 KR 102534622 B1 KR102534622 B1 KR 102534622B1 KR 1020200176015 A KR1020200176015 A KR 1020200176015A KR 20200176015 A KR20200176015 A KR 20200176015A KR 102534622 B1 KR102534622 B1 KR 102534622B1
Authority
KR
South Korea
Prior art keywords
data
signal
radar
size
clutter
Prior art date
Application number
KR1020200176015A
Other languages
Korean (ko)
Other versions
KR20220085977A (en
Inventor
박성호
김태형
박재욱
박준태
박준현
Original Assignee
엘아이지넥스원 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020200176015A priority Critical patent/KR102534622B1/en
Publication of KR20220085977A publication Critical patent/KR20220085977A/en
Application granted granted Critical
Publication of KR102534622B1 publication Critical patent/KR102534622B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/52Discriminating between fixed and moving objects or between objects moving at different speeds
    • G01S13/522Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves
    • G01S13/524Discriminating between fixed and moving objects or between objects moving at different speeds using transmissions of interrupted pulse modulated waves based upon the phase or frequency shift resulting from movement of objects, with reference to the transmitted signals, e.g. coherent MTi
    • G01S13/5244Adaptive clutter cancellation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

레이더 신호에서 클러터 신호를 제거하는 레이더 시스템 및 방법이 개시될 수 있다. 일 실시예에 따른 레이더 시스템은 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 레이더 센서; 및 제1 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행하는 프로세서를 포함하고, 레이더 센서는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하고, 프로세서는 훈련된 DNN에 기초하여 제2 레이더 수신 신호에 DNN 추론을 수행하여 클러터 신호를 제거할 수 있다.A radar system and method for removing clutter signals from a radar signal may be disclosed. A radar system according to an embodiment includes a radar sensor configured to obtain a first radar received signal including a target signal and a clutter signal corresponding to a target to be detected; and a processor performing deep neural network (DNN) training based on the first radar received signal, wherein the radar sensor acquires a second radar received signal including a target signal corresponding to a target and a clutter signal, and a processor may remove the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN.

Description

클러터 신호를 제거하는 딥러닝 기반 레이더 시스템 및 방법{DEEP LEARNING-BASED RADAR SYSTEM AND METHOD OF FILTERING CLUTTER SIGNAL}Deep learning-based radar system and method for removing clutter signals {DEEP LEARNING-BASED RADAR SYSTEM AND METHOD OF FILTERING CLUTTER SIGNAL}

본 발명은 레이더 신호에서 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템 및 방법에 관한 것이다.The present invention relates to a deep learning-based radar system and method for removing clutter signals from radar signals.

레이더 시스템은 레이더 센서를 통해 레이더 신호를 방사하고 표적 등에 의해 반사되는 레이더 수신 신호를 신호 처리하여 원하는 표적을 탐지한다. 레이더 수신 신호를 탐지하고자 하는 표적 이외에 다양한 운용 환경에 따라 원하지 않는 신호 성분들을 포함한다. 이러한 원하지 않는 신호 성분을 레이더의 클러터 성분이라 한다.A radar system detects a desired target by radiating a radar signal through a radar sensor and processing a radar received signal reflected by a target. In addition to the target to be detected, the radar reception signal includes unwanted signal components according to various operating environments. These unwanted signal components are referred to as radar clutter components.

일반적으로, 레이더 센서의 탐지 성능은 클러터 성분에 상당한 영향을 받는다. 특히, 해상 클러터 환경에서는 클러터 성분(즉, 클러터 신호)을 제거하는 것이 필수이며, 해상 클러터 환경에서 클러터 신호를 제거하는 것은 레이더 시스템의 설계 및 이동 표적 탐지에 가장 중요한 요소이다.In general, the detection performance of a radar sensor is significantly affected by clutter components. In particular, in a maritime clutter environment, it is essential to remove clutter components (ie, clutter signals), and removing clutter signals in a maritime clutter environment is the most important factor in designing a radar system and detecting a moving target.

종래에는 클러터 신호를 제거하기 위해 MTI(moving target indication) 기반 신호 처리가 이용되고 있다. MTI 기반 신호 처리는 주파수 영역에서 표적에 해당하는 신호와 클러터 신호의 차이를 이용하여 레이더 수신 신호에 필터링 처리를 수행하여 클러터 신호를 제거한다. 이러한 MTI 기반 신호 처리는 표적의 도플러 변화를 관측하여 도플러 변화가 큰 신호 성분만을 추출하는 방법으로서, 탐지하고자 하는 표적의 이동 속도가 빠른 경우 상당히 우수한 탐지 성능을 나타내지만, 표적의 이동 속도가 느린 경우(예를 들어, 5m/s 이하인 경우), 저속의 표적의 해상 클러터 특성으로 인해 이동 속도가 느린 표적을 탐지하는 것이 불가능하다. 예를 들면, MTI 기반 신호 처리는 큰 RCS(radar cross section)를 가지며 일정 속도 이상의 대형 선박 또는 군함을 탐지할 수 있지만, 소형 선박, 잠수함의 잠만경 등과 같이 아주 작은 RCS를 갖거나 정지 표적의 경우 해상 클러터 및 노이즈 신호 간섭으로 인해 탐지가 불가능하다.Conventionally, signal processing based on moving target indication (MTI) is used to remove clutter signals. MTI-based signal processing removes the clutter signal by performing filtering processing on the radar reception signal using a difference between the signal corresponding to the target and the clutter signal in the frequency domain. This MTI-based signal processing is a method of extracting only the signal component with a large Doppler change by observing the Doppler change of the target. It shows excellent detection performance when the target to be detected moves fast, but when the target moves slow (eg, less than 5 m/s), it is impossible to detect a slow-moving target due to the maritime clutter characteristics of the low-speed target. For example, MTI-based signal processing has a large radar cross section (RCS) and can detect large ships or warships above a certain speed, but has a very small RCS, such as small ships and submarines, or stationary targets. Detection is impossible due to maritime clutter and noise signal interference.

한편, 클러터 신호를 제거하기 위해 STAP(space time adaptive processing)를 통한 클러터 신호 억압(suppression) 기술이 이용되고 있다. STAP의 경우, 공분산 행렬(covariance matrix)을 예측하기 위해 훈련 데이터가 필요하다. 훈련 데이터는 연관된 셀들의 정보를 이용하여 생성될 수 있으며, 이러한 셀들에 클러터 신호가 포함되면 안 된다. 그러나, 실제 상황에서는 해상 클러터의 돌출(spiky) 특성으로 인해 연관된 셀들이 오염되어 성능의 열화가 발생하는 경우가 빈번하다는 문제점이 있다.Meanwhile, a clutter signal suppression technique through space time adaptive processing (STAP) is used to remove the clutter signal. For STAP, training data is needed to predict the covariance matrix. Training data may be generated using information of associated cells, and clutter signals should not be included in these cells. However, in real situations, there is a problem in that related cells are often contaminated due to the spiky characteristics of marine clutter, resulting in performance deterioration.

본 발명은 컨벌루션 심층 신경망(convolution deep neural network)을 이용하여 특징맵 표적의 특징을 추출하고 선택적으로 표적 복원하여 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템 및 방법을 제공할 수 있다.The present invention can provide a deep learning-based radar system and method for removing clutter signals by extracting features of a feature map target using a convolution deep neural network and selectively restoring the target.

본 발명의 일 실시예에 따르면, 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템이 개시될 수 있다. 일 실시예에 따른 딥러인 기반 레이더 시스템은 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 레이더 센서; 및 상기 제1 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행하는 프로세서를 포함하고, 상기 레이더 센서는 상기 표적에 해당하는 상기 표적 신호 및 상기 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하고, 상기 프로세서는 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거할 수 있다.According to an embodiment of the present invention, a deep learning-based radar system for removing clutter signals may be disclosed. A radar system based on deep learning according to an embodiment includes a radar sensor configured to obtain a first radar reception signal including a target signal and a clutter signal corresponding to a target to be detected; and a processor performing deep neural network (DNN) training based on the first radar received signal, wherein the radar sensor includes a second radar received signal including the target signal and the clutter signal corresponding to the target. , and the processor may remove the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN.

일 실시예에 있어서, 상기 제1 레이더 수신 신호는 필드 테스트 환경에서 획득될 수 있다.In one embodiment, the first radar reception signal may be obtained in a field test environment.

일 실시예에 있어서, 상기 프로세서는 상기 제1 레이더 수신 신호에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 제1 신호 처리부; 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 제2 신호 처리부; 및 상기 DNN 훈련 정보에 기초하여, 상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 제3 신호 처리부를 포함할 수 있다.In one embodiment, the processor includes a first signal processing unit generating DNN training information by performing the DNN training on the first radar received signal; a second signal processing unit generating second data based on the second radar received signal; and a third signal processing unit generating data from which the clutter signal is removed by performing the DNN inference on the second data based on the DNN training information.

일 실시예에 있어서, 상기 DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스(weight matrix) 데이터 및 바이어스(bias) 데이터를 포함할 수 있다.In one embodiment, the DNN training information may include labeling information, weight matrix data, and bias data.

일 실시예에 있어서, 상기 제1 신호 처리부는 상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 제1 데이터 생성부; 상기 제1 데이터에 레이블링(labeling) 처리를 수행하는 레이블링 처리부; 및 상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 상기 DNN 훈련 정보를 생성하는 DNN 훈련부를 포함할 수 있다.In one embodiment, the first signal processor may include a first data generator configured to generate first data for labeling processing using the first radar reception signal; a labeling processing unit performing labeling processing on the first data; and a DNN training unit generating the DNN training information by performing the DNN training on the labeled first data.

일 실시예에 있어서, 상기 제1 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the first data may include RDmap data.

일 실시예에 있어서, 상기 레이블링 처리부는 상기 제1 데이터에 상기 레이블링 처리를 수행하여, 상기 표적 신호에 데이터 레이블링을 수행하고, 상기 클러터 신호에 데이터 레이블링을 수행할 수 있다.In an embodiment, the labeling processor may perform the labeling process on the first data, data labeling on the target signal, and data labeling on the clutter signal.

일 실시예에 있어서, 상기 제2 신호 처리부는 상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 도플러 처리부; 및 상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 제2 데이터 생성부를 포함할 수 있다.In one embodiment, the second signal processing unit Doppler processing unit for performing Doppler processing on the second radar received signal; and a second data generator configured to generate the second data based on the Doppler-processed second radar reception signal.

일 실시예에 있어서, 상기 제2 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the second data may include RDmap data.

일 실시예에 있어서, 상기 제3 신호 처리부는 상기 제2 데이터에 엔코딩(encoding) 처리를 수행하는 엔코더; 상기 DNN 훈련 정보에 기초하여, 상기 엔코딩 처리된 제2 데이터로부터 특징맵을 생성하는 특징맵 생성부; 및 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 디코딩(decoding) 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 디코더를 포함할 수 있다.In one embodiment, the third signal processing unit encoder for performing an encoding (encoding) process on the second data; a feature map generating unit generating a feature map from the encoded second data based on the DNN training information; and a decoder generating second data from which the clutter signal is removed by performing a decoding process on the encoded second data based on the DNN training information and the feature map.

일 실시예에 있어서, 상기 엔코더는 상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 컨벌루션부를 복수개 포함할 수 있다.In one embodiment, the encoder may include a plurality of convolution units that reduce the data size of the second data to half.

일 실시예에 있어서, 상기 컨벌루션부는 2×2 크기를 갖는 컨벌루션 필터를 포함할 수 있다.In one embodiment, the convolution unit may include a convolution filter having a size of 2×2.

일 실시예에 있어서, 상기 특징맵은 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함할 수 있다.In one embodiment, the feature map may include compressed information on the target, clutter, and noise.

일 실시예에 있어서, 상기 디코더는 상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 전치 컨벌루션부를 복수개 포함할 수 있다.In one embodiment, the decoder may include a plurality of pre-convolution units that double the data size of the encoded second data.

일 실시예에 있어서, 상기 전치 컨벌루션부는 2×2 크기를 갖는 전치 컨벌루션 필터를 포함할 수 있다.In an embodiment, the pre-convolution unit may include a pre-convolution filter having a size of 2×2.

본 발명의 일 실시예에 따르면, 딥러닝 기반 클러터 신호를 제거하는 클러터 신호 제거 방법이 개시될 수 있다. 일 실시예에 따른 딥러닝 기반 클러터 신호 제거 방법은 레이더 시스템의 레이더 센서에서, 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 단계; 상기 레이더 시스템의 프로세서에서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계; 상기 레이더 센서에서, 상기 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하는 단계; 및 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계를 포함할 수 있다.According to one embodiment of the present invention, a clutter signal removal method for removing clutter signals based on deep learning may be disclosed. A deep learning-based clutter signal removal method according to an embodiment includes obtaining a first radar reception signal including a target signal corresponding to a target to be detected and a clutter signal in a radar sensor of a radar system; In a processor of the radar system, performing DNN training on the first radar received signal; acquiring a second radar received signal including a target signal corresponding to the target and a clutter signal, in the radar sensor; and removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN.

일 실시예에 있어서, 상기 제1 레이더 수신 신호는 필드 테스트 환경에서 획득될 수 있다.In one embodiment, the first radar reception signal may be obtained in a field test environment.

일 실시예에 있어서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계는 상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 단계; 상기 제1 데이터에 레이블링 처리를 수행하는 단계; 및 상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 단계를 포함할 수 있다.In one embodiment, performing DNN training on the first radar received signal includes generating first data for labeling processing using the first radar received signal; performing labeling processing on the first data; and generating DNN training information by performing the DNN training on the labeled first data.

일 실시예에 있어서, 상기 제1 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the first data may include RDmap data.

일 실시예에 있어서, 상기 DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스 데이터 및 바이어스 데이터를 포함할 수 있다.In one embodiment, the DNN training information may include labeling information, weight matrix data, and bias data.

일 실시예에 있어서, 상기 제1 데이터에 레이블링 처리를 수행하는 단계는 상기 표적 신호에 데이터 레이블링을 수행하는 단계; 및 상기 클러터 신호에 데이터 레이블링을 수행하는 단계를 포함할 수 있다.In an embodiment, performing labeling processing on the first data includes: performing data labeling on the target signal; and performing data labeling on the clutter signal.

일 실시예에 있어서, 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계는 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계; 및 상기 DNN 훈련 정보에 기초하여, 상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 단계를 포함할 수 있다.In one embodiment, the removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN includes generating second data based on the second radar received signal. ; and generating data from which the clutter signal is removed by performing the DNN inference on the second data based on the DNN training information.

일 실시예에 있어서, 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계는 상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 단계; 및 상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 단계를 포함할 수 있다.In one embodiment, generating the second data based on the second radar received signal comprises performing Doppler processing on the second radar received signal; and generating the second data based on the Doppler-processed second radar reception signal.

일 실시예에 있어서, 상기 제2 데이터는 RDmap 데이터를 포함할 수 있다.In one embodiment, the second data may include RDmap data.

일 실시예에 있어서, 상기 DNN 훈련 정보에 기초하여, 상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 단계는 상기 제2 데이터에 엔코딩 처리를 수행하는 단계; 상기 DNN 훈련 정보에 기초하여, 상기 엔코딩 처리된 제2 데이터로부터 특징맵을 생성하는 단계; 및 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 단계를 포함할 수 있다.In an embodiment, the step of performing the DNN inference on the second data based on the DNN training information to generate the data from which the clutter signal is removed comprises: performing an encoding process on the second data; generating a feature map from the encoded second data based on the DNN training information; and performing a decoding process on the encoded second data based on the DNN training information and the feature map to generate second data from which the clutter signal is removed.

일 실시예에 있어서, 상기 제2 데이터에 엔코딩 처리를 수행하는 단계는 상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 컨벌루션부를 복수개 포함하는 엔코더를 이용하여 상기 제2 데이터에 엔코딩 처리를 수행하는 단계를 포함할 수 있다.In one embodiment, the performing of encoding processing on the second data performs encoding processing on the second data using an encoder including a plurality of convolution units reducing the data size of the second data to half. steps may be included.

일 실시예에 있어서, 상기 컨벌루션부는 2×2 크기를 갖는 컨벌루션 필터를 포함할 수 있다.In one embodiment, the convolution unit may include a convolution filter having a size of 2×2.

일 실시예에 있어서, 상기 특징맵은 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함할 수 있다.In one embodiment, the feature map may include compressed information on the target, clutter, and noise.

일 실시예에 있어서, 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 단계는 상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 전치 컨벌루션부를 복수개 포함하는 디코더를 이용하여 상기 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하는 단계를 포함할 수 있다.In one embodiment, generating the second data from which the clutter signal is removed by performing decoding processing on the encoded second data based on the DNN training information and the feature map may include: and performing a decoding process on the encoded second data using a decoder including a plurality of pre-convolution units that double the data size of the 2 data.

일 실시예에 있어서, 상기 전치 컨벌루션부는 2×2 크기를 갖는 전치 컨벌루션 필터를 포함할 수 있다.In an embodiment, the pre-convolution unit may include a pre-convolution filter having a size of 2×2.

본 발명의 다양한 실시예에 따르면, 기존의 영상 인식 및 분류에서 적용한 CNN 구조와 다르게 소형 표적의 특징을 추출하기 위해 컨벌루션 필터의 커널 크기를 2×2로 줄일 수 있다.According to various embodiments of the present invention, unlike a CNN structure applied in conventional image recognition and classification, the kernel size of the convolution filter can be reduced to 2×2 in order to extract features of a small target.

또한, 기존의 영상 인식에 적용된 CNN 구조에서 연산량을 줄이기 위해 사용되었던 풀링 계층(pooling layer)를 제거할 수 있고, 풀링 계층을 제거함으로써, 다운 샘플링(down-sampling) 과정에서 소형 표적의 특징이 소실되는 것을 방지할 수 있다.In addition, it is possible to remove the pooling layer used to reduce the amount of computation in the conventional CNN structure applied to image recognition, and by removing the pooling layer, the characteristics of small targets are lost in the down-sampling process. can prevent it from happening.

또한, 해상 표적의 신호 크기가 작아 클러터 신호에 의해 가려져 표적의 탐지가 불가능할 때 CNN 추론을 수행하여 클러터 신호를 제거할 수 있어, 대상 표적에 대한 탐지가 가능하다.In addition, when the signal size of the maritime target is small and obscured by the clutter signal, and thus the target cannot be detected, CNN inference can be performed to remove the clutter signal, enabling detection of the target target.

더욱이, 본 발명의 다양한 실시예에 따르면, 클러터 환경 하의 소형 및 저속 표적을 탐지하는 해상 레이더 시스템에 활용될 수 있다.Moreover, according to various embodiments of the present invention, it can be utilized in a maritime radar system that detects small and low-velocity targets in a clutter environment.

도 1은 본 발명의 일 실시예에 따른 레이더 시스템을 개략적으로 나타낸 블록도이다.
도 2는 본 발명의 일 실시예에 따른 프로세서의 구성을 개략적으로 나타낸 블록도이다.
도 3a는 본 발명의 일 실시예에 따른 제1 RDmap 데이터를 나타낸 예시도이다.
도 3b는 본 발명의 일 실시예에 따른 표적 신호 및 클러터 신호에 데이터 레이블링을 수행한 예시도이다.
도 4는 본 발명의 일 실시예에 따른 엔코더의 구성을 개략적으로 나타낸 블록도이다.
도 5는 본 발명의 일 실시예에 따른 엔코더의 엔코딩 처리를 나타낸 예시도이다.
도 6은 본 발명의 일 실시예에 따른 디코더의 구성을 개략적으로 나타낸 블록도이다.
도 7은 본 발명의 일 실시예에 따른 디코더의 디코딩 처리를 나타낸 예시도이다.
도 8은 본 발명의 일 실시예에 따라 클러터 신호를 제거하는 방법을 나타낸 흐름도이다.
도 9는 본 발명의 일 실시예에 따라 DNN 훈련을 수행하는 방법을 나타낸 흐름도이다.
도 10은 본 발명의 일 실시예에 따라 DNN 추론을 수행하는 방법을 나타낸 흐름도이다.
도 11a는 본 발명의 일 실시예에 따른 DNN 추론을 수행하기 전의 제2 RDmap 데이터를 나타낸 예시도이다.
도 11b는 본 발명의 일 실시예에 따른 DNN 추론을 수행한 후의 제2 RDmap 데이터를 나타낸 예시도이다.
1 is a schematic block diagram of a radar system according to an embodiment of the present invention.
2 is a block diagram schematically illustrating the configuration of a processor according to an embodiment of the present invention.
3A is an exemplary diagram illustrating first RDmap data according to an embodiment of the present invention.
3B is an exemplary diagram in which data labeling is performed on a target signal and a clutter signal according to an embodiment of the present invention.
4 is a block diagram schematically showing the configuration of an encoder according to an embodiment of the present invention.
5 is an exemplary diagram illustrating an encoding process of an encoder according to an embodiment of the present invention.
6 is a block diagram schematically showing the configuration of a decoder according to an embodiment of the present invention.
7 is an exemplary diagram illustrating decoding processing of a decoder according to an embodiment of the present invention.
8 is a flowchart illustrating a method of removing a clutter signal according to an embodiment of the present invention.
9 is a flowchart illustrating a method of performing DNN training according to an embodiment of the present invention.
10 is a flowchart illustrating a method of performing DNN inference according to an embodiment of the present invention.
11A is an exemplary diagram illustrating second RDmap data before performing DNN inference according to an embodiment of the present invention.
11B is an exemplary diagram illustrating second RDmap data after performing DNN inference according to an embodiment of the present invention.

본 발명의 실시예들은 본 발명의 기술적 사상을 설명하기 위한 목적으로 예시된 것이다. 본 발명에 따른 권리범위가 이하에 제시되는 실시예들이나 이들 실시예들에 대한 구체적 설명으로 한정되는 것은 아니다.Embodiments of the present invention are illustrated for the purpose of explaining the technical idea of the present invention. The scope of rights according to the present invention is not limited to the specific description of the embodiments or these embodiments presented below.

본 발명에 사용되는 모든 기술적 용어들 및 과학적 용어들은, 달리 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에게 일반적으로 이해되는 의미를 갖는다. 본 발명에 사용되는 모든 용어들은 본 발명을 더욱 명확히 설명하기 위한 목적으로 선택된 것이며 본 발명에 따른 권리범위를 제한하기 위해 선택된 것이 아니다.All technical terms and scientific terms used in the present invention have meanings commonly understood by those of ordinary skill in the art to which the present invention belongs, unless otherwise defined. All terms used in the present invention are selected for the purpose of more clearly describing the present invention and are not selected to limit the scope of rights according to the present invention.

본 발명에서 사용되는 "포함하는", "구비하는", "갖는" 등과 같은 표현은, 해당 표현이 포함되는 어구 또는 문장에서 달리 언급되지 않는 한, 다른 실시예를 포함할 가능성을 내포하는 개방형 용어(open-ended terms)로 이해되어야 한다.Expressions such as "comprising", "including", "having", etc. used in the present invention are open-ended terms that imply the possibility of including other embodiments, unless otherwise stated in the phrase or sentence in which the expression is included. (open-ended terms).

본 발명에서 기술된 단수형의 표현은 달리 언급하지 않는 한 복수형의 의미를 포함할 수 있으며, 이는 청구범위에 기재된 단수형의 표현에도 마찬가지로 적용된다.Singular expressions described in the present invention may include plural meanings unless otherwise stated, and this applies to singular expressions described in the claims as well.

본 발명에서 사용되는 "제1", "제2" 등의 표현들은 복수의 구성요소들을 상호 구분하기 위해 사용되며, 해당 구성요소들의 순서 또는 중요도를 한정하는 것은 아니다.Expressions such as "first" and "second" used in the present invention are used to distinguish a plurality of components from each other, and do not limit the order or importance of the components.

본 발명에서 사용되는 용어 "부"는, 소프트웨어, 또는 FPGA(field-programmable gate array), ASIC(application specific integrated circuit)과 같은 하드웨어 구성요소를 의미한다. 그러나, "부"는 하드웨어 및 소프트웨어에 한정되는 것은 아니다. "부"는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다. 따라서, 일 예로서, "부"는 소프트웨어 구성요소들, 객체지향 소프트웨어 구성요소들, 클래스 구성요소들 및 태스크 구성요소들과 같은 구성요소들과, 프로세스, 함수, 속성, 프로시저, 서브루틴, 프로그램 코드의 세그먼트, 드라이버, 펌웨어, 마이크로코드, 회로, 데이터, 데이터베이스, 데이터 구조, 테이블, 어레이 및 변수를 포함한다. 구성요소와 "부" 내에서 제공되는 기능은 더 작은 수의 구성요소 및 "부"로 결합되거나 추가적인 구성요소와 "부"로 분리될 수 있다.The term "unit" used in the present invention means software or a hardware component such as a field-programmable gate array (FPGA) or an application specific integrated circuit (ASIC). However, "unit" is not limited to hardware and software. A “unit” may be configured to reside in an addressable storage medium and may be configured to reproduce on one or more processors. Thus, as an example, "unit" refers to components such as software components, object-oriented software components, class components and task components, processes, functions, properties, procedures, subroutines, It includes segments of program code, drivers, firmware, microcode, circuits, data, databases, data structures, tables, arrays and variables. Functions provided within components and “units” may be combined into fewer components and “units” or separated into additional components and “units”.

본 발명에서 사용되는 "~에 기초하여"라는 표현은, 해당 표현이 포함되는 어구 또는 문장에서 기술되는, 결정 판단의 행위 또는 동작에 영향을 주는 하나 이상의 인자를 기술하는데 사용되며, 이 표현은 결정, 판단의 행위 또는 동작에 영향을 주는 추가적인 인자를 배제하지 않는다.As used herein, the expression "based on" is used to describe one or more factors that affect the action or operation of a decision judgment, described in a phrase or sentence in which the expression is included, and this expression refers to a decision However, it does not preclude additional factors that affect the act or operation of the judgment.

본 발명에서, 어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 경우, 어떤 구성요소가 다른 구성요소에 직접적으로 연결될 수 있거나 접속될 수 있는 것으로, 또는 새로운 다른 구성요소를 매개로 하여 연결될 수 있거나 접속될 수 있는 것으로 이해되어야 한다.In the present invention, when an element is referred to as being “connected” or “connected” to another element, that element is directly connectable or connectable to the other element, or a new or different configuration. It should be understood that it can be connected or connected via an element.

이하, 첨부된 도면들을 참조하여 본 발명의 실시예들을 설명한다. 첨부된 도면에서, 동일하거나 대응하는 구성요소에는 동일한 참조부호가 부여되어 있다. 또한, 이하의 실시예들의 설명에 있어서, 동일하거나 대응하는 구성요소를 중복하여 기술하는 것이 생략될 수 있다. 그러나, 구성요소에 관한 기술이 생략되어도, 그러한 구성요소가 어떤 실시예에 포함되지 않는 것으로 의도되지는 않는다.Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. In the accompanying drawings, identical or corresponding elements are given the same reference numerals. In addition, in the description of the following embodiments, overlapping descriptions of the same or corresponding components may be omitted. However, omission of a description of a component does not intend that such a component is not included in an embodiment.

도 1은 본 발명의 일 실시예에 따른 레이더 시스템을 개략적으로 나타낸 블록도이다. 도 1을 참조하면, 딥러닝 기반 레이더 시스템(100)은 레이더 센서(110), 저장부(120), 프로세서(130) 및 제어부(140)를 포함할 수 있다.1 is a schematic block diagram of a radar system according to an embodiment of the present invention. Referring to FIG. 1 , a deep learning-based radar system 100 may include a radar sensor 110, a storage unit 120, a processor 130, and a control unit 140.

레이더 센서(110)는 레이더 신호를 생성하고, 생성된 레이더 신호를 방사할 수 있다. 또한, 레이더 센서(110)는 탐지하고자 하는 표적 등으로부터 반사되는 레이더 신호를 수신하여 레이더 수신 신호를 획득할 수 있다. 일 실시예에 있어서, 레이더 수신 신호는 탐지하고자 하는 표적에 해당하는 신호(이하, "표적 신호"라 함) 및 클러터 신호를 포함할 수 있다. 일 실시예에 있어서, 레이더 센서(110)는 필드 테스트(field test) 환경에서 레이더 신호를 방사하고 레이더 수신 신호를 획득할 수 있다.The radar sensor 110 may generate a radar signal and radiate the generated radar signal. In addition, the radar sensor 110 may obtain a radar received signal by receiving a radar signal reflected from a target to be detected. In one embodiment, the radar reception signal may include a signal corresponding to a target to be detected (hereinafter referred to as a "target signal") and a clutter signal. In one embodiment, the radar sensor 110 may emit a radar signal and obtain a radar reception signal in a field test environment.

저장부(120)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호를 저장할 수 있다. 또한, 저장부(120)는 프로세서(130)에 의해 필터링 처리된 레이더 수신 신호를 저장할 수 있다.The storage unit 120 may store a radar reception signal provided from the radar sensor 110 . Also, the storage unit 120 may store the radar reception signal filtered by the processor 130 .

일 실시예에 있어서, 저장부(120)는 자기 디스크(예를 들어, 자기 테이프, 플렉시블 디스크, 하드 디스크 등), 광 디스크(예를 들어, CD, DVD 등), 반도체 메모리(예를 들어, USB 메모리, 메모리 카드 등) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the storage unit 120 is a magnetic disk (eg, magnetic tape, flexible disk, hard disk, etc.), an optical disk (eg, CD, DVD, etc.), a semiconductor memory (eg, USB memory, memory card, etc.) and the like, but are not necessarily limited thereto.

프로세서(130)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호를 수신하고, 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행할 수 있다. 또한, 프로세서(130)는 훈련된 DNN에 기초하여, 레이더 센서(110)로부터 제공되는 레이더 수신 신호에 DNN 추론을 수행하여 레이더 수신 신호에서 클러터 신호를 제거할 수 있다.The processor 130 may receive a radar reception signal provided from the radar sensor 110 and perform deep neural network (DNN) training based on the radar reception signal. Also, the processor 130 may perform DNN inference on the radar received signal provided from the radar sensor 110 based on the trained DNN to remove the clutter signal from the radar received signal.

일 실시예에 있어서, 프로세서(130)는 이상 기술된 제어 동작들 또는 이 동작들을 실행하는 프로그램 명령어를 실행할 수 있는 CPU(central processing unit), FPGA(field programmable gate array), ASIC(application specific integrated circuit) 등을 포함할 수 있지만, 반드시 이에 한정되는 것은 아니다.In one embodiment, the processor 130 may include a central processing unit (CPU), a field programmable gate array (FPGA), or an application specific integrated circuit (ASIC) capable of executing the above-described control operations or program instructions for executing the operations. ) and the like, but are not necessarily limited thereto.

제어부(140)는 레이더 센서(110), 저장부(120) 및 프로세서(130)에 연결되고, 레이더 시스템(100)의 각 구성요소의 동작을 제어할 수 있다. 일 실시예에 있어서, 제어부(140)는 레이더 신호의 송신 및 수신을 제어할 수 있다. 또한, 제어부(140)는 레이더 수신 신호의 DNN 훈련 및 DNN 추론을 제어할 수 있다.The control unit 140 is connected to the radar sensor 110, the storage unit 120, and the processor 130, and may control the operation of each component of the radar system 100. In one embodiment, the controller 140 may control transmission and reception of radar signals. Also, the control unit 140 may control DNN training and DNN inference of the radar reception signal.

도 2는 본 발명의 일 실시예에 따른 프로세서의 구성을 개략적으로 나타낸 블록도이다. 도 2를 참조하면, 프로세서(130)는 제1 신호 처리부(210), 제2 신호 처리부(220) 및 제3 신호 처리부(230)를 포함할 수 있다.2 is a block diagram schematically illustrating the configuration of a processor according to an embodiment of the present invention. Referring to FIG. 2 , the processor 130 may include a first signal processing unit 210 , a second signal processing unit 220 and a third signal processing unit 230 .

제1 신호 처리부(210)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호에 DNN 훈련을 수행할 수 있다. 일 실시예에 있어서, 레이더 수신 신호는 필드 테스트 환경에서 획득된 레이더 수신 신호일 수 있다. 일 실시예에 있어서, 제1 신호 처리부(210)는 도 2에 도시된 바와 같이, 제1 데이터 생성부(211), 레이블링 처리부(212) 및 DNN 훈련부(213)를 포함할 수 있다.The first signal processor 210 may perform DNN training on the radar reception signal provided from the radar sensor 110 . In one embodiment, the radar received signal may be a radar received signal obtained in a field test environment. In one embodiment, the first signal processor 210 may include a first data generator 211, a labeling processor 212, and a DNN training unit 213, as shown in FIG. 2 .

제1 데이터 생성부(211)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호를 이용하여 레이블링 처리를 위한 데이터를 생성할 수 있다. 일 실시예에 있어서, 레이블링 처리를 위한 데이터는 RDmap 데이터(이하, "제1 RDmap 데이터"라 함)를 포함할 수 있다.The first data generator 211 may generate data for labeling processing using a radar received signal provided from the radar sensor 110 . In one embodiment, data for labeling processing may include RDmap data (hereinafter referred to as "first RDmap data").

레이블링 처리부(212)는 제1 데이터 생성부(211)에 연결되고, 제1 데이터 생성부(211)에 의해 생성된 제1 RDmap 데이터를 수신할 수 있다. 레이블링 처리부(212)는 제1 RDmap 데이터에 레이블링(labeling) 처리를 수행할 수 있다. 일 실시예에 있어서, 레이블링 처리부(212)는 제1 RDmap 데이터에 레이블링 처리를 수행하여, 표적 신호에 데이터 레이블링을 수행하고, 클러터 신호에 데이터 레이블링을 수행할 수 있다.The labeling processor 212 may be connected to the first data generator 211 and receive first RDmap data generated by the first data generator 211 . The labeling processing unit 212 may perform labeling processing on the first RDmap data. In one embodiment, the labeling processor 212 may perform labeling on the first RDmap data, data labeling on the target signal, and data labeling on the clutter signal.

예를 들면, 레이블링 처리부(212)는 도 3a에 도시된 바와 같이, 표적 신호(310), 클러터 신호(320) 및 노이즈 신호(330)를 포함하는 제1 RDmap 데이터를 수신할 수 있다. 레이블링 처리부(212)는 도 3b에 도시된 바와 같이, 제1 RDmap 데이터에 레이블링 처리를 수행하여, 표적 신호(310)에 데이터 레이블링(310')을 수행하고, 클러터 신호(320)에 데이터 레이블링(320')을 수행할 수 있다.For example, the labeling processor 212 may receive first RDmap data including a target signal 310, a clutter signal 320, and a noise signal 330, as shown in FIG. 3A. As shown in FIG. 3B, the labeling processing unit 212 performs labeling processing on the first RDmap data, performs data labeling 310' on the target signal 310, and data labeling on the clutter signal 320 (320') can be performed.

DNN 훈련부(213)는 레이블링 처리부(212)에 연결되고, 레이블링 처리부(212)에 의해 레이블링 처리된 제1 RDmap 데이터를 수신할 수 있다. DNN 훈련부(213)는 수신된 제1 RDmap 데이터에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다. 일 실시예에 있어서, DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스(weight matrix) 데이터 및 바이어스(bias) 데이터를 포함할 수 있다.The DNN training unit 213 may be connected to the labeling processing unit 212 and receive first RDmap data labeled by the labeling processing unit 212 . The DNN training unit 213 may generate DNN training information by performing DNN training on the received first RDmap data. In one embodiment, DNN training information may include labeling information, weight matrix data, and bias data.

제2 신호 처리부(220)는 레이더 센서(110)로부터 제공되는 레이더 수신 신호에 기초하여 RDmap 데이터(이하, "제2 RDmap 데이터"라 함)를 생성할 수 있다. 일 실시예에 있어서, 제2 신호 처리부(220)는 도 2에 도시된 바와 같이, 도플러 처리부(221) 및 제2 데이터 생성부(222)를 포함할 수 있다.The second signal processing unit 220 may generate RDmap data (hereinafter referred to as "second RDmap data") based on the radar reception signal provided from the radar sensor 110 . In one embodiment, the second signal processor 220 may include a Doppler processor 221 and a second data generator 222 as shown in FIG. 2 .

도플러 처리부(221)는 레이더 센서(110)로부터 레이더 수신 신호를 수신하고, 수신된 레이더 수신 신호에 도플러 처리를 수행할 수 있다. 일 실시예에 있어서, 레이더 수신 신호는 실제 환경에서 레이더 센서(110)에 의해 레이더 신호(레이더 파형)가 방사되고, 탐지하고자 하는 표적 등으로부터 반사되는 레이더 신호의 썸 채널(sum channel) 데이터일 수 있다.The Doppler processing unit 221 may receive a radar reception signal from the radar sensor 110 and perform Doppler processing on the received radar reception signal. In one embodiment, the radar reception signal is a radar signal (radar waveform) emitted by the radar sensor 110 in a real environment and reflected from a target to be detected. It may be sum channel data of a radar signal. there is.

제2 데이터 생성부(222)는 도플러 처리부(221)에 연결되고, 도플러 처리부(221)에 의해 도플러 처리된 레이더 수신 신호를 수신할 수 있다. 제2 데이터 생성부(222)는 도플러 처리된 레이더 수신 신호에 기초하여 제2 RDmap 데이터를 생성할 수 있다.The second data generator 222 may be connected to the Doppler processing unit 221 and receive a radar reception signal Doppler-processed by the Doppler processing unit 221 . The second data generator 222 may generate second RDmap data based on the Doppler-processed radar reception signal.

제3 신호 처리부(230)는 제1 신호 처리부(210) 및 제2 신호 처리부(220)에 연결되고, 제1 신호 처리부(210)로부터 DNN 훈련 정보를 수신하고, 제2 신호 처리부(220)로부터 제2 RDmap 데이터를 수신할 수 있다. 제3 신호 처리부(230)는 DNN 훈련 정보에 기초하여, 제2 RDmap 데이터에 DNN 추론을 수행하여 클러터 신호가 제거된 RDmap 데이터를 생성할 수 있다. 일 실시예에 있어서, 제3 신호 처리부(230)는 엔코더(231), 특징맵 생성부(232) 및 디코더(233)를 포함할 수 있다.The third signal processing unit 230 is connected to the first signal processing unit 210 and the second signal processing unit 220, receives DNN training information from the first signal processing unit 210, and receives DNN training information from the second signal processing unit 220. Second RDmap data may be received. The third signal processor 230 may generate RDmap data from which clutter signals are removed by performing DNN inference on the second RDmap data based on the DNN training information. In one embodiment, the third signal processor 230 may include an encoder 231, a feature map generator 232, and a decoder 233.

엔코더(231)는 제2 신호 처리부(220)에 의해 생성된 제2 RDmap 데이터를 수신할 수 있다. 엔코더(231)는 제2 RDmap 데이터에 엔코딩(encoding) 처리를 수행할 수 있다. 일 실시예에 있어서, 엔코더(231)는 제2 RDmap 데이터에서 저속 및 소형 표적의 특징을 추출하기 위해 엔코딩 처리를 수행할 수 있다.The encoder 231 may receive the second RDmap data generated by the second signal processor 220 . The encoder 231 may perform encoding processing on the second RDmap data. In one embodiment, encoder 231 may perform an encoding process to extract features of slow and small targets from the second RDmap data.

일 실시예에 있어서, 엔코더(231)는 제2 RDmap 데이터를 m×n으로 잘라서 엔코딩 처리를 수행할 수 있다. 예를 들면, 엔코더(231)는 도 4에 도시된 바와 같이, 제1 컨벌루션부(410), 제2 컨벌루션부(420), 제3 컨벌루션부(430) 및 제4 컨벌루션부(440)를 포함할 수 있다.In one embodiment, the encoder 231 may perform encoding processing by cutting the second RDmap data into m×n. For example, as shown in FIG. 4 , the encoder 231 includes a first convolution unit 410, a second convolution unit 420, a third convolution unit 430, and a fourth convolution unit 440. can do.

제1 컨벌루션부(410)는 제2 RDmap 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 수행할 수 있다. 예를 들면, 제1 컨벌루션부(410)는 도 5에 도시된 바와 같이, 256×256 크기를 갖는 제2 RDmap 데이터를 절반 크기(즉, 128×128)를 갖는 제2 RDmap 데이터로 데이터 크기를 감소시키기 위한 엔코딩 처리를 수행할 수 있다. 여기서, 제1 컨벌루션부(410)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트(stride)는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩(padding)은 0일 수 있다.The first convolution unit 410 may perform encoding processing to reduce the size of the second RDmap data by half. For example, as shown in FIG. 5, the first convolution unit 410 converts the second RDmap data having a size of 256×256 into the second RDmap data having a half size (ie, 128×128). It is possible to perform encoding processing to reduce. Here, the first convolution unit 410 may use a convolution filter (ie, a kernel mask) having a size of 2×2. In this case, a stride for moving the kernel mask for the next convolution operation may be 2, and a padding for extending the circumference of the input array and filling it with 0 to adjust the size of the convolution result may be 0.

제2 컨벌루션부(420)는 제1 컨벌루션부(410)에 연결되고, 제1 컨벌루션부(410)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제2 컨벌루션부(420)는 수신된 제2 RDmap 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 수행할 수 있다. 예를 들면, 제2 컨벌루션부(420)는 도 4에 도시된 바와 같이, 128×128 크기를 갖는 제2 RDmap 데이터를 절반 크기(즉, 64×64)를 갖는 제2 RDmap 데이터로 데이터 크기를 감소시키기 위한 엔코딩 처리를 수행할 수 있다. 여기서, 제2 컨볼루션부(420)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The second convolution unit 420 may be connected to the first convolution unit 410 and receive second RDmap data encoded by the first convolution unit 410 . The second convolution unit 420 may perform encoding processing to reduce the size of the received second RDmap data by half. For example, as shown in FIG. 4, the second convolution unit 420 converts the second RDmap data having a size of 128×128 into second RDmap data having a half size (ie, 64×64). It is possible to perform encoding processing to reduce. Here, the second convolution unit 420 may use a convolution filter (ie, a kernel mask) having a size of 2×2. In this case, the strite to move the kernel mask for the next convolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the convolution result may be 0.

제3 컨벌루션부(430)는 제2 컨벌루션부(420)에 연결되고, 제2 컨벌루션부(420)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제3 컨벌루션부(430)는 수신된 제2 RDmap 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 수행할 수 있다. 예를 들면, 제3 컨벌루션부(430)는 도 4에 도시된 바와 같이, 64×64 크기를 갖는 제2 RDmap 데이터를 절반 크기(즉, 32×32)를 갖는 제2 RDmap 데이터로 데이터 크기를 감소시키기 위한 엔코딩 처리를 수행할 수 있다. 여기서, 제3 컨볼루션부(430)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The third convolution unit 430 may be connected to the second convolution unit 420 and receive second RDmap data encoded by the second convolution unit 420 . The third convolution unit 430 may perform an encoding process of reducing the size of the received second RDmap data by half. For example, as shown in FIG. 4, the third convolution unit 430 converts the second RDmap data having a size of 64×64 into second RDmap data having a half size (ie, 32×32). It is possible to perform encoding processing to reduce. Here, the third convolution unit 430 may use a convolution filter (ie, a kernel mask) having a size of 2×2. In this case, the strite to move the kernel mask for the next convolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the convolution result may be 0.

제4 컨벌루션부(440)는 제3 컨벌루션부(430)에 연결되고, 제3 컨벌루션부(430)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제4 컨벌루션부(440)는 수신된 제2 RDmap 데이터에 엔코딩 처리를 수행할 수 있다. 예를 들면, 제4 컨벌루션부(440)는 도 4에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 32×32 크기를 갖는 제2 RDmap 데이터로 엔코딩 처리를 수행할 수 있다. 여기서, 제4 컨볼루션부(440)는 2×2 크기를 갖는 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The fourth convolution unit 440 may be connected to the third convolution unit 430 and receive second RDmap data encoded by the third convolution unit 430 . The fourth convolution unit 440 may perform encoding processing on the received second RDmap data. For example, as shown in FIG. 4 , the fourth convolution unit 440 may encode second RDmap data having a size of 32×32 into second RDmap data having a size of 32×32. Here, the fourth convolution unit 440 may use a convolution filter (ie, a kernel mask) having a size of 2×2. In this case, the strite to move the kernel mask for the next convolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the convolution result may be 0.

특징맵 생성부(232)는 엔코더(231)에 연결되고, 엔코더(231)에 의해 엔코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 특징맵 생성부(232)는 DNN 훈련 정보에 기초하여, 수신된 제2 RDmap 데이터로부터 특징맵을 생성할 수 있다. 일 실시예에 있어서, 특징맵은 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함할 수 있다.The feature map generator 232 may be connected to the encoder 231 and receive second RDmap data encoded by the encoder 231 . The feature map generator 232 may generate a feature map from the received second RDmap data based on the DNN training information. In one embodiment, the feature map may include compressed information about the target, clutter, and noise.

디코더(233)는 특징맵 생성부(232)에 연결되고, 특징맵 생성부(232)에 의해 생성된 특징맵을 수신할 수 있다. 디코더(233)는 DNN 훈련 정보에 기초하여 특징맵으로부터 저속 및 낮은 RCS의 표적의 특징을 선택하고, 표적 데이터를 포함하는 RDmap 데이터를 원래 크기의 RDmap 데이터를 복원하고 클러터 신호를 제거할 수 있다. 일 실시예에 있어서, 디코더(233)는 도 6에 도시된 바와 같이, 제1 전치 컨벌루션(transposed convolution)부(610), 제2 전치 컨벌루션부(620), 제3 전치 컨벌루션부(630) 및 제4 전치 컨벌루션부(640)를 포함할 수 있다.The decoder 233 may be connected to the feature map generator 232 and receive a feature map generated by the feature map generator 232 . The decoder 233 may select features of a low-speed and low-RCS target from feature maps based on DNN training information, restore RDmap data including target data to original size RDmap data, and remove clutter signals. . In one embodiment, as shown in FIG. 6, the decoder 233 includes a first transposed convolution unit 610, a second transposed convolution unit 620, a third transposed convolution unit 630, and A fourth pre-convolution unit 640 may be included.

제1 전치 컨벌루션부(610)는 제2 RDmap 데이터에 디코딩(decoding) 처리를 수행할 수 있다. 예를 들면, 제1 전치 컨벌루션부(610)는 도 7에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 32×32 크기를 갖는 제2 RDmap 데이터로 디코딩 처리를 수행할 수 있다. 예를 들면, 제1 전치 컨벌루션부(610)는 도 7에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 32×32 크기를 갖는 제2 RDmap 데이터로 디코딩 처리를 수행할 수 있다. 여기서, 제1 전치 컨벌루션부(610)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The first pre-convolution unit 610 may perform decoding processing on the second RDmap data. For example, as shown in FIG. 7 , the first pre-convolution unit 610 may decode second RDmap data having a size of 32×32 into second RDmap data having a size of 32×32. . For example, as shown in FIG. 7 , the first pre-convolution unit 610 may decode second RDmap data having a size of 32×32 into second RDmap data having a size of 32×32. . Here, the first pre-convolution unit 610 may use a pre-convolution filter (ie, a kernel mask) having a size of 2×2. In this case, the strite to move the kernel mask for the next preconvolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the preconvolution result may be 0.

제2 전치 컨벌루션부(620)는 제1 전치 컨벌루션부(610)에 연결되고, 제1 전치 컨벌루션부(610)에 의해 디코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제2 전치 컨벌루션부(620)는 수신된 제2 RDmap 데이터의 크기를 2배 크기로 증가시키는 디코딩 처리를 수행할 수 있다. 예를 들면, 제2 전치 컨벌루션부(620)는 도 7에 도시된 바와 같이, 32×32 크기를 갖는 제2 RDmap 데이터를 2배 크기(즉, 64×64)를 갖는 제2 RDmap 데이터로 데이터 크기를 증가시키기 위한 디코딩 처리를 수행할 수 있다. 여기서, 제2 전치 컨벌루션부(620)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The second pre-convolution unit 620 may be connected to the first pre-convolution unit 610 and receive second RDmap data decoded by the first pre-convolution unit 610 . The second pre-convolution unit 620 may perform a decoding process of increasing the size of the received second RDmap data to twice the size. For example, as shown in FIG. 7 , the second pre-convolution unit 620 converts second RDmap data having a size of 32×32 into second RDmap data having a size doubled (ie, 64×64). Decoding processing may be performed to increase the size. Here, the second pre-convolution unit 620 may use a 2×2 pre-convolution filter (ie, a kernel mask). In this case, the strite to move the kernel mask for the next preconvolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the preconvolution result may be 0.

제3 전치 컨벌루션부(630)는 제2 전치 컨벌루션부(620)에 연결되고, 제2 전치 컨벌루션부(620)에 의해 디코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제3 전치 컨벌루션부(630)는 수신된 제2 RDmap 데이터의 크기를 2배 크기로 증가시키는 디코딩 처리를 수행할 수 있다. 예를 들면, 제3 전치 컨벌루션부(630)는 도 6에 도시된 바와 같이, 64×64 크기를 갖는 제2 RDmap 데이터를 2배 크기(즉, 128×128)를 갖는 제2 RDmap 데이터로 데이터 크기를 증가시키기 위한 디코딩 처리를 수행할 수 있다. 여기서, 제3 전치 컨벌루션부(630)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The third pre-convolution unit 630 may be connected to the second pre-convolution unit 620 and receive second RDmap data decoded by the second pre-convolution unit 620 . The third pre-convolution unit 630 may perform a decoding process of increasing the size of the received second RDmap data to twice the size. For example, as shown in FIG. 6, the third pre-convolution unit 630 converts second RDmap data having a size of 64×64 into second RDmap data having a size doubled (ie, 128×128). Decoding processing may be performed to increase the size. Here, the third pre-convolution unit 630 may use a pre-convolution filter (ie, a kernel mask) having a size of 2×2. In this case, the strite to move the kernel mask for the next preconvolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the preconvolution result may be 0.

제4 전치 컨벌루션부(640)는 제3 전치 컨벌루션부(630)에 연결되고, 제3 전치 컨벌루션부(630)에 의해 디코딩 처리된 제2 RDmap 데이터를 수신할 수 있다. 제4 전치 컨벌루션부(640)는 수신된 제2 RDmap 데이터의 크기를 2배 크기로 증가시키는 디코딩 처리를 수행할 수 있다. 예를 들면, 제4 전치 컨벌루션부(640)는 도 7에 도시된 바와 같이, 128×128 크기를 갖는 제2 RDmap 데이터를 2배 크기(즉, 2568×256)를 갖는 제2 RDmap 데이터로 데이터 크기를 증가시키기 위한 디코딩 처리를 수행할 수 있다. 여기서, 제4 전치 컨벌루션부(640)는 2×2 크기를 갖는 전치 컨벌루션 필터(즉, 커널 마스크)를 이용할 수 있다. 이때, 커널 마스크를 다음 전치 컨벌루션 연산을 위해 이동시키는 스트라이트는 2이고, 전치 컨벌루션 결과의 크기를 조정하기 위해 입력 배열의 둘레를 확장하고 0으로 채우는 패딩은 0일 수 있다.The fourth pre-convolution unit 640 may be connected to the third pre-convolution unit 630 and receive second RDmap data decoded by the third pre-convolution unit 630 . The fourth pre-convolution unit 640 may perform a decoding process of increasing the size of the received second RDmap data to twice the size. For example, as shown in FIG. 7, the fourth pre-convolution unit 640 converts second RDmap data having a size of 128×128 into second RDmap data having a size twice (ie, 2568×256) Decoding processing may be performed to increase the size. Here, the fourth pre-convolution unit 640 may use a pre-convolution filter (ie, a kernel mask) having a size of 2×2. In this case, the strite to move the kernel mask for the next preconvolution operation may be 2, and the padding to expand the circumference of the input array and fill it with 0 to adjust the size of the preconvolution result may be 0.

본 발명에 도시된 흐름도에서 프로세스 단계들, 방법 단계들, 알고리즘들 등이 순차적인 순서로 설명되었지만, 그러한 프로세스들, 방법들 및 알고리즘들은 임의의 적합한 순서로 작동되도록 구성될 수 있다. 다시 말하면, 본 발명의 다양한 실시예들에서 설명되는 프로세스들, 방법들 및 알고리즘들의 단계들이 본 발명에서 기술된 순서로 수행될 필요는 없다. 또한, 일부 단계들이 비동시적으로 수행되는 것으로서 설명되더라도, 다른 실시예에서는 이러한 일부 단계들이 동시에 수행될 수 있다. 또한, 도면에서의 묘사에 의한 프로세스의 예시는 예시된 프로세스가 그에 대한 다른 변화들 및 수정들을 제외하는 것을 의미하지 않으며, 예시된 프로세스 또는 그의 단계들 중 임의의 것이 본 발명의 다양한 실시예들 중 하나 이상에 필수적임을 의미하지 않으며, 예시된 프로세스가 바람직하다는 것을 의미하지 않는다.Although process steps, method steps, algorithms, etc. are described in sequential order in the flowcharts shown herein, such processes, methods and algorithms may be configured to operate in any suitable order. In other words, the steps of the processes, methods and algorithms described in the various embodiments of the invention need not be performed in the order described herein. Also, although some steps are described as being performed asynchronously, in other embodiments some of these steps may be performed concurrently. Further, illustration of a process by depiction in the drawings does not mean that the illustrated process is exclusive of other changes and modifications thereto, and that any of the illustrated process or steps thereof may be one of various embodiments of the present invention. It is not meant to be essential to one or more, and it does not imply that the illustrated process is preferred.

도 8은 본 발명의 일 실시예에 따라 클러터 신호를 제거하는 방법을 나타낸 흐름도이다. 도 8을 참조하면, 단계 S802에서, 레이더 센서(110)는 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득할 수 있다. 일 실시예에 있어서, 레이더 센서(110)는 필드 테스트 환경에서 레이더 신호를 방사하여 제1 레이더 수신 신호를 획득할 수 있다.8 is a flowchart illustrating a method of removing a clutter signal according to an embodiment of the present invention. Referring to FIG. 8 , in step S802, the radar sensor 110 may obtain a first radar reception signal including a target signal corresponding to a target to be detected and a clutter signal. In one embodiment, the radar sensor 110 may obtain a first radar reception signal by radiating a radar signal in a field test environment.

단계 S804에서, 프로세서(130)는 제1 레이더 수신 신호에 DNN 훈련을 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 제1 레이더 수신 신호에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다.In step S804, the processor 130 may perform DNN training on the first radar received signal. In one embodiment, the first signal processor 210 of the processor 130 may generate DNN training information by performing DNN training on the first radar received signal.

단계 S806에서, 레이더 센서(110)는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득할 수 있다. 일 실시예에 있어서, 레이더 센서(110)는 실제 환경에서 레이더 신호(레이더 파형)를 방사하고 탐지하고자 하는 표적 등으로부터 반사되는 레이더 신호를 수신하여 제2 레이더 수신 신호를 획득할 수 있다. 예를 들면, 제2 레이더 수신 신호는 표적 등으로부터 반사되는 레이더 신호의 썸 채널 데이터일 수 있다.In step S806, the radar sensor 110 may obtain a second radar reception signal including a target signal corresponding to the target and a clutter signal. In an embodiment, the radar sensor 110 may obtain a second radar reception signal by emitting a radar signal (radar waveform) in a real environment and receiving a radar signal reflected from a target to be detected. For example, the second radar received signal may be thumb channel data of a radar signal reflected from a target.

단계 S808에서, 프로세서(130)는 훈련된 DNN에 기초하여 제2 레이더 수신 신호에 DNN 추론을 수행하여 클러터 신호를 제거할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제2 신호 처리부(220)는 제2 레이더 수신 신호에 기초하여 제2 데이터(예를 들어, 제2 RDmap 데이터)를 생성하고, 제3 신호 처리부(230)는 DNN 훈련 정보에 기초하여, 제2 데이터에 DNN 추론을 수행하여 클러터 신호가 제거된 제2 데이터를 생성할 수 있다.In step S808, the processor 130 may remove the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN. In one embodiment, the second signal processing unit 220 of the processor 130 generates second data (eg, second RDmap data) based on the second radar received signal, and the third signal processing unit 230 ) may generate second data from which clutter signals are removed by performing DNN inference on the second data based on the DNN training information.

선택적으로, 단계 S806 및 단계 S808은 시험 종료까지 반복 수행될 수 있다.Optionally, steps S806 and S808 may be repeatedly performed until the end of the test.

도 9는 본 발명의 일 실시예에 따라 DNN 훈련을 수행하는 방법을 나타낸 흐름도이다. 도 9를 참조하면, 단계 S902에서, 프로세서(130)는 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터(예를 들어, 제1 RDmap 데이터)를 생성할 수 있다.9 is a flowchart illustrating a method of performing DNN training according to an embodiment of the present invention. Referring to FIG. 9 , in step S902, the processor 130 may generate first data for labeling processing using the first radar received signal. In one embodiment, the first signal processing unit 210 of the processor 130 may generate first data (eg, first RDmap data) for labeling processing using the first radar received signal.

단계 S904에서, 프로세서(130)는 제1 데이터에 레이블링 처리를 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 표적 신호에 데이터 레이블링을 수행하고, 클러터 신호에 데이터 레이블링을 수행할 수 있다.In step S904, the processor 130 may perform a labeling process on the first data. In an embodiment, the first signal processor 210 of the processor 130 may perform data labeling on the target signal and data labeling on the clutter signal.

단계 S906에서, 프로세서(130)는 레이블링 처리된 제1 데이터에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제1 신호 처리부(210)는 제1 데이터(예를 들어, 제1 RDmap 데이터)에 DNN 훈련을 수행하여 DNN 훈련 정보를 생성할 수 있다. 예를 들면, DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스 데이터 및 바이어스 데이터를 포함할 수 있다.In step S906, the processor 130 may generate DNN training information by performing DNN training on the labeled first data. In one embodiment, the first signal processing unit 210 of the processor 130 may generate DNN training information by performing DNN training on the first data (eg, first RDmap data). For example, DNN training information may include labeling information, weight metrics data, and bias data.

도 10은 본 발명의 일 실시예에 따라 DNN 추론을 수행하는 방법을 나타낸 흐름도이다. 도 10을 참조하면, 단계 S1002에서, 프로세서(130)는 제2 레이더 수신 신호에 도플러 처리를 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제2 신호 처리부(220)는 제2 레이더 수신 신호에 도플러 처리를 수행할 수 있다.10 is a flowchart illustrating a method of performing DNN inference according to an embodiment of the present invention. Referring to FIG. 10 , in step S1002, the processor 130 may perform Doppler processing on the second radar received signal. In one embodiment, the second signal processor 220 of the processor 130 may perform Doppler processing on the second radar reception signal.

단계 S1004에서, 프로세서(130)는 도플러 처리된 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제2 신호 처리부(220)는 도플러 처리된 제2 레이더 수신 신호에 기초하여 제2 데이터(예를 들어, 제2 RDmap 데이터)를 생성할 수 있다. In step S1004, the processor 130 may generate second data based on the Doppler-processed second radar reception signal. In one embodiment, the second signal processor 220 of the processor 130 may generate second data (eg, second RDmap data) based on the Doppler-processed second radar reception signal.

단계 S1006에서, 프로세서(130)는 제2 데이터에 엔코딩 처리를 수행할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제3 신호 처리부(230)는 제2 데이터(예를 들어, 제2 RDmap 데이터)의 데이터 크기를 절반의 크기로 감소시키는 컨벌루션부를 복수개 포함하는 엔코더를 이용하여 제2 데이터에 엔코딩 처리를 수행할 수 있다.In step S1006, the processor 130 may perform encoding processing on the second data. In one embodiment, the third signal processing unit 230 of the processor 130 reduces the data size of the second data (eg, the second RDmap data) by half using an encoder including a plurality of convolution units. Thus, encoding processing may be performed on the second data.

단계 S1008에서, 프로세서(130)는 DNN 훈련 정보에 기초하여, 엔코딩 처리된 제2 데이터로부터 특징맵을 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제3 신호 처리부(230)는 DNN 훈련 정보에 기초하여, 엔코딩 처리된 제2 데이터로부터 특징맵을 생성할 수 있다.In step S1008, the processor 130 may generate a feature map from the encoded second data based on the DNN training information. In one embodiment, the third signal processing unit 230 of the processor 130 may generate a feature map from encoded second data based on DNN training information.

단계 S1010에서, 프로세서(130)는 DNN 훈련 정보 및 특징맵에 기초하여 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행하여 클러터 신호가 제거된 제2 데이터를 생성할 수 있다. 일 실시예에 있어서, 프로세서(130)의 제3 신호 처리부(230)는 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 전치 컨벌루션부를 복수개 포함하는 디코더를 이용하여 엔코딩 처리된 제2 데이터에 디코딩 처리를 수행할 수 있다.In step S1010, the processor 130 may generate second data from which clutter signals are removed by performing a decoding process on the encoded second data based on the DNN training information and the feature map. In one embodiment, the third signal processing unit 230 of the processor 130 performs encoding processing using a decoder including a plurality of pre-convolution units for increasing the data size of encoded second data by a factor of two. 2 Decoding process can be performed on data.

예를 들면, 도 11a에서 붉은색 원으로 표시된 바와 같이, 표적 신호가 클러터 신호에 의해 묻혀 보이지 않는 경우, 본 실시예에 따른 DNN 추론을 수행함으로써, 도 11b에서 푸른색 원으로 표시된 바와 같이, 클러터 신호에 가려져 있던 표적 신호가 RDmap 데이터 상에 정상적으로 나타날 수 있다.For example, as indicated by a red circle in FIG. 11A, when the target signal is not visible buried by the clutter signal, by performing DNN inference according to the present embodiment, as indicated by a blue circle in FIG. 11B, The target signal hidden by the clutter signal may appear normally on the RDmap data.

위 방법은 특정 실시예들을 통하여 설명되었지만, 위 방법은 또한 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 위 실시예들을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.Although the above method has been described through specific embodiments, it is also possible to implement the above method as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium is distributed in computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the above embodiments can be easily inferred by programmers in the technical field to which the present invention belongs.

이상 일부 실시예들과 첨부된 도면에 도시된 예에 의해 본 발명의 기술적 사상이 설명되었지만, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 이해할 수 있는 본 발명의 기술적 사상 및 범위를 벗어나지 않는 범위에서 다양한 치환, 변형 및 변경이 이루어질 수 있다는 점을 알아야 할 것이다. 또한, 그러한 치환, 변형 및 변경은 첨부된 청구범위 내에 속하는 것으로 생각되어야 한다.Although the technical idea of the present invention has been described by the examples shown in some embodiments and the accompanying drawings, it does not deviate from the technical spirit and scope of the present invention that can be understood by those skilled in the art to which the present invention belongs. It will be appreciated that various substitutions, modifications and alterations may be made within the range. Moreover, such substitutions, modifications and alterations are intended to fall within the scope of the appended claims.

100: 레이더 시스템, 110: 레이더 센서, 120: 저장부, 130: 프로세서, 140: 제어부, 210: 제1 신호 처리부, 211: 제1 데이터 생성부, 212: 레이블링 처리부, 213: DNN 훈련부, 220: 제2 신호 처리부, 221: 도플러 처리부, 222: 제2 데이터 생성부, 230: 제3 신호 처리부, 231: 엔코더, 232: 특징맵 생성부, 233: 디코더100: radar system, 110: radar sensor, 120: storage unit, 130: processor, 140: control unit, 210: first signal processing unit, 211: first data generation unit, 212: labeling processing unit, 213: DNN training unit, 220: 2nd signal processor, 221: Doppler processor, 222: second data generator, 230: third signal processor, 231: encoder, 232: feature map generator, 233: decoder

Claims (30)

딥러닝 기반 레이더 시스템으로서,
탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 레이더 센서; 및
상기 제1 레이더 수신 신호에 기초하여 DNN(deep neural network) 훈련을 수행하는 프로세서
를 포함하고,
상기 레이더 센서는 상기 표적에 해당하는 상기 표적 신호 및 상기 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하고,
상기 프로세서는 상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하고,
상기 프로세서는
상기 제1 레이더 수신 신호에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 제1 신호 처리부;
상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 제2 신호 처리부; 및
상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 제3 신호 처리부
를 포함하고,
상기 제3 신호 처리부는 상기 제2 데이터의 크기를 절반으로 감소시키는 엔코딩(encoding) 처리를 복수회 수행하여 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함하는 특징맵을 생성하고, 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터의 크기를 2배 증가시키는 디코딩(decoding) 처리를 복수회 수행하여 상기 클러터 신호를 제거하는 딥러닝 기반 레이더 시스템.
As a deep learning-based radar system,
a radar sensor that obtains a first radar reception signal including a target signal and a clutter signal corresponding to a target to be detected; and
A processor performing deep neural network (DNN) training based on the first radar received signal
including,
The radar sensor obtains a second radar reception signal including the target signal and the clutter signal corresponding to the target,
The processor removes the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN,
The processor
a first signal processor generating DNN training information by performing the DNN training on the first radar received signal;
a second signal processing unit generating second data based on the second radar received signal; and
A third signal processor configured to generate data from which the clutter signal is removed by performing the DNN inference on the second data
including,
The third signal processor generates a feature map including compressed information about the target, clutter, and noise by performing an encoding process of reducing the size of the second data by half a plurality of times, and the DNN A deep learning-based radar system that removes the clutter signal by performing a decoding process for doubling the size of the encoded second data based on training information and the feature map.
제1항에 있어서, 상기 제1 레이더 수신 신호는 필드 테스트 환경에서 획득되는 딥러닝 기반 레이더 시스템.The deep learning-based radar system of claim 1, wherein the first radar received signal is obtained in a field test environment. 삭제delete 제1항에 있어서, 상기 DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스(weight matrix) 데이터 및 바이어스(bias) 데이터를 포함하는 딥러닝 기반 레이더 시스템.The deep learning-based radar system of claim 1, wherein the DNN training information includes labeling information, weight matrix data, and bias data. 제1항에 있어서, 상기 제1 신호 처리부는
상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 제1 데이터 생성부;
상기 제1 데이터에 레이블링(labeling) 처리를 수행하는 레이블링 처리부; 및
상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 상기 DNN 훈련 정보를 생성하는 DNN 훈련부
를 포함하는 딥러닝 기반 레이더 시스템.
The method of claim 1, wherein the first signal processing unit
a first data generating unit generating first data for labeling processing using the first radar received signal;
a labeling processing unit performing labeling processing on the first data; and
A DNN training unit generating the DNN training information by performing the DNN training on the labeled first data
A deep learning-based radar system that includes a.
제5항에 있어서, 상기 제1 데이터는 RDmap 데이터를 포함하는 딥러닝 기반 레이더 시스템.[6] The deep learning-based radar system of claim 5, wherein the first data includes RDmap data. 제5항에 있어서, 상기 레이블링 처리부는 상기 제1 데이터에 상기 레이블링 처리를 수행하여, 상기 표적 신호에 데이터 레이블링을 수행하고, 상기 클러터 신호에 데이터 레이블링을 수행하는 딥러닝 기반 레이더 시스템.The deep learning-based radar system of claim 5, wherein the labeling processing unit performs the labeling process on the first data, data labeling on the target signal, and data labeling on the clutter signal. 제1항에 있어서, 상기 제2 신호 처리부는
상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 도플러 처리부; 및
상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 제2 데이터 생성부
를 포함하는 딥러닝 기반 레이더 시스템.
The method of claim 1, wherein the second signal processing unit
a Doppler processing unit which performs Doppler processing on the second radar reception signal; and
A second data generator configured to generate the second data based on the Doppler-processed second radar reception signal
A deep learning-based radar system that includes a.
제8항에 있어서, 상기 제2 데이터는 RDmap 데이터를 포함하는 딥러닝 기반 레이더 시스템.The deep learning based radar system of claim 8 , wherein the second data includes RDmap data. 제1항에 있어서, 상기 제3 신호 처리부는
상기 제2 데이터에 상기 엔코딩 처리를 수행하는 엔코더;
상기 DNN 훈련 정보에 기초하여, 상기 엔코딩 처리된 제2 데이터로부터 상기 특징맵을 생성하는 특징맵 생성부; 및
상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터에 상기 디코딩 처리를 수행하여 상기 클러터 신호가 제거된 제2 데이터를 생성하는 디코더
를 포함하는 딥러닝 기반 레이더 시스템.
The method of claim 1, wherein the third signal processing unit
an encoder that performs the encoding process on the second data;
a feature map generating unit generating the feature map from the encoded second data based on the DNN training information; and
A decoder configured to generate second data from which the clutter signal is removed by performing the decoding process on the encoded second data based on the DNN training information and the feature map.
A deep learning-based radar system that includes a.
제10항에 있어서, 상기 엔코더는 상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제1 엔코딩 처리를 수행하는 제1 컨벌루션부, 상기 제1 엔코딩 처리된 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제2 엔코딩 처리를 수행하는 제2 컨벌루션부, 및 상기 제2 엔코딩 처리된 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제3 엔코딩 처리를 수행하는 제3 컨벌루션부를 포함하는 딥러닝 기반 레이더 시스템.11. The method of claim 10, wherein the encoder comprises a first convolution unit which performs a first encoding process to reduce a data size of the second data by half, and a data size of the first encoded second data by half. a second convolution unit that performs a second encoding process to reduce the second data size to a size, and a third convolution unit that performs a third encoding process that reduces the data size of second data that has been subjected to the second encoding process to half the size; Running-based radar system. 제11항에 있어서, 상기 제1 내지 제3 컨벌루션부는 2Х2 크기를 갖는 컨벌루션 필터를 포함하는 딥러닝 기반 레이더 시스템.The deep learning-based radar system of claim 11, wherein the first to third convolution units include a convolution filter having a size of 2Х2. 삭제delete 제10항에 있어서, 상기 디코더는 상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제1 디코딩 처리를 수행하는 제1 전치 컨벌루션부, 상기 제1 디코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제2 디코딩 처리를 수행하는 제2 전치 컨벌루션부, 및 상기 제2 디코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제3 디코딩 처리를 수행하는 제3 전치 컨벌루션부를 포함하는 딥러닝 기반 레이더 시스템.11. The method of claim 10, wherein the decoder comprises a first pre-convolution unit which performs a first decoding process for increasing a data size of the encoded second data by a factor of two; A second pre-convolution unit that performs a second decoding process to double the data size, and performs a third decoding process that doubles the data size of the second decoded second data. A deep learning-based radar system including a third pre-convolution unit to do. 제14항에 있어서, 상기 제1 내지 제3 전치 컨벌루션부는 2Х2 크기를 갖는 전치 컨벌루션 필터를 포함하는 딥러닝 기반 레이더 시스템.15. The deep learning-based radar system of claim 14, wherein the first to third pre-convolution units include pre-convolution filters having a size of 2Х2. 딥러인 기반 클러터 신호 제거 방법으로서,
레이더 시스템의 레이더 센서에서, 탐지하고자 하는 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제1 레이더 수신 신호를 획득하는 단계;
상기 레이더 시스템의 프로세서에서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계;
상기 레이더 센서에서, 상기 표적에 해당하는 표적 신호 및 클러터 신호를 포함하는 제2 레이더 수신 신호를 획득하는 단계; 및
상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계
를 포함하고,
상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계는
상기 제1 레이더 수신 신호에 상기 DNN 훈련을 수행하여 DNN 훈련 정보를 생성하는 단계
를 포함하고,
상기 훈련된 DNN에 기초하여 상기 제2 레이더 수신 신호에 DNN 추론을 수행하여 상기 클러터 신호를 제거하는 단계는
상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계; 및
상기 제2 데이터에 상기 DNN 추론을 수행하여 상기 클러터 신호가 제거된 데이터를 생성하는 단계
를 포함하고,
상기 클러터 신호가 제거된 데이터를 생성하는 단계는
상기 제2 데이터의 크기를 절반으로 감소시키는 엔코딩 처리를 복수회 수행하여 상기 표적, 클러터 및 노이즈에 대한 압축된 정보를 포함하는 특징맵을 생성하고, 상기 DNN 훈련 정보 및 상기 특징맵에 기초하여 상기 엔코딩 처리된 제2 데이터의 크기를 2배 증가시키는 디코딩 처리를 복수회 수행하여 상기 클러터 신호를 제거하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.
As a deep learning-based clutter signal removal method,
obtaining, in a radar sensor of a radar system, a first radar reception signal including a target signal and a clutter signal corresponding to a target to be detected;
In a processor of the radar system, performing DNN training on the first radar received signal;
acquiring a second radar received signal including a target signal corresponding to the target and a clutter signal, in the radar sensor; and
removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN;
including,
Performing DNN training on the first radar received signal
Generating DNN training information by performing the DNN training on the first radar received signal
including,
The step of removing the clutter signal by performing DNN inference on the second radar received signal based on the trained DNN
generating second data based on the second radar reception signal; and
generating data from which the clutter signal is removed by performing the DNN inference on the second data;
including,
Generating data from which the clutter signal has been removed is
An encoding process for reducing the size of the second data by half is performed a plurality of times to generate a feature map including compressed information on the target, clutter, and noise, and based on the DNN training information and the feature map removing the clutter signal by performing a decoding process of doubling the size of the encoded second data a plurality of times;
Deep learning-based clutter signal removal method comprising a.
제16항에 있어서, 상기 제1 레이더 수신 신호는 필드 테스트 환경에서 획득되는 딥러닝 기반 클러터 신호 제거 방법.17. The method of claim 16, wherein the first radar received signal is obtained in a field test environment. 제16항에 있어서, 상기 제1 레이더 수신 신호에 DNN 훈련을 수행하는 단계는
상기 제1 레이더 수신 신호를 이용하여 레이블링 처리를 위한 제1 데이터를 생성하는 단계;
상기 제1 데이터에 레이블링 처리를 수행하는 단계; 및
상기 레이블링 처리된 제1 데이터에 상기 DNN 훈련을 수행하여 상기 DNN 훈련 정보를 생성하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.
The method of claim 16, wherein performing DNN training on the first radar received signal
generating first data for labeling processing using the first radar reception signal;
performing labeling processing on the first data; and
generating the DNN training information by performing the DNN training on the labeled first data;
Deep learning-based clutter signal removal method comprising a.
제18항에 있어서, 상기 제1 데이터는 RDmap 데이터를 포함하는 딥러닝 기반 클러터 신호 제거 방법.19. The method of claim 18, wherein the first data includes RDmap data. 제18항에 있어서, 상기 DNN 훈련 정보는 레이블링 정보, 웨이트 메트릭스 데이터 및 바이어스 데이터를 포함하는 딥러닝 기반 클러터 신호 제거 방법.19. The method of claim 18, wherein the DNN training information includes labeling information, weight matrix data, and bias data. 제18항에 있어서, 상기 제1 데이터에 레이블링 처리를 수행하는 단계는
상기 표적 신호에 데이터 레이블링을 수행하는 단계; 및
상기 클러터 신호에 데이터 레이블링을 수행하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.
19. The method of claim 18, wherein labeling the first data comprises:
performing data labeling on the target signal; and
performing data labeling on the clutter signal;
Deep learning-based clutter signal removal method comprising a.
삭제delete 제18항에 있어서, 상기 제2 레이더 수신 신호에 기초하여 제2 데이터를 생성하는 단계는
상기 제2 레이더 수신 신호에 도플러 처리를 수행하는 단계; 및
상기 도플러 처리된 제2 레이더 수신 신호에 기초하여 상기 제2 데이터를 생성하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.
The method of claim 18, wherein generating the second data based on the second radar received signal
performing Doppler processing on the second radar received signal; and
Generating the second data based on the Doppler-processed second radar reception signal
Deep learning-based clutter signal removal method comprising a.
제23항에 있어서, 상기 제2 데이터는 RDmap 데이터를 포함하는 딥러닝 기반 클러터 신호 제거 방법.24. The method of claim 23, wherein the second data includes RDmap data. 삭제delete 제16항에 있어서, 상기 클러터 신호가 제거된 데이터를 생성하는 단계는
상기 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제1 엔코딩 처리를 수행하는 제1 컨벌루션부, 상기 제1 엔코딩 처리된 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제2 엔코딩 처리를 수행하는 제2 컨벌루션부, 및 상기 제2 엔코딩 처리된 제2 데이터의 데이터 크기를 절반의 크기로 감소시키는 제3 엔코딩 처리를 수행하는 제3 컨벌루션부를 이용하여 상기 제2 데이터에 상기 엔코딩 처리를 수행하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.
17. The method of claim 16, wherein generating the data from which the clutter signal is removed
A first convolution unit performing a first encoding process for reducing the data size of the second data by half, and a second encoding process for reducing the data size of the first encoded second data to half the size The encoding process is performed on the second data using a second convolution unit that performs a second convolution unit and a third convolution unit that performs a third encoding process that reduces the data size of the second data that has been subjected to the second encoding process to half the size. step to do
Deep learning-based clutter signal removal method comprising a.
제26항에 있어서, 상기 제1 내지 제3 컨벌루션부는 2Х2 크기를 갖는 컨벌루션 필터를 포함하는 딥러닝 기반 클러터 신호 제거 방법.27. The method of claim 26, wherein the first to third convolution units include a convolution filter having a size of 2Х2. 삭제delete 제26항에 있어서, 상기 클러터 신호가 제거된 데이터를 생성하는 단계는
상기 엔코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제1 디코딩 처리를 수행하는 제1 전치 컨벌루션부, 상기 제1 디코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제2 디코딩 처리를 수행하는 제2 전치 컨벌루션부, 및 상기 제2 디코딩 처리된 제2 데이터의 데이터 크기를 2배의 크기로 증가시키는 제3 디코딩 처리를 수행하는 제3 전치 컨벌루션부를 이용하여 상기 엔코딩 처리된 제2 데이터에 상기 디코딩 처리를 수행하는 단계
를 포함하는 딥러닝 기반 클러터 신호 제거 방법.
27. The method of claim 26, wherein generating the data from which the clutter signal is removed
A first pre-convolution unit which performs a first decoding process of increasing the data size of the encoded second data by a factor of two, and increasing the data size of the first decoded second data by a factor of two A second pre-convolution unit for performing a second decoding process for performing the second decoding process, and a third pre-convolution unit for performing a third decoding process for increasing the data size of the second data that has been subjected to the second decoding process by a factor of two. performing the decoding process on the encoded second data;
Deep learning-based clutter signal removal method comprising a.
제29항에 있어서, 상기 제1 내지 제3 전치 컨벌루션부는 2Х2 크기를 갖는 전치 컨벌루션 필터를 포함하는 딥러닝 기반 클러터 신호 제거 방법.30. The method of claim 29, wherein the first to third pre-convolution units include pre-convolution filters having a size of 2Х2.
KR1020200176015A 2020-12-16 2020-12-16 Deep learning-based radar system and method of filtering clutter signal KR102534622B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200176015A KR102534622B1 (en) 2020-12-16 2020-12-16 Deep learning-based radar system and method of filtering clutter signal

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200176015A KR102534622B1 (en) 2020-12-16 2020-12-16 Deep learning-based radar system and method of filtering clutter signal

Publications (2)

Publication Number Publication Date
KR20220085977A KR20220085977A (en) 2022-06-23
KR102534622B1 true KR102534622B1 (en) 2023-05-19

Family

ID=82222083

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200176015A KR102534622B1 (en) 2020-12-16 2020-12-16 Deep learning-based radar system and method of filtering clutter signal

Country Status (1)

Country Link
KR (1) KR102534622B1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020193904A (en) * 2019-05-29 2020-12-03 日本電気株式会社 Target signal separation device, passive radar device, and target signal separation method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020193904A (en) * 2019-05-29 2020-12-03 日本電気株式会社 Target signal separation device, passive radar device, and target signal separation method

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Gang Zhang 외 3인, "Learning synthetic aperture radar image despeckling without clean data," J. Appl. Remote Sens. 2020년 6월 3일*
Johanna Rock 외 4인, "Complex Signal Denoising and Interference Mitigation for Automotive Radar Using Convolutional Neural Networks," NeurIPS 2019, 2019년*
SANDRO RHODIN 외 1인, "A comparative study between MLP and CNN for noise reduction on images: The impact of different input dataset sizes and the impact of different types of noise on performance," 2019*

Also Published As

Publication number Publication date
KR20220085977A (en) 2022-06-23

Similar Documents

Publication Publication Date Title
Strauss et al. Ensemble methods as a defense to adversarial perturbations against deep neural networks
KR102315311B1 (en) Deep learning based object detection model training method and an object detection apparatus to execute the object detection model
CN110163108B (en) Robust sonar target detection method based on dual-path feature fusion network
US20210018609A1 (en) Method and system for object detection
CN111209903B (en) Face detection method and device
Ni et al. LPI radar waveform recognition based on multi-resolution deep feature fusion
Schwegmann et al. Synthetic aperture radar ship detection using capsule networks
KR102534622B1 (en) Deep learning-based radar system and method of filtering clutter signal
Wen et al. Multiframe detection of sea-surface small target using deep convolutional neural network
KR102534629B1 (en) Deep learning-based radar system and method of detecting maritime moving target
de BA Barros et al. Development of a ship classification method based on Convolutional neural network and Cyclostationarity Analysis
Abdul et al. A new feature extraction technique based on 1D local binary pattern for gear fault detection
Chen et al. Background-annihilated target-constrained interference-minimized filter (TCIMF) for hyperspectral target detection
CN116665110B (en) Video action recognition method and device
Rixon Fuchs et al. Deep learning based technique for enhanced sonar imaging
Bhattarai et al. A deep learning approach for underwater bubble detection
CN113160279A (en) Method and device for detecting abnormal behaviors of pedestrians in subway environment
Priyadarshni et al. Underwater object detection and tracking
KR102311033B1 (en) Apparatus of apparatus of extracting image feature based on deep learning
KR102427861B1 (en) Apparatus and method for generating underwater image data
Barngrover Automated detection of mine-like objects in side scan sonar imagery
Tang et al. Side-scan sonar underwater target segmentation using the BHP-UNet
US20210406682A1 (en) Quantization of neural network models using data augmentation
CN114707518A (en) Semantic fragment-oriented target emotion analysis method, device, equipment and medium
JP2008045939A (en) Target detection device

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant