KR20230068050A - 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치 - Google Patents

서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치 Download PDF

Info

Publication number
KR20230068050A
KR20230068050A KR1020210153949A KR20210153949A KR20230068050A KR 20230068050 A KR20230068050 A KR 20230068050A KR 1020210153949 A KR1020210153949 A KR 1020210153949A KR 20210153949 A KR20210153949 A KR 20210153949A KR 20230068050 A KR20230068050 A KR 20230068050A
Authority
KR
South Korea
Prior art keywords
classification
feature
learning
networks
target identification
Prior art date
Application number
KR1020210153949A
Other languages
English (en)
Other versions
KR102697940B1 (ko
Inventor
고일석
전상현
김현
정민길
Original Assignee
엘아이지넥스원 주식회사
인하대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘아이지넥스원 주식회사, 인하대학교 산학협력단 filed Critical 엘아이지넥스원 주식회사
Priority to KR1020210153949A priority Critical patent/KR102697940B1/ko
Priority claimed from KR1020210153949A external-priority patent/KR102697940B1/ko
Publication of KR20230068050A publication Critical patent/KR20230068050A/ko
Application granted granted Critical
Publication of KR102697940B1 publication Critical patent/KR102697940B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/414Discriminating targets with respect to background clutter
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Remote Sensing (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치를 개시한다.
본 발명의 실시예에 따른 표적 식별 방법은, 탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계; 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리 단계; 적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리 단계; 및 상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리 단계를 포함할 수 있다.

Description

서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치{Method and Apparatus for Target Identification Based on Different Features}
본 발명은 서로 다른 특징 데이터를 기반으로 표적을 식별하는 방법 및 그를 위한 장치에 관한 것이다.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.
일반적으로 레이다가 표적을 탐지 및 추적 시 획득한 측정 데이터는 서로 불균일한 데이터이다. 다시 말해, 레이다의 탐지 시작 시간이 서로 다르고, 탐지 및 추적한 데이터 양이 서로 다르며, 각각의 데이터는 온전한 표적의 궤적 중 일부분이기 때문에 획득한 측정 데이터는 불균일하게 된다.
일반적으로 측정 데이터 전체를 이용하여 학습하는 네트워크를 통해 표적 및 클러터를 분류하는 표적 식별 장치는 도 1과 같다. 도 1에 도시된 바와 같이, 획득된 측정 데이터를 획득하고(S110), 획득된 측정 데이터에서 입력 특징(feature)을 선택하여 학습을 시키고(S120) 학습된 네트워크들의 결과를 받아 분류를 수행(S130)하는 네트워크 등은 많이 사용되고 있다.
표적 식별 장치에서 학습 네트워크를 사용하는 경우에는 학습을 위한 데이터 양이 서로 비슷하고 충분한 양이 확보되어야 분류의 정확도가 보장되고, 정확도를 높이기 위해서는 많은 양의 데이터를 사용해야 하며, 딥러닝(Deep Learning) 네트워크가 필요하다. 또한, 표적 식별 장치에서 학습 네트워크를 사용하는 경우에는 분류 정확도를 보장하기 위한 학습된 네트워크의 복잡도가 높아지기 때문에 실시간으로 표적을 식별하는 데 적용하기에는 어려움이 있다.
본 발명은 탐지 레이다에서 측정된 측정 데이터에서 서로 다른 특징 데이터를 추출하여 학습된 학습 네트워크를 조합하여 표적을 식별하는 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.
본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 표적 식별 방법은, 탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계; 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리 단계; 적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리 단계; 및 상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리 단계를 포함할 수 있다.
또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 표적 식별 장치는, 탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득부; 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리부; 적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리부; 및 상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리부를 포함할 수 있다.
이상에서 설명한 바와 같이, 본 발명은 서로 다른 특징 데이터를 추출하여 복수 개의 학습 네트워크에 적용하고, 네트워크 출력 결과를 교차 검증하는 방법을 적용함으로써, 기존 방법에 비해 훈련 데이터 수 또는 불 균형된 데이터에 영향을 덜 받고 높은 분류 특성을 추출할 수 있으며, 측정과 동시에 실시간으로 표적 분류를 수행할 수 있는 효과가 있다.
도 1은 종래의 표적 식별 동작을 설명하기 위한 도면이다.
도 2 및 도 3은 본 발명의 실시예에 따른 표적 식별 장치를 개략적으로 나타낸 블록 구성도이다.
도 4는 본 발명의 실시예에 따른 서로 다른 특징 기반의 표적 식별 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 실시예에 따른 측정 데이터의 기본 위치정보를 나타낸 그래프이다.
도 6은 본 발명의 실시예에 따른 제1 특징 데이터를 나타낸 그래프이다.
도 7은 본 발명의 실시예에 따른 제2 특징 데이터를 나타낸 그래프이다.
도 8은 본 발명의 실시예에 따른 제3 특징 데이터를 나타낸 그래프이다.
도 9는 본 발명의 실시예에 따른 제4 특징 데이터를 나타낸 그래프이다.
도 10은 본 발명의 실시예에 따른 표적 식별 장치의 분류 처리 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 표적 식별 동작에 대한 오분류 확률을 설명하기 위한 도면이다.
도 12 및 도 13은 본 발명의 실시예에 따른 서로 다른 특징 데이터를 비교하기 위한 그래프이다.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.
도 2 및 도 3은 본 발명의 실시예에 따른 표적 식별 장치를 개략적으로 나타낸 블록 구성도이다.
본 실시예에 따른 표적 식별 장치(200)는 측정 데이터 획득부(210), 특징 추출 처리부(220), 학습 네트워크 처리부(230) 및 분류 처리부(240)를 포함한다. 도 2 및 도 3의 표적 식별 장치(200)는 일 실시예에 따른 것으로서, 도 2에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 표적 식별 장치(200)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다.
표적 식별 장치(200)는 표적을 탐지하기 위한 탐지 레이다와 연동하며, 탐지 레이다로부터 획득된 측정 데이터에서 추출된 서로 다른 특징으로 학습 네트워크를 훈련하고, 훈련된 학습 네트워크를 결합하여 실시간으로 표적 및 클러터를 분류하여 표적을 식별하는 동작을 수행한다.
표적 식별 장치(200)는 서로 다른 특징 데이터를 입력으로 사용한 학습 네트워크들을 훈련시킨 후 각각의 결과를 바탕으로 분류 알고리듬을 사용하여 표적 및 클러터에 대한 분류를 수행할 수 있다.
다시 말해, 표적 식별 장치(200)는 표적-클러터 분류방식으로 측정 데이터를 서로 독립적인 특징 데이터로 변환하고, 특징 데이터 각각에 대한 서로 다른 학습 네트워크를 훈련시킨 후 그 결과를 분류 알고리듬을 이용하여 표적 및 클러터를 분류함으로써 표적을 식별할 수 있다.
측정 데이터 획득부(210)는 표적을 탐지하기 위한 탐지 레이다로부터 측정 데이터를 획득한다. 여기서, 측정 데이터(Raw Data)는 대포병 탐지 레이다를 이용하여 획득한 데이터인 것이 바람직하나 반드시 이에 한정되는 것은 아니다.
대포병 탐지 레이다는 화포(야포, 박격포, 로켓)의 궤도를 탐지 및 추적하게 되는데 획득한 데이터가 화포의 특징을 가질 경우에만 표적으로 인식하게 되고 그렇지 않은 특징을 가지는 데이터들을 클러터로 인식한다. 예를 들어, 비행기, 헬기 등의 비행체도 클러터로 인식하게 된다.
측정 데이터 획득부(210)에서 획득된 측정 데이터는 실제 야포, 박격포, 로켓 등의 사격 시험을 통해 레이다에서 탐지 및 추적하여 획득한 표적 및 클러터에 대한 데이터이다. 측정 데이터는 시간과 위치 등에 대한 기본 위치정보에 대한 데이터를 포함하며, (x,y,z) 직교 좌표계를 이용한다.
특징 추출 처리부(220)는 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출한다.
특징 추출 처리부(220)는 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준 특성을 기반으로 독립적인 특징에 대한 적어도 두 개의 특징 데이터를 추출한다.
도 3을 참고하면, 특징 추출 처리부(220)는 제1 특징 추출부(222), 제2 특징 추출부(224), 제3 특징 추출부(226), 제4 특징 추출부(228) 및 제n(n은 2 이상의 자연수) 특징 추출부(229) 등을 포함할 수 있다.
본 실시예에 따른 제1 특징 추출부(222), 제2 특징 추출부(224), 제3 특징 추출부(226), 제4 특징 추출부(228) 각각은 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터 각각을 추출할 수 있다. 여기서, 측정 데이터의 기본 위치정보는 직교 좌표계가 변환된 ENU 좌표(x, y, z), 표적의 궤적, 표적 궤도의 방향(EN)정보 등일 수 있다.
제1 특징 추출부(222)는 측정 데이터의 기본 위치정보를 기반으로 제1 특징 데이터를 추출한다. 여기서, 제1 특징 데이터는 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.
제2 특징 추출부(224)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제2 특징 데이터를 추출한다. 여기서, 제2 특징 데이터는 시간에 따른 위치 변화량을 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.
제3 특징 추출부(226)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제3 특징 데이터를 추출한다. 여기서, 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.
한편, 제3 특징 추출부(226)는 제3 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제3 특징 데이터를 추출할 수도 있다.
제4 특징 추출부(228)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제4 특징 데이터를 추출할 수 있다. 여기서, 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.
한편, 제4 특징 추출부(228)는 제4 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제4 특징 데이터를 추출할 수도 있다.
한편, 특징 추출 처리부(220)는 표적 식별 장치(200) 내에 포함된 구성요소인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니다. 예를 들어, 특징 추출 처리부(220)는 측정 데이터 획득부(210)를 함께 포함하는 형태의 특징 추출 장치와 같이 표적 식별 장치(200)와 별도의 장치로 구현될 수도 있다.
학습 네트워크 처리부(230)는 적어도 두 개의 학습 네트워크를 포함하며, 적어도 두 개의 특징 데이터 각각을 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 동작을 수행한다.
학습 네트워크 처리부(230)는 적어도 두 개의 학습 네트워크 각각에 서로 다른 상기 적어도 두 개의 특징 데이터 각각을 입력시켜 훈련(Training)을 수행한다. 학습 네트워크 처리부(230)는 적어도 두 개의 학습 네트워크 중 하나의 학습 네트워크는 주요 네트워크로 설정하고, 주요 네트워크를 제외한 나머지 모든 학습 네트워크를 비주요 네트워크로 설정할 수 있다. 여기서, 주요 네트워크는 제1 학습 네트워크(232), 제2 학습 네트워크(234), 제3 학습 네트워크(236), 제4 학습 네트워크(238) 및 제n(n은 2 이상의 자연수) 학습 네트워크(239) 중 하나의 학습 네트워크일 수 있다.
학습 네트워크 처리부(230)에서 주요 네트워크는 측정 데이터의 기본 위치정보를 기반으로 추출된 특징 데이터를 이용하여 훈련된 학습 네트워크를 포함한다. 여기서, 기본 위치정보는 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 위치정보인 것이 바람직하다.
예를 들어, 주요 네트워크는 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 특징으로 사용하는 특징 데이터로 학습된 학습 네트워크를 포함할 수 있다.
학습 네트워크 처리부(230)에서 비주요 네트워크는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 추출된 적어도 하나의 특징 데이터 각각을 이용하여 훈련된 적어도 하나의 학습 네트워크를 포함할 수 있다.
예를 들어, 비주요 네트워크는 시간에 따른 위치 변화량을 특징으로 적용하는 학습 네트워크, EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기를 특징으로 적용하는 학습 네트워크, EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기를 특징으로 적용하는 학습 네트워크 등을 포함할 수 있다.
예를 들어, 학습 네트워크 처리부(230)에 포함된 적어도 두 개의 학습 네트워크(232, 234, 236, 238, 239) 각각은, 서로 동일한 LSTM(Long Short-Term Memory) 신경망 구조가 적용될 수 있다. 즉, 학습 네트워크 처리부(230)는 서로 다른 적어도 두 개의 특징 데이터를 입력으로 사용하여 훈련되는 LSTM 신경망 기반의 학습 네트워크들을 포함할 수 있다.
예를 들어, 학습 네트워크의 인공 신경망(ANN: artificial neural network)는 회귀 계층 및 분류 계층으로 2 개의 LSTM 신경망 계층으로 구성된다. 회귀 계층은 입력 시퀀스를 수신하고, 분류 계층은 분류 결과 레이블을 출력한다. 첫 번째 레이어 및 두 번째 레이어에 대한 히든 셀의 수는 각각 N1 및 N2로 정의될 수 있다. 여기서, ANN(artificial neural network)의 과적합(overfitting)을 방지하기 위해 두 LSTM 레이어 사이에 드롭아웃 레이어(dropout layer)를 삽입하고 드롭아웃 계수(dropout factor)를 0.1로 가정할 수 있다.
분류 처리부(240)는 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적 및 클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행한다.
분류 처리부(240)는 주요 네트워크에서 출력된 제1 분류 결과와 비주요 네트워크 각각에서 출력된 제2 분류 결과들을 비교하여 표적-클러터를 분류 처리할 수 있다.
분류 처리부(240)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 모든 제2 분류 결과들이 일치하는 경우, 제1 분류 결과의 분류 결과값으로 분류 처리 결과를 산출한다.
한편, 분류 처리부(240)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 제2 분류 결과들 중 하나의 제2 분류 결과라도 불일치하는 경우, 제1 분류 결과의 분류 결과값의 반대값으로 상기 분류 처리 결과를 산출한다.
도 4는 본 발명의 실시예에 따른 서로 다른 특징 기반의 표적 식별 방법을 설명하기 위한 순서도이다.
표적 식별 장치(200)는 탐지 레이다로부터 측정 데이터를 획득한다(S110). 여기서, 측정 데이터(Raw Data)는 대포병 탐지 레이다를 이용하여 획득한 데이터인 것이 바람직하나 반드시 이에 한정되는 것은 아니다.
표적 식별 장치(200)는 기 설정된 추출 기준 특징을 기반으로 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출한다(S130).
표적 식별 장치(200)는 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터 각각을 추출할 수 있다.
표적 식별 장치(200)는 측정 데이터의 기본 위치정보를 기반으로 제1 특징 데이터를 추출한다. 여기서, 제1 특징 데이터는 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.
표적 식별 장치(200)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제2 특징 데이터를 추출한다. 여기서, 제2 특징 데이터는 시간에 따른 위치 변화량을 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.
표적 식별 장치(200)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제3 특징 데이터를 추출한다. 여기서, 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다. 한편, 표적 식별 장치(200)는 제3 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제3 특징 데이터를 추출할 수도 있다.
표적 식별 장치(200)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제4 특징 데이터를 추출할 수 있다. 여기서, 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다. 한편, 표적 식별 장치(200)는 제4 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제4 특징 데이터를 추출할 수도 있다.
표적 식별 장치(200)는 적어도 두 개의 학습 네트워크를 포함하며, 적어도 두 개의 특징 데이터 각각을 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리한다(S150).
표적 식별 장치(200)는 적어도 두 개의 학습 네트워크 각각에 서로 다른 상기 적어도 두 개의 특징 데이터 각각을 입력시켜 훈련(Training)을 수행한다. 표적 식별 장치(200)는 적어도 두 개의 학습 네트워크 중 하나의 학습 네트워크는 주요 네트워크로 설정하고, 주요 네트워크를 제외한 나머지 모든 학습 네트워크를 비주요 네트워크로 설정할 수 있다.
표적 식별 장치(200)는 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적 및 클러터를 분류 처리하고, 분류 처리 결과를 생성한다(S170). 표적 식별 장치(200)는 주요 네트워크에서 출력된 제1 분류 결과와 비주요 네트워크 각각에서 출력된 제2 분류 결과들을 비교하여 표적 및 클러터를 분류 처리할 수 있다.
표적 식별 장치(200)는 표적 및 클러터의 분류 처리 결과에 대한 표적 식별의 수행 결과를 출력한다(S190).
도 4에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.
도 4에 기재된 본 실시예에 따른 표적 식별 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 표적 식별 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.
도 5는 본 발명의 실시예에 따른 측정 데이터의 기본 위치정보를 나타낸 그래프이다.
도 5의 그래프에서 검은색 마크(ㆍ)는 표적(탄도)의 위치를 ENU 좌표(x, y, z)로 나타낸 것이며, 검은색 실선은 표적의 궤적을 나타낸 것이다.
또한, 붉은색 마크(ㆍ)와 실선은 표적의 위치가 EN(x, y) 평면상에 투영된 위치 및 궤적을 나타내며, 고도정보(U)가 제외된 표적 궤도의 방향(EN)정보를 포함한다.
이후, 도 6 내지 도 9에 도시된 제1 특징 데이터 내지 제4 특징 데이터(Case 1 ~ Case 4)의 경우는 모두 도 5를 기준으로 하여 각각의 특징이 추출된 데이터이다.
도 6은 본 발명의 실시예에 따른 제1 특징 데이터를 나타낸 그래프이다.
도 6은 제1 특징 데이터(Case 1)에 대한 예시를 나타낸다. 제1 특징 데이터는 최초 탐지 위치부터 시간에 따른 탐지위치를 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 최초 탐지위치(r(t1)) 에서 시간에 따른 위치(r(tn))에 대한 벡터이며, [수학식 1]로 나타낼 수 있다.
Figure pat00001
도 7은 본 발명의 실시예에 따른 제2 특징 데이터를 나타낸 그래프이다.
도 7은 제2 특징 데이터(Case 2)에 대한 예시를 나타낸다. 제2 특징 데이터는 시간에 따른 위치 변화량을 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 최초 탐지위치(r(t0))에서 시간에 따른 위치 변화량(△r(tn))에 대한 벡터이며, [수학식 2]로 나타낼 수 있다.
Figure pat00002
도 8은 본 발명의 실시예에 따른 제3 특징 데이터를 나타낸 그래프이다.
도 8의 (a)는 제3 특징 데이터(Case 3)에 대한 예시를 나타낸다. 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치(r(tn))와 수직인 직선의 기울기(-x(tn) / y(tn))를 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 EN(x, y) 평면상에 위치벡터(r(tn))의 법선벡터(Normal vector)이며 2차원(2-dimensional) 벡터이다.
도 8의 (b)는 제3 특징 데이터(Case 3)의 기울기(slope)에 대한 값의 예시를 나타낸다. 도 8의 (a)에서 나타낸 벡터는 2차원(2-dimensional)이므로, 기계 학습(machine learning) 시 계산량을 줄이기 위해 1차원(1-dimensional)의 기울기(slope)를 제3 특징 데이터의 특징으로 추출하였으며, [수학식 3]으로 나타낼 수 있다.
Figure pat00003
도 9는 본 발명의 실시예에 따른 제4 특징 데이터를 나타낸 그래프이다.
도 9의 (a)는 제4 특징 데이터(Case 4)에 대한 예시를 나타낸다. 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량(△r(tn))과 수직인 직선의 기울기(-△x(tn) / △y(tn))를 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 EN(x, y) 평면 상에 위치에서 위치 변화량 벡터(△r(tn))의 법선벡터(Normal vector)이며 2차원(2-dimensional) 벡터이다.
도 9의 (b)는 제4 특징 데이터(Case 4)의 기울기(slope)에 대한 값의 예시를 나타낸다. 도 9의 (a)에서 나타낸 벡터는 2차원(2-dimensional)이므로, 기계 학습 시 계산량을 줄이기 위해 1차원(1-dimensional)의 기울기(slope)를 제4 특징 데이터의 특징으로 추출하였으며, [수학식 4]으로 나타낼 수 있다.
Figure pat00004
도 10은 본 발명의 실시예에 따른 표적 식별 장치의 분류 처리 동작을 설명하기 위한 도면이다.
표적 식별 장치(200)는 주요 네트워크에서 출력된 제1 분류 결과와 비주요 네트워크 각각에서 출력된 제2 분류 결과들을 비교하여 표적-클러터를 분류 처리할 수 있다.
표적 식별 장치(200)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 모든 제2 분류 결과들이 일치하는 경우, 제1 분류 결과의 분류 결과값으로 분류 처리 결과를 산출한다.
한편, 표적 식별 장치(200)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 제2 분류 결과들 중 하나의 제2 분류 결과라도 불일치하는 경우, 제1 분류 결과의 분류 결과값의 반대값으로 상기 분류 처리 결과를 산출한다.
표적 식별 장치(200)의 분류 알고리듬에는 다양한 방법이 사용될 수 있으며, 도 10은 표적/클러터 분류를 위해 표적/클러터를 잘못 판단하는 오분류를 줄이는 알고리듬의 예시이다.
표적을 클러터로 오분류를 줄이는 알고리듬의 경우에는 '주요 네트워크'에서 클러터로 오분류하였더라도 다른 모든 비주요 네트워크의 출력을 비교하여 실제 표적을 클러터로 오분류하는 경우를 줄일 수 있다.
도 11은 본 발명의 실시예에 따른 표적 식별 동작에 대한 오분류 확률을 설명하기 위한 도면이다.
도 11에서는 실시간 데이터 처리로 표적을 식별하는 경우 13 번째 데이터(n=13)에서의 오분류 확률 결과를 예시로 나타낸다.
본 실시예에 따른 표적 식별 장치(200)는 적어도 두 개의 학습 네트워크를 결합하여 표적 및 클러터를 분류하는 방식이 적용될 수 있다. 적어도 두 개의 학습 네트워크를 결합하여 분류하는 방식은 가벼운 다수의 네트워크를 사용하므로 계산에 컴퓨팅 자원이 많이 필요하지 않아 실시간으로 계산 가능하므로, 실시간으로 들어오는 13 번째 데이터에서의 결과를 확인할 수 있다.
클러터를 표적으로 오분류할 확률은 네트워크 1 ~ 4를 각각 단일 네트워크로 사용하였을 경우에는 각각 5.9 %, 5.4 %, 12.5 %, 15.6 %의 오분류 확률을 가진다. 하지만, 본 실시예에 따른 적어도 두 개의 학습 네트워크를 결합하여 분류하는 방식으로 네트워크 1과 2를 사용할 경우 0.8 %, 네트워크 2와 3을 사용할 경우 1.5 %, 네트워크 3과 4를 사용할 경우 3.7 %로 오분류 확률이 현저히 줄어드는 것을 확인할 수 있다.
도 12 및 도 13은 본 발명의 실시예에 따른 서로 다른 특징 데이터를 비교하기 위한 그래프이다.
도 12는 Case 1 및 Case 2의 y 좌표에 대해 확장 칼만 필터(EKF: Extended Kalman Filter)에 의해 수집된 위치의 확률 밀도 함수(pdf: probability density function)를 나타낸다.
도 12에서는 Case 1과 Case 2를 비교 평가해 볼 수 있는데, 표적인 GH(Gun Heavy), MH(Mortar Heavy)와 클러터의 특성이 서로 다르며, Case 1과 Case 2가 서로 독립적인 특성을 가지는 것을 확인할 수 있다. 또한, Case 1과 Case 2 모두 기계 학습에 적합한 가우시안(Gaussian) 분포인 것을 확인할 수 있다.
도 13는 Case 3 및 Case 4의 기울기(slope)에 대해 확장 칼만 필터(EKF)에 의해 수집된 위치의 확률 밀도 함수(pdf)를 나타낸다.
도 13에서는 Case 3과 Case 4를 비교 평가해 볼 수 있는데, 표적인 GH(Gun Heavy), MH(Mortar Heavy)와 클러터의 특성이 서로 다르며, Case 3과 Case 4가 서로 독립적인 특성을 가지는 것을 확인할 수 있다. 또한, Case 3과 Case 4 모두 기계 학습에 적합한 가우시안(Gaussian) 분포인 것을 확인할 수 있다.
이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.
200: 표적 식별 장치
210: 측정 데이터 획득부 220: 특징 추출 처리부
222: 제1 특징 추출부 224: 제2 특징 추출부
226: 제3 특징 추출부 228: 제4 특징 추출부
230: 학습 네트워크 처리부 240: 분류 처리부

Claims (13)

  1. 서로 다른 특징을 기반으로 표적을 식별하는 방법에 있어서,
    탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계;
    기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리 단계;
    적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리 단계; 및
    상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리 단계
    를 포함하는 것을 특징으로 하는 표적 식별 방법.
  2. 제1항에 있어서,
    상기 특징 추출 처리 단계는,
    상기 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 상기 적어도 두 개의 특징 데이터를 추출하는 것을 특징으로 하는 표적 식별 방법.
  3. 제2항에 있어서,
    상기 학습 네트워크 처리 단계는,
    상기 적어도 두 개의 학습 네트워크 각각에 서로 다른 상기 적어도 두 개의 특징 데이터 각각을 입력시켜 훈련(Training)을 수행하되,
    상기 적어도 두 개의 학습 네트워크 중 하나의 학습 네트워크는 주요 네트워크로 설정하고, 상기 주요 네트워크를 제외한 나머지 모든 학습 네트워크를 비주요 네트워크로 설정하는 것을 특징으로 하는 표적 식별 방법.
  4. 제3항에 있어서,
    상기 분류 처리 단계는,
    상기 주요 네트워크에서 출력된 제1 분류 결과와 상기 비주요 네트워크 각각에서 출력된 제2 분류 결과를 비교하여 표적-클러터를 분류 처리하는 것을 특징으로 하는 표적 식별 방법.
  5. 제4항에 있어서,
    상기 분류 처리 단계는,
    상기 주요 네트워크의 제1 분류 결과와 상기 비주요 네트워크 각각의 모든 제2 분류 결과가 일치하는 경우, 상기 제1 분류 결과의 분류 결과값으로 상기 분류 처리 결과를 산출하는 것을 특징으로 하는 표적 식별 방법.
  6. 제4항에 있어서,
    상기 분류 처리 단계는,
    상기 주요 네트워크의 제1 분류 결과와 상기 비주요 네트워크 각각의 제2 분류 결과들 중 하나의 제2 분류 결과라도 불일치하는 경우, 상기 제1 분류 결과의 분류 결과값의 반대값으로 상기 분류 처리 결과를 산출하는 것을 특징으로 하는 표적 식별 방법.
  7. 제3항에 있어서,
    상기 주요 네트워크는,
    상기 측정 데이터의 기본 위치정보를 기반으로 추출된 특징 데이터를 이용하여 훈련된 학습 네트워크를 포함하되,
    상기 기본 위치정보는 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 위치정보를 특징으로 하는 표적 식별 방법.
  8. 제7항에 있어서,
    상기 비주요 네트워크는,
    상기 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 추출된 적어도 하나의 특징 데이터 각각을 이용하여 훈련된 적어도 하나의 학습 네트워크를 포함하는 것을 특징으로 하는 표적 식별 방법.
  9. 제1항에 있어서,
    상기 적어도 두 개의 학습 네트워크 각각은,
    서로 동일한 LSTM(Long Short-Term Memory) 신경망이 적용되되,
    서로 다른 상기 적어도 두 개의 특징 데이터를 입력으로 사용하여 훈련된 학습 네트워크인 것을 특징으로 하는 표적 식별 방법.
  10. 서로 다른 특징을 기반으로 표적을 식별하는 장치에 있어서,
    탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득부;
    기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리부;
    적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리부; 및
    상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리부
    를 포함하는 것을 특징으로 하는 표적 식별 장치.
  11. 제10항에 있어서,
    상기 특징 추출 처리부는,
    상기 측정 데이터의 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 상기 적어도 두 개의 특징 데이터를 추출하는 것을 특징으로 하는 표적 식별 장치.
  12. 제11항에 있어서,
    상기 학습 네트워크 처리부는,
    상기 적어도 두 개의 학습 네트워크 각각에 서로 다른 상기 적어도 두 개의 특징 데이터 각각을 입력시켜 훈련(Training)을 수행하되,
    상기 적어도 두 개의 학습 네트워크 중 하나의 학습 네트워크는 주요 네트워크로 설정하고, 상기 주요 네트워크를 제외한 나머지 모든 학습 네트워크를 비주요 네트워크로 설정하는 것을 특징으로 하는 표적 식별 장치.
  13. 제12항에 있어서,
    상기 분류 처리부는,
    상기 주요 네트워크에서 출력된 제1 분류 결과와 상기 비주요 네트워크 각각에서 출력된 제2 분류 결과를 비교하여 표적-클러터를 분류 처리하는 것을 특징으로 하는 표적 식별 장치.
KR1020210153949A 2021-11-10 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치 KR102697940B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210153949A KR102697940B1 (ko) 2021-11-10 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210153949A KR102697940B1 (ko) 2021-11-10 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치

Publications (2)

Publication Number Publication Date
KR20230068050A true KR20230068050A (ko) 2023-05-17
KR102697940B1 KR102697940B1 (ko) 2024-08-22

Family

ID=

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102641022B1 (ko) * 2023-08-11 2024-02-28 대한민국 인공지능 기반 대포병탐지레이더 표적분류 방법 및 시스템

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102641022B1 (ko) * 2023-08-11 2024-02-28 대한민국 인공지능 기반 대포병탐지레이더 표적분류 방법 및 시스템

Similar Documents

Publication Publication Date Title
Pei et al. SAR automatic target recognition based on multiview deep learning framework
Miller et al. Dropout sampling for robust object detection in open-set conditions
CN112308881B (zh) 一种基于遥感图像的舰船多目标跟踪方法
Mahdavi et al. Drone detection using convolutional neural networks
JP6032921B2 (ja) 物体検出装置及びその方法、プログラム
CN106443598A (zh) 基于卷积神经网络的雷达网协同航迹欺骗干扰鉴别方法
CN112213697B (zh) 一种基于贝叶斯决策理论用于雷达欺骗干扰识别的特征融合方法
US20220172378A1 (en) Image processing apparatus, image processing method and non-transitory computer readable medium
CN111126504A (zh) 多源不完备信息融合图像目标分类方法
Cao et al. Correlation-based tracking of multiple targets with hierarchical layered structure
CN111340061A (zh) 基于svm模型参数优化的多模态数据融合和分类方法
CN113850838A (zh) 船舶航行意图获取方法、装置、计算机设备及存储介质
CN111723724A (zh) 一种路面障碍物识别方法和相关装置
CN116109950A (zh) 一种低空域反无人机视觉检测、识别与跟踪方法
Dura et al. Superellipse fitting for the recovery and classification of mine-like shapes in sidescan sonar images
Safaei et al. Open-set automatic target recognition
KR102678770B1 (ko) 표적 식별을 위한 특징 추출 방법 및 그를 위한 장치
KR20230068050A (ko) 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치
KR102697940B1 (ko) 서로 다른 특징 기반의 표적 식별 방법 및 그를 위한 장치
Tang et al. SAR deception jamming target recognition based on the shadow feature
Ohno et al. Efficient SOM-based ATR method for SAR imagery with azimuth angular variations
CN110163029B (zh) 一种图像识别方法、电子设备以及计算机可读存储介质
Altundogan et al. Multiple object tracking with dynamic fuzzy cognitive maps using deep learning
CN113705489A (zh) 基于先验区域知识指导的遥感影像细粒度飞机识别方法
Geethalakshmi et al. A study on detection and classification of underwater mines using neural networks

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right