KR20230068051A - Method and Apparatus for Features Extraction for Target Identification - Google Patents
Method and Apparatus for Features Extraction for Target Identification Download PDFInfo
- Publication number
- KR20230068051A KR20230068051A KR1020210153950A KR20210153950A KR20230068051A KR 20230068051 A KR20230068051 A KR 20230068051A KR 1020210153950 A KR1020210153950 A KR 1020210153950A KR 20210153950 A KR20210153950 A KR 20210153950A KR 20230068051 A KR20230068051 A KR 20230068051A
- Authority
- KR
- South Korea
- Prior art keywords
- feature
- data
- extraction
- target identification
- feature data
- Prior art date
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 81
- 238000000034 method Methods 0.000 title claims description 22
- 238000005259 measurement Methods 0.000 claims abstract description 60
- 238000012545 processing Methods 0.000 claims abstract description 54
- 238000001514 detection method Methods 0.000 claims abstract description 21
- 239000000284 extract Substances 0.000 claims abstract description 9
- 239000013598 vector Substances 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 11
- 238000010801 machine learning Methods 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 239000004570 mortar (masonry) Substances 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 238000007635 classification algorithm Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/414—Discriminating targets with respect to background clutter
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Description
본 발명은 표적 식별을 위한 서로 다른 특징 데이터의 추출 방법 및 그를 위한 장치에 관한 것이다. The present invention relates to a method for extracting different feature data for target identification and an apparatus therefor.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section simply provide background information on the embodiments of the present invention and do not constitute prior art.
일반적으로 레이다가 표적을 탐지 및 추적 시 획득한 측정 데이터는 서로 불균일한 데이터이다. 다시 말해, 레이다의 탐지 시작 시간이 서로 다르고, 탐지 및 추적한 데이터 양이 서로 다르며, 각각의 데이터는 온전한 표적의 궤적 중 일부분이기 때문에 획득한 측정 데이터는 불균일하게 된다. In general, measurement data obtained when a radar detects and tracks a target is non-uniform data. In other words, since the detection start time of the radar is different, the amount of detected and tracked data is different, and each data is a part of the complete target trajectory, the acquired measurement data is non-uniform.
일반적으로 측정 데이터 전체를 이용하여 학습하는 네트워크를 통해 표적 및 클러터를 분류하는 표적 식별 장치는 도 1과 같다. 도 1에 도시된 바와 같이, 획득된 측정 데이터를 획득하고(S110), 획득된 측정 데이터에서 입력 특징(feature)을 선택하여 학습을 시키고(S120) 학습된 네트워크들의 결과를 받아 분류를 수행(S130)하는 네트워크 등은 많이 사용되고 있다.In general, a target identification device that classifies targets and clutter through a network that learns using all measurement data is shown in FIG. 1 . As shown in FIG. 1, the acquired measurement data is obtained (S110), input features are selected from the obtained measurement data and learned (S120), and classification is performed by receiving the results of the learned networks (S130) ) networks are widely used.
표적 식별 장치에서 학습 네트워크를 사용하는 경우에는 학습을 위한 데이터 양이 서로 비슷하고 충분한 양이 확보되어야 분류의 정확도가 보장되고, 정확도를 높이기 위해서는 많은 양의 데이터를 사용해야 하며, 딥러닝(Deep Learning) 네트워크가 필요하다. 또한, 표적 식별 장치에서 학습 네트워크를 사용하는 경우에는 분류 정확도를 보장하기 위한 학습된 네트워크의 복잡도가 높아지기 때문에 실시간으로 표적을 식별하는 데 적용하기에는 어려움이 있다. In the case of using a learning network in a target identification device, the accuracy of classification is guaranteed when the amount of data for learning is similar to each other and a sufficient amount is secured, and a large amount of data must be used to increase accuracy. You need a network. In addition, in the case of using a learning network in a target identification device, it is difficult to apply it to identifying a target in real time because the complexity of the learned network for ensuring classification accuracy increases.
한편, 표적 식별 장치에서 표적으로서 탄도와 클러터를 구분할 때 가장 중요한 특징은 탄도 궤도에 대한 위치정보이다. 레이다에서 탐지된 위치에 대한 기본 탐지정보는 거리와 방향(R, Φ, θ, 거리, 방위각, 고각 순서)이며, 기계 학습을 이용하여 표적과 클러터를 구분하기 위해 기존의 탐지정보만을 이용하여 위치에 대한 특징을 추출하는 것에는 한계가 있다. On the other hand, the most important feature when distinguishing a ballistic and a clutter as a target in a target identification device is position information on a ballistic trajectory. The basic detection information for the position detected by the radar is the distance and direction (R, Φ, θ, distance, azimuth, elevation order), and to distinguish the target and clutter using machine learning, only the existing detection information is used. There is a limit to extracting features for locations.
본 발명은 표적을 식별하기 위하여 탐지 레이다에서 측정된 측정 데이터에서 서로 다른 특징 데이터를 추출하는 표적 식별을 위한 특징 추출 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.A main object of the present invention is to provide a feature extraction method for target identification and an apparatus for extracting different feature data from measurement data measured by a detection radar to identify a target.
본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 표적 식별을 위한 특징 추출 방법은, 탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계; 및 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하여 표적 식별이 처리되도록 하는 특징 추출 처리 단계를 포함할 수 있다.According to one aspect of the present invention, a feature extraction method for target identification to achieve the above object includes a measurement data acquisition step of acquiring measurement data from a detection radar; and a feature extraction processing step of performing target identification by extracting at least two feature data from the measurement data based on a preset extraction criterion feature.
또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 특징 추출 장치는, 탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득부; 및 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하여 표적 식별이 처리되도록 하는 특징 추출 처리부를 포함할 수 있다. In addition, according to another aspect of the present invention, a feature extraction device for achieving the above object includes a measurement data acquisition unit for obtaining measurement data from a detection radar; and a feature extraction processing unit extracting at least two feature data from the measurement data based on a preset extraction criterion feature to process target identification.
또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 서로 다른 특징의 추출 기반의 표적 식별 방법은, 탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계; 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리 단계; 적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리 단계; 및 상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리 단계를 포함할 수 있다.In addition, according to another aspect of the present invention, a target identification method based on extraction of different characteristics to achieve the above object includes a measurement data acquisition step of acquiring measurement data from a detection radar; A feature extraction processing step of extracting at least two feature data (Feature Data) from the measurement data based on a preset extraction criterion feature; a learning network processing step including at least two learning networks and learning and processing each of the at least two feature data through each of the at least two learning networks; and a classification processing step of combining the classification results of the at least two learning networks to classify the target-clutter, and performing target identification based on the classification processing result.
이상에서 설명한 바와 같이, 본 발명은 서로 다른 특징 데이터를 추출하여 복수 개의 학습 네트워크에 적용하고, 네트워크 출력 결과를 교차 검증하는 방법을 적용함으로써, 기존 방법에 비해 훈련 데이터 수 또는 불 균형된 데이터에 영향을 덜 받고 높은 분류 특성을 추출할 수 있으며, 측정과 동시에 실시간으로 표적 분류를 수행할 수 있는 효과가 있다. As described above, the present invention extracts different feature data, applies them to a plurality of learning networks, and applies a method of cross-validating the network output results, thereby affecting the number of training data or unbalanced data compared to existing methods. It is possible to extract high classification features with less , and to perform target classification in real time at the same time as measurement.
도 1은 종래의 표적 식별 동작을 설명하기 위한 도면이다.
도 2 및 도 3은 본 발명의 실시예에 따른 표적 식별 장치를 개략적으로 나타낸 블록 구성도이다.
도 4는 본 발명의 실시예에 따른 서로 다른 특징 기반의 표적 식별 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 실시예에 따른 측정 데이터의 기본 위치정보를 나타낸 그래프이다.
도 6은 본 발명의 실시예에 따른 제1 특징 데이터를 나타낸 그래프이다.
도 7은 본 발명의 실시예에 따른 제2 특징 데이터를 나타낸 그래프이다.
도 8은 본 발명의 실시예에 따른 제3 특징 데이터를 나타낸 그래프이다.
도 9는 본 발명의 실시예에 따른 제4 특징 데이터를 나타낸 그래프이다.
도 10은 본 발명의 실시예에 따른 표적 식별 장치의 분류 처리 동작을 설명하기 위한 도면이다.
도 11은 본 발명의 실시예에 따른 표적 식별 동작에 대한 오분류 확률을 설명하기 위한 도면이다.
도 12 및 도 13은 본 발명의 실시예에 따른 서로 다른 특징 데이터를 비교하기 위한 그래프이다. 1 is a diagram for explaining a conventional target identification operation.
2 and 3 are block diagrams schematically illustrating a target identification device according to an embodiment of the present invention.
4 is a flowchart illustrating a target identification method based on different characteristics according to an embodiment of the present invention.
5 is a graph showing basic location information of measurement data according to an embodiment of the present invention.
6 is a graph showing first characteristic data according to an embodiment of the present invention.
7 is a graph showing second characteristic data according to an embodiment of the present invention.
8 is a graph showing third characteristic data according to an embodiment of the present invention.
9 is a graph showing fourth characteristic data according to an embodiment of the present invention.
10 is a diagram for explaining a classification processing operation of a target identification device according to an embodiment of the present invention.
11 is a diagram for explaining a misclassification probability for a target identification operation according to an embodiment of the present invention.
12 and 13 are graphs for comparing different characteristic data according to an embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 표적 식별을 위한 특징 추출 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted. In addition, although preferred embodiments of the present invention will be described below, the technical idea of the present invention is not limited or limited thereto and can be modified and implemented in various ways by those skilled in the art. Hereinafter, a feature extraction method for target identification proposed in the present invention and an apparatus therefor will be described in detail with reference to the drawings.
도 2 및 도 3은 본 발명의 실시예에 따른 표적 식별 장치를 개략적으로 나타낸 블록 구성도이다. 2 and 3 are block diagrams schematically illustrating a target identification device according to an embodiment of the present invention.
본 실시예에 따른 표적 식별 장치(200)는 측정 데이터 획득부(210), 특징 추출 처리부(220), 학습 네트워크 처리부(230) 및 분류 처리부(240)를 포함한다. 도 2 및 도 3의 표적 식별 장치(200)는 일 실시예에 따른 것으로서, 도 2에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 표적 식별 장치(200)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다. The
표적 식별 장치(200)는 표적을 탐지하기 위한 탐지 레이다와 연동하며, 탐지 레이다로부터 획득된 측정 데이터에서 추출된 서로 다른 특징으로 학습 네트워크를 훈련하고, 훈련된 학습 네트워크를 결합하여 실시간으로 표적 및 클러터를 분류하여 표적을 식별하는 동작을 수행한다. The
표적 식별 장치(200)는 서로 다른 특징 데이터를 입력으로 사용한 학습 네트워크들을 훈련시킨 후 각각의 결과를 바탕으로 분류 알고리듬을 사용하여 표적 및 클러터에 대한 분류를 수행할 수 있다. The
다시 말해, 표적 식별 장치(200)는 표적-클러터 분류방식으로 측정 데이터를 서로 독립적인 특징 데이터로 변환하고, 특징 데이터 각각에 대한 서로 다른 학습 네트워크를 훈련시킨 후 그 결과를 분류 알고리듬을 이용하여 표적 및 클러터를 분류함으로써 표적을 식별할 수 있다. In other words, the
측정 데이터 획득부(210)는 표적을 탐지하기 위한 탐지 레이다로부터 측정 데이터를 획득한다. 여기서, 측정 데이터(Raw Data)는 대포병 탐지 레이다를 이용하여 획득한 데이터인 것이 바람직하나 반드시 이에 한정되는 것은 아니다. The measurement
대포병 탐지 레이다는 화포(야포, 박격포, 로켓)의 궤도를 탐지 및 추적하게 되는데 획득한 데이터가 화포의 특징을 가질 경우에만 표적으로 인식하게 되고 그렇지 않은 특징을 가지는 데이터들을 클러터로 인식한다. 예를 들어, 비행기, 헬기 등의 비행체도 클러터로 인식하게 된다. Artillery detecting radar detects and tracks the trajectory of artillery (field artillery, mortar, rocket). It recognizes the acquired data as a target only when it has characteristics of artillery, and recognizes data with other characteristics as clutter. For example, flying objects such as airplanes and helicopters are also recognized as clutter.
측정 데이터 획득부(210)에서 획득된 측정 데이터는 실제 야포, 박격포, 로켓 등의 사격 시험을 통해 레이다에서 탐지 및 추적하여 획득한 표적 및 클러터에 대한 데이터이다. 측정 데이터는 시간과 위치 등에 대한 기본 위치정보에 대한 데이터를 포함하며, (x,y,z) 직교 좌표계를 이용한다. The measurement data obtained by the measurement
특징 추출 처리부(220)는 기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출한다. The feature extraction processing unit 220 extracts at least two pieces of feature data from the measurement data based on preset extraction reference features.
특징 추출 처리부(220)는 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준 특성을 기반으로 독립적인 특징에 대한 적어도 두 개의 특징 데이터를 추출한다. The feature extraction processing unit 220 extracts at least two feature data for independent features based on a preset extraction reference feature while preserving the unique feature (directionality) of the location using the basic location information of the measurement data.
도 3을 참고하면, 특징 추출 처리부(220)는 제1 특징 추출부(222), 제2 특징 추출부(224), 제3 특징 추출부(226), 제4 특징 추출부(228) 및 제n(n은 2 이상의 자연수) 특징 추출부(229) 등을 포함할 수 있다.Referring to FIG. 3 , the feature extraction processor 220 includes a
본 실시예에 따른 제1 특징 추출부(222), 제2 특징 추출부(224), 제3 특징 추출부(226), 제4 특징 추출부(228) 각각은 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터 각각을 추출할 수 있다. 여기서, 측정 데이터의 기본 위치정보는 직교 좌표계가 변환된 ENU 좌표(x, y, z), 표적의 궤적, 표적 궤도의 방향(EN)정보 등일 수 있다. Each of the
제1 특징 추출부(222)는 측정 데이터의 기본 위치정보를 기반으로 제1 특징 데이터를 추출한다. 여기서, 제1 특징 데이터는 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.The
제2 특징 추출부(224)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제2 특징 데이터를 추출한다. 여기서, 제2 특징 데이터는 시간에 따른 위치 변화량을 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.The second feature extractor 224 preserves the unique feature (directionality) of the basic location information and converts it into an independent feature to extract second feature data. Here, the second feature data may be data extracted by applying a location change over time as an extraction reference feature.
제3 특징 추출부(226)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제3 특징 데이터를 추출한다. 여기서, 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다. The third feature extractor 226 preserves the unique feature (directionality) of the basic location information and converts it into an independent feature to extract third feature data. Here, the third feature data may be data extracted by applying a 2-dimensional normal vector for a slope of a straight line perpendicular to a position over time on the EN(x, y) plane as an extraction reference feature.
한편, 제3 특징 추출부(226)는 제3 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제3 특징 데이터를 추출할 수도 있다.On the other hand, the third feature extractor 226 considers the machine learning throughput based on the third feature data, and converts the two-dimensional normal vector on the EN (x, y) plane into a value for the one-dimensional gradient. Third feature data may be extracted with
제4 특징 추출부(228)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제4 특징 데이터를 추출할 수 있다. 여기서, 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.The
한편, 제4 특징 추출부(228)는 제4 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제4 특징 데이터를 추출할 수도 있다. On the other hand, the
한편, 특징 추출 처리부(220)는 표적 식별 장치(200) 내에 포함된 구성요소인 것으로 기재하고 있으나 반드시 이에 한정되는 것은 아니다. 예를 들어, 특징 추출 처리부(220)는 측정 데이터 획득부(210)를 함께 포함하는 형태의 특징 추출 장치와 같이 표적 식별 장치(200)와 별도의 장치로 구현될 수도 있다. Meanwhile, the feature extraction processing unit 220 is described as being a component included in the
학습 네트워크 처리부(230)는 적어도 두 개의 학습 네트워크를 포함하며, 적어도 두 개의 특징 데이터 각각을 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 동작을 수행한다. The learning network processing unit 230 includes at least two learning networks, and performs an operation of learning and processing each of the at least two feature data through each of the at least two learning networks.
학습 네트워크 처리부(230)는 적어도 두 개의 학습 네트워크 각각에 서로 다른 상기 적어도 두 개의 특징 데이터 각각을 입력시켜 훈련(Training)을 수행한다. 학습 네트워크 처리부(230)는 적어도 두 개의 학습 네트워크 중 하나의 학습 네트워크는 주요 네트워크로 설정하고, 주요 네트워크를 제외한 나머지 모든 학습 네트워크를 비주요 네트워크로 설정할 수 있다. 여기서, 주요 네트워크는 제1 학습 네트워크(232), 제2 학습 네트워크(234), 제3 학습 네트워크(236), 제4 학습 네트워크(238) 및 제n(n은 2 이상의 자연수) 학습 네트워크(239) 중 하나의 학습 네트워크일 수 있다. The learning network processing unit 230 performs training by inputting each of the at least two different feature data to each of the at least two learning networks. The learning network processing unit 230 may set one of the at least two learning networks as a main network, and set all other learning networks except for the main network as non-main networks. Here, the main networks are a first learning network 232, a second learning network 234, a third learning network 236, a fourth learning network 238, and an nth (n is a natural number greater than or equal to 2) learning network 239 ) may be one of the learning networks.
학습 네트워크 처리부(230)에서 주요 네트워크는 측정 데이터의 기본 위치정보를 기반으로 추출된 특징 데이터를 이용하여 훈련된 학습 네트워크를 포함한다. 여기서, 기본 위치정보는 거리와 방향(R, Φ, θ)인 것이 바람직하다. In the learning network processing unit 230, the main network includes a learning network trained using feature data extracted based on basic location information of the measurement data. Here, it is preferable that the basic location information is distance and direction (R, Φ, θ).
예를 들어, 주요 네트워크는 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 특징으로 사용하는 특징 데이터로 학습된 학습 네트워크를 포함할 수 있다. For example, the main network is a learning network trained with feature data that uses location information over time converted from distance and direction (R, Φ, θ) of measurement data to ENU (x, y, z) coordinates as a feature can include
학습 네트워크 처리부(230)에서 비주요 네트워크는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 추출된 적어도 하나의 특징 데이터 각각을 이용하여 훈련된 적어도 하나의 학습 네트워크를 포함할 수 있다. In the learning network processing unit 230, the minor network preserves the unique characteristics (directionality) of the basic location information, and includes at least one learning network trained using each of the at least one feature data extracted by converting it into an independent feature. can do.
예를 들어, 비주요 네트워크는 시간에 따른 위치 변화량을 특징으로 적용하는 학습 네트워크, EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기를 특징으로 적용하는 학습 네트워크, EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기를 특징으로 적용하는 학습 네트워크 등을 포함할 수 있다. For example, the non-main network is a learning network that applies the change in position over time as a feature, a learning network that applies as a feature the gradient of a straight line perpendicular to the position over time on the EN(x, y) plane, EN(x , y) a learning network that applies the change in position over time on the plane and the slope of a perpendicular straight line as features.
예를 들어, 학습 네트워크 처리부(230)에 포함된 적어도 두 개의 학습 네트워크(232, 234, 236, 238, 239) 각각은, 서로 동일한 LSTM(Long Short-Term Memory) 신경망 구조가 적용될 수 있다. 즉, 학습 네트워크 처리부(230)는 서로 다른 적어도 두 개의 특징 데이터를 입력으로 사용하여 훈련되는 LSTM 신경망 기반의 학습 네트워크들을 포함할 수 있다. For example, each of the at least two learning networks 232, 234, 236, 238, and 239 included in the learning network processor 230 may have the same long short-term memory (LSTM) neural network structure. That is, the learning network processing unit 230 may include learning networks based on LSTM neural networks that are trained using at least two different feature data as inputs.
예를 들어, 학습 네트워크의 인공 신경망(ANN: artificial neural network)는 회귀 계층 및 분류 계층으로 2 개의 LSTM 신경망 계층으로 구성된다. 회귀 계층은 입력 시퀀스를 수신하고, 분류 계층은 분류 결과 레이블을 출력한다. 첫 번째 레이어 및 두 번째 레이어에 대한 히든 셀의 수는 각각 N1 및 N2로 정의될 수 있다. 여기서, ANN(artificial neural network)의 과적합(overfitting)을 방지하기 위해 두 LSTM 레이어 사이에 드롭아웃 레이어(dropout layer)를 삽입하고 드롭아웃 계수(dropout factor)를 0.1로 가정할 수 있다. For example, the artificial neural network (ANN) of the learning network consists of two LSTM neural network layers as a regression layer and a classification layer. The regression layer receives the input sequence, and the classification layer outputs classification result labels. The number of hidden cells for the first layer and the second layer may be defined as N 1 and N 2 , respectively. Here, in order to prevent overfitting of an artificial neural network (ANN), a dropout layer may be inserted between the two LSTM layers and a dropout factor may be assumed to be 0.1.
분류 처리부(240)는 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적 및 클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행한다. The
분류 처리부(240)는 주요 네트워크에서 출력된 제1 분류 결과와 비주요 네트워크 각각에서 출력된 제2 분류 결과들을 비교하여 표적-클러터를 분류 처리할 수 있다. The
분류 처리부(240)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 모든 제2 분류 결과들이 일치하는 경우, 제1 분류 결과의 분류 결과값으로 분류 처리 결과를 산출한다. The
한편, 분류 처리부(240)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 제2 분류 결과들 중 하나의 제2 분류 결과라도 불일치하는 경우, 제1 분류 결과의 분류 결과값의 반대값으로 상기 분류 처리 결과를 산출한다. On the other hand, the
도 4는 본 발명의 실시예에 따른 서로 다른 특징 기반의 표적 식별 방법을 설명하기 위한 순서도이다. 4 is a flowchart illustrating a target identification method based on different characteristics according to an embodiment of the present invention.
표적 식별 장치(200)는 탐지 레이다로부터 측정 데이터를 획득한다(S110). 여기서, 측정 데이터(Raw Data)는 대포병 탐지 레이다를 이용하여 획득한 데이터인 것이 바람직하나 반드시 이에 한정되는 것은 아니다. The
표적 식별 장치(200)는 기 설정된 추출 기준 특징을 기반으로 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출한다(S130).The
표적 식별 장치(200)는 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터 각각을 추출할 수 있다.The
표적 식별 장치(200)는 측정 데이터의 기본 위치정보를 기반으로 제1 특징 데이터를 추출한다. 여기서, 제1 특징 데이터는 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.The
표적 식별 장치(200)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제2 특징 데이터를 추출한다. 여기서, 제2 특징 데이터는 시간에 따른 위치 변화량을 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다.The
표적 식별 장치(200)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제3 특징 데이터를 추출한다. 여기서, 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다. 한편, 표적 식별 장치(200)는 제3 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제3 특징 데이터를 추출할 수도 있다.The
표적 식별 장치(200)는 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 제4 특징 데이터를 추출할 수 있다. 여기서, 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용하여 추출된 데이터일 수 있다. 한편, 표적 식별 장치(200)는 제4 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 제4 특징 데이터를 추출할 수도 있다. The
표적 식별 장치(200)는 적어도 두 개의 학습 네트워크를 포함하며, 적어도 두 개의 특징 데이터 각각을 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리한다(S150).The
표적 식별 장치(200)는 적어도 두 개의 학습 네트워크 각각에 서로 다른 상기 적어도 두 개의 특징 데이터 각각을 입력시켜 훈련(Training)을 수행한다. 표적 식별 장치(200)는 적어도 두 개의 학습 네트워크 중 하나의 학습 네트워크는 주요 네트워크로 설정하고, 주요 네트워크를 제외한 나머지 모든 학습 네트워크를 비주요 네트워크로 설정할 수 있다.The
표적 식별 장치(200)는 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적 및 클러터를 분류 처리하고, 분류 처리 결과를 생성한다(S170). 표적 식별 장치(200)는 주요 네트워크에서 출력된 제1 분류 결과와 비주요 네트워크 각각에서 출력된 제2 분류 결과들을 비교하여 표적 및 클러터를 분류 처리할 수 있다. The
표적 식별 장치(200)는 표적 및 클러터의 분류 처리 결과에 대한 표적 식별의 수행 결과를 출력한다(S190).The
도 4에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 4는 시계열적인 순서로 한정되는 것은 아니다.In FIG. 4, each step is described as sequentially executed, but is not necessarily limited thereto. In other words, since it will be applicable to changing and executing the steps described in FIG. 4 or executing one or more steps in parallel, FIG. 4 is not limited to a time-series sequence.
도 4에 기재된 본 실시예에 따른 표적 식별 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 표적 식별 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.The target identification method according to the present embodiment described in FIG. 4 may be implemented as an application (or program) and recorded on a recording medium readable by a terminal device (or computer). A recording medium in which an application (or program) for implementing the target identification method according to the present embodiment is recorded and which is readable by a terminal device (or computer) is any type of recording device storing data that can be read by a computing system, or includes media
도 5는 본 발명의 실시예에 따른 측정 데이터의 기본 위치정보를 나타낸 그래프이다.5 is a graph showing basic location information of measurement data according to an embodiment of the present invention.
도 5의 그래프에서 검은색 마크(ㆍ)는 표적(탄도)의 위치를 ENU 좌표(x, y, z)로 나타낸 것이며, 검은색 실선은 표적의 궤적을 나타낸 것이다. In the graph of FIG. 5, a black mark (•) indicates the location of a target (trajectory) in terms of ENU coordinates (x, y, z), and a solid black line indicates the trajectory of the target.
또한, 붉은색 마크(ㆍ)와 실선은 표적의 위치가 EN(x, y) 평면상에 투영된 위치 및 궤적을 나타내며, 고도정보(U)가 제외된 표적 궤도의 방향(EN)정보를 포함한다. In addition, the red mark (ㆍ) and the solid line indicate the position and trajectory of the target position projected on the EN (x, y) plane, and include the direction (EN) information of the target trajectory excluding the altitude information (U). do.
이후, 도 6 내지 도 9에 도시된 제1 특징 데이터 내지 제4 특징 데이터(Case 1 ~ Case 4)의 경우는 모두 도 5를 기준으로 하여 각각의 특징이 추출된 데이터이다. Thereafter, in the case of the first to fourth feature data (
도 6은 본 발명의 실시예에 따른 제1 특징 데이터를 나타낸 그래프이다. 6 is a graph showing first feature data according to an embodiment of the present invention.
도 6은 제1 특징 데이터(Case 1)에 대한 예시를 나타낸다. 제1 특징 데이터는 최초 탐지 위치부터 시간에 따른 탐지위치를 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 최초 탐지위치(r(t1)) 에서 시간에 따른 위치(r(tn))에 대한 벡터이며, [수학식 1]로 나타낼 수 있다.6 shows an example of first feature data (Case 1). The first feature data is characterized by a detection position over time from an initial detection position. The blue mark (ㆍ) and the solid line are vectors from the initial detection position (r(t 1 )) to the position (r(t n )) over time, and can be expressed by [Equation 1].
도 7은 본 발명의 실시예에 따른 제2 특징 데이터를 나타낸 그래프이다.7 is a graph showing second characteristic data according to an embodiment of the present invention.
도 7은 제2 특징 데이터(Case 2)에 대한 예시를 나타낸다. 제2 특징 데이터는 시간에 따른 위치 변화량을 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 최초 탐지위치(r(t0))에서 시간에 따른 위치 변화량(△r(tn))에 대한 벡터이며, [수학식 2]로 나타낼 수 있다.7 shows an example of second feature data (Case 2). The second characteristic data is characterized by a change in position over time. The blue mark (ㆍ) and the solid line are vectors for the amount of position change over time (Δr(t n )) at the initial detection position (r(t 0 )), and can be expressed by [Equation 2].
도 8은 본 발명의 실시예에 따른 제3 특징 데이터를 나타낸 그래프이다.8 is a graph showing third characteristic data according to an embodiment of the present invention.
도 8의 (a)는 제3 특징 데이터(Case 3)에 대한 예시를 나타낸다. 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치(r(tn))와 수직인 직선의 기울기(-x(tn) / y(tn))를 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 EN(x, y) 평면상에 위치벡터(r(tn))의 법선벡터(Normal vector)이며 2차원(2-dimensional) 벡터이다.8(a) shows an example of the third feature data (Case 3). The third feature data is characterized by a position over time (r(t n )) on the EN(x, y) plane and a slope (−x(t n ) / y(t n )) of a straight line perpendicular to the EN(x, y) plane. The blue mark (ㆍ) and the solid line are normal vectors of the position vector (r(t n )) on the EN(x, y) plane and are 2-dimensional vectors.
도 8의 (b)는 제3 특징 데이터(Case 3)의 기울기(slope)에 대한 값의 예시를 나타낸다. 도 8의 (a)에서 나타낸 벡터는 2차원(2-dimensional)이므로, 기계 학습(machine learning) 시 계산량을 줄이기 위해 1차원(1-dimensional)의 기울기(slope)를 제3 특징 데이터의 특징으로 추출하였으며, [수학식 3]으로 나타낼 수 있다. (b) of FIG. 8 shows an example of a value for the slope of the third feature data (Case 3). Since the vector shown in (a) of FIG. 8 is 2-dimensional, in order to reduce the amount of computation during machine learning, the slope of 1-dimensional is used as a feature of the third feature data. extracted, and can be represented by [Equation 3].
도 9는 본 발명의 실시예에 따른 제4 특징 데이터를 나타낸 그래프이다.9 is a graph showing fourth characteristic data according to an embodiment of the present invention.
도 9의 (a)는 제4 특징 데이터(Case 4)에 대한 예시를 나타낸다. 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량(△r(tn))과 수직인 직선의 기울기(-△x(tn) / △y(tn))를 특징으로 한다. 파란색 마크(ㆍ) 및 실선은 EN(x, y) 평면 상에 위치에서 위치 변화량 벡터(△r(tn))의 법선벡터(Normal vector)이며 2차원(2-dimensional) 벡터이다.9(a) shows an example of the fourth feature data (Case 4). The fourth feature data is the position change over time on the EN (x, y) plane (Δr (t n )) and the slope of a straight line perpendicular to it (-Δx (t n ) / Δy (t n )) Characteristics to be The blue mark (•) and the solid line are the normal vector of the position variation vector (Δr(t n )) at the position on the EN(x, y) plane and are a 2-dimensional vector.
도 9의 (b)는 제4 특징 데이터(Case 4)의 기울기(slope)에 대한 값의 예시를 나타낸다. 도 9의 (a)에서 나타낸 벡터는 2차원(2-dimensional)이므로, 기계 학습 시 계산량을 줄이기 위해 1차원(1-dimensional)의 기울기(slope)를 제4 특징 데이터의 특징으로 추출하였으며, [수학식 4]으로 나타낼 수 있다. 9(b) shows an example of a value for the slope of the fourth feature data (Case 4). Since the vector shown in (a) of FIG. 9 is 2-dimensional, the 1-dimensional slope was extracted as a feature of the fourth feature data to reduce the amount of calculation during machine learning, [ It can be represented by Equation 4].
도 10은 본 발명의 실시예에 따른 표적 식별 장치의 분류 처리 동작을 설명하기 위한 도면이다.10 is a diagram for explaining a classification processing operation of a target identification device according to an embodiment of the present invention.
도 10은 본 발명의 실시예에 따른 표적 식별 장치의 분류 처리 동작을 설명하기 위한 도면이다.10 is a diagram for explaining a classification processing operation of a target identification device according to an embodiment of the present invention.
표적 식별 장치(200)는 주요 네트워크에서 출력된 제1 분류 결과와 비주요 네트워크 각각에서 출력된 제2 분류 결과들을 비교하여 표적-클러터를 분류 처리할 수 있다. The
표적 식별 장치(200)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 모든 제2 분류 결과들이 일치하는 경우, 제1 분류 결과의 분류 결과값으로 분류 처리 결과를 산출한다. The
한편, 표적 식별 장치(200)는 주요 네트워크의 제1 분류 결과와 비주요 네트워크 각각의 제2 분류 결과들 중 하나의 제2 분류 결과라도 불일치하는 경우, 제1 분류 결과의 분류 결과값의 반대값으로 상기 분류 처리 결과를 산출한다. On the other hand, the
표적 식별 장치(200)의 분류 알고리듬에는 다양한 방법이 사용될 수 있으며, 도 10은 표적/클러터 분류를 위해 표적/클러터를 잘못 판단하는 오분류를 줄이는 알고리듬의 예시이다. Various methods may be used for the classification algorithm of the
표적을 클러터로 오분류를 줄이는 알고리듬의 경우에는 '주요 네트워크'에서 클러터로 오분류하였더라도 다른 모든 비주요 네트워크의 출력을 비교하여 실제 표적을 클러터로 오분류하는 경우를 줄일 수 있다.In the case of an algorithm that reduces misclassification of a target as clutter, even if the 'main network' misclassifies it as clutter, it can reduce the case of misclassifying the actual target as clutter by comparing the outputs of all other non-dominant networks.
도 11은 본 발명의 실시예에 따른 표적 식별 동작에 대한 오분류 확률을 설명하기 위한 도면이다.11 is a diagram for explaining a misclassification probability for a target identification operation according to an embodiment of the present invention.
도 11에서는 실시간 데이터 처리로 표적을 식별하는 경우 13 번째 데이터(n=13)에서의 오분류 확률 결과를 예시로 나타낸다.11 shows an example of a misclassification probability result in the 13th data (n=13) when a target is identified by real-time data processing.
본 실시예에 따른 표적 식별 장치(200)는 적어도 두 개의 학습 네트워크를 결합하여 표적 및 클러터를 분류하는 방식이 적용될 수 있다. 적어도 두 개의 학습 네트워크를 결합하여 분류하는 방식은 가벼운 다수의 네트워크를 사용하므로 계산에 컴퓨팅 자원이 많이 필요하지 않아 실시간으로 계산 가능하므로, 실시간으로 들어오는 13 번째 데이터에서의 결과를 확인할 수 있다. In the
클러터를 표적으로 오분류할 확률은 네트워크 1 ~ 4를 각각 단일 네트워크로 사용하였을 경우에는 각각 5.9 %, 5.4 %, 12.5 %, 15.6 %의 오분류 확률을 가진다. 하지만, 본 실시예에 따른 적어도 두 개의 학습 네트워크를 결합하여 분류하는 방식으로 네트워크 1과 2를 사용할 경우 0.8 %, 네트워크 2와 3을 사용할 경우 1.5 %, 네트워크 3과 4를 사용할 경우 3.7 %로 오분류 확률이 현저히 줄어드는 것을 확인할 수 있다. The probability of misclassifying clutter as a target is 5.9%, 5.4%, 12.5%, and 15.6%, respectively, when
도 12 및 도 13은 본 발명의 실시예에 따른 서로 다른 특징 데이터를 비교하기 위한 그래프이다. 12 and 13 are graphs for comparing different characteristic data according to an embodiment of the present invention.
도 12는 Case 1 및 Case 2의 y 좌표에 대해 확장 칼만 필터(EKF: Extended Kalman Filter)에 의해 수집된 위치의 확률 밀도 함수(pdf: probability density function)를 나타낸다. FIG. 12 shows a probability density function (pdf) of locations collected by an Extended Kalman Filter (EKF) with respect to the y-coordinates of
도 12에서는 Case 1과 Case 2를 비교 평가해 볼 수 있는데, 표적인 GH(Gun Heavy), MH(Mortar Heavy)와 클러터의 특성이 서로 다르며, Case 1과 Case 2가 서로 독립적인 특성을 가지는 것을 확인할 수 있다. 또한, Case 1과 Case 2 모두 기계 학습에 적합한 가우시안(Gaussian) 분포인 것을 확인할 수 있다. In FIG. 12,
도 13는 Case 3 및 Case 4의 기울기(slope)에 대해 확장 칼만 필터(EKF)에 의해 수집된 위치의 확률 밀도 함수(pdf)를 나타낸다. 13 shows probability density functions (pdf) of positions collected by an extended Kalman filter (EKF) for slopes of
도 13에서는 Case 3과 Case 4를 비교 평가해 볼 수 있는데, 표적인 GH(Gun Heavy), MH(Mortar Heavy)와 클러터의 특성이 서로 다르며, Case 3과 Case 4가 서로 독립적인 특성을 가지는 것을 확인할 수 있다. 또한, Case 3과 Case 4 모두 기계 학습에 적합한 가우시안(Gaussian) 분포인 것을 확인할 수 있다. In FIG. 13,
이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is only illustrative of the technical idea of the embodiment of the present invention, and those skilled in the art to which the embodiment of the present invention pertains may make various modifications and modifications within the scope not departing from the essential characteristics of the embodiment of the present invention. transformation will be possible. Therefore, the embodiments of the present invention are not intended to limit the technical idea of the embodiment of the present invention, but to explain, and the scope of the technical idea of the embodiment of the present invention is not limited by these examples. The protection scope of the embodiments of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the embodiments of the present invention.
200: 표적 식별 장치
210: 측정 데이터 획득부
220: 특징 추출 처리부
222: 제1 특징 추출부
224: 제2 특징 추출부
226: 제3 특징 추출부
228: 제4 특징 추출부
230: 학습 네트워크 처리부
240: 분류 처리부200: target identification device
210: measurement data acquisition unit 220: feature extraction processing unit
222: first feature extraction unit 224: second feature extraction unit
226: third feature extraction unit 228: fourth feature extraction unit
230: learning network processing unit 240: classification processing unit
Claims (12)
탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계; 및
기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하여 표적 식별이 처리되도록 하는 특징 추출 처리 단계
를 포함하는 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.A method for extracting feature data for target identification in a feature extraction device,
a measurement data acquisition step of acquiring measurement data from a detection radar; and
A feature extraction processing step of extracting at least two feature data from the measurement data based on a preset extraction criterion feature so that target identification is processed.
A feature extraction method for target identification comprising a.
상기 특징 추출 처리 단계는,
상기 측정 데이터의 기본 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터를 추출하는 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 1,
The feature extraction processing step,
The first feature data, the second feature data, the third feature data, and the fourth feature for independent features based on a predetermined extraction criterion while preserving the unique characteristics (directionality) of the location using the basic location information of the measurement data. A feature extraction method for target identification, characterized by extracting data.
상기 특징 추출 처리 단계는,
상기 측정 데이터의 기본 위치정보를 기반으로 상기 제1 특징 데이터를 추출하되,
상기 제1 특징 데이터는 상기 측정 데이터의 거리와 방향(R, Φ, θ)을 ENU(x, y, z) 좌표로 변환한 시간에 따른 위치정보를 추출 기준 특징으로 적용한 데이터인 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 2,
The feature extraction processing step,
Extracting the first feature data based on basic location information of the measurement data,
The first feature data is data obtained by applying location information over time obtained by converting the distance and direction (R, Φ, θ) of the measurement data into ENU (x, y, z) coordinates as an extraction standard feature. Characterized in that Feature extraction method for target identification.
상기 특징 추출 처리 단계는,
상기 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 상기 제2 특징 데이터를 추출하되,
상기 제2 특징 데이터는 시간에 따른 위치 변화량을 추출 기준 특징으로 적용한 데이터인 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 3,
The feature extraction processing step,
Preserving the unique characteristic (directionality) of the basic location information and converting it into an independent characteristic to extract the second feature data,
The second feature data is a feature extraction method for target identification, characterized in that the data obtained by applying the position change over time as an extraction reference feature.
상기 특징 추출 처리 단계는,
상기 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 상기 제3 특징 데이터를 추출하되,
상기 제3 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치와 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용한 데이터인 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 3,
The feature extraction processing step,
Preserving the unique characteristic (directionality) of the basic location information and extracting the third characteristic data by converting it into an independent characteristic,
The third feature data is data obtained by applying a 2-dimensional normal vector for the slope of a straight line perpendicular to the position over time on the EN (x, y) plane as an extraction reference feature Target identification, characterized in that feature extraction method for
상기 특징 추출 처리 단계는,
상기 제3 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 상기 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 상기 제3 특징 데이터를 추출하는 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 5,
The feature extraction processing step,
Considering the machine learning throughput based on the third feature data, extracting the third feature data as an extraction reference feature obtained by converting the two-dimensional normal vector on the EN (x, y) plane into a value for a one-dimensional gradient A feature extraction method for target identification, characterized in that.
상기 특징 추출 처리 단계는,
상기 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 상기 제4 특징 데이터를 추출하되,
상기 제4 특징 데이터는 EN(x, y) 평면 상에서 시간에 따른 위치 변화량과 수직인 직선의 기울기에 대한 2 차원(2-dimensional) 법선벡터를 추출 기준 특징으로 적용한 데이터인 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 3,
The feature extraction processing step,
Preserving the unique characteristic (directionality) of the basic location information and extracting the fourth characteristic data by converting it into an independent characteristic,
The fourth feature data is data obtained by applying a 2-dimensional normal vector for the slope of a straight line perpendicular to the amount of change in position over time on the EN (x, y) plane as an extraction reference feature Target identification, characterized in that A feature extraction method for
상기 특징 추출 처리 단계는,
상기 제4 특징 데이터 기반의 기계 학습 처리량을 고려하여, EN(x, y) 평면 상의 상기 2 차원 법선벡터를 1 차원의 기울기에 대한 값으로 변환한 추출 기준 특징으로 상기 제4 특징 데이터를 추출하는 것을 특징으로 하는 표적 식별을 위한 특징 추출 방법.According to claim 7,
The feature extraction processing step,
Extracting the fourth feature data as an extraction reference feature obtained by converting the two-dimensional normal vector on the EN (x, y) plane into a value for a one-dimensional gradient in consideration of the machine learning throughput based on the fourth feature data A feature extraction method for target identification, characterized in that.
탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득부; 및
기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하여 표적 식별이 처리되도록 하는 특징 추출 처리부
를 포함하는 것을 특징으로 하는 표적 식별을 위한 특징 추출 장치.An apparatus for extracting feature data for target identification,
a measurement data acquisition unit acquiring measurement data from the detection radar; and
A feature extraction processor configured to extract at least two feature data from the measurement data based on a preset extraction criterion feature to process target identification.
Feature extraction device for target identification comprising a.
상기 특징 추출 처리부는,
상기 측정 데이터의 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터를 추출하는 것을 특징으로 하는 특징 추출 장치.According to claim 9,
The feature extraction processing unit,
First feature data, second feature data, third feature data, and fourth feature data for independent features based on a preset extraction criterion while preserving the unique characteristics (directionality) of the location using the location information of the measurement data. Feature extraction device characterized in that for extracting.
탐지 레이다로부터 측정 데이터를 획득하는 측정 데이터 획득 단계;
기 설정된 추출 기준 특징을 기반으로 상기 측정 데이터에서 적어도 두 개의 특징 데이터(Feature Data)를 추출하는 특징 추출 처리 단계;
적어도 두 개의 학습 네트워크를 포함하며, 상기 적어도 두 개의 특징 데이터 각각을 상기 적어도 두 개의 학습 네트워크 각각을 통해 학습 처리하는 학습 네트워크 처리 단계; 및
상기 적어도 두 개의 학습 네트워크 각각의 분류 결과를 조합하여 표적-클러터를 분류 처리하고, 분류 처리 결과를 기반으로 표적 식별을 수행하는 분류 처리 단계
를 포함하는 것을 특징으로 하는 서로 다른 특징의 추출 기반의 표적 식별 방법.A method for identifying a target by extracting different features,
a measurement data acquisition step of acquiring measurement data from a detection radar;
A feature extraction processing step of extracting at least two feature data (Feature Data) from the measurement data based on a preset extraction criterion feature;
a learning network processing step including at least two learning networks and learning and processing each of the at least two feature data through each of the at least two learning networks; and
A classification processing step of combining the classification results of the at least two learning networks to classify the target-clutter, and performing target identification based on the classification processing result.
Target identification method based on extraction of different features, characterized in that it comprises a.
상기 특징 추출 처리 단계는,
상기 측정 데이터의 위치정보를 이용하여 위치의 고유특성(방향성)을 보존하면서 기 설정된 추출 기준을 기반으로 독립적인 특징에 대한 제1 특징 데이터, 제2 특징 데이터, 제3 특징 데이터 및 제4 특징 데이터를 추출하되,
상기 특징 추출 처리 단계는, 상기 측정 데이터의 기본 위치정보를 기반으로 상기 제1 특징 데이터를 추출하고, 상기 기본 위치정보의 고유특성(방향성)을 보존하며, 독립적인 특징으로 변환하여 상기 제2 특징 데이터, 상기 제3 특징 데이터 및 상기 제4 특징 데이터를 추출하는 것을 특징으로 하는 서로 다른 특징의 추출 기반의 표적 식별 방법.
According to claim 11,
The feature extraction processing step,
First feature data, second feature data, third feature data, and fourth feature data for independent features based on a preset extraction criterion while preserving the unique characteristics (directionality) of the location using the location information of the measurement data. Extract,
The feature extraction processing step may include extracting the first feature data based on the basic location information of the measurement data, preserving a unique characteristic (directionality) of the basic location information, and converting the original feature into an independent feature, thereby converting the second feature data into the second feature. A target identification method based on extraction of different features, characterized in that for extracting data, the third feature data, and the fourth feature data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210153950A KR20230068051A (en) | 2021-11-10 | 2021-11-10 | Method and Apparatus for Features Extraction for Target Identification |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210153950A KR20230068051A (en) | 2021-11-10 | 2021-11-10 | Method and Apparatus for Features Extraction for Target Identification |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20230068051A true KR20230068051A (en) | 2023-05-17 |
Family
ID=86547436
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210153950A KR20230068051A (en) | 2021-11-10 | 2021-11-10 | Method and Apparatus for Features Extraction for Target Identification |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20230068051A (en) |
-
2021
- 2021-11-10 KR KR1020210153950A patent/KR20230068051A/en not_active Application Discontinuation
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Miller et al. | Dropout sampling for robust object detection in open-set conditions | |
Pei et al. | SAR automatic target recognition based on multiview deep learning framework | |
CN112308881B (en) | Ship multi-target tracking method based on remote sensing image | |
JP6032921B2 (en) | Object detection apparatus and method, and program | |
Lee et al. | Salient region-based online object tracking | |
US8358855B2 (en) | Determining probabilities from compared covariance appearance models to detect objects of interest in images | |
Mahdavi et al. | Drone detection using convolutional neural networks | |
KR20170026222A (en) | Method and device for classifying an object of an image and corresponding computer program product and computer-readable medium | |
Bouachir et al. | Structure-aware keypoint tracking for partial occlusion handling | |
Kriminger et al. | Online active learning for automatic target recognition | |
CN111126504A (en) | Multi-source incomplete information fusion image target classification method | |
KR20230068050A (en) | Method and Apparatus for Target Identification Based on Different Features | |
Dura et al. | Superellipse fitting for the recovery and classification of mine-like shapes in sidescan sonar images | |
KR102195940B1 (en) | System and Method for Detecting Deep Learning based Human Object using Adaptive Thresholding Method of Non Maximum Suppression | |
CN112213697B (en) | Feature fusion method for radar deception jamming recognition based on Bayesian decision theory | |
Safaei et al. | Open-set automatic target recognition | |
CN106934339B (en) | Target tracking and tracking target identification feature extraction method and device | |
KR20230068051A (en) | Method and Apparatus for Features Extraction for Target Identification | |
Lu et al. | A modified canny algorithm for detecting sky-sea line in infrared images | |
Ning et al. | Background Modeling and Fuzzy Clustering for Motion Detection from Video. | |
Hashim et al. | Face detection by using haar cascade classifier | |
Altundogan et al. | Multiple object tracking with dynamic fuzzy cognitive maps using deep learning | |
KR102136245B1 (en) | Apparatus, method, computer-readable storage medium and computer program for detecting and selecting target | |
CN114764879A (en) | Aerial target identification method based on radar infrared fusion characteristics | |
Brosch et al. | Automatic target recognition on high resolution sar images with deep learning domain adaptation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal |