KR20190093753A - 방위각 추정 장치 및 방법 - Google Patents

방위각 추정 장치 및 방법 Download PDF

Info

Publication number
KR20190093753A
KR20190093753A KR1020180003548A KR20180003548A KR20190093753A KR 20190093753 A KR20190093753 A KR 20190093753A KR 1020180003548 A KR1020180003548 A KR 1020180003548A KR 20180003548 A KR20180003548 A KR 20180003548A KR 20190093753 A KR20190093753 A KR 20190093753A
Authority
KR
South Korea
Prior art keywords
azimuth
target
learning
index
azimuth estimation
Prior art date
Application number
KR1020180003548A
Other languages
English (en)
Other versions
KR102075745B1 (ko
Inventor
염광영
김문철
오지형
임호
박지훈
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020180003548A priority Critical patent/KR102075745B1/ko
Publication of KR20190093753A publication Critical patent/KR20190093753A/ko
Application granted granted Critical
Publication of KR102075745B1 publication Critical patent/KR102075745B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/68Radar-tracking systems; Analogous systems for angle tracking only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명은 방위각 추정 기술에 관한 것으로, 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계; 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계; 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함할 수 있다.

Description

방위각 추정 장치 및 방법 {METHOD AND APPARATUS FOR ESTIMATING TARGET POSE}
본 발명은 방위각 추정 장치 및 방법에 관한 것이다.
표적에 대한 방위각 추정은 표적 식별을 위한 전처리 과정에 주로 사용되고 있다. 기존의 표적 방위각 추정 기법은 사각형 박스 덮어씌우기, 라돈 변환, CWF 변환과 같이 사람이 인위적으로 추출한 특징값을 이용하였다.
이와 같이 인위적으로 추출한 특징값들은 최적의 특징이 아니기 때문에, 방위각 추정 알고리즘들의 성능에 한계가 있다.
한국공개특허 제10-2013-0102126호 (2013.08.28 공개)
본 발명의 실시예에서는 심층 학습(deep-learning) 기반의 표적 방위각 추정 기술을 제안하고자 한다.
구체적으로, 본 발명의 실시예에서는 SAR(Synthetic Aperture Radar)로부터 획득된 임의의 표적의 영상에 대해 심층 학습 모델을 적용하여 보다 정확하게 표적의 방위각을 추정할 수 있는 기술을 제안하고자 한다.
본 발명이 해결하고자 하는 과제는 상기에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재들로부터 본 발명이 속하는 통상의 지식을 가진 자에 의해 명확하게 이해될 수 있을 것이다.
본 발명의 실시예에 따르면, 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계; 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계; 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함하는 방위각 추정 장치의 방위각 추정 방법을 제공할 수 있다.
여기서, 상기 방위각을 추정하는 단계는, 상기 확률 값과 상기 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정할 수 있다.
또한, 상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합일 수 있다.
또한, 상기 각도 범위는, 0° 내지 180°일 수 있다.
또한, 상기 방위각을 추정하는 단계는, 가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정할 수 있다.
본 발명의 실시예에 따르면, 균일한 구간으로 이산화된 각도 범위의 각각의 구간에 인덱스를 부여하고, 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 데이터 변환부; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 학습 모델부; 및 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하고, 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 방위각 추정부를 포함하는 방위각 추정 장치를 제공할 수 있다.
여기서, 상기 방위각 추정부는, 상기 확률 값과 상기 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정할 수 있다.
또한, 상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합일 수 있다.
또한, 상기 각도 범위는, 0° 내지 180°일 수 있다.
또한, 상기 방위각 추정부는, 가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정할 수 있다.
또한, 상기 학습 모델부는, 심층 학습(deep-learning) 모델부를 포함할 수 있다.
또한, 상기 심층 학습 모델부는, 컨벌루션 층(convolution layer), 최대 풀링 층(max-pooling layer), 완전 연결 층(fully-connected layer), 출력 층(output layer)을 포함할 수 있다.
또한, 상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함할 수 있다.
본 발명의 실시예에 의하면, 심층 학습 모델을 활용하여 높은 정확도의 이산화가 가능하고, 표적에 대한 연속적인 방위각 추정이 가능하다. 또한, 높은 정확도의 표적 방위각 추정을 통해 SAR 영상의 표적을 식별함에 있어 고속 처리가 가능하다. 또한, 표적이 향하는 방향 정보 추출을 통해 표적에 대한 위협 정보를 용이하게 획득할 수 있다.
도 1은 본 발명의 실시예에 따른 방위각 추정 장치에 대한 블록도이다.
도 2는 본 발명의 실시예에 따른 방위각 추정을 위한 각도 범위, 인덱스 및 확률 값을 테이블화한 표이다.
도 3은 도 1의 방위각 추정 장치에 적용될 수 있는 학습 모델부의 상세 구성도이다.
도 4는 본 발명의 실시예에 따라 가중 벡터합을 기초로 방위각 추정 대상 표적의 방위각을 추정하는 경우를 예시적으로 설명하는 도면이다.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.
본 발명의 실시예는, 심층 학습(deep-learning) 기반의 표적 방위각 추정 기술을 제안하고자 하며, 구체적으로 SAR(Synthetic Aperture Radar)로부터 획득된 임의의 표적의 영상에 대해 심층 학습 모델을 적용하여 보다 정확하게 표적의 방위각을 추정할 수 있는 기술을 제안하고자 한다.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대해 상세히 설명하기로 한다.
도 1은 본 발명의 실시예에 따른 방위각 추정 장치(10)에 대한 블록도이다.
도 1에 도시된 바와 같이, 방위각 추정 장치(10)는 데이터 변환부(100), 학습 모델부(200) 및 방위각 추정부(300)를 포함할 수 있다.
먼저, 데이터 변환부(100)는 표적의 영상 및 방위각, 예를 들어 SAR로부터 획득된 표적의 영상 및 방위각을 입력 받고, 표적의 영상이 취하는 방위각이 속한 특정 구간의 인덱스를 심층 학습, 예를 들어 컨벌루션 신경망(Convolution Neural Network, CNN)을 이용하는 심층 학습에 적합한 형태로 변환한다.
구체적으로, 데이터 변환부(100)는 각도 범위를 균일한 구간으로 이산화시킬 수 있다. 예를 들어, 도 2에 예시한 바와 같이, 각도 범위(20)를 (0~1], (1~2], (2~3], … (179~180] 등의 균일한 구간으로 이산화시킬 수 있다. 여기서, (0~1]은 0 초과, 1 이하를 의미하며, 실시예에 따라 0°를 포함하도록 각도 범위를 이산화시키는 것도 가능하다.
그리고, 데이터 변환부(100)는 이와 같이 이산화된 각도 범위의 각각의 구간에 인덱스를 부여할 수 있다. 예를 들어, 도 2에 예시한 바와 같이, 각각의 각도 범위(20)에 대해 1~180까지의 인덱스(22)를 부여할 수 있다. 본 발명의 실시예에서는 표적의 방위각의 범위를 0° 내지 180°로 설정하고, 이러한 0° 내지 180° 구간에 대해 180개의 각도 범위(20)와 각각의 인덱스(22)를 부여하였다.
또한, 데이터 변환부(100)는 이렇게 부여된 인덱스 중 입력되는 학습용 표적의 방위각이 속한 구간의 인덱스를 학습용 표적의 정답 레이블로 설정할 수 있다. 예를 들어, 방위각 추정 장치(10)로 입력되는 학습용 표적의 방위각이 0.7°인 경우, 0.7°가 각도 범위(20) 중 (0~1] 구간에 포함되므로, (0~1] 구간에 대응하는 인덱스, 예컨대 인덱스 1을 정답 레이블로 설정할 수 있다.
학습 모델부(200)는 이러한 정답 레이블과 함께, 방위각 추정 장치(10)로 입력되는 표적의 영상을 학습하여 방위각 추정 모델을 생성할 수 있다. 이때, 방위각 추정 장치(10)로 입력되는 표적의 영상은, 예를 들어 방위각 추정 모델의 학습을 위한 학습용 표적의 영상일 수 있다. 학습용 표적의 영상은 SAR로부터 획득되는 표적의 영상, 예를 들어 일정한 자세(pose)를 취하는 전차의 영상일 수 있으며, 정답 레이블은 해당 영상의 방위각이 0.7°인 경우의 인덱스 1일 수 있다. 따라서, 학습 모델부(200)는 학습용 표적의 영상과 이에 대응하는 정답 레이블을 반복적으로 학습하여 방위각 추정 모델을 생성할 수 있다.
이러한 학습 모델부(200)는 이러한 방위각 추정 모델을 이용하여 임의의 표적의 영상, 예컨대 방위각 추정 대상 표적의 영상이 입력될 때 도 2에 예시한 바와 같은 확률 값(24)을 산출할 수 있다.
도 3은 이러한 학습 모델부(200)를 예시적으로 나타낸 도면이다.
도 3에 도시한 바와 같이, 본 발명의 실시예에 따른 학습 모델부(200)는, 심층 학습 모델, 예를 들어 컨벌루션 신경망(Convolutional Neural Network) 학습 모델이 적용될 수 있으며, 컨벌루션 층(convolution layer)(202), 최대 풀링 층(max-pooling layer)(204), 완전 연결 층(fully-connected layer)(206) 및 출력 층(output layer)(208)을 포함할 수 있다.
학습 모델부(200)에서 이루어지는 훈련 과정은 컨벌루션 층(202)의 필터에 존재하는 가중치(weight) 및 바이어스(bias) 값과 완전 연결 층(206)에 존재하는 가중치 및 바이어스 값을 훈련하는 과정을 포함할 수 있다.
본 발명의 실시예에 사용되는 컨벌루션 층(202)은, 예를 들어 1차원 컨벌루션 층이며, 컨벌루션 필터를 사용하여 입력 값에 대한 컨벌루션을 수행하고, 컨벌루션 값을 출력하는 역할을 한다.
컨벌루션 층(202)에 의해 출력된 컨벌루션 값에 대하여, 최대 풀링 층(204)에서는 설정된 창(window)의 범위 내에서 최대치를 풀링하여 입력 값의 차원을 축소시킬 수 있다. 여기서, 입력 값의 정보 손실을 최소화하기 위해 창의 크기는 1x2로 설정하고, 컨벌루션 값에서 2칸씩 이동하면서 최대 값을 추출하도록 설정할 수 있다.
최대 풀링 층(204)에서 풀링 값은 256개의 노드를 갖는 완전 연결 층(206)에 입력될 수 있다. 완전 연결 층(206)은 입력된 풀링 값에 대하여 최대 풀링 층(204)과 완전 연결 층(206) 사이의 가중치 및 바이어스 값과 연산하여 256개의 특징 값을 산출하고, 이를 완전 연결 층(206)과 출력 층(208) 사이의 가중치 및 바이어스 값과 연산하여 4차원의 출력 값을 산출할 수 있다.
출력 층(208)은 최대 풀링 층(204)과 완전 연결 층(206) 사이의 가중치 및 바이어스를 학습시킨 결과를 n 차원의 확률 값(24)으로 출력할 수 있다. 예를 들어, 도 2에 도시한 바와 같이, 확률 값(24)은 [0.2 0.4 0.1 … 0.01]와 같이 총 합이 1인 180 차원의 확률 값을 갖는 확률 분포로 표현될 수 있다. 이러한 총 합이 1인 n 차원 확률 값은, 예를 들어 소프트맥스(softmax) 기법을 로직 함수(logistic function)로 사용하여 출력된 값일 수 있다.
한편, 본 발명의 실시예에서는 방위각 추정 모델의 출력 값과 미리 정의된 정답 레이블에 관한 정보 값 사이의 오차로 인해 나타나는 비용 함수(cost function)의 수치를 최소화하기 위해, 예를 들어 역전파(back propagation) 기법을 이용하는 지도 학습(supervised learning)을 이용할 수 있으며, 이는 학습 모델부(200) 내의 완전 연결 층(206)과 각 층 사이의 가중치 및 바이어스, 컨벌루션 층(202)의 10개의 필터에 부여된 가중치 및 바이어스 값을 훈련하게 된다.
또한, 본 발명의 실시예에 적용되는 학습 모델부(200)는, 예를 들어 Tensorflow 또는 Theano를 백엔드(backend)로 사용하는 파이썬 툴킷(python toolkit)인 Keras가 사용될 수 있다.
도 1의 방위각 추정부(300)는 이러한 학습 모델부(200)로부터 출력되는 확률 값을 획득하여 방위각 추정 대상 표적의 방위각을 추정할 수 있다.
구체적으로, 방위각 추정부(300)는 방위각 추정 대상 표적의 영상에 방위각 추정 모델을 적용하여 획득된 방위각 추정 대상 표적에 대한 인덱스별 확률 값을 획득하고, 이러한 확률 값을 기초로 방위각 추정 대상 표적의 방위각을 추정할 수 있다.
예를 들어, 방위각 추정부(300)는 학습 모델부(200)에서 출력된 n 차원 출력 값이 [0.2 0.4 0.1 … 0.01]의 확률 분포를 가질 경우, 해당 확률에서 최대 확률 값은 0.4이므로, 0.4의 확률 값에 대응하는 구간의 각도 범위인 (1~2] 구간의 중간 각도 값, 예컨대 1.5°를 방위각 추정 대상 표적의 방위각으로 추정할 수 있다.
아래 [표 1]은 본 발명의 실시예에 따라 방위각 추정 대상 표적의 방위각을 추정한 결과를 시뮬레이션 한 결과를 예시한 것이다.
표적 1 2 3 4 5 6 7 8 9 10
오차평균 1.008 1.019 1.133 1.155 0.957 1.094 1.481 0.813 0.958 1.182
표준편차 1.370 1.246 1.380 1.521 1.195 1.380 1.888 1.143 1.171 1.452
오차>10 0 0 0 0 0 0 0 0 0 0
오차>20 0 0 0 0 0 0 0 0 0 0
총 10개의 표적을 대상으로 하였으며, 10° 이상 차이가 발생하는 결과는 없음을 확인할 수 있다.
한편, 본 발명의 실시예에서는, 학습 모델부(200)를 통해 출력되는 확률 값과, 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하고, 이러한 가중 벡터합을 기초로 방위각 추정 대상 표적의 방위각을 추정할 수 있다.
예컨대, 도 4에 도시한 바와 같이, 3개의 확률 값(P1, P2, P3)에 대한 가중 벡터합(P)을 구하고, 이러한 가중 벡터합(P)을 방위각 추정 대상 표적의 최종 방위각으로 추정할 수 있다.
가중 벡터합(P)은 하나의 연속된 방위각(θ)을 가질 수 있으며, 이는 다음 [수학식 1]과 같이 표현될 수 있다.
Figure pat00001
여기서, Pi는 인덱스 i에 대한 확률 값이고, θi는 인덱스 i에 해당하는 각도 구간의 중간 값이다. N은, 예를 들어 3일 수 있으며, 이때의 i는 확률 값이 가장 높은 3개의 인덱스일 수 있다.
아래 [표 2]는 본 발명의 실시예에 따라 확률 값과 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 방위각 추정 대상 표적의 방위각을 추정한 결과를 시뮬레이션 한 결과를 예시한 것이다.
표적 1 2 3 4 5 6 7 8 9 10
오차평균 1.028 1.015 1.108 1.167 0.925 1.021 1.453 0.835 0.917 1.129
표준편차 1.323 1.234 1.388 1.525 1.192 1.304 1.879 1.179 1.124 1.380
오차>10 0 0 0 0 0 0 0 0 0 0
오차>20 0 0 0 0 0 0 0 0 0 0
[표 1]의 시뮬레이션 결과 마찬가지로, 총 10개의 표적을 대상으로 하였으며, 10° 이상 차이가 발생하는 결과는 없음을 확인할 수 있었다.
특히, [표 2]와 같이 가중 벡터합(P)을 구하여 방위각을 추정한 경우에는, [표 1]의 시뮬레이션 결과와 비교하여 더 높은 방위각 추정 결과를 얻을 수 있었다.
이상 설명한 바와 같이, 본 발명의 실시예에 의하면, 심층 학습 모델을 활용하여 높은 정확도의 이산화가 가능하고, 표적에 대한 연속적인 방위각 추정이 가능하도록 구현하였다. 또한, 높은 정확도의 표적 방위각 추정을 통해 SAR 영상의 표적을 식별함에 있어 고속 처리가 가능하며, 표적이 향하는 방향 정보 추출을 통해 표적에 대한 위협 정보를 용이하게 획득할 수 있도록 구현하였다.
한편, 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록에서 설명된 기능들을 수행하는 수단을 생성하게 된다.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체(또는 메모리) 등에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체(또는 메모리)에 저장된 인스트럭션들은 블록도의 각 블록에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 적어도 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.
10: 방위각 추정 장치
100: 데이터 변환부
200: 학습 모델부
300: 방위각 추정부

Claims (15)

  1. 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계;
    상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
    상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
    임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
    상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함하는
    방위각 추정 장치의 방위각 추정 방법.
  2. 제 1 항에 있어서,
    상기 방위각을 추정하는 단계는,
    상기 확률 값과 상기 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정하는
    방위각 추정 장치의 방위각 추정 방법.
  3. 제 2 항에 있어서,
    상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합인
    방위각 추정 장치의 방위각 추정 방법.
  4. 제 1 항에 있어서,
    상기 각도 범위는, 0° 내지 180°인
    방위각 추정 장치의 방위각 추정 방법.
  5. 제 1 항에 있어서,
    상기 방위각을 추정하는 단계는,
    가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정하는
    방위각 추정 장치의 방위각 추정 방법.
  6. 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계;
    상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
    상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
    임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
    상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 수행하는 명령어를 포함하는 프로그램이 기록된
    컴퓨터 판독 가능 기록 매체.
  7. 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계;
    상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
    상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
    임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
    상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 수행하는
    컴퓨터 판독 가능 기록 매체에 저장된 컴퓨터 프로그램.
  8. 균일한 구간으로 이산화된 각도 범위의 각각의 구간에 인덱스를 부여하고, 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 데이터 변환부;
    상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 학습 모델부; 및
    임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하고, 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 방위각 추정부를 포함하는
    방위각 추정 장치.
  9. 제 8 항에 있어서,
    상기 방위각 추정부는,
    상기 확률 값과 상기 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정하는
    방위각 추정 장치.
  10. 제 9 항에 있어서,
    상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합인
    방위각 추정 장치.
  11. 제 8 항에 있어서,
    상기 각도 범위는, 0° 내지 180°인
    방위각 추정 장치.
  12. 제 8 항에 있어서,
    상기 방위각 추정부는,
    가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정하는
    방위각 추정 장치.
  13. 제 8 항에 있어서,
    상기 학습 모델부는, 심층 학습(deep-learning) 모델부를 포함하는
    방위각 추정 장치.
  14. 제 13 항에 있어서,
    상기 심층 학습 모델부는, 컨벌루션 층(convolution layer), 최대 풀링 층(max-pooling layer), 완전 연결 층(fully-connected layer), 출력 층(output layer)을 포함하는
    방위각 추정 장치.
  15. 제 8 항에 있어서,
    상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
    방위각 추정 장치.
KR1020180003548A 2018-01-10 2018-01-10 방위각 추정 장치 및 방법 KR102075745B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003548A KR102075745B1 (ko) 2018-01-10 2018-01-10 방위각 추정 장치 및 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003548A KR102075745B1 (ko) 2018-01-10 2018-01-10 방위각 추정 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20190093753A true KR20190093753A (ko) 2019-08-12
KR102075745B1 KR102075745B1 (ko) 2020-02-10

Family

ID=67624768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003548A KR102075745B1 (ko) 2018-01-10 2018-01-10 방위각 추정 장치 및 방법

Country Status (1)

Country Link
KR (1) KR102075745B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220071448A (ko) * 2020-11-24 2022-05-31 한밭대학교 산학협력단 합성곱 신경망 기반의 다중 물체 검출 시스템 및 방법

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7015855B1 (en) * 2004-08-12 2006-03-21 Lockheed Martin Corporation Creating and identifying synthetic aperture radar images having tilt angle diversity
KR20130073812A (ko) * 2011-12-23 2013-07-03 삼성전자주식회사 객체 포즈 추정을 위한 장치 및 방법
KR20160032466A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 영상 특징 추출 방법 및 장치
KR20160053612A (ko) * 2014-11-05 2016-05-13 삼성전자주식회사 영상 학습 모델을 이용한 영상 생성 방법 및 장치
KR101758064B1 (ko) 2013-06-05 2017-07-14 삼성전자주식회사 깊이 영상을 이용하는 추정기 학습 방법 및 자세 추정 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7015855B1 (en) * 2004-08-12 2006-03-21 Lockheed Martin Corporation Creating and identifying synthetic aperture radar images having tilt angle diversity
KR20130073812A (ko) * 2011-12-23 2013-07-03 삼성전자주식회사 객체 포즈 추정을 위한 장치 및 방법
KR101758064B1 (ko) 2013-06-05 2017-07-14 삼성전자주식회사 깊이 영상을 이용하는 추정기 학습 방법 및 자세 추정 방법
KR20160032466A (ko) * 2014-09-16 2016-03-24 삼성전자주식회사 영상 특징 추출 방법 및 장치
KR20160053612A (ko) * 2014-11-05 2016-05-13 삼성전자주식회사 영상 학습 모델을 이용한 영상 생성 방법 및 장치

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chen, Sizhe 외 3명. Target classification using the deep convolutional networks for SAR images. IEEE Transactions on Geoscience and Remote Sensing. 2016., Pages 4806-4817.* *
Nakajima, Yoshikatsu 외 1명. Robust camera pose estimation by viewpoint classification using deep learning. Computational Visual Media. 2017., Pages 189-198.* *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220071448A (ko) * 2020-11-24 2022-05-31 한밭대학교 산학협력단 합성곱 신경망 기반의 다중 물체 검출 시스템 및 방법
WO2022114274A1 (ko) * 2020-11-24 2022-06-02 한밭대학교 산학협력단 합성곱 신경망 기반의 다중 물체 검출 시스템 및 방법

Also Published As

Publication number Publication date
KR102075745B1 (ko) 2020-02-10

Similar Documents

Publication Publication Date Title
Yu et al. Underwater-GAN: Underwater image restoration via conditional generative adversarial network
CN107945204B (zh) 一种基于生成对抗网络的像素级人像抠图方法
CN111079780B (zh) 空间图卷积网络的训练方法、电子设备及存储介质
CN112364885B (zh) 一种基于深度神经网络模型可解释性的对抗样本防御方法
CN111127364B (zh) 图像数据增强策略选择方法及人脸识别图像数据增强方法
CN111126134A (zh) 基于非指纹信号消除器的雷达辐射源深度学习识别方法
WO2019171291A1 (en) Epistemic and aleatoric deep plasticity based on sound feedback
JPH0818848A (ja) カメラシステムおよび歪み除去方法
CN110276801B (zh) 一种物体定位方法、装置及存储介质
CN116188543A (zh) 基于深度学习无监督的点云配准方法及系统
Li et al. Application of a semivariogram based on a deep neural network to Ordinary Kriging interpolation of elevation data
KR102075745B1 (ko) 방위각 추정 장치 및 방법
US20210374545A1 (en) Method and apparatus of increasing knowledge based on uncertainty in neural networks
Ishkov et al. Processing and visualization of tomography signal with AI: Decision making on COVID-19
CN117494780A (zh) 一种混合学习中知识蒸馏的学生网络训练方法
CN110647917A (zh) 一种模型复用方法与系统
CN113763447B (zh) 深度图的补全方法、电子设备及存储介质
CN116109649A (zh) 一种基于语义错误修正的3d点云实例分割方法
Millan et al. Explaining regression based neural network model
CN113159082B (zh) 一种增量式学习目标检测网络模型构建及权重更新方法
CN114387498A (zh) 目标检测方法、装置、电子设备及存储介质
Wang et al. A novel two-stage ellipsoid filtering-based system modeling algorithm for a Hammerstein nonlinear model with an unknown noise term
Liu et al. Multi-focus image fusion algorithm based on unsupervised deep learning
Timchenko et al. Processing laser beam spot images using the parallel-hierarchical network for classification and forecasting their energy center coordinates
Hou et al. SAR minimum entropy autofocusing based on Prewitt operator

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant