KR102075745B1 - Method and apparatus for estimating target pose - Google Patents
Method and apparatus for estimating target pose Download PDFInfo
- Publication number
- KR102075745B1 KR102075745B1 KR1020180003548A KR20180003548A KR102075745B1 KR 102075745 B1 KR102075745 B1 KR 102075745B1 KR 1020180003548 A KR1020180003548 A KR 1020180003548A KR 20180003548 A KR20180003548 A KR 20180003548A KR 102075745 B1 KR102075745 B1 KR 102075745B1
- Authority
- KR
- South Korea
- Prior art keywords
- azimuth
- target
- learning
- image
- index
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/904—SAR modes
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/68—Radar-tracking systems; Analogous systems for angle tracking only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
본 발명은 방위각 추정 기술에 관한 것으로, 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계; 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계; 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함할 수 있다.The present invention relates to an azimuth estimation technique, comprising discretizing an angular range into uniform sections and assigning an index to each discretized section; Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target; Generating an azimuth estimation model by learning the image of the learning target and the correct answer label; Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And estimating an azimuth angle of the target based on the probability value.
Description
본 발명은 방위각 추정 장치 및 방법에 관한 것이다.The present invention relates to an azimuth estimation device and method.
표적에 대한 방위각 추정은 표적 식별을 위한 전처리 과정에 주로 사용되고 있다. 기존의 표적 방위각 추정 기법은 사각형 박스 덮어씌우기, 라돈 변환, CWF 변환과 같이 사람이 인위적으로 추출한 특징값을 이용하였다.Azimuth estimation for targets is mainly used in preprocessing for target identification. Conventional target azimuth estimation techniques use human-derived feature values such as square box overlay, radon transform, and CWF transform.
이와 같이 인위적으로 추출한 특징값들은 최적의 특징이 아니기 때문에, 방위각 추정 알고리즘들의 성능에 한계가 있다.Since the artificially extracted feature values are not optimal features, performance of azimuth estimation algorithms is limited.
본 발명의 실시예에서는 심층 학습(deep-learning) 기반의 표적 방위각 추정 기술을 제안하고자 한다.An embodiment of the present invention proposes a target azimuth estimation technique based on deep-learning.
구체적으로, 본 발명의 실시예에서는 SAR(Synthetic Aperture Radar)로부터 획득된 임의의 표적의 영상에 대해 심층 학습 모델을 적용하여 보다 정확하게 표적의 방위각을 추정할 수 있는 기술을 제안하고자 한다.Specifically, an embodiment of the present invention proposes a technique for more accurately estimating the azimuth of a target by applying an in-depth learning model to an image of an arbitrary target obtained from a synthetic aperture radar (SAR).
본 발명이 해결하고자 하는 과제는 상기에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재들로부터 본 발명이 속하는 통상의 지식을 가진 자에 의해 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned, another problem to be solved is not mentioned can be clearly understood by those skilled in the art from the following description. will be.
본 발명의 실시예에 따르면, 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계; 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계; 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함하는 방위각 추정 장치의 방위각 추정 방법을 제공할 수 있다.According to an embodiment of the present invention, discretizing the angular range into uniform sections, and assigning an index to each discretized section; Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target; Generating an azimuth estimation model by learning the image of the learning target and the correct answer label; Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And estimating an azimuth angle of the target based on the probability value.
여기서, 상기 방위각을 추정하는 단계는, 상기 확률 값과 상기 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정할 수 있다.In the estimating of the azimuth, the azimuth of the target may be estimated by obtaining a weighted vector sum of the probability value and the intermediate angle value of the section corresponding to the index.
또한, 상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합일 수 있다.The weight vector sum may be a weight vector sum of at least three probability values.
또한, 상기 각도 범위는, 0° 내지 180°일 수 있다.In addition, the angle range may be 0 ° to 180 °.
또한, 상기 방위각을 추정하는 단계는, 가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정할 수 있다.In addition, estimating the azimuth angle may determine a median value of a section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.
본 발명의 실시예에 따르면, 균일한 구간으로 이산화된 각도 범위의 각각의 구간에 인덱스를 부여하고, 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 데이터 변환부; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 학습 모델부; 및 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하고, 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 방위각 추정부를 포함하는 방위각 추정 장치를 제공할 수 있다.According to an embodiment of the present invention, a data conversion is performed by assigning an index to each section of the discretized angular range into uniform sections and setting the index of the section to which the azimuth of the learning target belongs among the indexes as the correct answer label of the learning target. part; A learning model unit learning an image of the learning target and the correct answer label to generate an azimuth estimation model; And an azimuth angle estimator configured to apply the azimuth estimation model to an image of an arbitrary target, obtain a probability value for each index for the arbitrary target, and estimate an azimuth of the arbitrary target based on the probability value. An estimation apparatus can be provided.
여기서, 상기 방위각 추정부는, 상기 확률 값과 상기 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정할 수 있다.Here, the azimuth estimator may estimate the azimuth of the target by obtaining a weighted vector sum of the intermediate angle values of the probability and the interval corresponding to the index.
또한, 상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합일 수 있다.The weight vector sum may be a weight vector sum of at least three probability values.
또한, 상기 각도 범위는, 0° 내지 180°일 수 있다.In addition, the angle range may be 0 ° to 180 °.
또한, 상기 방위각 추정부는, 가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정할 수 있다.The azimuth estimator may determine an intermediate value of a section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.
또한, 상기 학습 모델부는, 심층 학습(deep-learning) 모델부를 포함할 수 있다.In addition, the learning model unit may include a deep-learning model unit.
또한, 상기 심층 학습 모델부는, 컨벌루션 층(convolution layer), 최대 풀링 층(max-pooling layer), 완전 연결 층(fully-connected layer), 출력 층(output layer)을 포함할 수 있다.In addition, the deep learning model unit may include a convolutional layer, a max-pooling layer, a fully-connected layer, and an output layer.
또한, 상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함할 수 있다.In addition, the image of the learning target and the image of the arbitrary target may include a SAR (Synthetic Aperture Radar) image.
본 발명의 실시예에 의하면, 심층 학습 모델을 활용하여 높은 정확도의 이산화가 가능하고, 표적에 대한 연속적인 방위각 추정이 가능하다. 또한, 높은 정확도의 표적 방위각 추정을 통해 SAR 영상의 표적을 식별함에 있어 고속 처리가 가능하다. 또한, 표적이 향하는 방향 정보 추출을 통해 표적에 대한 위협 정보를 용이하게 획득할 수 있다.According to an embodiment of the present invention, it is possible to discretize with high accuracy by using an in-depth learning model, and to continuously estimate azimuth angles to a target. In addition, high-speed target azimuth estimation enables high-speed processing in identifying targets of SAR images. In addition, it is possible to easily obtain threat information on the target by extracting the direction information headed to the target.
도 1은 본 발명의 실시예에 따른 방위각 추정 장치에 대한 블록도이다.
도 2는 본 발명의 실시예에 따른 방위각 추정을 위한 각도 범위, 인덱스 및 확률 값을 테이블화한 표이다.
도 3은 도 1의 방위각 추정 장치에 적용될 수 있는 학습 모델부의 상세 구성도이다.
도 4는 본 발명의 실시예에 따라 가중 벡터합을 기초로 방위각 추정 대상 표적의 방위각을 추정하는 경우를 예시적으로 설명하는 도면이다.1 is a block diagram of an azimuth estimation apparatus according to an embodiment of the present invention.
2 is a table listing angle ranges, indices, and probability values for azimuth estimation according to an embodiment of the present invention.
3 is a detailed block diagram of a learning model unit that may be applied to the azimuth estimation apparatus of FIG. 1.
4 is a diagram illustrating a case of estimating an azimuth of an azimuth target to be estimated based on a weighted vector sum according to an embodiment of the present invention.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms, only the embodiments are to make the disclosure of the present invention complete, and those skilled in the art to which the present invention belongs It is provided to fully inform the scope of the invention, and the scope of the invention is defined only by the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or constructions will be omitted except when actually necessary in describing the embodiments of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the embodiments of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the contents throughout the specification.
본 발명의 실시예는, 심층 학습(deep-learning) 기반의 표적 방위각 추정 기술을 제안하고자 하며, 구체적으로 SAR(Synthetic Aperture Radar)로부터 획득된 임의의 표적의 영상에 대해 심층 학습 모델을 적용하여 보다 정확하게 표적의 방위각을 추정할 수 있는 기술을 제안하고자 한다.An embodiment of the present invention is to propose a deep-learning-based target azimuth estimation technique, and more specifically by applying a deep learning model to an image of any target obtained from a synthetic aperture radar (SAR). We propose a technique that can accurately estimate the azimuth of a target.
이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대해 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 1은 본 발명의 실시예에 따른 방위각 추정 장치(10)에 대한 블록도이다.1 is a block diagram of an
도 1에 도시된 바와 같이, 방위각 추정 장치(10)는 데이터 변환부(100), 학습 모델부(200) 및 방위각 추정부(300)를 포함할 수 있다.As illustrated in FIG. 1, the
먼저, 데이터 변환부(100)는 표적의 영상 및 방위각, 예를 들어 SAR로부터 획득된 표적의 영상 및 방위각을 입력 받고, 표적의 영상이 취하는 방위각이 속한 특정 구간의 인덱스를 심층 학습, 예를 들어 컨벌루션 신경망(Convolution Neural Network, CNN)을 이용하는 심층 학습에 적합한 형태로 변환한다.First, the
구체적으로, 데이터 변환부(100)는 각도 범위를 균일한 구간으로 이산화시킬 수 있다. 예를 들어, 도 2에 예시한 바와 같이, 각도 범위(20)를 (0~1], (1~2], (2~3], … (179~180] 등의 균일한 구간으로 이산화시킬 수 있다. 여기서, (0~1]은 0 초과, 1 이하를 의미하며, 실시예에 따라 0°를 포함하도록 각도 범위를 이산화시키는 것도 가능하다.In detail, the
그리고, 데이터 변환부(100)는 이와 같이 이산화된 각도 범위의 각각의 구간에 인덱스를 부여할 수 있다. 예를 들어, 도 2에 예시한 바와 같이, 각각의 각도 범위(20)에 대해 1~180까지의 인덱스(22)를 부여할 수 있다. 본 발명의 실시예에서는 표적의 방위각의 범위를 0° 내지 180°로 설정하고, 이러한 0° 내지 180° 구간에 대해 180개의 각도 범위(20)와 각각의 인덱스(22)를 부여하였다.The
또한, 데이터 변환부(100)는 이렇게 부여된 인덱스 중 입력되는 학습용 표적의 방위각이 속한 구간의 인덱스를 학습용 표적의 정답 레이블로 설정할 수 있다. 예를 들어, 방위각 추정 장치(10)로 입력되는 학습용 표적의 방위각이 0.7°인 경우, 0.7°가 각도 범위(20) 중 (0~1] 구간에 포함되므로, (0~1] 구간에 대응하는 인덱스, 예컨대 인덱스 1을 정답 레이블로 설정할 수 있다.In addition, the
학습 모델부(200)는 이러한 정답 레이블과 함께, 방위각 추정 장치(10)로 입력되는 표적의 영상을 학습하여 방위각 추정 모델을 생성할 수 있다. 이때, 방위각 추정 장치(10)로 입력되는 표적의 영상은, 예를 들어 방위각 추정 모델의 학습을 위한 학습용 표적의 영상일 수 있다. 학습용 표적의 영상은 SAR로부터 획득되는 표적의 영상, 예를 들어 일정한 자세(pose)를 취하는 전차의 영상일 수 있으며, 정답 레이블은 해당 영상의 방위각이 0.7°인 경우의 인덱스 1일 수 있다. 따라서, 학습 모델부(200)는 학습용 표적의 영상과 이에 대응하는 정답 레이블을 반복적으로 학습하여 방위각 추정 모델을 생성할 수 있다.The
이러한 학습 모델부(200)는 이러한 방위각 추정 모델을 이용하여 임의의 표적의 영상, 예컨대 방위각 추정 대상 표적의 영상이 입력될 때 도 2에 예시한 바와 같은 확률 값(24)을 산출할 수 있다.The
도 3은 이러한 학습 모델부(200)를 예시적으로 나타낸 도면이다.3 exemplarily illustrates the
도 3에 도시한 바와 같이, 본 발명의 실시예에 따른 학습 모델부(200)는, 심층 학습 모델, 예를 들어 컨벌루션 신경망(Convolutional Neural Network) 학습 모델이 적용될 수 있으며, 컨벌루션 층(convolution layer)(202), 최대 풀링 층(max-pooling layer)(204), 완전 연결 층(fully-connected layer)(206) 및 출력 층(output layer)(208)을 포함할 수 있다.As shown in FIG. 3, in the
학습 모델부(200)에서 이루어지는 훈련 과정은 컨벌루션 층(202)의 필터에 존재하는 가중치(weight) 및 바이어스(bias) 값과 완전 연결 층(206)에 존재하는 가중치 및 바이어스 값을 훈련하는 과정을 포함할 수 있다.The training process performed by the
본 발명의 실시예에 사용되는 컨벌루션 층(202)은, 예를 들어 1차원 컨벌루션 층이며, 컨벌루션 필터를 사용하여 입력 값에 대한 컨벌루션을 수행하고, 컨벌루션 값을 출력하는 역할을 한다.The
컨벌루션 층(202)에 의해 출력된 컨벌루션 값에 대하여, 최대 풀링 층(204)에서는 설정된 창(window)의 범위 내에서 최대치를 풀링하여 입력 값의 차원을 축소시킬 수 있다. 여기서, 입력 값의 정보 손실을 최소화하기 위해 창의 크기는 1x2로 설정하고, 컨벌루션 값에서 2칸씩 이동하면서 최대 값을 추출하도록 설정할 수 있다.With respect to the convolution value output by the
최대 풀링 층(204)에서 풀링 값은 256개의 노드를 갖는 완전 연결 층(206)에 입력될 수 있다. 완전 연결 층(206)은 입력된 풀링 값에 대하여 최대 풀링 층(204)과 완전 연결 층(206) 사이의 가중치 및 바이어스 값과 연산하여 256개의 특징 값을 산출하고, 이를 완전 연결 층(206)과 출력 층(208) 사이의 가중치 및 바이어스 값과 연산하여 4차원의 출력 값을 산출할 수 있다.The pooling value at the
출력 층(208)은 최대 풀링 층(204)과 완전 연결 층(206) 사이의 가중치 및 바이어스를 학습시킨 결과를 n 차원의 확률 값(24)으로 출력할 수 있다. 예를 들어, 도 2에 도시한 바와 같이, 확률 값(24)은 [0.2 0.4 0.1 … 0.01]와 같이 총 합이 1인 180 차원의 확률 값을 갖는 확률 분포로 표현될 수 있다. 이러한 총 합이 1인 n 차원 확률 값은, 예를 들어 소프트맥스(softmax) 기법을 로직 함수(logistic function)로 사용하여 출력된 값일 수 있다.The
한편, 본 발명의 실시예에서는 방위각 추정 모델의 출력 값과 미리 정의된 정답 레이블에 관한 정보 값 사이의 오차로 인해 나타나는 비용 함수(cost function)의 수치를 최소화하기 위해, 예를 들어 역전파(back propagation) 기법을 이용하는 지도 학습(supervised learning)을 이용할 수 있으며, 이는 학습 모델부(200) 내의 완전 연결 층(206)과 각 층 사이의 가중치 및 바이어스, 컨벌루션 층(202)의 10개의 필터에 부여된 가중치 및 바이어스 값을 훈련하게 된다.Meanwhile, in the embodiment of the present invention, in order to minimize the value of the cost function that appears due to an error between the output value of the azimuth estimation model and the information value about a predefined correct answer label, for example, back Supervised learning using a propagation technique can be used, which is applied to the ten filters of the
또한, 본 발명의 실시예에 적용되는 학습 모델부(200)는, 예를 들어 Tensorflow 또는 Theano를 백엔드(backend)로 사용하는 파이썬 툴킷(python toolkit)인 Keras가 사용될 수 있다.In addition, the
도 1의 방위각 추정부(300)는 이러한 학습 모델부(200)로부터 출력되는 확률 값을 획득하여 방위각 추정 대상 표적의 방위각을 추정할 수 있다.The
구체적으로, 방위각 추정부(300)는 방위각 추정 대상 표적의 영상에 방위각 추정 모델을 적용하여 획득된 방위각 추정 대상 표적에 대한 인덱스별 확률 값을 획득하고, 이러한 확률 값을 기초로 방위각 추정 대상 표적의 방위각을 추정할 수 있다.Specifically, the
예를 들어, 방위각 추정부(300)는 학습 모델부(200)에서 출력된 n 차원 출력 값이 [0.2 0.4 0.1 … 0.01]의 확률 분포를 가질 경우, 해당 확률에서 최대 확률 값은 0.4이므로, 0.4의 확률 값에 대응하는 구간의 각도 범위인 (1~2] 구간의 중간 각도 값, 예컨대 1.5°를 방위각 추정 대상 표적의 방위각으로 추정할 수 있다.For example, the
아래 [표 1]은 본 발명의 실시예에 따라 방위각 추정 대상 표적의 방위각을 추정한 결과를 시뮬레이션 한 결과를 예시한 것이다.Table 1 below illustrates the results of simulating the results of estimating the azimuth angle of the azimuth estimation target target according to an embodiment of the present invention.
총 10개의 표적을 대상으로 하였으며, 10° 이상 차이가 발생하는 결과는 없음을 확인할 수 있다.A total of 10 targets were targeted, and no difference of more than 10 ° can be confirmed.
한편, 본 발명의 실시예에서는, 학습 모델부(200)를 통해 출력되는 확률 값과, 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하고, 이러한 가중 벡터합을 기초로 방위각 추정 대상 표적의 방위각을 추정할 수 있다.Meanwhile, in the exemplary embodiment of the present invention, the weighted vector sum of the probability value output through the
예컨대, 도 4에 도시한 바와 같이, 3개의 확률 값(P1, P2, P3)에 대한 가중 벡터합(P)을 구하고, 이러한 가중 벡터합(P)을 방위각 추정 대상 표적의 최종 방위각으로 추정할 수 있다.For example, as shown in FIG. 4, a weighted vector sum P of three probability values P1, P2, and P3 is obtained, and the weighted vector sum P is estimated as the final azimuth of the target to be azimuth estimated. Can be.
가중 벡터합(P)은 하나의 연속된 방위각(θ)을 가질 수 있으며, 이는 다음 [수학식 1]과 같이 표현될 수 있다.The weighted vector sum P may have one continuous azimuth angle θ, which may be expressed as
여기서, Pi는 인덱스 i에 대한 확률 값이고, θi는 인덱스 i에 해당하는 각도 구간의 중간 값이다. N은, 예를 들어 3일 수 있으며, 이때의 i는 확률 값이 가장 높은 3개의 인덱스일 수 있다.Here, P i is a probability value for the index i, and θ i is an intermediate value of the angular section corresponding to the index i. N may be, for example, 3, where i may be three indexes having the highest probability values.
아래 [표 2]는 본 발명의 실시예에 따라 확률 값과 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 방위각 추정 대상 표적의 방위각을 추정한 결과를 시뮬레이션 한 결과를 예시한 것이다.Table 2 below illustrates a result of simulating the result of estimating the azimuth angle of the target to estimate the azimuth by obtaining the weighted vector sum of the intermediate angle values of the sections corresponding to the probability value and the index according to the embodiment of the present invention.
[표 1]의 시뮬레이션 결과 마찬가지로, 총 10개의 표적을 대상으로 하였으며, 10° 이상 차이가 발생하는 결과는 없음을 확인할 수 있었다.As a result of the simulation of [Table 1], a total of 10 targets were targeted, and it was confirmed that there was no difference of more than 10 °.
특히, [표 2]와 같이 가중 벡터합(P)을 구하여 방위각을 추정한 경우에는, [표 1]의 시뮬레이션 결과와 비교하여 더 높은 방위각 추정 결과를 얻을 수 있었다.In particular, when the azimuth angle was estimated by obtaining the weighted vector sum P as shown in [Table 2], a higher azimuth angle estimation result was obtained compared with the simulation results of [Table 1].
이상 설명한 바와 같이, 본 발명의 실시예에 의하면, 심층 학습 모델을 활용하여 높은 정확도의 이산화가 가능하고, 표적에 대한 연속적인 방위각 추정이 가능하도록 구현하였다. 또한, 높은 정확도의 표적 방위각 추정을 통해 SAR 영상의 표적을 식별함에 있어 고속 처리가 가능하며, 표적이 향하는 방향 정보 추출을 통해 표적에 대한 위협 정보를 용이하게 획득할 수 있도록 구현하였다.As described above, according to the embodiment of the present invention, the deep learning model is implemented to enable high accuracy discretization and to enable continuous azimuth estimation of a target. In addition, high-precision target azimuth estimation enables high-speed processing to identify targets in SAR images, and it is possible to easily acquire threat information about targets by extracting direction information directed to the target.
한편, 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록에서 설명된 기능들을 수행하는 수단을 생성하게 된다.On the other hand, the combination of each block in the accompanying block diagram and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the processor of the computer or other programmable data processing equipment are described in each block of the block diagram. It will create means to perform the functions.
이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체(또는 메모리) 등에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체(또는 메모리)에 저장된 인스트럭션들은 블록도의 각 블록에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may be stored on a computer usable or computer readable recording medium (or memory) or the like that may be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner. Alternatively, instructions stored on a computer readable recording medium (or memory) may produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram.
그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. In addition, computer program instructions may be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to generate a computer or other program. Instructions that perform possible data processing equipment may also provide steps for performing the functions described in each block of the block diagram.
또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 적어도 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes at least one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative embodiments, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.
10: 방위각 추정 장치
100: 데이터 변환부
200: 학습 모델부
300: 방위각 추정부10: azimuth estimation device
100: data conversion unit
200: learning model unit
300: azimuth estimator
Claims (15)
상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 단계를 포함하고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
방위각 추정 장치의 방위각 추정 방법.Discretizing the angular range into even intervals and assigning an index to each of the discretized intervals;
Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target;
Generating an azimuth estimation model by learning the image of the learning target and the correct answer label;
Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And
Estimating an azimuth angle measured based on a north point in the spherical coordinate system of the arbitrary target based on the probability value,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Azimuth estimation method of azimuth estimation device.
상기 방위각을 추정하는 단계는,
상기 확률 값과 상기 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정하는
방위각 추정 장치의 방위각 추정 방법.The method of claim 1,
Estimating the azimuth angle,
Estimating the azimuth angle of the target by obtaining a weighted vector sum of the intermediate angle values of the intervals corresponding to the probability value and the index;
Azimuth estimation method of azimuth estimation device.
상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합인
방위각 추정 장치의 방위각 추정 방법.The method of claim 2,
The weighted vector sum is a weighted vector sum of at least three probability values.
Azimuth estimation method of azimuth estimation device.
상기 각도 범위는, 0° 내지 180°인
방위각 추정 장치의 방위각 추정 방법.The method of claim 1,
The angle range is 0 ° to 180 °
Azimuth estimation method of azimuth estimation device.
상기 방위각을 추정하는 단계는,
가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정하는
방위각 추정 장치의 방위각 추정 방법.The method of claim 1,
Estimating the azimuth angle,
Determining the median value of the section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.
Azimuth estimation method of azimuth estimation device.
상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 단계를 수행하는 명령어를 포함하는 프로그램이 기록되고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
컴퓨터 판독 가능 기록 매체.Discretizing the angular range into even intervals and assigning an index to each of the discretized intervals;
Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target;
Generating an azimuth estimation model by learning the image of the learning target and the correct answer label;
Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And
A program is recorded that includes instructions for estimating an azimuth angle measured based on a north point in the spherical coordinate system of the arbitrary target based on the probability value,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Computer-readable recording media.
상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 단계를 수행하고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
컴퓨터 판독 가능 기록 매체에 저장된 컴퓨터 프로그램.Discretizing the angular range into even intervals and assigning an index to each of the discretized intervals;
Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target;
Generating an azimuth estimation model by learning the image of the learning target and the correct answer label;
Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And
Estimating an azimuth angle measured based on a north point in the spherical coordinate system of the arbitrary target based on the probability value,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Computer program stored on a computer readable recording medium.
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 학습 모델부; 및
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하고, 상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 방위각 추정부를 포함하고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
방위각 추정 장치.A data converter configured to assign an index to each section of the angular range discretized into uniform sections, and to set an index of a section to which the azimuth of the learning target belongs among the indexes as a correct answer label of the learning target;
A learning model unit learning an image of the learning target and the correct answer label to generate an azimuth estimation model; And
Applying the azimuth estimation model to an image of an arbitrary target to obtain a probability value for each index for the arbitrary target, and based on the probability value, the azimuth measured based on the north point in the spherical coordinate system of the arbitrary target Including azimuth estimator for estimating,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Azimuth estimation device.
상기 방위각 추정부는,
상기 확률 값과 상기 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정하는
방위각 추정 장치.The method of claim 8,
The azimuth estimator,
Estimating the azimuth angle of the target by obtaining a weighted vector sum of the intermediate angle values of the intervals corresponding to the probability value and the index;
Azimuth estimation device.
상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합인
방위각 추정 장치.The method of claim 9,
The weighted vector sum is a weighted vector sum of at least three probability values.
Azimuth estimation device.
상기 각도 범위는, 0° 내지 180°인
방위각 추정 장치.The method of claim 8,
The angle range is 0 ° to 180 °
Azimuth estimation device.
상기 방위각 추정부는,
가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정하는
방위각 추정 장치.The method of claim 8,
The azimuth estimator,
Determining the median value of the section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.
Azimuth estimation device.
상기 학습 모델부는, 심층 학습(deep-learning) 모델부를 포함하는
방위각 추정 장치.The method of claim 8,
The learning model unit includes a deep-learning model unit.
Azimuth estimation device.
상기 심층 학습 모델부는, 컨벌루션 층(convolution layer), 최대 풀링 층(max-pooling layer), 완전 연결 층(fully-connected layer), 출력 층(output layer)을 포함하는
방위각 추정 장치.The method of claim 13,
The deep learning model unit includes a convolutional layer, a max-pooling layer, a fully-connected layer, and an output layer.
Azimuth estimation device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003548A KR102075745B1 (en) | 2018-01-10 | 2018-01-10 | Method and apparatus for estimating target pose |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180003548A KR102075745B1 (en) | 2018-01-10 | 2018-01-10 | Method and apparatus for estimating target pose |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20190093753A KR20190093753A (en) | 2019-08-12 |
KR102075745B1 true KR102075745B1 (en) | 2020-02-10 |
Family
ID=67624768
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180003548A KR102075745B1 (en) | 2018-01-10 | 2018-01-10 | Method and apparatus for estimating target pose |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102075745B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102459595B1 (en) * | 2020-11-24 | 2022-10-28 | 한밭대학교 산학협력단 | System and method for detecting multiple target based on convolutional neural network |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7015855B1 (en) * | 2004-08-12 | 2006-03-21 | Lockheed Martin Corporation | Creating and identifying synthetic aperture radar images having tilt angle diversity |
CN103177269B (en) * | 2011-12-23 | 2017-12-15 | 北京三星通信技术研究有限公司 | For estimating the apparatus and method of object gesture |
KR101758064B1 (en) | 2013-06-05 | 2017-07-14 | 삼성전자주식회사 | Estimator learning method and pose estimation mehtod using a depth image |
KR102330322B1 (en) * | 2014-09-16 | 2021-11-24 | 삼성전자주식회사 | Method and apparatus for extracting image feature |
KR102288280B1 (en) * | 2014-11-05 | 2021-08-10 | 삼성전자주식회사 | Device and method to generate image using image learning model |
-
2018
- 2018-01-10 KR KR1020180003548A patent/KR102075745B1/en active IP Right Grant
Non-Patent Citations (2)
Title |
---|
Chen, Sizhe 외 3명. Target classification using the deep convolutional networks for SAR images. IEEE Transactions on Geoscience and Remote Sensing. 2016., Pages 4806-4817.* |
Nakajima, Yoshikatsu 외 1명. Robust camera pose estimation by viewpoint classification using deep learning. Computational Visual Media. 2017., Pages 189-198.* |
Also Published As
Publication number | Publication date |
---|---|
KR20190093753A (en) | 2019-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Yu et al. | Underwater-GAN: Underwater image restoration via conditional generative adversarial network | |
CN107481292B (en) | Attitude error estimation method and device for vehicle-mounted camera | |
CN111079780B (en) | Training method for space diagram convolution network, electronic equipment and storage medium | |
CN111126134B (en) | Radar radiation source deep learning identification method based on non-fingerprint signal eliminator | |
JP7263216B2 (en) | Object Shape Regression Using Wasserstein Distance | |
CN111127364B (en) | Image data enhancement strategy selection method and face recognition image data enhancement method | |
Banharnsakun et al. | Object detection based on template matching through use of best-so-far ABC | |
CN110443849B (en) | Target positioning method for double-current convolution neural network regression learning based on depth image | |
CN110276801B (en) | Object positioning method and device and storage medium | |
Sun et al. | Virtualisation and automation of curved shell plates’ manufacturing plan design process for knowledge elicitation | |
WO2022222647A1 (en) | Method and apparatus for predicting vehicle intention, device, and storage medium | |
CN110503148B (en) | Point cloud object identification method with scale invariance | |
CN116188543A (en) | Point cloud registration method and system based on deep learning unsupervised | |
KR102075745B1 (en) | Method and apparatus for estimating target pose | |
CN114419877B (en) | Vehicle track prediction data processing method and device based on road characteristics | |
CN115272433A (en) | Light-weight point cloud registration method and system for automatic obstacle avoidance of unmanned aerial vehicle | |
CN113159082B (en) | Incremental learning target detection network model construction and weight updating method | |
Liu et al. | Multi-focus image fusion algorithm based on unsupervised deep learning | |
Almanza-Medina et al. | Motion estimation of an underwater platform using images from two sonar sensors | |
CN114387498A (en) | Target detection method and device, electronic equipment and storage medium | |
CN108830860B (en) | Binocular image target segmentation method and device based on RGB-D constraint | |
CN111833395A (en) | Direction-finding system single target positioning method and device based on neural network model | |
CN110647917A (en) | Model multiplexing method and system | |
CN110705695A (en) | Method, device, equipment and storage medium for searching model structure | |
CN117372536A (en) | Laser radar and camera calibration method, system, equipment and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |