KR102075745B1 - Method and apparatus for estimating target pose - Google Patents

Method and apparatus for estimating target pose Download PDF

Info

Publication number
KR102075745B1
KR102075745B1 KR1020180003548A KR20180003548A KR102075745B1 KR 102075745 B1 KR102075745 B1 KR 102075745B1 KR 1020180003548 A KR1020180003548 A KR 1020180003548A KR 20180003548 A KR20180003548 A KR 20180003548A KR 102075745 B1 KR102075745 B1 KR 102075745B1
Authority
KR
South Korea
Prior art keywords
azimuth
target
learning
image
index
Prior art date
Application number
KR1020180003548A
Other languages
Korean (ko)
Other versions
KR20190093753A (en
Inventor
염광영
김문철
오지형
임호
박지훈
Original Assignee
국방과학연구소
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방과학연구소 filed Critical 국방과학연구소
Priority to KR1020180003548A priority Critical patent/KR102075745B1/en
Publication of KR20190093753A publication Critical patent/KR20190093753A/en
Application granted granted Critical
Publication of KR102075745B1 publication Critical patent/KR102075745B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • G01S13/90Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
    • G01S13/904SAR modes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/68Radar-tracking systems; Analogous systems for angle tracking only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Abstract

본 발명은 방위각 추정 기술에 관한 것으로, 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계; 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계; 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함할 수 있다.The present invention relates to an azimuth estimation technique, comprising discretizing an angular range into uniform sections and assigning an index to each discretized section; Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target; Generating an azimuth estimation model by learning the image of the learning target and the correct answer label; Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And estimating an azimuth angle of the target based on the probability value.

Description

방위각 추정 장치 및 방법 {METHOD AND APPARATUS FOR ESTIMATING TARGET POSE}Azimuth estimation device and method {METHOD AND APPARATUS FOR ESTIMATING TARGET POSE}

본 발명은 방위각 추정 장치 및 방법에 관한 것이다.The present invention relates to an azimuth estimation device and method.

표적에 대한 방위각 추정은 표적 식별을 위한 전처리 과정에 주로 사용되고 있다. 기존의 표적 방위각 추정 기법은 사각형 박스 덮어씌우기, 라돈 변환, CWF 변환과 같이 사람이 인위적으로 추출한 특징값을 이용하였다.Azimuth estimation for targets is mainly used in preprocessing for target identification. Conventional target azimuth estimation techniques use human-derived feature values such as square box overlay, radon transform, and CWF transform.

이와 같이 인위적으로 추출한 특징값들은 최적의 특징이 아니기 때문에, 방위각 추정 알고리즘들의 성능에 한계가 있다.Since the artificially extracted feature values are not optimal features, performance of azimuth estimation algorithms is limited.

한국등록특허 제10-1758064호 (2017.07.10 등록)Korea Patent Registration No. 10-1758064 (2017.07.10 registration)

본 발명의 실시예에서는 심층 학습(deep-learning) 기반의 표적 방위각 추정 기술을 제안하고자 한다.An embodiment of the present invention proposes a target azimuth estimation technique based on deep-learning.

구체적으로, 본 발명의 실시예에서는 SAR(Synthetic Aperture Radar)로부터 획득된 임의의 표적의 영상에 대해 심층 학습 모델을 적용하여 보다 정확하게 표적의 방위각을 추정할 수 있는 기술을 제안하고자 한다.Specifically, an embodiment of the present invention proposes a technique for more accurately estimating the azimuth of a target by applying an in-depth learning model to an image of an arbitrary target obtained from a synthetic aperture radar (SAR).

본 발명이 해결하고자 하는 과제는 상기에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재들로부터 본 발명이 속하는 통상의 지식을 가진 자에 의해 명확하게 이해될 수 있을 것이다.The problem to be solved by the present invention is not limited to the above-mentioned, another problem to be solved is not mentioned can be clearly understood by those skilled in the art from the following description. will be.

본 발명의 실시예에 따르면, 각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계; 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계; 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 단계를 포함하는 방위각 추정 장치의 방위각 추정 방법을 제공할 수 있다.According to an embodiment of the present invention, discretizing the angular range into uniform sections, and assigning an index to each discretized section; Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target; Generating an azimuth estimation model by learning the image of the learning target and the correct answer label; Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And estimating an azimuth angle of the target based on the probability value.

여기서, 상기 방위각을 추정하는 단계는, 상기 확률 값과 상기 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정할 수 있다.In the estimating of the azimuth, the azimuth of the target may be estimated by obtaining a weighted vector sum of the probability value and the intermediate angle value of the section corresponding to the index.

또한, 상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합일 수 있다.The weight vector sum may be a weight vector sum of at least three probability values.

또한, 상기 각도 범위는, 0° 내지 180°일 수 있다.In addition, the angle range may be 0 ° to 180 °.

또한, 상기 방위각을 추정하는 단계는, 가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정할 수 있다.In addition, estimating the azimuth angle may determine a median value of a section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.

본 발명의 실시예에 따르면, 균일한 구간으로 이산화된 각도 범위의 각각의 구간에 인덱스를 부여하고, 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 데이터 변환부; 상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 학습 모델부; 및 임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하고, 상기 확률 값을 기초로 상기 임의의 표적의 방위각을 추정하는 방위각 추정부를 포함하는 방위각 추정 장치를 제공할 수 있다.According to an embodiment of the present invention, a data conversion is performed by assigning an index to each section of the discretized angular range into uniform sections and setting the index of the section to which the azimuth of the learning target belongs among the indexes as the correct answer label of the learning target. part; A learning model unit learning an image of the learning target and the correct answer label to generate an azimuth estimation model; And an azimuth angle estimator configured to apply the azimuth estimation model to an image of an arbitrary target, obtain a probability value for each index for the arbitrary target, and estimate an azimuth of the arbitrary target based on the probability value. An estimation apparatus can be provided.

여기서, 상기 방위각 추정부는, 상기 확률 값과 상기 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정할 수 있다.Here, the azimuth estimator may estimate the azimuth of the target by obtaining a weighted vector sum of the intermediate angle values of the probability and the interval corresponding to the index.

또한, 상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합일 수 있다.The weight vector sum may be a weight vector sum of at least three probability values.

또한, 상기 각도 범위는, 0° 내지 180°일 수 있다.In addition, the angle range may be 0 ° to 180 °.

또한, 상기 방위각 추정부는, 가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정할 수 있다.The azimuth estimator may determine an intermediate value of a section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.

또한, 상기 학습 모델부는, 심층 학습(deep-learning) 모델부를 포함할 수 있다.In addition, the learning model unit may include a deep-learning model unit.

또한, 상기 심층 학습 모델부는, 컨벌루션 층(convolution layer), 최대 풀링 층(max-pooling layer), 완전 연결 층(fully-connected layer), 출력 층(output layer)을 포함할 수 있다.In addition, the deep learning model unit may include a convolutional layer, a max-pooling layer, a fully-connected layer, and an output layer.

또한, 상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함할 수 있다.In addition, the image of the learning target and the image of the arbitrary target may include a SAR (Synthetic Aperture Radar) image.

본 발명의 실시예에 의하면, 심층 학습 모델을 활용하여 높은 정확도의 이산화가 가능하고, 표적에 대한 연속적인 방위각 추정이 가능하다. 또한, 높은 정확도의 표적 방위각 추정을 통해 SAR 영상의 표적을 식별함에 있어 고속 처리가 가능하다. 또한, 표적이 향하는 방향 정보 추출을 통해 표적에 대한 위협 정보를 용이하게 획득할 수 있다.According to an embodiment of the present invention, it is possible to discretize with high accuracy by using an in-depth learning model, and to continuously estimate azimuth angles to a target. In addition, high-speed target azimuth estimation enables high-speed processing in identifying targets of SAR images. In addition, it is possible to easily obtain threat information on the target by extracting the direction information headed to the target.

도 1은 본 발명의 실시예에 따른 방위각 추정 장치에 대한 블록도이다.
도 2는 본 발명의 실시예에 따른 방위각 추정을 위한 각도 범위, 인덱스 및 확률 값을 테이블화한 표이다.
도 3은 도 1의 방위각 추정 장치에 적용될 수 있는 학습 모델부의 상세 구성도이다.
도 4는 본 발명의 실시예에 따라 가중 벡터합을 기초로 방위각 추정 대상 표적의 방위각을 추정하는 경우를 예시적으로 설명하는 도면이다.
1 is a block diagram of an azimuth estimation apparatus according to an embodiment of the present invention.
2 is a table listing angle ranges, indices, and probability values for azimuth estimation according to an embodiment of the present invention.
3 is a detailed block diagram of a learning model unit that may be applied to the azimuth estimation apparatus of FIG. 1.
4 is a diagram illustrating a case of estimating an azimuth of an azimuth target to be estimated based on a weighted vector sum according to an embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.Advantages and features of the present invention, and methods for achieving them will be apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but can be implemented in various forms, only the embodiments are to make the disclosure of the present invention complete, and those skilled in the art to which the present invention belongs It is provided to fully inform the scope of the invention, and the scope of the invention is defined only by the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 본 발명의 실시예들을 설명함에 있어 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing the embodiments of the present invention, detailed descriptions of well-known functions or constructions will be omitted except when actually necessary in describing the embodiments of the present invention. In addition, terms to be described below are terms defined in consideration of functions in the embodiments of the present invention, which may vary according to intentions or customs of users and operators. Therefore, the definition should be made based on the contents throughout the specification.

본 발명의 실시예는, 심층 학습(deep-learning) 기반의 표적 방위각 추정 기술을 제안하고자 하며, 구체적으로 SAR(Synthetic Aperture Radar)로부터 획득된 임의의 표적의 영상에 대해 심층 학습 모델을 적용하여 보다 정확하게 표적의 방위각을 추정할 수 있는 기술을 제안하고자 한다.An embodiment of the present invention is to propose a deep-learning-based target azimuth estimation technique, and more specifically by applying a deep learning model to an image of any target obtained from a synthetic aperture radar (SAR). We propose a technique that can accurately estimate the azimuth of a target.

이하, 첨부된 도면을 참조하여 본 발명의 실시예에 대해 상세히 설명하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 1은 본 발명의 실시예에 따른 방위각 추정 장치(10)에 대한 블록도이다.1 is a block diagram of an azimuth estimating apparatus 10 according to an embodiment of the present invention.

도 1에 도시된 바와 같이, 방위각 추정 장치(10)는 데이터 변환부(100), 학습 모델부(200) 및 방위각 추정부(300)를 포함할 수 있다.As illustrated in FIG. 1, the azimuth estimator 10 may include a data converter 100, a learning model unit 200, and an azimuth estimator 300.

먼저, 데이터 변환부(100)는 표적의 영상 및 방위각, 예를 들어 SAR로부터 획득된 표적의 영상 및 방위각을 입력 받고, 표적의 영상이 취하는 방위각이 속한 특정 구간의 인덱스를 심층 학습, 예를 들어 컨벌루션 신경망(Convolution Neural Network, CNN)을 이용하는 심층 학습에 적합한 형태로 변환한다.First, the data converter 100 receives an image and azimuth of a target, for example, an image and azimuth of a target obtained from a SAR, and in-depth learn, for example, an index of a specific section to which the azimuth taken by the image of the target belongs. Transform into a form suitable for deep learning using the Convolution Neural Network (CNN).

구체적으로, 데이터 변환부(100)는 각도 범위를 균일한 구간으로 이산화시킬 수 있다. 예를 들어, 도 2에 예시한 바와 같이, 각도 범위(20)를 (0~1], (1~2], (2~3], … (179~180] 등의 균일한 구간으로 이산화시킬 수 있다. 여기서, (0~1]은 0 초과, 1 이하를 의미하며, 실시예에 따라 0°를 포함하도록 각도 범위를 이산화시키는 것도 가능하다.In detail, the data converter 100 may discretize the angular range into uniform sections. For example, as illustrated in FIG. 2, the angular range 20 may be discretized into uniform sections such as (0 to 1), (1 to 2), (2 to 3), ... (179 to 180), and the like. Here, (0 to 1) means more than 0 and less than or equal to 1, and it is also possible to discretize the angular range to include 0 ° in some embodiments.

그리고, 데이터 변환부(100)는 이와 같이 이산화된 각도 범위의 각각의 구간에 인덱스를 부여할 수 있다. 예를 들어, 도 2에 예시한 바와 같이, 각각의 각도 범위(20)에 대해 1~180까지의 인덱스(22)를 부여할 수 있다. 본 발명의 실시예에서는 표적의 방위각의 범위를 0° 내지 180°로 설정하고, 이러한 0° 내지 180° 구간에 대해 180개의 각도 범위(20)와 각각의 인덱스(22)를 부여하였다.The data converter 100 may assign an index to each section of the discretized angular range. For example, as illustrated in FIG. 2, an index 22 of 1 to 180 may be assigned to each angular range 20. In the embodiment of the present invention, the azimuth range of the target is set to 0 ° to 180 °, and 180 angle ranges 20 and respective indices 22 are assigned to the 0 ° to 180 ° sections.

또한, 데이터 변환부(100)는 이렇게 부여된 인덱스 중 입력되는 학습용 표적의 방위각이 속한 구간의 인덱스를 학습용 표적의 정답 레이블로 설정할 수 있다. 예를 들어, 방위각 추정 장치(10)로 입력되는 학습용 표적의 방위각이 0.7°인 경우, 0.7°가 각도 범위(20) 중 (0~1] 구간에 포함되므로, (0~1] 구간에 대응하는 인덱스, 예컨대 인덱스 1을 정답 레이블로 설정할 수 있다.In addition, the data converter 100 may set the index of the section to which the azimuth of the input learning target belongs among the indexes assigned as the correct answer label of the training target. For example, when the azimuth angle of the learning target input to the azimuth estimating apparatus 10 is 0.7 °, 0.7 ° is included in the (0-1) section of the angle range 20, and thus corresponds to the (0-1) section. An index, for example, index 1, may be set as an answer label.

학습 모델부(200)는 이러한 정답 레이블과 함께, 방위각 추정 장치(10)로 입력되는 표적의 영상을 학습하여 방위각 추정 모델을 생성할 수 있다. 이때, 방위각 추정 장치(10)로 입력되는 표적의 영상은, 예를 들어 방위각 추정 모델의 학습을 위한 학습용 표적의 영상일 수 있다. 학습용 표적의 영상은 SAR로부터 획득되는 표적의 영상, 예를 들어 일정한 자세(pose)를 취하는 전차의 영상일 수 있으며, 정답 레이블은 해당 영상의 방위각이 0.7°인 경우의 인덱스 1일 수 있다. 따라서, 학습 모델부(200)는 학습용 표적의 영상과 이에 대응하는 정답 레이블을 반복적으로 학습하여 방위각 추정 모델을 생성할 수 있다.The learning model unit 200 may generate an azimuth estimation model by learning an image of a target input to the azimuth estimating apparatus 10 together with the correct answer label. In this case, the image of the target input to the azimuth estimation apparatus 10 may be, for example, an image of a learning target for learning the azimuth estimation model. The image of the learning target may be an image of a target obtained from a SAR, for example, an image of a vehicle taking a certain pose, and the correct answer label may be index 1 when the azimuth angle of the corresponding image is 0.7 °. Therefore, the learning model unit 200 may generate an azimuth estimation model by repeatedly learning the image of the learning target and the correct answer label corresponding thereto.

이러한 학습 모델부(200)는 이러한 방위각 추정 모델을 이용하여 임의의 표적의 영상, 예컨대 방위각 추정 대상 표적의 영상이 입력될 때 도 2에 예시한 바와 같은 확률 값(24)을 산출할 수 있다.The learning model unit 200 may calculate a probability value 24 as illustrated in FIG. 2 when an image of an arbitrary target, such as an image of an azimuth estimation target target, is input using the azimuth estimation model.

도 3은 이러한 학습 모델부(200)를 예시적으로 나타낸 도면이다.3 exemplarily illustrates the learning model unit 200.

도 3에 도시한 바와 같이, 본 발명의 실시예에 따른 학습 모델부(200)는, 심층 학습 모델, 예를 들어 컨벌루션 신경망(Convolutional Neural Network) 학습 모델이 적용될 수 있으며, 컨벌루션 층(convolution layer)(202), 최대 풀링 층(max-pooling layer)(204), 완전 연결 층(fully-connected layer)(206) 및 출력 층(output layer)(208)을 포함할 수 있다.As shown in FIG. 3, in the learning model unit 200 according to an embodiment of the present invention, an in-depth learning model, for example, a convolutional neural network learning model may be applied, and a convolution layer 202, a max-pooling layer 204, a fully-connected layer 206, and an output layer 208.

학습 모델부(200)에서 이루어지는 훈련 과정은 컨벌루션 층(202)의 필터에 존재하는 가중치(weight) 및 바이어스(bias) 값과 완전 연결 층(206)에 존재하는 가중치 및 바이어스 값을 훈련하는 과정을 포함할 수 있다.The training process performed by the learning model unit 200 includes a process of training weight and bias values present in the filter of the convolutional layer 202 and weight and bias values present in the fully connected layer 206. It may include.

본 발명의 실시예에 사용되는 컨벌루션 층(202)은, 예를 들어 1차원 컨벌루션 층이며, 컨벌루션 필터를 사용하여 입력 값에 대한 컨벌루션을 수행하고, 컨벌루션 값을 출력하는 역할을 한다.The convolutional layer 202 used in the embodiment of the present invention is, for example, a one-dimensional convolutional layer, and performs a convolution of an input value using a convolution filter and outputs a convolution value.

컨벌루션 층(202)에 의해 출력된 컨벌루션 값에 대하여, 최대 풀링 층(204)에서는 설정된 창(window)의 범위 내에서 최대치를 풀링하여 입력 값의 차원을 축소시킬 수 있다. 여기서, 입력 값의 정보 손실을 최소화하기 위해 창의 크기는 1x2로 설정하고, 컨벌루션 값에서 2칸씩 이동하면서 최대 값을 추출하도록 설정할 수 있다.With respect to the convolution value output by the convolution layer 202, the maximum pooling layer 204 may reduce the dimension of the input value by pooling the maximum value within a range of the set window. Here, in order to minimize the loss of information of the input value, the window size may be set to 1 × 2, and the maximum value may be extracted while moving by 2 spaces from the convolution value.

최대 풀링 층(204)에서 풀링 값은 256개의 노드를 갖는 완전 연결 층(206)에 입력될 수 있다. 완전 연결 층(206)은 입력된 풀링 값에 대하여 최대 풀링 층(204)과 완전 연결 층(206) 사이의 가중치 및 바이어스 값과 연산하여 256개의 특징 값을 산출하고, 이를 완전 연결 층(206)과 출력 층(208) 사이의 가중치 및 바이어스 값과 연산하여 4차원의 출력 값을 산출할 수 있다.The pooling value at the maximum pooling layer 204 can be entered into a fully connected layer 206 with 256 nodes. The fully connected layer 206 calculates 256 feature values by calculating the weighted and bias values between the maximum pooled layer 204 and the fully connected layer 206 with respect to the input pooling values, which are then fully linked layer 206. And the weight and bias values between the output layer 208 and the four-dimensional output value can be calculated.

출력 층(208)은 최대 풀링 층(204)과 완전 연결 층(206) 사이의 가중치 및 바이어스를 학습시킨 결과를 n 차원의 확률 값(24)으로 출력할 수 있다. 예를 들어, 도 2에 도시한 바와 같이, 확률 값(24)은 [0.2 0.4 0.1 … 0.01]와 같이 총 합이 1인 180 차원의 확률 값을 갖는 확률 분포로 표현될 수 있다. 이러한 총 합이 1인 n 차원 확률 값은, 예를 들어 소프트맥스(softmax) 기법을 로직 함수(logistic function)로 사용하여 출력된 값일 수 있다.The output layer 208 can output the result of learning the weights and biases between the maximum pooling layer 204 and the fully connected layer 206 as n-dimensional probability values 24. For example, as shown in FIG. 2, the probability value 24 is [0.2 0.4 0.1... 0.01] may be expressed as a probability distribution having a probability value of 180 dimensions with a total sum of 1. The n-dimensional probability value of which the total sum is 1 may be, for example, a value output using a softmax technique as a logistic function.

한편, 본 발명의 실시예에서는 방위각 추정 모델의 출력 값과 미리 정의된 정답 레이블에 관한 정보 값 사이의 오차로 인해 나타나는 비용 함수(cost function)의 수치를 최소화하기 위해, 예를 들어 역전파(back propagation) 기법을 이용하는 지도 학습(supervised learning)을 이용할 수 있으며, 이는 학습 모델부(200) 내의 완전 연결 층(206)과 각 층 사이의 가중치 및 바이어스, 컨벌루션 층(202)의 10개의 필터에 부여된 가중치 및 바이어스 값을 훈련하게 된다.Meanwhile, in the embodiment of the present invention, in order to minimize the value of the cost function that appears due to an error between the output value of the azimuth estimation model and the information value about a predefined correct answer label, for example, back Supervised learning using a propagation technique can be used, which is applied to the ten filters of the convolutional layer 202 and the weights and biases between each layer and the fully connected layer 206 in the learning model unit 200. Trained weight and bias values.

또한, 본 발명의 실시예에 적용되는 학습 모델부(200)는, 예를 들어 Tensorflow 또는 Theano를 백엔드(backend)로 사용하는 파이썬 툴킷(python toolkit)인 Keras가 사용될 수 있다.In addition, the model learning unit 200 is applied to the embodiment of the present invention may be, for example, is used in Keras Python toolkit (python toolkit) using the Tensorflow Theano or to the back end (backend).

도 1의 방위각 추정부(300)는 이러한 학습 모델부(200)로부터 출력되는 확률 값을 획득하여 방위각 추정 대상 표적의 방위각을 추정할 수 있다.The azimuth estimator 300 of FIG. 1 may estimate the azimuth of an azimuth estimation target by obtaining a probability value output from the learning model unit 200.

구체적으로, 방위각 추정부(300)는 방위각 추정 대상 표적의 영상에 방위각 추정 모델을 적용하여 획득된 방위각 추정 대상 표적에 대한 인덱스별 확률 값을 획득하고, 이러한 확률 값을 기초로 방위각 추정 대상 표적의 방위각을 추정할 수 있다.Specifically, the azimuth estimator 300 obtains a probability value for each index of the azimuth estimation target target obtained by applying an azimuth estimation model to an image of the azimuth estimation target target, and based on the probability value, Azimuth can be estimated.

예를 들어, 방위각 추정부(300)는 학습 모델부(200)에서 출력된 n 차원 출력 값이 [0.2 0.4 0.1 … 0.01]의 확률 분포를 가질 경우, 해당 확률에서 최대 확률 값은 0.4이므로, 0.4의 확률 값에 대응하는 구간의 각도 범위인 (1~2] 구간의 중간 각도 값, 예컨대 1.5°를 방위각 추정 대상 표적의 방위각으로 추정할 수 있다.For example, the azimuth estimator 300 has an n-dimensional output value output from the training model unit 200 at [0.2 0.4 0.1. 0.01], the maximum probability value of the corresponding probability is 0.4, so the median angle value of the section (1-2), which is the angular range of the section corresponding to the probability value of 0.4, for example, 1.5 ° It can be estimated by the azimuth angle of.

아래 [표 1]은 본 발명의 실시예에 따라 방위각 추정 대상 표적의 방위각을 추정한 결과를 시뮬레이션 한 결과를 예시한 것이다.Table 1 below illustrates the results of simulating the results of estimating the azimuth angle of the azimuth estimation target target according to an embodiment of the present invention.

표적Target 1One 22 33 44 55 66 77 88 99 1010 오차평균Error mean 1.0081.008 1.0191.019 1.1331.133 1.1551.155 0.9570.957 1.0941.094 1.4811.481 0.8130.813 0.9580.958 1.1821.182 표준편차Standard Deviation 1.3701.370 1.2461.246 1.3801.380 1.5211.521 1.1951.195 1.3801.380 1.8881.888 1.1431.143 1.1711.171 1.4521.452 오차>10Error> 10 00 00 00 00 00 00 00 00 00 00 오차>20Error> 20 00 00 00 00 00 00 00 00 00 00

총 10개의 표적을 대상으로 하였으며, 10° 이상 차이가 발생하는 결과는 없음을 확인할 수 있다.A total of 10 targets were targeted, and no difference of more than 10 ° can be confirmed.

한편, 본 발명의 실시예에서는, 학습 모델부(200)를 통해 출력되는 확률 값과, 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하고, 이러한 가중 벡터합을 기초로 방위각 추정 대상 표적의 방위각을 추정할 수 있다.Meanwhile, in the exemplary embodiment of the present invention, the weighted vector sum of the probability value output through the training model unit 200 and the intermediate angle value of the section corresponding to the index is obtained, and the azimuth estimation target is based on the weighted vector sum. The azimuth angle of can be estimated.

예컨대, 도 4에 도시한 바와 같이, 3개의 확률 값(P1, P2, P3)에 대한 가중 벡터합(P)을 구하고, 이러한 가중 벡터합(P)을 방위각 추정 대상 표적의 최종 방위각으로 추정할 수 있다.For example, as shown in FIG. 4, a weighted vector sum P of three probability values P1, P2, and P3 is obtained, and the weighted vector sum P is estimated as the final azimuth of the target to be azimuth estimated. Can be.

가중 벡터합(P)은 하나의 연속된 방위각(θ)을 가질 수 있으며, 이는 다음 [수학식 1]과 같이 표현될 수 있다.The weighted vector sum P may have one continuous azimuth angle θ, which may be expressed as Equation 1 below.

Figure 112018003240798-pat00001
Figure 112018003240798-pat00001

여기서, Pi는 인덱스 i에 대한 확률 값이고, θi는 인덱스 i에 해당하는 각도 구간의 중간 값이다. N은, 예를 들어 3일 수 있으며, 이때의 i는 확률 값이 가장 높은 3개의 인덱스일 수 있다.Here, P i is a probability value for the index i, and θ i is an intermediate value of the angular section corresponding to the index i. N may be, for example, 3, where i may be three indexes having the highest probability values.

아래 [표 2]는 본 발명의 실시예에 따라 확률 값과 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 방위각 추정 대상 표적의 방위각을 추정한 결과를 시뮬레이션 한 결과를 예시한 것이다.Table 2 below illustrates a result of simulating the result of estimating the azimuth angle of the target to estimate the azimuth by obtaining the weighted vector sum of the intermediate angle values of the sections corresponding to the probability value and the index according to the embodiment of the present invention.

표적Target 1One 22 33 44 55 66 77 88 99 1010 오차평균Error mean 1.0281.028 1.0151.015 1.1081.108 1.1671.167 0.9250.925 1.0211.021 1.4531.453 0.8350.835 0.9170.917 1.1291.129 표준편차Standard Deviation 1.3231.323 1.2341.234 1.3881.388 1.5251.525 1.1921.192 1.3041.304 1.8791.879 1.1791.179 1.1241.124 1.3801.380 오차>10Error> 10 00 00 00 00 00 00 00 00 00 00 오차>20Error> 20 00 00 00 00 00 00 00 00 00 00

[표 1]의 시뮬레이션 결과 마찬가지로, 총 10개의 표적을 대상으로 하였으며, 10° 이상 차이가 발생하는 결과는 없음을 확인할 수 있었다.As a result of the simulation of [Table 1], a total of 10 targets were targeted, and it was confirmed that there was no difference of more than 10 °.

특히, [표 2]와 같이 가중 벡터합(P)을 구하여 방위각을 추정한 경우에는, [표 1]의 시뮬레이션 결과와 비교하여 더 높은 방위각 추정 결과를 얻을 수 있었다.In particular, when the azimuth angle was estimated by obtaining the weighted vector sum P as shown in [Table 2], a higher azimuth angle estimation result was obtained compared with the simulation results of [Table 1].

이상 설명한 바와 같이, 본 발명의 실시예에 의하면, 심층 학습 모델을 활용하여 높은 정확도의 이산화가 가능하고, 표적에 대한 연속적인 방위각 추정이 가능하도록 구현하였다. 또한, 높은 정확도의 표적 방위각 추정을 통해 SAR 영상의 표적을 식별함에 있어 고속 처리가 가능하며, 표적이 향하는 방향 정보 추출을 통해 표적에 대한 위협 정보를 용이하게 획득할 수 있도록 구현하였다.As described above, according to the embodiment of the present invention, the deep learning model is implemented to enable high accuracy discretization and to enable continuous azimuth estimation of a target. In addition, high-precision target azimuth estimation enables high-speed processing to identify targets in SAR images, and it is possible to easily acquire threat information about targets by extracting direction information directed to the target.

한편, 첨부된 블록도의 각 블록과 흐름도의 각 단계의 조합들은 컴퓨터 프로그램 인스트럭션들에 의해 수행될 수도 있다. 이들 컴퓨터 프로그램 인스트럭션들은 범용 컴퓨터, 특수용 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서에 탑재될 수 있으므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비의 프로세서를 통해 수행되는 그 인스트럭션들이 블록도의 각 블록에서 설명된 기능들을 수행하는 수단을 생성하게 된다.On the other hand, the combination of each block in the accompanying block diagram and each step in the flowchart may be performed by computer program instructions. These computer program instructions may be mounted on a processor of a general purpose computer, special purpose computer, or other programmable data processing equipment such that the instructions executed by the processor of the computer or other programmable data processing equipment are described in each block of the block diagram. It will create means to perform the functions.

이들 컴퓨터 프로그램 인스트럭션들은 특정 방식으로 기능을 구현하기 위해 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 지향할 수 있는 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체(또는 메모리) 등에 저장되는 것도 가능하므로, 그 컴퓨터 이용 가능 또는 컴퓨터 판독 가능 기록매체(또는 메모리)에 저장된 인스트럭션들은 블록도의 각 블록에서 설명된 기능을 수행하는 인스트럭션 수단을 내포하는 제조 품목을 생산하는 것도 가능하다.These computer program instructions may be stored on a computer usable or computer readable recording medium (or memory) or the like that may be directed to a computer or other programmable data processing equipment to implement functionality in a particular manner. Alternatively, instructions stored on a computer readable recording medium (or memory) may produce an article of manufacture containing instruction means for performing the functions described in each block of the block diagram.

그리고, 컴퓨터 프로그램 인스트럭션들은 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에 탑재되는 것도 가능하므로, 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비 상에서 일련의 동작 단계들이 수행되어 컴퓨터로 실행되는 프로세스를 생성해서 컴퓨터 또는 기타 프로그램 가능한 데이터 프로세싱 장비를 수행하는 인스트럭션들은 블록도의 각 블록에서 설명된 기능들을 실행하기 위한 단계들을 제공하는 것도 가능하다. In addition, computer program instructions may be mounted on a computer or other programmable data processing equipment, such that a series of operating steps may be performed on the computer or other programmable data processing equipment to create a computer-implemented process to generate a computer or other program. Instructions that perform possible data processing equipment may also provide steps for performing the functions described in each block of the block diagram.

또한, 각 블록은 특정된 논리적 기능(들)을 실행하기 위한 적어도 하나 이상의 실행 가능한 인스트럭션들을 포함하는 모듈, 세그먼트 또는 코드의 일부를 나타낼 수 있다. 또, 몇 가지 대체 실시 예들에서는 블록들에서 언급된 기능들이 순서를 벗어나서 발생하는 것도 가능함을 주목해야 한다. 예컨대, 잇달아 도시되어 있는 두 개의 블록들은 사실 실질적으로 동시에 수행되는 것도 가능하고 또는 그 블록들이 때때로 해당하는 기능에 따라 역순으로 수행되는 것도 가능하다.In addition, each block may represent a portion of a module, segment, or code that includes at least one or more executable instructions for executing a specified logical function (s). It should also be noted that in some alternative embodiments, the functions noted in the blocks may occur out of order. For example, the two blocks shown in succession may in fact be executed substantially concurrently, or the blocks may sometimes be executed in the reverse order, depending on the corresponding function.

10: 방위각 추정 장치
100: 데이터 변환부
200: 학습 모델부
300: 방위각 추정부
10: azimuth estimation device
100: data conversion unit
200: learning model unit
300: azimuth estimator

Claims (15)

각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계;
상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 단계를 포함하고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
방위각 추정 장치의 방위각 추정 방법.
Discretizing the angular range into even intervals and assigning an index to each of the discretized intervals;
Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target;
Generating an azimuth estimation model by learning the image of the learning target and the correct answer label;
Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And
Estimating an azimuth angle measured based on a north point in the spherical coordinate system of the arbitrary target based on the probability value,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Azimuth estimation method of azimuth estimation device.
제 1 항에 있어서,
상기 방위각을 추정하는 단계는,
상기 확률 값과 상기 인덱스에 대응되는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정하는
방위각 추정 장치의 방위각 추정 방법.
The method of claim 1,
Estimating the azimuth angle,
Estimating the azimuth angle of the target by obtaining a weighted vector sum of the intermediate angle values of the intervals corresponding to the probability value and the index;
Azimuth estimation method of azimuth estimation device.
제 2 항에 있어서,
상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합인
방위각 추정 장치의 방위각 추정 방법.
The method of claim 2,
The weighted vector sum is a weighted vector sum of at least three probability values.
Azimuth estimation method of azimuth estimation device.
제 1 항에 있어서,
상기 각도 범위는, 0° 내지 180°인
방위각 추정 장치의 방위각 추정 방법.
The method of claim 1,
The angle range is 0 ° to 180 °
Azimuth estimation method of azimuth estimation device.
제 1 항에 있어서,
상기 방위각을 추정하는 단계는,
가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정하는
방위각 추정 장치의 방위각 추정 방법.
The method of claim 1,
Estimating the azimuth angle,
Determining the median value of the section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.
Azimuth estimation method of azimuth estimation device.
각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계;
상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 단계를 수행하는 명령어를 포함하는 프로그램이 기록되고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
컴퓨터 판독 가능 기록 매체.
Discretizing the angular range into even intervals and assigning an index to each of the discretized intervals;
Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target;
Generating an azimuth estimation model by learning the image of the learning target and the correct answer label;
Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And
A program is recorded that includes instructions for estimating an azimuth angle measured based on a north point in the spherical coordinate system of the arbitrary target based on the probability value,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Computer-readable recording media.
각도 범위를 균일한 구간으로 이산화시키고, 상기 이산화된 각각의 구간에 인덱스를 부여하는 단계;
상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 단계;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 단계;
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하는 단계; 및
상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 단계를 수행하고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
컴퓨터 판독 가능 기록 매체에 저장된 컴퓨터 프로그램.
Discretizing the angular range into even intervals and assigning an index to each of the discretized intervals;
Setting an index of a section to which an azimuth of a learning target belongs among the indexes as a correct answer label of the learning target;
Generating an azimuth estimation model by learning the image of the learning target and the correct answer label;
Applying the azimuth estimation model to an image of an arbitrary target to obtain the index-specific probability value for the arbitrary target; And
Estimating an azimuth angle measured based on a north point in the spherical coordinate system of the arbitrary target based on the probability value,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Computer program stored on a computer readable recording medium.
균일한 구간으로 이산화된 각도 범위의 각각의 구간에 인덱스를 부여하고, 상기 인덱스 중 학습용 표적의 방위각이 속한 구간의 인덱스를 상기 학습용 표적의 정답 레이블로 설정하는 데이터 변환부;
상기 학습용 표적의 영상 및 상기 정답 레이블을 학습하여 방위각 추정 모델을 생성하는 학습 모델부; 및
임의의 표적의 영상에 상기 방위각 추정 모델을 적용하여 상기 임의의 표적에 대한 상기 인덱스별 확률 값을 획득하고, 상기 확률 값을 기초로 상기 임의의 표적의 구면 좌표계에서의 북점을 기준으로 측정되는 방위각을 추정하는 방위각 추정부를 포함하고,
상기 학습용 표적의 영상 및 상기 임의의 표적의 영상은, SAR(Synthetic Aperture Radar) 영상을 포함하는
방위각 추정 장치.
A data converter configured to assign an index to each section of the angular range discretized into uniform sections, and to set an index of a section to which the azimuth of the learning target belongs among the indexes as a correct answer label of the learning target;
A learning model unit learning an image of the learning target and the correct answer label to generate an azimuth estimation model; And
Applying the azimuth estimation model to an image of an arbitrary target to obtain a probability value for each index for the arbitrary target, and based on the probability value, the azimuth measured based on the north point in the spherical coordinate system of the arbitrary target Including azimuth estimator for estimating,
The image of the learning target and the image of the arbitrary target, including a SAR (Synthetic Aperture Radar) image
Azimuth estimation device.
제 8 항에 있어서,
상기 방위각 추정부는,
상기 확률 값과 상기 인덱스에 대응하는 구간의 중간 각도 값의 가중 벡터합을 구하여 상기 임의의 표적의 방위각을 추정하는
방위각 추정 장치.
The method of claim 8,
The azimuth estimator,
Estimating the azimuth angle of the target by obtaining a weighted vector sum of the intermediate angle values of the intervals corresponding to the probability value and the index;
Azimuth estimation device.
제 9 항에 있어서,
상기 가중 벡터합은, 적어도 3개의 확률 값에 대한 가중 벡터합인
방위각 추정 장치.
The method of claim 9,
The weighted vector sum is a weighted vector sum of at least three probability values.
Azimuth estimation device.
제 8 항에 있어서,
상기 각도 범위는, 0° 내지 180°인
방위각 추정 장치.
The method of claim 8,
The angle range is 0 ° to 180 °
Azimuth estimation device.
제 8 항에 있어서,
상기 방위각 추정부는,
가장 높은 확률 값을 갖는 인덱스가 속한 구간의 중간 값을 상기 임의의 표적의 방위각으로 결정하는
방위각 추정 장치.
The method of claim 8,
The azimuth estimator,
Determining the median value of the section to which the index having the highest probability value belongs as the azimuth of the arbitrary target.
Azimuth estimation device.
제 8 항에 있어서,
상기 학습 모델부는, 심층 학습(deep-learning) 모델부를 포함하는
방위각 추정 장치.
The method of claim 8,
The learning model unit includes a deep-learning model unit.
Azimuth estimation device.
제 13 항에 있어서,
상기 심층 학습 모델부는, 컨벌루션 층(convolution layer), 최대 풀링 층(max-pooling layer), 완전 연결 층(fully-connected layer), 출력 층(output layer)을 포함하는
방위각 추정 장치.
The method of claim 13,
The deep learning model unit includes a convolutional layer, a max-pooling layer, a fully-connected layer, and an output layer.
Azimuth estimation device.
삭제delete
KR1020180003548A 2018-01-10 2018-01-10 Method and apparatus for estimating target pose KR102075745B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180003548A KR102075745B1 (en) 2018-01-10 2018-01-10 Method and apparatus for estimating target pose

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180003548A KR102075745B1 (en) 2018-01-10 2018-01-10 Method and apparatus for estimating target pose

Publications (2)

Publication Number Publication Date
KR20190093753A KR20190093753A (en) 2019-08-12
KR102075745B1 true KR102075745B1 (en) 2020-02-10

Family

ID=67624768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180003548A KR102075745B1 (en) 2018-01-10 2018-01-10 Method and apparatus for estimating target pose

Country Status (1)

Country Link
KR (1) KR102075745B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102459595B1 (en) * 2020-11-24 2022-10-28 한밭대학교 산학협력단 System and method for detecting multiple target based on convolutional neural network

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7015855B1 (en) * 2004-08-12 2006-03-21 Lockheed Martin Corporation Creating and identifying synthetic aperture radar images having tilt angle diversity
CN103177269B (en) * 2011-12-23 2017-12-15 北京三星通信技术研究有限公司 For estimating the apparatus and method of object gesture
KR101758064B1 (en) 2013-06-05 2017-07-14 삼성전자주식회사 Estimator learning method and pose estimation mehtod using a depth image
KR102330322B1 (en) * 2014-09-16 2021-11-24 삼성전자주식회사 Method and apparatus for extracting image feature
KR102288280B1 (en) * 2014-11-05 2021-08-10 삼성전자주식회사 Device and method to generate image using image learning model

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Chen, Sizhe 외 3명. Target classification using the deep convolutional networks for SAR images. IEEE Transactions on Geoscience and Remote Sensing. 2016., Pages 4806-4817.*
Nakajima, Yoshikatsu 외 1명. Robust camera pose estimation by viewpoint classification using deep learning. Computational Visual Media. 2017., Pages 189-198.*

Also Published As

Publication number Publication date
KR20190093753A (en) 2019-08-12

Similar Documents

Publication Publication Date Title
Yu et al. Underwater-GAN: Underwater image restoration via conditional generative adversarial network
CN107481292B (en) Attitude error estimation method and device for vehicle-mounted camera
CN111079780B (en) Training method for space diagram convolution network, electronic equipment and storage medium
CN111126134B (en) Radar radiation source deep learning identification method based on non-fingerprint signal eliminator
JP7263216B2 (en) Object Shape Regression Using Wasserstein Distance
CN111127364B (en) Image data enhancement strategy selection method and face recognition image data enhancement method
Banharnsakun et al. Object detection based on template matching through use of best-so-far ABC
CN110443849B (en) Target positioning method for double-current convolution neural network regression learning based on depth image
CN110276801B (en) Object positioning method and device and storage medium
Sun et al. Virtualisation and automation of curved shell plates’ manufacturing plan design process for knowledge elicitation
WO2022222647A1 (en) Method and apparatus for predicting vehicle intention, device, and storage medium
CN110503148B (en) Point cloud object identification method with scale invariance
CN116188543A (en) Point cloud registration method and system based on deep learning unsupervised
KR102075745B1 (en) Method and apparatus for estimating target pose
CN114419877B (en) Vehicle track prediction data processing method and device based on road characteristics
CN115272433A (en) Light-weight point cloud registration method and system for automatic obstacle avoidance of unmanned aerial vehicle
CN113159082B (en) Incremental learning target detection network model construction and weight updating method
Liu et al. Multi-focus image fusion algorithm based on unsupervised deep learning
Almanza-Medina et al. Motion estimation of an underwater platform using images from two sonar sensors
CN114387498A (en) Target detection method and device, electronic equipment and storage medium
CN108830860B (en) Binocular image target segmentation method and device based on RGB-D constraint
CN111833395A (en) Direction-finding system single target positioning method and device based on neural network model
CN110647917A (en) Model multiplexing method and system
CN110705695A (en) Method, device, equipment and storage medium for searching model structure
CN117372536A (en) Laser radar and camera calibration method, system, equipment and storage medium

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant