KR20180085300A - Apparatus for calculating target information, method thereof and flight control system comprising the same - Google Patents

Apparatus for calculating target information, method thereof and flight control system comprising the same Download PDF

Info

Publication number
KR20180085300A
KR20180085300A KR1020170008842A KR20170008842A KR20180085300A KR 20180085300 A KR20180085300 A KR 20180085300A KR 1020170008842 A KR1020170008842 A KR 1020170008842A KR 20170008842 A KR20170008842 A KR 20170008842A KR 20180085300 A KR20180085300 A KR 20180085300A
Authority
KR
South Korea
Prior art keywords
target
quot
angle
point
time
Prior art date
Application number
KR1020170008842A
Other languages
Korean (ko)
Other versions
KR101957662B1 (en
Inventor
정윤식
김진환
Original Assignee
국방기술품질원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 국방기술품질원 filed Critical 국방기술품질원
Priority to KR1020170008842A priority Critical patent/KR101957662B1/en
Publication of KR20180085300A publication Critical patent/KR20180085300A/en
Application granted granted Critical
Publication of KR101957662B1 publication Critical patent/KR101957662B1/en

Links

Images

Classifications

    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/30Command link guidance systems
    • F41G7/301Details
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G7/00Direction control systems for self-propelled missiles
    • F41G7/20Direction control systems for self-propelled missiles based on continuous observation of target position
    • F41G7/22Homing guidance systems
    • F41G7/2253Passive homing systems, i.e. comprising a receiver and do not requiring an active illumination of the target
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F41WEAPONS
    • F41GWEAPON SIGHTS; AIMING
    • F41G9/00Systems for controlling missiles or projectiles, not provided for elsewhere
    • FMECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
    • F42AMMUNITION; BLASTING
    • F42BEXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
    • F42B15/00Self-propelled projectiles or missiles, e.g. rockets; Guided missiles
    • F42B15/01Arrangements thereon for guidance or control

Abstract

The present invention relates to a target information calculation apparatus, a method thereof, and a flight control system having the same. According to one aspect of the present application, a relative distance between a flying object and a target can be accurately calculated only by an angle between the position of the flying object and the target at two different viewpoints. Therefore, the present invention can estimate the size of the target from the calculated relative distance, and a target tracking function can be improved for an airplane controlled by the apparatus.

Description

표적 정보 산출 장치, 그 방법 및 이를 포함하는 비행 제어 시스템{APPARATUS FOR CALCULATING TARGET INFORMATION, METHOD THEREOF AND FLIGHT CONTROL SYSTEM COMPRISING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a target information calculation device, a method thereof, and a flight control system including the target information calculation device,

본 출원은 표적 정보 산출 장치, 그 방법 및 이를 포함하는 비행 제어 시스템에 관한 것이다.The present application relates to a target information calculation apparatus, a method thereof, and a flight control system including the same.

유도탄(Missile)은 표적을 격추시키는 비행체로서, 상기 유도탄은 표적을 정확히 추적하는 기능이 필히 확보되어야 한다. 일반적으로 유도탄은 표적 추적 시 상기 유도탄에 부착된 영상 탐색기에서 촬영되는 영상 표적의 크기를 고려하는 공지된 알고리즘을 사용할 수 있다. 그러나 이와 같은 알고리즘의 대부분은 실시간으로 동작하기 어렵다. 예를 들면, 영상 표적의 크기를 고려하는 대표적인 알고리즘 DOG(Difference of Gaussian)는 실시간으로 동작하기 위해 성능이 제한된다.Missile is a flying object that shoots a target. The missile should have a function to accurately track the target. Generally, the missile can use a known algorithm considering the size of the image target captured by the image searcher attached to the missile during the target tracking. However, most of these algorithms are difficult to operate in real time. For example, a typical algorithm DOG (Difference of Gaussian) considering the size of an image target is limited in performance in order to operate in real time.

한편, 표적 추적을 위해 유도탄에 사용되는 영상 탐색기는 다양한 주파수(Hz)를 사용할 수 있으나, 일반적으로 카메라에서 자주 사용되는 30Hz나 60Hz 등을 사용한다. 또한 탑재 가능량이 제한되어 있는 유도탄의 표적 추적 하드웨어는 오작동을 사전에 방지하기 위해 성능이 검증된 제품을 사용하기 때문에, 시중에서 사용되는 PC보다 성능이 낮은 것으로 선택되는 경우가 많다.On the other hand, the image searcher used in the missile can use various frequencies (Hz), but generally uses 30Hz or 60Hz which is often used in the camera. In addition, the target tracking hardware of the missile with limited amount of mount is often chosen to have lower performance than the PC used in the market because it uses the proven product to prevent malfunction in advance.

이와 같은 이유들로 인해 영상 탐색기를 사용하는 유도탄에서도 표적 추적을 위해 공지된 다양한 알고리즘을 사용할 수 있으나, 유도탄의 특성상 일반적으로 사용하는 컴퓨터와 같은 고성능의 하드웨어를 무조건 사용할 수는 없다. 따라서 한정된 시스템에서 실시간으로 동작할 수 있는 알고리즘이 요구된다.For these reasons, it is possible to use various algorithms known for target tracking even in the missile using the image explorer, but due to the nature of the missile, high-performance hardware such as a general computer can not be used unconditionally. Therefore, an algorithm that can operate in real time in a limited system is required.

앞서 설명한 바와 같이, 유도탄은 표적을 추적하기 위해 영상 표적의 크기를 고려하는 알고리즘을 사용할 수 있다. 이는 유도탄의 영상 표적은 유도탄의 속도에 비례하여 빠르게 변화하여, 영상 표적의 크기를 고려하지 않을 경우 표적에 대한 정확한 추적이 어렵기 때문이다. 이때 영상 표적의 크기는 표적과의 상대 거리를 통해 정확하게 추정될 수 있다.As described above, the missile can use an algorithm that takes into account the size of the image target to track the target. This is because the image target of the missile rapidly changes in proportion to the speed of the missile, and it is difficult to accurately track the target if the size of the image target is not considered. At this time, the size of the image target can be accurately estimated through the relative distance with the target.

이와 관련된 종래 기술로는 RF 센서(Radio frequency sensor) 또는 레이저 센서(Laser sensor)와 같은 능동(Active) 센서를 통해 상대 거리를 측정하여 영상 표적의 크기를 추정하는 기술이 공지된 바 있다. 그러나 상기 능동(Acitve) 센서는 비용 측면에서 고가이고, 능동 센서의 사용으로 표적이 유도탄의 발사 유무를 확인할 수 있어 유도탄의 요격률에 부정적인 영향을 미친다.In the related art, there has been known a technique of estimating the size of an image target by measuring a relative distance through an active sensor such as a radio frequency sensor or a laser sensor. However, the above-mentioned active sensor is costly in terms of cost, and the use of the active sensor can confirm whether or not the target has launched the missile, thereby negatively affecting the interception rate of the missile.

한편, 적외선 영상 센서(Infrared image sensor) 또는 CCD 영상 센서(Charge-coupled device image sensor)와 같은 수동(Passive) 센서는 상기 능동 센서를 사용하는 경우 발생되는 문제는 해결될 수 있으나, 단순하게 영상 표적의 크기가 증가함을 감지하여 표적을 추적할 수 있는 기능만 보유하고 있어, 상대 거리를 측정하기 어렵고, 따라서, 공지된 알고리즘을 이용하여 표적의 크기를 정확히 추정할 수 없기 때문에 유도탄의 추적 기능이 저하되는 문제가 존재한다.Meanwhile, a passive sensor such as an infrared image sensor or a charge-coupled device image sensor can solve the problem caused by using the active sensor, It is difficult to measure the relative distance. Therefore, since the size of the target can not be accurately estimated by using a known algorithm, the tracking function of the missile There is a problem of deterioration.

따라서, 수동(Passive) 센서를 사용하면서 표적과의 상대 거리를 정확하게 산출하여 유도탄의 추적 기능을 향상시킬 수 있는 기술이 필요하다.Therefore, there is a need for a technique that can improve the tracking function of the missile by accurately calculating the relative distance to the target while using a passive sensor.

본 출원은 비행체 위치 및 표적의 각도를 기반으로 하여, 비행체와 표적의 상대거리를 정확히 산출하고, 이로써 표적의 크기를 정확히 추정할 수 있는 표적 정보 산출 장치 및 방법을 제공하기 위한 것이다. 또한, 상기 정보를 제공받음으로써, 비행체의 추적 기능이 향상되는 비행을 제어할 수 있는 비행 제어 시스템을 제공하기 위한 것이다.The present application is intended to provide a target information calculation apparatus and method that can accurately calculate the relative distance between a flying object and a target based on the position of a fuselage and the angle of a target, thereby accurately estimating the size of the target. It is another object of the present invention to provide a flight control system capable of controlling a flight in which a tracking function of a flight body is improved by receiving the above information.

표적을 포착하기 위하여 비행체에 마련되는 센서부와, 상기 센서부로부터 비행체 및 포착된 표적의 위치를 수신하는 수신부와, 상기 수신된 위치를 영상으로 표시하는 표시부와, 제1 시점, 상기 제1 시점의 전 시점인 제2 시점에서의 비행체 위치 및 표적의 각도를 기반으로 하여, 제1 시점에서의 비행체와 표적의 상대거리를 산출하는 표적 정보 산출 장치가 제공된다.A sensor for detecting a target, a sensor for detecting the target, a receiver for receiving the position of the target and the object captured from the sensor, a display for displaying the received position as an image, There is provided a target information calculation device for calculating a relative distance between a vehicle and a target at a first point of time based on a position of a fuselage and an angle of a target at a second point in time,

본 출원의 일 실시예와 관련된 표적 정보 산출 장치는, 비행체 위치 및 표적의 각도를 기반으로 하여, 비행체와 표적의 상대거리를 산출함으로써, 상기 산출된 정보를 기반으로 제어되는 비행체는 주변 환경과 표적을 정확히 식별함으로써, 표적만을 정확히 요격할 수 있다.The target information calculation device according to an embodiment of the present application calculates a relative distance between a flying object and a target on the basis of the position of the flying object and the angle of the target, By precisely identifying the target, only the target can be precisely intercepted.

도 1은, 본 출원에 따른 예시적인 표적 정보 산출 장치의 구성도이다.
도 2는, 본 출원에 따른 예시적인 표적 정보 산출 방법의 흐름도이다.
도 3은, 일반적인 삼각 측정법 알고리즘을 나타내는 개념도이다.
도 4는, 본 출원에 따른 표적 정보 산출 장치의 산출부에 있어서, 삼각 측정법 알고리즘의 적용을 설명하기 위한 도면이다.
도 5는, 하나의 실시예로서, 본 출원에 따른 표적 정보 산출 장치의 성능을 검증하기 위한 시뮬레이션을 나타내는 도면이다.
도 6 및 7은, 시뮬레이션의 표적이 좌향일 때, 각각 220 및 270 프레임에서의 영상에 표시된 결과이다.
도 8 및 9는, 시뮬레이션의 표적이 후향일 때, 각각 220 및 270 프레임에서의 영상에 표시된 결과이다.
1 is a configuration diagram of an exemplary target information calculation device according to the present application.
2 is a flowchart of an exemplary target information calculation method according to the present application.
3 is a conceptual diagram showing a general triangulation algorithm.
4 is a diagram for explaining the application of the triangulation algorithm in the calculation unit of the target information calculation apparatus according to the present application.
5 is a diagram showing a simulation for verifying the performance of the target information calculation apparatus according to the present application as one embodiment.
Figures 6 and 7 are the results displayed on the images at 220 and 270 frames, respectively, when the target of the simulation is leftward.
Figures 8 and 9 show the results displayed on the images at 220 and 270 frames, respectively, when the target of the simulation is backward.

본 출원은 표적 정보 산출 장치에 관한 것이다. 예시적인 본 출원의 표적 정보 산출 장치는, 비행체 위치와 표적의 각도만으로도, 거리 및 크기 정보를 획득할 수 있어, 상기 장치에 의해 제어되는 비행체는 표적 추적 기능이 향상되어, 표적을 정확히 요격할 수 있다.The present application relates to a target information calculation apparatus. Exemplary target information calculation apparatus of the present application can acquire distance and size information by only the angle between the position of the fuselage and the target so that the fuselage controlled by the device can improve the target tracking function to accurately intercept the target have.

이하, 첨부한 도면을 참고로 하여 본 출원의 실시예에 대하여 본 출원이 속하는 기술 분야에서 통상의 지식을 가진 자가 용이하게 실시할 수 있도록 상세히 설명한다. 그러나 본 출원은 여러가지 상이한 형태로 구현될 수 있으며 여기서 설명하는 실시예에 한정되지 않는다. 그리고 도면에서 본 발명을 명확하게 설명하기 위해서 설명과 관계 없는 부분은 생략하였으며, 명세서 전체를 통하여 유사한 부분에 대해서는 유사한 도면 부호를 붙였다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings so that those skilled in the art can easily carry out the present invention. However, the present application may be embodied in many different forms and is not limited to the embodiments described herein. In order to clearly illustrate the present invention, parts not related to the description are omitted, and similar parts are denoted by like reference characters throughout the specification.

도 1은, 본 출원의 표적 정보 산출 장치의 구성도이다. 1 is a configuration diagram of a target information calculation device of the present application.

도 1을 참조하면, 상기 표적 정보 산출 장치는 센서부(10), 수신부(20), 표시부(30) 및 산출부(40)를 포함한다.1, the target information calculation apparatus includes a sensor unit 10, a receiving unit 20, a display unit 30, and a calculating unit 40. [

본 출원의 일 구현예에 따른 표적 정보 산출 장치는 표적을 포착하기 위하여 비행체에 마련되는 센서부(10)와, 상기 센서부(10)로부터 비행체 및 포착된 표적의 위치를 수신하는 수신부(20)와, 상기 수신된 위치를 영상으로 표시하는 표시부(30)와, 제1 시점, 상기 제1 시점의 전 시점인 제2 시점에서의 비행체 위치 및 표적의 각도를 기반으로 하여, 제1 시점에서의 비행체와 표적의 상대거리를 산출하는 산출부(40)를 포함한다.The target information calculation apparatus according to an embodiment of the present invention includes a sensor unit 10 provided on a vehicle for capturing a target and a receiver 20 for receiving the position of the target and the object captured from the sensor unit 10, A display unit 30 for displaying the received position as an image, a display unit 30 for displaying the received position at a first point of time, a second point of time at the first point of time, And a calculation unit 40 for calculating the relative distance between the flying object and the target.

상기 비행체는 표적을 추적하는 기능이 필요한 비행체일 수 있고, 예를 들어, 군사용 미사일, 무인 탐사 시스템 등일 수 있으며, 구체적으로는, 유도탄일 수 있다. 또한, 상기 표적은 비행체가 추적하고자 하는 대상물일 수 있으며, 예를 들어, 상기 표적은 움직임이 정지된 대상물일 수 있다.The flight vehicle may be a flight vehicle requiring a function of tracking a target, for example, a military missile, an unmanned exploration system, or the like, and may be a guided car. In addition, the target may be an object to be traced by a vehicle, for example, the target may be a stopped object.

하나의 예시에서, 상기 센서부(10)는 표적을 포착하기 위하여 비행체에 마련될 수 있다. 일 례로, 상기 센서부(10)는 포착된 표적의 위치를 실시간으로 수신부(20)로 전송할 수 있다. 상기 위치는 예를 들어, 경도, 위도, 고도 등일 수 있다. 상기 위치는 후술하는 표시부(30)에 의해 영상으로 표시될 수 있고, 후술하는 수학식을 통해 상대거리 또는 크기 정보로 변환이 가능하며, 상기 변환된 정보를 제공받는 비행체는 표적과 주변환경의 정확한 식별이 가능하여 추적 기능이 개선될 수 있다. 또한, 상기 센서부(10)는 센서부로부터 비행체의 위치 및 포착된 표적의 위치가 연속적으로 쇄신(update)되기 때문에, 상기 위치로부터 산출된 상대거리 값에 대한 신뢰성이 우수할 수 있다.In one example, the sensor unit 10 may be provided on a vehicle for capturing a target. For example, the sensor unit 10 may transmit the position of the captured target to the receiving unit 20 in real time. The location may be, for example, longitude, latitude, altitude, and the like. The position can be displayed as an image by the display unit 30 to be described later, and can be converted into relative distance or size information through an equation described later, and the flight vehicle receiving the converted information can accurately display the target and the surrounding environment Identification is possible, and the tracking function can be improved. Also, since the sensor unit 10 continuously updates the position of the flying object and the position of the captured target from the sensor unit, the reliability of the relative distance value calculated from the position can be excellent.

상시 센서부(10)는 예를 들어, 수동센서일 수 있으며, 구체적으로, 적외선 영상 센서(Infrared image sensor) 또는 CCD 영상 센서(Charge-coupled device image sensor)일 수 있다. 상기 수동센서는 능동센서에 비하여 저가이면서, 본 출원에 따른 장치와 연계되어 능동센서와 비슷한 표적 추적 기능이 구현될 수 있다.The normal sensor unit 10 may be, for example, a passive sensor, and may be an infrared image sensor or a charge-coupled device image sensor. The passive sensor can be implemented at a lower cost than the active sensor, and in conjunction with the device according to the present application, a target tracking function similar to an active sensor.

상기 수신부(20)는 상기 센서부(10)로부터 비행체 및 포착된 표적의 위치를 실시간으로 수신할 수 있다. 상기 수신부(20)는 위치가 연속적으로 쇄신(update)되기 때문에, 후술하는 산출부(40)에서 산출된 상대거리 값에 대한 신뢰성이 우수할 수 있다.The receiving unit 20 can receive the position of the target and the object captured from the sensor unit 10 in real time. Since the position of the receiving unit 20 is continuously updated, the reliability of the relative distance value calculated by the calculating unit 40 described later can be excellent.

또 하나의 예시에서, 표시부(30)는 상기 수신된 위치를 영상으로 표시할 수 있다. 예를 들어, 상기 표시부(30)는 비행체의 x축 좌표, y축 좌표, 비행체의 고도, 표적의 x축 좌표, 표적의 y축 좌표, 표적의 고도를 영상으로 표시할 수 있다. In another example, the display unit 30 may display the received position as an image. For example, the display unit 30 can display an x-axis coordinate, a y-axis coordinate, an altitude of a flying object, an x-axis coordinate of a target, a y-axis coordinate of a target, and an altitude of a target.

본 출원에서 용어 「제1 시점」은 비행체와 표적의 상대거리를 산출하고자 하는 시점을 의미하고, 용어 「제2 시점」은 상기 제1 시점의 이전 시점을 의미하고, 상기 제1 및 제2 시점은 특정 시점에 한정된 것은 아니며, 연속적인 시점을 나타내기 위한 임의의 시점을 의미하는 것이다.In the present application, the term " first time point " means a time point at which a relative distance between a flight vehicle and a target is calculated, the term " second time point " means a previous time point of the first time point, Is not limited to a specific point in time but means an arbitrary point of time for indicating a continuous point of view.

본 출원에서, 상기 산출부(40)는 삼각측정법 알고리즘을 이용해 비행체와 표적의 상대거리를 산출할 수 있다.In the present application, the calculating unit 40 can calculate the relative distance between the object and the target using a triangulation algorithm.

도 3은, 일반적인 삼각 측정법 알고리즘을 나타내는 개념도이다.3 is a conceptual diagram showing a general triangulation algorithm.

도 3을 참조하면, 상기 삼각측정법 알고리즘은 일반적으로, 천문관측이나 거리측정, 위치확인 등에 주로 응용되는 알고리즘으로 두 개의 관측위치의 좌표와 각 관측위치에서 확인된 물체의 각도를 사용하여 특정위치로부터 물체간의 거리를 구하는 알고리즘이고, 구체적으로, 도 3을 참조하면, 삼각측정법 알고리즘은 두 개의 관측 위치(A, B)와, 각각의 관측 위치를 기준으로 물체의 위치(C)에 대한 각도인 α 및 β를 사용하여 특정 위치(H)를 기준으로 물체와의 거리인

Figure pat00001
를 구하는 알고리즘이다.Referring to FIG. 3, the triangulation algorithm is generally applied to astronomical observation, distance measurement, and position confirmation. The algorithm uses two coordinates of coordinates and an angle of an object identified at each of the observation positions, Referring to FIG. 3, the triangulation algorithm includes two observation positions A and B, and an angle α with respect to the position C of the object with respect to each observation position, And β are used to determine the distance from the object to the specific position (H)
Figure pat00001
.

예를 들어, 상기 산출부(40)는 상기 영상에 표시된 비행체의 x축 좌표, y축 좌표, 비행체의 고도, 표적의 x축 좌표, 표적의 y축 좌표, 표적의 고도를 상기 삼각 측정법 알고리즘에 적용하여 상대 거리를 산출할 수 있다.For example, the calculating unit 40 may calculate an x-axis coordinate, a y-axis coordinate, an altitude of a flying object, an x-axis coordinate of a target, a y- The relative distance can be calculated.

일 구체예에서, 상기 산출부(40)는 비행체 및 표적의 위치를 기반으로 하여, 상기 비행체와 표적이 이루는 각도를 산출하고, 상기 산출된 각도로부터 제1 시점에서의 비행체와 표적의 상대거리를 산출할 수 있다.In one embodiment, the calculating unit 40 calculates the angle between the object and the target based on the position of the object and the object, and calculates a relative distance between the object and the object at the first point of time from the calculated angle Can be calculated.

예를 들어, 상기 산출부(40)는 하기 수학식 1에 의해 상대 거리(r)를 산출할 수 있다.For example, the calculating unit 40 may calculate the relative distance r by the following equation (1).

[수학식 1][Equation 1]

Figure pat00002
Figure pat00002

상기 수학식 1에서, M, T, t, t-1은 각각 비행체, 표적, 제1시점, 제2 시점을 나타내고,

Figure pat00003
는 표적 각도을 나타내며,
Figure pat00004
는 제1 비행체 각도를 나타낸다.In the above Equation 1, M, T, t, and t-1 denote a flying object, a target, a first viewpoint and a second viewpoint, respectively,
Figure pat00003
Represents the target angle,
Figure pat00004
Represents the first air vehicle angle.

도 4는, 본 출원에 따른 표적 정보 산출 장치의 산출부에 있어서, 삼각 측정법 알고리즘의 적용을 설명하기 위한 도면이다.4 is a diagram for explaining the application of the triangulation algorithm in the calculation unit of the target information calculation apparatus according to the present application.

도 4를 참조하면, 상기 수학식 1에서,

Figure pat00005
는 제1 시점에서의 비행체와 표적의 위치를 직선으로 연결한 거리를 나타내고,
Figure pat00006
는 제1 시점에서의 비행체와 제2 시점에서의 비행체의 위치를 직선으로 연결한 거리를 나타낸다. 또한, 표적 각도(
Figure pat00007
)는 제1 시점에서의 비행체 위치, 제2 시점에서의 비행체 위치 및 표적 위치를 직선으로 연결하여 이루는 삼각형에 대해서, 표적의 위치가 중심이 되는 내각을 나타내고, 제1 비행체 각도(
Figure pat00008
)는 상기 삼각형에 대해서, 제1 시점에서의 비행체의 위치가 중심이 되는 내각을 나타낸다.Referring to FIG. 4, in Equation (1)
Figure pat00005
Represents a distance obtained by straightly connecting the position of the target and the object at the first view point,
Figure pat00006
Represents a distance obtained by connecting the position of the air vehicle at the first time point and the position of the air vehicle at the second time point in a straight line. Also, the target angle (
Figure pat00007
Represents a cabin centered on the position of the target with respect to a triangle formed by connecting the position of the fighter at the first point of time, the position of the fighter at the second point of time and the target position with a straight line,
Figure pat00008
Represents an internal angle at which the position of the flying object at the first time point is centered with respect to the triangle.

상기와 같이, 본 출원에 따른 표적 정보 산출 장치는, 상기 수학식 1을 이용하여 서로 다른 두 시점에서의 비행체 및 표적의 위치, 각도만으로도 상대 거리를 정확하게 산출할 수 있고, 공지된 아크탄젠트 및 칼만필터 알고리즘을 통해 상기 산출된 상대거리로부터 표적 크기의 정확한 추정이 가능하여, 상기 장치에 의해 제어되는 비행체는 우수한 표적 추적 기능이 구현될 수 있다.As described above, the target information calculation device according to the present application can accurately calculate the relative distance using only the position and angle of the flying object and the target at two different view points using Equation (1), and the known arc tangent and the Kalman Accurate estimation of the target size from the calculated relative distance is possible through the filter algorithm, so that a good target tracking function can be implemented in the airplane controlled by the device.

하나의 예시에서, 상기 산출부(40)는 제1 및 제2 시점에서의 비행체 고도를 비교하여, 제1 비행체 각도(

Figure pat00009
), 제2 비행체 각도(
Figure pat00010
) 및 표적 각도(
Figure pat00011
)를 산출할 수 있다.In one example, the calculating unit 40 compares the altitudes of the flights at the first and second points of time,
Figure pat00009
), The second flight angle (
Figure pat00010
) And target angle (
Figure pat00011
) Can be calculated.

예를 들어, 상기 산출부(40)는 상기 산출부(40)는 제1 시점에서의 비행체 고도가 제2 시점에서의 비행체 고도보다 높은 경우, 하기 수학식 2 및 3에 의해 제1 비행체 각도(

Figure pat00012
) 및 표적 각도(
Figure pat00013
)을 산출할 수 있다.For example, when the flight altitude at the first point in time is higher than the flight altitude at the second point in time, the calculation unit 40 calculates the first aircraft angle
Figure pat00012
) And target angle (
Figure pat00013
) Can be calculated.

[수학식 2]&Quot; (2) "

Figure pat00014
Figure pat00014

Figure pat00015
Figure pat00015

[수학식 3]&Quot; (3) "

Figure pat00016
Figure pat00016

상기 수학식 2에서,

Figure pat00017
는 제1 산출각을 나타내고,
Figure pat00018
는 제2 산출각을 나타내며, α는 비행체의 제1 좌표 설정값을 나타낸다.In Equation (2)
Figure pat00017
Represents a first calculation angle,
Figure pat00018
Represents a second calculation angle, and a represents a first coordinate set value of the flying object.

상기 제1 산출각은 영상에 표시된 제1 시점에서의 비행체 위치에 대한 표적의 위치를 각도로 환산한 후, 표적 측으로 기울어진 제1 시점에서의 비행체 자세각을 가산하여 산출한 각도이며, 제2 산출각은 영상에 표시된 제2 시점에서의 비행체 위치에 대한 표적의 위치를 각도로 환산한 후, 표적 측으로 기울어진 제2 시점에서의 비행체 자세각을 가산하여 산출한 각도이다.Wherein the first calculated angle is an angle obtained by converting the position of the target with respect to the position of the fighter at the first point of time displayed on the image into an angle and then adding the fellow attitude angle at the first point of time tilted toward the target side, The calculation angle is an angle obtained by converting the position of the target with respect to the position of the fighter at the second time point displayed on the image to an angle and adding the fighter posture angle at the second time point inclined to the target side.

하나의 예시에서, 상기 비행체의 제1 좌표 설정값(α)은 하기 수학식 4에 의해 결정될 수 있다.In one example, the first coordinate set value? Of the air vehicle may be determined by the following equation (4).

[수학식 4]&Quot; (4) "

Figure pat00019
Figure pat00019

상기 수학식 4에서,

Figure pat00020
는 제2 시점에서의 비행체의 x축 좌표를 나타내고,
Figure pat00021
는 제1 시점에서의 비행체의 y축 좌표를 나타낸다.In Equation (4)
Figure pat00020
Axis coordinate of the flying object at the second time point,
Figure pat00021
Represents the y-axis coordinate of the flying object at the first time point.

다른 예시에서, 상기 산출부(40)는 제1 시점에서의 비행체 고도가 제2 시점에서의 비행체 고도보다 낮은 경우, 하기 수학식 5 및 6에 의해 제1 비행체 각도(

Figure pat00022
) 및 표적 각도(
Figure pat00023
)을 산출할 수 있다.In another example, when the flight altitude at the first point in time is lower than the flight altitude at the second point in time, the calculation unit 40 calculates the first airplane angle < RTI ID = 0.0 >
Figure pat00022
) And target angle (
Figure pat00023
) Can be calculated.

[수학식 5]&Quot; (5) "

Figure pat00024
Figure pat00024

Figure pat00025
Figure pat00025

[수학식 6] &Quot; (6) "

Figure pat00026
Figure pat00026

상기 수학식 5에서,

Figure pat00027
는 제1 산출각을 나타내고,
Figure pat00028
는 제2 산출각을 나타내며,
Figure pat00029
는 비행체의 제2 좌표 설정값을 나타낸다. 상기 비행체의 제2 좌표 설정값(
Figure pat00030
)은, 예를 들어, 하기 수학식 7에 의해 결정될 수 있다.In Equation (5)
Figure pat00027
Represents a first calculation angle,
Figure pat00028
Represents a second calculation angle,
Figure pat00029
Represents the second coordinate set value of the air vehicle. The second coordinate set value (
Figure pat00030
) Can be determined, for example, by the following equation (7).

[수학식 7]&Quot; (7) "

Figure pat00031
Figure pat00031

상기 수학식 7에서,

Figure pat00032
는 제1 시점에서의 비행체의 x축 좌표를 나타내고,
Figure pat00033
는 제2 시점에서의 비행체의 y축 좌표를 나타낸다.In Equation (7)
Figure pat00032
Axis coordinate of the air vehicle at the first time point,
Figure pat00033
Represents the y-axis coordinate of the flying object at the second time point.

하나의 예시에서, 상기 표적 정보 산출 장치는 추정부(50)를 추가로 포함할 수 있다. 상기 추정부(50)는 상기 산출된 상대거리를 기반으로 하여, 후술하는 아크탄젠트 및 칼만필터 알고리즘을 이용하여 표적의 크기를 정확하게 추정할 수 있다. In one example, the target information calculation device may further include an estimation unit 50. [ The estimator 50 can accurately estimate the size of the target based on the calculated relative distances using arc tangent and Kalman filter algorithms described later.

또 하나의 예시에서, 상기 표적 정보 산출 장치는 제어부(60)를 추가로 포함할 수 있다. 상기 제어부(60)는 비행체를 제어할 수 있고, 예를 들어, 상기 산출된 상대 거리 및 추정된 표적의 크기를 기반으로 비행체가 주변 환경과 표적을 식별하여 표적만을 정확히 요격시킬 수 있도록 제어할 수 있다.In another example, the target information calculation device may further include a control unit 60. [ The control unit 60 can control the air vehicle and can control the air vehicle to identify the target and the surrounding environment based on the calculated relative distance and the size of the estimated target to precisely intercept the target only have.

상기와 같이, 본 출원에 따른 표적 정보 산출 장치는 서로 다른 두 시점에서의 위치, 각도 정보만으로도 비행체와 표적 사이의 상대 거리를 정확하고 빠르게 산출할 수 있어, 상대적으로 비용이 저렴하지만 상대 거리 측정 기능이 제한되는 수동 센서가 탑재된 비행체에 적용되어 상기 비행체의 표적 추적 기능을 개선할 수 있다.As described above, the target information calculation device according to the present application can accurately and quickly calculate the relative distance between the object and the target with only the position and angle information at two different viewpoints, and is relatively inexpensive, Can be applied to a flight vehicle equipped with a passive sensor to limit the target tracking function of the flight vehicle.

본 출원은 표적 정보 산출 방법에 관한 것이다. 상기 산출 방법은 전술한 산출 장치를 이용하여 수행될 수 있으며, 따라서, 전술한 내용과 중복되는 내용은 생략하기로 한다. The present application relates to a method for calculating target information. The above calculation method can be performed using the above-described calculation apparatus, and thus the contents overlapping with the above description will be omitted.

도 2는, 본 출원에 따른 예시적인 표적 정보 산출 방법의 흐름도이다.2 is a flowchart of an exemplary target information calculation method according to the present application.

도 2를 참조하면, 예시적인 표적 정보 산출 방법은 비행체 및 표적 위치를 수신하는 수신 단계와, 상기 수신된 위치를 영상으로 표시하는 표시 단계와, 제1 시점, 상기 제1 시점의 전 시점인 제2 시점에서의 비행체 위치 및 표적의 각도를 기반으로 하여, 제1 시점에서의 비행체와 표적의 상대거리를 산출하는 산출 단계를 포함할 수 있다.2, an exemplary target information calculation method includes a receiving step of receiving a flying object and a target position, a display step of displaying the received position as an image, a display step of displaying the received position as a first point, And a calculating step of calculating a relative distance between the flying object and the target at the first point of view based on the position of the fuselage and the angle of the target at the two points of time.

또한, 상기 방법은 후술하는 아크탄젠트 및 칼만필터 알고리즘을 이용하여, 상기 산출된 상대 거리로부터 표적의 크기를 추정하는 단계를 추가로 포함할 수 있다.In addition, the method may further include estimating the size of the target from the calculated relative distances using arc tangent and Kalman filter algorithms to be described later.

본 출원은 또한, 비행 제어 시스템에 관한 것이다. The present application also relates to a flight control system.

예시적인 비행 제어 시스템은 비행체와, 전술한 표적 정보 산출 장치를 포함한다. 상기 시스템은 전술한 표적 정보 산출 장치를 이용해 비행체를 제어할 수 있으므로, 따라서, 상기 표적 정보 산출 장치에서 설명한 내용과 중복되는 부분의 설명은 생략하기로 한다. An exemplary flight control system includes a flight vehicle and the aforementioned target information calculation device. Since the system can control the air vehicle using the above-described target information calculation device, the description of the parts overlapping with those described in the target information calculation device will be omitted.

이하에서는, 아크탄젠트 및 칼만필터 알고리즘을 이용하여 본 출원의 표정 정보 산출 장치의 성능을 검증하였다.Hereinafter, the performance of the facial expression information calculating apparatus of the present application is verified by using arc tangent and Kalman filter algorithm.

상기 아크탄젠트 알고리즘은 전술한 상대거리를 영상 화면 상의 픽셀(Pixel) 정보로 전환하는 알고리즘이며, 상기 칼만필터 알고리즘은 상기 픽셀 정보를 검증하고, 검증된 픽셀 정보를 기반으로 다음 시간의 표적의 크기를 연속적으로 추정하는 알고리즘이다. 본 출원에서는 상기 두 가지 알고리즘을 결합하여 표적 정보 산출 장치의 검증 신뢰성을 높였다. The arc tangent algorithm is an algorithm for converting the above-described relative distance into pixel information on an image screen. The Kalman filter algorithm verifies the pixel information, and calculates the size of a target of the next time based on the verified pixel information It is an algorithm to estimate continuously. In the present application, the above two algorithms are combined to enhance the verification reliability of the target information calculation device.

구체적으로, 상기 아크탄젠트(arc-tangent) 알고리즘은 하기 수학식 9와 같은 함수 관계를 나타낸다.Specifically, the arc-tangent algorithm exhibits a function relationship as shown in Equation (9).

[수학식 9]&Quot; (9) "

Figure pat00034
Figure pat00034

여기서,

Figure pat00035
은 영상 표적의 크기(픽셀 단위)를 의미하고,
Figure pat00036
은 영상의 총 픽셀의 크기를 의미한다. 또한
Figure pat00037
은 영상을 촬영하는 카메라의 총 각도를 의미하고, a는 표적의 실제 크기를 의미하며, r은 전술한 수학식 1에 의해 산출되는 상대 거리를 의미한다.here,
Figure pat00035
Means the size (in pixels) of the image target,
Figure pat00036
Is the total pixel size of the image. Also
Figure pat00037
Denotes a total angle of a camera for capturing an image, a denotes an actual size of a target, and r denotes a relative distance calculated by the above-described equation (1).

상기 영상을 촬여하는 카메라는 전술한 센서부(10)를 의미하며, 예를 들어, 적외선 센서를 의미한다. 또한, 영상 표적의 크기는 표시부(30)에 의해 영상에 표시된 표적의 최외각 사각형(MBR: Minimum Boundary Ractangular)을 기준으로 측정될 수 있다.The camera for capturing the image means the above-described sensor unit 10, for example, an infrared sensor. In addition, the size of the image target can be measured based on the MBR (Minimum Boundary Rectangular) of the target displayed on the image by the display unit 30.

수학식 9에서

Figure pat00038
Figure pat00039
은 상수이므로 하기 수학식 10로부터 유도할 수 있다.In Equation (9)
Figure pat00038
And
Figure pat00039
Is a constant, it can be derived from the following equation (10).

[수학식 10]&Quot; (10) "

Figure pat00040
Figure pat00040

여기서,

Figure pat00041
은 영상 표적의 크기(각도 단위)를 의미한다.here,
Figure pat00041
Means the size (in angular units) of the image target.

이와 같은 함수 관계에, 최소 자승법(method of least squares)으로 산출된 표적의 실제 크기(a)를 대입시킬 수 있다.In this functional relation, the actual size (a) of the target calculated by the least squares method can be substituted.

구체적으로, 다음의 수학식 11과 같이 표적의 실제 크기가 산출될 수 있다.Specifically, the actual size of the target can be calculated by the following Equation (11).

[수학식 11]&Quot; (11) "

Figure pat00042
Figure pat00042

여기서, i는 영상 표적이 촬영된 시점을 의미하고,

Figure pat00043
는 i시점에서의 표적까지의 거리를 의미하며,
Figure pat00044
는 i시점에서의 영상 표적의 크기(각도 단위)를 의미한다.Here, i means a time point when an image target is photographed,
Figure pat00043
Is the distance to the target at i,
Figure pat00044
Means the size (in angular units) of the image target at the i-th viewpoint.

또한, 상기 수학식 11에 의해 산출되는 영상 표적의 크기 정보(a)를 아크탄젠트 모델의 기울기에 반영하고, 또한, 하기 수학식 12로 표시되는 칼만필터 알고리즘을 이용하여 추정된 거리 정보를 아크탄젠트 모델에 반영함으로써 표적의 크기를 추정할 수 있다.Further, the distance information estimated by using the Kalman filter algorithm represented by the following equation (12) is used as the arc tangent of the arc tangent model, The size of the target can be estimated by reflecting on the model.

[수학식 12]&Quot; (12) "

Figure pat00045
Figure pat00045

Figure pat00046
Figure pat00046

상기 수학식 12에서,

Figure pat00047
는 제1 시점에서 추정된 거리값을 나타내고,
Figure pat00048
는 제2 시점에서 쇄신(update)된 거리값을 나타내며,
Figure pat00049
는 제1 시점에서 추정된 오차 분포에 대한 공분산 행렬을 나타내고,
Figure pat00050
는 제2 시점에서 쇄신된 오차 분포에 대한 공분산 행렬 나타내며,
Figure pat00051
는 상태천이 행렬의 천이행렬을 나타내고,
Figure pat00052
는 제2 시점에서 프로세스 노이즈 분산값을 나타내고,
Figure pat00053
는 상태천이 행렬을 나타낸다.In Equation (12)
Figure pat00047
Represents the estimated distance value at the first time point,
Figure pat00048
Represents a distance value updated at the second time point,
Figure pat00049
Represents a covariance matrix for the estimated error distribution at the first time point,
Figure pat00050
Represents a covariance matrix for the error distribution reconstructed at the second time point,
Figure pat00051
Represents the transition matrix of the state transition matrix,
Figure pat00052
Represents a process noise variance value at a second time point,
Figure pat00053
Represents a state transition matrix.

상기 칼만 필터 알고리즘은 측정치의 존재 여부에 따라, 하기 수학식 13 또는 수학식 14에 의해 쇄신(update)되며, 상기 측정치의 존재 여부는 하기 수학식 15에 의해 계산되는 측정치가 존재하는 확률영역의 계산된 유효 측정 영역에 따라 판정한다.The Kalman filter algorithm is updated according to the following equation (13) or (14) according to the presence or absence of a measurement, and the presence or absence of the measurement is calculated by calculating a probability area Based on the effective measurement area.

[수학식 13]&Quot; (13) "

Figure pat00054
Figure pat00054

Figure pat00055
Figure pat00055

상기 수학식 13에서,

Figure pat00056
는 제1 시점에서 상태 행렬을 나타내고,
Figure pat00057
는 제1 시점에서 전술한 삼각측량법 알고리즘에 의해 산출된 상대 거리를 나타내며,
Figure pat00058
는 비행체에 의해 측정된 속도를 나타내고,
Figure pat00059
는 초당 영상생성개수(frame per second)를 나타낸다.In the above equation (13)
Figure pat00056
Represents a state matrix at a first time point,
Figure pat00057
Represents the relative distance calculated by the triangulation algorithm at the first point in time,
Figure pat00058
Represents the speed measured by the vehicle,
Figure pat00059
Represents the number of image generation per second (frame per second).

[수학식 14]&Quot; (14) "

Figure pat00060
Figure pat00060

Figure pat00061
Figure pat00061

Figure pat00062
Figure pat00062

상기 수학식 14에서,

Figure pat00063
는 제1 시점에서 구한 칼만계수를 나타내고,
Figure pat00064
는 관측행렬을 나타내며,
Figure pat00065
는 제1 시점에서의 측정잡음 공분산 행렬을 나타내고,
Figure pat00066
는 제1 시점에서 전술한 삼각측량법에 의해 산출된 상대거리를 나타낸다.In Equation (14)
Figure pat00063
Represents the Kalman coefficient obtained at the first time point,
Figure pat00064
Represents an observation matrix,
Figure pat00065
Represents the measurement noise covariance matrix at the first time point,
Figure pat00066
Represents the relative distance calculated by the above-mentioned triangulation method at the first time point.

[수학식 15]&Quot; (15) "

Figure pat00067
Figure pat00067

Figure pat00068
Figure pat00068

상기 수학식 15에서,

Figure pat00069
는 최대거리 오차값을 나타내고,
Figure pat00070
는 최소거리 오차값을 나타내며,
Figure pat00071
는 유효한 표적으로 판단하기 위한 최대 오차크기를 나타내며,
Figure pat00072
는 제1 시점에서의
Figure pat00073
의 1행 1열값을 나타내고,
Figure pat00074
는 제1 시점에서의
Figure pat00075
의 1행 1열값을 나타낸다.In Equation (15)
Figure pat00069
Represents the maximum distance error value,
Figure pat00070
Represents the minimum distance error value,
Figure pat00071
Represents the maximum error size for judging as a valid target,
Figure pat00072
Lt; RTI ID = 0.0 >
Figure pat00073
Quot; 1 " and " 1 "
Figure pat00074
Lt; RTI ID = 0.0 >
Figure pat00075
Quot; 1 "

구체적으로, 상기 수학식 15에서,

Figure pat00076
의 값이 9일 때, 산출된 rmax, rmin 값 사이에 측정치가 존재하지 않는 경우, 상기 수학식 13에 따라 칼만 필터 알고리즘이 쇄신된다. 반대로, 측정치가 존재하는 경우, 상기 수학식 14에 의해 칼만 필터 알고리즘이 쇄신된다.Specifically, in Equation (15)
Figure pat00076
Is 9, and there is no measurement value between the calculated r max and r min values, the Kalman filter algorithm is renewed according to Equation (13). Conversely, if there is a measurement, the Kalman filter algorithm is refined according to Equation (14).

하나의 실시예에서, 본 출원에 따른 표적 정보 산출 장치의 성능을 검증하기 위하여 상기 아크탄젠트 알고리즘 및 칼만필터 알고리즘을 결합하고, 도 5와 같이 시뮬레이션을 구성하였다. 도 5을 참조하면, 상기 시뮬레이션은 표적이 정지하도록 하였으며 정확한 정지 표적의 크기 추정 성능을 분석 및 비교하기 위하여, 표적 주변이나 비행체의 이동경로에는 어떠한 장애물도 없는 이상적인 환경을 구성하였다. 상기 시뮬레이션에서 사용한 표적은 전차이고, 상기 전차는 포신을 제외하고 가로 약 10m, 세로 8m, 높이 6m 크기로 설정하였다. 따라서, 좌우로 긴 형상이기 때문에 후향 및 좌향으로 향해 있을 때의 표적에 대한 크기 추정 여부를 확인하여 성능 확인이 가능하다. In one embodiment, the arctangent algorithm and the Kalman filter algorithm are combined to verify the performance of the target information calculation device according to the present application, and the simulation is configured as shown in FIG. Referring to FIG. 5, the simulation allows the target to stop. In order to analyze and compare the accuracy of estimating the size of the accurate stop target, an ideal environment is established without any obstacle in the vicinity of the target or the moving object. The target used in the simulation was a tank, and the tank was set to have a size of about 10 m in width, 8 m in height, and 6 m in height except gun barrel. Therefore, since the shape is long in the left and right directions, it is possible to confirm the performance of the target when it is directed toward the backward and leftward directions.

도 6 및 7은, 시뮬레이션의 표적이 좌향일 때, 각각 220 및 270 프레임에서의 영상에 표시된 결과이다.Figures 6 and 7 are the results displayed on the images at 220 and 270 frames, respectively, when the target of the simulation is leftward.

도 8 및 9는, 시뮬레이션의 표적이 후향일 때, 각각 220 및 270 프레임에서의 영상에 표시된 결과이다.Figures 8 and 9 show the results displayed on the images at 220 and 270 frames, respectively, when the target of the simulation is backward.

상기 시뮬레이션을 수행하고, 270 프레임에서의 영상에 표시된 결과를 하기 표 1에 나타내었다.The above simulation is performed and the results displayed on the image at 270 frames are shown in Table 1 below.

성능비교 지표Performance comparison index 좌향Left 후향Backward 표적이 관심영역 내 존재하는 표적의 비율The percentage of the target that is present in the region of interest 98%98% 100%100% 관심영역 내 표적의 MBR외 픽셀의 비율Percentage of non-MBR pixels in the target area 18.3%18.3% 0%0% MBR(Minimum Boundary Ractangular): 물체를 둘러쌀 수 있는 최외각 사각형MBR (Minimum Boundary Rectangular): An outermost rectangle that can surround an object

상기 표 1에 나타난 바와 같이, 좌향의 경우 표적 추적 필터에서 사용하는 물체의 픽셀 에러로 인하여 물체가 관심영역 내 일정 수준 벗어나 98% 존재하며, 후향의 경우 100% 존재하는 것으로 확인되었다. 또한, MBR을 사용하여 물체의 복잡한 형상을 단순 사각형으로 보았을 때 MBR을 제외한 관심영역 내 물체가 아닌 픽셀의 비율은 각각 18.3%, 0%로 확인되었다. 상기 두가지 데이터를 사용하여 종합적으로 분석하여 보면 표적의 대부분이 표적 크기 추정 알고리즘에 의한 관심영역 내에 포함되며 물체의 복잡한 형상에 의한 오차외 표적 크기 추정의 오차는 20% 이하로 매우 적은 것으로 보여진다. 따라서, 삼각측량법을 이용하여 상대거리를 산출하는 본 출원의 표적 정보 산출 장치는 물체 크기 추정에 적합함을 보여준다.As shown in Table 1, 98% of the object is out of a certain level in the region of interest due to a pixel error of the object used in the target tracking filter in the left direction, and 100% exists in the backward direction. In addition, when the complex shape of the object is viewed as a simple rectangle using the MBR, the ratio of the pixels other than the object in the region of interest excluding the MBR is 18.3% and 0%, respectively. Comprehensive analysis using the above two data shows that most of the targets are included in the area of interest by the target size estimation algorithm and the error of estimating the error outside target size due to the complex shape of the object is less than 20%. Therefore, the target information calculation apparatus of the present application for calculating the relative distance using the triangulation method is shown to be suitable for object size estimation.

이상과 같이, 본 출원은 비록 한정된 실시예와 도면에 의해 설명되었으나, 본 출원은 이것에 의해 한정되지 않으며, 다양한 수정 및 변형이 가능할 수 있다.As described above, although the present application has been described with reference to the limited embodiments and drawings, the present application is not limited thereto, and various modifications and variations may be possible.

10: 센서부
20: 수신부
30: 표시부
40: 산출부
50: 추정부
60: 제어부
10: Sensor unit
20: Receiver
30:
40:
50:
60:

Claims (9)

표적을 포착하기 위하여 비행체에 마련되는 센서부;
상기 센서부로부터 비행체 및 포착된 표적의 위치를 수신하는 수신부;
상기 수신된 위치를 영상으로 표시하는 표시부; 및
제1 시점, 상기 제1 시점의 전 시점인 제2 시점에서의 비행체 위치 및 표적의 각도를 기반으로 하여, 제1 시점에서의 비행체와 표적의 상대거리를 산출하는 표적 정보 산출 장치.
A sensor unit provided on a vehicle for capturing a target;
A receiver for receiving the position of the target and the object from the sensor unit;
A display unit for displaying the received position as an image; And
And calculates a relative distance between the flying object and the target at the first point of time based on the first point of time, the position of the fuselage at the second point of time before the first point of time, and the angle of the target.
제 1 항에 있어서,
상기 산출부는 하기 수학식 1에 의해 상대 거리를 산출하는 표적 정보 산출 장치:
[수학식 1]
Figure pat00077

상기 수학식 1에서, M, T, t, t-1은 각각 비행체, 표적, 제1시점, 제2 시점을 나타내고,
Figure pat00078
는 표적 각도을 나타내며,
Figure pat00079
는 제1 비행체 각도를 나타낸다.
The method according to claim 1,
Wherein the calculating unit calculates the relative distance by the following equation (1): " (1) "
[Equation 1]
Figure pat00077

In the above Equation 1, M, T, t, and t-1 denote a flying object, a target, a first viewpoint and a second viewpoint, respectively,
Figure pat00078
Represents the target angle,
Figure pat00079
Represents the first air vehicle angle.
제 1 항에 있어서,
상기 산출부는 제1 및 제2 시점에서의 비행체 고도를 비교하여, 제1 비행체 각도(
Figure pat00080
), 제2 비행체 각도(
Figure pat00081
) 및 표적 각도(
Figure pat00082
)를 산출하는 표적 정보 산출 장치.
The method according to claim 1,
The calculating unit compares the altitudes of the flying objects at the first and second points of time,
Figure pat00080
), The second flight angle (
Figure pat00081
) And target angle (
Figure pat00082
) Of the target information.
제 3 항에 있어서,
상기 산출부는 제1 시점에서의 비행체 고도가 제2 시점에서의 비행체 고도보다 높은 경우, 하기 수학식 2 및 3에 의해 제1 비행체 각도(
Figure pat00083
) 및 표적 각도(
Figure pat00084
)를 산출하는 표적 정보 산출 장치:
[수학식 2]
Figure pat00085

Figure pat00086

[수학식 3]
Figure pat00087

상기 수학식 2에서,
Figure pat00088
는 제1 산출각을 나타내고,
Figure pat00089
는 제2 산출각을 나타내며, α는 비행체의 제1 좌표 설정값을 나타낸다.
The method of claim 3,
When the flight altitude at the first point in time is higher than the flight altitude at the second point in time, the calculation unit calculates the first flight angle
Figure pat00083
) And target angle (
Figure pat00084
): ≪ EMI ID = 2.0 >
&Quot; (2) "
Figure pat00085

Figure pat00086

&Quot; (3) "
Figure pat00087

In Equation (2)
Figure pat00088
Represents a first calculation angle,
Figure pat00089
Represents a second calculation angle, and a represents a first coordinate set value of the flying object.
제 4 항에 있어서,
상기 비행체의 제1 좌표 설정값(
Figure pat00090
)은, 하기 수학식 4에 의해 결정되는 표적 정보 산출 장치:
[수학식 4]
Figure pat00091

상기 수학식 4에서,
Figure pat00092
는 제2 시점에서의 비행체의 x축 좌표를 나타내고,
Figure pat00093
는 제1 시점에서의 비행체의 y축 좌표를 나타낸다.
5. The method of claim 4,
The first coordinate set value (
Figure pat00090
) Is determined by the following equation (4):
&Quot; (4) "
Figure pat00091

In Equation (4)
Figure pat00092
Axis coordinate of the flying object at the second time point,
Figure pat00093
Represents the y-axis coordinate of the flying object at the first time point.
제 3 항에 있어서,
상기 산출부는 제1 시점에서의 비행체 고도가 제2 시점에서의 비행체 고도보다 낮은 경우, 하기 수학식 5 및 6에 의해 의해 제1 비행체 각도(
Figure pat00094
) 및 표적 각도(
Figure pat00095
)을 산출하는 표적 정보 산출 장치:
[수학식 5]
Figure pat00096

Figure pat00097

[수학식 6]
Figure pat00098

상기 수학식 5에서,
Figure pat00099
는 제1 산출각을 나타내고,
Figure pat00100
는 제2 산출각을 나타내며,
Figure pat00101
는 비행체의 제2 좌표 설정값을 나타낸다.
The method of claim 3,
If the flight altitude at the first point in time is lower than the flight altitude at the second point in time, the calculation unit calculates the first aircraft angle < RTI ID = 0.0 >
Figure pat00094
) And target angle (
Figure pat00095
): ≪ / RTI >
&Quot; (5) "
Figure pat00096

Figure pat00097

&Quot; (6) "
Figure pat00098

In Equation (5)
Figure pat00099
Represents a first calculation angle,
Figure pat00100
Represents a second calculation angle,
Figure pat00101
Represents the second coordinate set value of the air vehicle.
제 6 항에 있어서, 상기 비행체의 제2 좌표 설정값(
Figure pat00102
)은, 하기 수학식 7에 의해 결정되는 표적 정보 산출 장치:
[수학식 7]
Figure pat00103

상기 수학식 4에서,
Figure pat00104
는 제1 시점에서의 비행체의 x축 좌표를 나타내고,
Figure pat00105
는 제2 시점에서의 비행체의 y축 좌표를 나타낸다.
7. The method of claim 6, further comprising:
Figure pat00102
) Is determined by the following formula (7): " (7) "
&Quot; (7) "
Figure pat00103

In Equation (4)
Figure pat00104
Axis coordinate of the air vehicle at the first time point,
Figure pat00105
Represents the y-axis coordinate of the flying object at the second time point.
비행체 및 표적 위치를 수신하는 수신 단계;
상기 수신된 위치를 영상으로 표시하는 표시 단계; 및
제1 시점, 상기 제1 시점의 전 시점인 제2 시점에서의 비행체 위치 및 표적의 각도를 기반으로 하여, 제1 시점에서의 비행체와 표적의 상대 거리를 산출하는 산출 단계를 포함하는 표적 정보 산출 방법.
A receiving step of receiving a flying object and a target position;
A display step of displaying the received position as an image; And
Calculating a relative distance between the flying object and the target at the first time point based on the first point of time, the position of the fuselage at the second point of time before the first point of time, and the angle of the target, Way.
비행체; 및
상기 비행체를 제어하는 제 1 항 내지 제 7 항 어느 한 항에 따른 표적 정보 산출 장치를 포함하는 비행 제어 시스템.
Flight; And
A flight control system comprising the target information calculation device according to any one of claims 1 to 7 for controlling the air vehicle.
KR1020170008842A 2017-01-18 2017-01-18 Apparatus for calculating target information, method thereof and flight control system comprising the same KR101957662B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170008842A KR101957662B1 (en) 2017-01-18 2017-01-18 Apparatus for calculating target information, method thereof and flight control system comprising the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170008842A KR101957662B1 (en) 2017-01-18 2017-01-18 Apparatus for calculating target information, method thereof and flight control system comprising the same

Publications (2)

Publication Number Publication Date
KR20180085300A true KR20180085300A (en) 2018-07-26
KR101957662B1 KR101957662B1 (en) 2019-03-13

Family

ID=63047759

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170008842A KR101957662B1 (en) 2017-01-18 2017-01-18 Apparatus for calculating target information, method thereof and flight control system comprising the same

Country Status (1)

Country Link
KR (1) KR101957662B1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102219820B1 (en) * 2019-09-26 2021-02-24 엘아이지넥스원 주식회사 Apparatus and method for tracking target
KR102233742B1 (en) * 2019-09-26 2021-03-30 엘아이지넥스원 주식회사 Aerial vehicle for detecting target

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070891A (en) * 2010-12-22 2012-07-02 국방과학연구소 Aided navigation apparatus using 3 dimensional image and inertial navigation system using the same
KR101556918B1 (en) * 2014-01-28 2015-10-02 국방과학연구소 Method for estimating the size of the imaging target

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20120070891A (en) * 2010-12-22 2012-07-02 국방과학연구소 Aided navigation apparatus using 3 dimensional image and inertial navigation system using the same
KR101556918B1 (en) * 2014-01-28 2015-10-02 국방과학연구소 Method for estimating the size of the imaging target

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102219820B1 (en) * 2019-09-26 2021-02-24 엘아이지넥스원 주식회사 Apparatus and method for tracking target
KR102233742B1 (en) * 2019-09-26 2021-03-30 엘아이지넥스원 주식회사 Aerial vehicle for detecting target

Also Published As

Publication number Publication date
KR101957662B1 (en) 2019-03-13

Similar Documents

Publication Publication Date Title
US10436884B2 (en) Calibration of laser and vision sensors
US20210096230A1 (en) Calibration of laser sensors
US10726576B2 (en) System and method for identifying a camera pose of a forward facing camera in a vehicle
EP3081902B1 (en) Method and apparatus for correcting aircraft state in real time
US7925049B2 (en) Stereo-based visual odometry method and system
US9031809B1 (en) Method and apparatus for generating three-dimensional pose using multi-modal sensor fusion
WO2017050279A1 (en) Unmanned aerial vehicle depth image acquisition method, device and unmanned aerial vehicle
US11094208B2 (en) Stereo camera system for collision avoidance during aircraft surface operations
US20210392317A1 (en) Aircraft with opposed wingtip-mounted cameras and method of operating the aircraft that compensate for relative motion of the opposed wingtip-mounted cameras
US20200191556A1 (en) Distance mesurement method by an unmanned aerial vehicle (uav) and uav
US20220327737A1 (en) Determining position using computer vision, lidar, and trilateration
EP2901236B1 (en) Video-assisted target location
EP3674210A1 (en) Movable object control method, device and system
EP3155369B1 (en) System and method for measuring a displacement of a mobile platform
CN110007313A (en) Obstacle detection method and device based on unmanned plane
US11543513B2 (en) Information processing apparatus, information processing method and program
KR101823774B1 (en) Method for estimating geometric information of target using adaptive guidance filter with strapdown image seeker
US20160034607A1 (en) Video-assisted landing guidance system and method
KR101957662B1 (en) Apparatus for calculating target information, method thereof and flight control system comprising the same
EP3667462B1 (en) Screen position estimation
CN115291219A (en) Method and device for realizing dynamic obstacle avoidance of unmanned aerial vehicle by using monocular camera and unmanned aerial vehicle
CN110989645B (en) Target space attitude processing method based on compound eye imaging principle
KR101821992B1 (en) Method and apparatus for computing 3d position of target using unmanned aerial vehicles
GB2486980A (en) Range and Velocity Estimation in Video Data Using Anthropometric Measures
KR20150089791A (en) Method for estimating the size of the imaging target

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant