KR102344264B1 - Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof - Google Patents
Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof Download PDFInfo
- Publication number
- KR102344264B1 KR102344264B1 KR1020210148630A KR20210148630A KR102344264B1 KR 102344264 B1 KR102344264 B1 KR 102344264B1 KR 1020210148630 A KR1020210148630 A KR 1020210148630A KR 20210148630 A KR20210148630 A KR 20210148630A KR 102344264 B1 KR102344264 B1 KR 102344264B1
- Authority
- KR
- South Korea
- Prior art keywords
- angle information
- viewing angle
- compensation coefficient
- viewpoint
- information
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/183—Compensation of inertial measurements, e.g. for temperature effects
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/10—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
- G01C21/12—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
- G01C21/16—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
- G01C21/165—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
- G01C21/1656—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C25/00—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
- G01C25/005—Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
Abstract
Description
본 발명은 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법에 관한 것으로, 특히 사전 지리적 정보가 없는 미측지된 정지물체를 대상으로 하여 이동형 시스템에 탑재되는 전자광학추적장치의 영상센서와 관성센서 간의 광기구적 자동 정렬을 위한 장치 및 방법에 관한 것이다.The present invention relates to an electro-optical tracking device mounted on a mobile system capable of automatic gaze angle correction and a method therefor. In particular, an electro-optical tracking device mounted on a mobile system for an un-geometry stationary object without prior geographic information. To an apparatus and method for optical mechanical automatic alignment between an image sensor and an inertial sensor.
도 1은 종래 기술에서의 관성센서와 영상센서 간의 정렬 방법을 설명하기 위한 도면이다.1 is a view for explaining an alignment method between an inertial sensor and an image sensor in the prior art.
기존의 관성센서와 영상센서 간의 시선 정렬은 실험실 제조 및 교정 공정과정에서 시준기와 같은 광학시험장비로 측정한 보상계수를 관성센서 축에 보상하였다.For the line-of-sight alignment between the existing inertial sensor and the image sensor, the compensation coefficient measured with an optical test equipment such as a collimator during the laboratory manufacturing and calibration process was compensated to the inertial sensor axis.
보다 정밀한 정렬을 위해 비행 중 대상물체의 좌표로 구동하여 영상을 획득하면(S10), 획득한 영상을 대상으로 지상에서의 후처리를 통해 육안으로 대상물체를 식별하고(S20), 영상 내 촬영된 대상물체까지의 픽셀 오차를 획득하여(S30) 보상 계수를 도출 및 적용하는 방법을 사용하였다(S40, S50).For more precise alignment, when an image is acquired by driving to the coordinates of the object during flight (S10), the acquired image is subjected to post-processing on the ground to visually identify the object (S20), and the A method of deriving and applying a compensation coefficient by obtaining a pixel error up to the target object (S30) was used (S40, S50).
이러한 종래기술은 수동 후처리 시선 보정 방식을 적용하고 있는바, 장비호기마다 그리고 재조립시마다 비행 소티(sortie)를 별도로 할당해야만 한다는 문제가 있다. 또한, 후처리로 사용자가 직접 육안으로 영상 내 대상물체 식별을 통해 보상계수를 도출해야 하므로 절차가 번거롭고 비용과 시간이 많이 소요되는 문제가 있었다.Since this prior art applies a manual post-processing gaze correction method, there is a problem that a flight sortie must be allocated separately for each equipment unit and for each reassembly. In addition, as a post-processing procedure, the user had to derive a compensation coefficient through visual identification of an object in the image, so the procedure was cumbersome, costly and time-consuming.
또한, 대상물체는 사전에 측지된 알려진 지리적 좌표의 표적으로 한정되는 문제가 있었다. 따라서, 종래 기술은 사전측지 절차가 수반되어야 하였으며, 대상물체를 관측하기 위한 항공기의 경로 또한 사전에 계획되어야 하는 번거로움이 존재하였다.In addition, there is a problem in that the target object is limited to a target of known geographic coordinates geodesiced in advance. Therefore, in the prior art, a prior geodetic procedure was required, and the path of the aircraft for observing the target was also cumbersome to be planned in advance.
본 발명의 해결하고자 하는 과제는 사전 지리적 정보가 없는 미측지된 정지물체를 대상물체로 하여 이동형 시스템에 탑재되는 전자광학추적장치 내 영상센서와 동일 광학벤치 상에 장착되어 있는 관성센서의 시선각을 영상센서를 기준으로 광기구적 정밀 정렬할 수 있는, 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법을 제공한다.The problem to be solved by the present invention is to measure the viewing angle of an inertial sensor mounted on the same optical bench as an image sensor in an electro-optical tracking device mounted on a mobile system by using an unmeasured stationary object without prior geographic information as a target object. Provided are an electro-optical tracking device mounted on a mobile system capable of optical mechanical precision alignment based on an image sensor and automatic viewing angle correction, and a method therefor.
다만, 본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical task to be achieved by the present embodiment is not limited to the above-described technical task, and other technical tasks may exist.
상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제1 측면에 따른 이동형 시스템에 탑재되는 전자광학추적장치에서의 자동 시선각 보정 방법은 광학벤치 내 영상센서를 통해 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 추적하는 단계; 항공기의 선회 전후의 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계; 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계; 상기 광학벤치 내 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 획득하는 단계; 상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계; 및 상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, the automatic viewing angle correction method in the electro-optical tracking device mounted on the mobile system according to the first aspect of the present invention is the tail side without prior geographic information through the image sensor in the optical bench. tracking the image of the detected still object; obtaining reference coordinates for the unrecognized stationary object based on laser measurement distance information before and after turning of the aircraft; generating reference line of sight information corresponding to each viewpoint based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the non-measured stationary object; acquiring line-of-sight information on an un-measured still object that is being tracked in the image based on an output value of an inertial sensor in the optical bench; estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information; and compensating for the viewing angle information of the inertial sensor based on the compensation coefficient.
본 발명의 일부 실시 예에서, 상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계는, i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득할 수 있다.In some embodiments of the present invention, the step of obtaining the reference coordinates for the unreasonable stationary object includes the coordinates of the i-th (i is a natural number) aircraft, and the i-th obtained laser measurement distance and measurement error. The reference coordinates may be obtained by applying a square estimation method.
본 발명의 일부 실시 예에서, 상기 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계는, 상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하는 단계; 상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하는 단계; 및 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계를 포함할 수 있다.In some embodiments of the present invention, the generating of the reference line-of-sight information corresponding to each point of view comprises: setting the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates for the un-measured stationary object to a global coordinate system reference position. providing as a vector; converting the earth coordinate system reference position vector into a navigation coordinate system reference position vector; and generating reference gaze angle information for each viewpoint in the converted navigation coordinate system reference position vector.
본 발명의 일부 실시 예에서, 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계는, 상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성할 수 있다.In some embodiments of the present invention, the generating of the reference viewing angle information for each viewpoint in the converted navigation coordinate system reference position vector includes generating the heading Euler reference viewing angle information and the pitch Euler reference viewing angle information for each viewpoint can do.
본 발명의 일부 실시 예에서, 상기 영상 추적 중인 정지물체에 대한 시선각 정보를 획득하는 단계는, 상기 항공기 관성항법장치와의 전달정렬에 기초하여 상기 시선각 정보를 획득할 수 있다.In some embodiments of the present invention, the obtaining of the line-of-sight information for the still object being tracked may include obtaining the line-of-sight information based on a transfer alignment with the aircraft inertial navigation system.
본 발명의 일부 실시 예에서, 상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계는, 상기 기준 시선각 정보와 시선각 정보를 각 변환행렬의 적용을 통해 각 시점별 보상계수를 산출하는 단계; 및 상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of estimating the reference viewing angle information and the compensation coefficient based on the viewing angle information includes applying the reference viewing angle information and the viewing angle information to each transformation matrix to apply a compensation coefficient for each viewpoint. calculating ; and estimating the compensation coefficient based on an average value of Euler angles corresponding to the compensation coefficients for each time point.
본 발명의 일부 실시 예에서, 상기 기준 시선각 정보와 시선각 정보를 각 변환행렬을 통해 각 시점별 보상계수를 산출하는 단계는, 상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출할 수 있다.In some embodiments of the present invention, the step of calculating the compensation coefficient for each viewpoint through each transformation matrix of the reference gaze angle information and the viewing angle information includes converting the viewpoint generated by the reference gaze angle information into a navigation coordinate system. The compensation coefficient for each viewpoint may be calculated based on a product of one transformation matrix and a second transformation matrix that transforms the navigation coordinate system generated by the gaze angle information into the inertial navigation device-based coordinate system.
본 발명의 일부 실시 예는, 상기 추정된 보상계수를 데이터 저장부 상에 저장하는 단계를 더 포함할 수 있다.Some embodiments of the present invention may further include storing the estimated compensation coefficient in a data storage unit.
또한, 본 발명의 제2 측면에 따른 자동 시선각 보정이 가능한 전자광학추적장치는 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 촬영하는 영상센서와, 항공기의 선회 전후의 레이저 측정 거리 정보를 획득하는 레이저 거리측정기와, 상기 미측지된 정지물체에 상응하는 가속도 센서값 및 자이로 센서값을 포함하는 출력값을 생성하는 관성센서를 포함하는 김벌 구조의 광학벤치, 상기 촬영된 영상으로부터 상기 미측지된 정지물체를 추적하는 영상 추적부, 상기 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 산출하는 김벌구조의 관성항법장치 및 상기 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하고, 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하며, 상기 기준 시선각 정보와 시선각 정보에 기반하여 보상계수를 추정하는 관성센서 자동정렬장치를 포함하고, 상기 관성항법장치는 상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상한다.In addition, the electro-optical tracking device capable of automatic viewing angle correction according to the second aspect of the present invention includes an image sensor that captures an image of an unreasonable still object without prior geographic information, and laser measurement distance information before and after turning of an aircraft. An optical bench having a gimbal structure including a laser range finder to acquire, an inertial sensor for generating an output value including an acceleration sensor value and a gyro sensor value corresponding to the unreasonable stationary object, An image tracking unit for tracking a still object, an inertial navigation device having a gimbal structure that calculates viewing angle information for an un-measured still object that is being tracked in the image based on an output value of the inertial sensor, and the laser measurement distance information Acquire reference coordinates for an unreasonable stationary object, and generate reference line-of-sight information corresponding to each viewpoint based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the unreasonable stationary object, and the reference and an inertial sensor automatic alignment device for estimating a compensation coefficient based on the gaze angle information and the gaze angle information, wherein the inertial navigation device compensates the gaze angle information of the inertial sensor based on the compensation coefficient.
본 발명의 일부 실시 예에서, 상기 관성센서 자동정렬장치는, i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득할 수 있다.In some embodiments of the present invention, the inertial sensor automatic alignment device applies the least-squares estimation method to the coordinates of the i-th (i is a natural number) aircraft, the i-th acquired laser measurement distance and measurement error, and the reference coordinates can be obtained.
본 발명의 일부 실시 예에서, 상기 관성센서 자동정렬장치는, 상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하고, 상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하고, 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 기준 시선각 정보 생성부를 포함할 수 있다.In some embodiments of the present invention, the inertial sensor automatic alignment device provides the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates for the unmeasured stationary object as a global coordinate system reference position vector, and the global coordinate system and a reference gaze angle information generator that converts a reference position vector into a reference position vector of the navigation coordinate system and generates reference gaze angle information for each viewpoint in the converted navigation coordinate system reference position vector.
본 발명의 일부 실시 예에서, 상기 기준 시선각 정보 생성부는, 상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성할 수 있다.In some embodiments of the present disclosure, the reference viewing angle information generating unit may generate the heading Euler reference viewing angle information and the pitch Euler reference viewing angle information for each viewpoint.
본 발명의 일부 실시 예에서, 상기 관성센서 자동정렬장치는, 상기 기준 시선각 정보와 시선각 정보의 각 변환행렬 적용을 통해 각 시점별 보상계수를 산출하고, 상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 보상계수 추정부와, 상기 추정된 보상계수를 저장하는 데이터 저장부를 포함할 수 있다.In some embodiments of the present invention, the inertial sensor automatic alignment device calculates a compensation coefficient for each viewpoint by applying each transformation matrix of the reference viewing angle information and the viewing angle information, and corresponds to the compensation coefficient for each viewpoint. It may include a compensation coefficient estimator for estimating the compensation coefficient based on the average value of the Euler angle, and a data storage unit for storing the estimated compensation coefficient.
본 발명의 일부 실시 예에서, 상기 보상계수 추정부는, 상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출할 수 있다.In some embodiments of the present invention, the compensation coefficient estimator may include a first transformation matrix that converts the viewpoint generated by the reference gaze angle information into a navigation coordinate system, and the inertial navigation device based on the navigation coordinate system generated by the gaze angle information A compensation coefficient for each viewpoint may be calculated based on the product of the second transformation matrix transformed into the coordinate system.
이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.
본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.
전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 이동형 시스템에서 비행 중 정지물체에 대한 영상추적 프로세스의 수행만으로 사용자의 개입없이 자동으로 보상계수 도출 및 실시간 보상이 가능하다는 장점이 있다. 이러한 자동 시선각 보정 방법은 후처리 수동 분석 과정이 필요없으며, 운용 중 실시간 보정을 수행하므로 추가적인 비행 소티의 할당이 필요 없다는 장점이 있다. 또한, 제조 및 교정 공정 설비 오차에 비해 더욱 정밀한 광기구적 보정이 가능한바, 작은 잔류 오차 개선을 통해 보다 영상시선에 대한 정밀한 지리적 정보(geo-location) 제공이 가능하다.According to any one of the above-described problem solving means of the present invention, there is an advantage that compensation coefficients can be automatically derived and real-time compensation is possible without user intervention only by performing an image tracking process for a stationary object in flight in a mobile system. This automatic gaze angle correction method does not require a post-processing manual analysis process, and has the advantage of not requiring additional flight sorting assignments because real-time correction is performed during operation. In addition, since more precise optical mechanical correction is possible compared to manufacturing and calibration process equipment errors, it is possible to provide more precise geo-location for image gaze through small residual error improvement.
특히, 본 발명은 전자광학 추적장치의 고유 기능인 영상추적 프로세스를 수행하는 동안 지리적 좌표가 알려진 계획 표적이 아닌, 위치가 확인되지 않은 미측지된 정지된 기회 물체에 대해 항상 수행 가능하다는 장점이 있다. 지리적 좌표가 알려진 물체로 대상 물체를 제한하는 시스템의 경우, 항공기 이동 경로 상에 관측 가능한 특정한 정지 물체에 대한 사전 측지 정보가 필요하므로, 항공기의 예상 이동 경로가 바뀔 때마다 새로운 정지물체를 탐지해야만 하고 정밀 측지도 필요하다는 문제가 있다. 또한, 운용자는 대상 물체가 변경될 때마다 변경된 사전 측지 정보를 수동으로 시스템에 장입해야 하는 문제가 있었다.In particular, the present invention has the advantage that it can always be performed on an unlocated stationary opportunity object, not a planned target with known geographic coordinates, while performing the image tracking process, which is a unique function of the electro-optical tracking device. In the case of a system that restricts target objects to objects with known geographic coordinates, prior geodetic information about specific observable stationary objects on the aircraft's movement path is required. There is a problem that precise geodetic maps are required. In addition, there is a problem in that the operator has to manually load the changed prior geodetic information into the system whenever the target object is changed.
이러한 문제를 해소하기 위해, 본 발명의 일 실시예는 대상 물체를 특정하지 않으므로 항공기의 경로 변경 및 관측 가능 범위 분석 절차가 필요로 하지 않으며, 영상추적 운용 중 시선각 보정을 동시에 수행할 수 있어, 효율적인 장비 운용이 가능하다는 장점이 있다.In order to solve this problem, an embodiment of the present invention does not specify a target object, so it does not require a route change of an aircraft and a procedure for analyzing the observable range, and it is possible to simultaneously perform a gaze angle correction during image tracking operation, It has the advantage of enabling efficient equipment operation.
본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.
이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시 예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 종래 기술에서의 관성센서와 영상센서 간의 정렬 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 전자광학추적장치를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 자동 시선각 보정 방법의 순서도이다.
도 4는 대상 물체의 기준좌표를 결정하는 내용을 설명하기 위한 도면이다.
도 5는 기준 시선각 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 6a 및 도 6b는 보상계수 추정 단계 및 자동 시선 정렬 단계를 설명하기 위한 도면이다.The accompanying drawings below are provided to help understanding of the present embodiment, and provide embodiments together with detailed description. However, the technical features of the present embodiment are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to constitute a new embodiment.
1 is a view for explaining an alignment method between an inertial sensor and an image sensor in the prior art.
2 is a view for explaining an electro-optical tracking device according to an embodiment of the present invention.
3 is a flowchart of an automatic gaze angle correction method according to an embodiment of the present invention.
4 is a view for explaining the content of determining the reference coordinates of the target object.
5 is a diagram for explaining a process of generating reference gaze angle information.
6A and 6B are diagrams for explaining a compensation coefficient estimation step and an automatic gaze alignment step.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only those of ordinary skill in the art to which the present invention pertains, to complete the disclosure of the present invention. It is provided to fully understand the scope of the present invention, and the present invention is only defined by the scope of the claims.
본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.
다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.
이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명의 일 실시 예에 따른 전자광학추적장치(100)를 설명하기 위한 도면이다.2 is a view for explaining the electro-
본 발명의 일 실시 예에 따른 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치(100)는 광학벤치(110), 영상 추적부(120), 관성항법장치(130) 및 관성센서 자동정렬장치(140)를 포함한다.The electro-
광학벤치(110)는 김벌(Gimbal) 구조를 갖는 광학벤치로, 영상센서(111), 관성센서(112), 레이저 거리측정기(113) 및 구동기(114)를 포함한다. The
영상센서(111)는 IR 센서(Infrared Sensor), CCD(Charge Coupled Device) 카메라, 레이저 영상센서(Lidar-Vision Sensor) 등일 수 있으며, 정지물체의 영상을 촬영한다. 이때, 본 발명의 일 실시예는 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 촬영하는 것을 특징으로 한다. 영상 추적부(120)는 상기 촬영된 영상을 통해 미측지된 정지물체를 추적한다.The
관성센서(112)는 자이로와 가속도계로 이루어지며, 미측지된 정지물체에 상응하는 가속도 센서값 및 자이로 센서값을 포함하는 출력값을 생성한다.The
레이저 거리측정기(113)는 항공기의 선회 전후의 레이저 측정 거리 정보를 획득한다.The laser range finder 113 acquires laser measurement distance information before and after turning of the aircraft.
관성항법장치(130)는 김벌 구조를 가지며, 관성센서(112)의 출력값에 기초하여 영상 추적 중인 미측지된 정지 물체에 대한 시선각 정보를 산출한다. 이러한 관성항법장치(130)는 전달정렬 칼만 필터부(131), 관성항법 계산부(132) 및 보상계수 보상부(133)를 포함한다.The
전달정렬 칼만 필터부(131)는 항공기 관성항법장치와 같이 위치, 속도 및 자세 정보를 제공하는 보조센서를 이용하여 전달정렬 오차를 추정한다.The transmission alignment
관성항법 계산부(132)는 관성센서(112)의 출력값을 입력받고 이를 기반으로 전자광학추적장치(100)의 위치, 속도 및 자세를 계산하며, 추정된 전달정렬 오차를 보상한다.The inertial
보상계수 보상부(133)는 관성센서 자동정렬장치(140)에 의해 추정된 보상계수를 전달받아 관성센서(112)의 시선각 정보에 실시간으로 보상을 수행한다.The
다음으로, 관성센서 자동정렬장치(140)는 기준좌표 획득부(141), 기준 시선각 정보 생성부(142), 보상계수 추정부(143) 및 데이터 저장부(144)를 포함한다.Next, the inertial sensor
기준좌표 획득부(141)는 레이저 측정 거리 정보에 기초하여 미측지된 정지물체에 대한 기준좌표를 획득한다.The reference coordinate acquisition unit 141 acquires reference coordinates for an unmeasured stationary object based on the laser measurement distance information.
기준 시선각 정보 생성부(142)는 항공기 운항 중 미측지된 정지 물체에 대한 영상추적 프로세스를 수행하면서, 항공기 이동좌표와 미측지된 정지물체의 기준좌표를 기반으로 실시간으로 각 시점에 상응하는 기준 시선각 정보를 생성한다.The reference line of sight
보상계수 추정부(143)는 기준 시선각 정보와 관성항법장치(130)로부터의 시선각 정보에 기반하여 보상계수를 추정한다. The
데이터 저장부(144)는 일 예로 플래시 메모리 타입으로 구성될 수 있으며, 영상추적 프로세스가 종료되면 추정한 보상계수를 저장하며, 실시간으로 관성항법장치(130)로 보상계수를 제공한다.The
이러한 보상계수를 제공받은 관성항법장치(130)는 저장된 유효한 보상계수가 있을 경우, 이 값을 입력받아 실시간으로 계산된 관성센서(112)의 시선각 정보를 보상할 수 있다.When there is a stored effective compensation coefficient, the
참고로, 본 발명의 실시 예에 따른 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, the components shown in FIG. 2 according to an embodiment of the present invention may be implemented in the form of software or hardware such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and perform predetermined roles. can do.
그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, the term 'components' is not limited to software or hardware, and each component may be configured to reside in an addressable storage medium or to reproduce one or more processors.
따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component includes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, sub It includes routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and functions provided within the components may be combined into a smaller number of components or further divided into additional components.
이하에서는 도 3 내지 도 5b를 참조하여 본 발명의 일 실시 예에 따른 이동형 시스템에 탑재되는 전자광학추적장치(100)에서의 자동 시선각 보정 방법에 대하여 설명하도록 한다.Hereinafter, an automatic gaze angle correction method in the electro-
도 3은 본 발명의 일 실시 예에 따른 자동 시선각 보정 방법의 순서도이다.3 is a flowchart of an automatic gaze angle correction method according to an embodiment of the present invention.
먼저, 광학벤치(110) 내 영상센서(111)를 통해 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 추적하고(S110), 레이저 측정 거리 정보에 기초하여 미측지된 정지물체에 대한 기준좌표를 획득한다(S120).First, an image of an unreasonable still object without prior geographic information is tracked through the
도 4는 대상 물체의 기준좌표를 결정하는 내용을 설명하기 위한 도면이다.4 is a view for explaining the content of determining the reference coordinates of the target object.
일반적인 전자광학추적장치의 표적좌표 획득 방법은 항공기 좌표, 시선각, 그리고 레이저 측정거리 또는 전자고도맵 정보를 이용하여 삼각법 또는 Geo-Location 알고리즘을 이용하여 계산한다. 그러나, 본 발명의 일 실시예의 경우 기준 시선각 정보를 생성하기 위해 기준좌표를 획득하는 것이며, 관성센서의 시선각 측정 데이터로 획득한 좌표는 기준좌표가 될 수 없어, 일반적인 표적좌표 획득 방법을 적용할 수 없다. 따라서, 본 발명의 일 실시예의 경우 미측지된 정지물체의 기준좌표는 레이저 측정 거리 정보와 항공기 좌표의 선형함수로 최소자승법을 이용하여 산출할 수 있다.The general method of acquiring target coordinates of an electro-optical tracking device is calculated using trigonometry or geo-location algorithm using aircraft coordinates, line of sight, and laser measurement distance or electronic altitude map information. However, in the case of an embodiment of the present invention, reference coordinates are acquired to generate reference viewing angle information, and coordinates obtained as gaze angle measurement data of the inertial sensor cannot be reference coordinates, so a general target coordinate acquisition method is applied. Can not. Accordingly, in the case of an embodiment of the present invention, the reference coordinates of the unmeasured stationary object may be calculated using the least squares method as a linear function of the laser measurement distance information and the aircraft coordinates.
도 4는 각각의 항공기의 위치에서 획득한 레이저 측정 거리 정보에 대한 미측지된 정지물체의 가능한 위치를 구의 표면으로 나타낸 것이다. 두 개의 항공기 좌표()와 레이저 측정 거리 정보(,)를 획득한다면, 각각 구 표면(,)의 가능한 좌표를 획득하게 된다. 그리고 구 표면의 교점인 2개의 가능한 좌표(,)를 획득한다. 이 중 대상물체는 항공기의 고도보다 낮다는 제한을 둔다면 T가 기준좌표가 된다.4 is a spherical surface showing the possible positions of an unreasonable stationary object with respect to the laser measurement distance information obtained at the positions of each aircraft. two aircraft coordinates ( ) and laser measurement distance information ( , ), each spherical surface ( , ) to obtain possible coordinates of And the two possible coordinates of the intersection of the sphere surfaces ( , ) is obtained. Among them, if there is a restriction that the target object is lower than the altitude of the aircraft, T becomes the reference coordinate.
기준좌표 는 하기 수학식 1에 의해 결정될 수 있으며, i번째(i는 자연수) 획득한 레이저 측정 거리, 측정오차, i번째 항공기 좌표를 대상으로 선형화에 기반한 반복적인 기법인 최소자승추정법(Linear Square Estimation)을 적용하여 획득할 수 있다.reference coordinates can be determined by the following
[수학식 1][Equation 1]
위 수학식 1의 비선형방정식을 통해 대상물체의 기준좌표를 획득할 수 있다. 관성항법 계산부(132)의 출력인 시선각 정보로부터 개략적으로 좌표 를 알 수 있으며, 실제 위치에서의 오차 )를 나타낼 수 있다. 개략적인 위치에 대해 테일러 급수에서 i개의 샘플로 확장한다면, 위치 오차를 산출할 수 있으며 이를 통해 기준좌표 도 획득할 수 있다.The reference coordinates of the target object can be obtained through the nonlinear equation of
다음으로, 항공기 관성항법장치(10)로부터 획득한 항공기 좌표와 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성한다(S130).Next, based on the aircraft coordinates obtained from the aircraft
도 5는 기준 시선각 정보를 생성하는 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a process of generating reference gaze angle information.
도 5는 사전 지리적 정보가 없는 미측지된 정지물체에 대해 영상 추적을 수행하면서 기준좌표를 획득하고 기준 시선각 정보를 어떻게 생성하는지 몇몇 시점별로 보여준다.FIG. 5 shows how to acquire reference coordinates and generate reference viewing angle information while performing image tracking for an unrecognized still object without prior geographic information at several viewpoints.
보상계수 계산을 위한 기준 시선각 정보를 획득하는 과정은 다음과 같다. The process of obtaining the reference viewing angle information for calculating the compensation coefficient is as follows.
먼저, 항공기 관성항법장치(10)로부터 획득한 항공기 좌표와 미측지된 정지물체의 기준좌표를 지구 좌표계 {e}를 기준으로 하는 위치벡터로 표현한다.First, the aircraft coordinates obtained from the aircraft
그 다음, 지구 좌표계 기준 위치벡터를 항공기 중심 항법 좌표계 {n}을 기준으로 하는 위치벡터로 변환하고, 변환된 항법 좌표계 기준 위치벡터의 각 시점별 기준 시선각 정보를 생성한다. 이때, 기준 시선각 정보로, 각 시점별 헤딩 오일러 기준각 정보와 피치 오일러 기준 시선각 정보를 생성한다.Next, the global coordinate system reference position vector is converted into a position vector based on the aircraft-centered navigation coordinate system {n}, and reference line of sight information for each viewpoint of the converted navigation coordinate system reference position vector is generated. In this case, as the reference viewing angle information, heading Euler reference angle information and pitch Euler reference viewing angle information for each viewpoint are generated.
상기 기준 시선각 정보는 하기 수학식 2에 기초하여 생성될 수 있다.The reference viewing angle information may be generated based on Equation 2 below.
[수학식 2][Equation 2]
상기 수학식 2에서 는 지구 좌표계 {e}에서의 i 시점에서의 항공기 좌표를 나타내고, 는 지구 좌표계 {n}에서의 미측지된 정지물체의 좌표를 나타낸다. (i)는 i시점에서의 지구 좌표계 {e}에서 항법 좌표계 {n}으로의 변환행렬을 나타내고, 는 i시점에서의 항법 좌표계 {n} 기준 시선벡터의 헤딩 오일러각, 그리고 는 i시점 항법 좌표계 {n} 기준 시선벡터의 피치 오일러각을 각각 나타낸다.In Equation 2 above represents the coordinates of the aircraft at time i in the earth coordinate system {e}, denotes the coordinates of an unrecognized stationary object in the earth coordinate system {n}. (i) represents the transformation matrix from the earth coordinate system {e} to the navigation coordinate system {n} at time i, is based on the navigation coordinate system {n} at point i The heading Euler angle of the gaze vector, and is based on the i-point navigation coordinate system {n} Each of the pitch Euler angles of the gaze vector is indicated.
다음으로, 광학벤치(110) 내 관성센서(112)의 출력값에 기초하여 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 획득한다(S140).Next, based on the output value of the
이 과정에서는 미측지된 정지물체를 추적하고 있는 영상센서(111)와 동일한 광학벤치(110)에 장착된 중급 관성센서(112)를 통해 항법 좌표계에서의 시선각 정보를 측정하는 것으로, 항공기 관성항법장치(10)와의 전달정렬에 기초하여 항법급의 성능으로 관성센서(112)의 시선각 정보를 획득할 수 있다.In this process, the information on the viewing angle in the navigation coordinate system is measured through the intermediate
다음으로, 기준 시선각 정보와 관성항법장치(130)로부터 획득한 시선각 정보에 기초하여 보상계수를 추정한다(S150). Next, a compensation coefficient is estimated based on the reference gaze angle information and the gaze angle information obtained from the inertial navigation device 130 ( S150 ).
도 6a 및 도 6b는 보상계수 추정 단계 및 자동 시선 정렬 단계를 설명하기 위한 도면이다.6A and 6B are diagrams for explaining a compensation coefficient estimation step and an automatic gaze alignment step.
구체적으로, 기준 시선각 정보와 관성항법장치(130)로부터 획득한 시선각 정보를 각 변환행렬의 적용을 통해 각 시점별 보상계수를 산출하고, 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 보상계수를 추정할 수 있다.Specifically, the reference gaze angle information and the gaze angle information obtained from the
먼저, 각 시점별 보상계수 는 다음 수학식 3에 기초하여 산출할 수 있다.First, the compensation coefficient for each time point can be calculated based on Equation 3 below.
[수학식 3][Equation 3]
수학식 3에서 는 기준 시선각 정보로 생성한 시점 {los}을 항법 좌표계 {n}으로 변환하는 제1 변환행렬을 나타내고, 는 관성항법장치의 시선각 정보로 생성한 항법 좌표계 {n}에서 관성항법장치 기반 좌표계 {gins}으로 변환하는 제2 변환행렬을 나타낸다.in Equation 3 denotes a first transformation matrix that transforms a viewpoint {los} generated with reference viewing angle information into a navigation coordinate system {n}, denotes a second transformation matrix that transforms the navigation coordinate system {n} generated with the gaze angle information of the inertial navigation device into the inertial navigation device-based coordinate system {gins}.
각 시점별 보상계수 는 제1 변환행렬과 제2 변환행렬의 곱에 기초하여 산출된다.Compensation coefficient for each time point is calculated based on the product of the first transformation matrix and the second transformation matrix.
각 시점별 보상계수가 산출되고 나면, 각 시점별 보상계수에 상응하는 오일러각의 평균값으로 보상계수 M을 결정한다. After the compensation coefficient for each time point is calculated, the compensation coefficient M is determined as the average value of the Euler angles corresponding to the compensation coefficient for each time point.
다음으로, 도출된 보상계수 M은 데이터 저장부(144)에 저장되며, 이후 실시간으로 관성센서(112)의 시선각 정보를 보상한다(S160). Next, the derived compensation coefficient M is stored in the
자동 시선 정렬되어 보상된 관성센서(112)의 시선각 정보(는 다음 수학식 4와 같이 나타낼 수 있다.The gaze angle information of the
[수학식 4][Equation 4]
보상계수를 적용하기 전인 도 6a는 관성센서(112)와 영상센서(111)의 각 시선각 정보가 정렬되어 있지 않은 상태이며, 이를 기반으로 산출된 보상계수를 적용할 경우 도 6b와 같이 정밀한 광기구적 보정이 가능하여 작은 잔류오차 개선을 통해 보다 영상시선에 대한 정밀한 공간정보 제공이 가능하다.6A before applying the compensation coefficient is a state in which the information on each viewing angle of the
상술한 설명에서, 단계 S110 내지 S160은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2에 기술된 내용은 도 3 내지 도 6b의 자동 시선각 보정 방법에도 적용될 수 있다.In the above description, steps S110 to S160 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between steps may be changed. In addition, the contents described in FIG. 2 may be applied to the automatic viewing angle correction method of FIGS. 3 to 6B even if other contents are omitted.
전술한 본 발명의 일 실시예에 따른 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법에 따르면, 레이저 거리 측정 정보와 영상추적 프로세스만 수행하면 자동으로 보정계수를 도출하여 정밀 광기구적 보정을 실시간으로 수행할 수 있다는 장점이 있다. 또한, 실시간 잔류오차 개선을 통해 전자광학추적장치의 정밀 시선각 정보로 타겟팅 성능이 향상된다.According to the electro-optical tracking device and method mounted on the mobile system capable of automatic viewing angle correction according to an embodiment of the present invention described above, if only the laser distance measurement information and the image tracking process are performed, a correction coefficient is automatically derived and precise There is an advantage that photomechanical correction can be performed in real time. In addition, the targeting performance is improved with precise gaze angle information of the electro-optical tracking device through real-time residual error improvement.
이상에서 전술한 본 발명의 일 실시 예에 따른 전자광학추적장치(100)에서의 자동 시선각 보정 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The automatic gaze angle correction method in the electro-
상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program, in order for the computer to read the program and execute the methods implemented as a program, C, C++, JAVA, Ruby, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, this code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.
상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.
전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.
본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.
10: 항공기 관성항법장치
100: 전자광학추적장치
110: 광학 벤치
120: 영상 추적부
130: 관성항법장치
140: 관성센서 자동정렬장치10: aircraft inertial navigation system
100: electro-optical tracking device
110: optical bench
120: video tracking unit
130: inertial navigation device
140: inertial sensor automatic alignment device
Claims (14)
광학벤치 내 영상센서를 통해 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 추적하는 단계;
항공기의 선회 전후의 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계;
항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계;
상기 광학벤치 내 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 획득하는 단계;
상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계; 및
상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상하는 단계를 포함하는 전자광학추적장치에서의 자동 시선각 보정 방법.
In the automatic gaze angle correction method in an electro-optical tracking device mounted on a mobile system,
tracking an image of an unrecognized still object without prior geographic information through an image sensor in the optical bench;
obtaining reference coordinates for the unrecognized stationary object based on laser measurement distance information before and after turning of the aircraft;
generating reference line-of-sight information corresponding to each viewpoint based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the non-measured stationary object;
obtaining information on the viewing angle of the un-measured still object that is being tracked in the image based on an output value of the inertial sensor in the optical bench;
estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information; and
and compensating for the viewing angle information of the inertial sensor based on the compensation coefficient.
상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계는,
i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of obtaining the reference coordinates for the non-measured stationary object comprises:
Automatic gaze angle correction method in an electro-optical tracking device to obtain the reference coordinates by applying the least-squares estimation method to the coordinates of the i-th aircraft (i is a natural number), the laser measurement distance and the measurement error obtained in the i-th .
상기 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계는,
상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하는 단계;
상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하는 단계; 및
상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계를 포함하는 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of generating the reference viewing angle information corresponding to each viewpoint includes:
providing the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates for the non-measured stationary object as a global reference position vector;
converting the earth coordinate system reference position vector into a navigation coordinate system reference position vector; and
and generating reference viewing angle information for each viewpoint in the converted navigation coordinate system reference position vector.
상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계는,
상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
4. The method of claim 3,
The step of generating reference viewing angle information for each viewpoint in the converted navigation coordinate system reference position vector includes:
The automatic gaze angle correction method in the electro-optical tracking device to generate the heading Euler reference gaze angle information and the pitch Euler reference gaze angle information for each viewpoint.
상기 영상 추적 중인 정지물체에 대한 시선각 정보를 획득하는 단계는,
상기 항공기 관성항법장치와의 전달정렬에 기초하여 상기 시선각 정보를 획득하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of obtaining the gaze angle information for the still object being tracked in the image comprises:
An automatic gaze angle correction method in an electro-optical tracking device that acquires the gaze angle information based on a transfer alignment with the aircraft inertial navigation system.
상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계는,
상기 기준 시선각 정보와 시선각 정보를 각 변환행렬의 적용을 통해 각 시점별 보상계수를 산출하는 단계; 및
상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 단계를 포함하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information includes:
calculating a compensation coefficient for each viewpoint by applying the reference viewing angle information and the viewing angle information to each transformation matrix; and
and estimating the compensation coefficient based on the average value of Euler angles corresponding to the compensation coefficients for each viewpoint.
상기 기준 시선각 정보와 시선각 정보를 각 변환행렬을 통해 각 시점별 보상계수를 산출하는 단계는,
상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
7. The method of claim 6,
The step of calculating the compensation coefficient for each viewpoint through each transformation matrix of the reference viewing angle information and the viewing angle information includes:
Based on the product of a first transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a navigation coordinate system, and a second transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a coordinate system based on the inertial navigation device in the navigation coordinate system generated with the gaze angle information An automatic gaze angle correction method in an electro-optical tracking device that calculates a compensation coefficient for each viewpoint.
상기 추정된 보상계수를 데이터 저장부 상에 저장하는 단계를 더 포함하는 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The automatic gaze angle correction method in the electro-optical tracking device further comprising the step of storing the estimated compensation coefficient on a data storage unit.
상기 촬영된 영상으로부터 상기 미측지된 정지물체를 추적하는 영상 추적부,
상기 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 산출하는 김벌구조의 관성항법장치 및
상기 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하고, 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하며, 상기 기준 시선각 정보와 시선각 정보에 기반하여 보상계수를 추정하는 관성센서 자동정렬장치를 포함하고,
상기 관성항법장치는 상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
An image sensor that captures an image of an unrecognized stationary object without prior geographic information, a laser rangefinder that acquires laser distance information before and after turning of an aircraft, and an acceleration sensor value and a gyro corresponding to the unreasonable stationary object An optical bench of a gimbal structure including an inertial sensor that generates an output value including a sensor value,
an image tracking unit for tracking the unrecognized still object from the captured image;
An inertial navigation device having a gimbal structure that calculates line-of-sight information for an un-measured stationary object being tracked in the image based on the output value of the inertial sensor, and
Based on the laser measurement distance information, the reference coordinates for the unreasonable stationary object are acquired, and based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the unreasonable stationary object, a reference corresponding to each time point An inertial sensor automatic aligning device for generating gaze angle information and estimating a compensation coefficient based on the reference gaze angle information and the viewing angle information,
The inertial navigation device is an electro-optical tracking device capable of automatic gaze angle correction that compensates the gaze angle information of the inertial sensor based on the compensation coefficient.
상기 관성센서 자동정렬장치는,
i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
10. The method of claim 9,
The inertial sensor automatic alignment device,
An electro-optical tracking device capable of automatic line-of-sight correction that obtains the reference coordinates by applying the least-squares estimation method to the coordinates of the i-th (i is a natural number) aircraft and the i-th obtained laser measurement distance and measurement error.
상기 관성센서 자동정렬장치는,
상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하고, 상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하고, 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 기준 시선각 정보 생성부를 포함하는 자동 시선각 보정이 가능한 전자광학추적장치.
10. The method of claim 9,
The inertial sensor automatic alignment device,
The aircraft coordinates obtained from the aircraft inertial navigation device and the reference coordinates for the unmeasured stationary object are provided as a global reference position vector, and the global coordinate system reference position vector is converted into a navigation coordinate system reference position vector, and the converted An electro-optical tracking device capable of automatic gaze angle correction including a reference gaze angle information generator for generating reference gaze angle information for each viewpoint in the navigation coordinate system reference position vector.
상기 기준 시선각 정보 생성부는,
상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
12. The method of claim 11,
The reference viewing angle information generating unit,
An electro-optical tracking device capable of automatic viewing angle correction that generates the heading Euler reference viewing angle information and the pitch Euler reference viewing angle information for each viewpoint.
상기 관성센서 자동정렬장치는,
상기 기준 시선각 정보와 시선각 정보의 각 변환행렬 적용을 통해 각 시점별 보상계수를 산출하고, 상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 보상계수 추정부와,
상기 추정된 보상계수를 저장하는 데이터 저장부를 포함하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
10. The method of claim 9,
The inertial sensor automatic alignment device,
Compensation coefficient estimation for calculating a compensation coefficient for each viewpoint by applying the reference viewing angle information and each transformation matrix of the viewing angle information, and estimating the compensation coefficient based on the average value of Euler angles corresponding to the compensation coefficient for each viewpoint government and
An electro-optical tracking device capable of automatic gaze angle correction comprising a data storage unit for storing the estimated compensation coefficient.
상기 보상계수 추정부는,
상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.14. The method of claim 13,
The compensation coefficient estimating unit,
Based on the product of a first transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a navigation coordinate system, and a second transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a coordinate system based on the inertial navigation device in the navigation coordinate system generated with the gaze angle information An electro-optical tracking device capable of automatic viewing angle correction that calculates a compensation coefficient for each viewpoint.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210148630A KR102344264B1 (en) | 2021-11-02 | 2021-11-02 | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210148630A KR102344264B1 (en) | 2021-11-02 | 2021-11-02 | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102344264B1 true KR102344264B1 (en) | 2021-12-29 |
Family
ID=79176789
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210148630A KR102344264B1 (en) | 2021-11-02 | 2021-11-02 | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102344264B1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102455005B1 (en) * | 2022-03-14 | 2022-10-13 | 국방과학연구소 | Apparatus and metohd for generating target coordinates of airborne electro-optical infrared system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100125967A (en) * | 2009-05-22 | 2010-12-01 | 경북대학교 산학협력단 | An apparatus for measuring geometric error of index table in machine tool using laser interferometer and method thereof |
JP2013234946A (en) * | 2012-05-10 | 2013-11-21 | Kawasaki Heavy Ind Ltd | Target position identification device, target position identification system and target position identification method |
KR102226256B1 (en) * | 2020-12-24 | 2021-03-10 | 한화시스템(주) | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof |
-
2021
- 2021-11-02 KR KR1020210148630A patent/KR102344264B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20100125967A (en) * | 2009-05-22 | 2010-12-01 | 경북대학교 산학협력단 | An apparatus for measuring geometric error of index table in machine tool using laser interferometer and method thereof |
JP2013234946A (en) * | 2012-05-10 | 2013-11-21 | Kawasaki Heavy Ind Ltd | Target position identification device, target position identification system and target position identification method |
KR102226256B1 (en) * | 2020-12-24 | 2021-03-10 | 한화시스템(주) | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102455005B1 (en) * | 2022-03-14 | 2022-10-13 | 국방과학연구소 | Apparatus and metohd for generating target coordinates of airborne electro-optical infrared system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107727079B (en) | Target positioning method of full-strapdown downward-looking camera of micro unmanned aerial vehicle | |
CN102741706B (en) | The geographical method with reference to image-region | |
CN111076880B (en) | Multi-point deflection measuring method of long-span bridge considering camera attitude change | |
US20060256200A1 (en) | Method and system for improving video metadata through the use of frame-to-frame correspondences | |
EP2413097A2 (en) | A method, tool, and device for determining the coordinates of points on a surface by means of an accelerometer and a camera | |
CN110501712B (en) | Method, device and equipment for determining position attitude data in unmanned driving | |
CN105973268B (en) | A kind of Transfer Alignment precision quantitative evaluating method based on the installation of cobasis seat | |
CN109146958B (en) | Traffic sign space position measuring method based on two-dimensional image | |
KR101880185B1 (en) | Electronic apparatus for estimating pose of moving object and method thereof | |
KR102006291B1 (en) | Method for estimating pose of moving object of electronic apparatus | |
KR20200064542A (en) | Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof | |
CN110889808A (en) | Positioning method, device, equipment and storage medium | |
CN110657808B (en) | Active target positioning method and system for airborne photoelectric pod | |
CN108917755B (en) | Imaging seeker line-of-sight angle zero error estimation method and device | |
KR102226256B1 (en) | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof | |
KR102344264B1 (en) | Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof | |
CN110906830B (en) | Intelligent distance measuring wheel system and distance measuring method thereof | |
US9885569B2 (en) | Passive altimeter | |
CN108594255A (en) | A kind of laser ranging auxiliary optical image association error compensation method and system | |
CN104535078A (en) | Measuring method for flying object through photoelectric equipment based on marking points | |
KR101722993B1 (en) | Electro optical tracking system | |
CN109146936B (en) | Image matching method, device, positioning method and system | |
Bikmaev et al. | Improving the accuracy of supporting mobile objects with the use of the algorithm of complex processing of signals with a monocular camera and LiDAR | |
KR102576449B1 (en) | Device and method of image registration for 3d models | |
GB2573090A (en) | Calibration of object position-measuring apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A302 | Request for accelerated examination | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |