KR102344264B1 - Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof - Google Patents

Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof Download PDF

Info

Publication number
KR102344264B1
KR102344264B1 KR1020210148630A KR20210148630A KR102344264B1 KR 102344264 B1 KR102344264 B1 KR 102344264B1 KR 1020210148630 A KR1020210148630 A KR 1020210148630A KR 20210148630 A KR20210148630 A KR 20210148630A KR 102344264 B1 KR102344264 B1 KR 102344264B1
Authority
KR
South Korea
Prior art keywords
angle information
viewing angle
compensation coefficient
viewpoint
information
Prior art date
Application number
KR1020210148630A
Other languages
Korean (ko)
Inventor
최성혜
김동준
한아름
조재호
박기영
한정수
Original Assignee
한화시스템(주)
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화시스템(주) filed Critical 한화시스템(주)
Priority to KR1020210148630A priority Critical patent/KR102344264B1/en
Application granted granted Critical
Publication of KR102344264B1 publication Critical patent/KR102344264B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/183Compensation of inertial measurements, e.g. for temperature effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/10Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration
    • G01C21/12Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning
    • G01C21/16Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation
    • G01C21/165Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments
    • G01C21/1656Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 by using measurements of speed or acceleration executed aboard the object being navigated; Dead reckoning by integrating acceleration or speed, i.e. inertial navigation combined with non-inertial navigation instruments with passive imaging devices, e.g. cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C25/00Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass
    • G01C25/005Manufacturing, calibrating, cleaning, or repairing instruments or devices referred to in the other groups of this subclass initial alignment, calibration or starting-up of inertial devices
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Abstract

Provided is an automatic viewing angle correction method in an electro-optical tracking apparatus mounted on a mobile system. The method comprises the steps of: tracking an image of an unmeasured stationary object without prior geographic information through an image sensor in an optical bench; obtaining reference coordinates for the unmeasured stationary object based on laser measurement distance information before and after turning of an aircraft; generating reference viewing angle information corresponding to each viewpoint based on the reference coordinates of the unmeasured stationary object and aircraft coordinates acquired from an aircraft inertial navigation system; acquiring viewing angle information on the unmeasured stationary object being tracked in the image based on an output value of an inertial sensor in the optical bench; estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information; and compensating the viewing angle information of the inertial sensor based on the compensation coefficient. Therefore, the present invention can automatically derive the compensation coefficient and perform compensation in real time without user intervention only by performing an image tracking process for the stationary object during flight.

Description

자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법{ELECTRO-OPTICAL TRACKING APPARATUS CAPABLE OF AUTOMATIC VIEWING ANGLE CORRECTION AND METHOD THEREOF}ELECTRO-OPTICAL TRACKING APPARATUS CAPABLE OF AUTOMATIC VIEWING ANGLE CORRECTION AND METHOD THEREOF

본 발명은 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법에 관한 것으로, 특히 사전 지리적 정보가 없는 미측지된 정지물체를 대상으로 하여 이동형 시스템에 탑재되는 전자광학추적장치의 영상센서와 관성센서 간의 광기구적 자동 정렬을 위한 장치 및 방법에 관한 것이다.The present invention relates to an electro-optical tracking device mounted on a mobile system capable of automatic gaze angle correction and a method therefor. In particular, an electro-optical tracking device mounted on a mobile system for an un-geometry stationary object without prior geographic information. To an apparatus and method for optical mechanical automatic alignment between an image sensor and an inertial sensor.

도 1은 종래 기술에서의 관성센서와 영상센서 간의 정렬 방법을 설명하기 위한 도면이다.1 is a view for explaining an alignment method between an inertial sensor and an image sensor in the prior art.

기존의 관성센서와 영상센서 간의 시선 정렬은 실험실 제조 및 교정 공정과정에서 시준기와 같은 광학시험장비로 측정한 보상계수를 관성센서 축에 보상하였다.For the line-of-sight alignment between the existing inertial sensor and the image sensor, the compensation coefficient measured with an optical test equipment such as a collimator during the laboratory manufacturing and calibration process was compensated to the inertial sensor axis.

보다 정밀한 정렬을 위해 비행 중 대상물체의 좌표로 구동하여 영상을 획득하면(S10), 획득한 영상을 대상으로 지상에서의 후처리를 통해 육안으로 대상물체를 식별하고(S20), 영상 내 촬영된 대상물체까지의 픽셀 오차를 획득하여(S30) 보상 계수를 도출 및 적용하는 방법을 사용하였다(S40, S50).For more precise alignment, when an image is acquired by driving to the coordinates of the object during flight (S10), the acquired image is subjected to post-processing on the ground to visually identify the object (S20), and the A method of deriving and applying a compensation coefficient by obtaining a pixel error up to the target object (S30) was used (S40, S50).

이러한 종래기술은 수동 후처리 시선 보정 방식을 적용하고 있는바, 장비호기마다 그리고 재조립시마다 비행 소티(sortie)를 별도로 할당해야만 한다는 문제가 있다. 또한, 후처리로 사용자가 직접 육안으로 영상 내 대상물체 식별을 통해 보상계수를 도출해야 하므로 절차가 번거롭고 비용과 시간이 많이 소요되는 문제가 있었다.Since this prior art applies a manual post-processing gaze correction method, there is a problem that a flight sortie must be allocated separately for each equipment unit and for each reassembly. In addition, as a post-processing procedure, the user had to derive a compensation coefficient through visual identification of an object in the image, so the procedure was cumbersome, costly and time-consuming.

또한, 대상물체는 사전에 측지된 알려진 지리적 좌표의 표적으로 한정되는 문제가 있었다. 따라서, 종래 기술은 사전측지 절차가 수반되어야 하였으며, 대상물체를 관측하기 위한 항공기의 경로 또한 사전에 계획되어야 하는 번거로움이 존재하였다.In addition, there is a problem in that the target object is limited to a target of known geographic coordinates geodesiced in advance. Therefore, in the prior art, a prior geodetic procedure was required, and the path of the aircraft for observing the target was also cumbersome to be planned in advance.

본 발명의 해결하고자 하는 과제는 사전 지리적 정보가 없는 미측지된 정지물체를 대상물체로 하여 이동형 시스템에 탑재되는 전자광학추적장치 내 영상센서와 동일 광학벤치 상에 장착되어 있는 관성센서의 시선각을 영상센서를 기준으로 광기구적 정밀 정렬할 수 있는, 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법을 제공한다.The problem to be solved by the present invention is to measure the viewing angle of an inertial sensor mounted on the same optical bench as an image sensor in an electro-optical tracking device mounted on a mobile system by using an unmeasured stationary object without prior geographic information as a target object. Provided are an electro-optical tracking device mounted on a mobile system capable of optical mechanical precision alignment based on an image sensor and automatic viewing angle correction, and a method therefor.

다만, 본 실시 예가 이루고자 하는 기술적 과제는 상기된 바와 같은 기술적 과제로 한정되지 않으며, 또 다른 기술적 과제들이 존재할 수 있다.However, the technical task to be achieved by the present embodiment is not limited to the above-described technical task, and other technical tasks may exist.

상술한 기술적 과제를 달성하기 위한 기술적 수단으로서, 본 발명의 제1 측면에 따른 이동형 시스템에 탑재되는 전자광학추적장치에서의 자동 시선각 보정 방법은 광학벤치 내 영상센서를 통해 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 추적하는 단계; 항공기의 선회 전후의 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계; 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계; 상기 광학벤치 내 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 획득하는 단계; 상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계; 및 상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상하는 단계를 포함한다.As a technical means for achieving the above-described technical problem, the automatic viewing angle correction method in the electro-optical tracking device mounted on the mobile system according to the first aspect of the present invention is the tail side without prior geographic information through the image sensor in the optical bench. tracking the image of the detected still object; obtaining reference coordinates for the unrecognized stationary object based on laser measurement distance information before and after turning of the aircraft; generating reference line of sight information corresponding to each viewpoint based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the non-measured stationary object; acquiring line-of-sight information on an un-measured still object that is being tracked in the image based on an output value of an inertial sensor in the optical bench; estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information; and compensating for the viewing angle information of the inertial sensor based on the compensation coefficient.

본 발명의 일부 실시 예에서, 상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계는, i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득할 수 있다.In some embodiments of the present invention, the step of obtaining the reference coordinates for the unreasonable stationary object includes the coordinates of the i-th (i is a natural number) aircraft, and the i-th obtained laser measurement distance and measurement error. The reference coordinates may be obtained by applying a square estimation method.

본 발명의 일부 실시 예에서, 상기 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계는, 상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하는 단계; 상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하는 단계; 및 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계를 포함할 수 있다.In some embodiments of the present invention, the generating of the reference line-of-sight information corresponding to each point of view comprises: setting the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates for the un-measured stationary object to a global coordinate system reference position. providing as a vector; converting the earth coordinate system reference position vector into a navigation coordinate system reference position vector; and generating reference gaze angle information for each viewpoint in the converted navigation coordinate system reference position vector.

본 발명의 일부 실시 예에서, 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계는, 상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성할 수 있다.In some embodiments of the present invention, the generating of the reference viewing angle information for each viewpoint in the converted navigation coordinate system reference position vector includes generating the heading Euler reference viewing angle information and the pitch Euler reference viewing angle information for each viewpoint can do.

본 발명의 일부 실시 예에서, 상기 영상 추적 중인 정지물체에 대한 시선각 정보를 획득하는 단계는, 상기 항공기 관성항법장치와의 전달정렬에 기초하여 상기 시선각 정보를 획득할 수 있다.In some embodiments of the present invention, the obtaining of the line-of-sight information for the still object being tracked may include obtaining the line-of-sight information based on a transfer alignment with the aircraft inertial navigation system.

본 발명의 일부 실시 예에서, 상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계는, 상기 기준 시선각 정보와 시선각 정보를 각 변환행렬의 적용을 통해 각 시점별 보상계수를 산출하는 단계; 및 상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 단계를 포함할 수 있다.In some embodiments of the present invention, the step of estimating the reference viewing angle information and the compensation coefficient based on the viewing angle information includes applying the reference viewing angle information and the viewing angle information to each transformation matrix to apply a compensation coefficient for each viewpoint. calculating ; and estimating the compensation coefficient based on an average value of Euler angles corresponding to the compensation coefficients for each time point.

본 발명의 일부 실시 예에서, 상기 기준 시선각 정보와 시선각 정보를 각 변환행렬을 통해 각 시점별 보상계수를 산출하는 단계는, 상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출할 수 있다.In some embodiments of the present invention, the step of calculating the compensation coefficient for each viewpoint through each transformation matrix of the reference gaze angle information and the viewing angle information includes converting the viewpoint generated by the reference gaze angle information into a navigation coordinate system. The compensation coefficient for each viewpoint may be calculated based on a product of one transformation matrix and a second transformation matrix that transforms the navigation coordinate system generated by the gaze angle information into the inertial navigation device-based coordinate system.

본 발명의 일부 실시 예는, 상기 추정된 보상계수를 데이터 저장부 상에 저장하는 단계를 더 포함할 수 있다.Some embodiments of the present invention may further include storing the estimated compensation coefficient in a data storage unit.

또한, 본 발명의 제2 측면에 따른 자동 시선각 보정이 가능한 전자광학추적장치는 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 촬영하는 영상센서와, 항공기의 선회 전후의 레이저 측정 거리 정보를 획득하는 레이저 거리측정기와, 상기 미측지된 정지물체에 상응하는 가속도 센서값 및 자이로 센서값을 포함하는 출력값을 생성하는 관성센서를 포함하는 김벌 구조의 광학벤치, 상기 촬영된 영상으로부터 상기 미측지된 정지물체를 추적하는 영상 추적부, 상기 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 산출하는 김벌구조의 관성항법장치 및 상기 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하고, 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하며, 상기 기준 시선각 정보와 시선각 정보에 기반하여 보상계수를 추정하는 관성센서 자동정렬장치를 포함하고, 상기 관성항법장치는 상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상한다.In addition, the electro-optical tracking device capable of automatic viewing angle correction according to the second aspect of the present invention includes an image sensor that captures an image of an unreasonable still object without prior geographic information, and laser measurement distance information before and after turning of an aircraft. An optical bench having a gimbal structure including a laser range finder to acquire, an inertial sensor for generating an output value including an acceleration sensor value and a gyro sensor value corresponding to the unreasonable stationary object, An image tracking unit for tracking a still object, an inertial navigation device having a gimbal structure that calculates viewing angle information for an un-measured still object that is being tracked in the image based on an output value of the inertial sensor, and the laser measurement distance information Acquire reference coordinates for an unreasonable stationary object, and generate reference line-of-sight information corresponding to each viewpoint based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the unreasonable stationary object, and the reference and an inertial sensor automatic alignment device for estimating a compensation coefficient based on the gaze angle information and the gaze angle information, wherein the inertial navigation device compensates the gaze angle information of the inertial sensor based on the compensation coefficient.

본 발명의 일부 실시 예에서, 상기 관성센서 자동정렬장치는, i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득할 수 있다.In some embodiments of the present invention, the inertial sensor automatic alignment device applies the least-squares estimation method to the coordinates of the i-th (i is a natural number) aircraft, the i-th acquired laser measurement distance and measurement error, and the reference coordinates can be obtained.

본 발명의 일부 실시 예에서, 상기 관성센서 자동정렬장치는, 상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하고, 상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하고, 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 기준 시선각 정보 생성부를 포함할 수 있다.In some embodiments of the present invention, the inertial sensor automatic alignment device provides the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates for the unmeasured stationary object as a global coordinate system reference position vector, and the global coordinate system and a reference gaze angle information generator that converts a reference position vector into a reference position vector of the navigation coordinate system and generates reference gaze angle information for each viewpoint in the converted navigation coordinate system reference position vector.

본 발명의 일부 실시 예에서, 상기 기준 시선각 정보 생성부는, 상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성할 수 있다.In some embodiments of the present disclosure, the reference viewing angle information generating unit may generate the heading Euler reference viewing angle information and the pitch Euler reference viewing angle information for each viewpoint.

본 발명의 일부 실시 예에서, 상기 관성센서 자동정렬장치는, 상기 기준 시선각 정보와 시선각 정보의 각 변환행렬 적용을 통해 각 시점별 보상계수를 산출하고, 상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 보상계수 추정부와, 상기 추정된 보상계수를 저장하는 데이터 저장부를 포함할 수 있다.In some embodiments of the present invention, the inertial sensor automatic alignment device calculates a compensation coefficient for each viewpoint by applying each transformation matrix of the reference viewing angle information and the viewing angle information, and corresponds to the compensation coefficient for each viewpoint. It may include a compensation coefficient estimator for estimating the compensation coefficient based on the average value of the Euler angle, and a data storage unit for storing the estimated compensation coefficient.

본 발명의 일부 실시 예에서, 상기 보상계수 추정부는, 상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출할 수 있다.In some embodiments of the present invention, the compensation coefficient estimator may include a first transformation matrix that converts the viewpoint generated by the reference gaze angle information into a navigation coordinate system, and the inertial navigation device based on the navigation coordinate system generated by the gaze angle information A compensation coefficient for each viewpoint may be calculated based on the product of the second transformation matrix transformed into the coordinate system.

이 외에도, 본 발명을 구현하기 위한 다른 방법, 다른 시스템 및 상기 방법을 실행하기 위한 컴퓨터 프로그램을 기록하는 컴퓨터 판독 가능한 기록 매체가 더 제공될 수 있다.In addition to this, another method for implementing the present invention, another system, and a computer-readable recording medium for recording a computer program for executing the method may be further provided.

본 발명의 기타 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Other specific details of the invention are included in the detailed description and drawings.

전술한 본 발명의 과제 해결 수단 중 어느 하나에 의하면, 이동형 시스템에서 비행 중 정지물체에 대한 영상추적 프로세스의 수행만으로 사용자의 개입없이 자동으로 보상계수 도출 및 실시간 보상이 가능하다는 장점이 있다. 이러한 자동 시선각 보정 방법은 후처리 수동 분석 과정이 필요없으며, 운용 중 실시간 보정을 수행하므로 추가적인 비행 소티의 할당이 필요 없다는 장점이 있다. 또한, 제조 및 교정 공정 설비 오차에 비해 더욱 정밀한 광기구적 보정이 가능한바, 작은 잔류 오차 개선을 통해 보다 영상시선에 대한 정밀한 지리적 정보(geo-location) 제공이 가능하다.According to any one of the above-described problem solving means of the present invention, there is an advantage that compensation coefficients can be automatically derived and real-time compensation is possible without user intervention only by performing an image tracking process for a stationary object in flight in a mobile system. This automatic gaze angle correction method does not require a post-processing manual analysis process, and has the advantage of not requiring additional flight sorting assignments because real-time correction is performed during operation. In addition, since more precise optical mechanical correction is possible compared to manufacturing and calibration process equipment errors, it is possible to provide more precise geo-location for image gaze through small residual error improvement.

특히, 본 발명은 전자광학 추적장치의 고유 기능인 영상추적 프로세스를 수행하는 동안 지리적 좌표가 알려진 계획 표적이 아닌, 위치가 확인되지 않은 미측지된 정지된 기회 물체에 대해 항상 수행 가능하다는 장점이 있다. 지리적 좌표가 알려진 물체로 대상 물체를 제한하는 시스템의 경우, 항공기 이동 경로 상에 관측 가능한 특정한 정지 물체에 대한 사전 측지 정보가 필요하므로, 항공기의 예상 이동 경로가 바뀔 때마다 새로운 정지물체를 탐지해야만 하고 정밀 측지도 필요하다는 문제가 있다. 또한, 운용자는 대상 물체가 변경될 때마다 변경된 사전 측지 정보를 수동으로 시스템에 장입해야 하는 문제가 있었다.In particular, the present invention has the advantage that it can always be performed on an unlocated stationary opportunity object, not a planned target with known geographic coordinates, while performing the image tracking process, which is a unique function of the electro-optical tracking device. In the case of a system that restricts target objects to objects with known geographic coordinates, prior geodetic information about specific observable stationary objects on the aircraft's movement path is required. There is a problem that precise geodetic maps are required. In addition, there is a problem in that the operator has to manually load the changed prior geodetic information into the system whenever the target object is changed.

이러한 문제를 해소하기 위해, 본 발명의 일 실시예는 대상 물체를 특정하지 않으므로 항공기의 경로 변경 및 관측 가능 범위 분석 절차가 필요로 하지 않으며, 영상추적 운용 중 시선각 보정을 동시에 수행할 수 있어, 효율적인 장비 운용이 가능하다는 장점이 있다.In order to solve this problem, an embodiment of the present invention does not specify a target object, so it does not require a route change of an aircraft and a procedure for analyzing the observable range, and it is possible to simultaneously perform a gaze angle correction during image tracking operation, It has the advantage of enabling efficient equipment operation.

본 발명의 효과들은 이상에서 언급된 효과로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 아래의 기재로부터 통상의 기술자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the following description.

이하에 첨부되는 도면들은 본 실시 예에 관한 이해를 돕기 위한 것으로, 상세한 설명과 함께 실시 예들을 제공한다. 다만, 본 실시 예의 기술적 특징이 특정 도면에 한정되는 것은 아니며, 각 도면에서 개시하는 특징들은 서로 조합되어 새로운 실시 예로 구성될 수 있다.
도 1은 종래 기술에서의 관성센서와 영상센서 간의 정렬 방법을 설명하기 위한 도면이다.
도 2는 본 발명의 일 실시 예에 따른 전자광학추적장치를 설명하기 위한 도면이다.
도 3은 본 발명의 일 실시 예에 따른 자동 시선각 보정 방법의 순서도이다.
도 4는 대상 물체의 기준좌표를 결정하는 내용을 설명하기 위한 도면이다.
도 5는 기준 시선각 정보를 생성하는 과정을 설명하기 위한 도면이다.
도 6a 및 도 6b는 보상계수 추정 단계 및 자동 시선 정렬 단계를 설명하기 위한 도면이다.
The accompanying drawings below are provided to help understanding of the present embodiment, and provide embodiments together with detailed description. However, the technical features of the present embodiment are not limited to specific drawings, and features disclosed in each drawing may be combined with each other to constitute a new embodiment.
1 is a view for explaining an alignment method between an inertial sensor and an image sensor in the prior art.
2 is a view for explaining an electro-optical tracking device according to an embodiment of the present invention.
3 is a flowchart of an automatic gaze angle correction method according to an embodiment of the present invention.
4 is a view for explaining the content of determining the reference coordinates of the target object.
5 is a diagram for explaining a process of generating reference gaze angle information.
6A and 6B are diagrams for explaining a compensation coefficient estimation step and an automatic gaze alignment step.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시 예들을 참조하면 명확해질 것이다. 그러나, 본 발명은 이하에서 개시되는 실시 예들에 제한되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시 예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술 분야의 통상의 기술자에게 본 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. Advantages and features of the present invention, and a method for achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only those of ordinary skill in the art to which the present invention pertains, to complete the disclosure of the present invention. It is provided to fully understand the scope of the present invention, and the present invention is only defined by the scope of the claims.

본 명세서에서 사용된 용어는 실시 예들을 설명하기 위한 것이며 본 발명을 제한하고자 하는 것은 아니다. 본 명세서에서, 단수형은 문구에서 특별히 언급하지 않는 한 복수형도 포함한다. 명세서에서 사용되는 "포함한다(comprises)" 및/또는 "포함하는(comprising)"은 언급된 구성요소 외에 하나 이상의 다른 구성요소의 존재 또는 추가를 배제하지 않는다. 명세서 전체에 걸쳐 동일한 도면 부호는 동일한 구성 요소를 지칭하며, "및/또는"은 언급된 구성요소들의 각각 및 하나 이상의 모든 조합을 포함한다. 비록 "제1", "제2" 등이 다양한 구성요소들을 서술하기 위해서 사용되나, 이들 구성요소들은 이들 용어에 의해 제한되지 않음은 물론이다. 이들 용어들은 단지 하나의 구성요소를 다른 구성요소와 구별하기 위하여 사용하는 것이다. 따라서, 이하에서 언급되는 제1 구성요소는 본 발명의 기술적 사상 내에서 제2 구성요소일 수도 있음은 물론이다.The terminology used herein is for the purpose of describing the embodiments and is not intended to limit the present invention. In this specification, the singular also includes the plural unless specifically stated otherwise in the phrase. As used herein, “comprises” and/or “comprising” does not exclude the presence or addition of one or more other components in addition to the stated components. Like reference numerals refer to like elements throughout, and "and/or" includes each and every combination of one or more of the recited elements. Although "first", "second", etc. are used to describe various elements, these elements are not limited by these terms, of course. These terms are only used to distinguish one component from another. Accordingly, it goes without saying that the first component mentioned below may be the second component within the spirit of the present invention.

다른 정의가 없다면, 본 명세서에서 사용되는 모든 용어(기술 및 과학적 용어를 포함)는 본 발명이 속하는 기술분야의 통상의 기술자에게 공통적으로 이해될 수 있는 의미로 사용될 수 있을 것이다. 또한, 일반적으로 사용되는 사전에 정의되어 있는 용어들은 명백하게 특별히 정의되어 있지 않는 한 이상적으로 또는 과도하게 해석되지 않는다.Unless otherwise defined, all terms (including technical and scientific terms) used herein will have the meaning commonly understood by those of ordinary skill in the art to which this invention belongs. In addition, terms defined in a commonly used dictionary are not to be interpreted ideally or excessively unless specifically defined explicitly.

이하, 첨부된 도면을 참조하여 본 발명의 실시 예를 상세하게 설명한다. Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

도 2는 본 발명의 일 실시 예에 따른 전자광학추적장치(100)를 설명하기 위한 도면이다.2 is a view for explaining the electro-optical tracking device 100 according to an embodiment of the present invention.

본 발명의 일 실시 예에 따른 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치(100)는 광학벤치(110), 영상 추적부(120), 관성항법장치(130) 및 관성센서 자동정렬장치(140)를 포함한다.The electro-optical tracking device 100 mounted on a mobile system capable of automatic gaze angle correction according to an embodiment of the present invention includes an optical bench 110 , an image tracking unit 120 , an inertial navigation device 130 , and an automatic inertial sensor. and an alignment device 140 .

광학벤치(110)는 김벌(Gimbal) 구조를 갖는 광학벤치로, 영상센서(111), 관성센서(112), 레이저 거리측정기(113) 및 구동기(114)를 포함한다. The optical bench 110 is an optical bench having a gimbal structure, and includes an image sensor 111 , an inertial sensor 112 , a laser rangefinder 113 , and a driver 114 .

영상센서(111)는 IR 센서(Infrared Sensor), CCD(Charge Coupled Device) 카메라, 레이저 영상센서(Lidar-Vision Sensor) 등일 수 있으며, 정지물체의 영상을 촬영한다. 이때, 본 발명의 일 실시예는 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 촬영하는 것을 특징으로 한다. 영상 추적부(120)는 상기 촬영된 영상을 통해 미측지된 정지물체를 추적한다.The image sensor 111 may be an IR sensor (Infrared Sensor), a Charge Coupled Device (CCD) camera, a laser image sensor (Lidar-Vision Sensor), or the like, and captures an image of a still object. In this case, an embodiment of the present invention is characterized in that an image of an unrecognized still object without prior geographic information is captured. The image tracking unit 120 tracks an unrecognized still object through the captured image.

관성센서(112)는 자이로와 가속도계로 이루어지며, 미측지된 정지물체에 상응하는 가속도 센서값 및 자이로 센서값을 포함하는 출력값을 생성한다.The inertial sensor 112 includes a gyro and an accelerometer, and generates an output value including an acceleration sensor value and a gyro sensor value corresponding to an unmeasured stationary object.

레이저 거리측정기(113)는 항공기의 선회 전후의 레이저 측정 거리 정보를 획득한다.The laser range finder 113 acquires laser measurement distance information before and after turning of the aircraft.

관성항법장치(130)는 김벌 구조를 가지며, 관성센서(112)의 출력값에 기초하여 영상 추적 중인 미측지된 정지 물체에 대한 시선각 정보를 산출한다. 이러한 관성항법장치(130)는 전달정렬 칼만 필터부(131), 관성항법 계산부(132) 및 보상계수 보상부(133)를 포함한다.The inertial navigation device 130 has a gimbal structure, and based on an output value of the inertial sensor 112 , calculates gaze angle information for an un-measured still object that is being tracked in an image. The inertial navigation device 130 includes a transfer alignment Kalman filter unit 131 , an inertial navigation calculation unit 132 , and a compensation coefficient compensator 133 .

전달정렬 칼만 필터부(131)는 항공기 관성항법장치와 같이 위치, 속도 및 자세 정보를 제공하는 보조센서를 이용하여 전달정렬 오차를 추정한다.The transmission alignment Kalman filter unit 131 estimates the transmission alignment error by using an auxiliary sensor that provides position, speed, and attitude information, such as an aircraft inertial navigation system.

관성항법 계산부(132)는 관성센서(112)의 출력값을 입력받고 이를 기반으로 전자광학추적장치(100)의 위치, 속도 및 자세를 계산하며, 추정된 전달정렬 오차를 보상한다.The inertial navigation calculation unit 132 receives the output value of the inertial sensor 112, calculates the position, speed, and attitude of the electro-optical tracking device 100 based on the input value, and compensates for the estimated transmission alignment error.

보상계수 보상부(133)는 관성센서 자동정렬장치(140)에 의해 추정된 보상계수를 전달받아 관성센서(112)의 시선각 정보에 실시간으로 보상을 수행한다.The compensation coefficient compensator 133 receives the compensation coefficient estimated by the inertial sensor automatic alignment device 140 and compensates the viewing angle information of the inertial sensor 112 in real time.

다음으로, 관성센서 자동정렬장치(140)는 기준좌표 획득부(141), 기준 시선각 정보 생성부(142), 보상계수 추정부(143) 및 데이터 저장부(144)를 포함한다.Next, the inertial sensor automatic alignment device 140 includes a reference coordinate obtaining unit 141 , a reference viewing angle information generating unit 142 , a compensation coefficient estimating unit 143 , and a data storage unit 144 .

기준좌표 획득부(141)는 레이저 측정 거리 정보에 기초하여 미측지된 정지물체에 대한 기준좌표를 획득한다.The reference coordinate acquisition unit 141 acquires reference coordinates for an unmeasured stationary object based on the laser measurement distance information.

기준 시선각 정보 생성부(142)는 항공기 운항 중 미측지된 정지 물체에 대한 영상추적 프로세스를 수행하면서, 항공기 이동좌표와 미측지된 정지물체의 기준좌표를 기반으로 실시간으로 각 시점에 상응하는 기준 시선각 정보를 생성한다.The reference line of sight information generating unit 142 performs an image tracking process for a still object that has not been measured during the flight of the aircraft, while the reference corresponding to each viewpoint in real time based on the moving coordinates of the aircraft and the reference coordinates of the unmeasured stationary object. Generates visual angle information.

보상계수 추정부(143)는 기준 시선각 정보와 관성항법장치(130)로부터의 시선각 정보에 기반하여 보상계수를 추정한다. The compensation coefficient estimator 143 estimates the compensation coefficient based on the reference gaze angle information and the gaze angle information from the inertial navigation device 130 .

데이터 저장부(144)는 일 예로 플래시 메모리 타입으로 구성될 수 있으며, 영상추적 프로세스가 종료되면 추정한 보상계수를 저장하며, 실시간으로 관성항법장치(130)로 보상계수를 제공한다.The data storage unit 144 may be configured as, for example, a flash memory type, and when the image tracking process is finished, the estimated compensation coefficient is stored, and the compensation coefficient is provided to the inertial navigation device 130 in real time.

이러한 보상계수를 제공받은 관성항법장치(130)는 저장된 유효한 보상계수가 있을 경우, 이 값을 입력받아 실시간으로 계산된 관성센서(112)의 시선각 정보를 보상할 수 있다.When there is a stored effective compensation coefficient, the inertial navigation device 130 receiving the compensation coefficient may receive the value and compensate for the gaze angle information of the inertial sensor 112 calculated in real time.

참고로, 본 발명의 실시 예에 따른 도 2에 도시된 구성 요소들은 소프트웨어 또는 FPGA(Field Programmable Gate Array) 또는 ASIC(Application Specific Integrated Circuit)와 같은 하드웨어 형태로 구현될 수 있으며, 소정의 역할들을 수행할 수 있다.For reference, the components shown in FIG. 2 according to an embodiment of the present invention may be implemented in the form of software or hardware such as a field programmable gate array (FPGA) or an application specific integrated circuit (ASIC), and perform predetermined roles. can do.

그렇지만 '구성 요소들'은 소프트웨어 또는 하드웨어에 한정되는 의미는 아니며, 각 구성 요소는 어드레싱할 수 있는 저장 매체에 있도록 구성될 수도 있고, 하나 또는 그 이상의 프로세서들을 재생시키도록 구성될 수도 있다.However, the term 'components' is not limited to software or hardware, and each component may be configured to reside in an addressable storage medium or to reproduce one or more processors.

따라서, 일 예로서 구성 요소는 소프트웨어 구성 요소들, 객체지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들을 포함한다.Thus, as an example, a component includes components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, sub It includes routines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.

구성 요소들과 해당 구성 요소들 안에서 제공되는 기능은 더 작은 수의 구성 요소들로 결합되거나 추가적인 구성 요소들로 더 분리될 수 있다.Components and functions provided within the components may be combined into a smaller number of components or further divided into additional components.

이하에서는 도 3 내지 도 5b를 참조하여 본 발명의 일 실시 예에 따른 이동형 시스템에 탑재되는 전자광학추적장치(100)에서의 자동 시선각 보정 방법에 대하여 설명하도록 한다.Hereinafter, an automatic gaze angle correction method in the electro-optical tracking device 100 mounted on a mobile system according to an embodiment of the present invention will be described with reference to FIGS. 3 to 5B .

도 3은 본 발명의 일 실시 예에 따른 자동 시선각 보정 방법의 순서도이다.3 is a flowchart of an automatic gaze angle correction method according to an embodiment of the present invention.

먼저, 광학벤치(110) 내 영상센서(111)를 통해 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 추적하고(S110), 레이저 측정 거리 정보에 기초하여 미측지된 정지물체에 대한 기준좌표를 획득한다(S120).First, an image of an unreasonable still object without prior geographic information is tracked through the image sensor 111 in the optical bench 110 (S110), and reference coordinates for an unreasonable still object based on laser measurement distance information to obtain (S120).

도 4는 대상 물체의 기준좌표를 결정하는 내용을 설명하기 위한 도면이다.4 is a view for explaining the content of determining the reference coordinates of the target object.

일반적인 전자광학추적장치의 표적좌표 획득 방법은 항공기 좌표, 시선각, 그리고 레이저 측정거리 또는 전자고도맵 정보를 이용하여 삼각법 또는 Geo-Location 알고리즘을 이용하여 계산한다. 그러나, 본 발명의 일 실시예의 경우 기준 시선각 정보를 생성하기 위해 기준좌표를 획득하는 것이며, 관성센서의 시선각 측정 데이터로 획득한 좌표는 기준좌표가 될 수 없어, 일반적인 표적좌표 획득 방법을 적용할 수 없다. 따라서, 본 발명의 일 실시예의 경우 미측지된 정지물체의 기준좌표는 레이저 측정 거리 정보와 항공기 좌표의 선형함수로 최소자승법을 이용하여 산출할 수 있다.The general method of acquiring target coordinates of an electro-optical tracking device is calculated using trigonometry or geo-location algorithm using aircraft coordinates, line of sight, and laser measurement distance or electronic altitude map information. However, in the case of an embodiment of the present invention, reference coordinates are acquired to generate reference viewing angle information, and coordinates obtained as gaze angle measurement data of the inertial sensor cannot be reference coordinates, so a general target coordinate acquisition method is applied. Can not. Accordingly, in the case of an embodiment of the present invention, the reference coordinates of the unmeasured stationary object may be calculated using the least squares method as a linear function of the laser measurement distance information and the aircraft coordinates.

도 4는 각각의 항공기의 위치에서 획득한 레이저 측정 거리 정보에 대한 미측지된 정지물체의 가능한 위치를 구의 표면으로 나타낸 것이다. 두 개의 항공기 좌표(

Figure 112021126079013-pat00001
)와 레이저 측정 거리 정보(
Figure 112021126079013-pat00002
,
Figure 112021126079013-pat00003
)를 획득한다면, 각각 구 표면(
Figure 112021126079013-pat00004
,
Figure 112021126079013-pat00005
)의 가능한 좌표를 획득하게 된다. 그리고 구 표면의 교점인 2개의 가능한 좌표(
Figure 112021126079013-pat00006
,
Figure 112021126079013-pat00007
)를 획득한다. 이 중 대상물체는 항공기의 고도보다 낮다는 제한을 둔다면 T가 기준좌표가 된다.4 is a spherical surface showing the possible positions of an unreasonable stationary object with respect to the laser measurement distance information obtained at the positions of each aircraft. two aircraft coordinates (
Figure 112021126079013-pat00001
) and laser measurement distance information (
Figure 112021126079013-pat00002
,
Figure 112021126079013-pat00003
), each spherical surface (
Figure 112021126079013-pat00004
,
Figure 112021126079013-pat00005
) to obtain possible coordinates of And the two possible coordinates of the intersection of the sphere surfaces (
Figure 112021126079013-pat00006
,
Figure 112021126079013-pat00007
) is obtained. Among them, if there is a restriction that the target object is lower than the altitude of the aircraft, T becomes the reference coordinate.

기준좌표

Figure 112021126079013-pat00008
는 하기 수학식 1에 의해 결정될 수 있으며, i번째(i는 자연수) 획득한 레이저 측정 거리, 측정오차, i번째 항공기 좌표를 대상으로 선형화에 기반한 반복적인 기법인 최소자승추정법(Linear Square Estimation)을 적용하여 획득할 수 있다.reference coordinates
Figure 112021126079013-pat00008
can be determined by the following Equation 1, and the i-th (i is a natural number) obtained laser measurement distance, measurement error, and linearization-based iterative technique based on linearization targeting the i-th aircraft coordinates Least Squares Estimation (Linear Square Estimation) It can be obtained by applying

[수학식 1][Equation 1]

Figure 112021126079013-pat00009
Figure 112021126079013-pat00009

위 수학식 1의 비선형방정식을 통해 대상물체의 기준좌표를 획득할 수 있다. 관성항법 계산부(132)의 출력인 시선각 정보로부터 개략적으로 좌표

Figure 112021126079013-pat00010
를 알 수 있으며, 실제 위치에서의 오차
Figure 112021126079013-pat00011
)를 나타낼 수 있다. 개략적인 위치에 대해 테일러 급수에서 i개의 샘플로 확장한다면, 위치 오차를 산출할 수 있으며 이를 통해 기준좌표
Figure 112021126079013-pat00012
도 획득할 수 있다.The reference coordinates of the target object can be obtained through the nonlinear equation of Equation 1 above. Schematic coordinates from the viewing angle information that is the output of the inertial navigation calculator 132 .
Figure 112021126079013-pat00010
can be known, and the error in the actual position
Figure 112021126079013-pat00011
) can be represented. If we extend the Taylor series to i samples for the approximate position, we can calculate the position error, and through this
Figure 112021126079013-pat00012
can also be obtained.

다음으로, 항공기 관성항법장치(10)로부터 획득한 항공기 좌표와 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성한다(S130).Next, based on the aircraft coordinates obtained from the aircraft inertial navigation system 10 and the reference coordinates of the non-measured stationary object, reference line of sight information corresponding to each viewpoint is generated ( S130 ).

도 5는 기준 시선각 정보를 생성하는 과정을 설명하기 위한 도면이다.5 is a diagram for explaining a process of generating reference gaze angle information.

도 5는 사전 지리적 정보가 없는 미측지된 정지물체에 대해 영상 추적을 수행하면서 기준좌표를 획득하고 기준 시선각 정보를 어떻게 생성하는지 몇몇 시점별로 보여준다.FIG. 5 shows how to acquire reference coordinates and generate reference viewing angle information while performing image tracking for an unrecognized still object without prior geographic information at several viewpoints.

보상계수 계산을 위한 기준 시선각 정보를 획득하는 과정은 다음과 같다. The process of obtaining the reference viewing angle information for calculating the compensation coefficient is as follows.

먼저, 항공기 관성항법장치(10)로부터 획득한 항공기 좌표와 미측지된 정지물체의 기준좌표를 지구 좌표계 {e}를 기준으로 하는 위치벡터로 표현한다.First, the aircraft coordinates obtained from the aircraft inertial navigation system 10 and the reference coordinates of an unmeasured stationary object are expressed as a position vector based on the earth coordinate system {e}.

그 다음, 지구 좌표계 기준 위치벡터를 항공기 중심 항법 좌표계 {n}을 기준으로 하는 위치벡터로 변환하고, 변환된 항법 좌표계 기준 위치벡터의 각 시점별 기준 시선각 정보를 생성한다. 이때, 기준 시선각 정보로, 각 시점별 헤딩 오일러 기준각 정보와 피치 오일러 기준 시선각 정보를 생성한다.Next, the global coordinate system reference position vector is converted into a position vector based on the aircraft-centered navigation coordinate system {n}, and reference line of sight information for each viewpoint of the converted navigation coordinate system reference position vector is generated. In this case, as the reference viewing angle information, heading Euler reference angle information and pitch Euler reference viewing angle information for each viewpoint are generated.

상기 기준 시선각 정보는 하기 수학식 2에 기초하여 생성될 수 있다.The reference viewing angle information may be generated based on Equation 2 below.

[수학식 2][Equation 2]

Figure 112021126079013-pat00013
Figure 112021126079013-pat00013

Figure 112021126079013-pat00014
Figure 112021126079013-pat00014

상기 수학식 2에서

Figure 112021126079013-pat00015
는 지구 좌표계 {e}에서의 i 시점에서의 항공기 좌표를 나타내고,
Figure 112021126079013-pat00016
는 지구 좌표계 {n}에서의 미측지된 정지물체의 좌표를 나타낸다.
Figure 112021126079013-pat00017
(i)는 i시점에서의 지구 좌표계 {e}에서 항법 좌표계 {n}으로의 변환행렬을 나타내고,
Figure 112021126079013-pat00018
Figure 112021126079013-pat00019
는 i시점에서의 항법 좌표계 {n} 기준
Figure 112021126079013-pat00020
시선벡터의 헤딩 오일러각, 그리고
Figure 112021126079013-pat00021
는 i시점 항법 좌표계 {n} 기준
Figure 112021126079013-pat00022
시선벡터의 피치 오일러각을 각각 나타낸다.In Equation 2 above
Figure 112021126079013-pat00015
represents the coordinates of the aircraft at time i in the earth coordinate system {e},
Figure 112021126079013-pat00016
denotes the coordinates of an unrecognized stationary object in the earth coordinate system {n}.
Figure 112021126079013-pat00017
(i) represents the transformation matrix from the earth coordinate system {e} to the navigation coordinate system {n} at time i,
Figure 112021126079013-pat00018
Figure 112021126079013-pat00019
is based on the navigation coordinate system {n} at point i
Figure 112021126079013-pat00020
The heading Euler angle of the gaze vector, and
Figure 112021126079013-pat00021
is based on the i-point navigation coordinate system {n}
Figure 112021126079013-pat00022
Each of the pitch Euler angles of the gaze vector is indicated.

다음으로, 광학벤치(110) 내 관성센서(112)의 출력값에 기초하여 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 획득한다(S140).Next, based on the output value of the inertial sensor 112 in the optical bench 110, information on the viewing angle of the un-measured still object being tracked in the image is acquired (S140).

이 과정에서는 미측지된 정지물체를 추적하고 있는 영상센서(111)와 동일한 광학벤치(110)에 장착된 중급 관성센서(112)를 통해 항법 좌표계에서의 시선각 정보를 측정하는 것으로, 항공기 관성항법장치(10)와의 전달정렬에 기초하여 항법급의 성능으로 관성센서(112)의 시선각 정보를 획득할 수 있다.In this process, the information on the viewing angle in the navigation coordinate system is measured through the intermediate inertial sensor 112 mounted on the same optical bench 110 as the image sensor 111 for tracking an unreasonable stationary object. Based on the transmission alignment with the device 10 , the viewing angle information of the inertial sensor 112 may be acquired with navigation-class performance.

다음으로, 기준 시선각 정보와 관성항법장치(130)로부터 획득한 시선각 정보에 기초하여 보상계수를 추정한다(S150). Next, a compensation coefficient is estimated based on the reference gaze angle information and the gaze angle information obtained from the inertial navigation device 130 ( S150 ).

도 6a 및 도 6b는 보상계수 추정 단계 및 자동 시선 정렬 단계를 설명하기 위한 도면이다.6A and 6B are diagrams for explaining a compensation coefficient estimation step and an automatic gaze alignment step.

구체적으로, 기준 시선각 정보와 관성항법장치(130)로부터 획득한 시선각 정보를 각 변환행렬의 적용을 통해 각 시점별 보상계수를 산출하고, 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 보상계수를 추정할 수 있다.Specifically, the reference gaze angle information and the gaze angle information obtained from the inertial navigation device 130 are applied to each transformation matrix to calculate a compensation coefficient for each viewpoint, and to the average value of Euler angle corresponding to the compensation coefficient for each viewpoint. Based on this, the compensation coefficient can be estimated.

먼저, 각 시점별 보상계수

Figure 112021126079013-pat00023
는 다음 수학식 3에 기초하여 산출할 수 있다.First, the compensation coefficient for each time point
Figure 112021126079013-pat00023
can be calculated based on Equation 3 below.

[수학식 3][Equation 3]

Figure 112021126079013-pat00024
Figure 112021126079013-pat00024

수학식 3에서

Figure 112021126079013-pat00025
는 기준 시선각 정보로 생성한 시점 {los}을 항법 좌표계 {n}으로 변환하는 제1 변환행렬을 나타내고,
Figure 112021126079013-pat00026
는 관성항법장치의 시선각 정보로 생성한 항법 좌표계 {n}에서 관성항법장치 기반 좌표계 {gins}으로 변환하는 제2 변환행렬을 나타낸다.in Equation 3
Figure 112021126079013-pat00025
denotes a first transformation matrix that transforms a viewpoint {los} generated with reference viewing angle information into a navigation coordinate system {n},
Figure 112021126079013-pat00026
denotes a second transformation matrix that transforms the navigation coordinate system {n} generated with the gaze angle information of the inertial navigation device into the inertial navigation device-based coordinate system {gins}.

각 시점별 보상계수

Figure 112021126079013-pat00027
는 제1 변환행렬과 제2 변환행렬의 곱에 기초하여 산출된다.Compensation coefficient for each time point
Figure 112021126079013-pat00027
is calculated based on the product of the first transformation matrix and the second transformation matrix.

각 시점별 보상계수가 산출되고 나면, 각 시점별 보상계수에 상응하는 오일러각의 평균값으로 보상계수 M을 결정한다. After the compensation coefficient for each time point is calculated, the compensation coefficient M is determined as the average value of the Euler angles corresponding to the compensation coefficient for each time point.

다음으로, 도출된 보상계수 M은 데이터 저장부(144)에 저장되며, 이후 실시간으로 관성센서(112)의 시선각 정보를 보상한다(S160). Next, the derived compensation coefficient M is stored in the data storage unit 144, and thereafter, the gaze angle information of the inertial sensor 112 is compensated in real time (S160).

자동 시선 정렬되어 보상된 관성센서(112)의 시선각 정보(

Figure 112021126079013-pat00028
는 다음 수학식 4와 같이 나타낼 수 있다.The gaze angle information of the inertial sensor 112 compensated by automatic gaze alignment (
Figure 112021126079013-pat00028
can be expressed as in Equation 4 below.

[수학식 4][Equation 4]

Figure 112021126079013-pat00029
Figure 112021126079013-pat00029

보상계수를 적용하기 전인 도 6a는 관성센서(112)와 영상센서(111)의 각 시선각 정보가 정렬되어 있지 않은 상태이며, 이를 기반으로 산출된 보상계수를 적용할 경우 도 6b와 같이 정밀한 광기구적 보정이 가능하여 작은 잔류오차 개선을 통해 보다 영상시선에 대한 정밀한 공간정보 제공이 가능하다.6A before applying the compensation coefficient is a state in which the information on each viewing angle of the inertial sensor 112 and the image sensor 111 is not aligned. Since quadrature correction is possible, it is possible to provide more precise spatial information about the image line of sight through small residual error improvement.

상술한 설명에서, 단계 S110 내지 S160은 본 발명의 구현예에 따라서, 추가적인 단계들로 더 분할되거나, 더 적은 단계들로 조합될 수 있다. 또한, 일부 단계는 필요에 따라 생략될 수도 있고, 단계 간의 순서가 변경될 수도 있다. 아울러, 기타 생략된 내용이라 하더라도 도 2에 기술된 내용은 도 3 내지 도 6b의 자동 시선각 보정 방법에도 적용될 수 있다.In the above description, steps S110 to S160 may be further divided into additional steps or combined into fewer steps according to an embodiment of the present invention. In addition, some steps may be omitted if necessary, and the order between steps may be changed. In addition, the contents described in FIG. 2 may be applied to the automatic viewing angle correction method of FIGS. 3 to 6B even if other contents are omitted.

전술한 본 발명의 일 실시예에 따른 자동 시선각 보정이 가능한 이동형 시스템에 탑재되는 전자광학추적장치 및 그 방법에 따르면, 레이저 거리 측정 정보와 영상추적 프로세스만 수행하면 자동으로 보정계수를 도출하여 정밀 광기구적 보정을 실시간으로 수행할 수 있다는 장점이 있다. 또한, 실시간 잔류오차 개선을 통해 전자광학추적장치의 정밀 시선각 정보로 타겟팅 성능이 향상된다.According to the electro-optical tracking device and method mounted on the mobile system capable of automatic viewing angle correction according to an embodiment of the present invention described above, if only the laser distance measurement information and the image tracking process are performed, a correction coefficient is automatically derived and precise There is an advantage that photomechanical correction can be performed in real time. In addition, the targeting performance is improved with precise gaze angle information of the electro-optical tracking device through real-time residual error improvement.

이상에서 전술한 본 발명의 일 실시 예에 따른 전자광학추적장치(100)에서의 자동 시선각 보정 방법은, 하드웨어인 컴퓨터와 결합되어 실행되기 위해 프로그램(또는 어플리케이션)으로 구현되어 매체에 저장될 수 있다.The automatic gaze angle correction method in the electro-optical tracking apparatus 100 according to an embodiment of the present invention described above may be implemented as a program (or application) to be executed in combination with a computer, which is hardware, and stored in a medium. have.

상기 전술한 프로그램은, 상기 컴퓨터가 프로그램을 읽어 들여 프로그램으로 구현된 상기 방법들을 실행시키기 위하여, 상기 컴퓨터의 프로세서(CPU)가 상기 컴퓨터의 장치 인터페이스를 통해 읽힐 수 있는 C, C++, JAVA, Ruby, 기계어 등의 컴퓨터 언어로 코드화된 코드(Code)를 포함할 수 있다. 이러한 코드는 상기 방법들을 실행하는 필요한 기능들을 정의한 함수 등과 관련된 기능적인 코드(Functional Code)를 포함할 수 있고, 상기 기능들을 상기 컴퓨터의 프로세서가 소정의 절차대로 실행시키는데 필요한 실행 절차 관련 제어 코드를 포함할 수 있다. 또한, 이러한 코드는 상기 기능들을 상기 컴퓨터의 프로세서가 실행시키는데 필요한 추가 정보나 미디어가 상기 컴퓨터의 내부 또는 외부 메모리의 어느 위치(주소 번지)에서 참조되어야 하는지에 대한 메모리 참조관련 코드를 더 포함할 수 있다. 또한, 상기 컴퓨터의 프로세서가 상기 기능들을 실행시키기 위하여 원격(Remote)에 있는 어떠한 다른 컴퓨터나 서버 등과 통신이 필요한 경우, 코드는 상기 컴퓨터의 통신 모듈을 이용하여 원격에 있는 어떠한 다른 컴퓨터나 서버 등과 어떻게 통신해야 하는지, 통신 시 어떠한 정보나 미디어를 송수신해야 하는지 등에 대한 통신 관련 코드를 더 포함할 수 있다.The above-mentioned program, in order for the computer to read the program and execute the methods implemented as a program, C, C++, JAVA, Ruby, which the processor (CPU) of the computer can read through the device interface of the computer; It may include code coded in a computer language such as machine language. Such code may include functional code related to a function defining functions necessary for executing the methods, etc., and includes an execution procedure related control code necessary for the processor of the computer to execute the functions according to a predetermined procedure. can do. In addition, this code may further include additional information necessary for the processor of the computer to execute the functions or code related to memory reference for which location (address address) in the internal or external memory of the computer should be referenced. have. In addition, when the processor of the computer needs to communicate with any other computer or server located remotely in order to execute the functions, the code uses the communication module of the computer to determine how to communicate with any other computer or server remotely. It may further include a communication-related code for whether to communicate and what information or media to transmit and receive during communication.

상기 저장되는 매체는, 레지스터, 캐쉬, 메모리 등과 같이 짧은 순간 동안 데이터를 저장하는 매체가 아니라 반영구적으로 데이터를 저장하며, 기기에 의해 판독(reading)이 가능한 매체를 의미한다. 구체적으로는, 상기 저장되는 매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피디스크, 광 데이터 저장장치 등이 있지만, 이에 제한되지 않는다. 즉, 상기 프로그램은 상기 컴퓨터가 접속할 수 있는 다양한 서버 상의 다양한 기록매체 또는 사용자의 상기 컴퓨터상의 다양한 기록매체에 저장될 수 있다. 또한, 상기 매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장될 수 있다.The storage medium is not a medium that stores data for a short moment, such as a register, a cache, a memory, etc., but a medium that stores data semi-permanently and can be read by a device. Specifically, examples of the storage medium include, but are not limited to, ROM, RAM, CD-ROM, magnetic tape, floppy disk, and an optical data storage device. That is, the program may be stored in various recording media on various servers accessible by the computer or in various recording media on the computer of the user. In addition, the medium may be distributed in a computer system connected to a network, and a computer-readable code may be stored in a distributed manner.

전술한 본 발명의 설명은 예시를 위한 것이며, 본 발명이 속하는 기술분야의 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 쉽게 변형이 가능하다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시 예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다. 예를 들어, 단일형으로 설명되어 있는 각 구성 요소는 분산되어 실시될 수도 있으며, 마찬가지로 분산된 것으로 설명되어 있는 구성 요소들도 결합된 형태로 실시될 수 있다.The above description of the present invention is for illustration, and those of ordinary skill in the art to which the present invention pertains can understand that it can be easily modified into other specific forms without changing the technical spirit or essential features of the present invention. will be. Therefore, it should be understood that the embodiments described above are illustrative in all respects and not restrictive. For example, each component described as a single type may be implemented in a dispersed form, and likewise components described as distributed may be implemented in a combined form.

본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 균등 개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.The scope of the present invention is indicated by the following claims rather than the above detailed description, and all changes or modifications derived from the meaning and scope of the claims and their equivalent concepts should be interpreted as being included in the scope of the present invention. do.

10: 항공기 관성항법장치
100: 전자광학추적장치
110: 광학 벤치
120: 영상 추적부
130: 관성항법장치
140: 관성센서 자동정렬장치
10: aircraft inertial navigation system
100: electro-optical tracking device
110: optical bench
120: video tracking unit
130: inertial navigation device
140: inertial sensor automatic alignment device

Claims (14)

이동형 시스템에 탑재되는 전자광학추적장치에서의 자동 시선각 보정 방법에 있어서,
광학벤치 내 영상센서를 통해 사전 지리적 정보가 없는 미측지된 정지물체의 영상을 추적하는 단계;
항공기의 선회 전후의 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계;
항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계;
상기 광학벤치 내 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 획득하는 단계;
상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계; 및
상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상하는 단계를 포함하는 전자광학추적장치에서의 자동 시선각 보정 방법.
In the automatic gaze angle correction method in an electro-optical tracking device mounted on a mobile system,
tracking an image of an unrecognized still object without prior geographic information through an image sensor in the optical bench;
obtaining reference coordinates for the unrecognized stationary object based on laser measurement distance information before and after turning of the aircraft;
generating reference line-of-sight information corresponding to each viewpoint based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the non-measured stationary object;
obtaining information on the viewing angle of the un-measured still object that is being tracked in the image based on an output value of the inertial sensor in the optical bench;
estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information; and
and compensating for the viewing angle information of the inertial sensor based on the compensation coefficient.
제1항에 있어서,
상기 미측지된 정지물체에 대한 기준좌표를 획득하는 단계는,
i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of obtaining the reference coordinates for the non-measured stationary object comprises:
Automatic gaze angle correction method in an electro-optical tracking device to obtain the reference coordinates by applying the least-squares estimation method to the coordinates of the i-th aircraft (i is a natural number), the laser measurement distance and the measurement error obtained in the i-th .
제1항에 있어서,
상기 각 시점에 상응하는 기준 시선각 정보를 생성하는 단계는,
상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하는 단계;
상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하는 단계; 및
상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계를 포함하는 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of generating the reference viewing angle information corresponding to each viewpoint includes:
providing the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates for the non-measured stationary object as a global reference position vector;
converting the earth coordinate system reference position vector into a navigation coordinate system reference position vector; and
and generating reference viewing angle information for each viewpoint in the converted navigation coordinate system reference position vector.
제3항에 있어서,
상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 단계는,
상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
4. The method of claim 3,
The step of generating reference viewing angle information for each viewpoint in the converted navigation coordinate system reference position vector includes:
The automatic gaze angle correction method in the electro-optical tracking device to generate the heading Euler reference gaze angle information and the pitch Euler reference gaze angle information for each viewpoint.
제1항에 있어서,
상기 영상 추적 중인 정지물체에 대한 시선각 정보를 획득하는 단계는,
상기 항공기 관성항법장치와의 전달정렬에 기초하여 상기 시선각 정보를 획득하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of obtaining the gaze angle information for the still object being tracked in the image comprises:
An automatic gaze angle correction method in an electro-optical tracking device that acquires the gaze angle information based on a transfer alignment with the aircraft inertial navigation system.
제1항에 있어서,
상기 기준 시선각 정보와 상기 시선각 정보에 기반한 보상계수를 추정하는 단계는,
상기 기준 시선각 정보와 시선각 정보를 각 변환행렬의 적용을 통해 각 시점별 보상계수를 산출하는 단계; 및
상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 단계를 포함하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The step of estimating a compensation coefficient based on the reference viewing angle information and the viewing angle information includes:
calculating a compensation coefficient for each viewpoint by applying the reference viewing angle information and the viewing angle information to each transformation matrix; and
and estimating the compensation coefficient based on the average value of Euler angles corresponding to the compensation coefficients for each viewpoint.
제6항에 있어서,
상기 기준 시선각 정보와 시선각 정보를 각 변환행렬을 통해 각 시점별 보상계수를 산출하는 단계는,
상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출하는 것인 전자광학추적장치에서의 자동 시선각 보정 방법.
7. The method of claim 6,
The step of calculating the compensation coefficient for each viewpoint through each transformation matrix of the reference viewing angle information and the viewing angle information includes:
Based on the product of a first transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a navigation coordinate system, and a second transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a coordinate system based on the inertial navigation device in the navigation coordinate system generated with the gaze angle information An automatic gaze angle correction method in an electro-optical tracking device that calculates a compensation coefficient for each viewpoint.
제1항에 있어서,
상기 추정된 보상계수를 데이터 저장부 상에 저장하는 단계를 더 포함하는 전자광학추적장치에서의 자동 시선각 보정 방법.
According to claim 1,
The automatic gaze angle correction method in the electro-optical tracking device further comprising the step of storing the estimated compensation coefficient on a data storage unit.
사전 지리적 정보가 없는 미측지된 정지물체의 영상을 촬영하는 영상센서와, 항공기의 선회 전후의 레이저 측정 거리 정보를 획득하는 레이저 거리측정기와, 상기 미측지된 정지물체에 상응하는 가속도 센서값 및 자이로 센서값을 포함하는 출력값을 생성하는 관성센서를 포함하는 김벌 구조의 광학벤치,
상기 촬영된 영상으로부터 상기 미측지된 정지물체를 추적하는 영상 추적부,
상기 관성센서의 출력값에 기초하여 상기 영상 추적 중인 미측지된 정지물체에 대한 시선각 정보를 산출하는 김벌구조의 관성항법장치 및
상기 레이저 측정 거리 정보에 기초하여 상기 미측지된 정지물체에 대한 기준좌표를 획득하고, 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체의 기준좌표에 기반하여 각 시점에 상응하는 기준 시선각 정보를 생성하며, 상기 기준 시선각 정보와 시선각 정보에 기반하여 보상계수를 추정하는 관성센서 자동정렬장치를 포함하고,
상기 관성항법장치는 상기 보상계수에 기반하여 상기 관성센서의 시선각 정보를 보상하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
An image sensor that captures an image of an unrecognized stationary object without prior geographic information, a laser rangefinder that acquires laser distance information before and after turning of an aircraft, and an acceleration sensor value and a gyro corresponding to the unreasonable stationary object An optical bench of a gimbal structure including an inertial sensor that generates an output value including a sensor value,
an image tracking unit for tracking the unrecognized still object from the captured image;
An inertial navigation device having a gimbal structure that calculates line-of-sight information for an un-measured stationary object being tracked in the image based on the output value of the inertial sensor, and
Based on the laser measurement distance information, the reference coordinates for the unreasonable stationary object are acquired, and based on the aircraft coordinates obtained from the aircraft inertial navigation system and the reference coordinates of the unreasonable stationary object, a reference corresponding to each time point An inertial sensor automatic aligning device for generating gaze angle information and estimating a compensation coefficient based on the reference gaze angle information and the viewing angle information,
The inertial navigation device is an electro-optical tracking device capable of automatic gaze angle correction that compensates the gaze angle information of the inertial sensor based on the compensation coefficient.
제9항에 있어서,
상기 관성센서 자동정렬장치는,
i번째(i는 자연수) 항공기의 좌표와, i번째 획득한 레이저 측정 거리 및 측정 오차를 대상으로 최소자승추정법을 적용하여 상기 기준좌표를 획득하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
10. The method of claim 9,
The inertial sensor automatic alignment device,
An electro-optical tracking device capable of automatic line-of-sight correction that obtains the reference coordinates by applying the least-squares estimation method to the coordinates of the i-th (i is a natural number) aircraft and the i-th obtained laser measurement distance and measurement error.
제9항에 있어서,
상기 관성센서 자동정렬장치는,
상기 항공기 관성항법장치로부터 획득한 항공기 좌표와 상기 미측지된 정지물체에 대한 기준좌표를 지구 좌표계 기준 위치벡터로 제공하고, 상기 지구 좌표계 기준 위치벡터를 항법 좌표계 기준 위치벡터로 변환하고, 상기 변환된 항법 좌표계 기준 위치벡터에서의 각 시점별 기준 시선각 정보를 생성하는 기준 시선각 정보 생성부를 포함하는 자동 시선각 보정이 가능한 전자광학추적장치.
10. The method of claim 9,
The inertial sensor automatic alignment device,
The aircraft coordinates obtained from the aircraft inertial navigation device and the reference coordinates for the unmeasured stationary object are provided as a global reference position vector, and the global coordinate system reference position vector is converted into a navigation coordinate system reference position vector, and the converted An electro-optical tracking device capable of automatic gaze angle correction including a reference gaze angle information generator for generating reference gaze angle information for each viewpoint in the navigation coordinate system reference position vector.
제11항에 있어서,
상기 기준 시선각 정보 생성부는,
상기 각 시점별 헤딩 오일러 기준 시선각 정보 및 피치 오일러 기준 시선각 정보를 생성하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
12. The method of claim 11,
The reference viewing angle information generating unit,
An electro-optical tracking device capable of automatic viewing angle correction that generates the heading Euler reference viewing angle information and the pitch Euler reference viewing angle information for each viewpoint.
제9항에 있어서,
상기 관성센서 자동정렬장치는,
상기 기준 시선각 정보와 시선각 정보의 각 변환행렬 적용을 통해 각 시점별 보상계수를 산출하고, 상기 각 시점별 보상계수에 상응하는 오일러각의 평균값에 기초하여 상기 보상계수를 추정하는 보상계수 추정부와,
상기 추정된 보상계수를 저장하는 데이터 저장부를 포함하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
10. The method of claim 9,
The inertial sensor automatic alignment device,
Compensation coefficient estimation for calculating a compensation coefficient for each viewpoint by applying the reference viewing angle information and each transformation matrix of the viewing angle information, and estimating the compensation coefficient based on the average value of Euler angles corresponding to the compensation coefficient for each viewpoint government and
An electro-optical tracking device capable of automatic gaze angle correction comprising a data storage unit for storing the estimated compensation coefficient.
제13항에 있어서,
상기 보상계수 추정부는,
상기 기준 시선각 정보로 생성한 시점을 항법 좌표계로 변환하는 제1 변환행렬과, 상기 시선각 정보로 생성한 항법 좌표계에서 상기 관성항법장치 기반 좌표계로 변환하는 제2 변환행렬의 곱에 기초하여 상기 각 시점별 보상계수를 산출하는 것인 자동 시선각 보정이 가능한 전자광학추적장치.
14. The method of claim 13,
The compensation coefficient estimating unit,
Based on the product of a first transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a navigation coordinate system, and a second transformation matrix that transforms a viewpoint generated by the reference gaze angle information into a coordinate system based on the inertial navigation device in the navigation coordinate system generated with the gaze angle information An electro-optical tracking device capable of automatic viewing angle correction that calculates a compensation coefficient for each viewpoint.
KR1020210148630A 2021-11-02 2021-11-02 Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof KR102344264B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020210148630A KR102344264B1 (en) 2021-11-02 2021-11-02 Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020210148630A KR102344264B1 (en) 2021-11-02 2021-11-02 Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof

Publications (1)

Publication Number Publication Date
KR102344264B1 true KR102344264B1 (en) 2021-12-29

Family

ID=79176789

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020210148630A KR102344264B1 (en) 2021-11-02 2021-11-02 Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof

Country Status (1)

Country Link
KR (1) KR102344264B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102455005B1 (en) * 2022-03-14 2022-10-13 국방과학연구소 Apparatus and metohd for generating target coordinates of airborne electro-optical infrared system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100125967A (en) * 2009-05-22 2010-12-01 경북대학교 산학협력단 An apparatus for measuring geometric error of index table in machine tool using laser interferometer and method thereof
JP2013234946A (en) * 2012-05-10 2013-11-21 Kawasaki Heavy Ind Ltd Target position identification device, target position identification system and target position identification method
KR102226256B1 (en) * 2020-12-24 2021-03-10 한화시스템(주) Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20100125967A (en) * 2009-05-22 2010-12-01 경북대학교 산학협력단 An apparatus for measuring geometric error of index table in machine tool using laser interferometer and method thereof
JP2013234946A (en) * 2012-05-10 2013-11-21 Kawasaki Heavy Ind Ltd Target position identification device, target position identification system and target position identification method
KR102226256B1 (en) * 2020-12-24 2021-03-10 한화시스템(주) Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102455005B1 (en) * 2022-03-14 2022-10-13 국방과학연구소 Apparatus and metohd for generating target coordinates of airborne electro-optical infrared system

Similar Documents

Publication Publication Date Title
CN107727079B (en) Target positioning method of full-strapdown downward-looking camera of micro unmanned aerial vehicle
CN102741706B (en) The geographical method with reference to image-region
CN111076880B (en) Multi-point deflection measuring method of long-span bridge considering camera attitude change
US20060256200A1 (en) Method and system for improving video metadata through the use of frame-to-frame correspondences
EP2413097A2 (en) A method, tool, and device for determining the coordinates of points on a surface by means of an accelerometer and a camera
CN110501712B (en) Method, device and equipment for determining position attitude data in unmanned driving
CN105973268B (en) A kind of Transfer Alignment precision quantitative evaluating method based on the installation of cobasis seat
CN109146958B (en) Traffic sign space position measuring method based on two-dimensional image
KR101880185B1 (en) Electronic apparatus for estimating pose of moving object and method thereof
KR102006291B1 (en) Method for estimating pose of moving object of electronic apparatus
KR20200064542A (en) Apparatus for measuring ground control point using unmanned aerial vehicle and method thereof
CN110889808A (en) Positioning method, device, equipment and storage medium
CN110657808B (en) Active target positioning method and system for airborne photoelectric pod
CN108917755B (en) Imaging seeker line-of-sight angle zero error estimation method and device
KR102226256B1 (en) Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof
KR102344264B1 (en) Electro-optical tracking apparatus capable of automatic viewing angle correction and method thereof
CN110906830B (en) Intelligent distance measuring wheel system and distance measuring method thereof
US9885569B2 (en) Passive altimeter
CN108594255A (en) A kind of laser ranging auxiliary optical image association error compensation method and system
CN104535078A (en) Measuring method for flying object through photoelectric equipment based on marking points
KR101722993B1 (en) Electro optical tracking system
CN109146936B (en) Image matching method, device, positioning method and system
Bikmaev et al. Improving the accuracy of supporting mobile objects with the use of the algorithm of complex processing of signals with a monocular camera and LiDAR
KR102576449B1 (en) Device and method of image registration for 3d models
GB2573090A (en) Calibration of object position-measuring apparatus

Legal Events

Date Code Title Description
A302 Request for accelerated examination
E701 Decision to grant or registration of patent right
GRNT Written decision to grant