KR102494973B1 - Method and Apparatus for Measuring Impact Information of Guided Air Vehicle - Google Patents
Method and Apparatus for Measuring Impact Information of Guided Air Vehicle Download PDFInfo
- Publication number
- KR102494973B1 KR102494973B1 KR1020210046733A KR20210046733A KR102494973B1 KR 102494973 B1 KR102494973 B1 KR 102494973B1 KR 1020210046733 A KR1020210046733 A KR 1020210046733A KR 20210046733 A KR20210046733 A KR 20210046733A KR 102494973 B1 KR102494973 B1 KR 102494973B1
- Authority
- KR
- South Korea
- Prior art keywords
- impact
- image
- coordinates
- inclination angle
- angle
- Prior art date
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F41—WEAPONS
- F41G—WEAPON SIGHTS; AIMING
- F41G7/00—Direction control systems for self-propelled missiles
- F41G7/20—Direction control systems for self-propelled missiles based on continuous observation of target position
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F42—AMMUNITION; BLASTING
- F42B—EXPLOSIVE CHARGES, e.g. FOR BLASTING, FIREWORKS, AMMUNITION
- F42B15/00—Self-propelled projectiles or missiles, e.g. rockets; Guided missiles
- F42B15/01—Arrangements thereon for guidance or control
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
Abstract
유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치를 개시한다.
본 발명의 실시예에 따른 유도 비행체의 탄착 정보 계측 방법은, 표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정 단계; 유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득 단계; 상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출 단계; 및 상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리 단계를 포함할 수 있다.Disclosed is a method for measuring impact information of a guided flight vehicle and an apparatus therefor.
A method for measuring impact information of a guided vehicle according to an embodiment of the present invention includes an initial coordinate measuring step of measuring the coordinates of a target and the coordinates of an image capture device installed at a predetermined distance and angle based on the center of the target; When the guided vehicle lands on the ground, an image capture step of acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device; a pixel coordinate extraction step of extracting image pixel coordinates for the entry point and the point of impact of the guided vehicle based on the image of the impact; and calculating a first inclination angle based on the image pixel coordinates, and calculating a second inclination angle based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, wherein the first inclination angle and the second inclination angle are calculated. A measurement processing step of generating impact information including a final entry angle and a final impact angle using the inclination angle may be included.
Description
본 발명은 유도 비행체의 탄착 정보를 계측하는 방법 및 그를 위한 장치에 관한 것이다.The present invention relates to a method for measuring impact information of a guided vehicle and an apparatus therefor.
이 부분에 기술된 내용은 단순히 본 발명의 실시예에 대한 배경 정보를 제공할 뿐 종래기술을 구성하는 것은 아니다.The contents described in this section simply provide background information on the embodiments of the present invention and do not constitute prior art.
일반적으로 유도 비행체에 대한 체계 개발 시에는 유도 비행체에 계측 장비가 장착된 상태에서 비행 궤적, 탄착 정확도 등의 시험 평가를 수행하여 시험평가 결과를 획득 및 검증한다. 하지만, 유도 비행체에 대한 체계 개발이 완료된 이후 양산된 유도 비행체에 대해 실사격 시험 등을 수행하는 경우 유도 비행체에 원격 계측장비가 탑재되지 않기 때문에 표적에 대한 유도 비행체의 진입각, 탄착각에 대한 측정이 불가능하다.In general, when developing a system for a guided flight vehicle, test evaluation results such as flight trajectory and impact accuracy are obtained and verified while measuring equipment is installed on the guided flight vehicle. However, when a live-fire test is performed on mass-produced guided vehicles after the development of the system for the guided vehicles is completed, the measurement of the approach angle and impact angle of the guided vehicle to the target is difficult because the remote measurement equipment is not mounted on the guided vehicle. impossible.
유도 비행체의 진입각은 표적 평면에 대해 유도 비행체가 진입하는 각을 의미하며, 표적 주변 지형물 또는 구조물 등을 회피하도록 기 계획된 경로로의 비행 여부를 확인한다. 유도 비행체의 탄착각은 표적의 평면과 지면 탄착 시 유도 비행체의 속도 벡터가 이루는 경사각으로 효과도와 연관된 중요한 성능평가 항목이다.The approach angle of the guided vehicle means the angle at which the guided vehicle enters the target plane, and it is checked whether or not the guided vehicle is flying in a pre-planned path to avoid a feature or structure around the target. The impact angle of the guided vehicle is an important performance evaluation item related to the effect diagram, which is the inclination angle formed by the speed vector of the guided vehicle when it hits the ground and the plane of the target.
일반적으로 고정된 지상 표적에 대한 유도 비행체의 시험에서 탄착점을 측정하기 위해 영상, GPS 좌표 측정, 계측 장비로 측정된 탄 내 항법정보(위치) 등을 이용하는 다양한 방법으로 탄착위치를 획득한다. 이와 같이, 유도 비행체의 탄착점 위치를 산출하는 선행특허는 대한민국등록특허 제10-1624416호, 대한민국등록특허 제10-1116156호 등이 존재하나, 종래에는 탄착점 위치를 산출할 뿐이며, 진입각, 탄착각을 계산하기는 어렵다. In general, in order to measure the impact point in the test of a guided flight vehicle on a fixed ground target, the impact position is obtained by various methods using images, GPS coordinate measurement, and navigation information (position) measured by measuring equipment in the projectile. In this way, there are prior patents for calculating the position of the impact point of the guided vehicle, such as Korean Patent Registration No. 10-1624416 and Korean Patent Registration No. 10-1116156, but conventionally, only the position of the impact point is calculated, and the approach angle and impact angle is difficult to calculate.
고가의 원격 송수신 장비(원격 계측장비)가 탑재되지 않은 유도 비행체의 실사격 시험에서 진입각과 탄착각 검증이 어렵고, 종래에는 영상 등의 다양한 방법을 이용하여 탄착 위치만을 추출하기 위한 시스템 및 방법에 대한 기술만이 존재하여 유도 비행체의 진입각, 탄착각 계산은 불가능함에 따라 성능평가에 있어 한계가 있다.It is difficult to verify the approach angle and impact angle in a live-fire test of a guided aircraft without expensive remote transmission/reception equipment (remote measurement equipment), and technology for systems and methods for extracting only the impact position using various methods such as video There is a limitation in performance evaluation as it is impossible to calculate the approach angle and impact angle of the guided flight vehicle.
본 발명은 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 제1 경사각을 산출하고, 초기 설정값을 기반으로 유도 비행체의 제2 경사각을 산출하며, 제1 경사각 및 제2 경사각을 이용하여 유도 비행체의 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치를 제공하는 데 주된 목적이 있다.The present invention calculates the first inclination angle of the guided vehicle based on the impact image of the guided vehicle, calculates the second inclination angle of the guided vehicle based on the initial set value, and uses the first inclination angle and the second inclination angle to determine the inclination angle of the guided vehicle. A main object of the present invention is to provide a method for measuring impact information of a guided vehicle that generates impact information including a final approach angle and a final impact angle, and a device therefor.
본 발명의 일 측면에 의하면, 상기 목적을 달성하기 위한 유도 비행체의 탄착 정보 계측 방법은, 표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정 단계; 유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득 단계; 상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출 단계; 및 상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리 단계를 포함할 수 있다. According to one aspect of the present invention, a method for measuring impact information of a guided vehicle to achieve the above object includes measuring the coordinates of a target and the coordinates of an image capture device installed at a predetermined distance and angle based on the center of the target. coordinate measurement step; When the guided vehicle lands on the ground, an image capture step of acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device; a pixel coordinate extraction step of extracting image pixel coordinates for the entry point and the point of impact of the guided vehicle based on the image of the impact; and calculating a first inclination angle based on the image pixel coordinates, and calculating a second inclination angle based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, wherein the first inclination angle and the second inclination angle are calculated. A measurement processing step of generating impact information including a final entry angle and a final impact angle using the inclination angle may be included.
또한, 본 발명의 다른 측면에 의하면, 상기 목적을 달성하기 위한 유도 비행체 계측장치는, 표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정부; 유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득부; 상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출부; 및 상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리부를 포함할 수 있다. In addition, according to another aspect of the present invention, the guided vehicle measuring device for achieving the above object is an initial coordinate for measuring the coordinates of a target and the coordinates of an image capture device installed at a preset distance and angle based on the center of the target. measuring part; When the guided vehicle lands on the ground, an impact image acquisition unit for acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device; a pixel coordinate extraction unit for extracting image pixel coordinates of the entry point and the point of impact of the guided vehicle based on the image of the impact; and calculating a first inclination angle based on the image pixel coordinates, and calculating a second inclination angle based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, wherein the first inclination angle and the second inclination angle are calculated. It may include a measurement processing unit that generates impact information including a final entry angle and a final impact angle using the inclination angle.
이상에서 설명한 바와 같이, 본 발명은 원격 계측장비가 장착되지 않은 유도 비행체 실사격 시험에서 지상에 설치된 다수의 카메라를 이용하여 획득한 영상 정보로부터 유도 비행체의 성능 평가 파라미터인 진입각과 탄착각의 추출이 가능하다는 효과가 있다.As described above, the present invention can extract the approach angle and impact angle, which are performance evaluation parameters of the guided vehicle, from image information obtained using a plurality of cameras installed on the ground in a live shooting test of the guided vehicle without remote measurement equipment. It works.
도 1은 본 발명의 실시예에 따른 유도 비행체 계측 시스템의 운용 개념을 설명하기 위한 도면이다.
도 2는 본 발명의 실시예에 따른 유도 비행체 계측 시스템을 개략적으로 나타낸 블록 구성도이다.
도 3 및 도 4는 본 발명의 실시예에 따른 유도 비행체의 탄착 정보 계측 방법을 설명하기 위한 순서도이다.
도 5는 본 발명의 실시예에 따른 진입 시점 및 탄착 시점의 탄착 영상을 나타낸 예시도이다.
도 6은 본 발명의 실시예에 따른 유도 비행체가 탄착되는 경사각을 나타낸 예시도이다.
도 7은 본 발명의 실시예에 따른 유도 비행체 계측을 위한 좌표계 간의 관계를 설명하기 위한 도면이다.1 is a diagram for explaining the operating concept of a guided vehicle measurement system according to an embodiment of the present invention.
2 is a block diagram schematically showing a guided vehicle measurement system according to an embodiment of the present invention.
3 and 4 are flowcharts for explaining a method for measuring impact information of a guided vehicle according to an embodiment of the present invention.
5 is an exemplary view showing images of an impact at an entry point and a point of impact according to an embodiment of the present invention.
6 is an exemplary diagram showing an inclination angle at which a guided flight vehicle lands according to an embodiment of the present invention.
7 is a diagram for explaining a relationship between coordinate systems for measuring a guided vehicle according to an embodiment of the present invention.
이하, 본 발명의 바람직한 실시예를 첨부된 도면들을 참조하여 상세히 설명한다. 본 발명을 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략한다. 또한, 이하에서 본 발명의 바람직한 실시예를 설명할 것이나, 본 발명의 기술적 사상은 이에 한정하거나 제한되지 않고 당업자에 의해 변형되어 다양하게 실시될 수 있음은 물론이다. 이하에서는 도면들을 참조하여 본 발명에서 제안하는 유도 비행체의 탄착 정보 계측 방법 및 그를 위한 장치에 대해 자세하게 설명하기로 한다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings. In describing the present invention, if it is determined that a detailed description of a related known configuration or function may obscure the gist of the present invention, the detailed description will be omitted. In addition, although preferred embodiments of the present invention will be described below, the technical idea of the present invention is not limited or limited thereto and can be modified and implemented in various ways by those skilled in the art. Hereinafter, a method for measuring impact information of a guided vehicle proposed in the present invention and an apparatus therefor will be described in detail with reference to the drawings.
본 발명은 지상 표적에 탄착하는 유도 비행체의 시험 시 탄착지에 설치된 다수의 카메라 영상정보를 이용하여 탄착각과 진입각을 산출하는 시스템과 방법을 제공한다. The present invention provides a system and method for calculating an angle of impact and an approach angle using image information of a plurality of cameras installed on a landing site during a test of a guided vehicle landing on a ground target.
본 발명에서는 유도 비행체의 비행 정보를 나타내는 항법정보(위치, 속도, 자세 등)를 지상으로 송신할 수 있는 원격 계측장비를 탑재하지 않은 유도 비행체의 탄착각과 진입각을 산출하는 것으로 가정한다. In the present invention, it is assumed that the landing angle and approach angle of the guided vehicle are not equipped with remote measurement equipment capable of transmitting navigation information (position, speed, attitude, etc.) representing the flight information of the guided vehicle to the ground.
도 1은 본 발명의 실시예에 따른 유도 비행체 계측 시스템의 운용 개념을 설명하기 위한 도면이다. 1 is a diagram for explaining the operating concept of a guided vehicle measurement system according to an embodiment of the present invention.
일반적으로 유도 비행체에 대한 체계 개발 시에는 유도 비행체에 계측 장비가 장착된 상태에서 비행 궤적, 탄착 정확도 등의 시험 평가를 수행하여 시험평가 결과를 획득 및 검증한다. 하지만, 유도 비행체에 대한 체계 개발이 완료된 이후 양산된 유도 비행체에 대해 실사격 시험 등을 수행하는 경우 유도 비행체에 원격 계측장비가 탑재되지 않기 때문에 표적에 대한 유도 비행체의 진입각, 탄착각에 대한 측정이 불가능하다. In general, when developing a system for a guided flight vehicle, test evaluation results such as flight trajectory and impact accuracy are obtained and verified while measuring equipment is installed on the guided flight vehicle. However, when a live-fire test is performed on mass-produced guided vehicles after the development of the system for the guided vehicles is completed, the measurement of the approach angle and impact angle of the guided vehicle to the target is difficult because the remote measurement equipment is not mounted on the guided vehicle. impossible.
이에, 본 발명의 실시예에 따른 유도 비행체 계측 시스템(10)은 탄착 지역에 설치된 다수의 카메라를 통해 획득된 영상 정보를 이용하여 유도 비행체의 진입각 및 탄착각에 대한 탄착 정보를 생성한다. Accordingly, the guided
도 1을 참고하면, 유도 비행체 계측 시스템(10)은 지상 또는 공중에서 발사된 유도 비행체가 지상에 설치된 표적에 탄착되면, 탄착 지역에 설치된 다수의 카메라로부터 탄착 영상을 획득한다. 유도 비행체 계측 시스템(10)에서 설치되는 카메라의 개수는 특정하여 제한하지 않으나, 최소 3 개 이상인 것이 바람직하다. Referring to FIG. 1 , when a guided vehicle launched from the ground or in the air lands on a target installed on the ground, the guided
유도 비행체 계측 시스템(10)에서는 설치된 표적의 중심(O)을 기준으로 일정거리 및 각도에 카메라(C1, C2, C3) 를 설치하여 탄착 영상을 촬영한다. 또한, 유도 비행체 계측 시스템(10)에서는 촬영된 영상 내에 유도 비행체가 명확히 식별된 특정 시점(진입 시점)을 t1, 지면에 탄착되는 특정 시점(탄착 시점)을 t2로 정의한다. 유도 비행체 계측 시스템(10)에서는 진입 시점에서의 유도 비행체의 진입 위치를 Pt1으로 정의하고, 탄착 시점에서의 유도 비행체의 탄착 위치를 Pt2로 정의한다. In the guided flight
도 2는 본 발명의 실시예에 따른 유도 비행체 계측 시스템을 개략적으로 나타낸 블록 구성도이다.2 is a block diagram schematically showing a guided vehicle measurement system according to an embodiment of the present invention.
본 실시예에 따른 유도 비행체 계측 시스템(100)은 영상 촬영장치(200) 및 유도 비행체 계측장치(300)를 포함한다. 영상 촬영장치(200)는 복수의 카메라(210, 220, 230)을 포함한다. 또한, 유도 비행체 계측장치(300)는 초기 좌표 측정부(310), 탄착 영상 획득부(320), 픽셀 좌표 추출부(330) 및 계측 처리부(340)를 포함한다. 도 1의 유도 비행체 계측 시스템(100)은 일 실시예에 따른 것으로서, 도 1에 도시된 모든 블록이 필수 구성요소는 아니며, 다른 실시예에서 유도 비행체 계측 시스템(100)에 포함된 일부 블록이 추가, 변경 또는 삭제될 수 있다. The guided
유도 비행체 계측 시스템(100)은 탄착지에 설치된 영상 촬영장치(200)를 이용하여 지상 표적에 탄착되는 유도 비행체에 대한 탄착 영상을 촬영하고, 탄착 영상을 기반으로 유도 비행체의 진입각 및 탄착각을 포함하는 탄착 정보를 생성한다. The guided
영상 촬영장치(200)는 탄착지에 설치되어 유도 비행체의 탄착 영상을 촬영하는 장치를 의미한다. The
여기서, 영상 촬영장치(200)는 복수의 카메라(210, 220, 230)를 포함할 수 있다. 복수의 카메라(210, 220, 230) 각각은 탄착지에 설치된 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된다. Here, the
본 실시예에 따른 영상 촬영장치(200)는 제1 카메라(210), 제2 카메라(220) 및 제3 카메라(230)와 같이 3 개의 카메라로 구성될 수 있으나 반드시 이에 한정되는 것은 아니며, 카메라의 개수는 변경될 수 있다. The image capturing
영상 촬영장치(200)는 촬영된 탄착 영상을 유도 비행체 계측장치(300)로 전송한다. 여기서, 탄착 영상은 2 차원 영상일 수 있으며, 적어도 하나의 프레임을 포함한 영상일 수 있다. The
유도 비행체 계측장치(300)는 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 제1 경사각을 산출하고, 초기 설정값을 기반으로 유도 비행체의 제2 경사각을 산출하며, 제1 경사각 및 제2 경사각을 이용하여 유도 비행체의 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다. 이하, 유도 비행체 계측장치(300)에 포함된 구성요소 각각에 대해 설명하도록 한다. The guided
초기 좌표 측정부(310)는 기 설치된 표적과 영상 촬영장치(200) 등의 초기 좌표를 측정하는 동작을 수행한다. The initial coordinate measurement unit 310 performs an operation of measuring the initial coordinates of a pre-installed target and the
초기 좌표 측정부(310)는 표적의 좌표, 표적의 중심을 기준으로 기 설정된 거리 및 각도로 설치된 영상 촬영장치(200)의 좌표 등에 대한 초기 좌표를 측정한다. 여기서, 초기 좌표는 GPS 좌표인 것이 바람직하다. The initial coordinate measurement unit 310 measures initial coordinates, such as the coordinates of the target and the coordinates of the
초기 좌표 측정부(310)는 기 설정된 센서 또는 탐색 장치에 의해 측정된 좌표를 기반으로 초기 좌표를 측정할 수 있으나 반드시 이에 한정되는 것은 아니며, 사용자에 의래 측정된 좌표 또는 외부 측정 장치로부터 측정된 좌표를 입력 받아 초기 좌표를 측정할 수도 있다. The initial coordinate measurement unit 310 may measure the initial coordinates based on the coordinates measured by a preset sensor or navigation device, but is not necessarily limited thereto, and coordinates measured by the user or coordinates measured from an external measurement device It is also possible to measure the initial coordinates by receiving .
초기 좌표 측정부(310)에서 측정된 초기 좌표는 표적에 관련된 좌표, 영상 촬영장치(200)에 포함된 적어도 하나의 카메라 각각에 대한 좌표, 설치 각도 등을 포함할 수 있다. The initial coordinates measured by the initial coordinate measuring unit 310 may include target-related coordinates, coordinates for each of at least one camera included in the
탄착 영상 획득부(320)는 유도 비행체가 지면에 탄착되는 경우, 영상 촬영장치(200)로부터 탄착 위치에 대한 유도 비행체의 탄착 영상을 획득한다. When the guided vehicle lands on the ground, the impact image acquisition unit 320 acquires an image of the impact of the guided vehicle with respect to the location of the impact from the
탄착 영상 획득부(320)는 탄착 위치를 측정하기 위한 유도 비행체의 탄착 영상을 획득하고, 획득된 탄착 영상을 저장할 수 있다. 여기서, 탄착 영상은 유도 비행체 계측장치(300) 내에 저장하는 것이 바람직하나 반드시 이에 한정되는 것은 아니며, 별도의 저장장치, 데이터베이스, 클라우드 등에 저장될 수도 있다. The impact image acquisition unit 320 may acquire an impact image of the guided flight vehicle for measuring the impact position and store the obtained impact image. Here, the image of the impact is preferably stored in the guided
여기서, 탄착 영상은 2차원 영상인 것이 바람직하며, 영상 촬영장치(200)에 포함된 적어도 하나의 카메라 각각에서 촬영된 적어도 하나의 영상을 포함할 수 있다. Here, the impact image is preferably a two-dimensional image, and may include at least one image captured by each of at least one camera included in the
픽셀 좌표 추출부(330)는 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 영상 픽셀좌표를 추출한다. The pixel coordinate extractor 330 extracts image pixel coordinates of the guided vehicle based on the image of the guided vehicle's impact.
픽셀 좌표 추출부(330)는 탄착 영상에서 유도 비행체의 진입시점과 탄착시점 각각에 대한 영상 픽셀좌표를 추출한다. The pixel coordinate extraction unit 330 extracts image pixel coordinates for each of the entry point and the point of impact of the guided flight vehicle from the impact image.
픽셀 좌표 추출부(330)는 탄착 영상 내에서 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 추출한다. 여기서, 제1 영상 픽셀좌표는 유도 비행체의 진입 시점에서 추출된 좌표이고, 제2 영상 픽셀좌표는 유도 비행체의 탄착 시점에서 추출된 좌표를 의미한다. 예를 들어, 픽셀 좌표 추출부(330)는 탄착 영상 내에서 t1 시점(진입점)에서의 제1 영상 픽셀좌표를 (xp1, yp1)로 추출하고, t2 시점(탄착점)에서의 제2 영상 픽셀좌표를 (xp2, yp2)로 추출할 수 있다. The pixel coordinate extraction unit 330 extracts pixel coordinates of the first image at the first viewpoint and pixel coordinates of the second image at the second viewpoint from the impact image. Here, the first image pixel coordinates are coordinates extracted at the point of entry of the guided vehicle, and the second image pixel coordinates are coordinates extracted at the point of impact of the guided vehicle. For example, the pixel coordinate extractor 330 extracts (x p1 , y p1 ) the pixel coordinates of the first image at time t1 (entry point) in the impact image, and extracts the pixel coordinates of the second image at time t2 (impression point). Image pixel coordinates can be extracted as (x p2 , y p2 ).
계측 처리부(340)는 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출한다. 계측 처리부(340)는 제1 경사각 및 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다. The
이하, 계측 처리부(340)에서 최종 진입각 및 최종 탄착각을 산출하기 위한 구체적인 단계에 대해 설명하도록 한다. Hereinafter, detailed steps for calculating the final entry angle and the final impact angle in the
우선, 계측 처리부(340)는 제1 경사각을 계산하는 단계를 수행한다. First, the
계측 처리부(340)는 표적 좌표계의 변환을 수행하며, 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 이용하여 제1 경사각을 계산한다. The
계측 처리부(340)는 탄착 영상에서 지면의 수평선에 대해 제1 영상 픽셀좌표의 진입점과 제2 영상 픽셀좌표의 탄착점을 연결한 벡터가 이루는 제1 경사각을 계산한다. 여기서, 제1 경사각은 항상 양의 값인 것이 바람직하다. The
본 실시예에 따른 계측 처리부(340)에서 제1 경사각을 계산하는 동작은 도 4의 단계 S420에 기재된 동작과 대응된다. An operation of calculating the first inclination angle in the
다음으로, 계측 처리부(340)는 제2 경사각을 계산하는 단계를 수행한다. Next, the
계측 처리부(340)는 탄착 좌표계의 변환을 수행하며, 기 설정된 상기 초기 진입값 및 상기 초기 탄착각을 기반으로 제1 공간 좌표 및 제2 공간 좌표를 산출한다. 여기서, 계측 처리부(340)는 초기 진입값 및 초기 탄착각을 이용하여 탄착 좌표계를 표적 좌표계로 변환한 제1 공간 좌표 및 제2 공간 좌표를 추정한다. The
이후, 계측 처리부(340)는 제1 공간 좌표 및 제2 공간 좌표를 정규화 영상좌표로 변환한 후 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 산출하여 제2 경사각을 계산한다. Thereafter, the
계측 처리부(340)는 제1 공간 좌표 및 제2 공간 좌표를 정규화 영상 좌표계 기반으로 변환한 후 픽셀 영상 좌표계 변환을 통해 제1 시점의 좌표를 대체하기 위한 제1 왜곡 픽셀좌표를 산출하고, 제2 시점의 좌표를 대체하기 위한 제2 왜곡 픽셀좌표를 산출한다. The
계측 처리부(340)는 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 연결한 벡터가 이루는 제2 경사각을 계산한다. The
본 실시예에 따른 계측 처리부(340)에서 제2 경사각을 계산하는 동작은 도 4의 단계 S430 내지 단계 S470에 기재된 동작과 대응된다. An operation of calculating the second inclination angle in the
마지막으로, 계측 처리부(340)는 탄착 정보 계측 처리 단계를 수행한다. Finally, the
계측 처리부(340)는 제1 경사각 및 제2 경사각 기반의 목적함수를 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다. The
계측 처리부(340)는 제1 경사각과 제2 경사각의 잔차 제곱을 최소화하는 목적 함수를 이용하여 최종 진입각 및 상기 최종 탄착각을 포함하는 탄착 정보를 생성한다. The
계측 처리부(340)는 목적 함수의 산출값이 기 설정된 허용오차 이상인 경우, 초기 진입값 및 초기 탄착각을 업데이트하여 신규 제2 경사각을 산출하는 동작을 반복하여 수행한다. 이후, 계측 처리부(340)는 제1 경사각 및 신규 제2 경사각의 잔차 제곱을 최소화하는 최종 진입각 및 최종 탄착각을 산출한다. When the calculated value of the objective function is greater than or equal to a predetermined tolerance, the
본 실시예에 따른 계측 처리부(340)에서 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 동작은 도 4의 단계 S480 내지 단계 S490에 기재된 동작과 대응된다. An operation of generating impact information including a final approach angle and a final impact angle in the
도 3 및 도 4는 본 발명의 실시예에 따른 유도 비행체의 탄착 정보 계측 방법을 설명하기 위한 순서도이다.3 and 4 are flowcharts for explaining a method for measuring impact information of a guided vehicle according to an embodiment of the present invention.
도 3는 유도 비행체 계측장치(300)에서 유도 비행체의 탄착 정보를 계측하는 방법을 개략적으로 나타낸 순서도이다. 3 is a flowchart schematically illustrating a method of measuring impact information of a guided vehicle in the guided
유도 비행체 계측장치(300)는 기 설치된 표적 및 영상 촬영장치(200)에 대한 표적 중심 좌표, 영상 촬영장치(200)에 포함된 카메라 각각의 좌표를 포함한느 초기 좌표를 측정한다(S310). 여기서, 초기 좌표는 GPS 좌표인 것이 바람직하다.The guided
유도 비행체 계측장치(300)는 유도 비행체가 지면에 탄착되면 탄착 위치를 측정하고, 측정된 탄착 위치에 대한 탄착 영상을 획득한다(S320, S330). 여기서, 탄착 영상은 2차원 영상인 것이 바람직하다.When the guided vehicle lands on the ground, the guided
유도 비행체 계측장치(300)는 유도 비행체의 탄착 영상을 기반으로 유도 비행체의 진입시점 및 탄착시점 각각에 대한 영상 픽셀좌표(이미지 좌표)를 추출한다(S340). The guided
유도 비행체 계측장치(300)는 영상 픽셀좌표, 초기 설정값 등을 이용하여 유도 비행체의 진입각 및 탄착각을 포함하는 탄착 정보를 생성한다(S350).The guided
유도 비행체 계측장치(300)는 탄착 영상에서 추출된 영상 픽셀좌표를 기반으로 유도 비행체의 제1 경사각을 산출하고, 초기 설정값을 기반으로 유도 비행체의 제2 경사각을 산출하며, 제1 경사각 및 제2 경사각을 이용하여 유도 비행체의 최종 진입각 및 최종 탄착각을 산출한다. The guided
도 4는 유도 비행체 계측장치(300)에서 유도 비행체의 탄착 정보를 계측하는 방법을 구체적으로 나타낸 순서도이다. 4 is a flowchart showing a method of measuring impact information of a guided vehicle in the guided
유도 비행체 계측장치(300)는 표적점을 기준으로 기 설정된 일정 거리 및 각도에 설치된 카메라와 표적의 초기 좌표를 측정한다(S410). 유도 비행체 계측장치(300)는 표적의 중심좌표, 카메라 좌표를 입력 받을 수 있다. The guided
또한, 유도 비행체 계측장치(300)는 유도 비행체가 탄착된 이후 탄착 영상을 통해 추출된 탄착점의 좌표, 영상 픽셀좌표 등을 입력 받을 수 있다. 구체적으로, 유도 비행체 계측장치(300)는 유도 비행체 지면 탄착 후 탄착위치를 측정하고, 탄착 영상을 저장한다. 유도 비행체 계측장치(300)는 카메라의 2차원 영상에서 유도 비행체의 진입시점과 탄착시점의 영상 픽셀좌표를 추출한다. 유도 비행체 계측장치(300)는 탄착 영상에서 제1 시점(진입점)에서의 제1 영상 픽셀좌표 (xp1, yp1)와 제2 시점(탄착점)에서의 제2 영상 픽셀좌표(xp2, yp2) 를 추출한다. In addition, the guided
유도 비행체 계측장치(300)는 카메라의 설치 각도를 계산하며, 좌표계 변환을 수행하고, 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 이용하여 제1 경사각을 계산한다(S420). The guided
단계 S420에서, 유도 비행체 계측장치(300)는 GPS 좌표를 표적 좌표계로 변환하는 단계를 수행한다. In step S420, the guided
유도 비행체 계측장치(300)는 지상에서 측정된 표적 중심과 카메라, 탄착점은 WGS 84 GPS(위도, 고도, 경도)로 이를 ECEF(지구중심 좌표)로 변환한다. The guided
유도 비행체 계측장치(300)는 변환된 지구중심 좌표축에서 표적 중심을 원점으로 하고 진북방향을 X축, 동쪽방향을 Y축, 지면방향을 Z 축으로 정의하는 NED(North-East-Down) 좌표계로 변환하는 행렬을 구성하여 표적 및 카메라 기준점을 계산한다. 예를 들어, 표적 원점은 O = (0, 0, 0)로 정의되고, 카메라 위치는 PC = (XC, YC, ZC)로 정의되며, 탄착 위치는 Pip = (Xip, Yip, Zip)로 정의된다. The guided
이후, 유도 비행체 계측장치(300)는 카메라 설치각을 계산할 수 있다. 유도 비행체 계측장치(300)는 측정된 카메라 위치에서 [수학식 1]을 이용하여 진북기준 설치각을 계산할 수 있다. After that, the guided
(ψc: 카메라 설치각, XC: 카메라 위치의 x좌표, YC: 카메라 위치의 y좌표)(ψ c : camera installation angle, X C : x coordinate of camera position, Y C : y coordinate of camera position)
이후, 유도 비행체 계측장치(300)는 표적 좌표계 및 카메라 좌표계 간의 변환 행렬을 계산한다. 유도 비행체 계측장치(300)에서 표적 좌표계로부터 카메라 좌표계 변환은 병진이동(To/c)과 회전행렬을 이용하여 계산될 수 있다. Then, the guided
회전행렬은 3-2-1 변환(Z-Y-X) 법칙을 따르며, 병진이동 및 회전행렬은 [수학식 2]와 같이 정의될 수 있다. rotation matrix follows the 3-2-1 transformation (ZYX) rule, and the translation and rotation matrices can be defined as in [Equation 2].
(ψc: 카메라 설치각, PC: 카메라 위치 좌표, : 회전행렬)(ψ c : camera installation angle, P C : camera position coordinates, : rotation matrix)
이후, 유도 비행체 계측장치(300)는 영상 픽셀좌표를 이용하여 제1 경사각을 계산하는 동작을 수행한다. Thereafter, the guided
유도 비행체 계측장치(300)는 제1 시점에서의 진입점에 대한 제1 영상 픽셀좌표(xp1, yp1)와 제2 시점에서의 탄착점에 대한 제2 영상 픽셀좌표(xp2, yp2)를 이용하여 제1 경사각(θm)을 계산한다. 여기서, 제1 경사각은 2 차원 탄착 영상 내의 영상 좌표에서 지면의 수평선에 대해 진입점 및 탄착점을 연결한 벡터가 이루는 각을 의미한다. 유도 비행체 계측장치(300)는 수학식 3을 이용하여 제1 경사각(θm)을 산출할 수 있다. 여기서, y'p1 = -yp1, y'p2 = -yp2로 정의한다.The guided flight
(θm: 제1 경사각, xp1: 제1 영상 픽셀좌표의 x 좌표, yp1: 제1 영상 픽셀좌표의 y 좌표, xp2: 제2 영상 픽셀좌표의 x 좌표, yp2: 제2 영상 픽셀좌표의 y 좌표, y'p1: - yp1, y'p2: - yp2)(θ m : 1st tilt angle, x p1 : x coordinate of pixel coordinates of 1st image, y p1 : y coordinate of pixel coordinates of 1st image, x p2 : x coordinate of pixel coordinates of 2nd image, y p2 : 2nd image y coordinate in pixel coordinates, y' p1 : - y p1 , y' p2 : - y p2 )
유도 비행체 계측장치(300)는 최적 함수 계산을 위해 기 설정된 초기 진입값(λ0) 및 초기 탄착각(γ0)을 설정한다(S430). The guided flight
유도 비행체 계측장치(300)는 탄착 좌표계의 단위 벡터를 표적 좌표계로 변환하는 동작을 수행한다(S440).The guided
탄착 좌표계는 탄착 위치를 원점으로 표적 좌표계에 대해 진입각, 탄착각만큼 회전한 좌표계로 X축방향은 유도 비행체의 속도 벡터와 평행하다. The impact coordinate system is a coordinate system rotated by the entry angle and impact angle with respect to the target coordinate system with the impact position as the origin, and the X-axis direction is parallel to the velocity vector of the guided flight vehicle.
유도 비행체 계측장치(300)에서, 제2 시점(t2, 탄착시점)의 3 차원 좌표(P2)는 측정되나 결정적으로 제1 시점(t1, 진입시점)의 3 차원 좌표(P1)는 측정이 불가하다. 이를 해결하기 위해 탄착 좌표계 단위벡터 [1,0,0]를 제1 시점(t1, 진입시점)으로 가정하여 적용한다. 이는 제1 시점(t1, 진입시점)의 3 차원 좌표를 알지 못하더라도 단위 벡터가 제1 시점(t1, 진입시점) 및 제2 시점(t2, 탄착시점)의 좌표를 연결한 선분과 평행하며 선분 상에 위치하기 때문에 계산되는 경사각은 동일하다.In the guided
유도 비행체 계측장치(300)에서, 제2 시점(t2, 탄착시점)의 3 차원 좌표(P2, 제2 공간 좌표) 및 제1 시점(t1, 진입시점)의 3 차원 좌표(P1, 제1 공간 좌표)는 [수학식 4]에 의해 산출된다. 여기서, 제1 시점(t1)의 3 차원 좌표(제1 공간 좌표) 및 제2 시점(t2)의 3 차원 좌표(제2 공간 좌표)는 표적 좌표계 기반의 좌표를 의미한다. In the guided flight
(P1: 제1 시점(t1)의 3 차원 좌표, P2: 제2 시점(t2)의 3 차원 좌표, λ0: 초기 진입값, γ0: 초기 탄착각)(P 1 : 3-dimensional coordinates of the first time point t1, P 2 : 3-dimensional coordinates of the second time point t2, λ 0 : initial entry value, γ 0 : initial impact angle)
이후, 유도 비행체 계측장치(300)는 표적 좌표계의 제1 공간 좌표 및 제2 공간 좌표를 정규화영상 좌표로 변환한다(S450). Thereafter, the guided
사영기하학은 투영을 다루는 기하학이며 카메라로 획득한 영상은 3차원 공간에 있는 점들을 영상픽셀 평면에 투영시킨 것이다. 카메라 초점과 투영된 점을 연결하면 투영선이 나오고 투영선상에 있는 3차원 모든 점들은 동일한 점으로 투영된다. 이러한 투영관계는 동차 좌표의 개념과 일치하며 동차 좌표는 임의의 0이 아닌 상수 w에 대해 (x,y)를 (wx, wy, w)로 표현하는 것으로 스케일은 무시된다. Projection geometry is a geometry that handles projection, and an image acquired by a camera is a projection of points in a three-dimensional space onto a plane of image pixels. If you connect the camera focal point and the projected point, a projection line comes out, and all three-dimensional points on the projection line are projected to the same point. This projection relationship corresponds to the concept of homogeneous coordinates, which expresses (x,y) as (wx, wy, w) for an arbitrary non-zero constant w, ignoring scale.
3차원 공간상의 제1 공간 좌표 및 제2 공간 좌표에서 정규화영상 좌표로의 변환은 [수학식 5]와 같이 수행될 수 있다. 여기서, 초점거리(f)는 1에 해당된다.The conversion from the first spatial coordinates and the second spatial coordinates in the 3D space to the normalized image coordinates may be performed as in [Equation 5]. Here, the focal length f corresponds to 1.
[수학식 5]를 이용하여 제1 공간 좌표 및 제2 공간 좌표가 변환된 제1 정규화영상 좌표 및 제2 정규화영상 좌표는 [수학식 6]과 같이 정의될 수 있다. The first normalized image coordinates and the second normalized image coordinates obtained by transforming the first spatial coordinates and the second spatial coordinates using [Equation 5] may be defined as in [Equation 6].
유도 비행체 계측장치(300)는 정규화영상 좌표를 왜곡된 픽셀 좌표로 변환한다. The guided
유도 비행체 계측장치(300)는 제1 정규화영상 좌표 및 제2 정규화영상 좌표를 왜곡된 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표로 변환한다(S460).The guided
정규화영상 좌표는 카메라 파라미터 영향이 제거된 기하학적 좌표계이다. 카메라 내부 파라미터와 렌즈왜곡 파라미터는 카메라 보정을 통해 구할 수 있다. 카메라 보정은 사진계측/컴퓨터비전 분야에서 일반적으로 다루어지고 목적에 따라 다양한 응용기술 및 이론이 존재하므로 여기서는 구체적인 설명은 생략한다. 제시된 카메라 왜곡에 대한 수학적 모델도 반드시 이에 한정되는 것은 아니며, 다양한 모델로 변경 가능하다. The normalized image coordinate is a geometric coordinate system in which the effects of camera parameters are removed. Camera internal parameters and lens distortion parameters can be obtained through camera calibration. Camera calibration is generally dealt with in the field of photometry/computer vision, and various application technologies and theories exist depending on the purpose, so a detailed description is omitted here. The presented mathematical model for camera distortion is not necessarily limited thereto, and can be changed to various models.
유도 비행체 계측장치(300)는 [수학식 7]과 같이 왜곡된 정규화영상 좌표를 산출한다. The guided
이후, 유도 비행체 계측장치(300)는 [수학식 8]을 이용하여 왜곡된 정규화영상 좌표 를 픽셀좌표로 변환하여 왜곡된 왜곡 픽셀좌표를 계산한다. Thereafter, the guided
유도 비행체 계측장치(300)는 [수학식 8]을 이용하여 제1 시점(t1)에서의 진입점 좌표를 대체한 제1 왜곡 픽셀좌표와 제2 시점(t2)에서의 탄착점 좌표를 대체한 제2 왜곡 픽셀좌표를 추출한다. 여기서, , 로 정의한다.The guided
이후, 유도 비행체 계측장치(300)는 변환된 왜곡 픽셀좌표를 기반으로 제2 경사각(θest)을 계산한다(S470).Thereafter, the guided
유도 비행체 계측장치(300)는 변환된 왜곡 픽셀좌표에서 제1 시점(t1)에서의 진입점 좌표를 대체한 제1 왜곡 픽셀좌표와 제2 시점(t2)에서의 탄착점 좌표를 대체한 제2 왜곡 픽셀좌표를 이용하여 제2 경사각(θest)을 계산한다. 여기서, 제2 경사각(θest)은 2 차원 영상좌표에서 지면의 수평선에 대해 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 연결한 벡터가 이루는 각을 의미하며, 항상 양의 값을 가진다. The guided
유도 비행체 계측장치(300)는 [수학식 9]를 이용하여 제2 경사각(θest)을 산출한다. The guided
(θest: 제2 경사각, : 제1 왜곡 픽셀좌표의 x 좌표, : 제1 왜곡 픽셀좌표의 y 좌표, : 제2 왜곡 픽셀좌표의 x 좌표, : 제2 왜곡 픽셀좌표의 y 좌표, : , : )(θ est : second inclination angle, : x coordinate of the first distortion pixel coordinate, : y coordinate of the first distortion pixel coordinate, : x coordinate of the second distortion pixel coordinate, : y coordinate of the second distortion pixel coordinate, : , : )
유도 비행체 계측장치(300)는 제1 경사각 및 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성한다(S480, S482, S490). 유도 비행체 계측장치(300)는 최적의 최종 진입각 및 최종 탄착각을 산출하기 위하여 목적함수를 이용하며, 목적함수를 통한 반복 계산을 수행한다. The guided
유도 비행체 계측장치(300)는 탄착 영상에서 산출된 제1 경사각(θm)과 기 설정된 초기 진입값 및 초기 탄착각을 통해 추정된 제2 경사각(θest)의 잔차 제곱을 최소화하는 목적함수를 이용하여 최종 진입각 및 최종 탄착각을 산출한다. 목적함수는 다양한 방법으로 정의가 가능하며 최적값을 계산하기 위한 알고리듬은 반드시 이에 한정되는 것은 아니며, 다양한 형태로 변형 가능하다.The guided
유도 비행체 계측장치(300)는 목적함수의 출력값이 목적함수가 설정한 허용오차(ε)보다 큰 경우 진입각과 탄착각을 업데이트한다. 유도 비행체 계측장치(300)는 목적함수의 출력값이 허용오차(ε) 미만이 될 때까지 진입각과 탄착각을 반복 계산한다. The guided flight
유도 비행체 계측장치(300)는 [수학식 10]을 이용하여 목적함수의 출력값을 산출한다. 여기서, k는 카메라 개수이며 w는 가중치를 의미한다. The guided
유도 비행체 계측장치(300)는 허용오차(ε) 기준을 만족하는 목적함수의 진입각 및 탄착각을 최종 진입각 및 최종 탄착각으로 결정한다. The guided
도 3 및 도 4에서는 각 단계를 순차적으로 실행하는 것으로 기재하고 있으나, 반드시 이에 한정되는 것은 아니다. 다시 말해, 도 3 및 도 4에 기재된 단계를 변경하여 실행하거나 하나 이상의 단계를 병렬적으로 실행하는 것으로 적용 가능할 것이므로, 도 3 및 도 4는 시계열적인 순서로 한정되는 것은 아니다.In Figures 3 and 4, each step is described as sequentially executed, but is not necessarily limited thereto. In other words, since it will be applicable by changing and executing the steps described in FIGS. 3 and 4 or executing one or more steps in parallel, FIGS. 3 and 4 are not limited to a time-series order.
도 3 및 도 4에 기재된 본 실시예에 따른 유도 비행체의 탄착 정보 계측 방법은 애플리케이션(또는 프로그램)으로 구현되고 단말장치(또는 컴퓨터)로 읽을 수 있는 기록매체에 기록될 수 있다. 본 실시예에 따른 유도 비행체의 탄착 정보 계측 방법을 구현하기 위한 애플리케이션(또는 프로그램)이 기록되고 단말장치(또는 컴퓨터)가 읽을 수 있는 기록매체는 컴퓨팅 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치 또는 매체를 포함한다.The method for measuring impact information of the guided flight vehicle according to the present embodiment described in FIGS. 3 and 4 may be implemented as an application (or program) and recorded on a recording medium readable by a terminal device (or computer). The application (or program) for implementing the method of measuring impact information of the guided flight vehicle according to this embodiment is recorded and the recording medium readable by the terminal device (or computer) stores all kinds of data that can be read by the computing system. It includes a recording device or medium of
도 5는 본 발명의 실시예에 따른 진입 시점 및 탄착 시점의 탄착 영상을 나타낸 예시도이다.5 is an exemplary view showing images of an impact at an entry point and a point of impact according to an embodiment of the present invention.
도 5는 유도 비행체 계측 시스템(100)에 포함된 복수의 카메라(C1, C2, C3) 각각으로부터 획득한 2차원 탄착 영상을 나타낸다. FIG. 5 shows two-dimensional impact images obtained from each of the plurality of cameras C1, C2, and C3 included in the guided
도 5에서는 탄착 영상에서 보여지는 진입 시점(t1)에서의 유도 비행체의 진입 위치를 Pt1으로 나타내고, 탄착 영상에서 보여지는 탄착 시점(t2)에서의 유도 비행체의 탄착 위치를 Pt2로 나타낸다. In FIG. 5, the entry position of the guided vehicle at the entry time point t1 shown in the impact image is represented by P t1 , and the impact position of the guided vehicle at the impact time point t2 shown in the impact image is indicated by P t2 .
도 6은 본 발명의 실시예에 따른 유도 비행체가 탄착되는 경사각을 나타낸 예시도이다.6 is an exemplary diagram showing an inclination angle at which a guided flight vehicle lands according to an embodiment of the present invention.
유도 비행체 계측장치(300)에서 탄착 영상을 기반으로 산출된 제1 경사각을 나타낸다. The first inclination angle calculated based on the image of the impact in the guided
유도 비행체 계측장치(300)는 탄착 영상에서 지면의 수평선에 대해 유도 비행체의 진입 위치(Pt1)과 탄착 위치를 (Pt2)를 연결한 벡터가 이루는 제1 경사각을 산출한다. The guided
도 6을 참고하면, 유도 비행체 계측장치(300)는 복수의 카메라(C1, C2, C3) 각각으로부터 획득한 탄착 영상 각각에 대한 제1 경사각을 나타낸다. Referring to FIG. 6 , the guided
도 6에서는 제1 카메라(C1)의 탄착 영상으로 산출된 제1 경사각(θ1), 제2 카메라(C2)의 탄착 영상으로 산출된 제1 경사각(θ2), 제3 카메라(C3)의 탄착 영상으로 산출된 제1 경사각(θ3)을 나타낸다. In FIG. 6 , the first inclination angle θ 1 calculated from the impact image of the first camera C1, the first inclination angle θ 2 calculated from the impact image of the second camera C2, and the third camera C3 It shows the first inclination angle (θ 3 ) calculated from the impact image.
도 7은 본 발명의 실시예에 따른 유도 비행체 계측을 위한 좌표계 간의 관계를 설명하기 위한 도면이다.7 is a diagram for explaining a relationship between coordinate systems for measuring a guided vehicle according to an embodiment of the present invention.
본 발명의 실시예에 따른 유도 비행체 계측 시스템(100)에서 사용되는 좌표계 및 그들 간의 관계를 나타낸다. Coordinate systems used in the guided
표적 좌표계(X, Y, Z)는 표적중심을 원점으로 하고 진북방향을 X축, 동쪽을 Y축, 지면을 Z축으로 정의하는 NED(North-East-Down) 좌표계로 정의한다. The target coordinate system (X, Y, Z) is defined as the North-East-Down (NED) coordinate system with the center of the target as the origin and the X-axis as the true north direction, the Y-axis as the east, and the Z-axis as the ground.
탄착 좌표계(Xi, Yi, Zi)는 탄착점을 원점으로하며 표적 좌표계에서 진입각, 탄착각만큼 회전 이동한 좌표계이다. The impact coordinate system (X i , Y i , Z i ) is a coordinate system rotated by the entry and impact angles in the target coordinate system with the impact point as the origin.
카메라 좌표계(Xc, Yc, Zc)는 카메라 렌즈(초점)의 중심을 원점으로 하고 정면 광학축 방향을 Z축, 오른쪽방향을 X, 아래방향을 Y축으로 정의한 좌표계이다. The camera coordinate system (X c , Y c , Z c ) is a coordinate system in which the center of the camera lens (focus) is the origin, and the Z-axis is the front optical axis direction, the X-axis is the right direction, and the Y-axis is the downward direction.
픽셀영상 좌표계(Xp, Yp)는 획득한 영상 좌표계로 영상의 왼쪽상단 끝점을 원점으로 오른쪽방향을 X축, 아래방향을 Y축으로 정의한 평면상의 픽셀단위 좌표계이며 공간상의 3차원 점이 투영되며 카메라 원점으로부터 초점거리만큼 떨어져 있다. The pixel image coordinate system (X p , Y p ) is an acquired image coordinate system. It is a pixel unit coordinate system on a plane defined by the origin at the top left end point of the image, the right direction as the X axis, and the down direction as the Y axis. A three-dimensional point in space is projected. The distance from the camera origin is equal to the focal length.
정규화영상 좌표계(u, v)는 카메라 초점과의 거리가 1인 가상의 평면으로 좌표계의 단위가 정규화되어 카메라 내부 파라미터의 영향을 제거한 좌표계이다. 정규화영상좌표계의 원점은 평면의 중심이며 카메라 광학축(Zc)과의 교점이며 오른쪽 방향을 u축, 아래방향을 v축으로 정의한다.The normalized image coordinate system (u, v) is an imaginary plane with a distance of 1 from the camera focal point, and the unit of the coordinate system is normalized to remove the influence of the camera's internal parameters. The origin of the normalized image coordinate system is the center of the plane and the point of intersection with the camera optical axis (Z c ), and the right direction is defined as the u-axis and the downward direction as the v-axis.
본 실시예에 따른 유도 비행체 계측장치(300)는 표적 좌표계, 탄착 좌표계, 픽셀영상 좌표계, 정규화영상 좌표계, 카메라 좌표계 등의 좌표계 간 변환을 통해 제1 경사각 및 제2 경사각을 산출하여 유도 비행체의 최종 진입각 및 최종 탄착각을 산출하여 탄착 정보를 생성한다. The guided
이상의 설명은 본 발명의 실시예의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명의 실시예가 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 실시예의 본질적인 특성에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명의 실시예들은 본 발명의 실시예의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 실시예의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 실시예의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 실시예의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is only illustrative of the technical idea of the embodiment of the present invention, and those skilled in the art to which the embodiment of the present invention belongs can make various modifications and modifications within the scope not departing from the essential characteristics of the embodiment of the present invention. transformation will be possible. Therefore, the embodiments of the present invention are not intended to limit the technical idea of the embodiment of the present invention, but to explain, and the scope of the technical idea of the embodiment of the present invention is not limited by these examples. The protection scope of the embodiments of the present invention should be construed according to the claims below, and all technical ideas within the equivalent range should be construed as being included in the scope of the embodiments of the present invention.
100: 유도 비행체 계측 시스템
200: 영상 촬영장치 300: 유도 비행체 계측장치
310: 초기 좌표 측정부 320: 탄착 영상 획득부
330: 픽셀 좌표 추출부 340: 계측 처리부100: guided flight instrument system
200: image capture device 300: guided air vehicle measuring device
310: initial coordinate measurement unit 320: impact image acquisition unit
330: pixel coordinate extraction unit 340: measurement processing unit
Claims (13)
표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정 단계;
유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득 단계;
상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출 단계; 및
상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리 단계
를 포함하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.A method for measuring impact information in a guided flight vehicle measuring device,
an initial coordinate measurement step of measuring the coordinates of a target and the coordinates of an image capture device installed at a preset distance and angle based on the center of the target;
When the guided vehicle lands on the ground, an image capture step of acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device;
a pixel coordinate extraction step of extracting image pixel coordinates for the entry point and the point of impact of the guided vehicle based on the image of the impact; and
A first inclination angle is calculated based on the image pixel coordinates, a second inclination angle is calculated based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, and the first inclination angle and the second inclination angle are calculated. A measurement processing step of generating impact information including a final approach angle and a final impact angle using
A method for measuring impact information of a guided flight vehicle, comprising:
상기 픽셀 좌표 추출 단계는,
상기 탄착 영상 내에서 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 추출하되,
상기 제1 영상 픽셀좌표는 상기 유도 비행체의 진입 시점에서 추출된 좌표이고, 상기 제2 영상 픽셀좌표는 상기 유도 비행체의 탄착 시점에서 추출된 좌표인 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 1,
The pixel coordinate extraction step,
Extracting pixel coordinates of a first image at a first viewpoint and pixel coordinates of a second image at a second viewpoint within the image of the impact,
The first image pixel coordinates are coordinates extracted at the point of entry of the guided vehicle, and the second image pixel coordinates are coordinates extracted at the point of impact of the guided vehicle.
상기 계측 처리 단계는,
표적 좌표계의 변환을 수행하며, 상기 제1 영상 픽셀좌표 및 상기 제2 영상 픽셀좌표를 이용하여 상기 제1 경사각을 계산하는 제1 경사각 계산 단계;
탄착 좌표계의 변환을 수행하며, 기 설정된 상기 초기 진입값 및 상기 초기 탄착각을 기반으로 제1 공간 좌표 및 제2 공간 좌표를 산출하고, 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상좌표로 변환한 후 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 산출하여 상기 제2 경사각을 계산하는 제2 경사각 계산 단계; 및
상기 제1 경사각 및 상기 제2 경사각 기반의 목적함수를 이용하여 상기 최종 진입각 및 상기 최종 탄착각을 포함하는 상기 탄착 정보를 생성하는 탄착 정보 계측 처리 단계
를 포함하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 2,
In the measurement processing step,
a first inclination angle calculation step of converting a target coordinate system and calculating the first inclination angle using the first image pixel coordinates and the second image pixel coordinates;
Converting the impact coordinate system, calculating first spatial coordinates and second spatial coordinates based on the preset initial entry value and the initial impact angle, and converting the first spatial coordinates and the second spatial coordinates into normalized image coordinates a second inclination angle calculating step of calculating the second inclination angle by calculating first and second distortion pixel coordinates after converting to ?; and
An impact information measurement and processing step of generating the impact information including the final approach angle and the final impact angle by using an objective function based on the first inclination angle and the second inclination angle
A method for measuring impact information of a guided flight vehicle, comprising:
상기 제1 경사각 계산 단계는,
상기 탄착 영상에서 지면의 수평선에 대해 상기 제1 영상 픽셀좌표의 진입점과 상기 제2 영상 픽셀좌표의 탄착점을 연결한 벡터가 이루는 상기 제1 경사각을
(θm: 제1 경사각, xp1: 제1 영상 픽셀좌표의 x 좌표, yp1: 제1 영상 픽셀좌표의 y 좌표, xp2: 제2 영상 픽셀좌표의 x 좌표, yp2: 제2 영상 픽셀좌표의 y 좌표, y'p1: - yp1, y'p2: - yp2)
를 이용하여 계산하되, 상기 제1 경사각은 항상 양의 값인 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 3,
In the first inclination angle calculation step,
The first inclination angle formed by a vector connecting the entry point of the pixel coordinates of the first image and the point of impact of the pixel coordinates of the second image with respect to the horizontal line of the ground in the impact image
(θ m : 1st tilt angle, x p1 : x coordinate of pixel coordinates of 1st image, y p1 : y coordinate of pixel coordinates of 1st image, x p2 : x coordinate of pixel coordinates of 2nd image, y p2 : 2nd image y coordinate in pixel coordinates, y' p1 : - y p1 , y' p2 : - y p2 )
Calculated using , wherein the first inclination angle is always a positive value.
상기 제2 경사각 계산 단계는,
상기 초기 진입값 및 상기 초기 탄착각을 이용하여 탄착 좌표계를 표적 좌표계로 변환한 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 추정하고,
상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상 좌표계 기반으로 변환한 후 픽셀 영상 좌표계 변환을 통해 상기 제1 시점의 좌표를 대체하기 위한 상기 제1 왜곡 픽셀좌표 및 상기 제2 시점의 좌표를 대체하기 위한 상기 제2 왜곡 픽셀좌표를 산출하되,
상기 제1 왜곡 픽셀좌표 및 상기 제2 왜곡 픽셀좌표를 이용하여 상기 제2 경사각을 계산하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 3,
The second inclination angle calculation step,
Estimating the first spatial coordinates and the second spatial coordinates obtained by converting the impact coordinate system into a target coordinate system using the initial entry value and the initial impact angle;
After converting the first spatial coordinates and the second spatial coordinates based on the normalized image coordinate system, the first distorted pixel coordinates and the coordinates of the second viewpoint to replace the coordinates of the first viewpoint through pixel image coordinate system conversion Calculate the second distortion pixel coordinates for replacement,
and calculating the second inclination angle using the first distorted pixel coordinates and the second distorted pixel coordinates.
상기 제2 경사각 계산 단계는,
상기 제1 왜곡 픽셀좌표 및 상기 제2 왜곡 픽셀좌표를 기반으로 상기 제2 경사각을
(θest: 제2 경사각, : 제1 왜곡 픽셀좌표의 x 좌표, : 제1 왜곡 픽셀좌표의 y 좌표, : 제2 왜곡 픽셀좌표의 x 좌표, : 제2 왜곡 픽셀좌표의 y 좌표, : , : )
를 이용하여 계산하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 5,
The second inclination angle calculation step,
The second inclination angle is determined based on the first distortion pixel coordinate and the second distortion pixel coordinate.
(θ est : second inclination angle, : x coordinate of the first distortion pixel coordinate, : y coordinate of the first distortion pixel coordinate, : x coordinate of the second distortion pixel coordinate, : y coordinate of the second distortion pixel coordinate, : , : )
A method for measuring impact information of a guided flight vehicle, characterized in that for calculating using
상기 탄착 정보 계측 처리 단계는,
상기 제1 경사각과 상기 제2 경사각의 잔차 제곱을 최소화하는 목적 함수를 이용하여 상기 최종 진입각 및 상기 최종 탄착각을 포함하는 상기 탄착 정보를 생성하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 3,
The impact information measurement processing step,
Wherein the impact information including the final approach angle and the final impact angle is generated using an objective function that minimizes the square of the residual of the first inclination angle and the second inclination angle.
상기 탄착 정보 계측 처리 단계는,
상기 목적 함수의 산출값이 기 설정된 허용오차 이상인 경우, 상기 초기 진입값 및 상기 초기 탄착각을 업데이트하여 신규 제2 경사각을 산출하는 동작을 반복하고, 상기 제1 경사각 및 상기 신규 제2 경사각의 잔차 제곱을 최소화하는 상기 최종 진입각 및 상기 최종 탄착각을 산출하는 것을 특징으로 하는 유도 비행체의 탄착 정보 계측 방법.According to claim 7,
The impact information measurement processing step,
If the calculated value of the objective function is greater than or equal to the preset tolerance, an operation of updating the initial entry value and the initial impact angle to calculate a new second inclination angle is repeated, and the residuals of the first inclination angle and the new second inclination angle are repeated. The method of measuring impact information of a guided vehicle, characterized in that for calculating the final approach angle and the final impact angle that minimize the square.
표적의 좌표, 상기 표적의 중심을 기준으로 기 설정된 거리 및 각도에 설치된 영상 촬영장치의 좌표를 측정하는 초기 좌표 측정부;
유도 비행체가 지면에 탄착되는 경우, 상기 영상 촬영장치로부터 탄착 위치에 대한 상기 유도 비행체의 탄착 영상을 획득하는 탄착 영상 획득부;
상기 탄착 영상을 기반으로 상기 유도 비행체의 진입시점 및 탄착시점에 대한 영상 픽셀좌표를 추출하는 픽셀 좌표 추출부; 및
상기 영상 픽셀좌표를 기반으로 제1 경사각을 산출하고, 기 설정된 초기 진입값 및 초기 탄착각을 이용하여 산출된 왜곡 픽셀좌표를 기반으로 제2 경사각을 산출하며, 상기 제1 경사각 및 상기 제2 경사각을 이용하여 최종 진입각 및 최종 탄착각을 포함하는 탄착 정보를 생성하는 계측 처리부
를 포함하는 것을 특징으로 하는 유도 비행체 계측장치.In the device for measuring the impact information of the guided flight vehicle,
an initial coordinate measurement unit for measuring coordinates of a target and coordinates of an image capture device installed at a preset distance and angle based on the center of the target;
When the guided vehicle lands on the ground, an impact image acquisition unit for acquiring an image of the impact of the guided vehicle with respect to the location of the impact from the image capture device;
a pixel coordinate extraction unit for extracting image pixel coordinates of the entry point and the point of impact of the guided vehicle based on the image of the impact; and
A first inclination angle is calculated based on the image pixel coordinates, a second inclination angle is calculated based on the distortion pixel coordinates calculated using a predetermined initial entry value and an initial impact angle, and the first inclination angle and the second inclination angle are calculated. Measurement processing unit for generating impact information including the final approach angle and the final impact angle using
A guided flight instrument comprising a.
상기 픽셀 좌표 추출부는,
상기 탄착 영상 내에서 제1 시점에서의 제1 영상 픽셀좌표 및 제2 시점에서의 제2 영상 픽셀좌표를 추출하되,
상기 제1 영상 픽셀좌표는 상기 유도 비행체의 진입 시점에서 추출된 좌표이고, 상기 제2 영상 픽셀좌표는 상기 유도 비행체의 탄착 시점에서 추출된 좌표인 것을 특징으로 하는 유도 비행체 계측장치.According to claim 9,
The pixel coordinate extraction unit,
Extracting pixel coordinates of a first image at a first viewpoint and pixel coordinates of a second image at a second viewpoint within the image of the impact,
The first image pixel coordinates are coordinates extracted at the point of entry of the guided vehicle, and the second image pixel coordinates are coordinates extracted at the point of impact of the guided vehicle.
상기 계측 처리부는,
표적 좌표계의 변환을 수행하며, 상기 제1 영상 픽셀좌표 및 상기 제2 영상 픽셀좌표를 이용하여 상기 제1 경사각을 계산하고,
탄착 좌표계의 변환을 수행하며, 기 설정된 상기 초기 진입값 및 상기 초기 탄착각을 기반으로 제1 공간 좌표 및 제2 공간 좌표를 산출하고, 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상좌표로 변환한 후 제1 왜곡 픽셀좌표 및 제2 왜곡 픽셀좌표를 산출하여 상기 제2 경사각을 계산하되,
상기 제1 경사각 및 상기 제2 경사각 기반의 목적함수를 이용하여 상기 최종 진입각 및 상기 최종 탄착각을 포함하는 상기 탄착 정보를 생성하는 것을 특징으로 하는 유도 비행체 계측장치.According to claim 10,
The measurement processing unit,
Converting a target coordinate system and calculating the first inclination angle using the pixel coordinates of the first image and the pixel coordinates of the second image;
Transforming the impact coordinate system, calculating first spatial coordinates and second spatial coordinates based on the preset initial entry value and the initial impact angle, and converting the first spatial coordinates and the second spatial coordinates into normalized image coordinates After converting to , the second tilt angle is calculated by calculating the first distortion pixel coordinate and the second distortion pixel coordinate,
and generating the impact information including the final approach angle and the final impact angle by using an objective function based on the first inclination angle and the second inclination angle.
상기 계측 처리부는,
상기 탄착 영상에서 지면의 수평선에 대해 상기 제1 영상 픽셀좌표의 진입점과 상기 제2 영상 픽셀좌표의 탄착점을 연결한 벡터가 이루는 상기 제1 경사각을 계산하되, 상기 제1 경사각은 항상 양의 값인 것을 특징으로 하는 유도 비행체 계측장치.According to claim 11,
The measurement processing unit,
Calculate the first inclination angle formed by a vector connecting the entry point of the pixel coordinates of the first image and the point of impact of the pixel coordinates of the second image with respect to the horizontal line of the ground in the impact image, wherein the first inclination angle is always a positive value A guided flight instrument, characterized in that.
상기 계측 처리부는,
상기 초기 진입값 및 상기 초기 탄착각을 이용하여 탄착 좌표계를 표적 좌표계로 변환한 상기 제1 공간 좌표 및 상기 제2 공간 좌표를 추정하고,
상기 제1 공간 좌표 및 상기 제2 공간 좌표를 정규화 영상 좌표계 기반으로 변환한 후 픽셀 영상 좌표계 변환을 통해 상기 제1 시점의 좌표를 대체하기 위한 상기 제1 왜곡 픽셀좌표 및 상기 제2 시점의 좌표를 대체하기 위한 상기 제2 왜곡 픽셀좌표를 산출하되,
상기 제1 왜곡 픽셀좌표 및 상기 제2 왜곡 픽셀좌표를 이용하여 상기 제2 경사각을 계산하는 것을 특징으로 하는 유도 비행체 계측장치.
According to claim 11,
The measurement processing unit,
Estimating the first spatial coordinates and the second spatial coordinates obtained by converting the impact coordinate system into a target coordinate system using the initial entry value and the initial impact angle;
After converting the first spatial coordinates and the second spatial coordinates based on the normalized image coordinate system, the first distorted pixel coordinates and the coordinates of the second viewpoint to replace the coordinates of the first viewpoint through pixel image coordinate system conversion Calculate the second distortion pixel coordinates for replacement,
and calculating the second inclination angle using the first distorted pixel coordinates and the second distorted pixel coordinates.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210046733A KR102494973B1 (en) | 2021-04-09 | 2021-04-09 | Method and Apparatus for Measuring Impact Information of Guided Air Vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020210046733A KR102494973B1 (en) | 2021-04-09 | 2021-04-09 | Method and Apparatus for Measuring Impact Information of Guided Air Vehicle |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20220140342A KR20220140342A (en) | 2022-10-18 |
KR102494973B1 true KR102494973B1 (en) | 2023-02-06 |
Family
ID=83803886
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020210046733A KR102494973B1 (en) | 2021-04-09 | 2021-04-09 | Method and Apparatus for Measuring Impact Information of Guided Air Vehicle |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102494973B1 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000304499A (en) | 1999-04-22 | 2000-11-02 | Mitsubishi Electric Corp | Image processor and processing method for launching vehicle |
KR101992417B1 (en) | 2018-07-06 | 2019-06-24 | 국방과학연구소 | Apparatus and method for measuring airburst height of weapon system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20070111418A (en) * | 2007-10-04 | 2007-11-21 | 희 한 | Remote gunshot system to observed target |
KR101900563B1 (en) * | 2016-10-07 | 2018-11-05 | 주식회사 한화 | Method for target data acquisition |
-
2021
- 2021-04-09 KR KR1020210046733A patent/KR102494973B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000304499A (en) | 1999-04-22 | 2000-11-02 | Mitsubishi Electric Corp | Image processor and processing method for launching vehicle |
KR101992417B1 (en) | 2018-07-06 | 2019-06-24 | 국방과학연구소 | Apparatus and method for measuring airburst height of weapon system |
Also Published As
Publication number | Publication date |
---|---|
KR20220140342A (en) | 2022-10-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885328B2 (en) | Determination of position from images and associated camera positions | |
JP5992184B2 (en) | Image data processing apparatus, image data processing method, and image data processing program | |
EP3008489B1 (en) | Mobile imaging platform calibration | |
CN112444242B (en) | Pose optimization method and device | |
JP6877293B2 (en) | Location information recording method and equipment | |
CN110617821A (en) | Positioning method, positioning device and storage medium | |
CN105716625B (en) | Method and system for automatically detecting misalignment of monitoring sensors of an aircraft | |
KR102239562B1 (en) | Fusion system between airborne and terrestrial observation data | |
JP2022042146A (en) | Data processor, data processing method, and data processing program | |
CN115423863B (en) | Camera pose estimation method and device and computer readable storage medium | |
WO2012134237A2 (en) | System and method for estimating the attitude of a camera having captured an image | |
CN114549595A (en) | Data processing method and device, electronic equipment and storage medium | |
KR20230003803A (en) | Automatic calibration through vector matching of the LiDAR coordinate system and the camera coordinate system | |
KR102494973B1 (en) | Method and Apparatus for Measuring Impact Information of Guided Air Vehicle | |
CN113052974A (en) | Method and device for reconstructing three-dimensional surface of object | |
CN110989645A (en) | Target space attitude processing method based on compound eye imaging principle | |
CN115950435A (en) | Real-time positioning method for unmanned aerial vehicle inspection image | |
JP5920807B2 (en) | Optical axis direction identification method, optical axis direction identification device, and optical axis direction identification program | |
KR102127135B1 (en) | System and method for facilities precise inspection | |
KR20150096127A (en) | Method and apparatus for calculating location of points captured in image | |
CN111161357B (en) | Information processing method and device, augmented reality device and readable storage medium | |
JP6861592B2 (en) | Data thinning device, surveying device, surveying system and data thinning method | |
JP7075090B1 (en) | Information processing system and information processing method | |
JP7363225B2 (en) | Measuring device, measuring system, measuring method and program | |
CN116664698B (en) | Automatic calibration method for vehicle-mounted binocular camera and GNSS/IMU |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |